Удивительно точно. Ты объявляешь что-то хренью и обвиняешь в наркомании - но не предлагаешь ни аргументов, ни фактов, и сложно понять вообще, что именно тебя так смутило.Конкретика-то есть?
Ты всегда считаешь хренью всё, что не понял? Я уже не говорю о прелестной привычке выделять слова, чисто как вот в школьной тетрадке.Классе в третьем мне за сочинение как-то влепили трояк - за слово "презинджантроп". Учительница не знала такого слова и решила, что это какая-то сплошная чудовищная ошибка.По сабжу. Если бы ты всерьёз занимался техническим SEO, ты бы наверняка столкнулся пару раз с "ловушками для ботов". Их несколько типов, и встречаются они на удивление часто.
Ну ты же понял, о чём речь. Ясно-понятно, что плагины лежат в своей папке, и "там" - это не "там", а "вон где".И да, я за легалайз.
Я бы не стал. Если, конечно, он весь краулинговый бюджет на кэша не тратит и в индекс обновления по сайту заходят быстро.
Сомневаюсь. Если посмотреть на изменения роботности в зависимости от пачки параметров посетителя - сомнения только усиливаются.
Это может быть интересно только поисковым ботам и некоторым парсерам. Гуглобот обожает пастись в папке шаблонов. А если там какие-нибудь кривые плагины торчат (кэширования особенно) - он там просто поселиться может.Тут надо проблемы на уровне шаблона выявлять, а не на ботов святой водой прыскать в ужосе
Да. Для прокачки профилей используют те ресурсы, где Яндекс сможет сделать какие-то выводы по профилю и понять, робот это или нет. А для этого нужна в том числе и Метрика.Но сайты без Метрики получают именно бототрафик, чистый и беспримесный.
Тема для диссертации. Боты собрались рассматривать фавиконки и css на вордпрессе. Сенсация!
У Гугла экономика, мусор ему не нужен. А у Яндекса вечные припадки, там что угодно может быть. Год назад сколько сайтов на этом под откос пустил - сейчас ему пофиг, похоже.
Вот у этих реализацию посмотреть можно: www.bestceramic.ru/catalog/plitkaЕсть запрос - есть отдельная страница на смарт-фильтрах. Нет запроса - нет отдельной посадки, фиьтры закрыты в robots. В принципе можно наклепать категорий на перемножении фильтров хоть на автомате, только это прямая дорога под фильтры чаще всего.