http://erum.ru/118.htm
А если хотите невыполнения JS, то закрывайте скрипты в роботсе.
Этот % в качестве примера... если боту приходится скачивать 100К страниц, из которых только у 3% нет <link rel="canonical" href="другой урл"/>, то какая будет скорость индексации?
Если бы вы боролись с дублями, то какой % дублей среди скачанных документов для вас означал бы, что сайт дальше индексить не надо? И вы бы делали при этом различие между 96.7% и 97.3?
У forum.searchengines.ru можно попытаться засунуть в индекс на порядок больше... вместе с дублями. Увеличит ли это траф с ПС?
Не задумывались о процессе?
Сначала сделать 100500 запросов (а ПС может сделать ограниченное их количество), потом понять, что индексить можно только 3% из этого...
Тут ваши конкуренты уже от сцылок готовы отказаться:
И почему какой-то роспотребнадзор блокирует страницы о траве?
И когда это распространится на уникализаторов...
Вот явно дешевле
И сколько же вы гады щас скликаете?
Вы кода-нибудь пытались “увеличить мощности” за счёт чего-то десятилетней давности? Ещё при жизни Народа в бложиках смеялись:
HTTP/1.1 200 OK Date: Sun, 19 Aug 2012 19:41:53 GMT Server: ZX_Spectrum/1997 (Sinclair_BASIC) Set-Cookie: nuid=2526830581345405313; path=/; expires=Wed, 17-Aug-22 19:41:53 GMT; domain=.narod.ru
Ему на 1/6 мощности не нужны (доходов это не увеличит), и они давно ушли в сырьевую трубу.
Предсказуема степень дебильности ляпов как в крошках.
Сделано будет как-нибудь. Свежак:
Сколько нормальный покупатель просмотрит магазинов?.. даже если в первом просмотренном будет ровно то, что он хочет и минимальная цена. А теперь прикиньте каким будет показатель отказов у среднего магазина.
Круче те, которые больше бабла получат в качестве зряплат и гонораров.
Яндекс проиграл в суде
Facebook заявил Яндексу, что чуда не будет — понимание того, что считать поисковиком, а что не считать — у Яндекса и Facebook различается. Это к юристам, к маркетологам или к просто начальству?