Smart____, тут обычная ситуация, судя по всему - ПС берут накопленный массив данных, лепят из него очередные кластеры сайтов, разбитые по отслеживаемым признакам, смотрят на динамику а-ля демография/сезонность и отсюда уже выводят какие-то закономерности, облечённые в формулы.
Пора Гудмана звать, опять. :)
Речь о том, что для ПС не будет никаких последствий от игнорирования большинства стандартов.
А мешают тем, что отнимают ресурсы.
Во-во.
Ссылку? Сразу на пост.
Это всё фантазии. Нет никакой рыночной (да и любой иной) необходимости следовать каким-то стандартам и схемам, если они хоть в чём-то мешают самому поисковику.
Захотели игнорировать disallow в роботсе - стали игнорировать. Захотели ограничить поисковые операторы - ограничили. Захотели резать реферера на https - стали резать. Захотели парсеров выдачи приравнять к ддосерям - сделали. И т.д.
В общем, как обычно: ориентируйтесь на практику, а не на предположения.
"Поставили"? Кто именно?
AdmitAd, посоветуете мне что-нибудь, исходя из опыта? Не хочется повторять чужие ошибки, тратя время на заведомо не подходящих рекламодателей.
Никакие, как это долго было с noindex/nofollow.
Не пять, а около семи.
Для этого есть незаслуженно забытое "в поиск!". Вот одно из рассуждений, дальше лень искать.
"tar729, tar729, tar729, tar729..." привычно отозвалось эхо. :)
Уже понятнее, спасибо.
Что ж до сих пор не превратилось? Вашим рассуждениям лет пять уже отроду (только на моей памяти).
И попыткам примерно столько же.