Сейчас скажут, что на эротике и порно ПФ астрономический, в этом все дело ☝---------- Добавлено 26.11.2012 в 13:32 ----------ТС: разве что со стоп-словами поаккуратнее.
По опыту могу сказать, что от ифрейма больше неприятностей, т.к. в большинстве своем их используют для черных схем. Вероятнее всего, что ифрейм является сигналом анализировать сайт внимательнее. А после этого будет фильтр, так что ни о каком тИЦ говорить уже не будет смысла. Все это имхо.
Сайты, получившие хороший трафик в прошлые 2 апа, получили по шапке и вернулись на прежние позиции (половину трафа сняло), при этом все в индексе остались. Т.е. просто позиции скатились.
Все бы ничего, но вылезли ГСы (сателлиты на неуникальном г-контенте), на которые забил 3-4 месяца назад. Сейчас на них траффик идет с яндекса. В итоге трафик, который отнял у одних мои сайтов, отдал другим моим же сайтам. И так по кругу.
Резюмирую: от перестановки мест слагаемых сумма не меняется. Яндекс в очередной раз перемешал венегрет выдачи.---------- Добавлено 24.11.2012 в 14:05 ----------
Не то чтобы не рулят совсем. Они иногда чуть-чуть помогают быстрее оказаться в индексе. Но продвигать так, как это делали раньше, уже не получится. Как минимум, в большинстве тематик.
Видел, просто внимания не обращал.
Эффект от закупки/снятия ссылок далеко не моментальный.
Не думаю, что это будет сложно отличить. С этим отлично справится набор статистических критериев. Т.е. если до определенной даты были одни показатели, а потом резко показатель изменился, то это повод для более внимательного изучения.
Такой подход активно практикуется во многих интеллектуальных системах, например, IDS - intrusion detecting systems (сам работал над одной из них, потому и говорю).
Следуя логике, можно предположить, что "отсев" идет многоступенчато (и это не секрет). Сначала работают простые алгоритмы, не сильно требовательные к ресурсам. Вероятно, что они отсеивают львиную долю хлама. Потом уже к оставшимся будут применены фильтры более ресурсоемкие.
Если развивать мысль о ПФ, то я думаю, что анализ ПФ на порядки легче, чем анализ уникальности текста (биграмм, триграмм и т.д.). И ситуация с моими сайтами, в принципе, подтверждает этот вывод. Хотя порой скалыдвается ощущение. что рандом правит бал...
Если сайт объявлений, то какой смысл закрывать от индексации объявления? Что останется?
Или Вы их тащите с чужих сайтов?
Жесть не то слово :)
Но вот что могу сказать по своим наблюдениям...
Есть сайты замечательные, коммерческие и не очень, вылизанные, не переспамленные и все по уму на них сделано. Информация разложена по полочкам, все доступно и понятно. Человек заходит на сайт, читает, берет какие-то файлы, жмет лайк и уходит (ПФ по ЛиРу - 1-2 страницы на посетителя). Ссылочное - естественное, на сапе только вручную отобранные доноры и их немного, никаких ГС-ов.
Продвигаются очень тяжело. Некоторые идут на спад.
И есть сателлиты. Они даже никуда не ведут (в смысле на основной сайт). Живут сами по себе. Ссылочного - практически нет. Что называется без роду и племени. Шаблоны - УГ. Текст - обрывки копипаста (не со своих сайтов, конечно).
Зато из-за неполного представления информации, непродуманности навигации (делались пачками) там ПФ довольно высокий (на 1 хост приходится до 15 просмотров в течение 2-5 минут в среднем).
В итоге в результате последних апов Яндекса наблюдаю, что эти ГСы лезут в топ, обгоняя вылизанные сайты.
Вот вам и напутствие про "развивайте Ваш сайт и будет Вам счастье"... 😒
Нельзя сегодня все яйца держать в одной корзине. Делайте много и разного - и будет счастье.
Может быть, для гугла заблокировать на firewall-е адрес https://sb-ssl.google.com/safebrowsing/api/lookup ?
А для яндекса, соответственно, sba.yandex.net.
Никто не обязан, все верно. Оптимизируйте сайт под себя, а не под гугл, раз он такой плохой монополист. Или объясняйте юзерам, что гугл - это зло.
Но ведь этого не произойдет. Вебмастера проглотят пилюлю и будут работать дальше. Потому что правила игры диктует гугл, который и сам никому ничем не обязан, не так ли?