Я так понимаю - это джумла с криво настроенным sef404? ) Почему бы не закрыть папку плагинов просто.
Неправильно.
Пример запрещения параметров из роботс.
Disallow: /*&sid=
Disallow: /*&p=
Disallow: /*&sd=a
Какие конкретно символы вы пытались запретить - для меня честно говоря немного загадка.
Если хотели запретить только эту страницу и она находится в корне сайта, то надо писать следующую строку:
Disallow: /flypage_images.tpl.html$
Я, к сожалению, никогда его не видел в глаза, лишь относительно предствляю как он работает. Но думаю, что Яндекс может себе позволить такой функционал и мощности.
Если мне не изменяет память, Яндекс совсем недавно приобрел синтаксический анализатор от Cognitive, который и должен будет по сути положить конец синонимайзу дорвейщиков.
Работать им станет в разы сложнее. А пока - борется такими методами.
Судя по тому, что некоторые Гсы остались в топе с высоким вхождением ключа, но при этом у них нет большого количества бэков по точному вхождению ключа, либо же точное вхождение ключа + слово. Тут либо есть недоработки алгоритма, либо анкор-файл учитывается.
Пока говорить рано. Сайты из ЯК не имеют ничего общего с эталонами. У меня есть достаточно примеров, где сайты подкручены руками, но в ЯК не находятся.
praide, для этого мне кажется и был вброс доноров (я даже уверен, что по тематикам), а не голые срезы по точным вхождениям. Отсюда можно бы было сделать вывод, что и внешние факторы влияли, так как на первый взгляд, гсы с минимальным количеством вхождений по точному ключу (или же по ключу + слово), много где вывалились в топ.
При этом, у некоторых остался переспам в той же тематике. Либо это недоделки алго, либо факторов в разы больше.
Блин, я уж подумал, что даже Сергей Людкевич, решил отписаться про эти руки 😂 Решил прочитать, а тут клоны ))
Да, я не спорю, для нас эти апы "теоретически", могут выглядеть как полные смены алгоритма. (это я писал еще в самой первой ветке Снежинска) Но на практике пока ничего такого не было.
Chikago, люди уже отшучивались, что пора поднимать ДДЛ, такие фразы были еще в первых топиках. Но сейчас и без шуток это может быть актуальным.
t_o_x_a, тут берется не совокупность показателей. Предпологается, что не изменяются сразу все функции, а иначе был бы хаос в выдаче. Выборка идет по определенной функции, заданной по параметру (как это видится мне), поэтому тут нет такого, что кто-то выше, кто-то ниже.
Если брать в пример релевантность (за количество точных вхождений фразы в текст), за которую тут многие поплатились, выборка была я думаю достаточно сложной.
Для примера, берется 10 идеальных доноров. У них одно точное вхождение в тайтл - этому отдается один вес. Одно точное вхождение в h1 - другой вес. 5-6 вхождений в текст - еще вес. Один strong - еще один вес.
По совокупности параметров, другой сайт в выдаче - не должен превышать определенную сумму набранных весов.
Но доноров я думаю было больше 100 и по разным тематикам. + Была подборка, где сайты набирали опеределенный вес, но скажем не имели вхождения в Title, или наоборот. (тут мало вероятно)
Более того, я уверен, что борьба шла не с плотностью (почему-то люди думают, что с простынями, считаю, что тут именно плотность), а именно с дорами.
Также уверен, что вброс доноров продолжится и дальше.
Ping может быть выше. Гугл стал больше уделять внимания времени загрузки сайта. А в целом, хостинг не играет большой роли. В WT будет выставлен нужный регион сайта. (по контактам, по ссылкам, или же руками - не всегда доступно, иногда нужно писать тикет)
http://www.easysubmits.com