Evtoleg, подтверждаю, есть такое дело.
Сам хотел открыть тему, но решил разобраться сначала.
Несколько месяцев висли два сайта одной компании в топе по весьма конкурентным запросам (климатика).
Причем часть ключевиков пересекалась, часть были разными. После двух прошедших апдейтов один из сайтов ("младший", занимавший позиции пониже) вылетел из топа по всем запросам, которые пересекались. По тем, которые не пересекались - остался в топе.
Дизайн на сайтах разный. Контент частично пересекается. Номера телефонов и адрес, а так же название компании - одинаковые.
Делаю вывод: введен какой-то фильтр, который не дает оффилированным по мнению яндекса сайтам одновременно быть в топе.
Думаю, что инициируется процесс признания сайтов оффилированными - по стуку. Решение о принадлежности сайтов одной компании делается модераторами Яндекса по наличию одинаковых телефонов || одинаковый адрес || одинаковые названия компании. Может и еще по каким-то признакам...
1) Мой сайт вообще никак не продвигается - просто сайт для людей, без оптимизации. Почти все ссылки на него естественные.
2) Контент вообще ни под что не заточен. Просто контент.
Tarry, насчет формального подхода согласен. Обратной связи нет от Яндекса никакой, просто шаблонные отписки 🙅
У меня есть такой же старый сайт, более 40 000 страниц, много уникального контента, недавно пропали из индекса все динамические страницы. Статические остались. Написал в Яндекс, стандартная отписка: "Благодарим Вас за то, что обратили наше внимание ..."
Больше писать не стал, понятно, что бесполезно.
Но вот, что я заметил, и о чем не говорит служба поддержки. Во-время апдейта, все страницы есть в индексе! Все 40 000! Но потом, после окончания апдейта, страницы таинственным образом исчезают из индекса. Т.е. видимо срабатывает какой-то фильтр... Так как пропали динамические страницы, я думаю, что этот фильтр связан с "... многие страницы сайта похожи на созданные автоматически и не предназначенные для чтения пользователями...".
Вот это главная претензия - почему бы службе поддержки так и не ответить: "ваш сай попал под такой-то фильтр, вот тут и тут не правильно и т.д." 😕 Ведь вебмастер может и не подозревать, что подразумевает яндекс к примеру под словом "автоматически".
А так, если заниматься отписками и не разбираться с каждым случаем, многие полезные сайты будут попадать под все новые и новые мегафильтры, при этом количество говносайтов в индексе уж точно не уменьшится 😡
Спасибо! Вот только вернулся из Турции - могу сказать, что одно из пожеланий сбылось - отмечаловка точно получилась незабываемой 😂
То-то я сегодня днем наблюдал метаморфозы - один из сайтов то на 3-ем месте, то на 12-ом, то на 33-ем. В результате вроде на 12-ом устаканился...
Так и подумал кстати, что что-то с датацентрами происходит.
А вот какое у яндексоидов представление о релевантности? Вот они все время говорят, что сайты ранжируются, в соответствии с релевантностью. При этом, каким должен быть сайт, чтобы он был релевантен например запросу "кондиционеры" - не говорят.
Делаем вывод, что сайт, который стоит сейчас на 1 месте и есть самый релевантный по мнению яндекса. А это скорее всего сайт, с самыми жирными беками (самым большим ВИЦ, самым большим кол-вом беков или что там сейчас в формуле рулит)
Так что Елистратов прав :)
Пока Яндекс не расскажет нам свое мнение о релевантности, мы будем руководствоваться топом 🚬
Согласен, но как было сделать проще - мы с вами не знаем. Яндексоиды сделали так, как посчитали нужным. Плюс IMHO это была далеко не единственная причина, а как я писал, возможно это было просто последей каплей.
По поводу ЯндексВебмастерТулз - ждем! Как это будет красиво :) Давно ждем! :)
Ну, кто и когда просыпается я не знаю. Я вот сова например, мне лучше вечером и ночью работается.
Но дело не в этом. Роботы! Они не спят :-) Я думаю мало кто из серьезных оптимизаторов анализирует (-ровал) беки руками. Давно уже у всех есть скрипты специальные. Которые могут снимать и анализировать беки хоть по 1000 раз в день. Вот этого-то и боится яндекс. Вот с этим и борется.
Для кого-то ничего :)
Но, думаю, в яндексе очень живо отреагировали на сигнал, что оптимизаторы все пристальнее писматриваются к изменениям кол-ва беков во время апдейтов и к причинам этих изменений. Ведь не один и не два оптимизатора обращали на это внимание и пытались анализировать...
Немного не в тему, но подобная реакция может указывать на то, что не раз выссказывалось: еще не известно, кому этот форум больше нужен - оптимизаторам или Яндексу ;) Не зря же яндекс палит свои темы сначала на этом форуме, а потом уж в своем блоге :-)
Мне почему-то по этому поводу все время вспоминается игра мизера в преферансе: играющий мизер видя все свои карты и карты противников наблюдает за тем, как игроки "вслепую" обсуждают ситуацию. Часть карт играющие вычисляют аналитически. Другую часть пытаются вычислить, пытаясь представить ход мыслей противника. При этом карты самих играющих открыты! И если бы карты игроков были закрыты, играющему мизер было бы гораздо сложнее. Особенно, если его ход ☝
Вот у яндекса, в отличие от преферанса, есть возможность подтасовать cвои карты и закрыть дыры, замеченные еще на этапе обсуждения :-)
Хм, интересно. Евгений, скажите, сайты, которые по-вашему были забанены за продажу ссылок были "говно-сайтами", специально созданными для продажи ссылок, или это были обычные сайты для людей?
Просто если первое, то сайты скорее были забанены не за продажу ссылок как таковую, а за то, что по мнению Яндекса они были не для людей, а для влияния на результаты работы поисковых машин...