Да, тут спорить не буду. То ли этим сайтам просто повезло, то ли у них больше траста перед ПС. Так что идея насчёт дублированного контента очень правдоподобна.
Можно сказать, Платон Щукин не врёт, когда отсылает шаблон о том, что одной из причин может являться наличие автоматически сгенерированных страниц. Если так, то стоит нам их убрать, как робот вернёт сайты в выдачу. Естественно, это в идеале. Как будет на самом деле – неизвестно.
Чтобы запретить тэги надо прописать в robots.txt нечто подобное, верно?
#http://www.site.ru
User-agent: *
Disallow: /tag/
genjnat, тоже думал об этом. Но странно то, что некоторые сайты сидели в индексе 2-8 месяцев, прежде чем в одночасье выпасть. Почему? Ведь метки были с самого начала. Прекрасно индексировались. На них даже трафик шёл. Более того, аналогичные сайты до сих пор продолжают висеть в индексе.
Сегодня проверил. Да, плагин для UniPlace больше не работает. Всё отмечает красным цветом. Жаль, хорошая была штука.
А я по поводу своих сайтов на прошлой неделе так достал Платонов, что на этой уже не отвечают.
У меня вчера таким образом 8 сайтов выпало. Ссылки не продавал, контент писал сам, обновлял регулярно. Надеюсь, что вернутся. Но опыт подсказывает, что вряд ли. Ибо прошлые 5, которые выпали в конце августа, всё ещё не в индексе.
В конце августа вылетело 5 сайтов. В этот Ап ещё 8. Все на одном движке (не WP). Возраст разный (от 2 до 9 месяцев). На большинстве из выпавших сайтов ссылки никогда не продавались. ГС назвать сложно. Контент уникальный. Пишу всю сам. Посетителей с ПС на некоторых сайтах было от 100 уников в сутки. По 4-5 просмотра на посетителей.
У каждого человека, конечно, свои критерии СДЛности, но всё-таки когда на сайте оставляют комментарии и пишут в форму обратной связи письма благодарности, думаешь, что делаешь сайт для людей. И вдруг в один ужасный Ап всё улетает в трубу. Правда, роботы сегодня усиленно бродят по выпавшим сайтам. Едят страницы (как новые, так и старые). Может, ещё не всё потеряно.
В принципе, перенести контент на новый домен – это не проблема. Вопрос в том, что же случилось. Почему такой массовый вылет сайтов (не только моих, если судить по веткам на SEO-форумах). Если это глюк в ходе тестирования нового алгоритма, то ладно. Должно всё вернуться. А если Яша стал банить по каким-то субъективным критериям (допустим, одинаковая структура сайтов, на этом IP были обнаружены некачественные сайты и так далее), то чистка только начата. Весь сентябрь будет колбасить.
Welcome2, так вы считаете, что на обновлённый сайт должен взглянуть человек из техподдержки и дать добро или алгоритмы сами примут решение вернуть сайт в выдачу?
Просто я сделал примерно так же. Сначала писал Платону, чтобы вернул. Он отвечал шаблонами об алгоритмах. Теперь снёс старый сайт. Залил по новой несколько страниц из него же, но с другой структурой. Стоит ли писать в техподдержку или подождать пару Апов?
И ещё. Очень уникальная, необычная, но тупая отписка-заглушка на пару страниц – это обязательное условие? Если опубликовать несколько юмористических рассказов или эссе вразумительного содержания, то Платону может и не понравиться?
Ну, обычно робот представляется. В примечании на логе сервера указывается I, Yandex Something и прочие опознавательные знаки. А тут без приглашения, прямой ссылки и опознавательных знаков.
Хотя не буду спорить. Просто заметил, что как только с этого IP-адреса заходят на сайты, через несколько минут приходит ответ от Платона Щукина.
Лично меня удивляет количество просмотренных роботом страниц. По 30-50 в день кушает, а в индекс не возвращает.
Попробую полностью снести сайт и на этом домене на время поставить заглушку из 10-20 страниц уникального контента. Может, прокатит…
Удивительное дело. Переписываюсь с Платоном. Ответы шаблонные про алгоритмы и дальнейшее развитие сайта для людей. Однако робот ежедневно приходит на сайты, которые выпали из выдачи, но добавляются в аддурилку.
Причём просматривают не 1-2 страницы, а кушают по 30-50 в день. Спрашиваю Платонов: «Может, это глюк Яндекса? Если алгоритмы приняли решение не включать сайт в выдачу, то почему они так активно его едят?»
А в ответ: «После повторной проверки, анализа и классификации наши алгоритмы приняли решение не включать сайт в поисковую выдачу». Но роботы продолжают заходить и скачивать всё новые страницы.