Сегодня яндекс отписался. Очередной обход зеркальщика сдвинулся примерно на три недели.
Письмо от яндекса получил 16 сентября о том, что пока расклейки не было.---------- Добавлено 22.09.2013 в 12:54 ----------
Склеил домен с сайтом с доменом синонима. В результате домен с основным сайтом полностью исчез из поиска, тиц обнулился. Вернули все назад (синоним в поиске не нужен), теперь ждем расклейки.
1. Что касается новостного контента, в интернете он практически весь копипаст и индексируется на всех сайтах очень даже хорошо. Смотрите РИА Новсти, banki.ru и другие.
2. Что значит слив? Ссылки на дружественные сайты еще никогда не являлись причиной бана и не являлись признаками спама.
Господа, еще раз. Проблема не в количестве страниц в индексе, а в количестве страниц в "загружено роботом". С исключенными роботом страницами можно разобраться. А здесь не ясна сама причина игнора сайта роботом.
Домен регил сам с нуля. Владельцев ранее не было. Дублей нет. Ничего подозрительно не вижу.---------- Добавлено 04.02.2012 в 20:38 ----------
Этим я хотел сказать, что есть несколько страниц с дружественного сайта (например, блоги продублированы). То есть в размерах рунета - это фактически уникальный контент.---------- Добавлено 04.02.2012 в 20:41 ----------Да собственно вот этот сайт www.ludiipoteki.ru
В этой теме [ссылка] участник с ником morzan123 пишет: "Я когда-то разбирался с такой темой. Дело в том, что даже у сайтов под АГС робот все равно индексирует страницы - они не попадают в выдачу, но попадают в "загруженные роботом". Робот проверяет, не пора ли снимать фильтры и так далее, анализируя в том числе и контент."
Так что, если действительно чел прав, то у меня не АГС, т.к. страницы не попадают в раздел "загруженные роботом". Так в чем же причина?
АГС... странно. Спама на сайте нет. На сайте нет продажных ссылок. Контент новостной по определению не может быть 100% уникальным. Есть страницы, которые есть еще на одном сайте, т.е. не уникальность, но близкая к ней. Есть несколько страниц уникальных.
Я так понимаю, чтобы робот решил, что страницы не следует размещать в индексе, он должен их сначала проанализировать, т.е. загрузить. А у меня таких загруженных страниц всего 4. Почему остальные-то он не загрузил? Или я не понимаю принцип действия робота?
Кстати, насчет трафика. Он уменьшился где-то на 150 хостов.
Смотрим сайт, который 2-ой по данному запросу (какой запрос, думаю, стало понятно). Аналогичная ситуация - с главной одни ссылки. Это же портал. По-другому делать - это менять философию сайта.
Там одна ссылка болтается. Не думаю, что это критично.
За советы спасибо. Воспользовался, сократил. Посмотрим на результат.