Ну вот зачем вы Елене приводите в пример сайт, где реально тексты спамные? Там же вообще скриптом вхождения генерятся, даже без учёта падежей. Надо про другое примеры приводить - например, почему страница https://www.kaspersky.ru/downloads/thank-you/antivirus-free-trial находится на 63 месте по запросу "скачать антивирус" (подсказка - постраничный ББ). Вот это вопрос на миллион долларов :)
Ну вот раньше входило, теперь - Баден. Новые тайтлы норм, можно оставить.
В вебмастере надо рядом с сообщением о фатальной проблеме нажать "Подробнее" - там будет указано название фильтра.
Возможно, на страницу ведёт ссылка с таким анкором. Либо это просто алгоритм Гугл Колибри (поиск по контексту). Ведь страница на самом деле релевантна - если по этому запросу поискать внутри сайта, то находится именно этот товар.
Ну в данном случае там не только тайтлы:
Ну так закройте его уже в роботсе, в чём проблема? :)
Если это фильтр за малополезный контент, то просто надо наполнять контентом. Они же говорили, что фильтр накладывается даже на пустые домены - в данном случае сайт почти пустой.
IceHell, тайтлы тоже не забудьте привести в порядок:
Грузинские рестораны в Москве рейтинг | Грузинские рестораны Москвы список
http://www.gdebar.ru/articles/rejting-gruzinskih-restoranov-v-moskve-a3264
Надо вот тут http://webtest58.ru/robots.txt оставить только 2 строки:
User-agent: *
Disallow: /
Только при переносе на основной сайт нужно будет не забыть этот файл поменять на правильный, иначе основной сайт тоже вылетит из индекса.
Так ведь если на каждой странице размещается своя часть прайса, то дублирования не будет. Если же прайс везде одинаковый, то есть смысл закрывать от индексации только если прайс большой. Если уникального текста на странице много, то можно не заморачиваться.