Robots.txt запрещает доступ к урл, но не запрещает хранение в индексе, уже попавшей туда информации. Для удаления из индекса нужно либо менять ответ сервера либо использовать панель вебмастера.
При этом, ПС могут хранить в индексе сам url, а в качестве текста используются внешние ссылки (мб еще что) - это касательно примера без кэша :)
Поэтому у меня вопрос - а нет ли примера, когда таким же образом запрещенный урл ищется в поиске, но при этом еще и отдает 404 ответ? Ведь, если робот чекает на 200 ответ запрещенный урл, то формально он нарушает директиву Disallow ? 😕
Надо быть модным - "Кейс по повышению CTR сниппета на 147%" 😂
А что известно о грядущих изменениях? По-моему, была информация о послаблении пессимизации в отношении сайтов малого бизнеса? :)
byterus
А подключить Яндекс.Xml планируете? Персонализация доконала :(
Причины нахождения за топ-300 могут быть и другие (так, к слову :) )
Есть ответ мэттушки на похожий вопрос:
http://www.seo news.ru/events/matt-cutts-kak-ne-oshibitsya-pri-pokupke-domena/
Из статьи следует двоякий вывод, если домен не особо дорог, то наверное действительно, лучше поменять.
Один уже нарисовался: 😂
Возможно просто, что по НЧ была низкая конкуренция и даже с учетом наложенных фильтров релевантность сайта вытягивала до топа.
Задания выполняют одни и те же люди/боты/ и т.д. Разве так трудно этот поток отлавливать?
Так и где забаненные-то?
А че вы не причесали? :)
Так это Ваш уровень понимания, а не их :) Они вертятся на своем, делают что могут :)