Villis, не силен я в командах роботс.тхт :)
В похожей ситуации сделал при наличии на странице определенного гета в Вашем случае sort= отдавать 404. За 2 недели все страницы вылетели из индекса. Вы всю ветку читали? Если страница проиндексированна то запрещать в роботс ее бесполезно.
Fensmas, судя по первому сообщению Вы подавали на "повторную проверку", а не на "антивирусную".
Villis, если гетом добавляется параметр для поиска то для гугла это уже разные страницы. Предположим что Вы както неправильно правило выставляете в роботс. Пример в ЛС покажете мне для общего развития?
Fensmas, Вам читать Запрос на антивирусную проверку
Villis, какая разница у страниц? Только в наличии сортировки?
Сначала почитайте Когда НЕ следует использовать инструмент удаления URL
Willie, там 2 владельца и оба слушали и общались. Потом перестали + видел пост с благодарностью от одного из них. Доказывать ничего не собирась...
не появится
<meta name="robots" content="none" />
<meta name="googlebot" content="none" />
замените на
<meta name="robots" content="index, follow" />
tsuval, гугл выбрал из дубликатов один, что еще подсказать?:)
Proofer, Ваше "спасибо" выглядит как подпись под документом :)