Проиндексируй ситемап сайта, если этих нет страниц в sitemap то создай сам новый sitemap с правильными ссылками и проиндексируй. Поисковики выкинут из поиска неправильные страницы со временем, не надо их удалять.
? - пустой параметр, он сайт по производительности не сильно портит.
В роботс напиши вариант для яндекса (но это надо перепроверить по сайту): Clean-param: ?
Может этот верный.Disallow: /?Или такой:Disallow: /*?
И еще парочка, на всякий.Disallow: *?s=Disallow: *&s=
В той ссылке которую ты привёл не должно быть вопроса.
Для вот таких проблем и создан sitemap и canonical.
Так я согласен.
Так есть sitemap и canonical, эти страницы они в базе Яндекс.Вебмастер, но и вреальности если на них зайти со знаком вопроса открывается страница, в ней canonical на нормальную страницу, если пробить их через инструмент Яндекс.Вебмастер – Разрешены ли URL? - Ссылка запрещена директивой Disallow: /*/*?
А да, я посмотрел другие страницы URL, добавив им в окончания после слеша знак вопроса /?, то любая страница такая открывается с canonical на нормальную, да походу это движок.
взял название темы вбил в гугл и вуаля
Действительно нормальные страницы получают Статус – Отклонено.
Смотря что считать лишним.
Формально бесполезные страницы в индексе хранить не нужно.
Да, и в целом это логично.
Извиняюсь что я ничего не читаю никогда, но цитирую из Вебмастера:
Вы можете убрать из поиска отдельные страницы: удаленные с сайта или закрытые от индексирования.
Но есть некоторые нюансы, например, что даже на запрещенных в robots.txt и удаленные страницы могут:
При этом страница может иногда появляться в результатах поиска, например, если на нее ведут ссылки с других ресурсов.
И даже если страница удалится, то её типа можно вернуть в поиск:
Уберите запрет на индексирование: директиву Disallow в файле robots.txt или метатег noindex. Страницы вернутся в результаты поиска, когда робот обойдет сайт и узнает об изменениях. Это может занять до трех недель.