Это слишком "мусорные" адреса, чтобы с них делать переадресацию. Все основные решения я описал в предыдущем сообщении.
От статических сайтов нужно отказываться. Не хотите использовать полноценную CMS, можно использовать программный каркас только для "головной" части сайта. А содержимым управлять "по старинке" в менеджере файлов (FTP не рекомендую в виду его незащищенности), в оболочке для работы с СУБД и т.п.
Нашел на другом сайте вот такая добавлялась страница. На ней есть обычный калькулятор на js. Кто то зашел на сайт, 4200 как раз цена одно их элементов. Очень странная ситуация. Как то можно редирект со всех вопросов через .htaccess сделать?
?input=8*4200
Переходить на полноценную CMS в вашем случае имеет свой практический резон.
Проблема не в том, что в индексе появилась страница вида /?a=support и вы её стараетесь перекрыть её для индекса через robots.
Проблем в том, что в целом сайт по части обработки 404 ответов сайт неправильно и у вас в индексе может появляться бесконечное множество дублей Главной и это естественно будет сказываться на ранжировании. Кроме того, наверняка есть и другие проблемы с сайтом с которыми вы ещё не столкнулись, поэтому вопросы нужно решать фундаментально и устранять самую причину некорректной работы вашего ПО.
Ну я 4 мя сайтами топ забил по своему региону по приличному обхвату семантики и продолжаю зимой над ними работать, а летом работаю по профессии соответственно. Все их делаю примерно одинаково с разным подходом. Фундаментальным и считаю подход, что лезу на форумы выяснять вот такие вот вопросы) Раньше заметил, ничего не делая вебмастер сам выкидывал такие страницы как дубли, а searchconsol их вообще не видит.
Тут видите они очень редко появляются, я подозреваю что скрипты в которых я не разбираюсь мне тут палки в колеса вставляют. imagegallerea.js например. Проработаю этот вопрос, прямо сейчас напишу в техподдержку и напишу по результату, чтобы если кто с проблемой потом вдруг зашел сюда, смог бы ее решить. То что проблема в обработке 404 страниц уже очень важная инфа, вы очень помогли спасибо.
Спасибо всем за ответы. Не вижу особо смысла заморачиваться с Wordpress если честно. Мне почему то очень сложно там разбираться. На том хостинге что я использую, установка Wordpress в два клика буквально. Но для меня это темный лес, Elementorы всякие и прочее для меня очень сложно. Я понял что с этими страницами о которых я спрашивал, выхода особо нет кроме как отслеживать их появление и постепенно блочить в robots. Проблема появилась спустя год, скорее всего это какие то отголоски от конструктора с которого я начинал.robots сейчас выглядит так
Disallow: /?feed=comments-rss2Disallow: /?p=1Disallow: /?author=1Disallow: /?cat=1Disallow: /?feed=rss2Disallow: /?m=201605Disallow: /?page=supportDisallow: /?a=support
Может это какая то из вне штука, вроде ссылки кто то такие оставляют. Мои сайты постоянно копируют на сайты с незаконным содержанием с обратной ссылкой.
Поисковики считают дублями адреса / и /?любая-строка-запроса. Все основные Web-серверы по умолчанию никак не препятствуют выдаче дублей со строкой запроса в адресе.
Нужно использовать rel="canonical" или Disallow для адресов со строкой запроса. Также можно делать запрет средствами сервера (или используемого программного каркаса), например выводить специальную страницу ошибки 404 или ту же страницу, но со статусом 404. Меня, например, не беспокоит, если кто-то проставит ссылку https://estic.ru/?page=support 😊
Я посмотрел. Внутри сайта таких адресаций (ссылок в шаблонах нет). Это генерация адресов извне.
У вас довольно странно настроена обработка 404 ошибок, она обрабатывается не движком а серверными настройками хостинга reg.ru. Eсли в адресе в самом начале использовать символ "?", то обработка 404-ошибок уже не срабатывает, по любом адресу типа
https://site/?=chto_ugodno
сайт выводит дубль Главной страницы с 200-ым результатом. Так быть не должно.
Проблема в обработке 404-ых ошибок. Ищите специалиста по Wordpress-у, который проверит рабочие настройки и настроит работу CMS так как нужно.
Хотя вообще то заметил кое что. То что я описываю произошло случайно, запрос частично в кавычках. Условно БП 175 "дерево для пола" и выдаче две страницы.
Но происхождение страниц хочется выяснить. Похоже вот на что, я расположил контент на главной изначально, после раскидал его по страницам. Возможно это из кэша поисковика или вроде того.
Спасиб за ответ.
Вобщем взяв main.ru за главную,
main.ru/ ?a=support она стоит в выдаче на втором месте после main.ru/page1/page2/ Контент на ней ( main.ru/ )тот же что и на главной, там частично есть эти ключевики с main.ru/page1/page2/ в тексте, но страница 3 уровня заточена куда сильнее.
Если не хочешь канониклы использовать, можешь в роботсе прописать примерно так:
Disallow: /*?*
Спасибо за ответы вам и всем кто по делу написал. В .htaccess у меня вот какое есть
<IfModule mod_rewrite.c>RewriteEngine OnRewriteCond %{SERVER_PORT} !^443$RewriteRule .* https://%{SERVER_NAME}%{REQUEST_URI} [R=301,L]RewriteCond %{REQUEST_URI} ^(.*)/index\.html$RewriteRule ^(.*)index\.html$ https://%{HTTP_HOST}/$1 [R=301,L]</IfModule><LimitExcept GET HEAD POST>Order Allow,DenyDeny from all</LimitExcept>
<filesMatch ".(ico|pdf|flv|jpg|jpeg|png|gif|js|css|swf)$"> Header set Cache-Control "max-age=31536000, public"</filesMatch>
Если я правильно понимаю это пару редиректов с http на https и с index.html на просто адрес папки(он же url). Если честно rel cannonical не использую, так как дублей страниц вроде как не делаю.