ronibestplay

Рейтинг
53
Регистрация
06.02.2022
estic #:

Это слишком "мусорные" адреса, чтобы с них делать переадресацию. Все основные решения я описал в предыдущем сообщении.

От статических сайтов нужно отказываться. Не хотите использовать полноценную CMS, можно использовать программный каркас только для "головной" части сайта. А содержимым управлять "по старинке" в менеджере файлов (FTP не рекомендую в виду его незащищенности), в оболочке для работы с СУБД и т.п.

Понял хорошо спасибо.

Нашел на другом сайте вот такая добавлялась страница. На ней есть обычный калькулятор на js. Кто то зашел на сайт, 4200 как раз цена одно их элементов. Очень странная ситуация. Как то можно редирект со всех вопросов через .htaccess сделать?

?input=8*4200

Антоний Казанский #:

Переходить на полноценную CMS в вашем случае имеет свой практический резон.

Проблема не в том, что в индексе появилась страница вида  /?a=support и вы её стараетесь перекрыть её для индекса через robots.

Проблем в том, что в целом сайт по части обработки 404 ответов сайт неправильно и у вас в индексе может появляться бесконечное множество дублей Главной и это естественно будет сказываться на ранжировании. Кроме того, наверняка есть и другие проблемы с сайтом с которыми вы ещё не столкнулись, поэтому вопросы нужно решать фундаментально и устранять самую причину некорректной работы вашего ПО. 

Ну я 4 мя сайтами топ забил по своему региону по приличному обхвату семантики и продолжаю зимой над ними работать, а летом работаю по профессии соответственно. Все их делаю примерно одинаково с разным подходом. Фундаментальным и считаю подход, что лезу на форумы выяснять вот такие вот вопросы) Раньше заметил, ничего не делая вебмастер сам выкидывал такие страницы как дубли, а searchconsol их вообще не видит.

Тут видите они очень редко появляются, я подозреваю что скрипты в которых я не разбираюсь мне тут палки в колеса вставляют. imagegallerea.js например. Проработаю этот вопрос,  прямо сейчас напишу в техподдержку и напишу  по результату, чтобы если кто с проблемой потом вдруг зашел сюда, смог бы ее решить. То что проблема в обработке 404 страниц уже очень важная инфа, вы очень помогли спасибо.

Спасибо всем за ответы. Не вижу особо смысла заморачиваться с Wordpress если честно. Мне почему то очень сложно там разбираться. На том хостинге что я использую, установка Wordpress  в два клика буквально. Но для меня это темный лес, Elementorы всякие и прочее для меня очень сложно. Я понял что с этими страницами о которых я спрашивал, выхода особо нет кроме как отслеживать их появление и постепенно блочить в robots. Проблема появилась спустя год, скорее всего это какие то отголоски от конструктора с которого я начинал.robots сейчас выглядит так

Disallow: /?feed=comments-rss2
Disallow: /?p=1
Disallow: /?author=1
Disallow: /?cat=1
Disallow: /?feed=rss2
Disallow: /?m=201605
Disallow: /?page=support
Disallow: /?a=support

Может это какая то из вне штука, вроде ссылки кто то такие оставляют. Мои сайты постоянно копируют на сайты с незаконным содержанием с обратной ссылкой.

estic #:

Поисковики считают дублями адреса / и /?любая-строка-запроса. Все основные Web-серверы по умолчанию никак не препятствуют выдаче дублей со строкой запроса в адресе.

Нужно использовать rel="canonical" или Disallow для адресов со строкой запроса. Также можно делать запрет средствами сервера (или используемого программного каркаса), например выводить специальную страницу ошибки 404 или ту же страницу, но со статусом 404. Меня, например, не беспокоит, если кто-то проставит ссылку https://estic.ru/?page=support 😊

спасибо за ответ!
Антоний Казанский #:

Я посмотрел. Внутри сайта таких адресаций (ссылок в шаблонах нет). Это генерация адресов извне.


У вас довольно странно настроена обработка 404 ошибок, она обрабатывается не движком а серверными настройками хостинга reg.ru. Eсли в адресе в самом начале использовать символ "?", то обработка 404-ошибок уже не срабатывает, по любом адресу типа

https://site/?=chto_ugodno 

сайт выводит дубль Главной страницы с 200-ым результатом. Так быть не должно.

Проблема в обработке 404-ых ошибок. Ищите специалиста по Wordpress-у, который проверит рабочие настройки и настроит работу CMS так как нужно.

Ух ты спасибо классный ответ. Я видите как использую хостинг сейчас, в dreamweaver или code lobster подключаюсь по ftp, и при сохранении файлы заливаются на сервер. worpdpress у меня только на поддомене, чтобы нужные скрипты иной раз оттуда выгрузить. Напишу в техподдержку спрошу. Но подозреваю что ваш ответ на все ответил, так как тот хостинг который я использую настраивать я не могу.

Хотя вообще то заметил кое что. То что я описываю произошло случайно, запрос частично в кавычках. Условно  БП 175 "дерево для пола" и выдаче две страницы.

Но происхождение страниц хочется выяснить. Похоже вот на что, я расположил контент на главной изначально, после раскидал его по страницам. Возможно это из кэша поисковика или вроде того.

Спасиб за ответ.

Вобщем взяв main.ru за главную,

main.ru/ ?a=support она стоит в выдаче на втором месте после  main.ru/page1/page2/ Контент на ней ( main.ru/ )тот же что и на главной, там частично есть эти ключевики с main.ru/page1/page2/ в тексте, но страница 3 уровня заточена куда сильнее.

Махмуд Аббас #:

Если не хочешь канониклы использовать, можешь в роботсе прописать примерно так:

Disallow: /*?*

Я так и сделал, но генерируются новые иной раз, раз в месяц примерно. Работаю в dreamweaver, знаю что многие его не любят но мне очень удобно. Думал он что то выкатывает свое, но каждый день да через день новые странички делаю.
Mik Foxi #:
У вас должен быть rel="canonical" который все решит, подстановки такие все равно будут, их не нужно выслеживать. и тем более никаких редиректов в хтасес не нужно с убиранием этих подстановок. все ж равно utm метки когда нибудь понадобятся.

Спасибо за ответы вам и всем кто по делу написал. В .htaccess у меня вот какое есть

<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{SERVER_PORT} !^443$
RewriteRule .* https://%{SERVER_NAME}%{REQUEST_URI} [R=301,L]
RewriteCond %{REQUEST_URI} ^(.*)/index\.html$
RewriteRule ^(.*)index\.html$ https://%{HTTP_HOST}/$1 [R=301,L]
</IfModule>
<LimitExcept GET HEAD POST>
Order Allow,Deny
Deny from all
</LimitExcept>

<filesMatch ".(ico|pdf|flv|jpg|jpeg|png|gif|js|css|swf)$">
    Header set Cache-Control "max-age=31536000, public"
</filesMatch>

Если я правильно понимаю это пару редиректов с http на https и с index.html на просто адрес папки(он же url). Если честно rel cannonical не использую, так как дублей страниц вроде как не делаю.

Всего: 315