Запретить сканирование как ?

JJwar
На сайте с 16.06.2009
Offline
151
236
Добрый день.


С сайтом такая проблема - очень много на сайте "технических" страниц, типа:

Подобных технических страниц - несколько десятков тысяч, более полусотни, то есть, огромное количество. Я еще помню те времена, когда за подобное - поисковики жёстко банили сайты, с формулировкой "Сайт создаёт излишнюю нагрузку на сервера поисковой системы". Сейчас поисковики не банят сайт, но и траста сайту подобная проблема явно не добавляет.

Удалить все эти страницы - нет возможности, сайт не сможет функционировать без них.

ВОПРОС: есть ли какой то способ запретить поисковику СКАНИРОВАТЬ весь подобный "технический" мусор ?
Запреты в текстовом роботсе, метароботсе, отдача 404 ответа - всё это не срабатывает, поисковый бот всё равно СКАНИРУЕТ весь этот массив страниц.

Может с помощью директивы Clean-param как то можно запретить СКАНИРОВАНИЕ всех этих страниц? Может есть какой то другой способ?
STARVELL — биржа игровых товаров и услуг
STARVELL — биржа игровых товаров и услуг
  • starvell.com
На бирже STARVELL вы можете купить игровую валюту, предметы, услуги и другие игровые ценности напрямую у других игроков, а также продать свои.
Стас Рахимов
На сайте с 01.08.2025
Offline
20
#1
JJwar :
Запреты в текстовом роботсе, метароботсе, отдача 404 ответа - всё это не срабатывает, поисковый бот всё равно СКАНИРУЕТ весь этот массив страниц.
Ну и пусть сканирует, в чём проблема? Они же не попадают в поисковый индекс.
Эксперт качества сайтов.
Mik Foxi
На сайте с 02.03.2011
Offline
1226
#2
сейчас тоже за такие страницы яндекс вносит сайт под фильтры за "малополезный контент". такой мусор в роботс надо запрещать.
Антибот, антиспам, веб фаервол, защита от накрутки поведенческих: https://antibot.cloud/ (8 лет на защите сайтов). Форум на замену серчу: https://foxi.biz/
Стас Рахимов
На сайте с 01.08.2025
Offline
20
#3
Mik Foxi #:
сейчас тоже за такие страницы яндекс вносит сайт под фильтры за "малополезный контент". такой мусор в роботс надо запрещать.

Ну так он хочет, чтобы робот их вообще не дёргал, как я понял.

Робот их будет в любом случае дёргать, даже если запретить во всех местах.

А если я не понял, то вообще проблема не является проблемой.

LEOnidUKG
На сайте с 25.11.2006
Offline
1777
#4

Можете попробовать на таких страницах прописать:

<meta name="robots" content="noindex, nofollow">

Но при этом надо их открыть в robots.txt чтобы робот увидел, что не надо ничего там сканировать и ходить там по ссылкам.

Убрать в 404 от роботов это не панацея т.к. они будут ходить по ссылкам и кричать, что у вас теперь много 404 ошибок, а это ещё хуже.

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/ ✅ Настройка и оптимизация серверов https://getmanyspeed.ru/
Mik Foxi
На сайте с 02.03.2011
Offline
1226
#5
в роботс внести и на урлы эти поисковые боты не будут ходить.
alaev
На сайте с 18.11.2010
Offline
868
#6

User-agent: *

Disallow: /users/

Disallow: /offers/

Disallow: /chat/

Создание и продвижение сайтов - https://alaev.net , аудиты сайтов, контекстная реклама
Стас Рахимов
На сайте с 01.08.2025
Offline
20
#7
Mik Foxi #:
боты не будут ходить

Будут. Тебе это простительно не знать, ты не сеошник, но вот сеошники тут местные - они то должны знать, что бот всё равно будет ходить в этом случае.

В гугле даже есть специальный пункт, который называется "проиндексировано несмотря на блокировку в файле robots.txt"

Вот расскажите, сеошники, как может робот не ходить на эти страницы, при этом индексировать их?

Mik Foxi
На сайте с 02.03.2011
Offline
1226
#8
Стас Рахимов #:
В гугле даже есть специальный пункт, который называется "проиндексировано несмотря на блокировку в файле robots.txt"

это будут единичные заходы. а так на 99.99% гугл яндекс и бинг будут следовать указаниям и не пойдут по таким разделам. 

ходить будут всякие другие бешенные ИИ и говноботы. 

TB
На сайте с 16.01.2009
Offline
268
#9
Mik Foxi #:
это будут единичные заходы. а так на 99.99% гугл яндекс и бинг будут следовать указаниям и не пойдут по таким разделам. 
это как повезёт. у меня на одном сайте после закрытия одной папки от поисковиков они все равно бродили по этой папке. и в результатах поиска страниц из этой папки указывали "пользователь предпочел скрыть содержимое данной страницы"

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий