А почему вы не запрещаете всех ботов?

123 4
O
На сайте с 28.07.2009
Offline
131
#11
damn-doubleclick #:
Блокировка ботов посредством файла .htaccess

Нет, с этим все понятно и, извините, это как раз в пользу бедных, потому, что я, когда что-то сканю, в первую очередь меняю юзерагента.

Речь исключительно про robots.txt, зачем там исключать черным списком, когда можно исключать белым?

занимаюсь автоматизацией торговли (http://olegon.ru)
Антоний Казанский
На сайте с 12.04.2007
Offline
617
#12
olegon #:
Всякие Semrush, даже Мылру и Bing, которые сканят все мои страницы, но приводят меньше 10 пользователей в месяц, зато могут быть источником каких-то совсем ненужных мне исследований сайта или выбора его для парсинга...

Они могут менять User-Agent и наверняка это делают, чтобы как раз не нарываться на явный запрет.

Robots.txt не решает данные задачи, роботс актуален для управления областями индексирования основными ПС.

√ SEO продвижение https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Обучение автоматизации с помощью Zennoposter https://goo-gl.me/6Zypu
O
На сайте с 28.07.2009
Offline
131
#13
Они, конечно, могут менять что угодно, но я о том и говорю, что в robots.txt запретить ВСЕМ, кроме основных ПС.
Gonchar-web
На сайте с 23.02.2022
Offline
70
#14
olegon #:
Они, конечно, могут менять что угодно, но я о том и говорю, что в robots.txt запретить ВСЕМ, кроме основных ПС.

2 страницы вам толкуют, что "запретить" вы можете что угодно и кому угодно, только всем до лампочки, что вы там "запрещаете"!

-S
На сайте с 10.12.2006
Offline
Модератор1355
#15
olegon #:
Они, конечно, могут менять что угодно, но я о том и говорю, что в robots.txt запретить ВСЕМ, кроме основных ПС.

Запрещайте, вам никто не мешает.

Romanov Roman
На сайте с 21.06.2018
Offline
194
#16

Позвольте задать уточняющий вопрос.
Если я блокирую ботов в файле .htaccess директорией, представленной ниже, существует дли вероятность того, что я ограничу доступ роботам Гугла и Яндекса?

# блокировка плохих ботов
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} (SeopultContentAnalyzer|SeekportBot|DataForSeoBot|Barkrowler|BLEXBot|SemrushBot|MJ12bot|AhrefsBot|bingbot|DotBot|PetalBot|LinkpadBot|SputnikBot|statdom.ru|MegaIndex.ru|WebDataStats|Jooblebot|Baiduspider|BackupLand|NetcraftSurveyAgent|openstat.ru|thesis-research-bot|fidget-spinner-bot) [NC]
RewriteRule .* - [F]
Всем удачи в продвижении сайтов. Будьте здоровы и счастливы, а остальное - "приложится".
O
На сайте с 28.07.2009
Offline
131
#17
Gonchar-web #:
только всем до лампочки, что вы там "запрещаете"!

Я две страницы толкую, что не так это, достаточно много ботов все же слушаются. Вот юзера и суммарное, стрелкой поставил, где поменял.


Gonchar-web
На сайте с 23.02.2022
Offline
70
#18
olegon #:

Я две страницы толкую, что не так это, достаточно много ботов все же слушаются. Вот юзера и суммарное, стрелкой поставил, где поменял.

Делай! 

-S
На сайте с 10.12.2006
Offline
Модератор1355
#19
olegon #:

Я две страницы толкую, что не так это, достаточно много ботов все же слушаются. Вот юзера и суммарное, стрелкой поставил, где поменял.


вредоносные боты не идентифицируют себя или маскируются под гугл или яндекс.

Антоний Казанский
На сайте с 12.04.2007
Offline
617
#20
Romanov Roman #:
Если я блокирую ботов в файле .htaccess директорией, представленной ниже, существует дли вероятность того, что я ограничу доступ роботам Гугла и Яндекса?

Фактические вышеуказанным кодом вы блокируете любые заходы, которые в юзер агенте содержат следующие записи:

следовательно, если мы возьмём программу Screaming Frog и выставим там что-то из указанного, то сервер должен нас заблокировать (так как раз можно проверить, насколько это рабочая конструкция работает).

Теперь переходим к ответу на поставленный вопрос - нет, боты Яндекса и Гугла не используют ничего из представленного в перечне, поэтому блокировать не должно.

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий