- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как запретить индексацию ботами baidu.com?
User-Agent: Baiduspider
Disallow: /
Как запретить индексацию ботами baidu.com?
в robots.txt прописать строчку:
User-Agent: Baiduspider
Disallow: /
MR_PR, что именно я написал не правильно?
Пробовал пропичывать в роботсе , не помогает! Поэтому и задаю вопрос
Пробовал пропичывать в роботсе , не помогает!
Значит роботс некорректно составлен.
Робот Байду поддерживает стандарт описания robots.txt, в принципе как и все остальные приличные роботы - http://www.baidu.com/search/robots.html
http://www.baidu.com/search/robots.html
во чего вычитал :)
User-agent:
  该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。
Попробуйте прописать в .htaccess
RewriteEngine On
RewriteCond %{REQUEST_URI} !^/403.php$
RewriteCond %{HTTP_USER_AGENT} .*Baiduspider.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Yeti.*
RewriteRule .* /403.php [F]
Только вот не факт, что поможет.
Я пытаюсь запретить доступ для Slurp и msnbot (грузят сервер), запрет в robots.txt, бан по айпи и как указал выше не помогает.
Может кто подскажет что еще можно сделать чтобы их успокоить.
Попробуйте прописать в .htaccess
RewriteEngine On
RewriteCond %{REQUEST_URI} !^/403.php$
RewriteCond %{HTTP_USER_AGENT} .*Baiduspider.* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Yeti.*
RewriteRule .* /403.php [F]
Только вот не факт, что поможет.
Я пытаюсь запретить доступ для Slurp и msnbot (грузят сервер), запрет в robots.txt, бан по айпи и как указал выше не помогает.
Может кто подскажет что еще можно сделать чтобы их успокоить.
Мне посоветовали так прописать в htaccess:
SetEnvIfNoCase User-Agent "^Baiduspider" search_bot
SetEnvIfNoCase User-Agent "^BaiduImagespider" search_bot
<Limit GET POST HEAD>
Order Allow,Deny
Allow from all
Deny from env=search_bot
</Limit>
Вроде перестал ходить засра...ец:)
Я пытаюсь запретить доступ для Slurp и msnbot (грузят сервер), запрет в robots.txt, бан по айпи и как указал выше не помогает.
Может кто подскажет что еще можно сделать чтобы их успокоить.
Директиву Crawl-delay юзайте. Она-то как раз и призвана усмирять чересчур активных роботов.
Crawl-delay раньше помогала, сейчас не работает.
Мне проблемы создает юзер-агент такого вида:
Mozilla/5.0 (compatible; Yahoo! Slurp/3.0; http://help.yahoo.com/help/us/ysearch/slurp)
При запрете:
SetEnvIfNoCase User-Agent "^Slurp" search_bot
Бот продолжает бомбить сервер.
П.С. кстати может кому понадобиться, проверка доступа юзер-агентов:
http://www.botsvsbrowsers.com/SimulateUserAgent.asp