- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну вот например, как вы впервые узнали что это бот бинга? Приведите его полный http_user_agent, айпи адрес, поможем забанить наглого бота. И собственно, что вы пишите ему для запрета в htaccess? Что-то не вижу на этой странице подобных примеров.
В роботсе лучше написать юзер-агенты так
#чтобы ограничить
User-agent: bingbot
User-agent: msnbot
Disallow:
Craw-delay: 5
#для полного запрета
User-agent: bingbot
User-agent: msnbot
Disallow: /
Отвечаю сразу и strana и siv1987, я знаю что такое роботс, не вчера в нете, но стараюсь им не пользоваться, потому как считаю его крайней мерой, когда невозможно подправить движок сайта, Разумеется и бинг бота могу отличить от всего остального, но если вам это интересно то вот его опознавательные знаки:
один из айпи 207.46.199.54 юзер агент: Mozilla/5.0 (compatible; bingbot/2.0; +http://www.bing.com/bingbot.htm)
в роботсе уже чего только не писал, на текущий момент он такой:
User-agent: MSNBot/Bingbot
User-agent: bingbot
User-agent: msnbot
Crawl-delay: 5
Craw-delay: 5
User-agent: *
Allow: /
как видно, даже с такой же ошибкой, как у вас, может ему так больше нравится
сейчас от него пытаюсь отмахаться следующим образом:
if(strpos($statinfo,"bingbot")!==false)
if(rand(4,9)>4)
{
header('HTTP/1.1 503 Service Temporarily Unavailable');
header('Status: 503 Service Temporarily Unavailable');
header('Retry-After: 172800'); // 60*60=3600*24=86400*2=172800 двое суток
die($errorconnect);
}
это помогает уменьшить нагрузку
как видно, даже с такой же ошибкой, как у вас, может ему так больше нравится
Эту ошибку лучше исправить, и оставить только верный вариант. На левую директиву он может запнутся и вовсе проигнорировать роботс.
User-agent: bingbot
User-agent: msnbot
Allow: /
Crawl-delay: 10
За такие фокусы можно и по шапке получить от других пс, если с бинга трафик есть.
сейчас от него пытаюсь отмахаться следующим образом:
if(strpos($statinfo,"bingbot")!==false)
if(rand(4,9)>4)
{
header('HTTP/1.1 503 Service Temporarily Unavailable');
header('Status: 503 Service Temporarily Unavailable');
header('Retry-After: 172800'); // 60*60=3600*24=86400*2=172800 двое суток
die($errorconnect);
}
это помогает уменьшить нагрузку
Уважаемый, а куда вы этот код ставите? спасибо )
Уважаемый, а куда вы этот код ставите? спасибо )
в пхп скрипт сайта, а можно еще куда то?
Он выдачу от яху испольует или наоборот? Просто на одном сайте проиндексировалось 3 страницы, причём одинаковые в обоих поисковиках. Их "вебмастер" вообще работает? А то добавил с десяток сайтов, но статистики по ним несколько дней нет. Другие темы по этому поисковику уже "слишком старые", а новую не охота создавать.