- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как думаете, такого правила в robots хватит?
User-Agent: spider5.mail.ru
Crawl-delay: 60
User-Agent - это не доменное имя сервера, User-Agent - это имя браузера. Посмотрите в логах, как называется тот бот, который к вам ходит. Скорее всего, "Mail.Ru/1.0", поэтому в robots.txt нужно писать
User-Agent: Mail.Ru
А Crawl-delay он вряд ли поддерживает, поэтому можно только запретить.
Нагрузка - это прямая обязанность сервера и хостера :)
На вас это как влияет? Хостер машет пальчиком "ай-ай-ай"? Вынуждает перейти на более дорогой тариф, хотя в вашем тарифе не оговорена нагрузка? Или оговорена?
Влияет напрямую: сайт выходит за установленные лимиты нагрузки.
Нет.
Нет.
Именно. Поэтому я хочу или ограничить активность бота, или запретить для индексации некоторые директории моего ресурса.
Ясно.
User-Agent - это не доменное имя сервера, User-Agent - это имя браузера. Посмотрите в логах, как называется тот бот, который к вам ходит. Скорее всего, "Mail.Ru/1.0", поэтому в robots.txt нужно писать
User-Agent: Mail.Ru
А Crawl-delay он вряд ли поддерживает, поэтому можно только запретить.
Сейчас посмотрю в логах.
UPD Да, это он и есть. За 6 часов (4-10 утра) просмотрел 300 страниц сайта и 4 тыс. страниц форума.
Пока что запрещу для индексации директорию форума:
User-Agent: Mail.Ru
Disallow: /forum/
не знаю, не пробовал
Закрытия ссылок от индексации gogo.ru
gogo.ru как запретить индексацию?
Спасибо за информацию. Узнал, что: "user-agent GoGo называется Mail.Ru/1.0 и реагирует на запись User-agent: Mail.Ru в robots.txt".
telnet76 добавил 14.02.2008 в 18:35
Всем спасибо за помощь. Продолжу наблюдать за этим ботом.