- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ziby, я бы не стал ТАК делать, не вижу необходимости, а проблем огрести как пару пальцев...
Я бы тоже не стал, поэтому мы с Вами не LuCkyManы. :) Но это уже другой вопрос.
Хотя в вашей квалификации не сомневаюсь.
Спасибо. ;) Не, на самом деле, robots.txt, оформленный таким образом, поставленную задачу выполняет (на грани правда, но всё же).
LuCkyMan, robots.txt Вам в помощь
LuCkyMan, вот пара советов по оптимизации нагрузок краулеров:
Можно снизить нагрузку гуглобота установив интервал запросов в панельке вебмастера.
Так же в сети есть список "мусорных" для ru ресурса юзер агентов, которым можно запретить поиск, поищи сам (я не в состоянии просто сейчас:)).
Возможно этих мер будет достаточно.
Ziby, я бы не стал ТАК делать, не вижу необходимости, а проблем огрести как пару пальцев... Хотя в вашей квалификации не сомневаюсь.
Почему проблем? Роботс по стандартам сделан
Роботс по стандартам сделан
Да не совсем по «стандартам». Взять хотя бы директиву «Crawl-delay»:
В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву "Crawl-delay" необходимо добавлять в группе, начинающейся с записи "User-Agent", непосредственно после директив "Disallow" ("Allow").
И кроме неё есть ещё отклонения от «стандартов». ;) Например, Гугл «Crawl-delay» не поддерживает. Да, она игнорируется при обработке, но кто знает как поведёт себя робот в случае чего.
Я про секцию
User-agent: *
Disallow: /
некоторых напугавшей ($
semenov, а, ну с этим всё ок. :)
Просто нужно помнить, что директивы в robots.txt не наследуются (согласно стандарту). Тобишь, запрет, объявленный для произвольных роботов, не является действующим для робота, которому объявлена персональная инструкция.