- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт находится на выделенном серванте и исходя из статистики очень много траффа генериться поисковыми роботами. Как можно уменьшить их траффик если сайт расчитан только на РУ аудиторию?! Как это программно реализовать?!
Может быть сможете ссылок подкинуть где почитать об этом - буду очень благодарен!
Спасибо за Ваше время!
С Уважением, Xansen!
довольно странная проблема, я бы предложил оплатить траффик ботов, и компенсировать это траффиком пользователей
а по сабжу, каких ботов хотел бы урезать? гугл позволяетурезать через панельку, другие ПС через роботс.тхт
конкретней плз
довольно странная проблема, я бы предложил оплатить траффик ботов, и компенсировать это траффиком пользователей
а по сабжу, каких ботов хотел бы урезать? гугл позволяетурезать через панельку, другие ПС через роботс.тхт
конкретней плз
полностью запретить ползать по сайту ботам MSN и Yahoo.
Поясните пожалуйста насчет роботов: меня абсолютно не устраивает кол-во внешнего трафика в месяц, который генерят эти боты. КТо как с этим борется? Есть какой нибудь баланс?!
Вообще вот тут почитайте...
Для начала проанализировать, какие боты генерируются больше трафика и запретить их в robots.txt (кроме ботов основных поисковых систем). Закрыть через robots.txt или метатеги <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> все страницы, которые не нужно индексировать (дублированный контент, поиск по сайту, служебные страницы и.т.д). Злостных ботов, которые не соблюдают указания robots.txt забанить в .htaccess. МСН и Яху банить не надо, они дают полезный трафик, достаточно включить задержку индексации в robots.txt:
User-agent: *
Crawl-delay: 20
Гугл данную конструкцию не понимает, но для него можно установить задержку в панели вебмастера. Включить поддержку компрессии gzip, это снизит не только ботовый, но и основной трафик (но увеличит нагрузку на сервер).
Вот спасибо! Очень грамотный ответ! Искренне благодарю!