- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На Вебпланете висит баннер - "спонсор раздела Вебальта".
Сама Вебальта вроде функционирует, правда глюк с переносом русской кодировки на домене webalta.ru остался...
Когда официальный запуск? ;)
Робот в логах отмечается, причем похоже что для начала они взяли dmoz базу сайтов, ...
Разрешите поддержать топикстартера?!
Оказывается с 1 марта идет бета-тестирование http://www.webalta.net/ru/news.html
Пока есть некоторые мелки баги и выдача не совсем приглажена.
Есть одна фича - дополнительно показывать первую ссылку из тех, которые "еще с этого сайта". Хотя "дополнительно с сайта" не работает.
Вчера (15 апреля) Вебальта указывала проиндексировано - 0 документов. Зато 2 недели робот ходит на сайт каждый день и жрет документы пока не лопнет - у меня всего 8 Мб информации на сайте, а он по логам умудрился уже 34 Мб слопать. Получается что он ходит по кругу??? У меня есть предположение, что он иногда создает проблемы для других пользователей в моменты "приема пищи" ...
Приходит, жрет трафик, портит статистику.
В robots.txt пробовал написать:
User-agent: WebAlta
Disallow: /
не помогает.
User-agent его такой:
WebAlta Crawler/1.3.4 (http://www.webalta.ru/bot.html)
а указанная страница не существует.
Вы не находите, что такое поведение довольно бесцеремонно?
Если сильно достает, можно в .htaccess прописать
Deny From 85.21.193.107
(это ip их паука crawl-ru-85-21-193-107.webaltabot.com)
Лично я так сделал, т.к. считаю что дважды в день полностью обходить мой сайт - хамство, или другими словами - паразитная нагрузка на сервер.
А до роботс.тхт ему похоже действительно побоку - зашел, прочитал - и пошел дальше с новой силой.
Если им надо потренироваться- пусть делают свои сайты и на них тренируются.
Все, замочил паразита :)
в 13:55 - бот последний раз зашел, 5 разочков башкой об 403 ответ постучался и канул
85.21.193.107
Еще замечены следующие IP-адреса:
85.21.193.106
85.21.196.180
85.21.196.181
85.21.201.54
85.21.201.55