- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Долго искал подходящий субж., но ... ничего хорошего не нашел. Может самому сделать?
Насколько я понимаю алгоритм написания CGI такой:
1. Получаете IP посетителя
2. Смотрите Базу Данных с IP поисковиков (какой-нибудь txt файл)
3. Если текущий IP есть в базе, то это поисковик: делаю Location: DOORWAY
Если нет, то реальный посититель: делаю Location: REALPAGE
Так или нет?
Посоветуйте что-нибудь!
------------------
теоретически да
А практически это работает?
А практически это работает?
год назад работало, а сейчас не знаю
У меня не прокатило
мож по этому меня и альтависта забанила ну или еще чего (вощем убили ссылки на мой сайт)
А где можно взять IP?
------------------
Ты имеешь в виду IP роботов?
Куда он пропал?![]()
Ладно.
Для интересующихся - список IP можно взять на www.spiderhunter.com. Он там неполон, но все-таки.
На форуме у агента один парень как-то запостил обширный список роботов, посмотрите там.
а у меня полный есть, по 146 СЕ и раз в 2 недели обновляемый....![]()
Hi, all!
Почитал я с недельку - нравится мне это борда.
Если не против - присоединяюсь к вам.
По поводу списка IP-адресов вот какая идея есть: никто из браузеров не спрашивает у сервера файл robots.txt, а стало быть он в основном интересен только паукам.
Сегодня натравил на лог апача и его архивы следующую солянку:
cat access.log | grep robots.txt | awk '{print $1}' | sort | uniq
и получил несколько сотен уникальных за 2 последних месяца адресов.
Если кому интересно-можете юзать в скриптах,
хотя конкуренции Балтиковским 2х-недельным апдейтам это конечно не соствит![]()
[This message has been edited by SEman (edited 12-01-2001).]
Ну SEman, это далеко не бесплатно....