- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Долго искал подходящий субж., но ... ничего хорошего не нашел. Может самому сделать?
Насколько я понимаю алгоритм написания CGI такой:
1. Получаете IP посетителя
2. Смотрите Базу Данных с IP поисковиков (какой-нибудь txt файл)
3. Если текущий IP есть в базе, то это поисковик: делаю Location: DOORWAY
Если нет, то реальный посититель: делаю Location: REALPAGE
Так или нет?
Посоветуйте что-нибудь!
------------------
теоретически да
А практически это работает?
А практически это работает?
год назад работало, а сейчас не знаю
У меня не прокатило мож по этому меня и альтависта забанила ну или еще чего (вощем убили ссылки на мой сайт)
А где можно взять IP?
------------------
Ты имеешь в виду IP роботов?
Куда он пропал?
Ладно.
Для интересующихся - список IP можно взять на www.spiderhunter.com. Он там неполон, но все-таки.
На форуме у агента один парень как-то запостил обширный список роботов, посмотрите там.
а у меня полный есть, по 146 СЕ и раз в 2 недели обновляемый....
Hi, all!
Почитал я с недельку - нравится мне это борда.
Если не против - присоединяюсь к вам.
По поводу списка IP-адресов вот какая идея есть: никто из браузеров не спрашивает у сервера файл robots.txt, а стало быть он в основном интересен только паукам.
Сегодня натравил на лог апача и его архивы следующую солянку:
cat access.log | grep robots.txt | awk '{print $1}' | sort | uniq
и получил несколько сотен уникальных за 2 последних месяца адресов.
Если кому интересно-можете юзать в скриптах,
хотя конкуренции Балтиковским 2х-недельным апдейтам это конечно не соствит
[This message has been edited by SEman (edited 12-01-2001).]
Ну SEman, это далеко не бесплатно....