- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет.
Sorry, если ошибся с эхой.
Для удобства набросал скрипт, который определяет позиции страниц для любых запросов в основных поисковиках. После непродолжительного активного тестирования и использования начал получать на запрос страницу с предупреждением от Google (остальные что-то терпят и молчат) - типа, у Вас вирус или ПО с автомтической генерацией запросов и, естественно, никаких результатов. Обидно, как-то...
Наверняка, Google отслеживает частоту запросов с одного IP. И если их слишком много или промежуток между запросами очень короткий, то на время прекращает выдавать результаты.
Подскажите, pls, кто использует результаты Гугля в корыстных целях, как наиболее корректно эмулировать заходы на поисковик с разных станций/серверов, чтобы избежать временного "отключения" или еще хуже бана IP.
С уважением, Achilles.
Я не помню точно, и лень проверять, но 1000 запросов вы можете по API делать.
Да и так наверное можно юзать если без фанатизма.
Если расположение сайта по запросу в первой десятке, то проблем не будет, ну а если search engine rank по запросу близок к 1000 :( - то это уже другое дело.
Ради интереса, попробовал сгенерить подряд 10-15 запросов по разным кейвордам для сайта, который в песочнице после чего стал получать:
we're sorry...
... but we can't process your request right now. a computer virus or spyware application is sending us automated requests, and it appears that your computer or network has been infected.
we'll restore your access as quickly as possible, so try again soon. in the meantime, you might want to run a virus checker or spyware remover to make sure that your computer is free of viruses and other spurious software.
we apologize for the inconvenience, and hope we'll see you again on google.
Если дать Гуглю небольшую передышку, то снова все OK.
Achilles, 3 прокси мне хватает чтобы круглосуточно их гугла тащит выдачу. И я не разу не видел чтобы гугл забанил ип.
Achilles, а ты реферер передаешь???
Не передаю.
А нафига его передавать?
Главное какой-нибудь Мазилой прикинутся и не отсвечивать. ;)
Проверял на левом IP - если гуглу отправить подтверждение, которое он просит, дальше бана нет :)
Lor, это если дальше 1-й страницы не лазить.