- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Учитывая, что автоматические запросы запрещены гуглом, как он отреагирует при не большом их кол-ве (до 50-100 в день (каждый день, регулярно), но за небольшой промежуток времени)? Цель собирать статистику положения сайта в серпе по определенным ключевикам.
Может у гугла есть что-то наподобие Яндекс.XML?
izbushka, если никак не получается распределить запросы равномерно по часам, то что мешает использовать прокси?
Да не в том вопрос, мне интересна реакция гугла. Что будет: забанят сайт на этом IP, запретят с этого ip ходить на гугл, или может что еще?
А если запросы делать, например links-ом, и делать паузу между запросами в 5 сек, может ли он вычислить что это автоматический запрос (например, по регулярности этих запросов - скажем все с 1:00 до 1:05 ночи) ?
На сколько сильно они следят за этим?
А яндекс и рамблер?
Спасибо
izbushka, я проверяю PR и ТИЦ для списка сайтов без проксей, но проверка распределена по времени (раз в 5 минут), проблем нет (тьфу-тьфу-тьфу).
Где-то на форуме писали, что Гугль и Рамблер банят по IP, про Яндекс не знаю.
Раньше Гугля банил айпи на непродолжительное время, примерно сутки. Видимо у них скрипты работают по так называемой "модели усредненного посетителя", просматривающего столько-то результатов за определенный период и банят айпи при превышении этого количества.
Можно поискать какой-нибудь серьезный сайт, на котором есть полнотекстовый поиск от гугля по всему вебу и парсить его. Тогда по идее запросы в гугль будут идти с айпи этого сайта.
izbushka, я проверяю PR и ТИЦ для списка сайтов без проксей, но проверка распределена по времени (раз в 5 минут), проблем нет (тьфу-тьфу-тьфу).
Где-то на форуме писали, что Гугль и Рамблер банят по IP, про Яндекс не знаю.
Дык, рандомное время от 1 до 5 минут и кроном запускать.
Где-то на форуме писали, что Гугль и Рамблер банят по IP, про Яндекс не знаю.
яндекс тоже, пару IP я уже успел испортить :)
Пишут вот что: http://www.google.com/support/webmasters/bin/answer.py?answer=66357 Я так понимаю, на платной основе Google тоже не предоставляет поиск :( Никто не имеет опыта общения с Google по поводу получения разрешения на автоматические запросы (см. ссылку выше)?
Учитывая, что автоматические запросы запрещены гуглом, как он отреагирует при не большом их кол-ве (до 50-100 в день (каждый день, регулярно), но за небольшой промежуток времени)? Цель собирать статистику положения сайта в серпе по определенным ключевикам.
Раскидывайте запросы по времени и проблем никаких не будет.
Когда Google начинает подозревать что вы робот - он для начала дает вам капчу. В этот момент вы сами можете зайти на Google (через прокси на хостинге конечно) и ввести капчу для разблокирования.
Из опыта работы в Google Translate:
- при частых запросах (более 1000 с паузой 3-5 секунд) - дает капчу. После ввода капчи можно ещё несколько сотен ))
- при частых запросов с периодом - бана нет. Сделал около 30 000 запросов в течение месяца с паузой от 40 секунд и больше.
Когда Google начинает подозревать что вы робот - он для начала дает вам капчу. В этот момент вы сами можете зайти на Google (через прокси на хостинге конечно) и ввести капчу для разблокирования.
Он дает капчу только в том, случае если вам (запрашивающему клиенту) получилось установить куку. Если куку клиент не принимает, вам вместо капчи будет извинение и рекомендация провериться на вирусы. Если клиент куку принимает, то соответственно и вводить качу должен клиент с той же кукой и вариант просто зайти браузером через проксю на серваке как таковой не катит. Сначала в браузер нужно внедрить куки от гугла, что от вставил серверу.
I++ - я не знаю в чем причина - но у меня так работало.
я пользовался библиотекой PHP для запроса по http/post с Google. В какой-то момент увидел что поток данных прекратился - поставил PHPoxy на сервер и зашел через него на google.com. Увидел капчу - ввёл её - и дальше снова ботом беспрепятственно использовал Google Translate.
Возможно в разных сервисах разные правила.