- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Учитывая, что автоматические запросы запрещены гуглом, как он отреагирует при не большом их кол-ве (до 50-100 в день (каждый день, регулярно), но за небольшой промежуток времени)? Цель собирать статистику положения сайта в серпе по определенным ключевикам.
Может у гугла есть что-то наподобие Яндекс.XML?
izbushka, если никак не получается распределить запросы равномерно по часам, то что мешает использовать прокси?
Да не в том вопрос, мне интересна реакция гугла. Что будет: забанят сайт на этом IP, запретят с этого ip ходить на гугл, или может что еще?
А если запросы делать, например links-ом, и делать паузу между запросами в 5 сек, может ли он вычислить что это автоматический запрос (например, по регулярности этих запросов - скажем все с 1:00 до 1:05 ночи) ?
На сколько сильно они следят за этим?
А яндекс и рамблер?
Спасибо
izbushka, я проверяю PR и ТИЦ для списка сайтов без проксей, но проверка распределена по времени (раз в 5 минут), проблем нет (тьфу-тьфу-тьфу).
Где-то на форуме писали, что Гугль и Рамблер банят по IP, про Яндекс не знаю.
Раньше Гугля банил айпи на непродолжительное время, примерно сутки. Видимо у них скрипты работают по так называемой "модели усредненного посетителя", просматривающего столько-то результатов за определенный период и банят айпи при превышении этого количества.
Можно поискать какой-нибудь серьезный сайт, на котором есть полнотекстовый поиск от гугля по всему вебу и парсить его. Тогда по идее запросы в гугль будут идти с айпи этого сайта.
izbushka, я проверяю PR и ТИЦ для списка сайтов без проксей, но проверка распределена по времени (раз в 5 минут), проблем нет (тьфу-тьфу-тьфу).
Где-то на форуме писали, что Гугль и Рамблер банят по IP, про Яндекс не знаю.
Дык, рандомное время от 1 до 5 минут и кроном запускать.
Где-то на форуме писали, что Гугль и Рамблер банят по IP, про Яндекс не знаю.
яндекс тоже, пару IP я уже успел испортить :)
Пишут вот что: http://www.google.com/support/webmasters/bin/answer.py?answer=66357 Я так понимаю, на платной основе Google тоже не предоставляет поиск :( Никто не имеет опыта общения с Google по поводу получения разрешения на автоматические запросы (см. ссылку выше)?
Учитывая, что автоматические запросы запрещены гуглом, как он отреагирует при не большом их кол-ве (до 50-100 в день (каждый день, регулярно), но за небольшой промежуток времени)? Цель собирать статистику положения сайта в серпе по определенным ключевикам.
Раскидывайте запросы по времени и проблем никаких не будет.
Когда Google начинает подозревать что вы робот - он для начала дает вам капчу. В этот момент вы сами можете зайти на Google (через прокси на хостинге конечно) и ввести капчу для разблокирования.
Из опыта работы в Google Translate:
- при частых запросах (более 1000 с паузой 3-5 секунд) - дает капчу. После ввода капчи можно ещё несколько сотен ))
- при частых запросов с периодом - бана нет. Сделал около 30 000 запросов в течение месяца с паузой от 40 секунд и больше.
Когда Google начинает подозревать что вы робот - он для начала дает вам капчу. В этот момент вы сами можете зайти на Google (через прокси на хостинге конечно) и ввести капчу для разблокирования.
Он дает капчу только в том, случае если вам (запрашивающему клиенту) получилось установить куку. Если куку клиент не принимает, вам вместо капчи будет извинение и рекомендация провериться на вирусы. Если клиент куку принимает, то соответственно и вводить качу должен клиент с той же кукой и вариант просто зайти браузером через проксю на серваке как таковой не катит. Сначала в браузер нужно внедрить куки от гугла, что от вставил серверу.
I++ - я не знаю в чем причина - но у меня так работало.
я пользовался библиотекой PHP для запроса по http/post с Google. В какой-то момент увидел что поток данных прекратился - поставил PHPoxy на сервер и зашел через него на google.com. Увидел капчу - ввёл её - и дальше снова ботом беспрепятственно использовал Google Translate.
Возможно в разных сервисах разные правила.