- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А как Google к прокси относится?
Можно же взять листик в 1000 и по RND через них парсить...
Я тоже думал написать как то скриптик, который дает индексировать гуглу страницу на которой результат выдачи самого себя (конечно немного видоизмененную, чтобы бот не понял, что это родное).
Zzzz осталось тока найти список прокси.... где такой взять... тока покупать
Zzzz осталось тока найти список прокси.... где такой взять... тока покупать
Да их полным полно, другое дело, что не все прокси в списке работают, да и в Гугле не дураки, через прокси можно узнать реальный IP, а ананимные они наверно фильтруют, хотя каждый день в мире появляется столько ананимных прокси, что отследить это не возможно и всегда можно скрыться =)
google APIs дело хорошее, но как преодолеть барьер в 1k на сутки?
Может есть какие скрипты? готов купить.
А разве больше 1000 запросв купить нельзя ?
А где продают, подскажите
А как Google к прокси относится?
Можно же взять листик в 1000 и по RND через них парсить...
Я тоже думал написать как то скриптик, который дает индексировать гуглу страницу на которой результат выдачи самого себя (конечно немного видоизмененную, чтобы бот не понял, что это родное).
проще тогда зарегать себе несколько ключей от G-API и их RND-ить
проще тогда зарегать себе несколько ключей от G-API и их RND-ить
Пробовал. За это гугл все мои ключи через месяц забанил. Теперь вот приходится парсить его страницы. Кстати если результаты выдачи гугла кэшировать у себя на сервере и при каждом поиске проверять, нет ли уже таких результатов в кэше, то можно существенно сократить кол-во запросов к гуглу.
может кешировать и хорошо , но порядок выдачи у гугла постоянно меняется не забывайте об этом....кстати тут уже была новость что MSN вроде дает свою выдачу в XML без всяких там ключей.
кстати сколько ты делаешь запросов в день ?
В среднем 20К обращий к гуглу, за счет кеширования (30 дневная валидность) кол-во обращений к гуглу сокращается до 3-4К в день. А по поводу того что гугл меняет результаты выдачи, так меня это не очень волнует. Если твоя задача обеспечить пользователя наиболее релевантными ( с т.з. гугла) результатами поиска, то тогда кеширование не годится, а если нужно сделать псевдо-поисковик, то такой вариант вполне подходит.
в принципе у меня тут родилась идея как можно обмануть гугл , но малость геморно , хотя мож и нет , зарегать несколько ключей , зарегать несколько сайтов на фришны (не обязательно) хостах с поддержкой PHP , повесить на этих сайтах гугл апи , а выдачу выдавать в каком нить текстовом формате ГЛАВНОМУ сайту который и делает РЕАЛЬНО эти запросы ... т.е. получается что все запросу идут к гуглу через подставные сайты.