Парсер ссылок из гугла

[Удален]
2193

Существует ли в природе нормальный парсел ссылок гугла?(с прокси или поддержкой капчи )

паблик\продажный.

Если у кого есть скиньте плиз

stifler_x
На сайте с 19.06.2008
Offline
193
#1

вы имеете ввиду парсер оператором link:? Так он же показывает малую долю ссылок на сайт.

[Удален]
#2

Допустим ввел в гугле запрос:

site:com inurl:index.php окна

Гугл ввернул результат в 20 страниц.

Нужно собрать все ссылки на этих 20 страницах.

вруную сложновато...

nickmake
На сайте с 20.07.2010
Offline
27
#3

Тоже очень интересует этот вопрос. Только вот ответа в поиске я не нашёл, в основном рекомендации:

- Если интересует свой сайт, то смотри в инструментах для вебмастеров

- Если сайт конкурентов, бэки yahoo.

Пчеловодство. (http://pchelovodstvo-med.ru/)Продукты пчеловодства - прополис, мед. (http://pchelovodstvo-med.ru/index.php/produkty-pchelovodstva/mjod), Система учета компьютерной техники. (http://comp-sale.anystar.ru/)
rubik0n
На сайте с 10.03.2010
Offline
124
#4

я задавал тоже этот вопрос.

парсер красных строчек вроде как это называется =)

ASM (http://asm-seo.com.ua/) - не мы заставляем планеты вращаться. Но с нами Ваш сайт будет приносить прибыль!
Stripe
На сайте с 05.09.2006
Offline
222
#5

Из бесплатных Агресс по-моему подходит для этих целей.

Сайты от 30р почти по любой теме или наполнение ваших сайтов (/ru/forum/887821) дешевым контентом. Базы товаров и контента (http://nakovalnja.ru). Вечные ссылки за 1$ или 30р. (/ru/forum/741397)
M
На сайте с 27.10.2006
Offline
111
#6

У меня есть заготовки для такого. Могу в выходные дописать, если будет взаимный интерес.

  • Без поддержки прокси (можно прикрутить выборку по задаваемому списку заведомо рабочих прокси);
  • без поддержки капчи (до нее дело не должно доходить);
  • только google.com (остальное по необходимости);
  • случайный user-agent по списку для каждого обращения;
  • ограничение — 1000 ссылок (парсить больше не вижу смысла).

Поля формы:

  • запрос
  • min и max паузы между обращениями;
  • адрес сайта для определения всех его позиций по данному запросу;
  • вывод ссылок в csv

Отдельным проектом можно прикрутить проверку качества найденных сайтов через SEOmoz API.

Требования:

  • Apache
  • PHP5
  • cURL

В личку.

Бесплатное хранилище данных (http://bit.ly/gJYy9Z) (5GB) с синхронизацией. По ссылке — бонус 500MB.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий