zuziken

Рейтинг
182
Регистрация
01.06.2008
miker81:
P.S. Добавьте чем плохо выкладывать базу в паблик в Readme.doc

Выкладывание базы в паблик дело совести. Но, буду очень признателен, если будет указана ссылка на мой сайт или ссылка на этот топик :)

zuziken добавил 02.09.2008 в 20:50

Убедительно прошу всех, кто отписывается после покупки базы в этой теме указывать свой e-mail, чтобы я знал куда отправлять обновление

zuziken добавил 03.09.2008 в 19:40

Скоро доделаю базу каталогов статей и примусь за обновление базы каталогов.

Каталогов уже накопилось немного :)

>AleX<:
пипец, а не блоки!

Уважаемый! Моя фраза

Напарсил недавно от нечего делать
вам ни о чём ни говорит?! Я выкладывая базу не говорил, что это база высокопиаристых нофолов блогов!

Напарсил так просто, и выложил здесь.

Требуемая сумма кредита предоставлена

Мне лично понравился, но присутствие обилия рекламы - это не есть гуд :)

Allsubmitter тебе в помощь :)

Так же можно и вручную через Google: "URL твоего сайта" site:URL сайта где искать

Например: test.ru site:microsoft.com

Найдёт тебе все ссылки на указанном сайте

Могу предоставить. Какие гарантии возврата?

Как-то подозрительно у вас репутация в минусах

Я бы не назвал это глюком. Всё верно. В Гугле тоже не дураки работают.

Гугль ограничивает выдачу только 1000 результатов.

Представь чтобы бы было, если он выдал бы всё, т.е не 1000, а допустим 10 000.

В итоге тебе нет смысла столько инфы просматривать, да и найдутся люди которые захотят составить базу какую-нибудь. Т.е в интернете бы существовали огромные базы данных.

При парсинге парсер сразу обрабатывает все страницы. Парсер который я тебе указал, в окне программы сразу открывает выдачу на 100 результатов и обрабатывает её.

Т.е за несколько он может обработать 1000 ссылок. Скажи нормальный человек способен на такое?! Я думаю вероятность стремиться к нулю :)

Так и спам-бот сообщает тебе, что это нереально

но ваш запрос похож на запросы, автоматически рассылаемые компьютерным вирусом или вредоносным программным обеспечением

Т.е считает что ты программа и "грабишь" выдачу и не даёт много забрать.

Выход: меняй запросы, комбинируй, находишь один сайт какой тебе надо и указываешь в запросе, что-нибудь (слово или пункт меню), что должно быть и на других сайтах.

zuziken добавил 01.09.2008 в 21:52

Ещё существует парсер AGGRESS Parser 1.6 в нём есть функция парсинга следующего:

  • Google
  • GoogleText
  • Live
  • Overture
  • Yahoo
  • Yandex

Но, он как-то не очень стабильно работает, и иногда не фурычит. Работает на твёрдую 3

inurl:index.php intext:"ссылка"

inurl:"index.php" intitle:ссылка

inurl:"index.php" intitle:ссылка -"медицина"

inurl:"index.php" intitle:ссылка +"SEO"

"" кавычки для Гугля означают более точный поиск, чтобы ненужно не было в выдаче.

В общем подставляй слова в запрос. Меняй слова, добавляй с формы одинаковые слова. Которые обычно одинаковые на сайтах.

Например:

Всегда показывать мой адрес e-mail:

Сайт:

Эта информация будет в открытом доступе

Ник

Добавить ссылку и т.д и т.п

При запросе ещё лучше указывать -"медицина" или -"строительство"или то, что ты не хочешь чтобы попало в выдачу.

Или +"интернет" или ещё что тебе надо, т.е текст который должен быть на странице.

Самый нормальный парсер Hkey Free C++ Google Parser. Хотя не умеет работать с прокси, но с работой справляеться на 5+

Короче примерно так. Думаю пригодиться.

Версия программы: AllSubmitter 4.* и выше

Мне интересно узнать комментарий тех, кто ответил нет не помогла в опросе?!

Самое интересное, что спасибо сказали только 2 человека и то, у кого репутацию в минусах?!

Всего: 3484