- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Насколько я понимаю существуют 3 способа обзавестись базой.
1) Накачать кучу говнобаз, свести в одну и почистить
2) Банально дать дяде денег.
3) Напарсить самому
3-й вариант мне кажется очень сексуальным т.к. все каталоги будут индексироваться и возможно многие
будут не заспамлены. Интересует где взять необходимые запросы для парсинга?
Поиски инфы дали только два запроса, а это капля в море и практической ценности не представляет.
Идея скачать последнего демоХрумака и одной из его возможностей является составление запросов для парсинга
из списка урлов. Даёт ли этот метод результаты?
Буду крайне благодарен за запросы для парсинга каталогов.
k0nstant добавил 03.12.2008 в 05:15
Извиняюсь за нубство. Пол ночи и всё ок! Дошло. Теперь ведро новых каталогов. А делал так:
В анкорогенератор загонял такое
"inurl:1 site:.2 intitle:3" где,
1 - предпологаемые названия страницы с формой добавления к примеру
{addurl.html|addsite.html|addlink.html|addaurl.html|addasite.html|addasite.html|addasite.html|addalink.html|
submiturl.html|submitsite.html|submitlink.html|submitaurl.html|submitasite.html|submitalink.html|addurl.html|
addsite.html|addlink.html|addaurl.html|addasite.html|addalink.html|submiturl.html|submitsite.html|submitlink.html|
submitaurl.html|submitasite.html|submitalink.html|add_url.html|add_site.html|add_link.html|add_a_url.html|
add_a_site.html|add_a_link.html|submit_url.html|submit_site.html|submit_link.html|submit_a_url.html|submit_a_site.html|
submit_a_link.html|add_url.html|add_site.html|add_link.html|add_a_url.html|add_a_site.html|add_a_link.html|submit_url.html
|submit_ site.html|submit_link.html|submit_a_url.html|submit_a_site.html|submit_a_link.html}
ну и плюс столько же если "html" на "htm" заменить
2 - указываем по каким доменам гонять, к примеру {ru|ua}
3 - то что будет в title наших замечательных форм добавления в каталоги, к примеру так
{зарегистрировать сайт|зарегистрировать ссылку|зарегистрировать сайт в каталоге|регистрация|регистрация сайта
|регистрация ресурса|регистрация в каталоге|додати url|додати сайт|добавить url|добавить сайт|добавление url|
добавить ресурс|добавить ссылку|добавление сайта|добавить в каталог|добавить новую ссылку|добавить сайт в каталог
|добавление нового сайта}
Смело жмём на кнопку ВПЕРОД и имеем офеньофеньофеньмногонемеряно много запросов для парсинга.
Их засовываем в парсер к примеру AGGRESS Parser 1.7 (тока на него антивирь мой ругаецо).
И вот они каталоги и посыпались, а дальше олсабом облагораживаем.
Все эти процедуры для гугла, а для яндекса inurl: site:. intitle: какие?
По жвижкам проще напарсить.
По жвижкам проще напарсить.
да, для
Flashcat ?act=s_add
Made-Cat add/1
что ещё? подскажите пожалуйста
Просто сам просмотри каталоги где у тебя стоит "авто" и найди однотипные ссылки
У меня почему-то не пашет AGRESS parser(((( Кто какие парсеры юзает?
отличный парсер xkovator давно пользую и вам советую
отличный парсер xkovator давно пользую и вам советую
А есть чтонить фришное? А то за такие деньги мне под заказ напишут)))
Не успел скачать как NOD стал ругаться на вирус(((
к сожелению из фришных достойных я не знаю
получился вот такой вот чудосписок запросов для парсинга гугля и выявления каталогов. надеюсь будет кому-то полезен. к небу б ещё хороший фришный парсер...
а кто может дать базу собранную почистием у меня примерно 40 000 блек листа есть
если есть скинте в личку