Как искать белые каталоги?

LEOnidUKG
На сайте с 25.11.2006
Offline
1762
1437

Не много поделюсь, своим опытом. Думаю никто не будет против))))

Как искать белые каталоги?

Не для кого ни секрет, что для увеличение скорости индексации сайта и его показателей в поисковых машинах, используется регистрация в «белых» каталогах. Но тут же возникает вопрос: «Где их взять?». Вот сейчас мы этим и займёмся! Будем искать «белые» каталоги вместе и делать это будем с нуля т.е. обойдёмся без мучений поисковиков запросами: «Скачать базу белых каталогов», «бесплатно белые каталоги» и т.п.

Для начало нам нужно вооружиться, а в частности скачать AGGRESS Parser с помощью него мы будем парсить выдачу поисковиков. После скачивания и установки, нужно внести пару изменений в запросы:

1. Заходим в каталог с установленным AGGRESS Parser и переходим в папку «search». В этой папке лежат .txt файлы, где прописаны запросы к поисковикам.
2. Создаём копию файла Google.txt и переименовываем её в Googleurl.txt
3. Открываем файл Googleurl.txt и заменяем в нём данные на следующие:

Url-http://www.google.com
AbsoluteUrl-http://www.google.com/search?client=opera&rls=ru&q=allinurl:{REQUEST}&sourceid=opera&ie=utf-8&oe=utf-8&num=500&start=0&hl=ru&lr=lang_ru&hs=o6a&filter=0
UntilTextAfter-<div class=g>
<a href="{TEXT}"
UntilNextLinkAfter-><td nowrap class=b><a href={NEXTLINK}>
Pattern-{TEXT}

4. Сохраняем и закрываем.

Мы создали новый запрос в виде allinurl:страница похожая на шаблон.

Теперь нам нужно выбрать «жертву» т.е. движок каталога, в котором страницы практически одинаковы. Для примера возьмём движок Flashcat. Для добавления сайта, на этом движке, мы стандартно переходим на страницу «?act=s_add». Теперь у нас стоит задача, нам нужны все сайты, которые оканчиваются на «?act=s_add». Для этого мы:

1. Запускаем AGGRESS Parser
2. В «поисковики» выбираем наш «Googleurl.txt»
3. Вводим запрос: ?act=s_add и нажимаем «Добавить»
4. Теперь наш запрос добавился в список. Нажимаем кнопку «Запуск» и ждём как слева пополняется список сайтами.
5. Дальше мы нажимаем слева внизу кнопочку «Сохранить» при этом стандартно файл для сохранения стоит «base.txt»

Вот практически и всё. Наш файлик со списком каталогов находится в папке AGGRESS\Parser\date\base.txt. Его можно без труда импортировать в AllSubmitter, где в процессе регистрации (или просто просмотра каталогов) мы отсеем не «белые» каталоги. Теперь можете искать другие движки каталогов и парсить их.
Поэкспериментируйте с Яндексом. Разница от Google в том, что нужно выбрать в программе yandex.txt и вводить в запрос не страницу добавления, а часть текста находящегося на странице. Например, для того же Flashcat мы будем вводить запрос: "URL кнопки 88x31 (если есть):". Все остальные действия полностью повторяют пример с Google.
Материал взят с: http://yaback.net

p.s. я не копирайтер, но Word помогал мне, как мог, исправлять грамматические ошибки.

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/ ✅ Настройка и оптимизация серверов https://getmanyspeed.ru/

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий