- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не много поделюсь, своим опытом. Думаю никто не будет против))))
Не для кого ни секрет, что для увеличение скорости индексации сайта и его показателей в поисковых машинах, используется регистрация в «белых» каталогах. Но тут же возникает вопрос: «Где их взять?». Вот сейчас мы этим и займёмся! Будем искать «белые» каталоги вместе и делать это будем с нуля т.е. обойдёмся без мучений поисковиков запросами: «Скачать базу белых каталогов», «бесплатно белые каталоги» и т.п.
Для начало нам нужно вооружиться, а в частности скачать AGGRESS Parser с помощью него мы будем парсить выдачу поисковиков. После скачивания и установки, нужно внести пару изменений в запросы:
1. Заходим в каталог с установленным AGGRESS Parser и переходим в папку «search». В этой папке лежат .txt файлы, где прописаны запросы к поисковикам.
2. Создаём копию файла Google.txt и переименовываем её в Googleurl.txt
3. Открываем файл Googleurl.txt и заменяем в нём данные на следующие:
Url-http://www.google.com
AbsoluteUrl-http://www.google.com/search?client=opera&rls=ru&q=allinurl:{REQUEST}&sourceid=opera&ie=utf-8&oe=utf-8&num=500&start=0&hl=ru&lr=lang_ru&hs=o6a&filter=0
UntilTextAfter-<div class=g>
<a href="{TEXT}"
UntilNextLinkAfter-><td nowrap class=b><a href={NEXTLINK}>
Pattern-{TEXT}
4. Сохраняем и закрываем.
Мы создали новый запрос в виде allinurl:страница похожая на шаблон.
Теперь нам нужно выбрать «жертву» т.е. движок каталога, в котором страницы практически одинаковы. Для примера возьмём движок Flashcat. Для добавления сайта, на этом движке, мы стандартно переходим на страницу «?act=s_add». Теперь у нас стоит задача, нам нужны все сайты, которые оканчиваются на «?act=s_add». Для этого мы:
1. Запускаем AGGRESS Parser
2. В «поисковики» выбираем наш «Googleurl.txt»
3. Вводим запрос: ?act=s_add и нажимаем «Добавить»
4. Теперь наш запрос добавился в список. Нажимаем кнопку «Запуск» и ждём как слева пополняется список сайтами.
5. Дальше мы нажимаем слева внизу кнопочку «Сохранить» при этом стандартно файл для сохранения стоит «base.txt»
Вот практически и всё. Наш файлик со списком каталогов находится в папке AGGRESS\Parser\date\base.txt. Его можно без труда импортировать в AllSubmitter, где в процессе регистрации (или просто просмотра каталогов) мы отсеем не «белые» каталоги. Теперь можете искать другие движки каталогов и парсить их.
Поэкспериментируйте с Яндексом. Разница от Google в том, что нужно выбрать в программе yandex.txt и вводить в запрос не страницу добавления, а часть текста находящегося на странице. Например, для того же Flashcat мы будем вводить запрос: "URL кнопки 88x31 (если есть):". Все остальные действия полностью повторяют пример с Google.
Материал взят с: http://yaback.net
p.s. я не копирайтер, но Word помогал мне, как мог, исправлять грамматические ошибки.