- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пишу здесь так как софт именно для дорвейщиков
народ напишите какой софт вам нужен и сколько готовы за него заплатить
чем больше народу он будет нужен, тем больше вероятности что он будет написан, но если софтина совсем простая то и для одного человека напишим.
В соседней ветке пишут не работает парсер текста - напишите здесь как он должен работать и что откуда парсить
Парсер текста. Берет в качестве затравки слова из списка кейвордов, идет в топ и скачивает 10 сайтов сидящих там по этим запросам по следующему алгоритму: заходим на главную, выдираем все линки по регулряке и регуляркой же высеиваем из их числа те, в которых встречается любой хост, кроме распаршиваемого. Таким образом получаем линки стр УВ2, далее повторяем на них туже процедуру - зарываемся еще на уровень. По мере углубления другой регулркой вытаскиваем все жирные дивы и складываем в файл. + этап парсигна списка сайтов, этап углублений по структуре сайта можно сделать настраиваемыми (настраивать диаппазон с которого берем сайты и настраивать глубину парсинга и процент линков по которым будет идти углубление). + добавить косвенные признаки галер и прочих малоконтентников, чтобы парсер сразу с них уходил, на затрачивая времени.
ЗЫ. если что - это не заказ, а мое видение алгоритма как подобный парсер должен работать.
Авторегер narod.ru, и других фрихостов.
к авторегеру присоединяюсь
генератор с запоминанием всех настроек и способный работать по расписанию сам. И чтобы заливал на хостинг. Т.е. по принципу запустил и все, минимум лишних телодвижений.
Как я это вижу. К примеру, я зарегал 30 новых доменов. Я их кидаю списком в эту машину, потом ставлю галочку об использовании 1 из профилей генерации, ставлю галочку использовать данный хост и жму старт. Потом иду заниматься другими делами, а как возвращаюсь - все уже залито и работает.
А если к нему будет автоматическая аддурилка для Я, то это раза в полтора его стоимость увеличит.
Почти любой серверный дорген с этим без проблем справляется. :)
Авторегер фрихостов не помешал бы. ;)
народ извените, программист отказался ;) , регер фришек папробую сам написать
тема возможно будет интересна другим программистам :)
регистратор фрихостов интересен, только обязательно с поддержкой прокси )
Регер фрих, но только не для narod-а. Их и так полно.
Вы б хоть писали каких фрихостов...