- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет. Решил поделиться информацией с новичками, по поводу программы хрумер.
Поделюсь опытом использования инструмента "анализ базы ссылок"
Я думаю, многим известно, где и как взять базу всех зарегистрированных доменов в зоне ру/су/рф = это БД на 15-20 лямов действующих доменов.
Так вот, распишу свой небольшой алгоритм, по которому я работаю с клиентскими сайтами.
Итак, погнали!
Этап 1. Анализатор базы на CMS. В первой итерации прогоняем анализатором по всей базе на предмет вхождений признаков CMS (по урлу, или зоне контента, у каждого свой метод и признаки движков)
На выходе получаем, допустим базу блогов на вордпрессе, или форумов.
Этап 2. Анализатор базы на тематику. Допустим, у нас сайт - магазин подарков, и нужны доноры под него. Базы из 1 этапа прогоняем анализатором в режиме "поиск по контенту" + "проверка внутренних страниц" - в базу слов для анализа загоняем лемметизированые ключи + слова, задающие тематику + произвольный список релевантных запросов.
На выходе получаем список сайтов, которые релевантны и смежны нашему продвигаемому сайту.
Этап 3. Анализатор базы на предмет добавления ссылки (если база изначально не форумы). Базы из этапа 2 прогоняем анализатором по признакам добавления ссылки (коммент, поле сайт)
И вот, мы имеем тысячи релевантных сайтов, на которых, так или иначе, можно разместить ссылку. Чекаем полученные базы в чектрасте (или чем вы фильтруете доноров) - и оставляем выжимку из 300-400 сайтов.
Эту базу можно использовать на усиление СК и ВК запросов в ходе продвижения.
Этап 2. Анализатор базы на тематику
а это зачем ? ))
самое важное отбор доменов по параметрам, а тут увы не поможет хрумак
Вы хотите хрумаком гонять каждый раз 20 лямов доменов для поиска нужной CMS?
не легче у меня взять выборки т.к. у меня базы хранятся всех сохранённых страниц ру и бурж доменов?
Если не хотите у меня, продаются базы уже готовые по всем CMS. Иногда покупаю когда дело касается не только доменов, но и поддоменов.
Также можно взять подписку на: https://publicwww.com/websites/%2B"%2Fwa-data%2Fpublic%2F"/
Вообще гигантская база сайтов
На самом деле дельный мануал. Стоит попробовать. Тем более Анализатор сейчас в хруме 64-битный, можно заряжать гигабайтные базы в 500+ потоков спокойно на серваке, очень бодро работает.
Но я больше ждут их новый ИИ-модуль по генерации тематических комментов. Судя по примерам, аппарат будет мощный. Может тот же ИИ и для Анализатора потом задействуют, посмотрим :)
Но я больше ждут их новый ИИ-модуль по генерации тематических комментов
что уже 10 лет все ждешь ?