- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сейчас можно в считанные минуты добыть уйму ключей, например из Букварикса или сервиса Keys.so. Но что делать дальше с этими ключами. Ключи по одной теме следует объединять в группу а далее писать контент раскрывая информацию из этих ключей - на одной странице.
Если делать один сайт то можно потратить время на ручную разгруппировку или воспользоваться платным сервисом автоматической разгруппировки.
Но когда нужно делать минимум по одному сайту в день а то и десяток, тогда ручной или платный вариант разгруппировки отпадает.
С реализацией функционала у меня нет проблем, хочется услышать ваши идеи по алгоритму.
Идея которая у меня возникла вчера:
Скрипт по каждому ключу обращается в поисковик и запоминает первые три урл из выдачи
далее эти три урл сортирует по алфавиту и превращает массив в md5
md5('url1'+'url2'+'url3')
получили хеш аля 1BC29B36F623BA82AAF6724FD3B16718
из большого количества ключей наверняка встретится немало тех что имеют три одинаковых урла по выдаче т.е. тех у которых выйдет одинаковый хеш
а далее мы на основании этого хеша - понимаем какие ключи должны быть в одной группе.
Таким способом получатся групы на основании выдачи поисковика по имеющимся страницам, не зависимо от морфологии слов.
________
Буду рад услышать любое мнение о построении алгоритма для автоматической группировки ключевиков.
Не изобретайте велосипед, купите программу один раз и группируйте сколько угодно раз в день. Лицензия бессрочная, все обновления бесплатные.
Не изобретайте велосипед, купите программу один раз и группируйте сколько угодно раз в день. Лицензия бессрочная, все обновления бесплатные.
Спасибо за совет, возможно приобрету программу, когда решу заниматься СДЛ и нужна будет ручная до проверка ключей.
Но на данный момент я планирую работать над автогенерируемыми сайтами и мне достаточно более менее логической группировки. Мне проще загрузить ключи в базу, что бы скрипт дописал к ним идентификаторы групп. А после из этой же базы с ключами генерировать страницы.
Мда, людкевич и зябрев верно выдали про такие "программы".
Мда, людкевич и зябрев верно выдали про такие "программы".
А что они выдали?
А что они выдали?
http://www.ludkiewicz.ru/2016/05/blog-post_27.html
/ru/articles/24456