- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
мдаа .... очень интересно
я бы такое то-же бы не прочь иметь
Не уж это так в самом деле дорого ?
через обычную релевантность контента на страничке разве нальзя определить ?
мдаа .... очень интересно
я бы такое то-же бы не прочь иметь
Не уж это так в самом деле дорого ?
через обычную релевантность контента на страничке разве нальзя определить ?
тоже хотел бы сделать такое для себя... Пока не очень представляю масштабность задачи, поэтому точка зрения Гринвуда мне пока более близка.
P.S. То, что сейчас у Бегуна, определяет тематику, мягко говоря, не очень хорошо...
SubAqua, заставьте бота показывать объявление по тайтлу. Это один из вариатнов. Второй - анализ плотности слов в контенте.
Создать базу тематик с ключевыми словами для них.
Парсить страницы, выбирать наиболее популярные в них слова (штук 10 хватит) и сравнивать с ключевиками в базе тематик.
Мои десять копеек:
---
Нету ни времени ни желания сейчас этим заниматься, но я бы пожалуй сделал так:
---
1. Необходимо парсить главные страницы (хотя бы главные) сайтов из ЯКа.
2. Контент сайтов из одной категории объединяем и выбираем наиболее часто встречающиеся слова и словосочетания.
3. Отсеиваем слова и словосочетания которые часто встречаются в других категориях. Остаются слова и категории характеризующие тематику.
// Это мы получили базу данных по тематикам. Обновлять ее или вообще не нужно, или редко.
4. Сравниваем нужный контент с нашей базой и определяем из какой тематики наибольшее совпадение. Делаем вывод о тематике.
*. Можно пренебречь словоформами вообще или сравнивать словоформы по каким-нить методикам сравнения, например, Левинштейна на степень схожести.
---
Авось кому пригодятся мысли...
Если делать простую систему - то можно объединить советы от pelvis и PHPExpert.
-Создать базу тематик с ключевыми словами для них.
-Заставить бота показывать объявление по тайтлу.
Если же сложную - то автоконтекст от Ашманова :)
Но определяет. И лучшего пока нет, наверное - к сожалению. А разрабатывалось это достаточно долго и достаточно сильной командой.
Сильно сказано. Респект и уважуха, камрад.
Ну про базу тематик это конечно понятно, но это ведь самое сложное...
Ручками создавать ?
С каждой минутой убеждаюсь в правоте своего метода...
Навигатор, исходя из реальности, а не из фантазий, я имел в виду именно примерно такой алгоритм...
Сео-паразиты, класс скриптов, живущих на результатах выдачи поисковиков... дают более-менее стоящие результаты при приемлимых затратах...