- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ясен красен, что чем меньше, тем лучше
это Вы откуда такой вывод сделали? Ваши догадки? Абсолютно не согласен с Вами.
По простому и чтобы было понятно. Можно разместить 3-и ключевых слова в тексте из 10-ти слов. А можно разместить 1-но ключевое слово в тексте из 3-х слов. В первом случае процент ключа в тексте будет ниже, чем во втором, но тошнота больше.
Самое простое определение - частота нахождения словосочетаний на странице.
В данный момент тяжело определить границы, особенно в свете смены алгоритма. Но если тошнотность обоснована, к примеру, это таблица прайс-листа с наименованием продукции, то как спам такая страница посчитана не будет.
Мое правило: концентрация ключей должна быть пропорциональна количеству текста/инфы на странице.
А в каких пределах должен быть этот показатель для нормального сайта?
А с чего вы решили, что сейчас вообще можно ориентироваться на эти данные?
А с чего вы решили, что сейчас вообще можно ориентироваться на эти данные?
Я не ориентируюсь на эти данные. Просто в начале этой темы была ссылка на сервис для определения энтой самой "тошноты"... Об этом понятии я впервые услышал. Я проверил морду своего сайтика и получил 2,6. И у меня возник (из чувства любопытства) вопрос: какая должна быть max величина (естественно весьма ориентировочно) "тошноты", чтобы не вырвало? :)
Всё попутали :), про плотность заговорили...
В узком же большинство подразумевает конкретную нормировку, которая имела место в Яндексе в конце 2006-го - начале 2007-го гг.
А сейчас, уже, нет ее?
т.е. плотность ключевых слов.
Плотность тут причем?
А сейчас, уже, нет ее?
Сейчас уже нет тех механизмов, которые бы позволили точно её измерить ;)
это Вы откуда такой вывод сделали? Ваши догадки? Абсолютно не согласен с Вами.
nik_kent, это я в какой-то книжке по оптимизации вычитал ... Если интересно - могу потом автора и название дать ... Только надо книгу дома отрыть )))
+ вот несколько тем, где это обсуждалось:
/ru/forum/179158 (в частности смотрим на пост 4)
/ru/forum/177032
Тошнота страницы - степень неествественности страницы. Тошнота увеличивается при явном переборе ключевых слов, большом кол-ве тегов H1, strong, b и др. Тошнотная страница не обязательно ведет к пессимизации и уж тем более к бану, но может рассматриваться как нежелательная при продвижении веб сайта.
Источник: http://www.webdeco.ru/sense/20/30/
Оптимальной плотностью ключевых слов считаетса 5 % т.е. 5 ключевых фраз на 100 слов текста, тобиш если у тя будет главная страница например состоять из 700 слов то ключевое слово должно в нем встретитса как минимум 35 раз, это называетса оптимальная плотность, а 8% уже может рассмотретса ПМ как поисковый спам.