- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Заметил интересную вещь. При превышении плотности ключевого слова >5% из выдачи Ya вообще пропала главная страница. По этому слову теперь внутренняя - неоптимизированная и результаты плачевные.
При чем R изначально выдает неоптимизированную внутреннюю и примерно на тех же позициях. Отсюда и мысль о фильтре и пессимизации. Сейчас в Google - N1, Аппорт - N3. До падения в Ya был N3, плотность приближалась к 5. Что делал: в title убрал одно неключевое слово и добавил в контент одно ключевое - этим самым превысил плотность >5.
Интересно то, что до этого главную несколько раз выкидывало из выдачи (я ничего не делал), но со следующим апдейтом все возвращалось с лучшим результатом на 1 позицию. Если это фильтр Ya, то накладывают его на всю страницу - вылетели еще два ключевых слова, по которым работал со страницей.
Нет-ли у кого-нибудь наблюдений за похожей ситуацией.
Скорее просто очередной глюк Я.
Скорее просто очередной глюк Я.
Хотелось бы верить.
У меня есть страницы где плотность 7, а есть где 3.
Если создать страницу из 4 слов по сверх низкочастотному запросу из двух слов типа "кулебяка наемная", то она будет вверху, при том что плотность будет 50%.
Так что это скорее всего глюк.
может быть у Яндекса фильтры работают только на "сладкие" запросы?
Наблюдал похожую ситуацию по одному запросу средней жирности. Но, что интересно, это произошло не только со мной. В первой десятке появилось много сайтов со внутренними страницами - до этого вся первая десятка была из главных страниц.
может быть у Яндекса фильтры работают только на "сладкие" запросы?
Наверняка так - ибо фильтр в любом случае требует применения ручного труда на этапе инсталляции, и весь словарный запас не окучить...
Тема хоть и избитая, но как всегда интересная... Интересная она и потому , что никто не знает, да и не может знать идеального рецепта в отношении плотности.
При таких дискуссиях следует, однако,всегда указывать по какой методике или пользуясь каким софтом или онлайн-сервисом измеряете плотность, потому как везде результаты разные...
как бы мерялка не меряла .. правильно или неправильно - никто не мешает сверить с конкурентом из первой десятки ... и сделать выводы
В том то и дело, что это было бы справедливо без ссылочного ранжирования, а зная что может быть разный объем и качество ссылок... плотность уходит в ряд одним из факторов...
Наверное, идеальная плотность вообще - это слишком просто. Посмотрите - на графике видно, что у двух "жирных" и одного неоптимизированного запроса (все запросы однословные) плотность КС в тексте очень сильно отличается (данные взяты при помощи SeMaster'а).