- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Ну не ручками же. Скорее всего, алгоритм пока обучают.
Не ручками, но можно же и рандомное опускалово запрограмить.
Давайте пойдём от противного: а бывают ли простыни заточенные под НЧ? :)
А почему именно простыни? ;)
Из того, что под сео-спам попадают в основном простыни, не следует, что не могут попасть и более умеренные тексты. От алгоритма фильтра зависит, хитрый он. :)
По 3-му, я же говорю об одном и том же сайте (даже об одном и том же документе), просто о разных ключах ВК/ВЧ на данном документе. Т.е. если он уже прошелся по документу, как он не мог зацепить его же, но для другого ключевика?
Очень просто, если алгоритм обрабатывает пары (запрос, документ), а не "документ по всем запросам, по которым он в топе". :)
Очень просто, если алгоритм обрабатывает пары (запрос, документ), а не "документ по всем запросам, по которым он в топе". :)
Тогда у нас получается гибрид 2-го и 3-го варианта :)
алгоритм обрабатывает пары (запрос, документ), а не "документ по всем запросам, по которым он в топе".
А оно как правило так.
дык смотря что, есть куча коммерческих НЧ топов где раньше в этом просто соревновались пацаны 🤣 да и на читабельность вообще никак не влияло :)
А можно пример в личку, - учиться никогда не поздно :)
Прокомментируйте такой факт.
запрос асбестоцементные трубы регион Москва 24 место
http://yandex.ru/yandsearch?p=2&text=%D0%B0%D1%81%D0%B1%D0%B5%D1%81%D1%82%D0%BE%D1%86%D0%B5%D0%BC%D0%B5%D0%BD%D1%82%D0%BD%D1%8B%D0%B5%20%D1%82%D1%80%D1%83%D0%B1%D1%8B&lr=213
"Партнер-Холдинг" - строительные материалы - title
найден по ссылке: Партнер холдинг асбестоцементные изделия шифер, асбестоцементные трубы, АЦЭИД, сухие смеси...…
посмотрите в "сохраненная копия" откуда взялся такой title, и где Яша нашла "Партнер холдинг асбестоцементные изделия шифер, асбестоцементные трубы, АЦЭИД, сухие смеси...…"
Элементарно, Ватсон.
Из Яндекс каталога
http://search.yaca.yandex.ru/yandsearch?text=partner-h.ru&doSearch=%CD%E0%E9%F2%E8&rpt=rs2
А можно пример в личку, - учиться никогда не поздно
скинул образно, думаю поймете. тока щас никому не советую так делать, имхо тема теряет свою значимость с катастрофической скоростью появления в топах простеньких неоптимизированных старниц. Другое дело, что вопрос остается открытым, за счета ли вылета таких вот пациентов?
Очень просто, если алгоритм обрабатывает пары (запрос, документ), а не "документ по всем запросам, по которым он в топе". :)
В продолжении темы. Как-то всегда был уверен (во всяком случае по наблюдениям так и было), что если Яндекс проиндексировал страницу, то алгоритм обрабатывал ее полностью при следующем апдейте. Т.е. все ключи/слова в документе обрабатывались за один апдейт. А тут получается, что используется алгоритм (или его уже можно назвать фильтр), который за один апдейт, то ли не успевает (что маловероятно), то ли ему не задали обрабатывать документы для всех запросов или запросы для всех документов (по какой-то заданной метрике, которая из апдейта в апдейт корректируется, или пока рандомно). Я правильно понял?
http://yandex.ru/yandsearch?text=%22%D0%9F%D0%B0%D1%80%D1%82%D0%BD%D0%B5%D1%80+%D1%85%D0%BE%D0%BB%D0%B4%D0%B8%D0%BD%D0%B3+%D0%B0%D1%81%D0%B1%D0%B5%D1%81%D1%82%D0%BE%D1%86%D0%B5%D0%BC%D0%B5%D0%BD%D1%82%D0%BD%D1%8B%D0%B5+%D0%B8%D0%B7%D0%B4%D0%B5%D0%BB%D0%B8%D1%8F+%D1%88%D0%B8%D1%84%D0%B5%D1%80%2C+%D0%B0%D1%81%D0%B1%D0%B5%D1%81%D1%82%D0%BE%D1%86%D0%B5%D0%BC%D0%B5%D0%BD%D1%82%D0%BD%D1%8B%D0%B5+%D1%82%D1%80%D1%83%D0%B1%D1%8B%2C+%D0%90%D0%A6%D0%AD%D0%98%D0%94%2C+%D1%81%D1%83%D1%85%D0%B8%D0%B5+%D1%81%D0%BC%D0%B5%D1%81%D0%B8%22&lr=213
Вот откуда взялось!
Если вы кликните на саму страницу, то увидите ложность вашего утверждения. Тайтл другой.
А берется он с Яндекс каталога
http://search.yaca.yandex.ru/yandsearch?text=partner-h.ru&doSearch=%CD%E0%E9%F2%E8&rpt=rs2
Из того, что под сео-спам попадают в основном простыни, не следует, что не могут попасть и более умеренные тексты.
Подтверждаю. Под фильтр попал внутряк второго уровня так скажем:
domain.com/ноутбуки/ - было в топе
domain.com/ноутбуки/красивый ноутбук/ - стало на 2-3й странице
текста 1500 знаков, продвигался по 4м СЧ, все были в тайтле и h1 и тексте по 1 разу (они взаимосвязаны и похожи по смыслу, поэтому там не было тупо четыре слововсочетания через разделитель, более красиво было), так вот, зафильтровались два из этих 4х СЧ, разница вот в чем:
1. То, что ушло - более конкурентные, в тексте были точные вхождения в <b>, было прилично ссылок с точным вхождением в анкор
2. То, что осталось - в тексте были не точные вхождения, с окончаниями, без болда и меньше ссылок на ним было, но они и менее конкурентные поэтому и меньше ссылок требовалось
Так что простыни не было, был то что в этом топике называют "сео прессинг". Пока ради эксперимента просто убрали <b> и в h1 по другому переписали те же слова, посмотрим...
А тут получается, что используется алгоритм (или его уже можно назвать фильтр), который за один апдейт, то ли не успевает (что маловероятно), то ли ему не задали обрабатывать документы для всех запросов или запросы для всех документов (по какой-то заданной метрике, которая из апдейта в апдейт корректируется, или пока рандомно). Я правильно понял?
Да, может быть вариант, когда пары (запрос, документ) выдергиваются рандомно по некоторому списку запросов. Но это все гипотезы, не более того. :)