- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
теперь можно говорить, что понятия "отрицательный вес" нет, и непотные ссылки передают свой, хоть и незначительный, но вес, так зачем теперь их отсеивать?
Это можно говорить в случае ранжирования по алгоритму №2, т.е. когда в выдаче показывается НПС. А вот, как теперь будет эволюционировать основной алгоритм №1 - понять будет намного сложнее. Боюсь, что в ряде случаев могут возникать парадоксальные ситуации - чтобы улучшить ранжирование, надо будет убирать ключевики из контента напрочь (см. мой предыдущий пост).
Т.е. основная мысль в том, что основной и альтернативный алгортимы ведутся как бы по разным поисковым зонам (анкор-файлам)?
Именно.
10 алгоритмов.
чтобы улучшить ранжирование, надо будет убирать ключевики из контента напрочь (см. мой предыдущий пост)
wolf, согласитесь это рытье могилы ;) борьба с оптимизаторами не стоит ухудшения поиска (читать как "снижение аудиториии" (читать как "уменьшение прибыли"))
wolf, согласитесь это рытье могилы борьба с оптимизаторами не стоит ухудшения поиска (читать как "снижение аудиториии" (читать как "уменьшение прибыли"))
Ну, тут уже дело техники - синхронизировать оба алгоритма так, чтобы второй не забивал первый.
wolf, согласитесь это рытье могилы ;)
Имхо, это когда от забора и до обед... топа тупое рыть... тьфу, закупка.;)
В общем так, господа оптимизаторы. Похоже, действительность оказалась еще круче, чем я предполагал. Предварительные выводы таковы. Результаты без текстовой составляющей (т.е. НПС) обрабатываются альтернативным и, похоже, совершенно примитивным алгоритмом, в котором нет даже IDF. Так как общая выдача хоть и изменилась, но несильно, можно сделать вывод о том, что результаты с текстовой составляющей обрабатываются прежним алгоритмом. То есть, ситуация выглядит так, что добавлено простое условие: если текстовая релевантность равна нулю - алгоритм новый (дадим ему нумер 2), иначе - прежний (дадим ему нумер 1). Короче, суровая реальность состоит в том, то в реальный анкор-файл (который продолжает использоваться в алгоритме №1) уже никак не заглянуть, на все попытки (даже самые изощренные оптимизаторские хаки, проникающие в недра анкор-файла) покажут альтернативный расширенный анкор-файл, содержащий все отфильтрованные фекалии, который используется в примитивном (а потому, наверное, не слишком чувствительном к увеличению записи в альтернативных анкор-файлах) алгоритме №2. В общем, об определении непот-фильтра можно забыть, а приобретение ссылок теперь будет осуществляться полностью в слепую. Ай да Яндекс, ай да сукин сын. Одним махом семерых побивахом...
Дисклеймер. Всё сказанное основано на результатах предварительного анализа и является промежуточным выводом, не претендующим на истину в последней инстанции.
Если так, то тем самым Яндекс показывает, что он всё же бориться с оптимизаторами. Ведь по сути, этот расширенный анкор-файл принципиально никак не сказывается на выдаче, но он сильно усложняет теперь покупку ссылок. Вобще от подобного нововедения покупка ссылок только возрастет, появиться еще больше продажных ссылок, еще больше сайтов будет ими захламлено. Для чего Яндекс это сделал непонятно, из вредности что ли😕
Дисклеймер. Всё сказанное основано на результатах предварительного анализа и является промежуточным выводом, не претендующим на истину в последней инстанции.
Если все это подтвердиться - эффективной будет работа тех, кто сможет делать выводы на счет наличия/отсутствия непота по косвенным признакам.
Один из вариантов - "страницы-поплавки" ориентированные под один запрос, связанный с текстом одной конкретной ссылки.
После попадания в индекс такой страницы - фиксируется ее место по контрольному запросу. Далее с проверяемой страницы донора ставиться ссылка, которая должна поднять "страницу-поплавок" по контрольному запросу.
Выбирать контрольный запрос и формировать текстовую составляющую "страницы-поплавка" нужно таким образом, чтобы подъем был очевиден.
По динамике изменений позиции "страницы-поплавка" по контрольному запросу можно делать вывод о работоспособности проверяемой ссылки с некоторой погрешностью и распространять этот вывод на оставшиеся на этой странице ссылки с некоторой погрешностью.
Один из вариантов - "страницы-поплавки"....
А сроки?🚬
wolf, отличные выводы и вполне логичные если взвесить все последние изменения.
Теперь действительно работать придеться в темную, но ум оптимизатора тоже не стоит на месте :)
ведь и раньше находили выходы реагировать на изменения Яндекса.
Да и что главное по прежнему все остаются в одинаковых условиях.
А вот насчет (убирать ключевики из контента напрочь) это то какой смысл будет иметь? Или я что то пропустил, тогда прошу прощения.
Borya, сами то поняли, что написали? :)
_Ivan_, это даже при масштабах одного сайта - утомишься проверять.