Гости из прошлого, или любопытные находки в анкор-файлах

wolf
На сайте с 13.03.2001
Offline
1183
#321
sud falke:
теперь можно говорить, что понятия "отрицательный вес" нет, и непотные ссылки передают свой, хоть и незначительный, но вес, так зачем теперь их отсеивать?

Это можно говорить в случае ранжирования по алгоритму №2, т.е. когда в выдаче показывается НПС. А вот, как теперь будет эволюционировать основной алгоритм №1 - понять будет намного сложнее. Боюсь, что в ряде случаев могут возникать парадоксальные ситуации - чтобы улучшить ранжирование, надо будет убирать ключевики из контента напрочь (см. мой предыдущий пост).

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
wolf
На сайте с 13.03.2001
Offline
1183
#322
pro-maker:
Т.е. основная мысль в том, что основной и альтернативный алгортимы ведутся как бы по разным поисковым зонам (анкор-файлам)?

Именно.

10 алгоритмов.

sud falke
На сайте с 24.11.2006
Offline
60
#323
wolf:
чтобы улучшить ранжирование, надо будет убирать ключевики из контента напрочь (см. мой предыдущий пост)

wolf, согласитесь это рытье могилы ;) борьба с оптимизаторами не стоит ухудшения поиска (читать как "снижение аудиториии" (читать как "уменьшение прибыли"))

Люблю эту компанию Venta (http://www.promo-venta.ru)
wolf
На сайте с 13.03.2001
Offline
1183
#324
sud falke:
wolf, согласитесь это рытье могилы борьба с оптимизаторами не стоит ухудшения поиска (читать как "снижение аудиториии" (читать как "уменьшение прибыли"))

Ну, тут уже дело техники - синхронизировать оба алгоритма так, чтобы второй не забивал первый.

di_max
На сайте с 27.12.2006
Offline
262
#325
sud falke:
wolf, согласитесь это рытье могилы ;)

Имхо, это когда от забора и до обед... топа тупое рыть... тьфу, закупка.;)

// Все наши проблемы от нашего не знания...
М
На сайте с 08.09.2006
Offline
223
#326
wolf:
В общем так, господа оптимизаторы. Похоже, действительность оказалась еще круче, чем я предполагал. Предварительные выводы таковы. Результаты без текстовой составляющей (т.е. НПС) обрабатываются альтернативным и, похоже, совершенно примитивным алгоритмом, в котором нет даже IDF. Так как общая выдача хоть и изменилась, но несильно, можно сделать вывод о том, что результаты с текстовой составляющей обрабатываются прежним алгоритмом. То есть, ситуация выглядит так, что добавлено простое условие: если текстовая релевантность равна нулю - алгоритм новый (дадим ему нумер 2), иначе - прежний (дадим ему нумер 1). Короче, суровая реальность состоит в том, то в реальный анкор-файл (который продолжает использоваться в алгоритме №1) уже никак не заглянуть, на все попытки (даже самые изощренные оптимизаторские хаки, проникающие в недра анкор-файла) покажут альтернативный расширенный анкор-файл, содержащий все отфильтрованные фекалии, который используется в примитивном (а потому, наверное, не слишком чувствительном к увеличению записи в альтернативных анкор-файлах) алгоритме №2. В общем, об определении непот-фильтра можно забыть, а приобретение ссылок теперь будет осуществляться полностью в слепую. Ай да Яндекс, ай да сукин сын. Одним махом семерых побивахом...

Дисклеймер. Всё сказанное основано на результатах предварительного анализа и является промежуточным выводом, не претендующим на истину в последней инстанции.

Если так, то тем самым Яндекс показывает, что он всё же бориться с оптимизаторами. Ведь по сути, этот расширенный анкор-файл принципиально никак не сказывается на выдаче, но он сильно усложняет теперь покупку ссылок. Вобще от подобного нововедения покупка ссылок только возрастет, появиться еще больше продажных ссылок, еще больше сайтов будет ими захламлено. Для чего Яндекс это сделал непонятно, из вредности что ли😕

Не бойся неизбежного... Уже не продаю авто морды...
_Ivan_
На сайте с 14.05.2006
Offline
148
#327
wolf:

Дисклеймер. Всё сказанное основано на результатах предварительного анализа и является промежуточным выводом, не претендующим на истину в последней инстанции.

Если все это подтвердиться - эффективной будет работа тех, кто сможет делать выводы на счет наличия/отсутствия непота по косвенным признакам.

Один из вариантов - "страницы-поплавки" ориентированные под один запрос, связанный с текстом одной конкретной ссылки.

После попадания в индекс такой страницы - фиксируется ее место по контрольному запросу. Далее с проверяемой страницы донора ставиться ссылка, которая должна поднять "страницу-поплавок" по контрольному запросу.

Выбирать контрольный запрос и формировать текстовую составляющую "страницы-поплавка" нужно таким образом, чтобы подъем был очевиден.

По динамике изменений позиции "страницы-поплавка" по контрольному запросу можно делать вывод о работоспособности проверяемой ссылки с некоторой погрешностью и распространять этот вывод на оставшиеся на этой странице ссылки с некоторой погрешностью.

di_max
На сайте с 27.12.2006
Offline
262
#328
_Ivan_:
Один из вариантов - "страницы-поплавки"....

А сроки?🚬

OneF
На сайте с 09.06.2007
Offline
173
#329

wolf, отличные выводы и вполне логичные если взвесить все последние изменения.

Теперь действительно работать придеться в темную, но ум оптимизатора тоже не стоит на месте :)

ведь и раньше находили выходы реагировать на изменения Яндекса.

Да и что главное по прежнему все остаются в одинаковых условиях.

А вот насчет (убирать ключевики из контента напрочь) это то какой смысл будет иметь? Или я что то пропустил, тогда прошу прощения.

Устали делать сайты? Просто пассивный доход - Успей сделать до 1000% на криптовалюте! (https://goo.gl/eTwSwK)
[Удален]
#330

Borya, сами то поняли, что написали? :)

_Ivan_, это даже при масштабах одного сайта - утомишься проверять.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий