Апдейт поисковой базы 02.02.10

G00DMAN
На сайте с 19.04.2008
Offline
122
#1371
devzev:
Ну не ручками же. Скорее всего, алгоритм пока обучают.

Не ручками, но можно же и рандомное опускалово запрограмить.

devzev:
Давайте пойдём от противного: а бывают ли простыни заточенные под НЧ? :)

А почему именно простыни? ;)

Из того, что под сео-спам попадают в основном простыни, не следует, что не могут попасть и более умеренные тексты. От алгоритма фильтра зависит, хитрый он. :)

NovaPS:
По 3-му, я же говорю об одном и том же сайте (даже об одном и том же документе), просто о разных ключах ВК/ВЧ на данном документе. Т.е. если он уже прошелся по документу, как он не мог зацепить его же, но для другого ключевика?

Очень просто, если алгоритм обрабатывает пары (запрос, документ), а не "документ по всем запросам, по которым он в топе". :)

Илья Зябрев, AlterTrader Research Ltd. Последние статьи: Об отмене ссылок в Яндексе. (www.altertrader.com/publications38.html)|Поведенческие факторы (формулы) (www.altertrader.com/publications36.html) Жадные алгоритмы Яндекса. (www.altertrader.com/publications20.html)|MatrixNet для «чайников». (www.altertrader.com/publications19.html)
NP
На сайте с 09.08.2006
Offline
72
#1372
G00DMAN:
Очень просто, если алгоритм обрабатывает пары (запрос, документ), а не "документ по всем запросам, по которым он в топе". :)

Тогда у нас получается гибрид 2-го и 3-го варианта :)

WD
На сайте с 20.03.2009
Offline
20
#1373
G00DMAN:
алгоритм обрабатывает пары (запрос, документ), а не "документ по всем запросам, по которым он в топе".

А оно как правило так.

NP
На сайте с 09.08.2006
Offline
72
#1374
Fresher:
дык смотря что, есть куча коммерческих НЧ топов где раньше в этом просто соревновались пацаны 🤣 да и на читабельность вообще никак не влияло :)

А можно пример в личку, - учиться никогда не поздно :)

ORDANAX
На сайте с 24.10.2007
Offline
86
#1375
chimzar:
Прокомментируйте такой факт.
запрос асбестоцементные трубы регион Москва 24 место
http://yandex.ru/yandsearch?p=2&text=%D0%B0%D1%81%D0%B1%D0%B5%D1%81%D1%82%D0%BE%D1%86%D0%B5%D0%BC%D0%B5%D0%BD%D1%82%D0%BD%D1%8B%D0%B5%20%D1%82%D1%80%D1%83%D0%B1%D1%8B&lr=213

"Партнер-Холдинг" - строительные материалы - title

найден по ссылке: Партнер холдинг асбестоцементные изделия шифер, асбестоцементные трубы, АЦЭИД, сухие смеси...…

посмотрите в "сохраненная копия" откуда взялся такой title, и где Яша нашла "Партнер холдинг асбестоцементные изделия шифер, асбестоцементные трубы, АЦЭИД, сухие смеси...…"

Элементарно, Ватсон.

Из Яндекс каталога

http://search.yaca.yandex.ru/yandsearch?text=partner-h.ru&doSearch=%CD%E0%E9%F2%E8&rpt=rs2

[Удален]
#1376
NovaPS:
А можно пример в личку, - учиться никогда не поздно

скинул образно, думаю поймете. тока щас никому не советую так делать, имхо тема теряет свою значимость с катастрофической скоростью появления в топах простеньких неоптимизированных старниц. Другое дело, что вопрос остается открытым, за счета ли вылета таких вот пациентов?

NP
На сайте с 09.08.2006
Offline
72
#1377
G00DMAN:
Очень просто, если алгоритм обрабатывает пары (запрос, документ), а не "документ по всем запросам, по которым он в топе". :)

В продолжении темы. Как-то всегда был уверен (во всяком случае по наблюдениям так и было), что если Яндекс проиндексировал страницу, то алгоритм обрабатывал ее полностью при следующем апдейте. Т.е. все ключи/слова в документе обрабатывались за один апдейт. А тут получается, что используется алгоритм (или его уже можно назвать фильтр), который за один апдейт, то ли не успевает (что маловероятно), то ли ему не задали обрабатывать документы для всех запросов или запросы для всех документов (по какой-то заданной метрике, которая из апдейта в апдейт корректируется, или пока рандомно). Я правильно понял?

Alfa
На сайте с 27.02.2002
Offline
118
#1379
G00DMAN:
Из того, что под сео-спам попадают в основном простыни, не следует, что не могут попасть и более умеренные тексты.

Подтверждаю. Под фильтр попал внутряк второго уровня так скажем:

domain.com/ноутбуки/ - было в топе

domain.com/ноутбуки/красивый ноутбук/ - стало на 2-3й странице

текста 1500 знаков, продвигался по 4м СЧ, все были в тайтле и h1 и тексте по 1 разу (они взаимосвязаны и похожи по смыслу, поэтому там не было тупо четыре слововсочетания через разделитель, более красиво было), так вот, зафильтровались два из этих 4х СЧ, разница вот в чем:

1. То, что ушло - более конкурентные, в тексте были точные вхождения в <b>, было прилично ссылок с точным вхождением в анкор

2. То, что осталось - в тексте были не точные вхождения, с окончаниями, без болда и меньше ссылок на ним было, но они и менее конкурентные поэтому и меньше ссылок требовалось

Так что простыни не было, был то что в этом топике называют "сео прессинг". Пока ради эксперимента просто убрали <b> и в h1 по другому переписали те же слова, посмотрим...

G00DMAN
На сайте с 19.04.2008
Offline
122
#1380
NovaPS:
А тут получается, что используется алгоритм (или его уже можно назвать фильтр), который за один апдейт, то ли не успевает (что маловероятно), то ли ему не задали обрабатывать документы для всех запросов или запросы для всех документов (по какой-то заданной метрике, которая из апдейта в апдейт корректируется, или пока рандомно). Я правильно понял?

Да, может быть вариант, когда пары (запрос, документ) выдергиваются рандомно по некоторому списку запросов. Но это все гипотезы, не более того. :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий