Nikitoz

Nikitoz
Рейтинг
21
Регистрация
11.09.2006

Недавно решил воспользоваться ПС, чтобы найти сценарии пантомим.

Вот выдача Яндекса и Гугла по безобидному вопросу:

http://www.yandex.ru/yandsearch?stype=www&nl=0&text=%EF%E0%ED%F2%EE%EC%E8%EC%E0

http://www.google.ru/search?hl=en&q=%D0%BF%D0%B0%D0%BD%D1%82%D0%BE%D0%BC%D0%B8%D0%BC%D0%B0&btnG=Google+Search

Если отвлечься от поиска конкретно сценариев пантомим и оценить релевантность выдачи по запросу "пантомима", то у гугла она на порядок выше даже если смотреть чисто по сниппетам.

На втором месте у Гугла находится Википедия, что ИМХО очень правильно. Если не занешь чего хочет пользователь задавший однословный запрос - выдай ему определение и возможно какую-нибудь полезную информацию об этом слове - результат при однословном запросе стопудово релевантный.

T.R.O.N:
Это больше говорит о смене соотношения ВИЦ/ссылочное

Угу, я и говорил, что они росли за счет ВИЦ, как мне кажется. Но после последнего апа эти сайты перестали расти.

К сожалению в таком СЕРПЕ ссылочное не учитывается (это тоже по ощущениям). Скорее там играло роль соотношение текстовой релевантности запроса в анкор-файле и ВИЦа страницы.

Когда текстовая релевантность понижалась вариацией запроса, страницы с большим ВИЦ начинали ползти вверх. Сейчас повидимому понизить текстовую релевантность не получается, в частности это может быть из-за уменьшение веса слов в зоне ссылочного или из-за изменения в переколдовке.

Олежина:
Добрый день. В результатах переколдовки вес редких слов изменён:
было - 1819103916
стало - 800378936

Что это к чему это может привести? Изменение этого значения может отразится на "фильтрации по кворуму", ведь редкие слова в коллекции получили меньший вес?

Естественно отразиться. Думаю это направлено на уменьшение роли редких слов в запросах пользователей. Теперь присутствие одного редкого слова в пассаже, который удовлетворил контекстным ограницением, будет не так сильно сказываться на прохождении пассажем кворума.

Почему они решили, что это повысит качество поиска и почему не сделали этого раньше не известно. Вероятно на тестовом массиве это нововедение улучшило результаты.

В последний апдейт в серпе "найден по ссылке" наблюдал существенные положительные изменения: не релевантные сайты, которые при определнных изменениях запроса стабильно ползли вверх (я думаю за счет вИЦ) с малым количеством ссылок с текстом анкора, теперь балтаются где-то в 30-ке и особо не дергаются. Раньше крупные сайты стабильно росли в СЕРПЕ оттесняя тематические сайты с количеством бэков 500-800 с вхождением текста запроса, хотя у этих крупных сайтов бэков с текстом запроса было от 3 до 20.

Эти изменения могут быть связаны с уменьшением веса слов. Правда мне доподлинно не известно используются ли те же самые веса слов для зоны ссылок или нет.

kosmohost:
Есть сайт, на который часто добавляются новости.

После очередного апдейта заметил, что страницы со старыми новостями пропадают из индекса, а на их место встают новые. Примерно 1-2 месяца назад такого не было.

У кого-нибудь замечено что-то подобное?

Посмотрите такую тему /ru/forum/147551, может как-то связано.

diafan:
Да не предполагаю я, что Яндекс влез в САПу и зафильтровал все сайты в их базе!
Я предполагаю, что Яндекс добавил к "общему непот-фильтру на все случаи жизни" пару галочек, благодаря САПе и подобным! Т.к. это первая мощная биржа внутренних и морд, а не одних морд. Теперь вот под непотом сайтов больше и САПовские из этих "больше" - основные!
Я не утверждаю, что все сайты САПы под фильтром, - а только оборзевшие, которых и без САПы хватает.
И так скажем, что если бы САПА работала как месяц назад, ваши сайты прыгнули бы гораздо выше.
Соответственно, сайты, которые были месяц назад в топ1 на одной САПЕ - просели на некоторое число позиций!

С такой формулировкой согласен, акромя последнего предложения. Всеж таки дело не в том, как была куплена ссылка, а в том на каком сайте (странице) и с каким анкором.

А что касается вклада САПы в непот фильтр так это точно: до sape и xap внутренние практически вообще не продавали - массовая продажа внутренних пошла как раз после внедрения этих систем. А до того момента общее количество исходящих с сайта полностью ограничивалось вместимостью морды и редко превышало 30-40 ссылок.

diafan:
Сколько раз уже звучало на форуме, что если со страницы еще 50 исходящих, то как не тужься, ссылка работать не будет!!! Хоть руками ее установи, хоть ногами!

И если с трехстраничного сайта с объемом текста 3кб выходит 30 исходящих в разные стороны - чихать на ссылки Яндекс хотел! И неважно, вебмастер ее туда поставил ручками или САПА!

Угу, вот и я о том же.

diafan:

Но вот если на многостраничном сайте на внутренних ставятся ссылки естественным образом, они будут на каждой странице? Их будет ровно по 10? Или по 5? Нет!
А при использовании САПЫ почти каждый продажный сайт ставит код на все страницы! И если вы "руками" и "супермозгом" ставите одну свою ссылочку - с этого сайта уже есть несколько сотен исходящих с других страниц!
А некоторые сайты на САПЕ имеют тысячи страниц! Даже если по 5 ссылок на странице - это десятки тысяч мест! И как вы думаете, с одного домена в целом может "исходить" хотя бы 1.000 исходящих ссылок???

Не покупайте ссылки с таких сайтов, кто вам мешает этого не делать.

Думаю, Яндекс больше ориентирован на создание общих фильтров - для всех случаев жизни, а не фильтров под конкретную систему покупки-продажи ссылок. Например, если есть в ПС фильтр на большое количество исходящих ссылок сайта по сравнению с контентом, или на блоки ссылок, то под него попадут как САПовские сайты с неразумным количеством ссылок, так и сайты с ручной простановкой ссылок жадными веб-мастерами. Но он не направлен конкретно против САПы.

З.Ы. Не горячитесь, я же не говорил, что я умею покупать ссылки с САПы, а вы нет. ;) Просто рассуждаем...

diafan:

Вот в целом сайт и продвигается статьями и ручной покупкой ссылок! Ну и САПой, конечно, немного, не все же там такие зверские "продавцы".

Просто когда он у меня упал немного по основным запросам место так на 15, обратно в ТОП я его вытянул именно САПой (больше ничего не делал) и было этот как раз перед самой сменой алгоритма.

diafan:

+40, это с 135 места на 95 место?

с 62 на 23 по ВЧ, с 18 на 4 по конкурентному НЧ. Если бы ссылки с САПы фильтровались , как вы предполагаете, сайт бы и на 5 позиций не прыгнул.

diafan:
Вот это весьма верная версия! У меня была пара сайтов чисто на САПЕ, они провалились еще 3-го июля. Те, что без САПЫ - не шатаются. И похоже, что именно общее количество исходящих со всего домена "выдает" сапу!

сколько раз уже звучало на форуме, что дело не в САПе, а в ее использовании. Если вы будете автоматом, неглядя и не проверяя покупать ссылки в САПе, то не удивительно что они отфильтруются или вообще не проиндексируются.

В целом продвигаю сайт статьями, ручной покупкой ссылок через форум и сапой. Со сменой алгоритма колебаний сильных нет. Большинство позиций в плюс, но не значительно.

Некоторые довольно конурентные запросы, которые продвигались только САПой +40, +12.

Разместился. Очень быстро. Площадки в принципе неплохие для такой цены. Лучше, к сожалению, найти тяжело.

john2007:

А во-вторых, логика при том, что алгоритм в Яндексе писал не Бог, а люди (людей, думаю, понять это доступнее), которые, я думаю, все таки создавали алгоритмы, стараясь добиться релевантной выдачи. При этом, думаю, опирались на логику, возможно не похожую на нашу с Вами. Я хочу ее понять, прошу, что бы кто-то из Вас мне в этом помог :)

При всем уважении, трудно понять нормальную человеческую логику, когда этого человека "спамят" со всех сторон. Как известно, результаты применения алгоритмов очень сильно разняться на тестовом массиве документов (например, при экспериментах на РОМИП) и в индексной базе Яндекса всея Рунета, где очень много "шумов".

Поэтому опираться на нормальную человеческую логику, без соответствующих экспериментальных данных - это черевато.

dweller:

Существуют разные фильтры. В том числе такие, где реципиент находится по уникальному анкору, но толку от такой ссылки, как от козла молока, из-за того что вес ссылки сильно уменьшен.
Иными словами, у сайта и тиц может быть 11К и PR 7, и реципиент находится по уникальному анкору, но ссылки там лучше не покупать, так как это напрасная трата денег.

Как насчет того, что вес таких ссылок может уменьшаться "естественным" образом без всяких фильтров?

Например, исходящих ссылок со страницы 40 шт. , тогда общий передаваемый вес с данной страницы ДЕЛИТСЯ на 40, или, например, несоответствие анкора ссылки тексту на странице-реципиенте. Тоже это фильтрами Яндекса назовете?

Всего: 182