Недавно решил воспользоваться ПС, чтобы найти сценарии пантомим.
Вот выдача Яндекса и Гугла по безобидному вопросу:
http://www.yandex.ru/yandsearch?stype=www&nl=0&text=%EF%E0%ED%F2%EE%EC%E8%EC%E0
http://www.google.ru/search?hl=en&q=%D0%BF%D0%B0%D0%BD%D1%82%D0%BE%D0%BC%D0%B8%D0%BC%D0%B0&btnG=Google+Search
Если отвлечься от поиска конкретно сценариев пантомим и оценить релевантность выдачи по запросу "пантомима", то у гугла она на порядок выше даже если смотреть чисто по сниппетам.
На втором месте у Гугла находится Википедия, что ИМХО очень правильно. Если не занешь чего хочет пользователь задавший однословный запрос - выдай ему определение и возможно какую-нибудь полезную информацию об этом слове - результат при однословном запросе стопудово релевантный.
Угу, я и говорил, что они росли за счет ВИЦ, как мне кажется. Но после последнего апа эти сайты перестали расти.
К сожалению в таком СЕРПЕ ссылочное не учитывается (это тоже по ощущениям). Скорее там играло роль соотношение текстовой релевантности запроса в анкор-файле и ВИЦа страницы.
Когда текстовая релевантность понижалась вариацией запроса, страницы с большим ВИЦ начинали ползти вверх. Сейчас повидимому понизить текстовую релевантность не получается, в частности это может быть из-за уменьшение веса слов в зоне ссылочного или из-за изменения в переколдовке.
Естественно отразиться. Думаю это направлено на уменьшение роли редких слов в запросах пользователей. Теперь присутствие одного редкого слова в пассаже, который удовлетворил контекстным ограницением, будет не так сильно сказываться на прохождении пассажем кворума.
Почему они решили, что это повысит качество поиска и почему не сделали этого раньше не известно. Вероятно на тестовом массиве это нововедение улучшило результаты.
В последний апдейт в серпе "найден по ссылке" наблюдал существенные положительные изменения: не релевантные сайты, которые при определнных изменениях запроса стабильно ползли вверх (я думаю за счет вИЦ) с малым количеством ссылок с текстом анкора, теперь балтаются где-то в 30-ке и особо не дергаются. Раньше крупные сайты стабильно росли в СЕРПЕ оттесняя тематические сайты с количеством бэков 500-800 с вхождением текста запроса, хотя у этих крупных сайтов бэков с текстом запроса было от 3 до 20.
Эти изменения могут быть связаны с уменьшением веса слов. Правда мне доподлинно не известно используются ли те же самые веса слов для зоны ссылок или нет.
Посмотрите такую тему /ru/forum/147551, может как-то связано.
С такой формулировкой согласен, акромя последнего предложения. Всеж таки дело не в том, как была куплена ссылка, а в том на каком сайте (странице) и с каким анкором.
А что касается вклада САПы в непот фильтр так это точно: до sape и xap внутренние практически вообще не продавали - массовая продажа внутренних пошла как раз после внедрения этих систем. А до того момента общее количество исходящих с сайта полностью ограничивалось вместимостью морды и редко превышало 30-40 ссылок.
Угу, вот и я о том же.
Не покупайте ссылки с таких сайтов, кто вам мешает этого не делать.
Думаю, Яндекс больше ориентирован на создание общих фильтров - для всех случаев жизни, а не фильтров под конкретную систему покупки-продажи ссылок. Например, если есть в ПС фильтр на большое количество исходящих ссылок сайта по сравнению с контентом, или на блоки ссылок, то под него попадут как САПовские сайты с неразумным количеством ссылок, так и сайты с ручной простановкой ссылок жадными веб-мастерами. Но он не направлен конкретно против САПы.
З.Ы. Не горячитесь, я же не говорил, что я умею покупать ссылки с САПы, а вы нет. ;) Просто рассуждаем...
Просто когда он у меня упал немного по основным запросам место так на 15, обратно в ТОП я его вытянул именно САПой (больше ничего не делал) и было этот как раз перед самой сменой алгоритма.
с 62 на 23 по ВЧ, с 18 на 4 по конкурентному НЧ. Если бы ссылки с САПы фильтровались , как вы предполагаете, сайт бы и на 5 позиций не прыгнул.
сколько раз уже звучало на форуме, что дело не в САПе, а в ее использовании. Если вы будете автоматом, неглядя и не проверяя покупать ссылки в САПе, то не удивительно что они отфильтруются или вообще не проиндексируются.
В целом продвигаю сайт статьями, ручной покупкой ссылок через форум и сапой. Со сменой алгоритма колебаний сильных нет. Большинство позиций в плюс, но не значительно.
Некоторые довольно конурентные запросы, которые продвигались только САПой +40, +12.
Разместился. Очень быстро. Площадки в принципе неплохие для такой цены. Лучше, к сожалению, найти тяжело.
При всем уважении, трудно понять нормальную человеческую логику, когда этого человека "спамят" со всех сторон. Как известно, результаты применения алгоритмов очень сильно разняться на тестовом массиве документов (например, при экспериментах на РОМИП) и в индексной базе Яндекса всея Рунета, где очень много "шумов".
Поэтому опираться на нормальную человеческую логику, без соответствующих экспериментальных данных - это черевато.
Как насчет того, что вес таких ссылок может уменьшаться "естественным" образом без всяких фильтров?
Например, исходящих ссылок со страницы 40 шт. , тогда общий передаваемый вес с данной страницы ДЕЛИТСЯ на 40, или, например, несоответствие анкора ссылки тексту на странице-реципиенте. Тоже это фильтрами Яндекса назовете?