Не могу представить представить себе алгоритм, который может отличить спамную конструкцию от смысловой при равном количестве ключей и соблюдении элементарных правил русского языка в обоих случаях. Тут можно оценить только косвенно, по поведенческим факторам. Читает человек или нет. Если пропускает, то почему? Далее алгоритм проверяет количество ключей. Если много, делает вывод о переспаме.
По моему для информационных сайтов это нереально. Например, статья "Рибонуклеиновая кислота". На такой запрос берет из description, на запросы типа "Химическое строение РНК" или "Типы РНК", "функции рРНК" будет брать из текста. Пилить статью на отдельные страницы "строение" и "функции" не целесообразно, можно потерять по основному запросу. Есть совсем низкочастотные запросы, на которые ответ только в каком-нибудь абзаце. Его яндекс и берет.
А есть смысл, если он меняется в зависимости от запроса? В дескрипшине прописать, то что надо для основного запроса.
Сразу открываешь несколько сайтов, мельком просматриваешь страницы, выбираешь тот, что больше подходит.
Я не дергаюсь. Возможно сейчас яндекс собирает какие-то данные. Именно поэтому так сильно меняется выдача от апа к апу и даже внутри одного.
Баден-баден на самом деле может быть не просто алгоритмом определения переоптимизации, которую сложно вычислить по чисто количественным показателям (сколько раз употребил одно, сколько другого) и не ошибиться. Бывает контент, в котором, скажем, научный термин или название товара употребляется довольно часто и это норм. Поэтому в баден может быть заложена оценка поведенческих факторов. Плохие показатели скажут о бредовости текстов или засильи рекламы. Если при этом частота ключевых фраз высока, то присылается уведомление; если явного переспама нет, то вебмастер ничего не получает, хотя сайты будут под фильтром.
Поэтому на данный момент опуститься сайты могли из-за проблем с ПФ. Но! Разве гугл их не учитывает? С ним-то все ок.
В общей сложности сейчас яндекс кладет на первую страницу больше сайтов (в одних выдачах одни, в других - другие). Это больше данных для анализа. При этом он может:
Меня походу яндекс заставляет отказываться от слайдбанеров, мобильных фулскринов, кликандеров. Где все это оставил, продолжают понемногу просаживаться. Где убрал - хуже не становится, даже может быть лучше, но все в рамках сезонности и погрешности. Резких скачков нет. Только один сайт, с которого я убрал такую рекламу сразу, как он провалился, вернул свой яндекс-траф полностью. Но в то же время это сайт с самой маленькой посещаемостью из просевших. Возможно, когда траф был больше 1000 он попал под фильтр бракующий определенных среднечков, когда траф опустился меньше тыщи - сайт вышел.
Если яндекс все же банит не за наличие кода определенных рекламных бирж, а за низкие ПФ, то разве фулскрин сильно их ухудшает?
Если это относится ко мне, то у меня информационные сайты, половина которых принята в РСЯ. Остальные и не подавал из-за малой посещаемости и сырости проектов. И мне непонятно, почему скажем на запросы типа "Язык Pascal", "Клеточное ядро" теперича в Яндексе в первых рядах идут говностатьи с fb.ru и подобных, а не сайты, специализирующиеся на соответствующих темах.
По поводу коммерции, могу сказать как клиент. Обычно обзваниваю много фирм (в директе она, на первой странице или второй не важно). Выбор в основном зависит от качества телефонной консультации, найденных в интернете отзывов. Если перезванивают не в то время, что оговорено, не способны обсуждать детали, чувствуется пофигизм, развод, желание урвать, то мне вообще плевать какой сайт и его позиции в выдаче. Вы переоцениваете Сео. Но тут, надо признать, что часто тот, кто вкладывает в сайт, обычно вкладывает и в организацию бизнеса.
Вы не учитываете человеческий фактор, часто портящий теоретически идеальные системы.
Когда кто-то профессионально разбирается в "механизме", то он знает все его составляющие, и к каким последствиям приводит изменение каждого. Проблема в том, что система непредсказуема (пусть отчасти), владелец поисковика всегда может поменять правила игры, изменив количество составляющих и способы их взаимодействия. Менять он их будет скорее всего в сторону своей выгоды, а не в угоду качеству. Например, если тесты покажут, что сайты с высокими ПФ дают яндексу меньше, чем со средним, то каким сайтам он отдаст предпочтение? После чего в вашем сео и сем появятся новые понятия "качества".
Я сомневаюсь, что даже в самом Яндексе есть люди, полностью разбирающиеся в поисковом алгоритме. Огромный код, сменилось поколение программистов. Начальник из "своих", который обычно ставит задачи, не понимая как они реализуются. Сотрудник, которому в принципе пофиг. Код изменяют в определенных местах, тестируют, как изменилась от этого система.
Допустим, яндекс стал рассуждать так: "Сайтов много. Даже если какой-то плох, то отдельные его статьи могут быть хороши. Почему эти страницы должны быть всегда на 50-м месте? Пусть конкурируют на равных с расположенными на больших раскрученных сайтах.
А что значит релевантная выдача, стоит ли за ней гнаться? Кому-то нравится одно, кому-то другое. А мне нужно поднять свои доходы. Запущу-ка я эксперимент и посмотрю будут ли они расти."
Если раньше какой-то сайт гарантировано был в пятерке, то теперь он в топе оказывается только, скажем, в 20% случаев. Что делать? Может быть клепать 5 сайтов на одну и ту же тему (какой-то один в запросе выстрелит), а не развивать единственный? Химия, химия для чайников, ЕГЭ по химии, химия в вопросах и ответах, решение задач по химии. Возвращаемся во времена сапы и сателитов.
Тут другой вопрос - зачем?
Зачем учитывать то, что не имеет существенного значения (например, пол и посещаемые магазины), когда требуется найти ответ на конкретный вопрос (низкочастотный запрос, некоммерческая тематика). Если, например, выше поставить сайты, содержащие определенную рекламу, и пренебречь при этом качеством статьи, то в перспективе это риск потери доли рынка. Часть людей уйдет туда, где в выдаче будут ответы лучше.
Понятно. Яндекс.Поиск учитывает данные Яндекс.Погоды.
В мозиле это так:
В хроме: