Если статья написана разбирающимся в теме, живым и понятным языком, последовательно изложена, отвечает на вопрос пользователя, то независимо от ее сео-качества она ранжируется в обоих пс достаточно высоко. Значит обе они умеют оценивать качество статьи по поведению пользователя.
Статьи, которые конструируются рерайтером, имеют нарушенную логику, сложные моменты в них не объясняются простым языком, а шаблонными фразами. Человеку сложно это читать. Ему нужно постоянно думать, что имеется в виду, и как связаны очередное предложение с предыдущим (обычно никак). С таких текстов быстро уходят и продолжают искать дальше. При этом сам текст может быть сео-адаптированным.
Так зачем нужно было придумывать какие-то сверхсложные ресурсоемкие семантические, смысловые анализаторы, закладывать в них аналогии на поведение толокеров. Ни какой ИИ сам по себе понятность, интересность и увлекательность статьи оценить не может. Он может только снять с такой статьи показатели и высоко ранжировать подобные статьи. Но это не есть гуд. Полезной может быть статья, излагающая тему в другом стиле и последовательности. Качество бывает разным и каждый вариант в алгоритм не заложишь.
Почему не колышет? Возможно внести хаос и непонятки в выдачу есть цель. С этой точки зрения алго хорош до нельзя.---------- Добавлено 24.08.2017 в 11:58 ----------
Еще дизайн-юзабилити
Т.е. попадание сайта в топ случайно, а все сеошники врут, что могут вывести сайт в топ?
Объясните, как смысл текста оценивается?
Мной скорее имелось в виду следующее.
1. Сайт попадает в топ допустим в результате асессорной оценки.
2. Программа рассчитывает какие-то там вектора, исходя от особенностей расстановки и употребления слов и фраз. А какой еще анализ может выполнить? И все сайты с подобными векторами отправляет в топ.
3. Сео видит сайт в топе и анализирует особенности текста.
4. Подстраивает свои сайты.
Если внедрение новых алгоритмов привело к преобладанию в топе фб.ру и подобных с бредотекстами, то грош им цена.
Если пользователь ввел конкретный запрос, он хочет видеть заголовок с такой же фразой. Вероятнее по ней щелкнет. Не все вчитываются в снипеты. Зачем выдача, где заголовки топ10 левые, но в теле статьи встречается фраза. Ясно, что стр выдачи падает и уходит в случае коммерции на директ. Нечаянный эффект такой, да?
Разнообразие семантики? В статьях ханакадеми (англ.) язык прост (сужу только по своей тематике), намного беднее википедии. При этом статьи отменные и ранжируются гуглом в англ.выдаче в топ3.
Анализ смысла, вектора и все дела? Вообще не понять, путано и мутно описано. Но сеошники рано или поздно просчитаю как этот "смысл" определяется.
Если можно засечь, что в случае определенного запроса человек зашедший на сайт из серпа на сайте остался, читал, написал коммент, или сделал заказ, то зачем все эти нейросети? Не проще ли просто слегка перетасовывая выдачу, "смотреть" при каком раскладе пользователь лучше и быстрее удовлетворен.
В этом разрезе палехи и королевы призваны мутить воду в ступе. Способ уйти от реального улучшения выдачи в сторону симуляции улучшения.
Цель нагнать траф и загнать его в маркет, где продать ему мобилок из китая, на которые загипнотизированный траф установит яндекс, который опять ему подсунет маркет, где траф опять купит мобилок и так по кругу.
Аудиторию завлекают, рассказывая сказку "будем вместе делать НАШ умный поиск". На поиск им плевать, чем он хуже тем лучше ... для маркета ясен пень. Презентация была чисто для пользователя, а не для вебмастеров. Школота внушаема, особенно на ура-идеи.
Марьиванна:
- Иванов, что за бред несешь?
Иванов:
Вроде до этого у яндекса строка поиска не была прибита. При прокрутки вниз выдачи "уходила" вверх.
У меня сейчас прибивается к топу, так что видно ссылки "картинки, маркет, карты ... ".
Ну то есть полюбому в любом запросе ссылка на маркет всегда и везде. ППЦ!
Еще пару недель назад это видел
Я вот не понял, что конкретно значит их заявление, что теперь обрабатывается 200000 страниц на запрос, а не 150 как раньше. (если верно цитирую)
То есть раньше совсем уж негодные или не относящиеся к теме страницы и сайты не участвовали в обработке, а теперь участвуют?
И кто прокручивает дальше 15 страницы выдачи? Там релевантность вообще есть?
Тогда вопрос зачем это сделано? Понятно, что из мусорных сайтов какой-то войдет в топ10-20. Т.е. тут вопрос, какой смысл обрабатывать такое количество документов, если заранее ясно что результат скорее ухудшится, чем улучшится. Вы вливаете в полугрязную воду еще более грязной воды и пытаетесь отфильтровать почище. Так зачем вливать грязи?