Ознакомился подробней с этим RankBrain. Похоже, Гугл алгоритм кластеризации прикрутил, идет по стопам Матрикснета.
Я кстати нечто подобным сейчас занимаюсь. Правда у меня очень узкоспециализированная поисковая система будет и по ограниченному числу документов - несколько миллионов всего. Особенностью будет то, что поиск будет основан не на содержании слов запроса в документах, а на основе неких сущностей, связанных с запросом. В итоге вы можете ввести в поле поиска любой текст (хоть рассказ) и на выходе получите, связанные с этим тестом по смыслу документы. Причем в найденных документах могут вообще отсутствовать искомые слова. Как я понял, Гугл реализовал нечто подобное, но в достаточно простом виде, что и понятно - у него огромный объем документов: у меня всего один миллион документов обрабатывается несколько часов в 12 вычислительных потоков, а у Гугла документов неизмеримо больше - очень нетривиальная задача применить алгоритмы ИИ к такому объему данных.
Если и прокатит, то это малоэффективное использование средств.
Несомненно, это оптимальный вариант, но также далеко не бесплатный, а требующий материалов, оборудования, предметов и пр. по теме сайта, чтобы были свои собственные фото и видео материалы. У меня таким макаром затраты были до нескольких сот долларов за материал (обзор). Другое дело, что такие траты весьма приятны.
Несомненно, можно разбавлять материалами попроще.
Я собственно не про MFA речь вёл, а про нормальный сайт. Для MFA, считаю, тратить деньги на заказ рерайта неэффективным занятием. Разве что самому материалы подготовить и тщательно заточить. Но опять таки я бы думал, как большую часть работы автоматизировать. Но я сам программист, мне проще.
А вот так просто заказать на стороне сайтик и сотню рерайта - сейчас это неэффективно. Лучше уж тогда эти деньги в арбитраж трафика вложить, а для этого даже свой сайт необязательно иметь.
StanKhat,
Рерайт не прокатит - выкинутые деньги. Можно быстро выйти в топ с реально хорошими статьями, но 50-ти тыщ хватит на пяток материалов, а это очень мало. Да и чтобы движуха была, надо эти статьи сопровождать хорошим специалистом (в идеале автором) - отвечать на вопросы и пр.
Или сервис какой-нибудь уникальный создать, но... это очень дорого, да и если идея реально хороша, то есть риск, что нанятые программисты сопрут идею.
В общем с полпинка сейчас ничего не делается.
Пока эта причина у меня на первом месте в подозрении. Искусственное ограничение трафика по моим наблюдениям происходит в основном по ВЧ ВК запросам в тематиках, где большинство сайтов однотипны в силу специфики тематики. По разным конкретным запросам выкидываются из выдачи разные крупные сайты. Какой-либо закономерности мне определить не удалось.
Эта причина также возможна, но по ней ничего сказать невозможно, только если подождать.
Именно такие "хорошие" сайты я и называю бутафорскими. Там где у реально сильных информационных сайтов используются сервисы с непростым движком под капотом, у подражателей стоят бутафорские заглушки - формы-пустышки. Гугл не отличает реальный сервис от бутафорского подражателя. Для меня сайт пусть и с копипастом, но реализующий какой-нибудь уникальный сервис по его обработке, является очень хорошим сайтом. Поисковики вам пример - они работают на 100%-м копипасте.
sultanbey, такие вещи так быстро не происходят, даже если бы и была какая-нибудь связь. Бюджеты распределены, рекламные кампании настроены. Чтобы изменить бюджеты и всё перенастроить нужно время, а в крупных компаниях согласовать надо каждый чих и это длительный процесс.
В моем случае - это очень крупные компании, представленные во всех частях России, а также старые пузатые и высокопосещаемые информационные сайты. Обсуждаемый эффект (пусть и в разных пропорциях) я обнаружил у них всех.
Цель разработчиков поискового алгоритма - создать поисковую модель, адекватную модели человеческого мышления, общества, социальных связей, интересов. И анализ поведения пользователей лучше всего позволяет решить эту задачу. Из-за этого и идет жесткая борьба за браузеры, счетчики, публичные сервера имен и прочие подобные вещи. Формально они могут утверждать что угодно и возможно они формально правы - ваша статистика не влияет прямо на ваш сайт, но это не значит, что эта информация не используется для обучения алгоритмов и пр. А сбор информации идет очень серьезный и скурпулезный. Например, ко мне зашел товарищ, подключился со своего смартфона к моей wifi-сети и в ютюбе показал мне один ролик. Так вот этого оказалось достаточно, чтобы моих компах справа в ютюбе в рекомендуемых роликах предлагался к просмотру этот ролик.
Но еще надо учесть, что показывают в своих аналитиках далеко не всё и не то, что сами учитывают. Например, показатель отказов - сам по себе достаточно бессмысленный показатель, потому что в отрыве от всего остального по нему нельзя судить, хорош ваш сайт или нет. То же самое касается и времени, проведенное на сайте и число просмотренных страниц. Показательный пример: сами поисковики стремятся к 100% отказов, минимальному времени нахождения на сайте и минимальному числу просмотру страниц - в идеале пара секунд и 1 страница. Например, по запросу "погода" вам поисковики сразу показывают погоду в вашем регионе, а по запросу "ip" - яндекс сразу показывает ваш ip. И это идеал, т.к. вам не надо метаться по сайту в поисках нужной вам информации.
Ещё более ерунда - делать выводы о проблемах в компании на основе непринятия сайта в систему. Реального же положения дел мы просто не знаем. Задержек выплат у меня не было, а там посмотрим. Сейчас всем не просто.
Я использую первый вариант (как в справке гула), но ничто не мешает проверить инспектором в браузере и второй вариант.---------- Добавлено 25.06.2016 в 23:26 ----------
В плане юзабилити я больше ориентируюсь на яндекс, но гугл также через какое то время подтягивается, т.к. хорошее юзабилити является источником естественных ссылок и прочих положительных факторов, на что уже гугл позже реагирует.