Не в этом случае. Там у одних эти куски идут просто рандомом, а у других по теме, но спарсены и синтензированы автоматически, что в общем может представлять интерес, но это из разряда сканов, которые раньше были популярны.
Явно не те всплыли :). На самом деле там есть много других средних нормальных сайтов, которые достойны лучшей участи, но Гугл почему то обращает внимание не на тех, на кого стоило бы.
-------------------------------------
Но это всё лирика. Сейчас на нескольких страницах я внес небольшие изменения в сторону уникализации - понаблюдаю, что будет.
Ответ дают с позиции машинного алгоритма, т.е. по формальным признакам, но не по существу. Т.е. структура заголовков там покрывает основной запрос и подзапросы. Но само содержимое сгенерированно автоматически - в некоторых случаях скопипащенные куски скомбинированы рандомно, в лучшем случае просто скопипащены из авторских книг. Похоже, алгоритм по формальным признакам считает это хорошим расширенным ответом на запрос, но по смыслу там шлак. Крупняки же не могут так просто расширять инфу на своем сайте, т.к. не могут копипастить авторский контент друг у друга и у других авторов по причине авторских прав.
Из сотен тысяч ссылок ни у меня, ни у крупных конкурентов нет ни одной купленной ссылки. Это другой уровень, там этим не занимаются, нет смысла. Это всем известные авторитетные источники и на них все ссылаются добровольно.
Опять таки - это первоисточники, именно с них все ГСы и дергают инфу.
Сейчас мобильная версия есть у всех.
Ну так этот шлак практически не несет пользы для людей, но не в этом дело, пусть бы и сидели в топе, но зачем реально полезные крупные сайты выкидывать в сопли? Ведь к примеру вместо пяти авторитетных крупняков с рабочими полезными сервисами сейчас в выдаче наблюдаются пара оставшихся крупняков и куча низкокачественных однотипных близнецов-клонов. Качество выдачи при этом значительно ниже с точки зрения человека.
С точки зрения машинного алгоритма по формальным признакам - отвечают и даже более расширенно. Но с точки зрения человека - это шлак с сомнительной по достоверности информацией, неработающими бутафорскими формами, фейковыми комментариями или ворованным авторским контентом в комментариях. Зачем тянуть в топ бутафорию, если можно показать оригинал с полноценно работающими сервисами?
Это, кстати, важный момент. Гугл оперирует с на порядки большим массивом информации в мировом масштабе и ему возможно не подходят алгоритмы типа матрикснета. Я когда стал работать с алгоритмами ИИ столкнулся с главной проблемой - это большая требовательность к вычислительным ресурсам многих вкусных алгоритмов. В итоге волей-неволей пришлось останавлиться на простых решениях. Уверен, у поисковиков это проблема номер 1. А объемы обрабатываемых данных у гугла и яндекса очевидно несоизмеримы.
И много новых есть и старые есть. Старые в том смысле, что некий контент у них давно висел, а потом они расширили его копипастом. У меня не просто сайт, а сервис. Так вот его многие тупо склонировали - и элементы дизайна, и структуру и даже урлы. Даже формы сервиса скопировали, правда они бутафорские у них, не рабочие - сам сервис повторить у них не получилось. Весь контент автоматически заимствован у крупняка, плюс разбавлен чужим авторским контентом (из книг, продающихся в книжном магазине), плюс разбавлен фейковыми (надерганными с разных мест) комментариями (по теме сайта, но не по теме конкретных страниц, т.е. рандомом). Нормальные сайты, очевидно, не могут идти таким путем, ибо не хорошо это, не солидно для серьезного проекта, да и риски большие. Ссылочная масса у этих ГС есть, но небольшая. И всю эту помойку Гугл зачем то тянет в топ. Даже настоящий работающий сервис и его бутафорскую копию не может различить. В этом плане Яндекс более адекватен. ---------- Добавлено 24.06.2016 в 11:37 ---------- Я в начале года сделал редизайн сайта - шаблон сделал адаптивным, перевел на HTM5, добился полного отсутствия ошибок по html-валидатору, т.е. добился практически идеала. Какое то время думал, что с этим может быть связано.
Но сейчас вот смотрю один ВК запрос. В выдаче нет не только меня, но и нет одного моего крупнейшего конкурента: если я в гугле отключаю фильтр, то мы оба появляемся по этому запросу. А этот сайт представляет крупнейшую компанию, известную каждому, ТИЦ измеряется десятками тысяч и... тоже в соплях сидит. Это говорит о примитивности алгоритмов Гугла, ПФ (в отличие от Яндекса) или не учитываются вовсе или учитываются очень слабо, работа асессоров также не видна.
В общем по половине ВК запросов мой сайт улетел в сопли, другие крупняки тоже по некоторым просмотренным мной ВК запросам в соплях оказались. Но с качеством такой сопливой страницы вряд ли это связано, ибо на нее ведут сотни и даже тысячи абсолютно естественных ссылок. Также если в некоторых таких запросах убрать префиксное малозначимое слово (что многие пользователи и делают), то страница тут же оказывается в ТОП1. И это по высококонкурентному запросу. Если бы проблема была в низком качестве таких страниц, то что они в топ1 делают по другим очень схожим ВК запросам? Да и репутация самих сайтов (моего и основных конкурентов) в глазах гугла явно сильна, т.к. по некоторым запросам хоть основная страница сидит в соплях, но при этом бывает второстепенная страница в ТОП5 её замещает. И такое поведение наблюдаю не только у себя, но и у крупных конкурентов по некоторым запросам. Кстати, гуглобот обходит сопливые страницы два-три-четыре раза в день. А в яндексе они в ТОП3 плотно сидят.
Анонсированный супер-пупер искусственный мозг? :)
Если серьезно, то пока не знаю, есть только поверхностные предположения. Некоторые аспекты мне напоминают алгоритмы яндекса по разнообразию выдачи вообще и в случае некой многозначности запросов в частности. Такой ГС (с расширением запроса в нужном направлении) автоматически сгенерить несложно, в отличие от создания нормального сайта. Но яндекс за счет сильного учета поведенческих факторов и асессорской модели всё таки такие сайты не пускает в топ, а гугл слишком прямолинеен - связь с асессорской моделью похоже слабая (ну, не могут такие ГСы асессорам понравиться, если конечно читать сам текст, а не только заголовки - с заголовками там всё ок). В моем случае гугл стал разбавлять ТОП сайтами с дополнительной справочной информацией по запросу. Но эта дополнительная информация на 100% является объектом авторских прав. ГСы её просто автоматом копипастят, а я например не могу разместить эту инфу - за этой справочной инфой стоят крупные компании и риск наезда очень высок.
Мда, смотрю, Гугл, потеснив крупняк, подтянул в топ автоматически сгенерированные ГСы. По стилистике тексты там грамотные, но бессмысленные - например, к копипастной статейке рандомом приложены отрывки комментариев с разных концов интернета (без смысловой связи с конкретной статьей), и таким образом сгенерированно несколько десятков тысяч страниц. И это сейчас сидит в топе.
Вот соглашусь. Ролик, в котором специалист рассказывает, как решить ту или иную проблему, несомненно будет интересен публике. А для этого никаких особых навыков и техники не требуется - главное, чтобы специалист внятно и интересно всё рассказал и объяснил.
Лучше постраховаться частицей "бы": "Я бы не советовал ей пользоваться".---------- Добавлено 20.06.2016 в 17:10 ----------
Попробовать наехать по этому основанию они конечно могут, но если вы действительно пользовались этим продуктом и этот продукт приобретен легально (не подделка, ввезен в Россию законно и т.д.), то я не вижу нарушения, так как под термином "использование" ТЗ в законе подразумевается нанесение производителем маркировки на свою продукцию, а в вашем случае именно производитель нанес маркировку, т.е. это он сам использовал свой ТЗ по назначению.
Но если вся историявокруг этого ТЗ высосана из пальца, то может быть и можно притянуть незаконное использование ТЗ.