Реальная ситуация:
Примерно 100 строк кода - 30 дней - 200 тысяч руб.
Расшифровываю трудочасы: 29 дней - анализ задачи, поиск наиболее оптимального и гибкого решения, поиск путей обхода лобового решения (требующего тысяч строк кода), 1 день - на написание собственно кода.
Вряд ли е-майл и имя можно считать персональными данными, т.к. вряд ли можно по ним однозначно иденцифицировать человека.
Блин, да какая разница, как это называется? Результат уходит в прочие (дополнительные) результаты поиска. Можете назвать это по другому, сути это не меняет. Раньше дополнительный индекс был статичным, сейчас стал динамичным.
Не может быть единого равноправного индекса. Не может быть по определению. Это легко понять, если ознакомиться с этапами обработки запроса десятками тысяч серверов одновременно. Этой теме сто лет в обед.
Сайты остаются в индексе, только не в основном, а в соплях. Выпавшие в сопли страницы робот гугл продолжает обхаживать по нескольку раз на дню. Периодичность выпадания в сопли и возвращения в основной индекс по конкретным запросам за год у меня и конкурентов также четко прослеживается - пара месяцев.
Если раньше деление на основной индекс и дополнительный было статичным, то сейчас стало динамичным.
Также четко прослеживается применение ротации именно к высококачественным трастовым сайтам. Мне некоторых моих конкурентов даже жалко: ну видно же, что сайт качественный, дизайн отменный, группа журналистов и экспертов сайт ведет... ан нет, гугл его поставил в ротацию, да яндекс занижает (держит в ТОП10, но в ТОП3 не пускает). А вот автоматически сгенерированная хрень уже как несколько месяцев окукпировала топы. Гугл еще хот пачки афиллиата в топ не пускает, а у яндекса я вижу одновременно в ТОП10 по 5 ГС-ов одного владельца (дизайна нет, верстки, отступов банальных нет, на экране ералаш, контент - копипаст)... Вот на них недавние изменения алгоритмов повлияли положительно. Это однозначно следствие введения поиска по фактам. Я экспериментировал с такими алгоритмами, результат очень похож.
Да, всё правильно, именно такие сайты попали под раздачу. Вы наверняка по большинству запросов в своей нише плотно сидели в топе (скорей всего в ТОП5). Вы попали в категорию топовых сайтов. Скорей всего вы остались по многим запросам в ТОП5, только в ротации с другими аналогичными сайтами. Добавьте в урл параметр &filter=0 и скорей всего вы себя увидите в топе.
В результате выдача стала свободнее и в силу примитивности (тупизны) гуглоалгоритмов освободившиеся места заняли гендоры с грамотно составленным семантическим ядром и копипащенным (у вышеописанных трастовых сайтов) контентом.
Возможно всё проще. Топ, как известно, не резиновый. Цементирование Топа одними и теми же сайтами (пусть и трастовыми) также не хорошо. Поэтому гуглу логично как в контекстной рекламе пойти по аукционному пути - показывать топовые (из ТОП5) сайты в ротации. Каждому трастовому сайту выделяется квота трафика, которая зависит... от чего-нибудь. Особенно это касается ниш, в которых в силу их природы сайты очень схожи.
Можете сами провести исследование в своих нишах: отберите интересующие вас запросы, зафиксируйте ТОП (обратите внимание на ТОП5), затем к урлу добавьте &filter=0 и посмотрите, кто в ТОП5 появится. Вероятно вы обнаружите мигание: по разным конкурентным запросам одни топовые сайты будут появляться, другие исчезать. Через пару месяцев произойдет ротация: ранее выпавшие по запросу сайты появятся, по другому запросу (где они раньше были в топ5) выпадут.
Проверьте мои наблюдения, кому не лень.
Нет, реальное качество контента Гугл не отслеживает. В топе куча сайтов с видимостью качественного контента. Например, в топ может легко попасть клон сайта с сервисами, но вместо сервисов на клоне будут неработающие заглушки. Можно просто соблюсти формальные признаки качественного контента, этого достаточно, а с введением поиска по фактам это стало сделать еще проще.
У меня наблюдения аналогичные, но с некоторыми уточнениями:
1) Мы с конкурентами по очереди выпадаем не на 35-50-е позиции, а вылетаем полностью из выдачи.
2) Касается это сайтов, плотно сидящих в ТОП1-3.
3) Период вылетания и возвращения примерно 1-2 месяца.
4) Сайт возвращается на свое прежнее трастовой место в ТОП1-3.
5) У разных конкурентов частота выпадения разная. У супертрастовых сайтов выпадений намного меньше, но они также есть, они также мигают.
6) В большей степени это касается схожих сайтов.
Поэтому очень логично выглядит предположение о выделении каждому такому сайту определенного объема трафика, чтобы они не монополизировали ТОП.
Т.е. логика Гугла может быть такой:
Если есть несколько схожих трастовых сайтов заслуженно претендующих на ТОП5, то чтобы не цементировать ТОП, выделим для этой группы сайтов 1-2 позиции в топе (их прежние места) и будем показывать их в ротации. Частота появления того или иного сайта в ротации будет зависеть от... От чего, кстати?---------- Добавлено 12.02.2017 в 22:53 ----------
Этих ГС в ТОПе не один-два, а много. И я наблюдаю определенные закономерности вывода их в топ, хорошо укладывающиеся в концепцию поиска по фактам. У меня у самого руки чешутся этими нюансами воспользоваться, но останавливает то, что я не вижу долгосрочной перспективы в таких ГС-ах, а во временные решения силы вкладывать не хочу.
В моей нише самый трастовый зубр сидит уверенно в ТОП1-2 по всем запросам, но и у него по некоторым запросам я обнаружил мигание. Если же в конец урла поставить &filter=0, то этот зубр появляется на своем месте. У меня то же самое, только мигание по половине запросов. По моим наблюдениям миганию подвержены сайты из ТОП3. Те, кто ниже, не мигают (не выпадают полностью), а только могут падать и подниматься в позициях.
У меня падение было очень плавное в течение года. Но мне легче, т.к. трафик не только с гугла, а и с яндекса с мэйлом больше половины идет.
Сейчас выдача очень персонолизирована стала. У меня несколько окон разных браузеров (включая консольный links) открыта в безопасном режиме и практически везде разная выдача по одному и тому же запросу. Возможно с этим связано.