borisd

Рейтинг
262
Регистрация
13.02.2008
miltorg:
4. 30 строк кода - 1 час.

Реальная ситуация:

Примерно 100 строк кода - 30 дней - 200 тысяч руб.

Расшифровываю трудочасы: 29 дней - анализ задачи, поиск наиболее оптимального и гибкого решения, поиск путей обхода лобового решения (требующего тысяч строк кода), 1 день - на написание собственно кода.

altevsk:
В принципе это тоже персональные данные

Вряд ли е-майл и имя можно считать персональными данными, т.к. вряд ли можно по ним однозначно иденцифицировать человека.

easywind:
Соплей давно нет

Блин, да какая разница, как это называется? Результат уходит в прочие (дополнительные) результаты поиска. Можете назвать это по другому, сути это не меняет. Раньше дополнительный индекс был статичным, сейчас стал динамичным.

easywind:
так заявляли с 2007 года.

Не может быть единого равноправного индекса. Не может быть по определению. Это легко понять, если ознакомиться с этапами обработки запроса десятками тысяч серверов одновременно. Этой теме сто лет в обед.

easywind:
угл не ротирует как пишет выше борисд, а уменьшает индекс на некоторых тематиках, где много похожих сайтов. Ведь фактически, Ваш сайт ничем не отличается от других.

Сайты остаются в индексе, только не в основном, а в соплях. Выпавшие в сопли страницы робот гугл продолжает обхаживать по нескольку раз на дню. Периодичность выпадания в сопли и возвращения в основной индекс по конкретным запросам за год у меня и конкурентов также четко прослеживается - пара месяцев.

Если раньше деление на основной индекс и дополнительный было статичным, то сейчас стало динамичным.

Также четко прослеживается применение ротации именно к высококачественным трастовым сайтам. Мне некоторых моих конкурентов даже жалко: ну видно же, что сайт качественный, дизайн отменный, группа журналистов и экспертов сайт ведет... ан нет, гугл его поставил в ротацию, да яндекс занижает (держит в ТОП10, но в ТОП3 не пускает). А вот автоматически сгенерированная хрень уже как несколько месяцев окукпировала топы. Гугл еще хот пачки афиллиата в топ не пускает, а у яндекса я вижу одновременно в ТОП10 по 5 ГС-ов одного владельца (дизайна нет, верстки, отступов банальных нет, на экране ералаш, контент - копипаст)... Вот на них недавние изменения алгоритмов повлияли положительно. Это однозначно следствие введения поиска по фактам. Я экспериментировал с такими алгоритмами, результат очень похож.

Armagedonik:
Сжали все картинки, а их несколько млн, сжали скрипты, настроили сжатие на серверах, сократили количество ошибок почти до нуля, полностью передалали всю разметку. Взяли новые сервера в прошлом году. Уменьшили скорость загрузки почти в 2 раза.

За 2 года были сделано около 100 посадочных страниц, добавлены уникальные тексты с оптимальным вхождением ключей. Сделана прелинковка. Ну и т.д. и т.п.

Да, всё правильно, именно такие сайты попали под раздачу. Вы наверняка по большинству запросов в своей нише плотно сидели в топе (скорей всего в ТОП5). Вы попали в категорию топовых сайтов. Скорей всего вы остались по многим запросам в ТОП5, только в ротации с другими аналогичными сайтами. Добавьте в урл параметр &filter=0 и скорей всего вы себя увидите в топе.

В результате выдача стала свободнее и в силу примитивности (тупизны) гуглоалгоритмов освободившиеся места заняли гендоры с грамотно составленным семантическим ядром и копипащенным (у вышеописанных трастовых сайтов) контентом.

Возможно всё проще. Топ, как известно, не резиновый. Цементирование Топа одними и теми же сайтами (пусть и трастовыми) также не хорошо. Поэтому гуглу логично как в контекстной рекламе пойти по аукционному пути - показывать топовые (из ТОП5) сайты в ротации. Каждому трастовому сайту выделяется квота трафика, которая зависит... от чего-нибудь. Особенно это касается ниш, в которых в силу их природы сайты очень схожи.

Можете сами провести исследование в своих нишах: отберите интересующие вас запросы, зафиксируйте ТОП (обратите внимание на ТОП5), затем к урлу добавьте &filter=0 и посмотрите, кто в ТОП5 появится. Вероятно вы обнаружите мигание: по разным конкурентным запросам одни топовые сайты будут появляться, другие исчезать. Через пару месяцев произойдет ротация: ранее выпавшие по запросу сайты появятся, по другому запросу (где они раньше были в топ5) выпадут.

Проверьте мои наблюдения, кому не лень.

Axel_Zeppelin:
Только я вижу это так, что убираются из топа страницы, которые попали туда чисто за счет траста домена, а не из-за качества самого контента.

Нет, реальное качество контента Гугл не отслеживает. В топе куча сайтов с видимостью качественного контента. Например, в топ может легко попасть клон сайта с сервисами, но вместо сервисов на клоне будут неработающие заглушки. Можно просто соблюсти формальные признаки качественного контента, этого достаточно, а с введением поиска по фактам это стало сделать еще проще.

Pliny:
Если где-то вы сидите в ТОП 3, а конкурент болтается в 35-50-х позициях -- это и есть ответ на Ваш вопрос. Вы периодически меняетесь с ним местами!

У меня наблюдения аналогичные, но с некоторыми уточнениями:

1) Мы с конкурентами по очереди выпадаем не на 35-50-е позиции, а вылетаем полностью из выдачи.

2) Касается это сайтов, плотно сидящих в ТОП1-3.

3) Период вылетания и возвращения примерно 1-2 месяца.

4) Сайт возвращается на свое прежнее трастовой место в ТОП1-3.

5) У разных конкурентов частота выпадения разная. У супертрастовых сайтов выпадений намного меньше, но они также есть, они также мигают.

6) В большей степени это касается схожих сайтов.

Поэтому очень логично выглядит предположение о выделении каждому такому сайту определенного объема трафика, чтобы они не монополизировали ТОП.

Т.е. логика Гугла может быть такой:

Если есть несколько схожих трастовых сайтов заслуженно претендующих на ТОП5, то чтобы не цементировать ТОП, выделим для этой группы сайтов 1-2 позиции в топе (их прежние места) и будем показывать их в ротации. Частота появления того или иного сайта в ротации будет зависеть от... От чего, кстати?

---------- Добавлено 12.02.2017 в 22:53 ----------

Pliny:
Закройте глаза на ГС. Это простой ход для усыпления бдительности. Пока Вы ломаете голову что ГС делает в ТОПе, работники гугла надрывают животы от смеха. Нужно смотреть на сильных игроков, но не монстров...

Этих ГС в ТОПе не один-два, а много. И я наблюдаю определенные закономерности вывода их в топ, хорошо укладывающиеся в концепцию поиска по фактам. У меня у самого руки чешутся этими нюансами воспользоваться, но останавливает то, что я не вижу долгосрочной перспективы в таких ГС-ах, а во временные решения силы вкладывать не хочу.

Pliny:
Но, в целом, траф ушел зубрам, кто и хозяйничал до этого в нише.

В моей нише самый трастовый зубр сидит уверенно в ТОП1-2 по всем запросам, но и у него по некоторым запросам я обнаружил мигание. Если же в конец урла поставить &filter=0, то этот зубр появляется на своем месте. У меня то же самое, только мигание по половине запросов. По моим наблюдениям миганию подвержены сайты из ТОП3. Те, кто ниже, не мигают (не выпадают полностью), а только могут падать и подниматься в позициях.

Pliny:
хотя трафф как и у многих падал постепенно. 200К-180К-150К-100К-50К... НУ 30К/день в моем случае я считаю дном, надеюсь что оно пройдено...

У меня падение было очень плавное в течение года. Но мне легче, т.к. трафик не только с гугла, а и с яндекса с мэйлом больше половины идет.

Pliny:
Один и тот же запрос мог в том году 20К приносить, а теперь 200/день... Странно это. Так как позиция ТОП 1-2 )))

Сейчас выдача очень персонолизирована стала. У меня несколько окон разных браузеров (включая консольный links) открыта в безопасном режиме и практически везде разная выдача по одному и тому же запросу. Возможно с этим связано.

Всего: 2244