Заказывал ТС сайт.
вместо 7 дней сайт делался две недели. мне было не критично.
перерасход времени был компенсирован качеством сайта. все было сделано очень здорово.
буду заказывать еще сайты, не требующие жестких сроков.
тоже не пропускает
разместился на 7 площадках
все ссылки в индексе Я и Г в течение 1-2 дней.
То, что Вам кажется бесконечным, для яндекса просчитываемо.
Косяков у накрутчиков не будет, если они смогут ОДНОВРЕМЕННО сохранять Распределения (статистические) юзеров по гео, времени, часовому поясу, поведению на сайте, поведению в выдаче, времени суток, источникам с которых пришли на яндекс, количеству возвратов, среднему времени между посещениями сайтов и еще штук 100 других параметров.... И при этом соблюдать Естественность и стабильность этих характеристик во времени (без скачков типа внезапного увеличения среднего времени на сайте или просмотров страниц без коренной реорганизации всего сайта)
И да, яндекс готов пойти и идет на жертвы и банит лишних и невиновных, которые попадают иной раз случайно под раздачу.
Крутить можно в рамках статистических погрешностей, но тогда эффект будет незначителен в сравнении с нормальной работой над сайтом.
Все публичные сервисы накрутки НАСТОЛЬКО убоги, что их использование возможно исключительно малограмотными домохозяйками.
Поисковики не запутаются никак. ПФ можно накрутить только совсем для убого сайта с нулевой посещаемостью, на который у ПС просто не хватает статистики.
Любая накрутка Любых факторов вычисляется гарантированно и со 100% вероятностью при достаточном колличестве стат. данных.
если у Вас работает накрутка ПФ - это всего лишь означает, что пока ПС собрано недостаточное кол-во данных. поэтому по каким-то запросам (более популярным) вылет будет через неделю-две, по каким-то через 2 месяца. по каким-то (НЧ. неск. запросов в месяц) может и не вылететь.
Наверное, нет - для каждого сайта есть свой естественный уровень.
а вот попробуйте накрутить тем же юзератором - живыми людьми. и Вы обнаружите, что через некоторое время эта доля увеличится примерно на то кол-во юзеров-ботов с юзератора.
меряем не единоразово, а До и После начала накрутки.
про роботов:
В Метрике есть вкладка Мониторинг=>роботы.
сюда яндекс складывает всех посетителей, чье поведение он воспринимает как боты.
эти посетители не отображаются и не учитываются в любых других отчетах.
Если Вы гений накрутки поведенческого - роботы не превысят 0,2-0,5% от всех пользователей.
Если Вы начали накручивать ПФ, а через некоторое время доля роботов выросла - баста. яндекс спалил вашу накрутку )
В общем про накрутки:
Яндексу не составит труда засечь любую накрутку любых факторов, если они отличаются от некоторых статистических величин.
Возьмем банальный пример с 1 параметром: временем пребывания на сайте
оно ВДРУГ увеличилось. вот 3 месяца было 1,5 минуты. а теперь - 3 минуты на юзера.
при этом на сайте ничего не менялось.
что думать бедному яндексу - НАКРУЧИВАЮТ. => дай-ка мы для этого сайта уменьшим вес ПФ в общем ранжировании.
а теперь смотрим мастер отчетов и ОФИГИВАЕМ сколько параметров там яндекс для нас собирает.
там и распределения по гео, времени, часовым поясам, браузерам, разрешениям экрана и т.д и т.п.
вот накручивать надо одновременно ВСЕ эти параметры -десятки распределений строить.
никакие системы не могут это сделать. сам сделал систему, учитывающую около 15 параметров. потом бросил. ибо все равно вычисляется накрутка.
то же и со ссылками и любыми другими параметрами.
Можно улучшать, но в рамках некоего коридора чувствительности яндекса к спаму.
не совсем. кампания в юзераторе была прекращена После того, как яндекс начал палить юзеров-ботов
но в целом - верно.
если яндекс видит у сайта какой-то параметр неестественный (ПФ, ссылки, соцсети) то он для сайта расширяет границы неестественности, и туда вполне могут попадать и нормальные сигналы.
после возвращение параметра в статистические рамки, через некоторое время происходит и нормализация коридоров.
и проседание позиций после покупки ссылок, например, может идти не как штраф, а как реакция на стремление яндекса отсечь возможный шум. соотв. часть нормальных ссылок попадает в расширившийся коридор этого шума.
равно как и повышение позиций после снятия ссылок можно объяснить уменьшением неестественного ссылочного шума для сайта и возвращение значимости части естественных ссылок, которые были отсечены ранее.
все имхо.
конкретно:
дается стратегия переходов юзера по сайту с включениями в т.ч. элементов
"перейти на любую страницу" и ограничениями по времени оставаться на странице время от и до
и так 3-5 страниц и совершения действий.
цель - улучшить ctr в директе
начало ctr~6%
при подключении юзеров с юзератора ctr растет до 15-17%
так длится ~ 2 недели
потом идет резкий спад ctr до 3-4% за пару дней
а в метрике идет резкий рост числа роботов, стремящийся и иногда превышающий к количеству юзеров с юзератора.
заметим, ctr опустился ниже первоначального значения, т.е. яндекс расширил определение робота для сайта
после отмены кампании в юзераторе роботы уменьшились, но исчезли только через 2 недели
и показатель ctr вернулся к начальным 6%
))))
Любая накрутка палится яндексом на основе статистического анализа
гораздо дешевле сделать нормальный сайт, работать над естественным юзабилити.
с накрутками можно вести только Новый сайт или кардинально переделанный. и без перерывов, падений сервисов и т.д
в реальных условиях 99,9% вероятности проколоться.
соотв. Любые накрутки, ссылок, ПФ работают кратковременно, ровно до момента накопления яндексом статистики для анализа )))