Заголовки сниппетов с отранжировками по онпейджу - это прям сто баллов по пятибальной шкале, за что с людей можно денег брать в любом количестве.
Человек не в себе, не обращайте внимание
Тут совсем тяжёлый случай
Причём тут Москва, когда все едут для этого в Челябу? А у кого если вдруг есть в городе отделение малоизвестного банка с названием сбер - те вообще через сдачу биометрии могут никуда не выезжать и сделать себе счёт в Челябе.
Для этого надо точно знать, что это бот, а не живой посетитель. Живому менять куку Яши - себе вреда больше, чем одному из тысяч ботов, которому не учтётся посещение на своём сайте. Но! Если научиться определять точно бота, то нафика страдать ерундой с изменением куки, когда логичнее его просто реджектить на входе.
Так речь о том, что в сегодняшних реалиях получается возможна такая ситуация (сильно упрощенно и чисто теоретически): три сайта занимают топ 3, все три одинаковы по качеству и практически одинаковы по ПФ, удовлетворяют всех посетителей по отдельности в равной степени, но по мелким штришкам пс как-то распределила, что топ именно в таком порядке, кому 1, кому 2, кому 3 место. Владелец сайта на втором месте решает покрутить себя в плюс и сайт на первом месте в минус, чтобы обогнать его. И таки теоретически своей накруткой в рамках изначальных условий он выйдет на первое место, улучшив ПФ себе и ухудшив ПФ лидеру. А поскольку сайт на третьем месте никто не трогал, то его ПФ останутся прежними в целом и он тоже обходит по этому показателю бывшего лидера и смещается на вторую позицию, а лидер, соответственно, вместо 1 места оказывается на 3-м. И вот я так понимаю что в упрощенном виде примерно такое таки возможно. Да, Антоний?
Ну, в целом, картина понятна. Из этого вытекает простой риторический вопрос к Яндексу: какого чёрта с его 100500 лучших специалистов по бигдате и машинному лёнингу не удаётся "высветить" множество роботов, их деятельность на множестве сайтов, как побочка борьбы с роботами выявятся такие показатели, как дата и время накрутки в плюс или минус на том или ином сайте (т.е. конечная цель ботохождений конкретно по ресурсам), либо просто шум от ботов без конкретных целей? Даже с моими скудными теоретическими познаниями я (если опять-таки в целом) осознаю, что задача решаема и не так уж сложна для небольшой команды профессионалов и не очень уж затратная по вычислительным мощностям. Т.е. всё снова сводится к простому "какого чёрта Яндекс не хочет нормально выявлять роботов?" 😀
Так всё же при огромной мотивации, ресурсах или уйме затраченных денег или просто при
ППРУ для двух конкурирующих в низкоконкурентной сфере средненьких сайтах?
И опять возвращаемся к исходной точке: таки можно сбросить конкурентов этих способом?
А как же банда асессоров, об которых вполне себе может сломать шею вылизанный белый пушистый нужный людям сайт с норм ПФ?
В последние 2 месяца было на следующий рабочий день после письма гугла. До этого пару месяцев было 2 дня.
Тэкс... Падажииитеее... Если пользователь по своей воле заходит на Ваш сайт (а не за вознаграждение любого рода), выполняет реальные действия и исходит из своих целей (а не из Ваших), ещё и (как Вы писали) покупает там на сайте что-то, то... это обычный нормальный посетитель с поиска, закладки или рекламы. Почему Вы называете это накруткой?