Кстати, речи о доступных вычислительных мощностях - ещё одна иллюзия.
Миниферма из тех же 10 машин, способных в реальном времени обрабатывать сколько-нибудь приемлемый индекс данных (неважно, будет это статичная база соцаккаунтов, постоянно обновляемый пул доменов или же статистика о ссылках и лайках между ними) потребует от полутора тысяч долларов ежемесячно. Прибавляем к этому аренду основного и резервного канала, зарплату идеолога/системного архитектора и от трёх кодеров на рутину, множим хотя бы на полгода - и получаем в итоге риск расстаться где-то с семизначной суммой, с весьма призрачными шансами на монетизацию своих изысканий.
Хотя утешительный приз, безусловно, будет: появится авторитет и возможность беседовать на равных с товарищами уровня того же Миража, по поводу перспектив накрутки соцфакторов и нюансов построения высоконагруженных систем.
Вариант, в принципе.
Ну, а вывод? Для начала - Вы в курсе, сколько документов обсчитывается поисковиками, чтобы говорить про "нифига себе"? Каков процент заведомо ошибочного распознавания поисковиками якобы работающих ссылок на якобы достойные топа ресурсы?
Ещё раз - "по факту" лишь для оптимизаторов.
Вы выдаёте единичные случаи за фундаментальный и недопустимый дефект - а в масштабах ПС это даже не ошибка, а что-то среднее между погрешностью и флуктуацией.
Недавно напомнили про ссылку - рекомендую для интересующихся вопросом.
Около года назад на форуме проскакивала подобная же ссылка на работу сотрудников Бинга (или Яхи, не помню), как раз по выявлению накрученных лайков и постов в соцсетях. Сравнивались мощности в пару миллионов аккаунтов, причём естественные и накрученные ссылочные связи представили весьма наглядными иллюстрациями в виде "облаков", отличия между которыми были видны невооруженным глазом.
Этого и не хватает людям, считающим накрутку плёвым делом - видения проблемы глазами ПС и хотя бы минимального опыта в реализации своих умозаключений. Начните, к примеру, с описания любого тематического сообщества хотя бы в сто человек. Когда справитесь - попробуйте описать интересы их друзей, первого и второго круга.
Если не опустятся руки - можно будет говорить о плагине и способах его распространения. Только без иллюзий о многомиллионных ботосетях.
Так есть опыт?
Знаковое слово. Попытайтесь мыслить иными масштабами.
Банально - кто ссылается, на кого ссылается, с каким анкором ссылается. С высоты-то всё гораздо понятнее, чем изнутри.
А Вы сами ясно себе представляете масштаб и минимальные требования к подобной сети?
Возьмём лишь один из основных принципиально ненакручиваемых факторов (время существования аккаунта) и свяжем его с социальным окружением, типичным для живого человека (семья/друзья, которые растут месяцами и годами, и сохраняются через несколько итераций) и для бота (коммерческие лайки, которых и по количеству на порядки меньше, и по специфике гораздо уже, и по широте аудитории существенно менее распространены) - представьте теперь, какую работу нужно проделать, чтобы многомиллионная сетка ботов стала хотя бы немного похожа на многомиллионное сообщество?
А ведь это лишь первые приходящие в голову признаки для выявления неестественных лайков.
У Вас есть подобный опыт?
О, наконец-то. Ушел познавать.
Это затруднительно делать в промышленных масштабах.
Проблема шире.
К примеру, даже в Яндексе умеют отличать трафик от провайдера и хостера, и используют это в контексте. Соответственно, не удивлюсь, если Гугл иначе сформирует серп для запроса, идущего с VPN.