юни

юни
Рейтинг
933
Регистрация
01.11.2005

Кстати, речи о доступных вычислительных мощностях - ещё одна иллюзия.

Миниферма из тех же 10 машин, способных в реальном времени обрабатывать сколько-нибудь приемлемый индекс данных (неважно, будет это статичная база соцаккаунтов, постоянно обновляемый пул доменов или же статистика о ссылках и лайках между ними) потребует от полутора тысяч долларов ежемесячно. Прибавляем к этому аренду основного и резервного канала, зарплату идеолога/системного архитектора и от трёх кодеров на рутину, множим хотя бы на полгода - и получаем в итоге риск расстаться где-то с семизначной суммой, с весьма призрачными шансами на монетизацию своих изысканий.

Хотя утешительный приз, безусловно, будет: появится авторитет и возможность беседовать на равных с товарищами уровня того же Миража, по поводу перспектив накрутки соцфакторов и нюансов построения высоконагруженных систем.

Вариант, в принципе.

EgorViking:
А сколько еще оптимизаторов по всему миру так делают?

Ну, а вывод? Для начала - Вы в курсе, сколько документов обсчитывается поисковиками, чтобы говорить про "нифига себе"? Каков процент заведомо ошибочного распознавания поисковиками якобы работающих ссылок на якобы достойные топа ресурсы?

EgorViking:
но по факту

Ещё раз - "по факту" лишь для оптимизаторов.

Вы выдаёте единичные случаи за фундаментальный и недопустимый дефект - а в масштабах ПС это даже не ошибка, а что-то среднее между погрешностью и флуктуацией.

Недавно напомнили про ссылку - рекомендую для интересующихся вопросом.

Около года назад на форуме проскакивала подобная же ссылка на работу сотрудников Бинга (или Яхи, не помню), как раз по выявлению накрученных лайков и постов в соцсетях. Сравнивались мощности в пару миллионов аккаунтов, причём естественные и накрученные ссылочные связи представили весьма наглядными иллюстрациями в виде "облаков", отличия между которыми были видны невооруженным глазом.

Этого и не хватает людям, считающим накрутку плёвым делом - видения проблемы глазами ПС и хотя бы минимального опыта в реализации своих умозаключений. Начните, к примеру, с описания любого тематического сообщества хотя бы в сто человек. Когда справитесь - попробуйте описать интересы их друзей, первого и второго круга.

Если не опустятся руки - можно будет говорить о плагине и способах его распространения. Только без иллюзий о многомиллионных ботосетях.

kievrent:
Что мешает написать плагин
Dinapoli:
имитировать общение друг с другом.

Так есть опыт?

EgorViking:
оба

Знаковое слово. Попытайтесь мыслить иными масштабами.

EgorViking:
Как они собрались отличать покупные ссылки от не покупных?

Банально - кто ссылается, на кого ссылается, с каким анкором ссылается. С высоты-то всё гораздо понятнее, чем изнутри.

kievrent:
Когда же прийдет понимание, что команда по качеству поиска не может конкурировать с изобретательностью миллионов оптимизаторов?!

А Вы сами ясно себе представляете масштаб и минимальные требования к подобной сети?

Возьмём лишь один из основных принципиально ненакручиваемых факторов (время существования аккаунта) и свяжем его с социальным окружением, типичным для живого человека (семья/друзья, которые растут месяцами и годами, и сохраняются через несколько итераций) и для бота (коммерческие лайки, которых и по количеству на порядки меньше, и по специфике гораздо уже, и по широте аудитории существенно менее распространены) - представьте теперь, какую работу нужно проделать, чтобы многомиллионная сетка ботов стала хотя бы немного похожа на многомиллионное сообщество?

А ведь это лишь первые приходящие в голову признаки для выявления неестественных лайков.

kievrent:
Вопрос создания сетки из 2-3 миллионов ботов под "+1" - пара месяцев.

У Вас есть подобный опыт?

О, наконец-то. Ушел познавать.

kievrent:
Как только сетка ботов, заточенная под этот сервис начнет нажатием одной кнопки менять выдачу

Это затруднительно делать в промышленных масштабах.

sven:
провайдер еще более уточнит выдачу

Проблема шире.

К примеру, даже в Яндексе умеют отличать трафик от провайдера и хостера, и используют это в контексте. Соответственно, не удивлюсь, если Гугл иначе сформирует серп для запроса, идущего с VPN.

Всего: 34981