dlyanachalas

dlyanachalas
Рейтинг
693
Регистрация
15.09.2006
Diplomat:
Все делается очень аккуратно и красиво.

Да, очень красиво каждую ночь срут по ключам, с высоким % отказов. Хотя сейчас - меньше, чем раньше.

Найти бы, кто этим занимается :) ...

Но Яндексу плевать, это понятно. У него "генетический алгоритм" (он же - "случайный поиск локального минимума") и 100500 факторов 😂

wolf:
Да бросьте Вы. Большинство здесь присутствующих беспокоится не за то, что продвигать станет сложней, а за то, что накроется медным тазом монетизация MFS за счет продажи ссылок.

Главное, чтобы спрос на "консультации" не падал, верно? ;)

---------- Добавлено 27.12.2013 в 17:20 ----------

burunduk:
кстати, если яндекс отменит ссылочное, то штрафы за ссылочный сапм он так же отменит? 🙄

Скажите, вы правда думаете, что они ввели АГС-40, чтобы потом отменить ссылочное? :)

Понятно же, что для отвода глаз это всё.

Да и не первое ведь это заявление. Вы же сами всё знаете.

Каталоги, которые выжили, давно сделали ссылки через редирект, они и так "чисты" сейчас.

borisd:
Школьников на это дело нанять? Флаг вам в руки. Они вам наэмулируют :)

А, ну да. Посетитель, который хочет что-то купить, он и щелкает даже по мышке не так, как школьнег :D

---------- Добавлено 27.12.2013 в 17:05 ----------

borisd, я так понимаю, к разработке алгоритмов вы отношения не имеете?

Т.к. есть все основания считать, что алгоритм-то там как в раз очень простой.

---------- Добавлено 27.12.2013 в 17:07 ----------

Diplomat:

Накручивать будем и себе и конкурентам. И работать десятками сайтов для уменьшения рисков.

Да, кстати, если кто не понял, выше я писал не как накручивать, а как "скручивать" конкурентов :)

borisd:

А там и не происходит существенного усложнения. Например, нам с помощью генетического алгоритма надо подобрать функцию, с приемлемой точностью соответствующую некоему входному набору данных. Разница между вами и Яндексом лишь в том, что ваш набор данных состоит из (к примеру) пяти элементов, а у Яндекса - из ста пяти. Т.е. при том же алгоритме яндекс имеет возможность построить более точную модель.

А все ваши "зашел на выдачу - зашел на сайт - ушел обратно" - это ерунда и Яндекс не это анализирует. Он моделирует (пытается по крайней мере) интересы посетителей. И я не исключаю варианта, когда если посетитель с определенным интересом случайно заходит на непрофильный сайт и сразу с него уходит, то алгоритм Яндекса поставит плюс этому сайту, а не минус.

Так вы из Яндекса? Неплохо, неплохо! Давайте знакомиться! :)

Кстати, заодно имейте в виду, что нет таких алгоритмов, которые работают лучше, чем сможет сделать их автор.

Т.е. если вы сами не понимаете, как эти 100500 факторов могут выявить хороший сайт, то и система не будет понимать и выдаст рандом (чем МатриксНет собственно и занят :))

юни:
По каким именно?

Пару лет назад ещё говорили о простой проверке трафика на искусственность - через отслеживание путей, приводящих к сервисам заданий. Но, даже если отказаться от публичной админки, не проще ли самостоятельно и автоматически добавлять нужный тебе маршрут по сайтам, разбавляю типичную картину пользовательского серфинга, нежели отдавать ему инициативу?

А поскольку это действительно так - не проще ли вообще отказаться от пользователя? Ведь, по сути, от него нужен только "отпечаток", включающий конфигурацию системы и куков.

Вы ведь теоретически рассуждаете, верно? Насколько я знаю, это ещё не реализовано.

На джетсвапе декларируют 200к зарегистрированных пользователей, на сеоспринте - 300к. Допустим, реально из них работает (т.е. даже не на уровне автомата, круглосуточно и по всем направлениям, а просто заходит и что-то там делает час-другой в день), ну, десятая часть - т.е. примерно 50к ip?

50 к из разных подсетей. Это большая разница.

Для решения этой задачи есть множество решений. В качестве основы подсеть анонсируется от провайдера из подобного списка, после чего хуизы меняются на соответствующие, с полями в духе "descr: Volga Branch of OJSC MegaFon" и "netname: Samara GPRS Gateway section 2".

Всё-равно, однотипные действия с одной подсети.

Mr.Gold:
У Яндекса есть данные по кукам и юзерам собранными годами, даже если ты винду переставишь он всеравно тебя вычислит по действиям, и увидит что ты ерундой страдаешь кликая туды-сюды. Он видит гораздо больше чем ты себе представляешь, даже сменив провайдера и комп он всеравно тебя узнает через некоторое время и склеит.

Ахахаха)) Охохохо))

Он меня не вычисляет даже если я его в другом браузере открываю. Ну вы юморит :)

А от геморроя по фотографии Яндекс не лечит, случайно?

---------- Добавлено 27.12.2013 в 11:50 ----------

borisd:
Такая примитивная схема легко палится и поэтому бесполезна. Это лишь сотая часть факторов, учитываемых в модели. Бесполезняк.

Я не отрицаю, что теоретически можно с достаточной точностью угадать и съэмулировать поведение, но это очень трудоемкий процесс, требующий индивидуального подхода, детального анализа каждого случая. И если уж вы и научитесь строить модели с приемлемой точностью соответствующие моделям Яндекса, то вы уже не будете заниматься всякой фигней типа накрутки ПФ, т.к. откроются намного более интересные возможности.

Это гуманитарный бред. Извините, ничего личного.

Яндексу надо обработать очень быстро 100500 миллионов сайтов. Значит никаких сложных обработок быть не может.

юни:

Именно для таких операций - люди вообще не нужны.

1. Школоло всё-таки намного больше, чем есть ip даже у вас

2. Неизвестно, какие там системы защиты у "умного" Яндекса. Но очевидно, что против живых людей эти системы не сработают. По понятным причинам.

;)

---------- Добавлено 27.12.2013 в 10:51 ----------

юни:
А вот смотреть на характер трафика из конкретных подсетей - и удобнее, и оперативней.

Вот и ключ к вашим проблемам - все хостеры отказываются понимать своих клиентов, навязывая блоки адресов. Типа им так удобнее, а оптимизаторы - идиоты :)

В итоге по этим блокам Яндекс вас спалит в два счета.

Mr.Gold:
Уверен что Яндексу не проблема создать базу ВСЕХ аннонимайзеров...ну или палить и проверять айпишники автоматически...

Яндекс - крут!

Однако, есть ещё и 100500 школоло. Настоящих, живых :) Без анонимайзеров и прокси.

Зря они всё это затеяли, честно говоря...

---------- Добавлено 27.12.2013 в 10:31 ----------

Эксперимент надо проводить так:

- набираем ключ в Яндексе

- щелкаем на конкурента

- проводим там пару секунд

- возвращаемся в выдачу, щелкаем другого, случайного конкурента.

- закрываем Яндекс

- повторяем 100500 раз за месяц

- делать должны разные люди, без прокси, без анонимайзеров.

Ждем апа поведенческих, смотрим результат :)

Алексей Питерский:
Влияют на ВЧ, СЧ, НЧ.

Я про связку запрос-документ. Там все СЧ, НЧ, 5000 "сотрудников" проверить никак не могут.

Общая оценка сайта тоже есть, понятно. Но только если он вылез где-нибудь по ВЧ (т.е. попал на глаза).

Сейчас сильно рулит фактор, который никто не хочет признавать - оценка асессора. Сайт должен быть признан асессором хорошим. А у них есть определенные критерии.

Ссылки и соц. сигналы это то, что подводит сайт к топу. Но асессор их перебивает. Речь про ВЧ, частично СЧ.

юни:

Кроме того, уже несколько лет как понятно, что съём позиций, парсинг вордстата и прочее подобное надо делать с иных диапазонов, нежели с тех, которые используются для экспериментов с собственно ПФ (по схеме выдача - сайт - выдача).

Поделитесь успехами, пожалуйста :) Есть топы? Вы ведь должны быть в курсе.

По моим данным, сейчас подобная накрутка дает очень мало. Даже конкуренты перестали лить говнотраф, чтобы навредить :D

Хотя в своё время рулила. Было дело.

Всего: 12345