Webeffector - революционный сервис продвижения сайтов

chinatechnika
На сайте с 03.03.2009
Offline
96
#1011

Я Григорию написал на мыло. Жду ответ.

Проверил ссылки с длинными уникальными анкорами, вроде реально работают. Во всяк. случае по НПС их видно. Странно, что стою.

чё-т нервы ни к черту:)

Тут есть монгольский кашемир (https://msk.mongolshop.ru/) Свой проект: http://www.chinatechnika.ru/ (http://www.chinatechnika.ru/)
MiRaj
На сайте с 03.07.2006
Offline
509
#1012

chinatechnika, Эффектор не может дать только один фактор - время. Мы никак не можем старить ссылки, и я действительно опасаюсь, что очень скоро мы будем большими буквами писать "Уважаемые пользователи, обратите внимание, что ссылки начинают активно влиять на ранжирование только через 3-4 месяца".

Пока ситуация не такая критичная, первые результаты по ВЧ появляются через 1.5-2 месяца, по менее конкурентным запросам быстрее. Но тот же февраль, к примеру - "глухой" для новых ссылок, в топ лезут проекты, запущенные в декабре-январе.

Вы не один такой, подобная ситуация есть даже у моих личных проектов - для контроля качества мои специалисты часть запросов продвигают вручную через сейп. Динамика за февраль одинаковая - грустная :(

Муркетолог. 100 пресс-релизов с прямыми ссылками за 150 баксов? Легко! (http://b2blogger.com) Статейный маркетинг - лучшее лекарство от Минусинска! (http://miralinks.ru)
pavel419
На сайте с 03.05.2006
Offline
313
#1013

MiRaj, да, что то пока по проекту от 11.02.2010 особо подвижек нету :(

Я так понял, когда система снимает плохие ссылки, она тут же на эти деньги докупает еще сама чтоб дозабить бюджет?

@RuSeoBot (http://s419.ru/ruseobot/)- первый seo-бот в Twitter, а теперь - и канал в Telegram (http://s419.ru/servisy/pervyj-poiskovyj-seo-kanal-v-telegram/) Мой сайт про виртуальную реальность (http://vr419.ru/) Как правильно покупать на Алиэкспресс (http://4ali.ru/)
schegloff
На сайте с 25.08.2008
Offline
178
#1014

Низкочастотники продолжают падать и вылетать из Топ-50. Причем даже те, которые до добавления в Эффектор были в зоне видимости.

Не радует пока система, очень не радует. Сеопультом НЧ влегкую выводились.

G00DMAN
На сайте с 19.04.2008
Offline
122
#1015
MiRaj:
G00DMAN, стоп-стоп-стоп.
Да, оценка асессоров у первоначальной выборки должна быть в пределах малой дельты.
Но те параметры коэффициентов ранжирования, которые на основе обучающей выборки построит яндекс вовсе не должны обладать подобной гладкостью - наоборот, практика показывает что часто из-за какого-то одного параметра происходит перекос выдачи (это особенно ярко проявляется в ВЧ тематиках в виде случайно вылезших в топ говносайтов, последний интересный пример - попадание в топ10 сайтов типа kluchevoe-slovo.ru).

Ну я вообще не говорил о параметрах функции ранжирования, пофигу на них. Я говорил о значении функции. Если тупо следовать докладу Карповича на RUSSIR, то значения топа должны попадать в очень малый интервал. Никакой гладкости при этом не будет. И попадания в топ ГС и прочего УГ вроде не противоречит логике, для того, чтобы ГС обогнал лидеров, ему не нужно иметь релевантность гораздо больше, достаточно больше на нано.

MiRaj:
Впрочем, не суть - ведь самый главный вопрос - как мы собрались мерять расстояние между векторами коэффициентов ранжирования - по какой метрике ;) В зависимости от выбора метрики и ты и Сергей можете быть правы.

Дык, я в данном случае на эти вектора не обращаю внимания, только на конечное значение релевантности.

Илья Зябрев, AlterTrader Research Ltd. Последние статьи: Об отмене ссылок в Яндексе. (www.altertrader.com/publications38.html)|Поведенческие факторы (формулы) (www.altertrader.com/publications36.html) Жадные алгоритмы Яндекса. (www.altertrader.com/publications20.html)|MatrixNet для «чайников». (www.altertrader.com/publications19.html)
UN
На сайте с 16.10.2007
Offline
58
#1016
G00DMAN:

А что касается реальных ВК, то они конечно же менее интересны, но о них тоже можно сказать. Начнем с процесса обучения. В обучающей выборке есть примеры как сильно релевантных документов, так и совсем не релевантных, иначе не обучить. Но нас интересуют только "самые релевантные" с точки зрения асессоров. Их оценки не отличаются друг от друга, у всех это одно и тоже число. В ИМ-2009 это было 4, в презентации про жадность предлагалось всунуть все "истинные" релевантности в интервал [0..1], но это не суть. Пусть это будет 1, что ли...

Т.е. все документы, попавшие в обучающую выборку и оцененные, как релевантные, имеют одну и ту же оценку, 1. При обучении функции ранжирования, если верить Яндексу, используется простейший (но эффективный) критерий качества - ищется минимум квадратов разностей вычисленных релевантностей с истинными. Учитывая, что почти наверняка критерий качества жесткий, получаем, что вычисленная с помощью формулы ранжирования релевантность будет очень близка к 1, т.е. плотность значений в топе будет максимальной, при наличии достаточного количества релевантных документов. По некоторым ВК она может быть и на топ-100 значительной, т.к. много релевантных документов.

Ну и, учитывая объем и качество обучающего множества, получается, что при такой метрике качества у любого релевантного документа вычисленная релевантность будет болтаться в 1 +- нано. И плотность, особенно в топе, будет высокой.

G00DMAN, ситуация, которую Вы описываете, в теории нейронных сетей называют "эффект переобучения" - сеть "запомнила" правильные ответы для обучающей выборки, а не "обобщила" их.

- для любого размера обучающей выборки можно выбрать достаточно "сложную" модель поиска функции релевантности для того что бы в результате "обучения" получить функцию на 100% совпадающую с оценками асессоров (при достаточных вычислительных возможностях).

Т.к. на обучающей выборке правильный ответ только "1" или "0", то в этом случае действительно (в ситуации "переобучения") для релевантных документов из обучающей выборки посчитанная функция релевантности будет давать значения 1+- нано. Но для остальных документов (не из обучающей выборки) это будет функция дающая непредсказуемые результаты (почти рандом - небольшие изменения в обучающей выборке будут приводить к резким изменениям всей выдачи) - ведь эта, найденная функция не отражает закономерностей, она лишь запомнила правильные ответы произвольным способом. (размерность модели превышает размерность обучающего множества - количество подходящих со 100% точностью решений бесконечно).

В ситуации которую Вы описываете плотность значений функции релевантности для документов не из обучающей выборки будет произвольная.

В любом случае яндексоиды наверное в курсе этой проблемы - общей для всех моделей использующих "обучение с учителем".

S
На сайте с 02.01.2009
Offline
121
#1017
schegloff:
Низкочастотники продолжают падать и вылетать из Топ-50. Причем даже те, которые до добавления в Эффектор были в зоне видимости.

Не радует пока система, очень не радует. Сеопультом НЧ влегкую выводились.

А с запуска кампании сколько времени прошло? Например, у самой первоей моей кампании в эффекторе, ссылки заработали через АП (после скупки ссылок) и по нужным ГЗ и ГНЗ сайт, практически, по всем запросам в топ1, при том, что проставленный бюджет отработан лишь на 55% и прошло очень мало времени, чтобы ссылка "затрастилась". Во многом благодаря трасту, а вернее его отсутствию, у новых ссылок бюджет нужно ставить больше, чем сам расчитываешь, анализируя конкурентов. Сейчас ускорил отработку.

У некоторых сайтов индекс от 28 числа прошлого месяца, у ряда внутренних страниц N-уровня и вовсе может быть прошлогодний индекс. Может и ссылки покупались в промежутке от 29февраля-3марта? Пока единственный косяк, который мне бросился в глаза, это калькулятор бюджета. Все остальное, тьфу-тьфу, работает ожидаемо хорошо.

Стримишь или регулярно смотришь прямые трансляции на Trovo? Подключайся https://trovo.space
UN
На сайте с 16.10.2007
Offline
58
#1018

москаль, хорошо что всегда сам найдется неравнодушный человек, который научит правильно жить...

москаль:
Для этого есть поведенческие факторы в ранжировании, которые задают сами пользователи, поэтому вероятность переобучения яндексу не грозит (разве что по большой тупости).

Что за факторы? Приведите примеры пожалуйста.

S
На сайте с 02.01.2009
Offline
121
#1019

вот и первый троль-поклонник появился 😂

UZPN, никаких примеров он вам приводить не станет, потому и пишет "из-под стола", а не от своего имени. Очередной Дэвид Блэйн, который знает о магии Яндекса и SEO все, и даже больше.

MiRaj
На сайте с 03.07.2006
Offline
509
#1020

москаль, личико то откройте :)

G00DMAN:
Дык, я в данном случае на эти вектора не обращаю внимания, только на конечное значение релевантности

А какой смысл сравнивать результат функции, не понимая как влиять на ее аргументы?

Кстати, простой вопрос - ты считаешь функцию релевантности непрерывной по каждому из аргументов, непрерывной по всем аргументам, дискретной, etc? Это как бы важно в рассуждении об устойчивости топа :)

pavel419, schegloff, по какому-то определенному проекту или как?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий