- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
А тебе то он зачем?
В команде шестого отряда замена? 😂
fireone, Пока сеопульт зарабатывает бабло и отмывает средства пользователей на собственных псевдобиржах, вебэффектор продвигает сайты. Улавливаешь разницу?
Нет, Миш, не улавливаю. Это все красивые слова, а результат работы бизнеса Сеопульта по сравнению с конкурентами, как говорится, на табло ;)
Насколько я понял топик создавался с целью померяться пиписьками - у кого длиннее оказалась?
Насколько я понял топик создавался с целью померяться пиписьками - у кого длиннее оказалась?
В данном конкретном топике, процесс гораздо интереснее чем результат 🚬
пока Rookee с Вэбэффектором выясняют у кого "математичнее" Сеопульт спокойно зарабатывает нормальное бабло... ;)
Это да. Коля молодец, у него остальным агрегаторам еще многому можно научиться. :)
Это да. Коля молодец, у него остальным агрегаторам еще многому можно научиться. :)
А чему там можно поучиться? Новое всегда является модной фишкой. Или ты о математике?
Я скоро свои наблюдения выложу - вот это будет интересно.
А чему там можно поучиться? Новое всегда является модной фишкой. Или ты о математике?
Это только кажется. Ты просто пока не сделал свой агрегатор, потому и непонятно. :)
Примерно так. Ссылочная у меня равна нулю.
Ссылочная динамическая или ссылочная статическая? Или обе разом? И кроме ссылочных и текстовых мы ничего больше не знаем? Или не хотим знать?
Слова гудман не было - факт, но идеолухом статьи в ветке выступал именно я, без вариантов, потому и воспринято было соответственно. Ну и видимо еще приплюсовано к обвинению в идейном пЕАразме.
Понятно. Переход на личности без личностей. Ловко, но я уже ничему не удивляюсь :)
Что такое "текущий процент"? В моем посте не было такого словосочетания. Тонкости я не вижу смысла озвучивать нахаляву, так как там есть хитрые моменты, до которых еще додуматься нужно.
В твоем посте было словосочетание "прогнозный процент выпадания ссылок" как мера эффективности. Значит, логично предположить, что обучение идет на некоем текущем проценте выпадания этих ссылок, зафиксированном у элементов обучающей выборки. Или обучаем на бузине, а эффективность меряем по дядьке?
Яндексоиды раньше брали произведения, они об этом официально говорили. Сейчас скорее всего тоже, но инфы точной нет. Я также брал произведения.
Произведения, говоришь... Ну, вот они, полиномчики, и выскочили, родимые, правда в другом ракурсе... :) По сколько факторов кучковал, если не секрет?
Но объективно на сегодня между нами тремя к математику как-то близок только я, что и было в ветке показано не раз
Объективно на субъективный гудмановский взгляд :)
Не понял вопроса.
Поясню. Ваши исследования показали, что вы разнесли сайты на группы по каким-то параметрам, в которых расчетный процент выпадения ссылок совпал с реальным. Так?
Если так, то получается, что допустим, у сайтов с тиц 100500 (условно, понятно, что параметров больше и они другие) вероятность выпада ссылки 5% . Но в тоже время, у сайта с тиц 100500 pr 1 вероятность выпада 10%, а у тиц 100500 pr 10 - 0% (pr условно считаем неучтенным фактором).
Вы же эти данные усреднили и получили (возможно) неверные данные.
Не, ну факторов не 420+, этого явно не хватит... 420 - это основных, и стопиццот производных от них. В каждом дереве - 10 факторов.
В обучающей и тестовой выборке - сайты, а не документы. По данным сайтам есть как длинная история параметров самого сайта, так и история всех купленных на нем когда-либо ссылок. По некоторым параметрам история не очень длинная, но она тоже есть. Слов типа "вектор" я не буду употреблять, чтобы больше народу поняло. Из этой большой истории сайта и ссылок, а также из других свойств сайта формируется набор факторов, который задействован в обучении. На выходе - прогнозный процент выпадания ссылок.
Все сайты в обучающей и тестовой выборке были разбиты на группы по этому проценту выпадания, т.е. от и до. Правильным считался прогноз, при котором прогнозный и реальный проценты попадали в ту же группу. Эффективность измерялась, как процент правильных прогнозов.
Примерно так. :)
Сорри конечно что вмешиваюсь в вашу высоко-интеллектуалку, но ваш метод это школьный уровень в нейротехнологиях. Этот способ обучения и составления факторов попахивает сферичностью лошадиной, ибо - никогда не достичь рабочего состояния сети, обученного таким способом. Это первый постулат нейропрограммера.
Ваша выборка после обучения начнет работать и давать результаты даже на новых представленных массивах сайтов (но только на тех, которые вы опять же сами отберете) а при анализе реальной группы сайтов без выборки - начнутся сбои. Вы начнете дообучать сеть и менять параметры - в итоге, опять получите приемлимый результат на новой выборке, но! - на старой выборке уже будет полный расколбас.
Это именно так и будет.
Ибо! - нельзя обучить сеть в которой имеется большое количество признаков (у которых имеются также собственные признаки) на основе заранее отобранных данных и составления признаков именно на основе этой выборки. Вы должны изначально задать признаки на основе ассесорского мышления, и лишь за тем, на их основе планировать сеть и обучение. Редактировать в такой сети можно только условия входа и условия анализа результата. Но сами признаки и факторы после развертывания сети уже не изменяются. Иначе, нужно заново планировать сеть с новыми параметрами.
P.S>в нейропрограмминге уже более 8-и лет, и ваш метод напоминает мне мои первые 3-5 месяцев в этой теме, когда приходишь в восторг от того, что пару обратных перцептронов могут сами проанализировать десяток параметров и выдать правильный результат (в основном цифровой, по первости неумения работать с более обширными структурами признаков и приводить их в числовой или функциональный вид).
Wolf вам верно всю ветку пытается втемяшить - это ошибка метода, а не реальность определения вероятности. А ошибка заключается именно в том, что вы строите сеть на конкретной выборке сайтов двух полюсов, которые в момент построения сети имеют всего два полюса - да и нет. А полюсов реально не два, а на много больше окажется, когда будет запущена обработка шумной выдачи, потому, как в ней будут куча экземпляров, которые не будут иметь нужных факторов совсем, и куча, которые будут иметь перекрывающиеся факторы относительно текущего плана сети, а также, будет основная масса, которая будет иметь слишком мало нужных факторов текущего плана и постоянно будет зашумлять результирующий вектор.
Вот как то так. Сорри еще раз.