- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Хм, если фильтры должны отсекать в ГБЛ те сайты, у которых % выпадения страниц - больше заданного, то что говорить о глюках яши, которые появляются каждые 1.5-2 месяца. Когда процент выпадения страниц от апа к апу - сильно варьируется. И это не зависит от СДЛ-ости сайта, его возраста, количества проданных ссылок и далее по списку.
Происходит переобучение, или в такие моменты фильтры отключаются? Не совсем улавливаю логику признаться. Или же выборка идет заведомо по молодым сайтам, скажем, с регой от двух лет/года?
И это не зависит от СДЛ-ости сайта, его возраста, количества проданных ссылок и далее по списку.
Кто вам это сказал?
Происходит переобучение, или в такие моменты фильтры отключаются?
Программные сбои, погрешности, куда же без них? Ни один алгоритм не даст 100% точности, тем более, когда алгоритмы так бурно дорабатываются как в случае с яндексом.
там выдачи специфические, меняются не существенно
А это не может стать проблемой? В выдачах коммерческих специфика ведь может быть и другой.
Чисто вопрос дилетанта.
Это мне сказала моя выборка ) И анализ кучи крупных сайтов/топиков с апами. Когда выпадает приличный кусок риана, ленты и иже с ними - уже поэтому можно судить о глюках.
Вопрос не в этом.
У меня скорее вопрос, про маленький "матрикснет" Гудмана, происходит отключение, переобучение или же вытаскивают из ГБЛ-а после?
А главное, чего я не могу понять - для чего все это? Попытка экономии бюджета на 3% ссылок, которые в будущем могут заведомо выпасть под АГС? Да, при очень широкой выборке - это сэкономит крупному игроку рынка - денег. Но если говорить о розничной торговле - это же ерунда, нет?
В чем польза для конечного пользователя? При прямых руках, за пол года под АГС вылетает дай ты бог 15% ссылок из 100к. При ручной закупке - в разы меньше, при мониторинге - вообще не влияет на выдачу, как таковую.
Причем вылет происходит достаточно быстро, в среднем, раз в месяц, к примеру в апы тица, на молодняке, когда многие ... пытаются поднимать цены и уходят в ГБЛ.
И чьто дальше? Без активационной функции выходного нейрона испаряется нейросетевая сущность?
Испаряется, да. 🍿 Вы же формулу в общем виде приводите.
Остальное лень даже комментировать.
ЗЫ. Подскажу, как выпутаться: скажите, что с самого начала вы говорили про случай с линейной активационной функцией :D
Это мне сказала моя выборка ) И анализ кучи крупных сайтов/топиков с апами. Когда выпадает приличный кусок риана, ленты и иже с ними - уже поэтому можно судить о глюках.
Ну всё же целиком они не так часто вываливаются, верно? А вот новые и "слабенькие" сайты - только так. Наверное, всё-таки, какие-то из этих факторов что-то решают=)
Вопрос не в этом.
Извиняюсь, недопонял. Думаю, что само по себе дообучение не даст серьёзных глюков, так что, вероятнее всего происходит смена алгоритма, либо какой-то неожиданный глюк всплывает при дообучении.
Mantius добавил 29.08.2010 в 21:52
Испаряется, да. Остальное лень даже комментировать.
Вот и отлично, а то уже и так вдоволь насмешили народ.
Mantius добавил 29.08.2010 в 21:53
ЗЫ. Подскажу, как выпутаться: скажите, что с самого начала вы говорили про случай с линейной активационной функцией
Вы бы о себе подумали, как объяснить ваш довод о том, что ИНС не может использовать генетические алгоритмы. Мне было бы очень интересно послушать!
Самое смешное, что линейная активационная функция занормирует выход обрезанием "концов", что вообще недопустимо в нашем случае=)
ИНС не может использовать генетические алгоритмы.
Разумеется, может использовать в процессе своего обучения.
Вы куда-то в дебри ушли уже в пылу спора) В сабже про МатриксНет говорилось ;)
Разумеется, может использовать в процессе своего обучения.
Вы куда-то в дебри ушли уже в пылу спора) В сабже про МатриксНет говорилось
Ну так вы про него почему-то и заявили, что:
Матрикснет вообще-то на генетическом алгоритме построен.
в довод того, что, мол, если "построен на генетическом алгоритме", то уж никак не будет с ИНС связан.
Ну в статье вроде было написано, на сколько я помню, или не? Фильтры разных уровней обязаны отсекать в ГБЛ сайты, на которых % выпадания страниц больше заданного.
Ты извини, но там такое количество псевдоматематического словоблудия, что тяжело выделить мысль с первого прочтения.
Окей, а какой смысл? В вебэффекторе, к примеру, за ссылочный апдейт выпадает максимум 1-3% ссылок, в месяц в среднем - 6-9% обновляется. И то, среди ссылок ценой по 1.5-2.5 рубля.
Да, это намного лучше чем по рынку, т.к. встроена куча фильтров по фактором, большинство из которых вы скорее всего учли в своей обучалке.
Но реально, мне сомнительна сама польза от подобного метода постановки исследований и апробации результатов, если честно :)
На самом деле, к бабке не ходи, но ни один алгоритм не может предсказать жадность владельца сайта. А это сыграет как мне кажется решающую роль, при выборке пациентов на АГС.