- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Да. Еще обнаружил, что на Хроме показывается реклама, а на других браузерах, на этих же роликах и рекламы нет, и даже метка всего одна (на больше 10мин).
Может, конечно, я сейчас какую-то фигню напишу, а может нет...
Короче, смотрел всякие научпоп лекции про нейросети - искусственный интеллект.
Если Ютуб её использует, то сейчас эта нейросеть проходит стадию обучения: отключает монетизацию на тех роликах, которые ей кажутся подозрительными. Далее, блогеры подают апелляцию, и эти видосы уже просматривают реальные люди. В результате те видео, которые были заблокированы неправомерно эта нейросеть учитывает, - корректирует свои ошибки.
В общем, искусственный интеллект обучается, и пока ещё делает очень много ошибок. Может, например, через полгода, нейросеть обучиться и будет уже гораздо точнее на видео монетизацию отключать.
Как бы там не было, сейчас уже подобные технологии не являются фантастикой.
В общем, если я прав, то в будущем никакие танцы с бубном не помогут уже. Настанет капец "серым" видео и прочей жести на Ютубе, ибо обученный искусственный интеллект уже практически невозможно будет наипать))
Может, конечно, я сейчас какую-то фигню напишу
Если из этой фигни выбросить "нейросеть", то останется то, что сам ютюб давно и без утайки всем сообщил.
Если выбросить "нейросеть" то ничего не останется, ибо это и является основной сутью моего поста. Очевидно, что чуваки на Ютубе не могут заниматься мониторингом миллионов роликов.
Версия про нейросеть может объяснить, почему видео сначала желтеет, а потом само собой зеленеет)) Просто коррекция ошибок.
Вот, смотрите, неросеть играет в 2D игру:
В этом видео нейросеть учиться играть в игру. Изначально она ведёт себя словно ребёнок, не знает что делать.
Потом она понимает, что для зарабатывания балов надо отражать "шарик" разбивая им верхние блоки. Появляется точность в движениях "ракетки".
И далее, наступает ключевой момент, после многочасового обучения и множества попыток, нейросеть понимает: для того, чтобы разбивать блоки и зарабатывать баллы,
не обязательно каждый раз отражать "шарик", достаточно просто пробить тоннель в блоках и пульнуть туда шарик, чтобы он начал рикошетить сам собой и быстрее набивал очки.
Вот ссылка на этот момент:
https://youtu.be/V1eYniJ0Rnk?t=85
Понимаете? НИКТО из программистов не обучал её подобному.
Это гениальное решение (по меркам современного искусственного интеллекта) заинтересовало корпорацию Гугл, они купили код этой нейросети.
А вот сотрудник гугл-раша рассказывает про ИИ:
https://youtu.be/viE6d0eZbO4?t=1048
Может, конечно, я сейчас какую-то фигню напишу, а может нет...
Короче, смотрел всякие научпоп лекции про нейросети - искусственный интеллект.
Если Ютуб её использует, то сейчас эта нейросеть проходит стадию обучения: отключает монетизацию на тех роликах, которые ей кажутся подозрительными. Далее, блогеры подают апелляцию, и эти видосы уже просматривают реальные люди. В результате те видео, которые были заблокированы неправомерно эта нейросеть учитывает, - корректирует свои ошибки.
В общем, искусственный интеллект обучается, и пока ещё делает очень много ошибок. Может, например, через полгода, нейросеть обучиться и будет уже гораздо точнее на видео монетизацию отключать.
Как бы там не было, сейчас уже подобные технологии не являются фантастикой.
В общем, если я прав, то в будущем никакие танцы с бубном не помогут уже. Настанет капец "серым" видео и прочей жести на Ютубе, ибо обученный искусственный интеллект уже практически невозможно будет наипать))
ага.. и через год два этого онанизма окажется что нейросети это одно большое наипалово..! может уже оказалось..! только гугл подоили на не хилые бабосики и они тупо тянут время что бы это хоть как то сгладить и оправдать..))😂
---------- Добавлено 22.10.2017 в 07:40 ----------
Если выбросить "нейросеть" то ничего не останется, ибо это и является основной сутью моего поста. Очевидно, что чуваки на Ютубе не могут заниматься мониторингом миллионов роликов.
Версия про нейросеть может объяснить, почему видео сначала желтеет, а потом само собой зеленеет)) Просто коррекция ошибок.
Вот, смотрите, неросеть играет в 2D игру:
В этом видео нейросеть учиться играть в игру. Изначально она ведёт себя словно ребёнок, не знает что делать.
Потом она понимает, что для зарабатывания балов надо отражать "шарик" разбивая им верхние блоки. Появляется точность в движениях "ракетки".
И далее, наступает ключевой момент, после многочасового обучения и множества попыток, нейросеть понимает: для того, чтобы разбивать блоки и зарабатывать баллы,
не обязательно каждый раз отражать "шарик", достаточно просто пробить тоннель в блоках и пульнуть туда шарик, чтобы он начал рикошетить сам собой и быстрее набивал очки.
Вот ссылка на этот момент:
https://youtu.be/V1eYniJ0Rnk?t=85
Понимаете? НИКТО из программистов не обучал её подобному.
Это гениальное решение (по меркам современного искусственного интеллекта) заинтересовало корпорацию Гугл, они купили код этой нейросети.
только тупые американцы верят в такие сказки про не обучал.. она сама виновата..! в этом вся проблема что это один большой лохотрон а страдаем мы..😡
Пожелтел ролик, подал апелляцию по ссылке, зазеленили обратно. То есть, я так понимаю, ролик прошёл ручной досмотр. Ничего с роликом не делал. Прошло 5 дней и... вновь он жёлтый, и вновь появилась ссылка на апелляцию.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Пожелтел ролик, подал апелляцию по ссылке, зазеленили обратно. То есть, я так понимаю, ролик прошёл ручной досмотр. Ничего с роликом не делал. Прошло 5 дней и... вновь он жёлтый, и вновь появилась ссылка на апелляцию.
трудно искать логику где ее нет..))
Если это ИИ или нейросеть, то сложно представить, что бы один механизм отслеживал сразу все направления серости, адалта и прочих запрещенных ют тематик.
Скорее всего есть несколько серверов с ИИ, каждый из которых работает над одной узкой проблемой. Один сервер с ИИ проверяет видосы на серость, второй на расизм, третий на наличие насилия и т.д..
Это может быть причиной возвращения желтизны после ручного одобрения. Сначала одному боту что то показалось (например насилие), отправили на проверку вручную - люди одобрили и боту сказали не трогать, потом другому боту что то показалось и т.д.
Это может быть причиной возвращения желтизны после ручного одобрения. Сначала одному боту что то показалось (например насилие), отправили на проверку вручную - люди одобрили и боту сказали не трогать, потом другому боту что то показалось и т.д.
А после ручной проверки отметку для всех ботов поставить нельзя что ли?