- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Нейросеть - это миф!
Никто, никогда, нигде, ни в каких коммерческих алгоритмах не использует нейросети.
Неправда. :)
Т.к. чтоб проанализировать 1 сайт по 1000...10000 параметров с помощью нейросети могут уйти не одни сутки, и использоваться не одна сотня террабайт оперативки.
А может уйти пару минут и 1 мегабайт памяти.;)
Реализовать алгоритм, основанный на нейронной сети не сложно. Сложно обучить её так, чтобы получать минимум неверных результатов.
А файнридер как работает?))
Некорректное сравнение
И сомневаюсь что FineReader использует при распознавании нейронные сети. Причину написал выше.
Нейронная сеть требует много памяти, много процессорных ресурсов. И абсолютно всегда можно составить алгоритм который будет работать значительно эффективнее нейронной сети.
Нейронные сети используются только тогда, когда никаким другим способом решить задачу невозможно в данной ситуации
Нейронная сеть требует много памяти, много процессорных ресурсов.
Это заблуждение.
То есть типо у Яндекса ручная модерация?
и да и нет
если кратко
есть некие ассесоры ( лично я считаю что они сидят либо в другой вселенной, либо их запирают в бункер| они инопланетяне) которые задают критерии. критерии чего они точно задают известны достоверно только в яндексе, за стенами по большей пере догадки опыт ряда SEOшников
потом их работа отдается "алгоритму(ам)", а алгоритм(ы) уже их используют для сомообучения и работы ну и т.д.
ты же не материнская плата(или, о боже мой, я говорю с искусственным интелектом?) чтобы в тебя мозгов добавлять
лично я считаю себя билогическим компьютером :)
поэтому если не мать, то пистон для развития себе вставляю)))
Кстати если толпой лить на 1 акк в разрезе сабов в партнерке, то и процент повышается
угу
я один и не работаю :)
своя бригада есть )))
Нейросеть - это миф!
yaplakal.com
формалин (местный банщик) - своеобразная самообучающаяся нейросеть
Неправда. :)
А может уйти пару минут и 1 мегабайт памяти.;)
Реализовать алгоритм, основанный на нейронной сети не сложно. Сложно обучить её так, чтобы получать минимум неверных результатов.
И где Вы видели такую нейронную сеть?
Да только чтоб вогнать в неё обучающую выборку скажем из 1 000 000 сайтов по 100 Кб потребуется не одна сотня Мб/Гб/Тб... и т.д. В зависимости от того с какой точностью нам нужно будет определять класс сайта, напр. СДЛ/саттелит/дорвей и т.д.
Такое ощущение, что вы спорите о том, существуют инопланетяне или нет?
Вместо нейронной сети в данном случае можно использовать скажем 1000 конкретно заданных правил с целью классификации сайта. Которые кстати можно будет изменить в любой момент в отличии от нейросети(которая как наобучается, так ничего изменить больше и не получится).
Скорость работы увеличится не в разы, а в миллионы миллиардов раз. А потребление памяти вообще будет незначительным.
Для сравнения:
1. Без нейросети: найти в тексте сайта слово "порно", и если такое есть +1 к подозрению на дорвей
2. С нейросетью: надеятся что в обучаещей выборке достаточно дорвеев с данным словом, надеятся что неизвестные внутренние алгоритмы нейросети всё-таки смогут классифицировать правильно данный сайт.
Что проще и так даже ежу как мне кажется должно быть понятно.
Может быть речь тут идет о машинном классификаторе, который делит множество сайтов на классы эквивалентности? Просто у вас термины какие-то странные.
Проясню.
Берутся некоторые характеристики сайта. Затем на основе полученных характеристик и машинного обучения строаится автоматический классификатор (или как-то так), который уж сам относит одни сайты в разряд нормальных, а другие в спам. Это как с почтой. Вы когда-нибудь задумывались о методах обнаружения спама в эл. почте?
Ну а что же все таки сильней всего палит дор?
Last-Modified:
...
...
Может быть речь тут идет о машинном классификаторе, который делит множество сайтов на классы эквивалентности?
в новом алгоритме для сайтов яндекс придума 56к классов по мадридскому докладу