- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Last-Modified:
...
...
фигня. на динамике всегда будет текущая дата или не будет указана вообще
А о вопросе нейронных сетей...
Есть разные алгоритмы классификации. Один из них метод опорных векторов. Есть метод постоения дерева решений. Есть метод нейронных сетей. Много чего есть))
Так что не надо млять тут умничать про нейронные сети, углубитесь в матчасть прежде чем говорить о таких вещах.
Берутся некоторые характеристики сайта. Затем на основе полученных характеристик и машинного обучения строаится автоматический классификатор (или как-то так), который уж сам относит одни сайты в разряд нормальных, а другие в спам. Это как с почтой. Вы когда-нибудь задумывались о методах обнаружения спама в эл. почте?
Да тот же spamassassin работает совершенно по другому. :) Есть набор правил(отсутствие темы, несовпадающий получатель и т.п.), при выполнении каждого из которых письмо получает определенное количество баллов. При превышении дефолтной отметки в 5 баллов письмо помечается как спам.
shi добавил 18.02.2010 в 17:08
А о вопросе нейронных сетей...
Есть разные алгоритмы классификации. Один из них метод опорных векторов. Есть метод постоения дерева решений. Есть метод нейронных сетей. Много чего есть))
Да, умничать не надо. ;)
Да, умничать не надо.
Да почему бы не поумничать, просто надо для начала хоть что-то знать по теме)
Solo_by добавил 18.02.2010 в 17:15
Да тот же spamassassin работает совершенно по другому. Есть набор правил(отсутствие темы, несовпадающий получатель и т.п.), при выполнении каждого из которых письмо получает определенное количество баллов. При превышении дефолтной отметки в 5 баллов письмо помечается как спам.
Это линейный подход, не самый эффективный.
Это линейный подход, не самый эффективный.
Вы уверены?
А еще есть кнопочка "Это спам". Которую нажмут несколько сотен человек. И все письма похожие на это письмо перенесутся в спам на данный момент и в будущем. А отправитель отправится в спам-базы.
Нейронные сети - это извращение логической мысли. Это как из простого сделать сложное, и усложнить ещё в несколько раз. Получится нейронная сеть.
s91, нейронные сети хороши для определенных целей, таких как обработка чего-либо с неполным набором данных, принятие решений на основе предыдущих опытов. Всюду их пихать конечно же смысла нет. Но ты слишком категорично к ним относишься. :)
Нейронная сеть -- это в первую очередь злобная математика, которая и отталкивает большинство программистов, видимо и тебя тоже. :)
Нейронные сети можно использовать, когда есть входящие и исходящие данные, и зависимость между ними практически невозможно установить. И при этом задача решается достаточно редко, чтоб можно было на её решение потратить достаточное количество вычислительных ресурсов.
Это моё понимание применения нейронных сетей.
Если брать данный конкретный случай с ПС. То тут видна явная зависимость между содержанием сайта(исходный код) и его типом(сдл/сат/дор). И определить эту зависимость и написать алгоритмы достаточно просто, не прибегая к пограничным алгоритмам. Тут как раз задача - упростить алгоритм, чтоб можно было им управлять, изменять его, и чтоб он был достаточно быстрым, что с нейронными сетями невозможно(чёрный ящик)
И определить эту зависимость и написать алгоритмы достаточно просто, не прибегая к пограничным алгоритмам.
Хыхы. Ну да, проще простого))
ну и наворотили, мое мнение что все как всегда намного проще, например вирусное распространение яндекс бара, в свое время гуглю это очень сильно помогла для создания свое образа мега супер крутого поисковика ;)
по шаблонам
У Вас нейросеть это искуственный интеллект, вообще не бывает не сочетаемого главное как это гармонично сделать, на любое правило можно указать исключиение.