- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Да ничего мы не усредняли, Вы просто поняли как-то загадочно.
Тогда давайте говорить прямо. Если бы у вас получилось создать модель "плохих ссылок", то вы бы получили набор факторов, который в 100% случаев приводил бы к выпадению ссылок. У вас же получилось 5-10-20 % (вы сами не говорите, сколько точно, но ясно, что немного), а значит в вашей модели очень много неучтенных факторов (в несколько раз больше, чем учтенных) и точность не выше того, что можно получить экспертной оценкой.
И кроме ссылочных и текстовых мы ничего больше не знаем?
Пользовательские? Поведенческие? (и тут его газа загорелись уже совершенно бешеным огнём :))
🍿
(Одного боюсь - закроют топег к бубеням, с началом рабочей недели... ни разделу не соответствует, ничему.)
в нейропрограмминге уже более 8-и лет
А распознаванием капчи не занимались? Переодически ищу людей для решения вот этой задачи, но что-то как-то вяло идёт процесс.
Вообще, если кто чем может помочь, в озвученных там проблемах - пишите, стучите, звоните. Мощностей хоть и всё больше, но ПС тоже звереют не по-деццки.
Я в этой ветке уже раз пять наверное писал жирным шрифтом, но могу и в шестой написать: НС не определяет АГС.
Вы передергиваете. Изначально вы вели беседу о том, что определяете вероятность выпадания страниц на основе имеющихся у вас сайтов. Одни сайты имели один полюс - ссылки будут выпадать, другие второй полюс - ссылки не будут выпадать. То, что это определение или не определение АГС - это только обобщение, чтобы было понятно всем остальным в чем суть, но факт обучения на двух имеющихся выборках - ключевой момент в ваших высказываниях.
Об этом я вам и говорю. Для определения сайтов на которых будут выпадать страницы, а на которых нет - не подходит сеть с четким входом, потому, что для этой задачи нет четкого входа и поэтому нельзя заранее спрогнозировать факторы (их точное количество) и обучить сеть по ним.
У яши гарантировано генетическая структура и она мутирует с неизвестной нам скоростью и постоянно менять факторы и переобучать прямую сеть - не хватит никаких ресурсов, ни людских ни машинных.
XPraptor добавил 30.08.2010 в 02:51
А распознаванием капчи не занимались?
Да эта задача вроде давно уже решена (антик.. уже по моему много лет работает исправно). Зачем вам повторять однажды пройденный путь? Это очень дорого, да и процесс трудоемкий. Вам никто не даст готовый алгоритм, который сможет постоянно распознавать новые виды. Этот софт должен постоянно корректироваться и дообучатся.
А на счет заниматься - занимался как то, но обучал только для нужных мне сайтов, а не универсально.
Чувствую ребят щас по втрому кругу пойдет, а сегодня выиграет выносливый. Кстати если перечитать ветку, то уже ни раз по второму кругу проходило. И рекомендации по учебе матматики я уже даже не десятый раз читаю.
Ну а завтре спросють дети,
Навещая нас с утра:
"Папы, что сказали ети
Кандидаты в доктора?"
(с) В. Высоцкий
:)
Логика зачетная. :D
Я в этой ветке уже раз пять наверное писал жирным шрифтом, но могу и в шестой написать: НС не определяет АГС. :D
Как можно вообще общаться с людьми, которые приписывают мне свои выводы, или свои предположения? Только потому, что на другие варианты у них моска не хватает. И при этом я должен доказывать, что не дурак. Вот же ржака... :D
Немного непонятно, как Вы выбирали сайты, которые не выпадут из индекса (для обучающей выборки, да и для тестовой тоже). Можно немного пояснить ?
G00DMAN прав, вульф нет.
XPraptor, а зачем её постоянно менять? такую задачу нет смысла даже ставить, речь ведь не идет о полном реинженеринге. Да и фильтр вроде пока не такой уж непредсказуемый.
Если не стоит задача конечно полностью реинженерить фильтр, для сохранения всех рабочих доноров, то достаточно просто понаблюдать за результатами работы, и если результат устранивает, то можно на какое то время юзать, и так покуда устраивает.
Да эта задача вроде давно уже решена
И для Яндекса? Готов купить решение.
Ну а завтре спросють дети,
Навещая нас с утра:
"Папы, что сказали ети
Кандидаты в доктора?"
(с) В. Высоцкий
Да пора уже заканчивать, не получится ничего из этого спора путного, разве что надоедите друг другу так, что поругаетесь.
Dubovoj, Вы не много не понимаете системы. G00DMAN опирался в своей сети на принцип обучения по, ИМ, отобранным сайтам, которые уже он мог определить к какому типу они принадлежат. А мутация яшиного алгоритма может при следующем витке сделать часть сайтов, которые были у него в одном полюсе - сайтами другого полюса. То, есть, сайты отобранные G00DMAN-ом как вылетающие, станут с новым витком стабильными, а его обучение будет их определять как вылетающие. В этом вся суть мутации и невозможности обучить сеть на эту тему по двум имеющимся заранее выборкам.
XPraptor добавил 30.08.2010 в 03:10
юни, Нет решения готового, я же вам написал. Нужно постоянно следить за этим софтом и править его все время. А по поводу вашего запроса для чего оно вам - так я в личку вам написал решение более простое.