- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
С генеративным контентом Google точно будет что-то делать. Последний апдейт — это пристрелка. В течение года или двух скорее всего выкатят какое-то жёсткое решение. Яндекс скорее всего поступит так же.
Тут всё просто — не будет Google тратить огромные ресурсы на индексацию бесконечного потока контента. Когда говорят, что в приоритете качество контента, а не кем он создан — ну это заблуждение. Раньше все тексты писались руками, а потому их количество имело какое-то разумное число. Но когда тексты стали генерить, и они стали появляться в совершенно безумных объёмах — это уже совсем другая ситуация.
У поисковиков два пути. Первый: бесконечно наращивать мощности и увеличивать затраты, чтобы успевать индексировать и ранжировать всю эту лавину текстов, которая только возрастает. И тут встаёт вопрос — а ради чего?
Второй: разработать какой-то быстрый способ детекта и всю генерёнку пустить под нож. Вообще всю, а вместе с ней и ручной некачественный контент. И это будут не те детекты, которые висят в нете, а какой-то свой, непубличный инструмент. Так будет намного дешевле, чем разбираться с генерёнкой от каждой домохозяйки.
Просто дешевле, вот ключевой момент, который нужно уяснить.
Второй: разработать какой-то быстрый способ детекта и всю генерёнку пустить под нож. Вообще всю, а вместе с ней и ручной некачественный контент
Думаю они сейчас сидят и не знают что делать.
Да, не знают - но точно ищут решение.
Тут для аналогии можно вспомнить вирус Эболы. До 2014 года он по большому счёту никого не парил. Но когда вирус стал расползаться по миру, то сразу перебросили на него ресурсы и к 2015 году появилась вакцина, если кто-то помнит.
Для Google генерёнка тот же вирус, так что я думаю сейчас на решение этой проблемы брошено огромное количество ресурсов и решение будет. Возможно в итоге пострадают не только генерёнщики, даже скорее всего, но это будет отнесено на допустимый ущерб.
Для Google генерёнка тот же вирус, так что я думаю сейчас на решение этой проблемы брошено огромное количество ресурсов и решение будет. Возможно в итоге пострадают не только генерёнщики, даже скорее всего, но это будет отнесено на допустимый ущерб.
да, я так же говорил в самом начале как только 3,5 жпт вышел. Что будут что-то делать. Вполне допускаю что могут рерайт под откос пустить. Останется качественная генеренка и копирайт. Может ограничат по колву однотипных статей одновременно
ЗЫ. И вот кто пользуется ответами от GPT чата наверняка заметили, что не на все вопросы отвечает верно и корректно, иногда врёт безбожно.. попробуйте спросить к примеру: " Можно ли в PHP match вставлять блок кода для обработки варианта?", а потом проверьте)))
ИИ сказал, что масса растений на Земле больше, потому что целлюлоза имеет высокую плотность. Всю жизнь биологи думали, что фитомассы больше потому что и животным надо на еду и самим растениям на жизнедеятельность. Там даже закон про какие-то 10% КПД на каждый следующий уровень пищевой цепи. А оно вон как оказывается все просто - целлюлоза тяжелая. И не поспоришь.
Ведь это уже практиковалось, в том же ЖЖ. Правда народ начал писать там обычные статьи как на инфо сайтах.
ИИ накроется? Конечно! Потому что это никакой не И. И предпосылок к тому, что он станет И - пока нет.
А что это по твоему тогда? Вот 100% видно, что ты даже не интересовался этой темой, а просто выдвинул своё экспертное мнение. А как же, к примеру видео, сгенерированное нейросетью, никто её не учил нашей физики, но она отлично понимает как должны двигаться те или иные материалы, когда на них дует ветер или их что-то толкает, этому их не обучали!!!! А как же роборука под управлением гпт4 которая определяет какой предмет перед ней и какой нужно взять? Да, они ограничены, но это по понятным причинам, можно сколько угодно это отрицать, но оно уже тут, тут с нами и никуда уже не исчезнет, а будет только развиваться
С генеративным контентом Google точно будет что-то делать. Последний апдейт — это пристрелка. В течение года или двух скорее всего выкатят какое-то жёсткое решение. Яндекс скорее всего поступит так же.
Конечно будут что-то делать, все компании усиленно работают над ИИ продуктами и их дальнейшим внедрением в свои сервисы.
У поисковиков два пути. Первый: бесконечно наращивать мощности и увеличивать затраты, чтобы успевать индексировать и ранжировать всю эту лавину текстов, которая только возрастает. И тут встаёт вопрос — а ради чего?
Второй: разработать какой-то быстрый способ детекта и всю генерёнку пустить под нож. Вообще всю, а вместе с ней и ручной некачественный контент. И это будут не те детекты, которые висят в нете, а какой-то свой, непубличный инструмент. Так будет намного дешевле, чем разбираться с генерёнкой от каждой домохозяйки.
Скорее всего будут использовать второй вариант.
Уже даже сейчас его используют, судя по обилию вопросов "страница просканирована, но не проиндексирована". Такие же алгоритмы с ИИ, будут решать что нужно пользователям, а что нет.
Все идет к тому, что ИИ будет бороться с ИИ. Как говорится - против лома нет приёма, если нет другого лома ...
все компании усиленно работают над ИИ
Я говорил про другое.