- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Вопрос для всех, кто сталкивался с работой авторов на сайте. С появлением генеративных ИИ, таких как ChatGPT, возникает всё больше вопросов о том, как различать тексты, написанные людьми, и сгенерированные машинами. Мне интересно, какие инструменты и подходы используют другие владельцы сайтов для контроля за контентом.
На данный момент я смотрю на разные решения, но хочется понять, есть ли реально рабочие сервисы для определения ИИ-контента? Как вы защищаете свой сайт от публикации непроверенных или сгенерированных текстов?
Буду благодарен за ваши советы и опыт!
Мне интересно, какие инструменты и подходы используют другие владельцы сайтов для контроля за контентом.
Не надо быть семи пядей во лбу, чтобы прочитать и понять, что писало какое-то ИИ.
Не надо быть семи пядей во лбу, чтобы прочитать и понять, что писало какое-то ИИ.
Важно добавить - в достаточном объёме данных.
На примере простых предложений это невозможно.
manderson :
На данный момент я смотрю на разные решения, но хочется понять, есть ли реально рабочие сервисы для определения ИИ-контента? Как вы защищаете свой сайт от публикации непроверенных или сгенерированных текстов?
Буду благодарен за ваши советы и опыт!
text.ru - в помощь, работает на индексе Гугла.
Если ИИ задать условие уникальность - создает 100% уникальный текст, а часто ворует с сайтов куски текстов.
Копирайтеров можно смело убирать - текст от ИИ + немного доработать вручную ..
А в чем принципиальная разница для пользователя на сайте контент от ИИ или автора? А для поисковика? Т.е вы уверены, что поисковики где то ставят галочку (авторский или ИИ)??
На мой взгляд, материал должен быть информационным, что бы пользователь дочитывал не только заголовки, и будет вам счастье.
Прошли времена, когда можно было за скромную плату заказать рерайта чего угодно и собирать "среднечастотный" поисковый трафик на рерайтные статьи без внешнего ссылочного.
Говноконтента стало больше, но пишет его ИИ. Вкалывают роботы, а не человек (тм) :-)))))))
Это все есть в интернете, фразы примерно одной длины, странные речевые обороты, много так называемой "воды" , это только то что вспомнил с ходу.
Все зависит от Промта. Можно попросить убрать ИИ воду и частые речевые обороты, прикинуться экспертом в какой-то области или наделать стилистических ошибок в тексте, кое-где попросить поставить орфографические ошибки, опечатки. Много чего можно прикольного придумать. Тогда от человеческой писанины и не отличишь.
Не надо быть семи пядей во лбу, чтобы прочитать и понять, что писало какое-то ИИ.
Кстати, да, там и детектить нечего. Шлак ИИ, видно сразу, вода, абстракция, бестолковые, слова, типа - наш/наше, ваше, вам и прочие.
Например, вот это - ИИ