- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Нафига очередную помойку создавать. Поведенческие будут гарантированно паршивыми. Информативность такого контента практически нулевая. Не говоря уже о том что править придется много на воду и тошноту.
Что воду, что тошноту, нейронка и сама может убрать, если попросить.
А насчёт "помойки" и "нулевой информативности", кто мешает подправить написанный текст?
Я использую нейросеть для сбора инфы или для выделения главного из кучи гов... текста. Получаю заготовки и всю нужную инфу — переписываю, как мне надо — структуирую — навожу красоту. Это разве "разведение помойки"? Ничем не отличается от прочих инструментов. Или разрабам и кодерам дак можно использовать нейронку, а копирайтерам нет?
Какой принцип работы детекторов на ИИ? Ведь гпт использует те же самые речевые обороты взятые у авторов.
AI для детекта AI😂
Например, некоторые в базе используют гугловский(!) BERT (bidirectional encoder representations from transformers), натасканный на кастомных датасетах. Работает на всех публичных моделях, ошибки минимальны.
AI для детекта AI😂
Например, некоторые в базе используют гугловский(!) BERT (bidirectional encoder representations from transformers), натасканный на кастомных датасетах. Работает на всех публичных моделях, ошибки минимальны.
В принципе, если на вопрос, например, какие фрукты можно замораживать в морозилке, ответ мне даст нейронка, мне будет все равно, по большому счету.
Нафига очередную помойку создавать. Поведенческие будут гарантированно паршивыми. Информативность такого контента практически нулевая. Не говоря уже о том что править придется много на воду и тошноту.
Уровень качества контента в нейросети растет и многое зависит от составления правильных промтов, но все равно нужно делать вычитку контента и удалять ненужный текст.
Скармливаете чату примеры качественных на ваш взгляд статей, даете ему команду запомнить формат и речевые обороты, а также особенности языка отправленных статей. И он выдает нормальный контент. Но, конечно, гопота - не волшебная палочка и над контентом в любом случае работать надо.
Различают ли вообще поисковики копирайт статьи от нейросетей?
Скажем так, Яндекс должен отличать, даже пруф есть, но я найти его не могу... на старом Серче помогли бы, на современном, сильно сомневаюсь. Искать нужно доклад Яндекса на английском от 2010-2014 года, на тему математического ожидания появления лемм в тексте. Там на 146% есть прямые ответы на все ваши вопросы.
Базовый смысл в том, что они знают как пишут в русском рунете, что, с одной стороны, не может не давать профита в паливе переводов, с другой стороны, точно должно палить любую нейронку. Базу они добирали дважды за последний период. Видимо наговнопостили столько что пришлось усреднять смещение корпусов)))
Есть ли подобные замуты в Гугле и если есть, то есть ли они для русских корпусов, я не знаю...
Все мои тексты, написанные лично мною, опознаются как 85% нейросеть.
Неа, нет русских опознавателей, как нет и баз под них, а у кого есть, тот не поделится еще долго))))
Общий посыл поста: ребзя помогите найти доклад)))
В чём причина такой паранойи? Думаешь, Гугл индексирует тексты из веб-интерфейса? Лол.