truebusiness

Рейтинг
97
Регистрация
26.04.2018
big boy #:

Если прорабатывать промпт, структуру, скармливать модели данные, писать статью частями - шансов больше.

Подскажите плиз, как скармливать модели данные и обучать AI? Как выглядит этот процесс? Есть ли официальные/стандартные подходы данного процесса?

Руководство Гугла почитаю, спасибо. Оказывается много информации из официальных руководств можно подчерпнуть.

Сергей про е-ком #:
ТС, допустим, у меня в топ заходят статьи написанные ИИ с промптом на 70 страниц

Можно пожалуйста поподробней по этому пункту. Если будут тупые вопросы от меня, извиняюсь, не приходилось использовать AI для текстов.

У AI есть память, которая быстро заканчивается. И AI начинает забывать про правила, про которые вы упоминали ему ранее. Говоришь не делать одно, через 15 сообщений он может случайно "забыть" и сделать то, что вы запрещали ему ранее.

  1. Каким образом вы скормили ему правила на 70 страниц? 
  2. Есть какие то подходы по преднастройке AI? Я видел создают какие то markdown файлы в коревой папке проекта, где перечислены базовые все правила для AI и т.д.

У меня есть старые статьи, которые устарели и есть простор для их улучшений. 

Если я отдам эти статьи AI и попрошу:

  1. Исправить все ошибки в текстах.
  2. Улучшить читабельность/формулировки.
  3. Раскрыть больше информации в статьях (расширить, добавить новые заголовки и блоки текста).

Насколько такой подход адекватен? 

Меня волнует вопрос:

  • По каким маркерам поисковики определяют - это текст от AI или человека? Стиль написания текста? 
  • Если я попрошу AI дорабатывать статьи, придерживаясь моего стиля (автора текста), такие тексты будут человекоподобными?

Бред какой то. Я в соц сетях контент малолеток не встречаю и они меня не беспокоят. 

Контент малолеток видят другие малолетки, зачем они в это вмешиваются.

Сергей про е-ком #:
не так давно продавался сайт базаотдыха.ру или что-то типа такого. ) Там и трафик есть.

Нашел этот сайт. Выглядит как скучный статейник, много текста и картинок на каждую страницу. Как у них было с монетизацией? 

Сергей про е-ком #:
а смысл в чём?

На данный момент спрашиваю просто для интереса и расширения кругозора. 

Разве технический реально парсить десятки/сотни тысяч страниц для одного города? Не говоря уже про миллионы страниц если смотреть крупные области. 

Или тут только на парсинг закладывать огромный бюджет (серверы, прокси), что теряет всякий смысл затеи. 

Сергей про е-ком #:

Если запрос прикладной - сделать свой ЦИАН, просто забейте. )

Да мысль была прикладная, сделать местный ЦИАН но для мелких городов и определенные типы жилья (например аренда дома для отдыха за городом/в праздники/для корпоративов и т.д.). 

Но непонятно, откуда доставать объявления. Не парсить же Циан (небось еще и блочат молниеносно).

Похоже не один я заходит каждый час в панели вебмастеров (когда там данные обновляются раз в день по крайней мере). Как отучить себя от этой привычки?
Сергей про е-ком #:

Лет 13 назад уже была общая база, вряд ли по API. Там принцип был простой, агент продавца и агент покупателя приводили клиентов и заключали сделку. Не знаю, как сейчас с софтом обстоят дела, но выгрузка на сайт через yml не самая сложная задача. 

Но это агентства. Частники и руками добавляют, сам видел.  

Если yml база данных есть, понятное дело не трудно технический организовать работу сайта через БД. 

Вопрос - как получить доступ к этим базам? Есть какие то сервисы с доступом к этим базам? Или связываться с риелторами? 

Сергей про е-ком #:

Я тебя удивлю, но оффлайн софт существует куда дольше, чем агрегарторы. ) 

Оффлайн - в плане не на сайте, а обновляется онлайн. ) И, да, риелторы сами ведут листинг.

"Оффлайн - в плане не на сайте, а обновляется онлайн"

Не понял это предложение. У каждого своя частная база? Или есть открытая, общедоступная база или API? 

Риелторы условно ведут 100 квартир, но они же не могут вести тысячи квартир в одном крупном городе?

Всего: 374