- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
gem-бот с базой знаний
В чем отличия и плюсы/минусы по сравнению с Custom GPT?
Можно начать со ссылки из моей подписи в качестве отправной точки.
Прочитал вашу статью, очень многого узнал. Я бы даже сказал почувствовал себя человеком, который понимает, как создавать AI тексты теперь.
Можно пожалуйста вопрос задам вам по свежей памяти. По разделу:
Собираем данные
Парсим или собираем данные вручную.
К данным относятся различные технические характеристики, цифры, статистика и прочие материалы, на основании которых можно написать статью.
Это важная часть написания материала. Не надейтесь на базу знаний ИИ - она может быть либо устаревшей, либо не факт, что мегамозг достанет из своих чертог разума именно то, что нужно Вам.
1) Как вы этими данными кормите ИИ?
2) Вопрос по подходу:
В рамках одной статьи можно кормить всё, главное по делу. Но чем больше ему скормить, тем больше он будет путаться. Так что нужно держать некий баланс. А если кормить ему данные частями, то он не сможет предложить нормальную структуру и связанность.
По моему опыту он спокойно держит контекст в ~5-10 материалов (статьи, транскрипции и тд). И этого часто вполне достаточно.
Не проще ли условно спарсить контент 5-6 лучших статей конкурентов.
Не проще, чем что? Источники знаний (контекст) для статьи может быть каким угодно. Проблема в том, что в выдаче переписанные по 100500 раз друг у друга материалы, которые зачастую даже никто не вычитывает. Чем разнообразней и достоверней источники - тем лучше.
Но на новой версии меня Gemini победило как минимум доступом к базе знаний поискового индекса
Я Gemini не особо пользовался, как он это делает? В ChatGPT так-то тоже к поиску есть доступ, но он, если не ошибаюсь, Бингом пользуется.
A Gemini получается просто в мозгах у себя роется и никуда не ходит по сайтам? Как у него это реализовано?
В рамках одной статьи можно кормить всё, главное по делу. Но чем больше ему скормить, тем больше он будет путаться. Так что нужно держать некий баланс. А если кормить ему данные частями, то он не сможет предложить нормальную структуру и связанность.
По моему опыту он спокойно держит контекст в ~5-10 материалов (статьи, транскрипции и тд). И этого часто вполне достаточно.
Не появились ли нынче на рынке AI копирайтеры, которые дешевле и быстрее пишут качественные тексты?)
Недавно узнал, что etxt биржа закрылась, раньше я только там заказывал тексты.
P.s. У вас на скриншотах - на 20 статей 2000 трафика с Яндекс, и 60 трафика в сутки с Google уже через месяц, обалдеть)😀
Подскажите плиз по опыту, сколько у вас времени уходит на создание статьи в 3к слов например?
Генерация, проверка (вычитка), исправления, оформление, поиск/генерация картинок, публикация - где-то около часа-полтора. К этому добавьте создание семантического ядра (без него всё еще никуда), на которое может уйти еще несколько дней.
Можно ускорить генерацию и публикацию, но боюсь качество может пострадать. Я еще не настолько уверен, что ИИ не нагенерирует галлюцинаций. Сколько и чем бы я его не кормил, в каждой статье приходится исправлять какой-то бред (надо попробовать gemini, возможно он дорос уже). А цена ошибки в SEO очень велика - исправить можно что-то быстро, а вот переиндексация и пересчет кармы сайта может занять месяцы (особенно в гугле). Лучше потратить чуть больше времени на публикацию, чем потом всё это разгребать и ждать у моря погоды.
Не появились ли нынче на рынке AI копирайтеры, которые дешевле и быстрее пишут качественные тексты?
Не интересовался, скорее всего появились. Так и сервисы уже появились, которые генерят тексты пачками. Но у них точно такие же проблемы, как и при полу-ручной генерёжке, а за частую нельзя этот комбайн под себя полноценно настроить.
Генерация, проверка (вычитка), исправления, оформление, поиск/генерация картинок, публикация - где-то около часа-полтора. К этому добавьте создание семантического ядра (без него всё еще никуда), на которое может уйти еще несколько дней
Справедливости ради, допустим AI может через доработки и инструкции создать качественный текст. Но AI никогда не создаст статью вроде вашей на блоге, которую я читал. Все таки личный опыт, понимание и подходы не заменит никакая машина.
Спасибо большое за ответы, пойду спать! Слишком много новой информации на сегодня))