И ещё вопрос, сайты в итоге деиндексируются? Или только из выдачи пропадают?
Тоже экспериментирую с ИИ контентом, но не в таких масштабах, как Вы. Данных для анализа маловато, а закономерности выстроить хочется.
Деиндекса нет. Остальные выкосило 4.02
домены и дропы и свежереги
ссылочное детское - анализаторы + форумы
кол-во контента от 70 до 500 статей. статьи заливались 1 раз. только на 1 сайте добавлял статьи и вот что из этого вышло. реакция гугла 3 дня
А переписывали статьи, чтобы очеловечить? Или так кидали тексты, без проверки?
а вот и да))) 3.5 именно таким и делал))
что-то это подозрительно. Да и как гугл может определить, что это ChatGPT, где гарантии, что это не человек написал?
Нет таких гарантий. Сколько раз все эти определялки на мой собственный англ текст жаловались, что он AI generated...
В принципе, они жалуются на любую официальщину. На пресс-релизы, например, постоянно.
Если не секрет — какая длина у промта и какая у статьи на выходе?
странный вопрос конечно, но те что остались живы с гпт 3.5 там у 2 сайтов промты даже промтами не назвать, а у тех что посвежее промты с ролями, целями, ключами, типом повествования и прочие нюансы
так Андрюха и последние вопросы - инфо/ коммерц ? лонги/обычные ? 20 сайтов чем то связаны ?
инфо, обычные.
да я в "сетку с трафиком" решил поиграть) проиграл))
между собой сайты никак не связаны, не слинкованы. не вордпресс, шаблоны стилей и прочее разные
в том и дело что нет. 4 мини и 4о как раз "очеловечено" сделано. а старые сайты (больше года), которые тестово гонялись 3.5 еще - они даже рост показывают
По личному опыту или наблюдаете за сторонними сайтами?
по 20 своим сайтам
Как же он определил. что они сгенерированные?