PageSpeed Insights пишет:
"Файл robots.txt недействителен Не удалось скачать файл robots.txt.
Если файл robots.txt поврежден, поисковые роботы могут не распознать ваши инструкции по сканированию или индексации сайта. Подробнее о файле robots.txt…"
Из-за этого снимается 10 пунктов в "Поисковая оптимизация"
Попробуйте проверить ещё раз.
У меня вот такой результат.
И это неслучайно. Чтобы отвадить пытливые умы от идеи на потоке генерировать AI тексты, превращать их в MFA заработок и масштабировать свою деятельность.
Эту информацию в общем виде можно почерпнуть из работы, которая называется "Генеративные модели являются неконтролируемыми предикторами качества страницы: Исследование колоссального масштаба" от специалистов из Гугла.
В сети этот материал есть (у меня тоже, если кому нужно - скину в личку).
В нём вполне популярно объясняется с работа нейрогенеративными моделями и подходы в лингвистическом и в качественном анализе текста.
Сервисы не определяют происхождение текстов.
Сервисы определять схожесть с ИИ. В этом существенная разница.
Никого не интересуют чёткие границы, потому что универсально для всех случаев их определить невозможно и в общем не нужно.
Например, если вы создаете текст с помощью ИИ, а потом его дорабатывает копирайтер, его как считать, авторским текстом или это по-прежнему ИИ?
Или наоборот, проф. копирайтер использует ИИ для наброски тезисов, рабочей "рыбы", а потом выдаёт за авторский текст, его нужно определять как частичный продукт ИИ?
ИИ инструментарий уже используют все прогрессивные специалисты: копирайтеры, маркетологи, seo-шники, программисты, дизайнеры, фотографы, журналисты, блогеры и пр.
ИИ уже часть профессиональной среды. Вопрос только в том, какого качества итоговый результат.
Не только подымает, но и скорее всего убережет от поступательного деиндекса.
Условия максимально одинаковые: тематика одна и также (структура, заголовки, урлы, смысловое изложение), в один день добавить в Вебмастер. Правда с Вебмастером желательно в разных аккаунтах.
В общем, было бы желание.
Так, было бы любопытно посмотреть на формирование запросного индекса, ранжирование по одному СЯ.
На ранних этапах весьма было бы интересно посмотреть за динамикой индексации, роста видимости (если будет), разница позапросной видимости и т.д.
В общем, я думаю это не сыграет ровно никакой роли, потому что первичность ответа от ИИ не имеет какой-либо приоритетности.
Хотя можно и чередовать, это на самом деле не принципиально. Тут как кому удобно.
Чисто умозрительно удобнее считать, что сайт "А", условно, оригинал, а сайт "Б" - рерайт оригинала, но рерайт уникальный.
Да, забыл указать, что уникальность важно контролировать и не опускать ниже 80%.
Если только для того, чтобы протестировать гипотезы, то сделайте два сайта.
Оба по одной тематике, оба - новореги, оба с генерацией контента через ИИ.
Сайт "А" - контент на основе первичных ответов, сайт "Б" - на основе ИИ рерайта материалов сайта "А".
Делайте одинаковые заголовки, одинаковую структуру, одинаковую URL вложенность и адреса; контекстное содержание (кроме заголовков) - разное.
Сайт "А" просто последовательно увеличиваете кол-во статей.
Сайт "Б" в том же темпе и той же последовательности размещаете статьи в том же порядке, но ещё делает поле комментариев, заказываете активности, возвраты на сайт, обсуждения в комментариях. Если решитесь на такой эксперимент - готов посодействовать, организую профили, проведу активности.
Цель - поступательно узнать на каком этапе и насколько сайт "Б" будет опережать в поисковой видимости сайт "А" и будет ли.
Без ссылок, без перелинковки.
Это интересный и познавательный эксперимент.
Надо бы конечно для убедительности взглянуть, но я не думаю, что это переоптимизация.
А текстовая зона как выглядит? Она вообще есть или просто заголовок и листинг?
Всё будет зависеть от того в какой мере они будут заспамлены.
Маркетплейсы это всё-таки одна история, а заголовки страниц у сайтов (особенно у молодых) - другая.
Есть конкретные рекомендации от Яндекса для title заголовков, там конкретно написано,