Думаю, нужно было просто подождать, а это совпадение :)
Дизайнер - вы? :)
И у него пройдёт :)
Тогда тут надо не тестировать, а реализовывать конкретные рабочие планы.
Понятно.
С Вебмастером понятно, так и планирую. Я немного параноить стал по этому поводу. У меня есть два сайта в одной тематике. Вот если на менее трастовом статью разместить и она встанет в топ Яндекса — при размещении статьи по той же теме (даже копипастнуть можно) на более трастовом сайте — менее трастовый вылетает из выдачи даже не в топ-50, а вообще исчезает. На его место встаёт более трастовый. Объединяет сайты только номер телефона, к которому привязаны разные аккаунты Яндекса.
Наверное так выглядит аффилиат? Я просто думал, что он прилетает исключительно на коммерческие сайты.
Аффилиат был связан больше с коммерческими сайтами, на инфо сайтах (статейниках) аффилиатов не было.
Хотя я встречался и с аффилиатом муниципальных учреждений.
Для статейников и сателлитов может быть сеточный бан (если обнаружатся сеточные признаки), но он не связан с позапросными и постраничными ограничениями, там просто домен не индексируется и всё.
Конкретно для двух сайтов я думаю проблем не будет.
Всё по классике.
Яндекс
Гугл
Это скорее организационный момент, чем творческий. Дизайнеру важно сделать работу и попасть в ожидания заказчика.
PageSpeed Insights пишет:
"Файл robots.txt недействителен Не удалось скачать файл robots.txt.
Если файл robots.txt поврежден, поисковые роботы могут не распознать ваши инструкции по сканированию или индексации сайта. Подробнее о файле robots.txt…"
Из-за этого снимается 10 пунктов в "Поисковая оптимизация"
Попробуйте проверить ещё раз.
У меня вот такой результат.
И это неслучайно. Чтобы отвадить пытливые умы от идеи на потоке генерировать AI тексты, превращать их в MFA заработок и масштабировать свою деятельность.
Эту информацию в общем виде можно почерпнуть из работы, которая называется "Генеративные модели являются неконтролируемыми предикторами качества страницы: Исследование колоссального масштаба" от специалистов из Гугла.
В сети этот материал есть (у меня тоже, если кому нужно - скину в личку).
В нём вполне популярно объясняется с работа нейрогенеративными моделями и подходы в лингвистическом и в качественном анализе текста.
Сервисы не определяют происхождение текстов.
Сервисы определять схожесть с ИИ. В этом существенная разница.
Никого не интересуют чёткие границы, потому что универсально для всех случаев их определить невозможно и в общем не нужно.
Например, если вы создаете текст с помощью ИИ, а потом его дорабатывает копирайтер, его как считать, авторским текстом или это по-прежнему ИИ?
Или наоборот, проф. копирайтер использует ИИ для наброски тезисов, рабочей "рыбы", а потом выдаёт за авторский текст, его нужно определять как частичный продукт ИИ?
ИИ инструментарий уже используют все прогрессивные специалисты: копирайтеры, маркетологи, seo-шники, программисты, дизайнеры, фотографы, журналисты, блогеры и пр.
ИИ уже часть профессиональной среды. Вопрос только в том, какого качества итоговый результат.
Не только подымает, но и скорее всего убережет от поступательного деиндекса.
Условия максимально одинаковые: тематика одна и также (структура, заголовки, урлы, смысловое изложение), в один день добавить в Вебмастер. Правда с Вебмастером желательно в разных аккаунтах.
В общем, было бы желание.
Так, было бы любопытно посмотреть на формирование запросного индекса, ранжирование по одному СЯ.
На ранних этапах весьма было бы интересно посмотреть за динамикой индексации, роста видимости (если будет), разница позапросной видимости и т.д.
В общем, я думаю это не сыграет ровно никакой роли, потому что первичность ответа от ИИ не имеет какой-либо приоритетности.
Хотя можно и чередовать, это на самом деле не принципиально. Тут как кому удобно.
Чисто умозрительно удобнее считать, что сайт "А", условно, оригинал, а сайт "Б" - рерайт оригинала, но рерайт уникальный.
Да, забыл указать, что уникальность важно контролировать и не опускать ниже 80%.
Если только для того, чтобы протестировать гипотезы, то сделайте два сайта.
Оба по одной тематике, оба - новореги, оба с генерацией контента через ИИ.
Сайт "А" - контент на основе первичных ответов, сайт "Б" - на основе ИИ рерайта материалов сайта "А".
Делайте одинаковые заголовки, одинаковую структуру, одинаковую URL вложенность и адреса; контекстное содержание (кроме заголовков) - разное.
Сайт "А" просто последовательно увеличиваете кол-во статей.
Сайт "Б" в том же темпе и той же последовательности размещаете статьи в том же порядке, но ещё делает поле комментариев, заказываете активности, возвраты на сайт, обсуждения в комментариях. Если решитесь на такой эксперимент - готов посодействовать, организую профили, проведу активности.
Цель - поступательно узнать на каком этапе и насколько сайт "Б" будет опережать в поисковой видимости сайт "А" и будет ли.
Без ссылок, без перелинковки.
Это интересный и познавательный эксперимент.