Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Sutener :

PageSpeed Insights пишет:

"Файл robots.txt недействителен Не удалось скачать файл robots.txt.

Если файл robots.txt поврежден, поисковые роботы могут не распознать ваши инструкции по сканированию или индексации сайта. Подробнее о файле robots.txt…"

Из-за этого снимается 10 пунктов в "Поисковая оптимизация"

Попробуйте проверить ещё раз.

У меня вот такой результат.


Huracan #:
Однако многие сайты с контентом от ИИ определяются гуглом и падают до нуля… хотя на начальных этапах росли.

И это неслучайно. Чтобы отвадить пытливые умы от идеи на потоке генерировать AI тексты, превращать их в MFA заработок и масштабировать свою деятельность.

Alekser #:
Тут нужно уяснить одну простую вещь — никто понятия не имеет как именно google детектит ИИ-шность

Эту информацию в общем виде можно почерпнуть из работы, которая называется "Генеративные модели являются неконтролируемыми предикторами качества страницы: Исследование колоссального масштаба" от специалистов из Гугла.

В сети этот материал есть (у меня тоже, если кому нужно - скину в личку).

В нём вполне популярно объясняется с работа нейрогенеративными моделями и подходы в лингвистическом и в качественном анализе текста.

Huracan :
Проблема может быть в том, что Google не может отделить ИИ
Huracan :
через 3 известных сервиса AI Detector я прогнал тексты живых людей
Huracan :
И во всех случаях детекторы показали, что от 68% и выше, этот текст написан ИИ.

Сервисы не определяют происхождение текстов.

Сервисы определять схожесть с ИИ. В этом существенная разница.

Никого не интересуют чёткие границы, потому что универсально для всех случаев их определить невозможно и в общем не нужно.

Например, если вы создаете текст с помощью ИИ, а потом его дорабатывает копирайтер, его как считать, авторским текстом или это по-прежнему ИИ?

Или наоборот, проф. копирайтер использует ИИ для наброски тезисов, рабочей "рыбы", а потом выдаёт за авторский текст, его нужно определять как частичный продукт ИИ?


Huracan :
Есть ли у кого опыт работы с ИИ текстами, которые получили хорошие позиции и трафик в долгосрочной перспективе?

ИИ инструментарий уже используют все прогрессивные специалисты: копирайтеры, маркетологи, seo-шники, программисты, дизайнеры, фотографы, журналисты, блогеры и пр. 

ИИ уже часть профессиональной среды. Вопрос только в том, какого качества итоговый результат.

Hitechrem #:
Комментарии и движуха на сайте  подымает

Не только подымает, но и скорее всего убережет от поступательного деиндекса.


Hitechrem #:
по скорости опережения сайта Б от А это зависит больше не от эксперимента а от тематики и того как быстро это подхватят ПС 

Условия максимально одинаковые: тематика одна и также (структура, заголовки, урлы, смысловое изложение), в один день добавить в Вебмастер. Правда с Вебмастером желательно в разных аккаунтах.

В общем, было бы желание.

Так, было бы любопытно посмотреть на формирование запросного индекса, ранжирование по одному СЯ. 

На ранних этапах весьма было бы интересно посмотреть за динамикой индексации, роста видимости (если будет), разница позапросной видимости и т.д.  

livetv #:
Лучше чередовать может?

В общем, я думаю это не сыграет ровно никакой роли, потому что первичность ответа от ИИ не имеет какой-либо приоритетности.

Хотя можно и чередовать, это на самом деле не принципиально. Тут как кому удобно.

Чисто умозрительно удобнее считать, что сайт "А", условно, оригинал, а сайт "Б" - рерайт оригинала, но рерайт уникальный.

Да, забыл указать, что уникальность важно контролировать и не опускать ниже 80%.

Amateur Ninja :
Можете накидать каких-то идей, что можно по разному сделать на сайтах.

Если только для того, чтобы протестировать гипотезы, то сделайте два сайта.

Оба по одной тематике, оба - новореги, оба с генерацией контента через ИИ. 

Сайт "А" - контент на основе первичных ответов, сайт "Б" - на основе ИИ рерайта материалов сайта "А".

Делайте одинаковые заголовки, одинаковую структуру, одинаковую URL вложенность и адреса; контекстное содержание (кроме заголовков) - разное.

Сайт "А" просто последовательно увеличиваете кол-во статей.

Сайт "Б" в том же темпе и той же последовательности размещаете статьи в том же порядке, но ещё делает поле комментариев, заказываете активности, возвраты на сайт, обсуждения в комментариях.  Если решитесь на такой эксперимент - готов посодействовать, организую профили, проведу активности.

Цель - поступательно узнать на каком этапе и насколько сайт "Б" будет опережать в поисковой видимости сайт "А" и будет ли.

Без ссылок, без перелинковки.

Это интересный и познавательный эксперимент. 

Sdrozdov #:
Текста нет. Заголовок, фильтры, ссылки на подразделы "узкие, широкие, высокие и пр" и листинг.

Надо бы конечно для убедительности взглянуть, но я не думаю, что это переоптимизация.

Sdrozdov #:
В зоне ссылок такая картинка.  Но так у всех - 32-40 товаров в среднем на листинге.

А текстовая зона как выглядит? Она вообще есть или просто заголовок и листинг?

ryzubex #:
такие заголовки могут ли считаются с seo спамом и попадать под фильтр?

Всё будет зависеть от того в какой мере они будут заспамлены.

Маркетплейсы это всё-таки одна история, а заголовки страниц у сайтов (особенно у молодых) - другая.

Есть конкретные рекомендации от Яндекса для title заголовков, там конкретно написано,


Всего: 12692