Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Sutener #:
Это что за магия??? Я столько мучался и пытался разобраться, а нужно было просто топик тут создать, чтобы всё изменилось!

Думаю, нужно было просто подождать, а это совпадение :)


Sutener #:
Дизайнер работал строго по ТЗ. Третья буква - это R. Настаиваю на этом😉. Просто у меня странное чувство юмора😋

Дизайнер - вы? :)


Sutener #:
Прости нас человек из будущего, у меня само прошло...

И у него пройдёт :)

Amateur Ninja #:
Нет, это не только для тестов, т.е. это будут нормальные рабочие сайты

Тогда тут надо не тестировать, а реализовывать конкретные рабочие планы.


Amateur Ninja #:
В общем, не синтетические тесты.

Понятно.


Amateur Ninja #:

С Вебмастером понятно, так и планирую. Я немного параноить стал по этому поводу. У меня есть два сайта в одной тематике. Вот если на менее трастовом статью разместить и она встанет в топ Яндекса — при размещении статьи по той же теме (даже копипастнуть можно) на более трастовом сайте — менее трастовый вылетает из выдачи даже не в топ-50, а вообще исчезает. На его место встаёт более трастовый. Объединяет сайты только номер телефона, к которому привязаны разные аккаунты Яндекса.

Наверное так выглядит аффилиат? Я просто думал, что он прилетает исключительно на коммерческие сайты.

Аффилиат был связан больше с коммерческими сайтами, на инфо сайтах (статейниках) аффилиатов не было.

Хотя я встречался и с аффилиатом муниципальных учреждений.

Для статейников и сателлитов может быть сеточный бан (если обнаружатся сеточные признаки), но он не связан с позапросными и постраничными ограничениями, там просто домен не индексируется и всё.

Конкретно для двух сайтов я думаю проблем не будет.


Amateur Ninja #:
По поводу структуры и урлов — как сейчас Яндексу и Гуглу больше нравится?

Всё по классике.

Яндекс

Гугл

VasiliyRusakov #:
Да и большинство дизайнеров просят десяток референсов, чтобы хоть что-то начать.

Это скорее организационный момент, чем творческий. Дизайнеру важно сделать работу и попасть в ожидания заказчика.

Sutener :

PageSpeed Insights пишет:

"Файл robots.txt недействителен Не удалось скачать файл robots.txt.

Если файл robots.txt поврежден, поисковые роботы могут не распознать ваши инструкции по сканированию или индексации сайта. Подробнее о файле robots.txt…"

Из-за этого снимается 10 пунктов в "Поисковая оптимизация"

Попробуйте проверить ещё раз.

У меня вот такой результат.


Huracan #:
Однако многие сайты с контентом от ИИ определяются гуглом и падают до нуля… хотя на начальных этапах росли.

И это неслучайно. Чтобы отвадить пытливые умы от идеи на потоке генерировать AI тексты, превращать их в MFA заработок и масштабировать свою деятельность.

Alekser #:
Тут нужно уяснить одну простую вещь — никто понятия не имеет как именно google детектит ИИ-шность

Эту информацию в общем виде можно почерпнуть из работы, которая называется "Генеративные модели являются неконтролируемыми предикторами качества страницы: Исследование колоссального масштаба" от специалистов из Гугла.

В сети этот материал есть (у меня тоже, если кому нужно - скину в личку).

В нём вполне популярно объясняется с работа нейрогенеративными моделями и подходы в лингвистическом и в качественном анализе текста.

Huracan :
Проблема может быть в том, что Google не может отделить ИИ
Huracan :
через 3 известных сервиса AI Detector я прогнал тексты живых людей
Huracan :
И во всех случаях детекторы показали, что от 68% и выше, этот текст написан ИИ.

Сервисы не определяют происхождение текстов.

Сервисы определять схожесть с ИИ. В этом существенная разница.

Никого не интересуют чёткие границы, потому что универсально для всех случаев их определить невозможно и в общем не нужно.

Например, если вы создаете текст с помощью ИИ, а потом его дорабатывает копирайтер, его как считать, авторским текстом или это по-прежнему ИИ?

Или наоборот, проф. копирайтер использует ИИ для наброски тезисов, рабочей "рыбы", а потом выдаёт за авторский текст, его нужно определять как частичный продукт ИИ?


Huracan :
Есть ли у кого опыт работы с ИИ текстами, которые получили хорошие позиции и трафик в долгосрочной перспективе?

ИИ инструментарий уже используют все прогрессивные специалисты: копирайтеры, маркетологи, seo-шники, программисты, дизайнеры, фотографы, журналисты, блогеры и пр. 

ИИ уже часть профессиональной среды. Вопрос только в том, какого качества итоговый результат.

Hitechrem #:
Комментарии и движуха на сайте  подымает

Не только подымает, но и скорее всего убережет от поступательного деиндекса.


Hitechrem #:
по скорости опережения сайта Б от А это зависит больше не от эксперимента а от тематики и того как быстро это подхватят ПС 

Условия максимально одинаковые: тематика одна и также (структура, заголовки, урлы, смысловое изложение), в один день добавить в Вебмастер. Правда с Вебмастером желательно в разных аккаунтах.

В общем, было бы желание.

Так, было бы любопытно посмотреть на формирование запросного индекса, ранжирование по одному СЯ. 

На ранних этапах весьма было бы интересно посмотреть за динамикой индексации, роста видимости (если будет), разница позапросной видимости и т.д.  

livetv #:
Лучше чередовать может?

В общем, я думаю это не сыграет ровно никакой роли, потому что первичность ответа от ИИ не имеет какой-либо приоритетности.

Хотя можно и чередовать, это на самом деле не принципиально. Тут как кому удобно.

Чисто умозрительно удобнее считать, что сайт "А", условно, оригинал, а сайт "Б" - рерайт оригинала, но рерайт уникальный.

Да, забыл указать, что уникальность важно контролировать и не опускать ниже 80%.

Amateur Ninja :
Можете накидать каких-то идей, что можно по разному сделать на сайтах.

Если только для того, чтобы протестировать гипотезы, то сделайте два сайта.

Оба по одной тематике, оба - новореги, оба с генерацией контента через ИИ. 

Сайт "А" - контент на основе первичных ответов, сайт "Б" - на основе ИИ рерайта материалов сайта "А".

Делайте одинаковые заголовки, одинаковую структуру, одинаковую URL вложенность и адреса; контекстное содержание (кроме заголовков) - разное.

Сайт "А" просто последовательно увеличиваете кол-во статей.

Сайт "Б" в том же темпе и той же последовательности размещаете статьи в том же порядке, но ещё делает поле комментариев, заказываете активности, возвраты на сайт, обсуждения в комментариях.  Если решитесь на такой эксперимент - готов посодействовать, организую профили, проведу активности.

Цель - поступательно узнать на каком этапе и насколько сайт "Б" будет опережать в поисковой видимости сайт "А" и будет ли.

Без ссылок, без перелинковки.

Это интересный и познавательный эксперимент. 

Всего: 12575