Санкции обычно накладываются за нарушение правил. Спойлер - это лишь управляющий элемент, поэтому здесь уже вам решать - использовать его или нет. Насколько он корректно используется - дело третье.
В целом конечно нужно видеть текущий результат, обсуждать вероятную проблему по словесному описанию - дело неблагодарное и непродуктивное.
Вероятнее всего пользователи закрывают страницу раньше, потому что содержание им неинтересно/не нравится.
Добавьте картинки в тело статьи для наглядности. Cухие тексты портянками сейчас читают редко, визуальное подкрепление важно и поэтому размещать картинки в конце - не самое удачное решение.
Тут есть один занятный нюанс. Яндекс не признаёт присутствие аффилиат фильтра (как само название), а в коммерции уже давно присутствуют примеры, где это аффилиат фильтр не срабатывает, поэтому сам аффилиат фильтр остаётся просто рабочей гипотезой.
Приведите точный ответ Яндекса, здесь интересно что конкретно они ответили в каком контексте.
Интересно, я думаю, будет многим.
Так с каждой страницей происходит. Т.е. я на более трастовом ресурсе разместил 50 статей под те же ключи — менее трастовый, стоявший в топ-3 вылетел сразу же, после того как быстробот скушал новую статью на более трастовом ресурсе.
Но в принципе, я вас переубеждать не собираюсь. Верите, что инфо не могут выпилить за это — верьте. Я убедился, что могут.
Вопрос не в том, что кому-то на слово верить или кого-то в чём-то переубеждать, вопрос в том, чтобы на практике проверить. Если у вас обнаружится это тенденция с вылетом - логично, не делайте этого.
Если поразмыслить чисто практически, то копия такого же текста на другом сайте ПС не нужна и поэтому - да, ПС будут бороться с копиями, а с помощью каких ограничений (фильтр, пессимизация или что-то другое) - дело третье.
В общем и целом дублировать информацию на разных сайта нет необходимости, поисковики это не приветствуют.
и в этом вопросы вы правы.
Нет, аффилиат фильтр связан с представительствами или товарных ассортиментом/офферами от одной организации.
В вашем случае скорее всего изменение результата ранжирования отдельной страницы. Может ли оно быть вызвано с появлением дубля - да, может, но это не история про аффилиат.
Думаю, нужно было просто подождать, а это совпадение :)
Дизайнер - вы? :)
И у него пройдёт :)
Тогда тут надо не тестировать, а реализовывать конкретные рабочие планы.
Понятно.
С Вебмастером понятно, так и планирую. Я немного параноить стал по этому поводу. У меня есть два сайта в одной тематике. Вот если на менее трастовом статью разместить и она встанет в топ Яндекса — при размещении статьи по той же теме (даже копипастнуть можно) на более трастовом сайте — менее трастовый вылетает из выдачи даже не в топ-50, а вообще исчезает. На его место встаёт более трастовый. Объединяет сайты только номер телефона, к которому привязаны разные аккаунты Яндекса.
Наверное так выглядит аффилиат? Я просто думал, что он прилетает исключительно на коммерческие сайты.
Аффилиат был связан больше с коммерческими сайтами, на инфо сайтах (статейниках) аффилиатов не было.
Хотя я встречался и с аффилиатом муниципальных учреждений.
Для статейников и сателлитов может быть сеточный бан (если обнаружатся сеточные признаки), но он не связан с позапросными и постраничными ограничениями, там просто домен не индексируется и всё.
Конкретно для двух сайтов я думаю проблем не будет.
Всё по классике.
Яндекс
Гугл
Это скорее организационный момент, чем творческий. Дизайнеру важно сделать работу и попасть в ожидания заказчика.
PageSpeed Insights пишет:
"Файл robots.txt недействителен Не удалось скачать файл robots.txt.
Если файл robots.txt поврежден, поисковые роботы могут не распознать ваши инструкции по сканированию или индексации сайта. Подробнее о файле robots.txt…"
Из-за этого снимается 10 пунктов в "Поисковая оптимизация"
Попробуйте проверить ещё раз.
У меня вот такой результат.
И это неслучайно. Чтобы отвадить пытливые умы от идеи на потоке генерировать AI тексты, превращать их в MFA заработок и масштабировать свою деятельность.
Эту информацию в общем виде можно почерпнуть из работы, которая называется "Генеративные модели являются неконтролируемыми предикторами качества страницы: Исследование колоссального масштаба" от специалистов из Гугла.
В сети этот материал есть (у меня тоже, если кому нужно - скину в личку).
В нём вполне популярно объясняется с работа нейрогенеративными моделями и подходы в лингвистическом и в качественном анализе текста.