Количество не показатель. Количественно с помощью AI можно генерировать сколько угодно материалов, только на новореге всё это вылетает по МПК, который уже стал не только постраничным, но и хостовым.
На Авито создаются тысячи объявлений ежедневно, поинтересуйтесь индексацией этого сайта и объёмом поисковой видимости - сильно удивитесь.
Если на сайте / сервисе есть трафик и есть востребованность, то в поиске будет любая какая-угодно-качественная копипаста.
Качество в Яндексе определяется тенденциями трафика. Есть спрос (хоть умело накрученный ботами) - будет индекс и будет ранжирование.
Поэтому они и вытеснили всех прочих - мелких, а ПС перестал давать им трафик.
Что не предлагают Авито и Юла из того, что есть на прочих сайтах? В чём уникальность прочих сайтов? У них есть своё постоянно ядро пользователей?
Этот приличный и известный сайт (про который я впервые слышу и вижу) круто теряет в объёме поискового трафика
Это тотальное вымирание. Просто для таких сравнительно больших сайтов как leboard.ru это может длиться несколько лет.
Справедливости ради насколько сказать, что Яндекс на порядки лишает объёмов индексации и монстров типа Авито, выбрасывая из индекса слабовостребованный и неактуальный контент, но тенденция давно очевидно - Яндекс не хочет держать в индексе то, что не имеет прямой востребованности - это колоссальная экономия на ресурсах.
Возможно потому, что в декабре - январе месяца ему пытались круто накрутить переходы.
В чём интерес рассматривать третью страницу? Оттуда практически нет кликов.
Скажу, что поисковой системе нужно выводить на этих страницах (и далее) какие-то данные, вот и выводит.
Но анализировать примеры третьей страницы в целом бессмысленно. Сегодня ПС ранжирует на 3-ей страницы один сайт, которые не получает оттуда кликов, через несколько дней он кидает этот сайт за 50 результатов и он точно также не получит оттуда кликов.
Ориентируйтесь на примеры сайтов, которые удерживают топы в течение нескольких месяцев и имею стабильный поисковый трафик. Анализировать случайных пассажиров - дело неблагодарное.
В общем, уже говорили. ПС массово стали выметать из своих индексов любительских проекты и неуникальный слабоконкурентный контент. ПС перестали давать таким сайтам трафик, - в свою очередь давая понять, что больше бесплатным трафиком такие проекты кормиться не будут.
Верно, но и порог вхождения в такую тему в разы выше, чаще всего они вообще недоступны большинству. Нужны: осведомлённость, компетенции, наработки, нередко ресурсы и немаловажно - талант.
В общем буду благодарен за ответ от специалистов с опытом в сео выше уровнем, хочу узнать, кто и как избавляется от такой ботовой атаки.
Направления как правило четыре:
1) Использовать CloudFlare и индивидуально его настраивать
2) Использовать прочие антибот системы
3) Использовать настройки .htaccess для блокирования отдельных IP
4) Делать свои разработки для загрузки сайта без Метрики, выводить для контрольных список IP доп. всплывающие окна/капчи т.д.
Эта тема обсуждается уже несколько лет и на форуме множество веток по данному вопросу.
Приоритет для старых доменов конечно есть, но в целом неверно воспринимать продвижение как обязательную необходимость купить возрастной домен и повесить на него одностраничный лендинг.
Если вы собираетесь накручивать одностраничный лендинг и в этом видите методику работы над сайтом, то такой вариант имеет место быть. Однако так или иначе вы упрётесь в невозможность двигаться дальше, а после полноценно работать по продвижению с вывших в накрутке лендингом никто не захочет.
Если же вы собираетесь развивать своё предложение, то конечно это многостраничный сайт где под семантическое ядро будет детализированы посадочные страницы и тем самым вы гораздо шире и что особенно важно - точнее будете работать с потребительским спросом.
Если бы всё упиралось в необходимость использовать возрастной домен, то выдача конкурентов состояла из градации сайтов на возрастных доменов, но когда вы более плотно окунетесь в конкурентную среду, увидите, что всё гораздо разнообразнее, чем линейный вывод о необходимости повесить лендинг на "старый домен".
Пихайте сколько угодно. Вопрос только - зачем?
Индексироваться будет всё равно итоговый вариант.
p.s. Есть ещё правда методика с последовательной переклейкой донорских страниц при передаче ссылочного в Гугле.
Tier1-Tier2-Tier3, но это уже несколько другая история, она связана с ссылочным весом, а не контентным содержанием.