Гугл не показывает ошибку, а только статус страницы, по которой можно иногда понять по какой причине не проиндексировано.
Нет, я к тому, что там надпись «Ошибка» выводится, а не конкретная причина.
Касаемо роботс: и всё же иногда помогает. Disallow: */? работает как надо, и в консоли показывает «Заблокировано в файле robots.txt».
Там комбинация определённых показателей должна быть зелёной. Если память не изменяет, сейчас только TTFB необязателен, а остальные должны быть зелёными, и тогда покажет, что проверка пройдена.
Снизу будут перечислены причины, которые вызывают задержку по скорости. Иногда они правятся за секунду. Например, тот же CLS (скачок макета), который у Вас на красной отметке.
Вот такая проблемес. Рандомно залетают страницы в раздел ошибки, естественно никаких нет комментариев, просто ошибка и все. Куда копать ? Помогите.
Это значит, что по какой-то причине Гугл не хочет индексировать страницы и потому показывает ошибку. У меня такое бывает периодически — иногда нужно несколько раз отправить эти страницы на перепроверку, и спустя какое-то время проиндексирует.
Бывает и обратное: когда Гугл не хочет убирать из индекса определённые страницы. Даже запрет индексации в роботс тхт иногда не помогает, т.к. роботы Гугла могут игнорировать его. Там тоже помогает отправка на перепроверки.
Я у себя на сайте настраивал в своё время, но не знаю, идеальный ли это вариант кода. Если что — откатите назад.
<IfModule mod_rewrite.c>RewriteRule ^shop/616/ $ https://полныйпутьсайтадонужногораздела/produktsiya/ [R=301,L]RewriteRule ^shop/624/ $ https://полныйпутьсайтадонужногораздела/produktsiya/ [R=301,L] </IfModule>
И так со всеми нужными путями сделайте ^
Понял, спасибо. Видимо, следует убрать из вайтлиста.
Хорошо, что Вам подробно разъяснили. Я несколько месяцев назад спросил и они вообще открещивались и говорили, что не знают, о чём речь))
А нет ли в логах у вас прямых от AS13238. Вроде сеть яндекса, ботами не представляется. Может это ИИ собирает данные?
5.255.228.21337.9.68.136141.8.167.200 и тд.
5.255.228.0 и 141.8.167.0 — это подсети nat64 от Яндекса. У меня они в вайтлисте на всякий случай, но так и не понял, для чего Яндекс этих ботов по сайтам отправляет. Как-то спрашивал в поддержке, но нормальный ответ не дали.
37.9.68.0 — боты Яндекс.Метрики (вроде как). Тоже в вайтлисте у меня. Хотя на других сайтах указано, что это тоже боты nat64 yandex.
У меня появились эти заходы как только отключил поддержку ipv6 на сайте. Предпологаю это тунель для ботов с адресами ipv6.
Я в своё время много следил за Гуглзипом. Там такая вещь, что иногда заходят боты. А иногда реальные юзеры пропускаются через эти туннели. Ещё давно добавил googlezip в вайтлист проверки.
А фиг его знает. Это надо искать тех, кто проводил эксперименты. Но как я понимаю, уникальность контента играет далеко не первостепенную роль. Могу и ошибаться.
Но я уже на личном примере убедился, что в низкоконкурентных темах если выдирать куски с других статей + добавить буквально несколько уникальных предложений, то в топ у меня попадает. Статьи при этом отвечают на вопрос посетителя.
Я в последних статьях стал выдирать значительные куски из других своих статей. Потому что тематика такая, что там ничего нового не сочинишь — только если рерайтить постоянно одно и то же.
В итоге статьи в топ поисковиков выходят норм (темы низкоконкурентные). И пока ничего из поиска не выпадало.
Угу, стоит внимательно проверить алгоритм работы, ато Вам оно может рисовать защиту, а по факту может быть как на скрине:PPPP
Ну так на скрине один ип стучится много раз. Для этого нет необходимости банить всю подсеть 😀