Георгий Кесов

Георгий Кесов
Рейтинг
79
Регистрация
08.01.2014
Интересы
Веб-мастеринг, блоггинг, писательство
Писатель, блогер. Создатель и автор литературного сайта «Академия Писателей».
Vladimir SEO #:

Гугл не показывает ошибку, а только статус страницы, по которой можно иногда понять по какой причине не проиндексировано.

просто надо ноиндекс в мета поставить . А роботс это для сканирования а не индексации.

Нет, я к тому, что там надпись «Ошибка» выводится, а не конкретная причина.

Касаемо роботс: и всё же иногда помогает. Disallow: */? работает как надо, и в консоли показывает «Заблокировано в файле robots.txt».

markohaireuk :
Даже на страницах где по 100 пишет что проверка не пройдена 

Там комбинация определённых показателей должна быть зелёной. Если память не изменяет, сейчас только TTFB необязателен, а остальные должны быть зелёными, и тогда покажет, что проверка пройдена.

Снизу будут перечислены причины, которые вызывают задержку по скорости. Иногда они правятся за секунду. Например, тот же CLS (скачок макета), который у Вас на красной отметке.

Seranush2007 :

Вот такая проблемес. Рандомно залетают страницы в раздел ошибки, естественно никаких нет комментариев, просто ошибка и все. Куда копать ? Помогите.



Это значит, что по какой-то причине Гугл не хочет индексировать страницы и потому показывает ошибку. У меня такое бывает периодически — иногда нужно несколько раз отправить эти страницы на перепроверку, и спустя какое-то время проиндексирует.

Бывает и обратное: когда Гугл не хочет убирать из индекса определённые страницы. Даже запрет индексации в роботс тхт иногда не помогает, т.к. роботы Гугла могут игнорировать его. Там тоже помогает отправка на перепроверки.

NotNotFound :
Здравствуйте! Подскажите, пожалуйста, как правильно настроить редиректы в htacess

Со всех страниц типа:
/shop/616/
/shop/624/
/shop/625/
и так далее
на общий раздел каталога /produktsiya/

Я у себя на сайте настраивал в своё время, но не знаю, идеальный ли это вариант кода. Если что — откатите назад.

<IfModule mod_rewrite.c>
RewriteRule ^shop/616/ $ https://полныйпутьсайтадонужногораздела/produktsiya/ [R=301,L]
RewriteRule ^shop/624/ $ https://полныйпутьсайтадонужногораздела/produktsiya/ [R=301,L]
</IfModule>

И так со всеми нужными путями сделайте ^

garry69 #:
Как выше написал, мне ответили, что это не боты яндекса ( все роботы яндекса представляются), а просто пользователи их сервисов. Кто размещается на их Yandex Cloud (как вариант) и тд. Но судя по всему, там парсеры, боты и другая жуть. Я отправляю на проверку все эти ip. Мне так и написали, что если есть проблемы  с этими визитами, нагружают и тд пишите абузу.

Понял, спасибо. Видимо, следует убрать из вайтлиста.

Хорошо, что Вам подробно разъяснили. Я несколько месяцев назад спросил и они вообще открещивались и говорили, что не знают, о чём речь))

garry69 #:

А нет ли в логах у вас прямых от AS13238. Вроде сеть яндекса, ботами не представляется. Может это ИИ собирает данные?

5.255.228.213
37.9.68.136
141.8.167.200 и тд.

5.255.228.0  и 141.8.167.0 — это подсети nat64 от Яндекса. У меня они в вайтлисте на всякий случай, но так и не понял, для чего Яндекс этих ботов по сайтам отправляет. Как-то спрашивал в поддержке, но нормальный ответ не дали.

37.9.68.0 — боты Яндекс.Метрики (вроде как). Тоже в вайтлисте у меня. Хотя на других сайтах указано, что это тоже боты nat64 yandex.

Odimidorius #:

У меня появились эти заходы как только отключил поддержку ipv6 на сайте.  Предпологаю это тунель для ботов с адресами ipv6.

Я в своё время много следил за Гуглзипом. Там такая вещь, что иногда заходят боты. А иногда реальные юзеры пропускаются через эти туннели. Ещё давно добавил googlezip в вайтлист проверки.

mrftun #:
А если статья полностью из кусков других своих статей? Допустим, в течение года выходят обзоры по конкретной модели смартфона с выводом в один абзац. А в конце года выпустить статью "лучшие смартфоны 2023 года" и статья будет полностью состоять из этих абзацев с выводом, взятых с разных страниц сайта?

А фиг его знает. Это надо искать тех, кто проводил эксперименты. Но как я понимаю, уникальность контента играет далеко не первостепенную роль. Могу и ошибаться.

Но я уже на личном примере убедился, что в низкоконкурентных темах если выдирать куски с других статей + добавить буквально несколько уникальных предложений, то в топ у меня попадает. Статьи при этом отвечают на вопрос посетителя.

satyr22 :
Всем доброе время суток. При проверке на плагит сервис показал что моя  страница по тексту уникальна на 75% и 25% текста встречается на другой странице моего же сайта. Допустимо ли это или считается плагиатом в глазах Гугла и лучше переделать? заранее спасибо.

Я в последних статьях стал выдирать значительные куски из других своих статей. Потому что тематика такая, что там ничего нового не сочинишь — только если рерайтить постоянно одно и то же.

В итоге статьи в топ поисковиков выходят норм (темы низкоконкурентные). И пока ничего из поиска не выпадало.

Александр #:

Угу, стоит внимательно проверить алгоритм работы, ато Вам оно может рисовать защиту, а по факту может быть как на скрине:PPPP

Ну так на скрине один ип стучится много раз. Для этого нет необходимости банить всю подсеть 😀

Всего: 46