<meta name="robots" content="noindex">

D
На сайте с 28.06.2008
Offline
1101
965

Стало беспокоить меня большое кол-во страниц в вебмастере гугла в разделе "Покрытие" в подразделе:

Проиндексировано, несмотря на блокировку в файле robots.txt

иду читать что не так, по ссылке https://support.google.com/webmasters/answer/7440203#indexed_though_blocked_by_robots_txt а там

Если ваше намерение именно таково, файл robots.txt не является корректным способом избежать индексирования. Чтобы страница не индексировалась, необходимо использовать тег noindex

Ну не вопрос, делаю для всех страниц что попали в этот подраздел чтобы в коде страницы сразу вверху выводилось


<head>
<meta name="robots" content="noindex">
</head>

отправляю все страницы на переиндексацию. Проходит неделя, кол-во страниц не падает.

Я в ступоре, захожу в https://www.google.com/webmasters/tools/robots-testing-tool

тестирую одну из страниц - мне пишет что индексации мешает правило robots.txt

Удаляю все правила роботса, проверяю еще раз и получаю - индексация разрешена!!!

Какого черта, ведь в коде <meta name="robots" content="noindex"> ?????

LEOnidUKG
На сайте с 25.11.2006
Offline
1723
#1
Удаляю все правила роботса, проверяю еще раз и получаю - индексация разрешена!!!

Именно. Индексация документа разрешена, иначе робот НЕ МОЖЕТ УЗНАТЬ, что есть мета тег не добавлять в индекс страницу.

А в robots.txt указывается сразу же, мол не надо лезть на страницу вообще.

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/
D
На сайте с 28.06.2008
Offline
1101
#2

Я так понял они пишут типа если не хотите чтобы страница индексировалась - неправильно делать правила в роботсе, нужно добавить

<head>
<meta name="robots" content="noindex">
</head>

Так вот у меня сейчас и правила в роботсе + <meta name="robots" content="noindex"> а странице все равно в индексе!!! И таких страниц более 7000!!!

WTF ???

Alex Agent
На сайте с 07.04.2011
Offline
304
#3

Если контент уже проиндексирован, несмотря на блокировку в robots.txt, то действительно нужно вставить запрещающий индексацию метатег, но убрать блокировку в robots.txt для скорейшей переиндексации. ИМХО, Google тут сам насоздавал себе сложностей для работы поисковика.

Всему свое время. Все сами принесут и все сделают. Быстрый и выгодный перевод денег Россия ↔ Украина онлайн (http://smartwm.ru/referral/cea1f09842be).
D
На сайте с 28.06.2008
Offline
1101
#4

Может правильнее сделать локейшн в Nginx и отдавать роботу Гугла 410 ответ?

NikeFIT
На сайте с 12.09.2014
Offline
55
#5
Dram:
Я так понял они пишут типа если не хотите чтобы страница индексировалась - неправильно делать правила в роботсе, нужно добавить

Так вот у меня сейчас и правила в роботсе + <meta name="robots" content="noindex"> а странице все равно в индексе!!! И таких страниц более 7000!!!

WTF ???

Бывает и месяц проходит, пока страницы улетят из индекса_)

SEO блог ( http://seo-in.top/ ) - Бесплатные курсы и много полезного в мире SEO | Автопортал 100.ks.ua ( https://100.ks.ua/ ) → Все автомобильные новости, статьи и компании в одном месте.
D
На сайте с 28.06.2008
Offline
1101
#6

Так прикол в том что прошла неделя, он хавает страницы с уже добавленным мета и добавляет их в индекс.

Я вот захожу в отчет и вижу как он перелопатил кучу страниц 12 апреля, когда мета была на страницах дней 6 как.... реально баг или глюк или фича....

Подожду еще недельку, а потом запрещу ему доступ, раз не придерживается своих же правил.

XruMan
На сайте с 11.02.2011
Offline
103
#7
NikeFIT:
Бывает и месяц проходит, пока страницы улетят из индекса_)

На некоторых сайтах годами в индексе висят страницы, которых по факту давно уже нет. Хз почему так.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий