Подскажите что делаю неправильно robots.txt

R
На сайте с 28.02.2009
Offline
109
398

Хочу в Wordpress закрыть

domain.ru/page/1/

domain.ru/page/2/

и тп

robots.txt

User-agent: Googlebot

Disallow: /*/feed/$

Disallow: /*/feed/rss/$

Disallow: /*/trackback/$

User-agent: *

Disallow: /page

как бы всё что содержит page - Закрыто для всех поисковых ботов умеющих читать robots.txt.

Но в гугль проиндексировал page.

Можно конечно все линки на Next Page сделать через nofollow, но есть же robots.

Всем заранее благодарен за советы.

Ripro
На сайте с 04.11.2006
Offline
144
#1
Retox:
Хочу в Wordpress закрыть
domain.ru/page/1/
domain.ru/page/2/
и тп

robots.txt

User-agent: Googlebot
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
User-agent: *
Disallow: /page

как бы всё что содержит page - Закрыто для всех поисковых ботов умеющих читать robots.txt.
Но в гугль проиндексировал page.
Можно конечно все линки на Next Page сделать через nofollow, но есть же robots.

Всем заранее благодарен за советы.

1. у вас domain.ru/page/2/, я бы закрыла так:

Disallow: */page/*

2. закрыто - это только рекомендация поисковикам, они могут просканить и загнать в индекс - на их усмотрение

3. Зачем закрывать постраничную навигацию?! Постраничная верстка rel=«next|prev»

anebilitsa
На сайте с 07.02.2012
Offline
167
#2

ТС, проверьте через специальную форму в вебмастере, закрыты ли эти страницы. Есть вероятность, что гугл зашёл до того, как вы закрыли эти страницы.

Отличный облачный майнинг (https://hashflare.io/r/D9BC3BC7) Аудит и продвижение сайтов (/ru/forum/935103) | Сервис для снятия позиций сайта (http://allpositions.ru/redirect/28240)
siv1987
На сайте с 02.04.2009
Offline
427
#3
Retox:
Закрыто для всех поисковых ботов умеющих читать robots.txt.
User-agent: Googlebot
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
User-agent: *
Disallow: /page
Retox:
Но в гугль проиндексировал page.

Не удивительно, http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml

Бот читает или свою секцию, или обещаю секцию если не найдена первая

SeVlad
На сайте с 03.11.2008
Offline
1609
#4
siv1987:
Бот читает или свою секцию, или общую секцию если не найдена первая

siv1987, я исправил автоочепятку

+ оттуда же:

В соответствии со стандартом перед каждой директивой 'User-agent' рекомендуется вставлять пустой перевод строки.
Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Связь со мной через http://wp.me/P3YHjQ-3.
maldivec
На сайте с 04.11.2008
Offline
160
#5
Ripro:
1. у вас domain.ru/page/2/, я бы закрыла так:
Disallow: */page/*

Ппц... Обе звездочки лишние, зачем вы даете советы, если ничего не понимаете в этом?

Извиняюсь за оффтоп.

siv1987, прав. Укажите запрет и для гуглбота.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий