Подскажите ошибку в моем роботсе

12
[Удален]
1093

Сегодня в яндекс вебмастере увидел загруженные роботом страницы, которые я исключил от индексации.

роботс.тхт выглядит так:

User-agent: *

Allow: /

Host: site.ru

Sitemap: http://site.ru/sitemap.xml

Disallow: /kategoriya_1/2/

Disallow: /kategoriya_1/3/

Disallow: /kategoriya_1/4/

Disallow: /kategoriya_1/5/

Disallow: /kategoriya_2/2/

Disallow: /kategoriya_2/3/

Disallow: /kategoriya_2/4/

Disallow: /kategoriya_2/5/

Disallow: /kategoriya_3/2/

Disallow: /kategoriya_3/3/

Disallow: /kategoriya_3/4/

Disallow: /kategoriya_3/5/

Собственно, закрыл от индексации все страницы типа - http://site.ru/kategoriya_1/5/page.php, а страницы такие как http://site.ru/kategoriya_1/page.php должны быть в поиске.

В гугле все ок - все закрытые документы отображаются в "Заблокирован файлом robots.txt". Яндекс другого мнения... Загружаю сюда свой robots.txt, в поле "Список URL" вписываю несколько произвольных страниц закрытых от индексации и нажимаю проверить - результат:

http://site.ru/kategoriya_2/2/page_2.php разрешен

http://site.ru/kategoriya_1/3/page_3.php разрешен

http://site.ru/kategoriya_3/4/page_4.php разрешен

http://site.ru/kategoriya_1/5/page_5.php разрешен

Пробовал и без слеша в конце, например: Disallow: /kategoriya_3/5 и все равно пишет "разрешен".

Подскажите пожалуйста, что не так? Как закрыть эти страницы от яндекса?

Fat Bear
На сайте с 01.12.2006
Offline
264
#1

Убейте директиву allow и проверьте работу вашего файла.

Про правильное оформление файлика тоже неплохо почитать бы.

Открыть счёт в Capitalist ( https://capitalist.net/reg?from=e5707ff0c3 ). Виртуальные карты, USDT, банковские переводы, выплаты партнёрских программ. Push-партнёрка с высоким рейтом hClicks(https://hclicks.com/?ref=61dc0714).
vandamme
На сайте с 30.11.2008
Offline
675
#2
ZI-ZU:
Host: site.ru
Sitemap: http://site.ru/sitemap.xml

это только для яндекса пишут, а не для всех

[Удален]
#3
Масол:
Убейте директиву allow и проверьте работу вашего файла.
Про правильное оформление файлика тоже неплохо почитать бы.

Убрал, все равно страницы разрешены.

vandamme, Вы имеете в виду, что нужно писать:

User-agent: Yandex

Allow: /

Host: site.ru

Sitemap: http://site.ru/sitemap.xml ...?

Fat Bear
На сайте с 01.12.2006
Offline
264
#4

Вот меня всегда убивало то, что человек будет толочь воду в ступе до последнего, наступать на одни и те же грабли двадцать раз, но всё равно ничего исправлять и познавать сам даже и пытаться не будет.

ZI-ZU, ваша проблема ищется поиском за две секунды.

Читайте, читайте с самого начала и до конца, внимательно и желательно не один раз:

http://help.yandex.ru/webmaster/?id=996567

vandamme
На сайте с 30.11.2008
Offline
675
#5

allow тебе вообще писать не надо, это точно

User-agent: *

Disallow: /kategoriya_1/2/

Disallow: /kategoriya_1/3/

User-agent: Yandex

Disallow: /kategoriya_1/2/

Disallow: /kategoriya_1/3/

Host: site.ru

Sitemap: httр://site.ru/sitemap.xml

типа....

[Удален]
#6
Масол:
Вот меня всегда убивало то, что человек будет толочь воду в ступе до последнего, наступать на одни и те же грабли двадцать раз, но всё равно ничего исправлять и познавать сам даже и пытаться не будет.
ZI-ZU, ваша проблема ищется поиском за две секунды.
Читайте, читайте с самого начала и до конца, внимательно и желательно не один раз:
http://help.yandex.ru/webmaster/?id=996567

Я, перед созданием топика, там уже был и здесь тоже.

Для яндекса все нужно было просто продублировать, только с User-agent: Yandex

Исходя из того, что мне нужно было закрыть для всех поисковиков одни и те же страницы, я просто использовал User-agent: *

Масол, я не знал об этой особенности яндекса и про воду в ступе Вы явно загнули:)

ZI-ZU добавил 02.12.2011 в 03:03

vandamme, да разобрался уже, но все равно спасибо!

Fat Bear
На сайте с 01.12.2006
Offline
264
#7

ZI-ZU, и такое бывает :)

[Удален]
#8

Еще вопрос: если страницы закрыты в роботсе, робот яндекса все равно их загружает? Т.е. они отображаются в яндекс вебмастере в "загруженные роботом"?

Несколько дней назад исправил ошибки в своем robots.txt, Анализ robots.txt выдает результат закрытых страниц, как положено - запрещен правилом /kategoriya_2/3/ и т.п. Сегодня, после апа зашел в вебмастер а там в "загруженные роботом" еще около сотни новых закрытых страниц, но в поиск ни одна не попала, зато страницы которые должны индексироваться каждый ап то вылетают, то снова попадают в поиск...

[Удален]
#9

Ну подскажите кто-нибудь, пожалуйста, закрытые от индексации страницы в яндекс вебмастере в разделе "загруженные роботом" отображаются или нет?

Понимаю, что вопрос нубовский, но я просто с этим никогда не сталкивался...

Fat Bear
На сайте с 01.12.2006
Offline
264
#10

ZI-ZU, у себя сейчас посмотрел - нет в загруженных роботом страниц, закрытых от индексации. Они есть только в исключенных страницах.

Но сами понимаете - один результат, это далеко не статистика.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий