Все вопросы по robots.txt

Anibrut
На сайте с 28.05.2014
Offline
74
#411

bulatbulat48, вопрос немного заденет не только роботс.

Вот есть роботс и в нем закрыты определенные папки. А вот создала я сайтмап. И там же есть страницы которые я в роботс закрыла. Но это же не катастрофично что они там есть верно? Не буду же я их вручную с сайтмап стирать, для этого же роботс и создала.

B4
На сайте с 27.04.2012
Offline
94
#412
Anibrut:
bulatbulat48, вопрос немного заденет не только роботс.
Вот есть роботс и в нем закрыты определенные папки. А вот создала я сайтмап. И там же есть страницы которые я в роботс закрыла. Но это же не катастрофично что они там есть верно? Не буду же я их вручную с сайтмап стирать, для этого же роботс и создала.

Разные поисковики по разному индексируют, для google роботс носит информационных характер. Так что лучше делать все правильно, или делать такие костыли и тогда тестить.

Anibrut
На сайте с 28.05.2014
Offline
74
#413

Подскажите пожалуйста, есть немного лишних url разного типа проблемности, думаю как лучше исправить ситуацию.

Вот они:

1)

http://site.com/propos/xxxx

http://site.com/propos/yyyy

http://site.com/propos/zzzz

Их порядка 15-ти.

Все они открываются, но показывают содержимое только http://site.com/propos, под их адресами никаких страниц не предусмотрено. То есть, эти url не нужно показывать а только http://site.com/propos.

Думаю закрыть в роботс так: Disallow: /propos/*

У кого какие варианты?

Еще нужно забрать страницы у которых /ru дубли страниц

Оригинал http://site.com/xyz/xy

Дубль http://site.com/ru/xyz/xy

думаю Disallow: */ru/*

Правильно ли так?

И еще есть страницы дубли со слешем вконце.

Как их то закрыть?

Anibrut
На сайте с 28.05.2014
Offline
74
#414

bulatbulat48,

Подскажите пожалуйста правильно ли я указала варианты закрытия в своем верхнем сообщении?

S
На сайте с 10.02.2014
Offline
16
#415
Anibrut:
Подскажите пожалуйста, есть немного лишних url разного типа проблемности, думаю как лучше исправить ситуацию.
Вот они:
1)
http://site.com/propos/xxxx
http://site.com/propos/yyyy
http://site.com/propos/zzzz
Их порядка 15-ти.
Все они открываются, но показывают содержимое только http://site.com/propos, под их адресами никаких страниц не предусмотрено. То есть, эти url не нужно показывать а только http://site.com/propos.
Думаю закрыть в роботс так: Disallow: /propos/*
У кого какие варианты?

Еще нужно забрать страницы у которых /ru дубли страниц
Оригинал http://site.com/xyz/xy
Дубль http://site.com/ru/xyz/xy
думаю */ru/*
Правильно ли так?

И еще есть страницы дубли со слешем вконце.
Как их то закрыть?

1. Так попробуйте, должно сработать

Disallow: /propos/*

Allow: /propos/$

2. Директива Disallow: */ru/* закроет все дубли

3. в роботсе никак, делайте общий 301й редирект

G2
На сайте с 24.07.2015
Offline
2
#416

Я слышал что для вордпресс есть стандартных robots, закрывающий админку и данные пользователей. Подскажите, где код можно скопировать?

Anibrut
На сайте с 28.05.2014
Offline
74
#417

sirkp,

Вот думаю

Закрыла я в robots.txt все что после /propos/, удалю из сайтмап такие страницы, и еще и 301 напишут что бы все что /propos/xyz на /propos/ кидало. Это не слишком, или так и должно быть, полный комплект так сказать)?.

Кстати попробовала

Disallow: /propos/*

Allow: /propos/$ и Allow: /propos/ и Allow: /propos$ - все ровно /propos/ тоже закрывает. (((

S
На сайте с 10.02.2014
Offline
16
#418
Anibrut:
sirkp,
Вот думаю
Закрыла я в robots.txt все что после /propos/, удалю из сайтмап такие страницы, и еще и 301 напишут что бы все что /propos/xyz на /propos/ кидало. Это не слишком, или так и должно быть, полный комплект так сказать)?.

Кстати попробовала
Disallow: /propos/*
Allow: /propos/$ и Allow: /propos/ и Allow: /propos$ - все ровно /propos/ тоже закрывает. (((

Вообще и редиректа бы хватило, но и остальное не навредит.

Странно, потому как у меня все корректно:

Anibrut
На сайте с 28.05.2014
Offline
74
#419

Я проверяла Netpeak Spider, показывало что та страница закрыта. А вот этот скриншот, это чем вы проверили?

S
На сайте с 10.02.2014
Offline
16
#420
Anibrut:
Я проверяла Netpeak Spider, показывало что та страница закрыта. А вот этот скриншот, это чем вы проверили?

https://webmaster.yandex.ru/robots.xml

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий