Вопрос по robots

G5
На сайте с 07.03.2008
Offline
122
401

В DLE все юзеры закрыты от индексации. Требуется, чтобы только один пользователь был доступен для индексации поисковиками

Как правильно это настроить? Будет ли работать схема?

Disallow: /user/

Allow: /user/%C4%EC%E8%F2%F0%E8%E9+%CB%F3%ED%E8%ED/

И еще вопрос. Если имя пользователя написано русскими буквами, то правильно ли добавлять в роботс ссылку /user/%C4%EC%E8%F2%F0%E8%E9+%CB%F3%ED%E8%ED/ или нужно писать имя как оно есть на русском? Гугл в выдаче отображает ссылку вида /user/Имя+Фамилия/‎ нужно ли её в таком виде добавлять в роботс?

М
На сайте с 18.05.2013
Offline
3
#1
grach5:

1. Disallow: /user/
2. Allow: /user/%C4%EC%E8%F2%F0%E8%E9+%CB%F3%ED%E8%ED/

1. Правильно

2. Правильно

G5
На сайте с 07.03.2008
Offline
122
#2
Маховик:
1. Правильно
2. Правильно

спасибо, буду пробовать. Нет ли у поисковиков сервиса, чтобы проверить доступность страницы для них?

Talisman13
На сайте с 20.01.2007
Offline
211
#3
grach5:
Нет ли у поисковиков сервиса, чтобы проверить доступность страницы для них?

Добавь страницу в http://webmaster.yandex.ru/addurl.xml

Если скажет, что страница закрыта от индексации - значит закрыта. Или скажет, что страница проиндексирована или будет проиндексирована.

Zegeberg
На сайте с 30.09.2010
Offline
306
#4

И не забывайте, что Google чхать на Allow:

Ссылки с форумов, блогов и соц сетей ( https://forumok.com/p/c1710b6b/ ) Создание, настройка и ведение РК Директ
orka13
На сайте с 28.03.2011
Offline
102
#5
Zegeberg:
И не забывайте, что Google чхать на Allow:

Разве?

робот Googlebot поддерживает расширенное определение стандартного протокола robots.txt. Он распознает директивы "Allow:", а также некоторые типы соответствия шаблону

Есть свежий практический опыт, когда он игнорирует Allow?

Продажи шаблона Google-Translate (Гугл Переводчик), скорость: 20 млн ключей/час, с прокси, без API. (http://zennolab.com/discussion/threads/prodazhi-shablona-google-translate.43684/) Переводит ключи, статьи, HTML+PHP файлы (целые сайты, доры) с сохранением верстки!
G5
На сайте с 07.03.2008
Offline
122
#6
Zegeberg:
И не забывайте, что Google чхать на Allow:

Гугл вообщ какой-то странный. Он проиндексировал запрещенную страницу и выдает её в выдаче. Просто вместо описания стоит текст "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. "

Т.е. от него вообще ничего закрыть нельзя. Только если физически запретить доступ, но это уже либо клоакинг либо пользователи тоже не смогут зайти.

WebAlt
На сайте с 02.12.2007
Offline
266
#7
grach5:
Гугл вообщ какой-то странный. Он проиндексировал запрещенную страницу и выдает её в выдаче. Просто вместо описания стоит текст "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. "
Т.е. от него вообще ничего закрыть нельзя. Только если физически запретить доступ, но это уже либо клоакинг либо пользователи тоже не смогут зайти.

Просто ссылка какая-нибудь стоит с другого ресурса на эту страницу.

Для гугла, чтобы полностью исключить страницу из выдачи независимо от внешних ссылок нужно прописывать:

<meta name="robots" content="noindex,nofollow" />, а не закрывать в robots.txt.

DL
На сайте с 12.01.2010
Offline
86
#8

в яндексе можно роботс проверить http://webmaster.yandex.ru/robots.xml

Я.Директ, G.Adwords - аудит, настройка, ведение. РК в MyTarget, Facebook. Настройка сквозной веб-аналитки, Power BI. Связь - в ЛС, FB - https://www.facebook.com/pavel2322 (https://www.facebook.com/pavel2322)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий