Почему Я загружает закрытые файлы?

12
InLessa
На сайте с 18.10.2012
Offline
55
1054

Вопрос весь в названии) На битриксе сайт, вот строка из роботс: Disallow: /auth

А вот скрин вебмастера загруженных страниц.

[ATTACH]133021[/ATTACH]

Почему так?

png auth.png
Бороться, искать, найти и.. перепрятать.
LEOnidUKG
На сайте с 25.11.2006
Offline
1773
#1

Потому что надо ЧИТАТЬ, что такое robots.txt и для чего он.

ОН даёт рекомендацию для робота, а не руководит им.

Яндекс загрузит страницы, но в индексе не покажет.

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/ ✅ Настройка и оптимизация серверов https://getmanyspeed.ru/
InLessa
На сайте с 18.10.2012
Offline
55
#2
LEOnidUKG:
Потому что надо ЧИТАТЬ, что такое robots.txt и для чего он.
ОН даёт рекомендацию для робота, а не руководит им.

Яндекс загрузит страницы, но в индексе не покажет.

Хамить обязательно? Хотя чего я жду на форуме?...

Цитата из яндекса:

Чтобы запретить доступ робота к некоторым частям сайта или сайту целиком, используйте директиву

'Disallow' http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml

Тут вполне четко написано: запретить доступ.

Mik Foxi
На сайте с 02.03.2011
Offline
1214
#3
InLessa:

Тут вполне четко написано: запретить доступ.

на деле - это значит "не выкладывать контент в выдачу". но посещать он, да и гугл тоже, все равно будут, чтоб посмотреть что вы там прячите.

Антибот, антиспам, веб фаервол, защита от накрутки поведенческих: https://antibot.cloud/ (Зеркало: https://антибот.рф/ ) Форум на замену серчу: https://foxi.biz/
InLessa
На сайте с 18.10.2012
Offline
55
#4
foxi:
на деле - это значит "не выкладывать контент в выдачу". но посещать он, да и гугл тоже, все равно будут, чтоб посмотреть что вы там прячите.

Жаль.. до последнего надеялась, что их оттуда убрать можно.

LEOnidUKG
На сайте с 25.11.2006
Offline
1773
#5
foxi:
на деле - это значит "не выкладывать контент в выдачу". но посещать он, да и гугл тоже, все равно будут, чтоб посмотреть что вы там прячите.

Только гугл ещё и выложит в индекс с пометкой "Содержимое закрыто robots.txt" но выдавать будет как миленький.

ValD
На сайте с 14.06.2007
Offline
146
#6

Закрытое от индексации всё равно индексируется, но не учитывается в ранжировании (по словам ПС).

Также страницы, ссылки на которые находятся на "закрытых" адресах, тоже будут проиндексированы.

Рискну предположить, что робота просто неоптимально делать так, чтоб он мог выборочно что-то жрать. Он жрёт всё, а затем уже ненужное отсеивается.

п.с.

Из гугла можно удалять целые каталоги, заново он редко ест закрытые адреса. Это чтоб из выдачи пропало.

С яндексом похуже, но тоже можно.

LEOnidUKG
На сайте с 25.11.2006
Offline
1773
#7

Вообще можно и запретить в роботсе и сделать через PHP считывания юзерагента, если это бот то ему 404 ошибку и всё.

богоносец
На сайте с 30.01.2007
Offline
774
#8
InLessa:
Почему так?

А вы ссылки на них боту показали. И вот чувак задумался о том, что на некоторых страницах PR (которого могло бы быть чуть больше на продвигаемых).

Rotten2
На сайте с 26.03.2008
Offline
65
#9

и что вам не нравиться?

в индексе 0 страниц.

А так и Я и G просматривают вообще все файлы и директории...

Только в начале пути...
MK
На сайте с 01.03.2014
Offline
1
#10

Закрытие от индексации не делает контент невидимым, так же как и ссылки, робот всё равно его просканит.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий