Запрет индексации системных папок в robots.txt

GA
На сайте с 16.06.2013
Offline
61
652

Здравствуйте.

Как-то сидел, дособирал свой сайтик и вдруг в голове возник вопрос: а зачем закрывать в роботс системные файлы/папки?

Да, я всегда это делал, наверно потому что во всех статьях и уроках так делается. Но для чего? Точнее для чего с технической точки зрения понятно, но вопрос необходимости на практике...

1. Как боты могут вообще найти эти пути типа домен/inc, домен/admin и т.п.? Ссылки нигде, ведь не светятся

2. Зачастую по этим адресам бот ничего не найдёт, т.к. либо будет перекрыт доступ, либо пустая страница (пустой index.php файл в корне папки)

3. Благодаря этим прописям в роботс часто можно узнать на чём собран сайт

Объясните смысл, пожалуйста )

S
На сайте с 28.10.2005
Offline
296
#1

Что бы мусор в индекс не попадал, кроме ссылок есть еще тулбары, хромы и яндекс браузеры

Devvver
На сайте с 02.07.2008
Offline
663
#2

Green arrow, я тоже так думал. Пока у меня гугл не проиндексировал 3К страниц с вариантами подбора капчи для ВП.

С тех пор просто делаю так, как делают тысячи человек до меня.

Мой блог. Все о создании сайтов,Seo и СДЛ ( https://devvver.ru/ ) Мой SEO телеграм канал https://t.me/seobloggers

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий