Почему у сайта сетевого журнала Хакер такой пустой robots.txt?

12
S
На сайте с 30.09.2016
Offline
469
#11
donc:
Ну это можно и по коду сделать. Анализируя названия папок стилей и тп. Их, в 99% не меняют. Даже если вырезают все упоминания, как на серче:

По роботсу быстрее на порядки.

Отпилю лишнее, прикручу нужное, выправлю кривое. Вытравлю вредителей.
Dmitriy_2014
На сайте с 01.07.2014
Offline
344
#12

donc,

Да я особо то и не верю, я и не знаю почему они не фильтруют в robots.txt и он у них пустой, но думаю да это от крутизны сайта зависит или от ихней зависимости от поисковых систем.

donc
На сайте с 16.01.2007
Offline
680
#13
Sitealert:
По роботсу быстрее на порядки.

ну код страницы дольше качать, на пару мс. Но не сильно. Поверь. я с КД давно работаю и плотно


Dmitriy_2014:
и он у них пустой

Потому что я уже писал - нормально настроенному сайту он не нужен. все служебное - ноиндекс, дублей быть не должно и так далее. Где не надо посторонних - access denied.

Продвижение сайтов от 25 000 в мес, прозрачно, надежно https://searchengines.guru/ru/forum/818412 , но не быстро, отзывы
S
На сайте с 30.09.2016
Offline
469
#14
donc:
ну код страницы дольше качать, на пару мс. Но не сильно. Поверь. я с КД давно работаю и плотно

Ну и я вроде как не с луны свалился... ;)

Начало роботса для джумлы 1.5

User-agent: *

Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /libraries/
И для 3-й джумлы:
User-agent: *

Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Хрен ты это по коду страницы так сразу определишь.
donc
На сайте с 16.01.2007
Offline
680
#15
Sitealert:
Хрен ты это по коду страницы так сразу определишь.

Регулярками выцепить папки сложнее. Зато надежнее)) Но у меня в целом не было такой задачи никогда.

Dmitriy_2014
На сайте с 01.07.2014
Offline
344
#16

Интересное навскидку:

Зачем в robots.txt кот? - https://vc.ru/robots.txt

Почему на Хабре нет директивы Sitemap? - https://habr.com/robots.txt

Особые правила для Mail.RU_bot(Поисковая система Mail.ru?)? - https://pikabu.ru/robots.txt

Немаленький robots.txt(Может бывает и больше)? - https://www.sberbank.ru/robots.txt

WebAlt
На сайте с 02.12.2007
Offline
262
#17

ТС, robots.txt индивидуален, делай свой как тебе нужно, не надо оглядываться.;)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий