Artisan

Artisan
Рейтинг
377
Регистрация
04.03.2005
Пишу программы для вычислительных машин, от драйверов устройств, до сложных систем для работы с большим количеством знаний. Умею бережно использовать железо, и другие ресурсы.
Как писал Перец
Ну а я взял этот хостинг как раз из-за возможностей панельки, а рутом вообще не пользуюсь. Так что у каждого свой подход.

"Айболит 66",

режиссер Р.Быков,

песня Нормальные Герои,

музыка Б.Чайковского,

слова В.Коростылева.

Ходы кривые роет

Подземный умный крот.

Нормальные герои

Всегда идут в обход!

Нормальные герои

Всегда идут в обход!

В обход идти, конечно,

Не очень-то легко.

Не очень-то приятно,

И очень далеко!

Не очень-то приятно,

И очень далеко!

Но мы с пути кривого

Обратно не свернем.

А надо будет снова

Пойдем кривым путем!

А надо будет снова

Пойдем кривым путем!

Как писал InSAn
Я говорю о документах, размещенных на W3C

Если Вы читали логи то возможно встречали там адрес который Google робот посылает при каждом запросе.

http://www.google.com/bot.html

There is a standard for robot exclusion at http://www.robotstxt.org/wc/exclusion.html#robotstxt
Как писал InSAn
Блин, не могу найти тот документ, в котором говорилось о том, что если в начале слеш - считать от корня, если нет слеша - от начала любой диретории

Стандарт который только и может называться документом Вам уже нашли а все остальное не документы а толкования.

Как писал InSAn
А при чем здесь http-запрос?

Для ясности.

Как писал InSAn
В стандарте ясно написано, что:
Disallow: page
запрещает индексировать как страницы, так и каталоги, начинающиеся с "page".
Но не урл (без имени хоста), начинающийся с "page".

http://www.robotstxt.org/wc/norobots.html

Disallow
The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved. For example, Disallow: /help disallows both /help.html and /help/index.html, whereas Disallow: /help/ would disallow /help/index.html but allow /help.html.

Обратите внимание на слово URL и косую черту в начале каждого пути.

Как писал InSAn
Начинающееся НЕ ОТ КОРНЯ, если нет слеша ("/")

Самое смешное во всем этом то что как в HTTP запросе как раз только от корня все и считается.

Как писал rustelekom
Все таки, урезать все до ссх, это как то назад в прошлое получается.

А кто мешает чайнику запустить на сервере Midnight Commander или похожую программу и работать со всеми удобствами?

Как писал rustelekom
такие архивы лучше отправлять в суппорт - из под рута это и проще и быстрее и без геморроя для всего сервера в целом.

Распаковывать под root архивы пользователей могут только камикадзе, похоже что Вы забыли про дыры в архиваторах типа обработки путей и прочих пакостей, а сколько этих дыр еще осталось никто не знает.

Как писал InSAn
Чмтаем внимательно описание поисковых стандартов для роботс.тхт, в котором сказано, что в случае:
Disallow: page
будут запрещены к индексации все страницы и директории, начинающиеся на "page"

Ключевое слово начинающиеся,

то есть чтобы закрыть то что надо придется явно перечислять все числа потому что согласно стандарту никаких регулярных выражений робот не поймет.

Disallow: /stat/0/page/

Disallow: /stat/1/page/

Disallow: /stat/2/page/

Disallow: /stat/3/page/

...

Disallow: /stat/999/page/

Если Вы хотите чтобы robots.txt был поменьше то придется переделать сами пути к документам то есть сделать типа того как ниже где после завершающей косой черты будут числа.

Disallow: /stat/page/

А еще проще добавить в те документы которые не надо индексировать META метки NOINDEX и другие из этого набора.

Как писал Andreyka
У нормальных хостеров их нормальные панели позволяют распаковать архив после залития :D

Через панель пока не пробовал, везде где надо ssh есть, а нормальные панели позволяют использовать любые программы архивации с любыми параметрами без ограничения времени выполнения или только жесткий набор с ограничением времени выполнения?

Как писал Cossack
А зачем?

Гениально, ...

Всего: 5931