Vincent_, в вашем случае надо так:
Options +FollowSymlinks RewriteEngine on RewriteCond %{HTTP_HOST} ^domain\.ru [NC] RewriteRule ^(.*)$ http://www.domain.ru/$1 [R=301,NC,L]
А если надо с www. делать редирект на зеркало без www. ,
то делается это универсально и даже домен указывать не надо!
Options +FollowSymlinks RewriteEngine on RewriteCond %{HTTP_HOST} ^www\.(.*) [NC] RewriteRule ^(.*)$ http://%1/$1 [R=301,NC,L]
На том хосте конечно же уже есть ftp- и/или ssh-сервер,
так что никакой код туда добавлять уже не надо...
Следует корректно написать клиентскую программу
(на первом компе) - реализовать в ней нужную функциональность.
Зайдите по ssh в директорию, в которой имеется этот файл
и введите команду pwd
Она сразу напечатает полный путь к текущей директории.
полностью подтверждаю!
так что приведённый только что код на shell здесь не нужен,
вот - одна команда:
wget --random-wait -r -l inf -k -K -E -e robots=off http://site.ru/
только что проверил её на одном своём сайте, т.к. тот, что вы привели в личку очень велик,
команда отработала и я получил копию сайта со всеми картинками и т.д.,
пригодную для локального просмотра,
ну и на сайт, разумеется можно эту копию выложить теперь...
Важное замечание: wget в данном случае ключевые преобразования выполнит только в самом
конце, когда скачает всё от и до. Так что если вы остановите команду и посмотрите - преобразовывает ли он в html-коде href'ы корректно, то увидите что НЕТ, не преобразовывает (на лету), но вы дождитесь просто - в конце он это сделает.
Rishpik, напишите точную команду которой вы скачивали сайт,
и сайт этот, желательно, укажите, на всякий случай
(в личку, как вариант)
там, похоже, каких-то опций не хватает,
потом надо будет ещё раз стягивать,
т.к. переконвертить всё это некорректно стянутое хозяйство может оказаться сложней
А как насчёт редактора vim?
Зачем?
Вон юниксоид предложил замечательную альтернативу...
файл `robots.txt' предназначен для чтения клиентской стороной,
если бы в нём содержались инструкции для управления поведением сервера,
то для клиента он, очевидно, был бы недоступен
как я уже сказал, на уровне сервера никакой защитной функции этот файл не выполняет,
но мало ли что там у них другое есть для защиты от скачки, этого не знаю
команду эту я запустил перед тем как здесь опубликовать и несколько файлов она скачала,
после чего я её за ненадобностью остановил
KiraL, правильно думаете.
Я ещё в 23-м посте просил об этом и в 28-м тоже просили,
даже немного странно, что никто так и не сделал этого.
Права доступа - это основа основ!
UNIX (Linux) - не винда, он интуитивно не понятен, так что без хорошей книжки
(А. Робачевский или Г. Курячий) вам не обойтись...