Arty.M

Рейтинг
57
Регистрация
04.11.2003

пришлите урл и цены, пожалуйста

GiLiOTiN, можно урл в личку? посмотрю наличие сессий

KLArk:
Можно бороться с этим так - добавьте строчку
Disallow: /?

тогда, если сайт динамический (через GET передаются еще параметры) вообще потом ничего найти нельзя будет ;)

:) только сегодня с утра вспоминал, думал "надо спросить"

напишите в личку url и цену

Stromgard:
Мне так и не ответили... Будет ли ЭТО работать?

валидатор

http://www.searchengineworld.com/cgi-bin/robotcheck.cgi

Stromgard:
это для shell?

да

Доработаный скрипт для создания списка исключений для robots.txt по маске (добавить в начало "User-Agent: *" руками)

#/bin/sh

cd /путь/к/каталогу/www/

find . -name '*.doc' | sed 'e printf "Disallow: "' | sed -e 's:./:/:' > robots.txt

редакция в 15:43, так совсем правильно получается

#/bin/sh

find /...../www/ -name *.doc > file.txt

kletka, Russian, Gray, desx, благодарю за информацию. Не велика разница в деньгах (с nic.ru), зато спокойнее.

The end, в этом смысле (про рефинансирование) он правильно говорит. Но окупаемость в 8 лет... хм

Всего: 514