Подскажите софт для создания robots.txt

123
Stromgard
На сайте с 11.12.2005
Offline
57
#11

Дело в том что по некоторым запросам в Яндексе вылазят именно они, а не страницы сайта. Соответственно на них нет навигации и мы просто теряем посетителя.

pro-maker
На сайте с 08.12.2003
Offline
281
#12

Stromgard, если речь о сайте в подписи, можно попробовать добавить карту сайта (только doc-файлы в неё не вносите).

Stromgard
На сайте с 11.12.2005
Offline
57
#13
pro-maker:
Stromgard, если речь о сайте в подписи, можно попробовать добавить карту сайта (только doc-файлы в неё не вносите).

Нет, не он, я ж указал впервом посте www.infodez.ru...

NB
На сайте с 14.01.2006
Offline
11
NWB
#14

А вот так: Disallow .doc нельзя?

pro-maker
На сайте с 08.12.2003
Offline
281
#15
Stromgard:
Нет, не он, я ж указал впервом посте www.infodez.ru...

Stromgard, а на www.infodez.ru почему не сделать карту и в ней прописать необходимые страницы или у Вас все 500 доков выше штмл-я?

П.С.

http://www.infodez.ru/prod_a.html - закройте ноиндексом пиктограммы, только вложенность соблюдайте.

Евген
На сайте с 28.02.2004
Offline
1040
#16

пару ссылок вам помогут ;)

Арбитражишь? подними РОИ на 10-20% - бонусы на пополнение рекламных сетей (тм, мт, твк, твс) (https://eprofit.me/ru/partner?olymp)
K. Ermakov
На сайте с 10.12.2004
Offline
328
#17
NWB:
А вот так: Disallow .doc нельзя?

Нет.

Читать, например, здесь

С уважением, Константин Ермаков, absite.ru: онлайн кроссворды (http://absite.ru/); searchsuggest.ru: поисковые подсказки доставляют (http://searchsuggest.ru/).
Stromgard
На сайте с 11.12.2005
Offline
57
#18
User-Agent: *
Disallow: /*.doc$
Disallow: /*.pdf$

Мне так и не ответили... Будет ли ЭТО работать?

AM
На сайте с 04.11.2003
Offline
57
#19

Доработаный скрипт для создания списка исключений для robots.txt по маске (добавить в начало "User-Agent: *" руками)

#/bin/sh

cd /путь/к/каталогу/www/

find . -name '*.doc' | sed 'e printf "Disallow: "' | sed -e 's:./:/:' > robots.txt

редакция в 15:43, так совсем правильно получается

Stromgard
На сайте с 11.12.2005
Offline
57
#20
Arty.M:
Доработаный скрипт для создания списка исключений для robots.txt по маске (добавить в начало "User-Agent: *" руками)
#/bin/sh
find /путь/к/каталогу/www/ -name '*.doc' | sed 'e printf "Disallow: "' > robots.txt

Это для shell?

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий