Stromgard

Stromgard
Рейтинг
57
Регистрация
11.12.2005
Pavel2005:
Да, а точнее для наших поисковиков это не сделать в настоящее время.
Вот это самое разумное :)

Согласен. Спасибо

K. Ermakov:
Ошибаетесь. Ответили: /ru/forum/comment/1042887

Извините, был не прав. Исправлюсь.🙄

Все решилось написанием скрипта. Всем спасибо.

Arty.M:
Доработаный скрипт для создания списка исключений для robots.txt по маске (добавить в начало "User-Agent: *" руками)
#/bin/sh
find /путь/к/каталогу/www/ -name '*.doc' | sed 'e printf "Disallow: "' > robots.txt

Это для shell?

User-Agent: *
Disallow: /*.doc$
Disallow: /*.pdf$

Мне так и не ответили... Будет ли ЭТО работать?

pro-maker:
Stromgard, если речь о сайте в подписи, можно попробовать добавить карту сайта (только doc-файлы в неё не вносите).

Нет, не он, я ж указал впервом посте www.infodez.ru...

Дело в том что по некоторым запросам в Яндексе вылазят именно они, а не страницы сайта. Соответственно на них нет навигации и мы просто теряем посетителя.

Seventh Son Респект.

mediatime:
я думаю топикстартер имел ввиду, что у него не такой возможности.
Вопрос можно озвучить так:

Как закрыть расширения .doc по маске ?
Если мне память не изменяет это вот так :
Disallow: *.doc
но точно не помню надо копать

Т.е. подобное будет работать?


User-Agent: *
Disallow: /*.doc$
Disallow: /*.pdf$
FlyAway:
Stromgard, запихнуть их в отдельную директорию и её закрыть в robots.

К сожалению это невозможно :-( Неужто нет софта соответствующего? 🙅

ЗЫ. За минусы пасиб тоже.

Добавился, спасибо.

чень хотелось бы увидеть медицину....

Во первых. Поставь себе Googe Bar http://toolbar.google.com/intl/ru/

Во вторых можно посмотреть в веб-севисах типа _be1.ru

И В-третьих поиск рулит

Всего: 563