- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт: www.infodez.ru
Там лежит туева хуча вордовских файлов (более 500) в разных директориях. Как бы полегче запихнуть их все в robots.txt?
Ручками сложно + отсутсвие времени...
Подскажите плз.
P.S. Щас нахватаюсь минусов....
Stromgard, запихнуть их в отдельную директорию и её закрыть в robots.
Notepad 🚬
Сложите их все в одну папку и запретите к индексации.
Stromgard, запихнуть их в отдельную директорию и её закрыть в robots.
К сожалению это невозможно :-( Неужто нет софта соответствующего? 🙅
ЗЫ. За минусы пасиб тоже.
я думаю топикстартер имел ввиду, что у него не такой возможности.
Вопрос можно озвучить так:
Как закрыть расширения .doc по маске ?
Если мне память не изменяет это вот так :
Disallow: *.doc
но точно не помню надо копать
#/bin/sh
find /...../www/ -name *.doc > file.txt
Seventh Son Респект.
я думаю топикстартер имел ввиду, что у него не такой возможности.
Вопрос можно озвучить так:
Как закрыть расширения .doc по маске ?
Если мне память не изменяет это вот так :
Disallow: *.doc
но точно не помню надо копать
Т.е. подобное будет работать?
User-Agent: *
Disallow: /*.doc$
Disallow: /*.pdf$
Как закрыть расширения .doc по маске ?
Если мне память не изменяет это вот так :
Disallow: *.doc
но точно не помню надо копать
так нельзя.
Как закрыть расширения .doc по маске ?
Если мне память не изменяет это вот так :
Disallow: *.doc
но точно не помню надо копать
В Google копайте :) http://www.google.com/webmasters/remove.html#exclude_pages
Но это справедливо только для него
Stromgard, а по-другому для всех роботов не запретишь.
Там лежит туева хуча вордовских файлов (более 500) в разных директориях. Как бы полегче запихнуть их все в robots.txt?
Ручками сложно + отсутсвие времени...
кстати вопрос - зачем? ну лежа и лежат.. и фиг с ними..