Запрет к индексации

123 4
P2
На сайте с 16.09.2005
Offline
183
2845

Вопрос: как запретить к индексации файлы, в которых присутсвуют некоторые символы.

К примеру, я хочу запретить к индексации все файлы с расширением .php или файлы со словом print

К примеру такой путь:

forum14/thread252-print.html

KO
На сайте с 19.11.2005
Offline
56
#1

все файлы с расширением .php

Disallow: /*.php$


файлы со словом print

Disallow:/*-print.html$

wolf
На сайте с 13.03.2001
Offline
1183
#2

Я думаю, далеко не все поисковики могут поддерживать wildcards в файле robots.txt, т.к. это расширение формата - не стандартное.

На мой взгляд, более корректный путь - использование для таких файлов мета-тега robots со значением noindex

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
KO
На сайте с 19.11.2005
Offline
56
#3

Я думаю, далеко не все поисковики могут поддерживать wildcards в файле robots.txt, т.к. это расширение формата - не стандартное.

Точно, проверил валидатором.. имхо такой robots.txt только для гугля прокатит

P2
На сайте с 16.09.2005
Offline
183
#4
wolf:
На мой взгляд, более корректный путь - использование для таких файлов мета-тега robots со значением noindex

С этим согласен.

Дело в том, что таких файлов немало :)

Ручками это придется делать полгода ;)

Есть ли другие способы?

Cmit
На сайте с 16.11.2005
Offline
106
#5

Если вы можете автоматом получить список этих файлов, то можно автоматом сгенерить роботс.тхт

Но если файлов много, то вопрос - сколько строк схавает бот? Возможно есть ограничение на размер файла роботс.тхт.

куплю ссылки -> оргтехника и близкие тематики. //Оставляйте историю переписки!//
wolf
На сайте с 13.03.2001
Offline
1183
#6
Pavel2005:
Ручками это придется делать полгода

А почему именно ручками? Неужели нет возможности сделать это автоматом?

P2
На сайте с 16.09.2005
Offline
183
#7
wolf:
А почему именно ручками? Неужели нет возможности сделать это автоматом?

А мнение k-os в данном случае верно? Больше волнует Яндекс.

V
На сайте с 26.08.2005
Offline
4
#8

1. Перехватываете запрашиваемый Url

2. Смотрите кто запросил страницу (поисковая машина или человек)

3. Парсите имя страницы / контент страницы на предмет закрытия индексации яндексом или другими поисковиками.

4. Если поисковая машина - то выдаете пустую страницу или страницу с тегом ноиндекс, если человек - то показываете страницу.

В итоге:

1. Работает без отказов.

2. Можно закрыть индексацию как ко всем поисковикам (даже к тем, которые игнорируют роботс.тхт), так и поотдельности, например только яндексу.

Все.

wolf
На сайте с 13.03.2001
Offline
1183
#9
VEgor:
Если поисковая машина - то выдаете пустую страницу или страницу с тегом ноиндекс, если человек - то показываете страницу.

А не проще ли просто 404 отдать?

P2
На сайте с 16.09.2005
Offline
183
#10
wolf:
А не проще ли просто 404 отдать?

А как я отдам 404 именно на те страицы, которые мне не нужны?

Еще немного добавлю: речь идет о форуме. На нем установлен хак, который формирует статику.

Мне необходимо все .php фалй запретить, а также страницы для печати.

Вот как это сделать?

Спасибо :)

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий