robots.txt для DLE

12
V8
На сайте с 11.09.2010
Offline
20
994

Подскажите пожалуйста, как закрыть от индексации все файлы с расширением html (собственно сами новости и статические страницы)?

cheredov
На сайте с 07.04.2011
Offline
125
#1
Viki87:
Подскажите пожалуйста, как закрыть от индексации все файлы с расширением html (собственно сами новости и статические страницы)?

Есть два варианта, закрыть в robots.txt и в htaccess. Вам зачем это нужно?

Иван Чередов (http://ivan.cheredov.com/about/)
Hallboy222
На сайте с 24.02.2010
Offline
119
#2

Disallow: /*html

В robots.txt

Магазин аккаунтов с балансом Litres,DNS,Ozon,Rotapost и еще 50+ других сервисов тут - vk.cc/7QK0Sk
V8
На сайте с 11.09.2010
Offline
20
#3
cheredov:
Есть два варианта, закрыть в robots.txt и в htaccess. Вам зачем это нужно?

На базе DLE сделан сайт знакомств, а так как все анкеты приблизительно похожи и ценности для ПС не несут, решил продвигать только категории, т.е. "знакомства в москве", "знакомства в хабаровске" и т.п. Как в robots.txt закрыть уже расказали выше, но читал у многих сеошников, что порой поисковики игнорируют его и индексируют, потому вариант с .htaccess более надежный. Не подскажете как закрыть индексацию через .htaccess ?

cheredov
На сайте с 07.04.2011
Offline
125
#4
Viki87:
порой поисковики игнорируют его и индексируют, потому вариант с .htaccess более надежный

ПС его не игнорируют. У robots.txt рекомендательный характер, и для ваших задач грамотной настройки robots.txt достаточно. Если все таки решили запретить жестко индексацию - пройдите по ссылке запрет индексации. Если лень читать и разбираться - напишите задачу - мы напишем решение.

V8
На сайте с 11.09.2010
Offline
20
#5
cheredov:
ПС его не игнорируют. У robots.txt рекомендательный характер, и для ваших задач грамотной настройки robots.txt достаточно. Если все таки решили запретить жестко индексацию - пройдите по ссылке запрет индексации. Если лень читать и разбираться - напишите задачу - мы напишем решение.

Статья хорошая, но решения своего вопроса не нашел там. А задача та же - запретить через .htaccess индексацию всех файлов с расширением html. Что туда прописывать?

cheredov
На сайте с 07.04.2011
Offline
125
#6
Viki87:
Статья хорошая, но решения своего вопроса не нашел там. А задача та же - запретить через .htaccess индексацию всех файлов с расширением html. Что туда прописывать?

RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]

RewriteCond %{HTTP_USER_AGENT} ^Yandex.*

RewriteRule ^.*\.html$ – [F]

V8
На сайте с 11.09.2010
Offline
20
#7
cheredov:
RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^Yandex.*
RewriteRule ^.*\.html$ – [F]

Поставил эти строчки, прогнал через анализ сайта в Rookee - вылезла "техническая ошибка: одно из зеркал не работает". Еще есть варианты?

K
На сайте с 31.01.2001
Offline
737
#8
Viki87:
А задача та же - запретить через .htaccess индексацию всех файлов с расширением html. Что туда прописывать?

Удаление аппендицита через задницу? Орригинально.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
iren K
На сайте с 28.12.2008
Offline
222
#9
Viki87:
Еще есть варианты?

можно запретить доступ бота пс к файлам с расширением .html :

создайте правило для бота нужной пс - типа:

SetEnvIfNoCase User-Agent "^Yandex" search_bot
SetEnvIfNoCase User-Agent "^Googlebot" search_bot

затем пропишите запрет на доступ, например:

<Files "\.(html)$">
Order Deny,Allow
Allow from all
Deny from env=search_bot
</Files>

как-то так..

c уважением Iren
cheredov
На сайте с 07.04.2011
Offline
125
#10
Viki87:
Поставил эти строчки, прогнал через анализ сайта в Rookee - вылезла "техническая ошибка: одно из зеркал не работает". Еще есть варианты?

Вряд ли эта ошибка связана с запретам доступа роботам к файлам *.html. Не работает одно из зеркал. Проверьте зеркала сайта.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий