Запрет к индексации

12
S
На сайте с 04.02.2004
Offline
37
624

Добрый день! У меня опять вопрос...

Можно ли с помощью robots.txt отключить от индексирования странички, отличающиеся по набору параметров?

Пример:

/default.asp?id=153&article=15

У меня есть ресурс, на котором каждый день добавляется большое количество новой информации и становится неактуальным еще большее количество.. Как можно еще сделать, чтобы запретить к индексации устаревшие страницы?

У меня есть только 2 идеи, помимо robots.txt

1. писать в тегах noindex

2. выдавать 404 ошибку.

NL
На сайте с 29.01.2003
Offline
212
#1

Да, можно обойтись robots.txt, если Вы сможете обеспечить 2 вещи:

1. Нужный порядок параметров в ссылках на всех внутренних страницах

2. Сможете запихнуть параметры, по которым нужно будет отрезать страницы, в начало URL

S
На сайте с 04.02.2004
Offline
37
#2

2NULL Мы не можем так сделать =(

А еще как нибудь можно?

NL
На сайте с 29.01.2003
Offline
212
#3

Ну тогда действительно только noindex в метатегах.

EB
На сайте с 23.03.2004
Offline
3
#4
Как писал Smolnyi
2NULL Мы не можем так сделать =(
А еще как нибудь можно?

выдавайте в заголовках этих страниц

<META NAME="ROBOTS" CONTENT="NOINDEX">

и все у вас должно получиться...

см. также http://www.yandex.ru/info/webmaster2.html

BRGDS, Emil Biserov
S
На сайте с 04.02.2004
Offline
37
#5

А это годится только для Яндекс или для всех поисковых систем?

И как быстро страницы будут исключены из базы поисковика? Приблизительно хотя бы?

[Удален]
#6

Вообще-то единственное корректное решение - отдавать всем (включая роботов) 404 на таких страницах. Это если проблема с устареванием информации, если проблема в том, что поисковики из-за старого не успевают индексировать новое - надо обрабатывать заголовок if-modified-since, и выдавать not modified для старых страниц.

Каширин
На сайте с 03.01.2004
Offline
1018
#7
Как писал Interitus
Вообще-то единственное корректное решение - отдавать всем (включая роботов) 404 на таких страницах.

То есть удалить, попросту говоря, эти страницы. Разве это решение?

Я бы сделал так: модрерайтом изменил бы такие страницы на что-то более однозначное, например: сайт.ру/категория/параметр

и запретил бы в роботс.тхт индексацию каталога сайт.ру/категория/

Это бы прокатило для всех поисковиков, а тег ноуиндекс работает только для наших.

[Удален]
#8
То есть удалить, попросту говоря, эти страницы. Разве это решение?

Ага. Если страницы имеют какую-то полезную нагрузку - значит их трогать не надо (ни вообще, ни в индексах поисковиков), а если нет - значит удалять.

T
На сайте с 14.11.2002
Offline
61
#9
то бы прокатило для всех поисковиков, а тег ноуиндекс работает только для наших.

Может "ноуиндекс" для западных и не катит, но noindex работать должен. ;)

Вот цитата взятая с

http://www.robotstxt.org/wc/exclusion.html:

In this simple example:
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
a robot should neither index this document, nor analyse it for links.

ХостТрекер | Мониторниг доступности вебсайтов. (http://host-tracker.com/ru/) Уведомление на e-mail или SMS.
[Удален]
#10

Вы метатег роботс и тег <noindex> не путайте, последний только русскими поддерживается (и то криво), первый - не только (но тоже бывает криво).

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий