Как удалить из Я-индекса много УРЛов?

AB
На сайте с 01.02.2006
Offline
11
586

С полгода назад на сайте ради отслеживания поведения посетителей пометил УРЛы ярлыками типа ?_menu1, ?_menu2.

Т.е. получилось, что на одну страницу ведут сразу несколько УРЛов, отличающихся только параметром после ?.

Яндекс проиндесировал и всосал в себя все эти УРЛы. Вместо реальных 300 страниц он думает, что на сайте 600, причем все дублируются. За полгода сам Яндекс не избавился от этих виртуальных страниц.

Вроде как никаких поражений в результатах не вижу. Но все равно не порядок.

Все файлы в одной директории. Скармливать вручную - клавиатуру стопчешь. Вайлдкарты (*?*, к примеру) ни роботс, ни Яндекс не понимают, насколько знаю.

С сайта удалил все эти параметры, сделал через JavaScript.

Как бы теперь почистить весь этот хлам?

NikoX
На сайте с 19.04.2007
Offline
66
#1

Надо запретить к индексации в robots.txt.

Или выдавать по ненужным запросам 404...

C уважением, Предводителев Сергей (VJiK)
AB
На сайте с 01.02.2006
Offline
11
#2

Не вписывать же в robots несколько сотен УРЛов.

Или можно? А нет ли каких-то ограничений по размеру файла robots.txt?

saidnavy
На сайте с 22.11.2005
Offline
235
#3

http://www.robotstxt.org/wc/norobots.html - стандарт по составлению роботс.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий