Как удалить большое количество страниц?

M
На сайте с 08.10.2010
Offline
28
323

На сайте порядка 20000 страниц. Каждая страница - это описание лекартсва и его цены по аптекам страны.

Вопрос №1. Есть много лекарств вида Аспирин №10 и Аспирин №20 (то-есть по 10 и 20 штук в упаковке соответственно). Их описание идентично. Но набор аптек, где есть текущее лекарство, и тем более цены, могут сильно отличатся. В принципе - две разные страницы. Но понятно, что гугл считает их очень похожими, если вовсе не дубликатами.

Было решено оставить из таких страниц только одну "главную" в индексе, а всем остальным указать эту, как canonical. Правильное ли было решение?

Вопрос №2. Страницы вида "../аспирин/?sort=price" попали в индекс (так получилось, что забыли их закрыть в robots.txt). Их порядка 60000 и все они сейчас в дополнительном индексе. Я читал, что если сайт имеет большое количество страниц в дополнительно индексе, то это очень негативно влияет на основную выдачу. Правда ли это и каким образом можно удалить всё из дополнительного индекса? Раньше на всех таких страницах стоял noindex и было ограничение в robots.txt. Каждый день вебмаст гугла в "ошибках сканирования/ограничено файлом robots.txt" удалял по 2000-3000 страниц в день (за месяц более 70000), но по запросу site:[site.ru] ничего не изменялось (остается 70000).

Напишите, если есть какие-то соображение, на сколько правильно я всё делаю. Спасибо

ЗЫ. сайт - http://tabletki.ua

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий