Проблема с удалением страниц, запрещённых в robots.txt

A6
На сайте с 04.04.2007
Offline
53
275

я раскручиваю определённые страницы сайта... по своей оплошности не заметил, что у этих страниц есть ПОЛНЫЕ дубли на этом же сайте, причём яндекс эти дубли яндекс уже распознал как основные страницы, а мои страницы исключил из поиска как "слишком похожие"

Програмисты меня заверили, что удалить дубли нельзя так как "это одна страница, просто имеет разные адреса", ну да хрен с ними, запретил индексацию дублей в robots.txt строкой

Disallow: /products/fire

Сначала они выпали, мои страницы проиндексировались, но с этим АПом всё вернулось обратно...

Пытаюсь удалить дубль через удаление URL он пишет что "страница не существует" ввожу тот же самый адрес через url="" - находит! Пытаюсь добавить эту страницу - пишет "не был внесен в базу Яндекса, так как он запрещен к индексации в файле robots.txt"

Скажите мне пожалуйста, если яндекс видит, что урл запрещён - какого хрена страницы присутсвуют в поиске?

И если они присутвуют, то почему я не могу их удалить?

Miralinks (http://miralinks.ru/users/registration/from:5878) - система размещения статей, возможен ручной режим. Заработок и уверенность вебмастерам. Постоянный эффект от вечных статей - оптимизаторам. ГС и помойки не берут!
A6
На сайте с 04.04.2007
Offline
53
#1

Обновление

kimberlit
На сайте с 13.03.2007
Offline
370
#2

fire - папка?

Может так:

Disallow: /products/fire/

А вообще ищите косяки в движке сайта, чтоб не делал дублей.

Программисты могут всё, только они иногда ленятся )))

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий