как безболезненно выкинуть ненужные страницы из индекса?

S
На сайте с 03.09.2008
Offline
78
823

Вообщем домен старый, был на нем сайт урлы типа artic=120& ну и т.д., 2 года назад сайт я переделал, движек через мод_реврите имеет "красивые урлы" ну и т.д., сайт большой, куча всего, все уник., вообщем в структуре сайта в панеле в яше, показываются порядка 800 урлов от старого, задавал както вопрос в суппорт посоветовали исключить из индекса весь сайт потом опять добавить, чтото не хочется, вообщем в robots.txt задал запрет индексации этих урлов, прошло месяца 4 непомогает. Сайт обрабатывает вообще все урлы, если нет то пишет что нет такой страницы на сайте, всего в индексе 9к страниц, так вот можно какнибудь безболезненно избавиться всетаки от этих лишних страниц

sabotage
На сайте с 14.02.2007
Offline
192
#1
sergeykur:
Сайт обрабатывает вообще все урлы, если нет то пишет что нет такой страницы на сайте

В заголовке отдает header("HTTP/1.0 404 Not Found") или 200 OK?

Настраивайте, нерабочие урлы бот выкинет сам, после нескольких обходов.

sergeykur:
движек через мод_реврите

Движок на иврите работает, наверное :)

Sasha_l
На сайте с 22.08.2003
Offline
107
#2

в htaccess пропишите 302 редирект со старых страниц на новые

и редирект будет работать и потихоньку вылетят все старые страницы с индекса ПС

Оптимизирую и продвину ваши сайты "под ключ" (http://www.seodoktor.ru/) Skype: SeoDoktor
Alek$
На сайте с 25.06.2008
Offline
34
#3

sergeykur, еще можно запретить эти страницы в robots.txt и потом воспользоваться этой страничкой: http://webmaster.yandex.ru/delurl.xml

Google Cache Dumper & Bing Cache Dumper (/ru/forum/479980) RegSubmitter - Регистратор аккаунтов в социальных закладках (/ru/forum/300978) Мой блог (http://nevkontakte.org.ru).
M
На сайте с 19.03.2008
Offline
123
#4
Alek$:
sergeykur, еще можно запретить эти страницы в robots.txt и потом воспользоваться этой страничкой: http://webmaster.yandex.ru/delurl.xml

Для быстрого удаления всегда так делаю, просто если у вас урлов удалять много то запретите

в robots

url/stranica.php?article=

и здесь выберите

удалить весь подкаталог (все URL, начинающиеся с данной строки)

тогда удалит все url/stranica.php?article=

обычно в течении нескольких апов удаляет

Alek$
На сайте с 25.06.2008
Offline
34
#5
massu:

url/stranica.php?article=
и здесь выберите
удалить весь подкаталог (все URL, начинающиеся с данной строки)

Что я и имел ввиду ;)

SK
На сайте с 31.01.2005
Offline
72
#6
sergeykur:
вообщем в robots.txt задал запрет индексации этих урлов, прошло месяца 4 непомогает

Если robots.txt составлен правильно, за это время страницы должны были удалиться.

Вы бы ссылку на сайт дали, тогда посоветовать можно что-то конкретное.

Форум "ПолитДиалог" (http://forum.politdialog.ru/): мы не правые, не левые, не за власть, не против нее. Мы - граждане России, все зависит только от нас! С уважением, Сергей Кротов.
M
На сайте с 14.08.2008
Offline
26
#7

если все страницы имеют урл типа artic=блаблабла , то в robots.txt

Disallow: /artic=

но лучше 301 редирект с них на морду если контента по ним нет

Размещение статей по недвижимости на сайте из ЯК (/ru/forum/290692)
R
На сайте с 22.06.2007
Offline
174
#8
sergeykur:
безболезненно избавиться всетаки от этих лишних страниц

от них надо не избавляться, а делать 301 редирект, как вам уже сказали.

Страницы могли набрать вес за этом время (PR, виц) - этот вес надо перелить на новые аналогичные. я в похожей читации делал 301-редирект через .htaccess - это имхо самый правильны способ

K
На сайте с 31.01.2001
Offline
737
#9
Sasha_l:
в htaccess пропишите 302 редирект со старых страниц на новые

Разумеется, это вредный совет, редирект должен быть 301.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий