siv1987

siv1987
Рейтинг
427
Регистрация
02.04.2009

УРЛ сам подставляется по регулярному выражению. Если старые адреса сохранились, нет смысла писать для каждого построчно.

но в исключенных страницах просто тысячи вот такого бессмысленно барахла.

robots.txt


Disallow: /*?pview=*
1) Что это?

Список запрещенных адресов.

2) Что с этим делать, чтобы помочь сайту удержаться на плаву?

Внимательно читайте нотисы на странице, где показывается это барахло.

404-ый редирект не бывает. Бывает либо редирект, либо 404, либо редирект на 404.

Так что же если 404-ая всю жизнь будет перенаправлять на главную страницу?

Всю жизнь. А что вы бы хотели, что-бы произошло при запросе несуществующей странице?

Без - скорее всего никак. Используйте preg_replace_callback (если php конечно), или спарсите все ссылки и проверяйте полученный массив на запрещенное слово.

href="[^"]+css.+?"

В версии для печати меньше мусора

substr_count( "string", "" );

Warning: substr_count() [function.substr-count]: Empty substring.

Всего: 6568