Программисты, помогите советом. Всю голову сломали уже...

El_grapaduro
На сайте с 01.09.2008
Offline
315
704

Ситуация следующая:

Есть сайт - http://www.chicco-toys.ru/

В индексе более 2000 страниц. Примерно половина страниц это комменты вот такого плана.

http://www.chicco-toys.ru/index.php?productID=2447&discuss=yes

Данные страницы являются пустыми для яндекса и появилась необходимость их удалить. Эти страницы генерируются автоматически при нажатии на кнопку "коментить". Такие кнопки и ссылки ведущие на данную страницу убрали, но нам необходимо что бы по данным адресам этих страниц сервер отдавал 404.

Страницы эти появляются на одной ленте с товарами и я немогу их закрыть в роботс или удалить через вебмастера. 404 необходимо поставить по адресам этих страниц.

В общем непонятно как реализовать. Помогите советом, идеей или предположением. Буду рад любым мыслям.

Malcolm
На сайте с 02.05.2007
Offline
119
#1

Куда-нибудь в функцию, генерирующую страницы, вставьте проверку

if (isset($_GET['discuss']))
if ($_GET['discuss'] == 'yes')
{
header("HTTP/1.x 404 Not Found");
die();
}

Или прямо в index.php можно

El_grapaduro
На сайте с 01.09.2008
Offline
315
#2

Это даст 404 на существующих страницах?

Malcolm
На сайте с 02.05.2007
Offline
119
#3

El_grapaduro, даст 404 в серверных заголовках и убьет страницу. А если die() убрать, то только в заголовках 404 будет.

El_grapaduro
На сайте с 01.09.2008
Offline
315
#4

Расскажу программисту. Спасибо!

[Удален]
#5
El_grapaduro:
Страницы эти появляются на одной ленте с товарами и я немогу их закрыть в роботс или удалить через вебмастера. 404 необходимо поставить по адресам этих страниц.

Долго думал, что вы хотели сказать (как это "Страницы на одной ленте"?).

Помотрел страницу. Не вижу причин почему нельзя её закрыть в роботс.

Если ещё нужно и 404, то в .хтакцесс прописать правило. Но запрет в роботс - всё равно.

Bdiang
На сайте с 19.07.2006
Offline
102
#6

El_grapaduro, можно еще в robots.txt, дополнительно к 404 использовать Директиву Clean-Param.

Если адреса страниц вашего сайта содержат динамические параметры которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т.п.), вы можете описать их при помощи директивы 'Clean-param'. Робот Яндекса, используя эту информацию, не будет многократно перезакачивать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.

Update. Похоже поторопился, эта директива используется в случае если параметр discuss=yes не влияет на содержимое.

В замен этого предлагаю такой вариант:

В robots.txt прописать disallow: /*discuss=yes$

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий