- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ситуация следующая:
Есть сайт - http://www.chicco-toys.ru/
В индексе более 2000 страниц. Примерно половина страниц это комменты вот такого плана.
http://www.chicco-toys.ru/index.php?productID=2447&discuss=yes
Данные страницы являются пустыми для яндекса и появилась необходимость их удалить. Эти страницы генерируются автоматически при нажатии на кнопку "коментить". Такие кнопки и ссылки ведущие на данную страницу убрали, но нам необходимо что бы по данным адресам этих страниц сервер отдавал 404.
Страницы эти появляются на одной ленте с товарами и я немогу их закрыть в роботс или удалить через вебмастера. 404 необходимо поставить по адресам этих страниц.
В общем непонятно как реализовать. Помогите советом, идеей или предположением. Буду рад любым мыслям.
Куда-нибудь в функцию, генерирующую страницы, вставьте проверку
Или прямо в index.php можно
Это даст 404 на существующих страницах?
El_grapaduro, даст 404 в серверных заголовках и убьет страницу. А если die() убрать, то только в заголовках 404 будет.
Расскажу программисту. Спасибо!
Страницы эти появляются на одной ленте с товарами и я немогу их закрыть в роботс или удалить через вебмастера. 404 необходимо поставить по адресам этих страниц.
Долго думал, что вы хотели сказать (как это "Страницы на одной ленте"?).
Помотрел страницу. Не вижу причин почему нельзя её закрыть в роботс.
Если ещё нужно и 404, то в .хтакцесс прописать правило. Но запрет в роботс - всё равно.
El_grapaduro, можно еще в robots.txt, дополнительно к 404 использовать Директиву Clean-Param.
Update. Похоже поторопился, эта директива используется в случае если параметр discuss=yes не влияет на содержимое.
В замен этого предлагаю такой вариант:
В robots.txt прописать disallow: /*discuss=yes$