- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, уважаемые администраторы!
Сервер nginx + apache, сайт самописный (html + php).
Проблема состоит в том, что страница вида http://site.ru/page.html также отображается по адресам:
http://site.ru/page.html/
http://site.ru/page.html/page.html
http://site.ru/page.html/abra/kadabra
и.т.д.
Пожалуйста, подскажите, что и где нужно прописать – чтобы сервер вместо дублей отдавал 404 ошибку? (как оно по идее и должно быть)
Вопрос вроде бы простой, а ответа нигде не нашёл(
Да, весь мусор, конечно, от индексации закрыл, но хочется найти более эффективное решение.
Спасибо.
что в .htaccess ?
Проблема в вашей CMS.
надо смотреть, может можно и обойтись хитрым редиректом, чтобы поправить работу cms.
что в .htaccess ?
Только директива AddType application/x-httpd-php5 .htm .html .php
CMS как таковая отсутствует, сайт самописный: html + php инклуды + js/php скрипты
Редирект - это, конечно, неплохо, но странно - почему сервер не отдаёт 404 ошибку - ведь этих страниц фактически не существует в директории сайта
Ну так сами и напишите .htaccess. Что за вопрос?
Есть тяжкий путь, но надежный:
Пишите на пыхе фильтр адресов, чтобы страницы проверялись по шаблону, то есть подходит-гуд, нет-404.
Штацессом можно все не перебить.
Вот что может в индекс попереть, если конкуренты начнут кормить аддурилку заведомой бякой:
http://site.ru/page.html/000000000page.html
http://site.ru/page.html/57287page.htm/2222222page.html
http://site.ru/0000page.html/000000000page.html
http://site.ru/00page.html/88page.html/11page.html
http://site.ru/00page.html/41rtv45yet14c51yt45v145yt1crh51t4cj5t1
И т. п.
А дубли страниц для поисковика не есть ок.
Такое уже было - всё закрыл от индексирования - сработало. Но хочется всё настроить как следует
Ну так сами и напишите .htaccess. Что за вопрос?
Спасибо, знал бы как - не создавал бы топик. Прошу прощения за нубовский вопрос, но будет ли работать такая директива в .htaccess, если фронтендом установлен nginx?
Кстати, нашёл похожий топик /ru/forum/817060,
где для запрета доступа к странице /index.pl?get_id=5 предлагается следующая конструкция:
if ($request_uri = "/index.pl?get_id=5") {
return 404;
}
Можно ли задать подобное условие по маскам
page.html*
page.pdf*
?