Как убрать повторяющиеся слэши в .htaccess?

C
На сайте с 06.11.2014
Offline
39
357

Есть проблема с дублирующими страницами с ответом "200".

Уже все перепробывал не чего не помагает, в данные

Как убрать повторяющиеся слэши в .htaccess?

Сейчас прописал этот код, тоже не помогает:

RewriteCond %{THE_REQUEST} //

# Проверяем, повторяется ли слеш (//) более двух раз.
RewriteCond %{QUERY_STRING} !http(s|)://
# Убедимся что это не урл в GET
RewriteRule .* /$0 [R=301,L]
# Исключаем все лишние слеши.
J
На сайте с 20.02.2014
Offline
97
jkm
#1

Ну всё как обычно. Ставили редирект в самый конец файла и ничего не работало.

Редиректы нужно ставить в начало файла.

C
На сайте с 06.11.2014
Offline
39
#2
jkm:
Ну всё как обычно. Ставили редирект в самый конец файла и ничего не работало.
Редиректы нужно ставить в начало файла.

Вы правы вот этот стоял в конце.

 RewriteEngine On

RewriteBase /
RewriteCond %{QUERY_STRING} .*author=(.+.?) [NC]
RewriteRule (.*) /?author= [NC,L,R=301]

перенёс на вверх, но всё равно проблема оталась, сможете помочь?

LEOnidUKG
На сайте с 25.11.2006
Offline
1561
#3

Я проблемы не вижу.

И что дальше?

https://www.google.com//

https://www.google.com////

https://www.google.com//////

---------- Добавлено 27.03.2020 в 20:39 ----------

Так же, у вас на сайте корректный в любом случаи

<link rel="canonical" href="https://bavariagid.de/" />

✅ Трастовых площадок под размещение статей и ссылок. Опыт 12 лет! ( https://searchengines.guru/ru/forum/675690 ) ⭐ Купить вечные трастовые ссылки для сайта ( https://getmanylinks.ru/?srh ) ⭐ Ускорение ваших сайтов (WP, Opencart и др.) + Настройка сервера ( https://searchengines.guru/ru/forum/997205 )
C
На сайте с 06.11.2014
Offline
39
#4
LEOnidUKG:
Я проблемы не вижу.





И что дальше?

https://www.google.com//
https://www.google.com////
https://www.google.com//////

---------- Добавлено 27.03.2020 в 20:39 ----------



Так же, у вас на сайте корректный в любом случаи
<link rel="canonical" href="https://bavariagid.de/" />

Понял, большое спасибо!

suffix
На сайте с 26.08.2010
Offline
264
#5
LEOnidUKG:
Я проблемы не вижу

Я тоже но сделать то редирект можно же:

1.

https://bertal.ru/index.php?a7713062/https://www.babai.ru///#h

2.

https://bertal.ru/index.php?a7713065/https://www.babai.ru//#h

Клуб любителей хрюш (https://www.babai.ru)
D.iK.iJ
На сайте с 26.05.2013
Offline
180
#6

У меня на старом хостинге через .htaccess вообще никак не срабатывало.

Сделал просто редирект скриптом. Чтобы люди такие ссылки с ошибкой не копировали дальше.

if (-1 == document.location.pathname.indexOf('//')) {} else {window.location.replace(document.location.pathname.replace(/\/\//, "/"));}
Адаптивный дизайн в 2 строчки ( https://dikij.com/wm/adaptaciya-saytov.php ). + Принимаю заказы любой сложности ( https://searchengines.guru/ru/forum/926323 ). 💎 Еще я делаю классные кулоны с опалами ( https://mosaicopal.ru/ ).
M
На сайте с 04.12.2013
Offline
189
#7

Да, у апача с этим есть определенные проблемы, поэтому обычно используют фильтр (мидлвэа) прямо в скрипте. Пример работы фильтра на стороне сервера: http://g09.ru///Articles///My-First-Article/// (можно посмотреть через тот же bertal; если увидите двойной редирект, это из-за того, что для трэйлинг слешей используется отдельный фильтр в .htaccess и т.п.).

---------- Добавлено 28.03.2020 в 12:17 ----------

LEOnidUKG, гоше (яше и т.п.) точно на это пофиг, т.к. «над ними» не стоит гоша (яша и т.п.) ;)

P.S. Вот мне, например, в 99% случаев и каноникл нафиг не нужен.

---------- Добавлено 28.03.2020 в 12:23 ----------

calamarety, 1 и 12 – это не дубль. Выкинь свой тестер на помойку.

P.S. Web-сервер может исправлять запросы с пустым адресом (вместо /), но твой тестер по идее такие запросы делать не должен.

Хостинг FOZZY ( http://fozzy.com.ru ) / Выслушаю предложения на домены ( http://u75.ru/domains-for-sale ) / Домены и скрипт для коротких ссылок ( http://u75.ru/domains-for-shortcuts )
богоносец
На сайте с 30.01.2007
Offline
693
#8
miketomlin:
1 и 12 – это не дубль. Выкинь свой тестер на помойку.

P.S. Web-сервер может исправлять запросы с пустым адресом (вместо /).

Дубль, который индексатор не отфильтровал – это то, что в индексе...

Для морды ни бот, ни браузер не смогут сделать Get запрос без /

но при попытке добавить

https://yandex.ru/m

https://yandex.ru/m//

https://yandex.ru/m///

индексатор сначала проверяет наличие в индексе таких урлов, но при этом учёт слешей как бы никакой...

хотя можно попытаться добавить https://yandex.ru/m///#!надоЕли-слеши

контент подопытного изменчив.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий