Как в robots.txt закрыть дубль главной с двойным слешем

12 3
E2
На сайте с 05.07.2022
Offline
3
1703

Как правильно закрыть в robots.txt такие дубли?

https://site.ru//

https:// site .ru///

https:// site .ru////


так?

Disallow: *//

Disallow: *///

Disallow: *////

S
На сайте с 18.04.2008
Offline
125
#1

В файл htaccess добавьте строки для обрезки лишних слешей

RewriteCond %{THE_REQUEST} ([^\s]*)\/{2,}(\?[^\s]*)?

RewriteRule (.*) %1 [R=301,L]


P/S

Так же используйте мета тег canonical 

YmersY
На сайте с 29.01.2007
Offline
255
#2

А что попала в индекс такая страница? Или просто пытаетесь выполнить ТЗ, которое предоставили вам "чудо-специалисты" для замыливания глаз?

По теме: закрывают от индексации не в robots.txt, а используя мета-тег robots. Но вашем случае этого, уверен, можно и вовсе не делать.

ЗЫ: Если сильно надо, используйте способ, который выше вам предложили. Но опять же, это не в robots.txt делается.

Ссылки под Google со СМИ - дешевле, чем в биржах - Пиши в личку, не стесняйся! Если же у вас есть ссылки под Google дешевле бирж - тоже пишите, куплю!
E2
На сайте с 05.07.2022
Offline
3
#3
softter #:

В файл htaccess добавьте строки для обрезки лишних слешей

RewriteCond %{THE_REQUEST} ([^\s]*)\/{2,}(\?[^\s]*)?

RewriteRule (.*) %1 [R=301,L]


P/S

Так же используйте мета тег canonical 

Спасибо большое!

Vladimir SEO
На сайте с 19.10.2011
Offline
1952
#4
а мне кажется что просто надо удалить такую страницу и возможность ее появления, а не закрывать в роботс
Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
L
На сайте с 10.02.2015
Offline
249
#5

1

Это закроет не только на главной, но и на остальных

богоносец
На сайте с 30.01.2007
Offline
769
#6
Evgeny2525 :

так?

Disallow: *//

Можно и так, но кроме ваших фобий ничего не нужно закрывать, примитивные эксперименты не давали в индексе яндекса и гугла страниц с разным контентом и отличающиеся лишь количеством слешей в урле (там всё не так, как вы боитесь, и лучше экспериментировать, чем спрашивать в этом болоте).

suffix
На сайте с 26.08.2010
Offline
331
#7
softter #:

В файл htaccess добавьте строки для обрезки лишних слешей

RewriteCond %{THE_REQUEST} ([^\s]*)\/{2,}(\?[^\s]*)?

RewriteRule (.*) %1 [R=301,L]


P/S

Так же используйте мета тег canonical 

правильнее так:

RewriteCond %{THE_REQUEST} // 

RewriteRule .* /$0 [R=301,L]

Клуб любителей хрюш (https://www.babai.ru)
богоносец
На сайте с 30.01.2007
Offline
769
#8

И ещё надо дуть на воду, если нафантазировал обжечься на молоке. 

Кто-нибудь видел реальный дубль, придуманный ТС?

Елена П.
На сайте с 02.10.2020
Offline
52
#9
богоносец #:
придуманный

Почему придуманный ?  Конкуренты запросто могут подпортить карму, если в этом есть дыра.  Для поисковых с 1, 2 , 3 слешами на конце - разные ссылки и , если нет canonical -  сочтут за дубль. Яндекс и с  canonical   ругается.  

Елена П.
На сайте с 02.10.2020
Offline
52
#10
конечно, в роботсе это не решается.  htaccess  или при анализе ссылки в скриптах. 
12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий