Как в robots.txt закрыть дубль главной с двойным слешем

123
Vladimir
На сайте с 07.06.2004
Offline
530
#11
богоносец #:

И ещё надо дуть на воду, если нафантазировал обжечься на молоке. 

Кто-нибудь видел реальный дубль, придуманный ТС?

C одним / индексирует.

С двумя и более закрывайте всегда в  htaccess

Аэройога ( https://vk.com/aeroyogadom ) Йога в гамаках ( https://vk.com/aero_yoga ) Аэройога обучение ( https://aeroyoga.ru ) и просто фото ( https://weandworld.com )
L
На сайте с 10.02.2015
Offline
221
#12
Елена П. #:

Конкуренты запросто могут подпортить карму, если в этом есть дыра.

Вот бы на меня наставили таких ссылок с немусорных источников.

А так, скорее сам где-то допустишь ошибку и вылезет.

богоносец
На сайте с 30.01.2007
Offline
753
#13
Елена П. #:
Почему придуманный ?  Конкуренты запросто могут подпортить карму, если в этом есть дыра

Дыра есть в вашей способности провести эксперимент (результат будет совсем не таким, как придуманный).

Покажите пример такого дубля. (его не бывает по совсем не учтённым вами причинам)

Елена П.
На сайте с 02.10.2020
Offline
38
#14

livetv #:
Вот бы на меня наставили таких ссылок с немусорных источников.

Бррр.. а зачем их куда -то ставить ? Достаточно в адресной строке слешей навтыкать

богоносец #:
Дыра есть в вашей способности провести эксперимент
Дыра есть в вашей способности провести эксперимент . Неужели ?  Эксперименты со своим сайтом ?  Нееее, достаточно того, что уже спотыкалась на этом.  Попробуйте на своем )))  
W1
На сайте с 22.01.2021
Online
284
#15
Елена П. #:
Попробуйте на своем

Он пробовал. Всё это действительно страшилки.

Мой форум - https://webinfo.guru –Там я всегда на связи
богоносец
На сайте с 30.01.2007
Offline
753
#16

Не всё страшилки... Но проверка как бы очевидных предположений может расширить кругозор.  По результатам экспериментов предположения возникают не ожидавшиеся до начала...

Елена П. #:
Эксперименты со своим сайтом ? 

С экспериментальным. И например яндекс о дублях не парится много лет. 

U
На сайте с 02.07.2011
Offline
123
#17

Понятно, что переадресацию можно выполнить в htaccess, вопрос состоял не в том, как выполнить переадресацию. Вопрос в том, как закрыть двойной слеш в robots.txt))

У меня похожая ситуация возникла на сайте, во время переделки структуры ссылок прокрались двойные слеши и успели проиндексироваться. Переадресация на версию с одним слешем есть.

Может есть у кого решение именно для запрета в robots.txt?

L
На сайте с 10.02.2015
Offline
221
#18
ushi #:

Может есть у кого решение именно для запрета в robots.txt?

Только что сделал так:

Disallow: /*//
W1
На сайте с 22.01.2021
Online
284
#19
ushi #:
вопрос состоял не в том, как выполнить переадресацию. Вопрос в том, как закрыть двойной слеш в robots.txt

Иногда на неправильные вопросы даются правильные ответы, отрицающие неправильную постановку вопроса.
В данном случае переадресация - более надёжное и правильное решение проблемы.

Использование метатега роботс - тоже лучше, чем robots.txt.
Использование каноникал - тоже лучше.

robots.txt в данной ситуации наихудший вариант.

L
На сайте с 10.02.2015
Offline
221
#20

webinfo #:

robots.txt в данной ситуации наихудший вариант.

Разрешите не согласиться (я сначала был такого же мнения, как Ваше).

Принимать лекарство все же лучше в комплексе.

Чтобы боты даже не пытались туда стучаться - профилактика в виде robots.

А лечение уже редиректом.

Хотя, если враги наставили ссылок на // с норм доменов, то можно ограничиться редиректом.

Кто-то видел наставленных врагами ссылки на дубли?

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий