HTTP vs HTTPS

Spectre
На сайте с 26.09.2005
Offline
145
2314

Столкнулся с необычной проблемой: страницы сайта доступны по двум протоколам: HTTP и HTTPS. Видимо, по причине большой популярности сервиса Яндекс отдаёт предпочтение документам расположенным по HTTPS, что создаёт дубли в индексе.

Как корректнее решить эту проблему? Будет ли адекватным решением закрыть https-версию сайта через robots.txt (выдавать разные версии файла для http и https) и какие могут быть подводные камни у такого решения?

То что вы еще в топе, не ваша заслуга, а наша недоработка. (С) Платон Щукин.
di_max
На сайте с 27.12.2006
Offline
262
#1
Spectre:
Видимо, по причине большой популярности сервиса Яндекс отдаёт предпочтение документам расположенным по HTTPS, что создаёт дубли в индексе.

Ты хоть разницу в HTTP и HTTPS - понимаешь?

Если нет - изучай вопрос.

А как просвелеешь в нем - мгновенно сообразишь что нужно сделать (исправить) и метнешься это делать на 2-й космической...

// Все наши проблемы от нашего не знания...
Spectre
На сайте с 26.09.2005
Offline
145
#2
di_max:
Ты хоть разницу в HTTP и HTTPS - понимаешь?
Если нет - изучай вопрос.
А как просвелеешь в нем - мгновенно сообразишь что нужно сделать (исправить) и метнешься это делать на 2-й космической...

Уважаемый, во-первых, у воспитанных и образованных людей принято обращаться к незнакомому человеку на Вы.

Во-вторых, разницу между http и https я понимаю получше вашего.

В-третьих, по делу есть что сказать?

di_max
На сайте с 27.12.2006
Offline
262
#3
Spectre:
Во-вторых, разницу между http и https я понимаю получше вашего.

Дануда?!...

=Spectre;В-третьих, по делу есть что сказать

Хочешь, что бы все разжевали и вовнутрь протолкнули?🙄

Spectre
На сайте с 26.09.2005
Offline
145
#4

Если в вашей терминологии это так, то да.

Я, например, раньше не сталкивался с тем, чтобы Яндекс индексировал сайт по двум протоколам раздельно, создавая дубли страниц в индексе.

А у вас много опыта с подобными глюками? Или вы так просто для поднятия самооценки? Можете ещё что-нибудь типа такого тут написать. Но лучше перечитать мои посты и понять, что проблема не в том S - это Secure, а в том, что сайт по этому протоколу "дублирует" документы будто зеркала с www и без расклеены. Соответственно директивой Host это не лечится.

Я достаточно разжевал для вас свой вопрос? Теперь есть что ответить по делу? Или нужно ещё и внутрь протолкнуть, пользуясь вашей терминологией? ;)

Spectre
На сайте с 26.09.2005
Offline
145
#5

Если кому-то может быть интересно. Разные robots.txt для версий сайта HTTP и HTTPS Яндекс отработал корректно и убрал из выдачи https:// дубли документов.

SK
На сайте с 14.03.2012
Offline
1
#6

Спасибо, Spectre! Помогло, тоже долго мучался над этой проблемой, пробуя разные варианты. Но ваш самый быстрый и эффективный.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий