Индексируются страницы https

SM
На сайте с 02.12.2008
Offline
26
661

Здравствуйте!

Гугл стал индексировать страницы https, которые являются дублями страниц http.

Что можно сделать, чтобы они не индексировались?

Хлебопекарное оборудование: тестомес, взбивальная машина, тестораскаточная машина. Продажа. (http://www.tectomecy.ru/)
ссылочный
На сайте с 21.12.2009
Offline
23
#1
Использую: хрюнделя (http://www.bootmasterru.com/) для катов, олсаб (/ru/forum/211180) для обмена. Семьянин, папа... :-) Моя дача (http://ydacha.ru/holmez.html)...
SM
На сайте с 02.12.2008
Offline
26
#2

В моем случае внутренние страницы, причем никакого ssl на сайте не используется.

T
На сайте с 30.01.2006
Offline
109
#3

недавно обсуждалось /ru/forum/429155

Гугл учит терпению!
[Удален]
#4

Возможно прописать это в файле роботс ?

SM
На сайте с 02.12.2008
Offline
26
#5
tutonhamon_:
недавно обсуждалось /ru/forum/429155

Там немного другая ситуация.

У меня же такая: сайт в индексе Гугла, но некоторые страницы сайта наравне с нормальными УРЛами типа http проиндексировались одновременно и c УРЛами типа https. Страницы по своей сути абсолютно идентичные, страницы https мне в индексе не нужны.

Поискал в сети информацию про аналогичные проблемы, что-то подобное есть, есть про двойные роботсы один для простого раздела, а другой специально для раздела с SSL. Но у меня на сайте всего один раздел и SSL отсутствует.

Думаю, не мог ли хостер чего с настройками сервера напортачить?

testman
На сайте с 28.11.2009
Offline
12
#6

а робот не пробовали?

Литературный блог (http://littr.ru/)
S
На сайте с 17.10.2003
Offline
341
#7
Sergio Mike:
Но у меня на сайте всего один раздел и SSL отсутствует.

с помощью .htaccess можно победить этот гугловый аппетит http://www.svift.org/2007/https-robots-txt/

Не все ссылки одинаково полезны ( https://www.svift.org/ ). Тут заказываю комментарии и отзывы ( https://qcomment.ru/ref/5651 ) для своих сайтов
ссылочный
На сайте с 21.12.2009
Offline
23
#8

спасибо работает (https://moysait.ru/robots.txt отдает нужный файл)

спасибо...!

SM
На сайте с 02.12.2008
Offline
26
#9
svift:
с помощью .htaccess можно победить этот гугловый аппетит http://www.svift.org/2007/https-robots-txt/

Вчера сделал также. Будем смотреть что и как.

Спасибо всем.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий