вопрос по google search console и индексации

12
R1
На сайте с 20.04.2017
Offline
30
1364

Коллеги, здравствуйте. Вопрос такой, связанный с протоколами http / https. Где-то летом 2017 года я хотел перевести свой сайт на защищённый протокол https. Подключил у своего хостера бесплатный сертификат от "Let's Encrypt", затем зашёл в Google Search Console. На тот момент в Google Search Console (в панели вебмастеров) у меня был только один сайт, - тот который на старом протоколе http.

Соответственно, в этой панели вебмастеров я добавил ещё один ресурс, такой же сайт, но только уже с протоколом https. Затем я подтвердил права на этот сайт. Таким образом, у меня в панели вебмастеров стало светиться два абсолютно одинаковых ресурса: один на http и второй на https, то есть два идентичный веб-сайта, но только с разными протоколами. Скажу сразу, на моём сайте всего тридцать страничек, то есть это небольшой сайт-визитка (информационные статьи).

В поисковой выдаче спустя три-четыре дня после этого Гугл изменил "морду" моего сайта с http на https. И тут я решаю вернуться обратно на старый протокол http. Через две недели Гугл вернул морду моего сайта обратно на старый протокол http. Всё вернулось на круги своя!

Но!!!

В Google Search Console так и висит два ресурса, один на http, второй на https. При этом в том ресурсе, который на https проиндексирована всего одна (!) страничка, то есть морда сайта. Когда я пытаюсь удалить из Google Search Console второй ненужный ресурс на https, то на самом деле Гугл его не удаляет, а скрывает из поля видимости. Поскольку, когда я его возвращаю, то светится всё та-же проиндексированная одна страница. Однако, когда я ввожу в поиск Гугла конструкцию "site:www.mysite.com", то в поисковой выдаче светятся все страницы на старом протоколе http, там всё хорошо.

Но удалить полностью второй сайт на https в Google Search Console не получается!

Вопрос: не повлияет ли эта ситуация на будущую индексацию моего веб-сайта со стороны Гугла? То есть, фактическое наличие в Google Search Console двух ресурсов на двух протоколах http / https ? Обратите внимание, что на стороне моего хостера всё настроено как нужно, стоят все редиректы на главное зеркало сайта именно на старый протокол http. Хостер всё сделал как я просил, тут всё хорошо. Меня более беспокоит Гугл панель вебмастеров, не будет ли с Гуглом проблем в такой сложившейся ситуации в будущем, то есть с индексацией моего сайта (новых добавляемых мной страниц)? Очень бы хотелось услышать ваше мнение на данный счёт. Заранее благодарен.

Vladimir SEO
На сайте с 19.10.2011
Offline
1707
#1

У вас паранойя, при чем нездоровая)

С сайтом все хорошо - да , в чем проблема?

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
R1
На сайте с 20.04.2017
Offline
30
#2

xVOVAx

То есть, это нормально, когда в панели вебмастеров Гугл висит два ресурса (два сайта) на http и на https ? При чём тут паранойя, я просто хочу понимать, нормально ли это и сталкивался ли кто-то с чем-то подобным?

---------- Добавлено 12.01.2018 в 22:42 ----------

То есть, почему когда я удаляю второй (не нужный уже) сайт из Google Search Console, а затем спустя день его добавляю, то там остаются старые данные (в том числе светится одна проиндексированная страница). Иными словами, Гугл не удаляет полностью второй сайт, а лишь, как-бы, скрывает его. Но не удаляет.

Таким образом, у меня по факту в панели вебмастеров сейчас уже навечно засели два сайта, и изменить это уже нет возможности. Вот я и хочу понять, нормально ли это и не будет ли проблем в будущем с индексацией именно старого моего сайта, того который на протоколе http. Как-то напряжно, когда в Google Search Console висит два сайта, при чём, второй мне вообще ни к чему! Но и удалить его я никак не могу!

Vladimir SEO
На сайте с 19.10.2011
Offline
1707
#3

Нажми на ссылку удалить ресурс и забудь

Пятница что ли ......

AS
На сайте с 18.01.2015
Offline
68
#4

у меня на одном аккаунте около десятка ресурсов висит:)

Фарма блог (http://luckydrug.com/)
R1
На сайте с 20.04.2017
Offline
30
#5
AlexShevchenko:
у меня на одном аккаунте около десятка ресурсов висит:)

А среди этих ресурсов есть такие случаи, когда один и то-же сайт висит в аккаунте Google Search Console вот в таком виде:

http://www.mysite.com

https://www.mysite.com

То есть, по факту один и то-же ресурс (веб-сайт), но в аккаунте он заведен под два ресурса, один на http и второй на https, соответственно.

Как к этому относится Гугл, нормально индексирует указанный сайт, и если индексирует, то по какому принципу - только главное зеркало (в таком случае у вас стоят редиректы на хостинге на конкретное главное зеркало?), например, на https ?

Я понимаю, что на одном аккаунте может быть много ресурсов, но тут идёт речь именно о дублировании одного и того-же сайта на два ресурса, только с разными протоколами. Как на практике такое происходит и что можно от этого ожидать в плане качества индексации Гуглом? Какой из сайтов Гугл будет индексировать, как он определяет где главное зеркало, а где не главное? По редиректам в файле .htaccess на сервере, или как-то ещё?...

---------- Добавлено 13.01.2018 в 00:17 ----------

Просто у меня сайт один, но под него заведено два ресурса на моём аккаунте, как вы понимаете один на http и второй на https. Да, я перенастроил редиректы в своём файле .htaccess на сервере, теперь что-бы не набрал пользователь в поисковой строке, он всегда попадёт именно на такой вариант сайта: http://www.mysite.com, то есть по обычному протоколу http.

Но в Google Search Console всё равно у меня светятся два ресурса, удалить второй я могу, но если его в любой момент добавить, то всё равно я вижу, что статистика по нему никуда не делась, то есть Гугл его по факту не удаляет полностью, а хранит в своём хранилище. И от того, что в Google Search Console я его "формально" удалю, от этого Гугл не удалить всю статистику о втором ресурсе (о том, который на https). Понимаете, в чём суть моего вопроса?

Именно потому я и спрашиваю, не было ли у вас такой ситуации, и если была, не отражалось ли это на индексации вашего сайта со стороны самого Гугла?

---------- Добавлено 13.01.2018 в 00:21 ----------

xVOVAx:
Нажми на ссылку удалить ресурс и забудь. Пятница что ли ......

То есть, вы предлагаете просто удалить не нужный ресурс (тот, который сейчас у меня на протоколе https), и далее спокойно заниматься развитием своего основного ресурса на http? Правильно я понимаю вашу мысль? А о втором ресурсе просто забыть навсегда.

Но как Гугл воспринял мои манипуляции в 2017 году по переходу на https и затем обратно на http ?

Это было в течении недели-полторы.

Не попал ли я под фильтры Гугла в таком случае? Как считаете?.....

Vladimir SEO
На сайте с 19.10.2011
Offline
1707
#6

roman1981, вы что там бухаете? Какие фильтры? За что? Где написано что нельзя переводить сайт на другой тип протокола?

У всех висят две версии в вебмастере или одна ( я старые удалил , до этого висели )

Фильтр это когда трафик падает , надеюсь это хоть понятно?

---------- Добавлено 13.01.2018 в 01:34 ----------

AlexShevchenko:
у меня на одном аккаунте около десятка ресурсов висит:)

И все на разных протоколах?))))

богоносец
На сайте с 30.01.2007
Offline
753
#7
roman1981:
-http://www.mysite.com
https://www.mysite.com

То есть, по факту один и то-же ресурс (веб-сайт), но в аккаунте он заведен под два ресурса, один на http и второй на https, соответственно.

Как к этому относится Гугл

В хелпах однозначно написано, что это разные сайты.

-http://mysite.com

-https://mysite.com

ещё два сайта.

Если у вас 301 со всех таких ведёт на единственно правильное зеркало, не беспокойтесь. Не ждите, что искалки склеят всё именно так, как удобно вам. Они сделают как им удобно...

И отдельно обратите внимание на доступность для Яндекса одного и того же файла robots.txt

(с одной и той же Host) по всем редиректящим зеркалам

http://yandex.ru/robots.txt

https://yandex.ru/robots.txt

http://www.yandex.ru/robots.txt

https://www.yandex.ru/robots.txt

А то завтра ещё тему заведёте https://www.yandex.ru/yandsearch?text=%D0%BF%D0%B5%D1%80%D0%B5%D0%B7%D0%B4+HTTPS

Vladimir SEO
На сайте с 19.10.2011
Offline
1707
#8

богоносец, так у него все в порядке - нужная версия в индексе и редирект стоит . Он боится не будет ли проблемой два сайта в вебмастере, а если удаляет ненужную версия то гугл сохраняет данные ))) и боится что это может повлиять на траффик)

R1
На сайте с 20.04.2017
Offline
30
#9

богоносец

И отдельно обратите внимание на доступность для Яндекса одного и того же файла robots.txt (с одной и той же Host) по всем редиректящим зеркалам

Немного не понял этот момент. То есть, уточню этот нюанс: у меня на всех зеркалах должен быть один и тот же файл robots.txt с одной и той-же директивой host, я правильно понимаю?

Детально распишу, если вы не против, правильно ли я понял ваши слова.

Вот, у меня есть некий файл robots.txt в корне моего веб-сайта:


User-agent: *
Disallow:
Host: www.my-site.com
Sitemap: http://www.my-site.com/sitemap.xml

Кстати говоря, правильно ли у меня составлена директива Host в данном случае, я не напутал ничего, может ещё протокол перед названием сайта прописать, как считаете? Идём далее, именно это файл robots.txt, именно с этой конкретной директивой, должен быть доступен по следующим адресам:

http://my-site.com/robots.txt (301 редирект на главное зеркало)

https://my-site.com/robots.txt (301 редирект на главное зеркало)

http://www.my-site.com/robots.txt (моё главное зеркало!)

https://www.my-site.com/robots.txt (301 редирект на главное зеркало)

Я правильно понимаю суть ваших слов?

богоносец
На сайте с 30.01.2007
Offline
753
#10
xVOVAx:
богоносец, так у него все в порядке - нужная версия в индексе и редирект стоит . Он боится не будет ли проблемой два сайта в вебмастере

Он этого не боится. У него траф не с поиска.

Но свой robots сделал доступным (200 ОК) по всем зеркалам. Это так не гуглу нужно, а нестандартному яндексу.

roman1981:
То есть, уточню этот нюанс: у меня на всех зеркалах должен быть один и тот же файл robots.txt с одной и той-же директивой host, я правильно понимаю?

Если вас ищут ещё и Яндексом...

И /robots.txt должен отдавать 200 ОК, т.е. вы должны его видеть в браузере по всем зеркалам (протоколам.субдоменам),

а не 301 на главное.

Ну найдите сеошный сайт (по =продвижение сайтов яндекс=) и полазьте по всем его зеркалам/robots.txt

roman1981:
Вот, у меня есть некий файл robots.txt в корне моего веб-сайта:

User-agent: *
Disallow:
Host: www.my-site.com
Sitemap: http://www.my-site.com/sitemap.xml

Кстати говоря, правильно ли у меня составлена директива Host в данном случае, я не напутал ничего, может ещё протокол перед названием сайта прописать, как считаете?

В случае с HTTP протокол не указывается, только при HTTPS, ну читайте бота щукина по сцылке на поиск...

roman1981:
Идём далее, именно это файл robots.txt, именно с этой конкретной директивой, должен быть доступен по следующим адресам:

http://my-site.com/robots.txt (301 редирект на главное зеркало)
https://my-site.com/robots.txt (301 редирект на главное зеркало)
http://www.my-site.com/robots.txt (моё главное зеркало!)
https://www.my-site.com/robots.txt (301 редирект на главное зеркало)

Я правильно понимаю суть ваших слов?

Нет.

В примере с яндексовским роботсом 200 ОК отвечается по всем зеркалам. Ну хотя бы Яндексу. Т.е. он не так же себя ведёт, как Гугл (идущий по 301 в случае /robots.txt)

Ну т.е. если вам Яндекс тоже важен, то с ним всё не так, как с Гуглом, прочитайте его хелп про склейку и пр.

И добавите в .htacces исключение для robots, типа

RewriteCond %{SERVER_PORT} ^443$

RewriteCond %{REQUEST_URI} !^/robots.txt$

RewriteRule .* http://%{SERVER_NAME}%{REQUEST_URI} [R=301,L]

c без www на www сами... или в ТП. А потом проверьте ответы сервера по всем зеркалам/robots.txt

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий