- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, здравствуйте. Вопрос такой, связанный с протоколами http / https. Где-то летом 2017 года я хотел перевести свой сайт на защищённый протокол https. Подключил у своего хостера бесплатный сертификат от "Let's Encrypt", затем зашёл в Google Search Console. На тот момент в Google Search Console (в панели вебмастеров) у меня был только один сайт, - тот который на старом протоколе http.
Соответственно, в этой панели вебмастеров я добавил ещё один ресурс, такой же сайт, но только уже с протоколом https. Затем я подтвердил права на этот сайт. Таким образом, у меня в панели вебмастеров стало светиться два абсолютно одинаковых ресурса: один на http и второй на https, то есть два идентичный веб-сайта, но только с разными протоколами. Скажу сразу, на моём сайте всего тридцать страничек, то есть это небольшой сайт-визитка (информационные статьи).
В поисковой выдаче спустя три-четыре дня после этого Гугл изменил "морду" моего сайта с http на https. И тут я решаю вернуться обратно на старый протокол http. Через две недели Гугл вернул морду моего сайта обратно на старый протокол http. Всё вернулось на круги своя!
Но!!!
В Google Search Console так и висит два ресурса, один на http, второй на https. При этом в том ресурсе, который на https проиндексирована всего одна (!) страничка, то есть морда сайта. Когда я пытаюсь удалить из Google Search Console второй ненужный ресурс на https, то на самом деле Гугл его не удаляет, а скрывает из поля видимости. Поскольку, когда я его возвращаю, то светится всё та-же проиндексированная одна страница. Однако, когда я ввожу в поиск Гугла конструкцию "site:www.mysite.com", то в поисковой выдаче светятся все страницы на старом протоколе http, там всё хорошо.
Но удалить полностью второй сайт на https в Google Search Console не получается!
Вопрос: не повлияет ли эта ситуация на будущую индексацию моего веб-сайта со стороны Гугла? То есть, фактическое наличие в Google Search Console двух ресурсов на двух протоколах http / https ? Обратите внимание, что на стороне моего хостера всё настроено как нужно, стоят все редиректы на главное зеркало сайта именно на старый протокол http. Хостер всё сделал как я просил, тут всё хорошо. Меня более беспокоит Гугл панель вебмастеров, не будет ли с Гуглом проблем в такой сложившейся ситуации в будущем, то есть с индексацией моего сайта (новых добавляемых мной страниц)? Очень бы хотелось услышать ваше мнение на данный счёт. Заранее благодарен.
У вас паранойя, при чем нездоровая)
С сайтом все хорошо - да , в чем проблема?
xVOVAx
То есть, это нормально, когда в панели вебмастеров Гугл висит два ресурса (два сайта) на http и на https ? При чём тут паранойя, я просто хочу понимать, нормально ли это и сталкивался ли кто-то с чем-то подобным?
---------- Добавлено 12.01.2018 в 22:42 ----------
То есть, почему когда я удаляю второй (не нужный уже) сайт из Google Search Console, а затем спустя день его добавляю, то там остаются старые данные (в том числе светится одна проиндексированная страница). Иными словами, Гугл не удаляет полностью второй сайт, а лишь, как-бы, скрывает его. Но не удаляет.
Таким образом, у меня по факту в панели вебмастеров сейчас уже навечно засели два сайта, и изменить это уже нет возможности. Вот я и хочу понять, нормально ли это и не будет ли проблем в будущем с индексацией именно старого моего сайта, того который на протоколе http. Как-то напряжно, когда в Google Search Console висит два сайта, при чём, второй мне вообще ни к чему! Но и удалить его я никак не могу!
Нажми на ссылку удалить ресурс и забудь
Пятница что ли ......
у меня на одном аккаунте около десятка ресурсов висит:)
у меня на одном аккаунте около десятка ресурсов висит:)
А среди этих ресурсов есть такие случаи, когда один и то-же сайт висит в аккаунте Google Search Console вот в таком виде:
http://www.mysite.com
https://www.mysite.com
То есть, по факту один и то-же ресурс (веб-сайт), но в аккаунте он заведен под два ресурса, один на http и второй на https, соответственно.
Как к этому относится Гугл, нормально индексирует указанный сайт, и если индексирует, то по какому принципу - только главное зеркало (в таком случае у вас стоят редиректы на хостинге на конкретное главное зеркало?), например, на https ?
Я понимаю, что на одном аккаунте может быть много ресурсов, но тут идёт речь именно о дублировании одного и того-же сайта на два ресурса, только с разными протоколами. Как на практике такое происходит и что можно от этого ожидать в плане качества индексации Гуглом? Какой из сайтов Гугл будет индексировать, как он определяет где главное зеркало, а где не главное? По редиректам в файле .htaccess на сервере, или как-то ещё?...
---------- Добавлено 13.01.2018 в 00:17 ----------
Просто у меня сайт один, но под него заведено два ресурса на моём аккаунте, как вы понимаете один на http и второй на https. Да, я перенастроил редиректы в своём файле .htaccess на сервере, теперь что-бы не набрал пользователь в поисковой строке, он всегда попадёт именно на такой вариант сайта: http://www.mysite.com, то есть по обычному протоколу http.
Но в Google Search Console всё равно у меня светятся два ресурса, удалить второй я могу, но если его в любой момент добавить, то всё равно я вижу, что статистика по нему никуда не делась, то есть Гугл его по факту не удаляет полностью, а хранит в своём хранилище. И от того, что в Google Search Console я его "формально" удалю, от этого Гугл не удалить всю статистику о втором ресурсе (о том, который на https). Понимаете, в чём суть моего вопроса?
Именно потому я и спрашиваю, не было ли у вас такой ситуации, и если была, не отражалось ли это на индексации вашего сайта со стороны самого Гугла?
---------- Добавлено 13.01.2018 в 00:21 ----------
Нажми на ссылку удалить ресурс и забудь. Пятница что ли ......
То есть, вы предлагаете просто удалить не нужный ресурс (тот, который сейчас у меня на протоколе https), и далее спокойно заниматься развитием своего основного ресурса на http? Правильно я понимаю вашу мысль? А о втором ресурсе просто забыть навсегда.
Но как Гугл воспринял мои манипуляции в 2017 году по переходу на https и затем обратно на http ?
Это было в течении недели-полторы.
Не попал ли я под фильтры Гугла в таком случае? Как считаете?.....
roman1981, вы что там бухаете? Какие фильтры? За что? Где написано что нельзя переводить сайт на другой тип протокола?
У всех висят две версии в вебмастере или одна ( я старые удалил , до этого висели )
Фильтр это когда трафик падает , надеюсь это хоть понятно?
---------- Добавлено 13.01.2018 в 01:34 ----------
у меня на одном аккаунте около десятка ресурсов висит:)
И все на разных протоколах?))))
-http://www.mysite.com
https://www.mysite.com
То есть, по факту один и то-же ресурс (веб-сайт), но в аккаунте он заведен под два ресурса, один на http и второй на https, соответственно.
Как к этому относится Гугл
В хелпах однозначно написано, что это разные сайты.
-http://mysite.com
-https://mysite.com
ещё два сайта.
Если у вас 301 со всех таких ведёт на единственно правильное зеркало, не беспокойтесь. Не ждите, что искалки склеят всё именно так, как удобно вам. Они сделают как им удобно...
И отдельно обратите внимание на доступность для Яндекса одного и того же файла robots.txt
(с одной и той же Host) по всем редиректящим зеркалам
http://yandex.ru/robots.txt
https://yandex.ru/robots.txt
http://www.yandex.ru/robots.txt
https://www.yandex.ru/robots.txt
А то завтра ещё тему заведёте https://www.yandex.ru/yandsearch?text=%D0%BF%D0%B5%D1%80%D0%B5%D0%B7%D0%B4+HTTPS
богоносец, так у него все в порядке - нужная версия в индексе и редирект стоит . Он боится не будет ли проблемой два сайта в вебмастере, а если удаляет ненужную версия то гугл сохраняет данные ))) и боится что это может повлиять на траффик)
богоносец
Немного не понял этот момент. То есть, уточню этот нюанс: у меня на всех зеркалах должен быть один и тот же файл robots.txt с одной и той-же директивой host, я правильно понимаю?
Детально распишу, если вы не против, правильно ли я понял ваши слова.
Вот, у меня есть некий файл robots.txt в корне моего веб-сайта:
Кстати говоря, правильно ли у меня составлена директива Host в данном случае, я не напутал ничего, может ещё протокол перед названием сайта прописать, как считаете? Идём далее, именно это файл robots.txt, именно с этой конкретной директивой, должен быть доступен по следующим адресам:
http://my-site.com/robots.txt (301 редирект на главное зеркало)
https://my-site.com/robots.txt (301 редирект на главное зеркало)
http://www.my-site.com/robots.txt (моё главное зеркало!)
https://www.my-site.com/robots.txt (301 редирект на главное зеркало)
Я правильно понимаю суть ваших слов?
богоносец, так у него все в порядке - нужная версия в индексе и редирект стоит . Он боится не будет ли проблемой два сайта в вебмастере
Он этого не боится. У него траф не с поиска.
Но свой robots сделал доступным (200 ОК) по всем зеркалам. Это так не гуглу нужно, а нестандартному яндексу.
То есть, уточню этот нюанс: у меня на всех зеркалах должен быть один и тот же файл robots.txt с одной и той-же директивой host, я правильно понимаю?
Если вас ищут ещё и Яндексом...
И /robots.txt должен отдавать 200 ОК, т.е. вы должны его видеть в браузере по всем зеркалам (протоколам.субдоменам),
а не 301 на главное.
Ну найдите сеошный сайт (по =продвижение сайтов яндекс=) и полазьте по всем его зеркалам/robots.txt
Вот, у меня есть некий файл robots.txt в корне моего веб-сайта:
Кстати говоря, правильно ли у меня составлена директива Host в данном случае, я не напутал ничего, может ещё протокол перед названием сайта прописать, как считаете?
В случае с HTTP протокол не указывается, только при HTTPS, ну читайте бота щукина по сцылке на поиск...
Идём далее, именно это файл robots.txt, именно с этой конкретной директивой, должен быть доступен по следующим адресам:
http://my-site.com/robots.txt (301 редирект на главное зеркало)
https://my-site.com/robots.txt (301 редирект на главное зеркало)
http://www.my-site.com/robots.txt (моё главное зеркало!)
https://www.my-site.com/robots.txt (301 редирект на главное зеркало)
Я правильно понимаю суть ваших слов?
Нет.
В примере с яндексовским роботсом 200 ОК отвечается по всем зеркалам. Ну хотя бы Яндексу. Т.е. он не так же себя ведёт, как Гугл (идущий по 301 в случае /robots.txt)
Ну т.е. если вам Яндекс тоже важен, то с ним всё не так, как с Гуглом, прочитайте его хелп про склейку и пр.
И добавите в .htacces исключение для robots, типа
RewriteCond %{SERVER_PORT} ^443$
RewriteCond %{REQUEST_URI} !^/robots.txt$
RewriteRule .* http://%{SERVER_NAME}%{REQUEST_URI} [R=301,L]
c без www на www сами... или в ТП. А потом проверьте ответы сервера по всем зеркалам/robots.txt