- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем доброго дня.
С марта 2017 года благополучно переехал на https. Сертификат Lets` Encrypt.
Есть 2 сайта. С одним всё в порядке, и, кстати, трафик повышается.
А вот с другим интересная картина.
Прошло уже почти 3 года, а Гугл до сих пор продолжает индексировать некоторые страницы по незащищённому протоколу.
Серверный редирект исправно работает.
В чём может быть причина? Периодически удаляю такие страницы из поиска (временно) силами Сёрч Консоли. Но они вновь появляются. От 40 до 60 страниц.
Постскриптум.
Иногда проскальзывают ложные ошибки 404. Отправляю такие страницы на переобход.
Стоит ли отправлять на переобход урлы статуса: Просканировано, но пока не проиндексировано?
Таких страниц 920 из 5647. Сайту 9.5 лет.
Спасибо за советы.
Вообще убрать (403) версию на http пробовали?
Вообще убрать (403) версию на http пробовали?
Не могли бы Вы объяснить чуть-чуть поподробнее?
Со всех http ведь отдаётся серверный 301 редирект на https. Или я что-то не улавливаю.
Спасибо.
У меня пол года прошло, трафик так и не востановился.
У меня пол года прошло, трафик так и не востановился.
А мне его Гугл и не давал.
Но с одним ресурсом я всё же разобрался. Впервые за полтора года Гугл значительно перегнал Яндекс.
Но там не было причин, обозначенных выше.
Периодически удаляю такие страницы из поиска (временно) силами Сёрч Консоли. Но они вновь появляются.
Со всех http ведь отдаётся серверный 301 редирект на https.
Индексируется что, редирект?
Индексируется что, редирект?
Нет.
Вот прописан серверный редирект:
RewriteEngine on
RewriteCond %{HTTP:X-Forwarded-Proto} !https
RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301,NE]
Индексируется не цель редиректа (https), а http адрес. Мало того, в некоторых случаях одинаковый адрес может присутствовать в выдаче по двум протоколам - защищённом и нет.
Здесь пишут, что есть проблема, и это баг.
Предлагают запретить в robots, если ещё не сделано (хотя может совсем всё испортить).
---------- Добавлено 29.01.2020 в 19:58 ----------
So its nothing to do with it being redirect really (thats irrelivent) its that it can index URLs it not allowed to craw.
Короче, редирект, и всё, отдаться на волю провидению.
Огромное Вам спасибо!
Тогда позвольте задать последний вопрос, и извините, что повторяюсь.
Стоит ли вручную отправлять страницы на переобход, если они имеют статус: "Просканировано, но пока не проиндексировано". И таких страниц (все канонические) 920?
Если у вас три года сайт на https , то по сути http это отдельный сайт. 301 ставить есть смысл если где то остались ссылки внешние
Romanov Roman, у меня нет на это ответа.