С пенсионерами-дачниками - ещё сложнее, они давно отстали от реальной жизни.
Gzas, https был разработан как защита от атак типа MitM (Man in the middle), и влияние https на выдачу Google абсолютно ни при чём.
То есть, https в первую очередь призван защищать посетителей сайта (пользователей Интернета), а не кошелёк его создателя.
Так же, можно проработать вариант переноса на wordpress за эти деньги.
Пока это было замечено только в браузерах на базе Chromium, хотя для FF есть плагин Rewrite HTTP Headers (JS), сделанный на базе moz-rewrite.
У меня отлично блокируются домены Касперского:
хотя, по-уму, эти расширения Сафари надо бы открывать.
KIS внедряется на уровне ядра Windows и может контролировать трафик ещё до того, как он попадает в браузер. Может, он там хозяйничает с добавлением заголовков, ставя что-нибудь типа внутреннего прокси-сервера для эмуляции CORS на стороне клиента.
А на https-трафике он тоже добавляет домены в CSP? Так как https расшифровывается уже в самом браузере.
Тут форум "нешкольников" пока большинство отвечающий - профессионалы, умеющие гуглить и думать. И в дискуссии могут подтвердить свою точку зрения пруфами (но не на свои же посты, как это делает SeVlad).
Откуда эти цифры? И что за платное обслуживание https? Вы думаете, что https - это марка модели авто, которую надо периодически загонять на СТО?
Встречный вопрос: сформулируйте, от чего предназначен защищать https? И сразу станет понятно, зачем его ставить.
А зачем на https перешли Яндекс, Майл.ру, Википедия и тп?
От госслежки https особо не спасёт, они и так с вами сделают что захотят. Но сейчас за вами следят куча частных контор, и наполняют свои DMP (Data Management Platform), вот от них - спасёт.
Простой FF в автономном режиме спокойно восстанавливает https-страницы их кэша. Кэш этот он хранит в памяти.
И это никакая не дыра, Google спокойно хранит и показывает сохранённые копии https-страниц. Сможете сделать эксплоит для этой "дыры в Google"?
Для мобильных юзеров https особенно актуален, они через открытые WiFi в интернет выходят, в том числе и я. Вообще никаких проблем с https не наблюдаю.
А хопы-то причём? Если вебмастера волнует "расстояние до пользователя" - он юзает CDN.
"Забыли продлить сертификат", "взбесился хостер", "криво сделан редирект при откате с https на http" - причём тут https?
А если ваш сайт работает по http, и вы забыли продлить домен, хостинг или криво склеили главное зеркало - причина будет в http-протоколе?
Не смешивайте мух с котлетами.
Мало того, что эти аргументы - сомнительны, но какое отношение они имеют к обсуждаемому в топике https?
Обсирание других здорово повышает самооценку и ЧСВ?
Какие ваши доводы надо осиливать?
- что https не кэшируется? А он - кэшируется: Хабр, 7 мифов про https (eng). Плюс, есть http-заголовок Cache control: public
- что он медленнее http? Так это только теоретически, а на практике зачастую работает быстрее, потому, что:
То, что шифрованный трафик имеет чуть больший размер и требует ресурсов процессора - несущественная мелочь по сравнению с загружаемыми картинками, яваскриптами и показом потокового видео. Процессоры и интернет-каналы уже давно к этому готовы.
* Может, ещё и от кодировки UTF-8 отказаться, она по 2-3 байта на символ расходует, увеличивая трафик почти в два раза и нагружает процессор по-битным ковырянием в байтах.
PS: не позорьтесь сами, и не позорьте форум своей дремучей некомпетентностью и лексикой
Тексты А.С. Пушкина надо было брать за образец "заведомо качественных текстов", или "Войну и Мир" Л.Н. Толстого. Интересно, что про них эти сервисы скажут - сколько там воды, "флеша" и "фога".
Могут и добавляют, но только в Google Хроме, остальные браузеры - безопасны.
А чего их искать-то, Яндекс не показывает сохранённые копии для https-документов.
Зачем приводить в качестве пруфа пример, если эта граната не той системы?
А как ПС учитывают дубли ссылок было известно ещё с 2009 года, смысл открывать Америку ещё раз?
Возникло ощущение, что ноги у этого "продукта" растут из результатов работы программы PW, а не из реальной практики:
A) Вы рекомендуете закрывать ссылки яваскриптами и приводите пример расчётов, как за счет закрытия технических страниц увеличивается вес титульной. Тогда как ПС уже давно учитывают ссылки на яваскриптах и переходы по ним. Google вообще передаёт по ним PR уже лет 5 точно.
B) В статье про "Дубли ссылок. Вред или польза?" вы пишете:
- Во-вторых, ссылки - это не только ценный мех статический вес, но и анкорное ранжирование.
- В-третьих, если верить Matt Cutts, Google передаёт статвес по всем ссылкам (и не одинаковый!), и лишь анкорное - передаёт только по первой найденной ссылке.
- В четвёртых, у ссылок есть ещё один интересный аспект, из-за которого есть прямой смысл делать дубли ссылок.