По сути, от Punto Switcher мне нужно 3 функции:
1. Переключение раскладки по Ctrl.
2. Смена раскладки набранного текста.
3. Функционал автозамены по нажатию пробела (заменил расширением Text Expander для Chrome).
Да, в папке AppData/Local/Google/Google Chrome/название профиля.
У меня за полгода, общее число файлов в этой папке было примерно 60 тыс. файлов (благодаря Simple HTTP Cache), общим размером в 1 гигабайт.
Что будет после массового внедрения PWA, можно представить - ведь каждый будет пытаться ускорить сайт ленивой загрузкой в SW.
Если одно приложение на Android/iOS, типа Facebook, может накешировать под гигабайт.
Кто не верит, повторяем действия.
Работает на последней версии Chrome и должно работать на всех актуальных версиях других браузеров на любой ОС.
Проверено на Chrome 55 под Windows 10.
1. Открываем google.com.
2. Вводим "smashingmagazine.com" и ожидаем 5 секунд.
3. Закрываем вкладку или хоть вообще браузер.
4. Отключаем интернет.
5. Вводим в адресной строке "https://smashingmagazine.com" - открывается полноценный сайт, который вы даже не видели.
Из резюме (пока не было времени полностью прочитать документацию):
1. ServiceWorker исполняется при prerender, в обход песочницы JS.
2. ServiceWorker может делать Fetch любого домена.
3. ServiceWorker имеет доступ ко всему API браузера, за исключением некоторых объектов - Document, Window, Geolocation, урезанный WorkerNavigator и еще пару урезанных Worker объектов.
4. ServiceWorker может хранить до 500 GB в Cache API на домен.
5. ServiceWorker запускается для синхронизации в простое браузера и время исполнения одной итерации ограничено 3 минутами.
Учитывая количество шума вокруг PWA на зарубежных блогах, скоро это будут использовать повсеместно.
Учитывая количество уязвимостей и багов, которые исправляет команда Chromium с каждой версией, нас ожидает эра браузерных вирусов, как уже было с расширениями и программами для Android.
И да, чтобы использовать сие чудо, нужно чтобы сайт работал под HTTPS.
Как вы уже догадались. :)
Ничего плохого.
Есть сайты, которые генерируют 20000 страниц мусора, при этом 1000 в индексе.
И уж будет лучше, если вы сами запретите индексацию мусора, чем эти страницы выкинет из выдачи Google.
Форумы, как хороший пример, редко занимают хорошие позиции в выдаче, даже если речь идет о странице с уникальным контентом.
Данный форум, как пример, практически не содержит копипаст - хорошо ранжируется.
Медицинские форумы, как правило, на 70% копипаст и по моему опыту, плохо ранжируются.
Если вы не ожидаете переходов на эти страницы из поисковых систем, я советую закрыть эти страницы для индексации через
<meta name="robots" content="noindex nofollow">
Именно для этого и предназначен данный тег.
А почему не запретить индексацию не уникальных страниц через META ROBOTS?
Как я понимаю, не уникальные статьи на сайте размещены для пользователя и не ожидают переходов из поисковых систем.
А это уже эгоцентризм.
Эффе́кт Да́ннинга — Крю́гера — метакогнитивное искажение, которое заключается в том, что люди, имеющие низкий уровень квалификации, делают ошибочные выводы, принимают неудачные решения и при этом не способны осознавать свои ошибки в силу низкого уровня своей квалификации.
https://ru.wikipedia.org/wiki/%D0%AD%D1%84%D1%84%D0%B5%D0%BA%D1%82_%D0%94%D0%B0%D0%BD%D0%BD%D0%B8%D0%BD%D0%B3%D0%B0_%E2%80%94_%D0%9A%D1%80%D1%8E%D0%B3%D0%B5%D1%80%D0%B0
Я специально нажал после вашего сообщения, чтобы вы увидели, что я не ставил вам минус перед этим.
В любом случае, оценки репутации от меня, как я понял не учитываются (число не меняется).
Кстати, подскажите, как это работает здесь?
Лично для меня, поставить плюс в репутацию/спасибо это возможность завязать знакомство или создать хорошее впечатление о себе, сделать кому-то приятное.
Зачем портить впечатление о себе и создавать антипатию к себе на форуме, где можно делиться опытом, завести деловые отношения, найти исполнителей/заказчиков.
Всем добра.
Вы уже успели заработать 2 нарушения опубликовав только 39 сообщений.
Это говорит о том, что все вполне справедливо и правильно работает.
Все просто и одинаково для всех сайтов.
Задавайте конкретно вопросы, без эмоций и поспешных выводов, не нарушайте правила и никто вас не будет трогать.
Делитесь своим опытом в адекватном тоне, а не эгоцентрично-максималистичном и люди будут благодарны.
Для этого и созданы форумы, не для троллинга и игры на эмоциях.
Konark, вы учитесь адаптивной верстки и позвольте дать вам совет.
Есть такой термин, как "mobile first".
Это означает, что вы верстаете первичную версию под самое мелкое разрешение экрана, которое вы планируете поддерживать.
А далее уже добавляете стили для других разрешений экрана - планшет, компьютер, широкий формат.
Добавить дополнительные стили для компьютера (например, закрепить сайдбар справа), намного проще, чем делать эти действия в обратном порядке.
Пользователи запрашивающие ваш сайт через мобильные телефоны, склоны больше всех иметь медленное подключение (EDGE, 3G).
Мобильные телефоны, просто не могут подгружать и парсить еще 20 килобайт стилей, для корректной отрисовки страницы.
Согласно методики "mobile-first", стили для разрешений экранов больше, чем мобильные телефоны, вы вставляете с атрибутом media="(min-width: 640px)" (например).
Соответственно, мобильные телефоны не будут скачивать эти дополнительные стили, которые им никогда не понадобятся - это сохранит время на загрузку файлов, парсинг CSS, в результате более быстрое отображение страницы, экономия трафика и заряда батареи.
Также, браузеры и боты, которые не поддерживаю Media Queries, будут получать самую упрощенную версию сайта - возможность ошибок в отображении сводиться к минимуму.
Googlebot Mobile, тоже не будет получать эти дополнительные стили, как в результате, быстрее будет получать ваши страницы - плюс для ранжирования, а также экономия ресурсов сервера.
Нет, дата выпуска Chrome 56 stable - 31 января
https://www.chromium.org/developers/calendar
Это справедливо касательно всех новых Web API, прототипы которых разрабатывал Chromium: HTTP/2, Web Push, ServiceWorker, Share API, Payment API.
Одним словом, всем современным сайтам, которым нужен новый функционал Chromium, придется перейти на HTTPS.
Да.
canonical и выбор главного зеркала для Яндекс.
Главный нюанс - абсолютно одинаковый ТЕКСТ (не HTML) на обоих версиях документа.
canonical, но только если HTTP и HTTPS версии возвращают одинаковый текст.
То-есть, у вас могут быть разные ссылки, в HTTP на HTTP, а в HTTPS на HTTPS, но у вас должен быть одинаковый текст на странице.
Если в HTTP версии будет писать - "добро пожаловать на http://site.com", а в HTTPS - "добро пожаловать на https://site.com", есть большая вероятность, что в выдаче будут две разные версии страницы.
Но если у вас будет писать "добро пожаловать на <a href="http://site.com">site.com</a>" для HTTP и "добро пожаловать на <a href="https://site.com">site.com</a>" для HTTPS версии, то текст будет одинаковый у обоих документов, хоть и HTML код разный.
В этом случае, страницы будут склеены в пользу той, что в canonical или в пользу той, на которую больше ссылаются, если canonical упущен.
Яндекс будет предпочитать canonical, даже если страницы отличаются.
(но склейка через Host возможна только, если оба документа возвращают одинаковый текст - смотрите пример выше)
Очевидно, чтобы поисковый робот предпочитал HTTP версию ибо шифрования для него ни к чему. Что будет если сертификат отзовут или какой-то метод шифрования станет уязвимым (как было с SSL3).
Если поисковый робот захочет HTTPS версию по умолчанию, ему никто это не мешает сделать.
Но очевидно, что Яндекс, как минимум, этого вообще не хочет.
Мы можем сделать Upgrade запроса на HTTPS благодаря HSTS, но мы не можем сделать Downgrade с HTTPS на HTTP в браузерах, которые не поддерживают HTTP2/SPDY/HSTS (Opera Mini, Android < 4, Nokia, IE8 и другие динозавры).
Здесь уже вопрос корректной реализации протокола.
Да, у меня было много экспериментов и не с одним сайтом.
И я уже говорил, что у меня много запросов вылетело за ТОП-100 в Яндексе.
Хоть я делал все по инструкции - robots.txt:Host+переезд сайта в вебмастере.
Но в конечном итоге, оптимальный вариант для меня HTTP версия, как главное зеркало + HTTPS для пользователей с современными браузерами.
Это кстати позволило восстановить позиции и угодить Google Chrome.