Статья, равно как и многие другие такого плана - вилами по воде. Никакой конкретики, а условия, по сути - притянуты за уши. Таких "эксплойтов", для которых нужно сочетание не сочетаемых искусственных условий - пруд пруди.
"Мы запустили код, который использует...". Вопрос: а что делает этот код на этом сайте? При чем тут вебмастер? Если вебмастер запилил JS, который выполняет неправомерные операции, то почему он должен об этом беспокоиться? Ведь он сам его и установил. Если это чужой код, запущенный на сайте - чем он отличается от взлома сайта? Опять же, при чем тут политики браузера? Ну, а если это чужой код из чужой вкладки, то вообще вопросы к браузеру.
JS скрипты имеют вполне себе не мифические возможности, вот только, чтобы их реализовать - по сути, на сайте, уже должен быть этот эксплойт. И, если он там есть, то вопрос уже не в использовании политик, а что он там вообще делает. Т.е. предложенные методы и якобы решения - вообще ниочем. Хотя, они сами об этом и пишут:
Указанные механизмы напрямую не защищают от атак
Что неудивительно.
PS: Собственно, можно почитать комменты на том же опеннете к искомой статейке, чтобы понять, что ноги у этого растут из совсем другого места.
Такие же танцы с бубнами были недавно. Так вот, робот гугла как раз получает "Ок" и файл )
Нет, это у них там какой-то бардак сейчас. У меня большая карта. Заливал карту сайтмапов - ок, затем показывает, что в списке сайтмапов он просканировал только 1-2, например из 30. Остальные - Не получено. Я уже и размеры менял у карты, и поштучно пробовал вливать. Один сканирует, остальные - Не получено. И так по кругу.
Смог влить по итогу, и то, не суммарным, а прям поштучно, при этом сначала их пропинговав. А, ну и по-моему, именно для гугла, убрал priority. Не знаю, что в итоге помогло, но карта зашла, пусть и поштучно.
Так что это явно что-то у них.
Сочувствую, но это все уже не суть. Если дорого там, то что им мешало взять дешевый диск/хостинг у любой компании, предоставляющей место и хранить удаленно? Или, даже, скачивать иногда к себе на диск компа? Я, когда делаю сайт, даже любой приличный кусок кода сохраняю, мало ли что пойдет не так. Выручало не раз.
Если не получится восстановить на сервере - рекомендую уже сейчас лезть в сохраненки гугла и яши, отыскивать страницы и собирать хотя бы статику назад всю. Ну, может, еще вебархив вас успел затянуть. Пусть хоть статику, но восстановите. Динамику уже потом докрутите назад.
PS: Админы делятся на две группы: те, кто ЕЩЕ не делает бэкап и те, кто УЖЕ делает.
Уже забылся опыт многих, кто в свое время держал сайты на хостинг.юа или что-то такое, давно было. Тогда у них полыхнуло так, что сгорели не просто сервера, но и бэкапные, стоявшие в тех же стойках рядом. Народ приезжал в Одессу из Мск, чтобы забрать остатки дисков и попытаться хоть что-то восстановить.
Нужно делать не просто бэкапы, а disaster backup - одна копия важной информации всегда должна располагаться минимум за 200км от другой. Собственно, давным давно, по этой же причине, я никогда не регистрирую у хостеров домены. Их невозможно никуда перенести до тех пор, пока не будет поднята инфраструктура. А на том примере как раз все протестировал - регистратор был отдельный, бэкапы были, за 2 часа развернулся на другом хостинге. Собственно, так и правильно делать.