Google продемонстрировал эксплуатацию уязвимостей JS в браузере

SeVlad
На сайте с 03.11.2008
Offline
1609
956

Тезисно

Компания Google опубликовала несколько прототипов эксплоитов, показывающих возможность эксплуатации уязвимостей класса Spectre при выполнении JavaScript-кода в браузере в обход ранее добавленных методов защиты.
...
 удалось добиться утечки данных из процесса, отвечающего за обработку web-контента в текущей вкладке Chrome (renderer process), со скоростью 1 килобайт в секунду.
...
компания Google опубликовала прототип эксплоита для того чтобы показать реалистичность атак с использованием уязвимостей класса Spectre и для стимулирования web-разработчиков для применения техник, минимизирующих риски от подобных атак.
...
Для снижения риска владельцам сайтов предлагается использовать реализованные в последнее время заголовки Cross-Origin Opener Policy (COOP), Cross-Origin Embedder Policy (COEP), Cross-Origin Resource Policy (CORP), Fetch Metadata Request, X-Frame-Options, X-Content-Type-Options и SameSite Cookie. Указанные механизмы напрямую не защищают от атак, но позволяют изолировать данные сайта от утечки в процессы, в которых может быть выполнен JavaScript-код атакующего 



Статья относительно не маленькая, но рекомендую осилить и внимательно прочитать всем вебмастерам хотя бы для расширения кругозора и понимания векторов атак.

https://www.opennet.ru/opennews/art.shtml?num=54751

Google продемонстрировал эксплуатацию уязвимостей Spectre через выполнение JavaScript в браузере
Google продемонстрировал эксплуатацию уязвимостей Spectre через выполнение JavaScript в браузере
  • www.opennet.ru
Компания Google опубликовала несколько прототипов эксплоитов, показывающих возможность эксплуатации уязвимостей класса Spectre при выполнении JavaScript-кода в браузере в обход ранее добавленных методов защиты. Эксплоиты могут использоваться для получения доступа к памяти процесса, выполняющего обработку web-контента в текущей вкладке. Для тестирования работы эксплоита запущен сайт leaky.page , а код с описанием логики работа размещён на GitHub
Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Связь со мной через http://wp.me/P3YHjQ-3.
Алеандр
На сайте с 08.12.2010
Offline
191
#1
SeVlad :
Статья относительно не маленькая, но рекомендую осилить и внимательно прочитать всем вебмастерам хотя бы для расширения кругозора и понимания векторов атак.

Статья, равно как и многие другие такого плана - вилами по воде. Никакой конкретики, а условия, по сути - притянуты за уши. Таких "эксплойтов", для которых нужно сочетание не сочетаемых искусственных условий - пруд пруди.

"Мы запустили код, который использует...". Вопрос: а что делает этот код на этом сайте? При чем тут вебмастер? Если вебмастер запилил JS, который выполняет неправомерные операции, то почему он должен об этом беспокоиться? Ведь он сам его и установил. Если это чужой код, запущенный на сайте - чем он отличается от взлома сайта? Опять же, при чем тут политики браузера? Ну, а если это чужой код из чужой вкладки, то вообще вопросы к браузеру.

JS скрипты имеют вполне себе не мифические возможности, вот только, чтобы их реализовать - по сути, на сайте, уже должен быть этот эксплойт. И, если он там есть, то вопрос уже не в использовании политик, а что он там вообще делает. Т.е. предложенные методы и якобы решения - вообще ниочем. Хотя, они сами об этом и пишут:

Указанные механизмы напрямую не защищают от атак

Что неудивительно.

PS: Собственно, можно почитать комменты на том же опеннете к искомой статейке, чтобы понять, что ноги у этого растут из совсем другого места.

SeVlad
На сайте с 03.11.2008
Offline
1609
#2
Алеандр #:
вилами по воде. Никакой конкретики,

Никакой конкретики для пейсателей. Для нечитателей, которые ни текст ни ссылки в статье не осиливает.

(задумчиво: сказать или нет что это про дыру в хоромобраузере)

Алеандр #:
При чем тут вебмастер?

На бис, один раз:

для стимулирования web-разработчиков для применения техник, минимизирующих риски от подобных атак.


suffix
На сайте с 26.08.2010
Offline
331
#3
SeVlad - я у Scott Helme прочитал на неделе материал об этих новых политиках (COOP, COEP, CORP)  - там всё доступно объяснено.

На обычных сайтах 99% вебмастеров строгие варианты этих политик развернуть никак не смогут принципиально - ибо сайт работать перестанет напрочь :)

А если строгие не получаются то и зачем они вообще нужны ?

Клуб любителей хрюш (https://www.babai.ru)
Mik Foxi
На сайте с 02.03.2011
Offline
1107
#4
Антибот, антиспам, веб файрвол, защита от накрутки поведенческих: https://antibot.cloud/ + партнерка, до 40$ с продажи.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий