Что лучше для сайта JPEG или PNG?

SeVlad
На сайте с 03.11.2008
Offline
1609
#71
silicoid:
с исходником разницы не

Не "нет", а "не видно". Есть сравнение побайтно для тех кто не видит разницу в объёме.

silicoid:
просто разница в степени сжатия (это как зипом упаковать без компрессии и с максимальной компрессией)

Опять чипсы зип.. зип-файл - это совершено другой формат, нежели то, что "в нём" пакуется. Это другие данные, совершено другие. Абсолютно.

В компрессии графики алгоритмы те же (могут быть), но это без изменения формата.

Опять же - зачем компрессия в зипе? На что влияет? Чем выше компрессия - тем не только больше ресурсов на распаковку, но и выше риски не восстановить. Для графики такое просто недопустимо.

Расскажу проще - алгоритмы компрессии (хоть графики, хоть чего) работают в целом одинаково - убирают одинаковые/похожие данные-биты (пиксели в данном случае) и записывают места где их восстановить. Отличия алго только в том, как именно они это делают.

Это.. ну типа как АЦП-ЦАП преобразования (если кто понимает о чем речь): никогда на выходе не будет идеальной синусоиды, поступившей на вход.

Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Связь со мной через http://wp.me/P3YHjQ-3.
_
На сайте с 24.03.2008
Offline
381
#72
SeVlad:

Опять же - зачем компрессия в зипе? На что влияет? Чем выше компрессия - тем не только больше ресурсов на распаковку, но и выше риски не восстановить.

Давайте что-ли пруф на этот бред...

Ресурсов на распаковку думается от увеличения компрессии должно требоваться меньше(либо несущественно больше), но вот что есть риск не восстановить :) ? Да откуда он берется-то :) ?

Это на запаковку требуется больше ресурсов, т.к. строится более длинный словарь...

SeVlad:

Расскажу проще - алгоритмы компрессии (хоть графики, хоть чего) работают в целом одинаково - убирают одинаковые/похожие данные-биты (пиксели в данном случае) и записывают места где их восстановить. Отличия алго только в том, как именно они это делают.

Нет, не надо пруфа.

Вы, похоже не понимаете простейших вещей: что есть алгоритмы с потерей информации и без.

Zip без потери. После распаковки получается ровно то, что было.

JPG с потерей, (канал яркости существенно, остальное менее) и то что было после распаковки уже не получить никак.

Именно поэтому JPG сильно эффективнее. И именно поэтому он "корежит" картинки.

SeVlad
На сайте с 03.11.2008
Offline
1609
#73
_SP_:
Давайте что-ли пруф на этот бред...

Я просто намекну поисковый запрос: "rar с информацией для восстановления".

_SP_:
Zip без потери. После распаковки получается ровно то, что было.

угу. В гуглояндексы - "не могу распаковать zip", "битый архив" и тп.

S
На сайте с 13.10.2014
Offline
171
#74
SeVlad:
Расскажу проще - алгоритмы компрессии (хоть графики, хоть чего) работают в целом одинаково

Это не совсем так, например алгоритм JPEG заведомо делает выходные данные отличные от входных.

Скажем так, если мы возьмем какой-нибудь EXE-шник и преобразуем его в картинку, то, сохранив получившиеся изображение в PNG/BMP мы сможем потом из изображения восстановить запускаемый файл, а если мы сохраним это в JPEG, то восстановить запускаемый файл у нас не получится. В этом и есть отличие JPEG алгоритма от всех остальных.

Он не сохраняет точные данные, он сохраняет похожие данные

SeVlad:
ну типа как АЦП-ЦАП преобразования

Про АЦП-ЦАП это уже отдельный разговор, который в этом топике не обсуждается.

Скажем так. Даже при передаче аналогового сигнала по проводам уже происходят потери и уровень сигнала на входе != уровню сигнала на выходе, плюс наводки и т.д. Поэтому при квантовании, как и при передаче сигнала, всегда учитывается определенный уровень потерь и допусков

Так что мы тут говорим все-таки о определенном приближении.

Например 8битный преобразователь с частотой выборок 8кгц даст куда худшие показатели чем 24бита@96кгц. последний, при определенном допуске и для определенных условий можно назвать "неотличимым от оригинала"

Существует еще один вариант АЦП преобразования 1(2) бита на, допустим, 8 мегагерцах.

такой вид преобразования возвращает не сигму, а дельту, то-есть он просто показывает в какую сторону изменяется сигнал. А так как частота квантования у нас очень высокая, то и верность преобразования аналогового сигнала повышается.

---------- Добавлено 07.02.2018 в 13:14 ----------

На счет рисков невосстановить.

простой пример. как работает , допустим, старый добрый PCX алгоритм (LZW работает примерно по такому же принципу, но в двух направлениях)

у нас есть строка данных

FF FF FF FF FF FF FF FF FF FF FF FF

то для сжатия мы можем ее сохранить в виде

0B FF, что в переводе на русский означает "12 раз повторить FF цвет"

И вот если вместо 0B попадется допустим 1B, то изображение будет полностью разрушено. Без какой либо возможности восстановления.

для этого и начинают городить контрольные суммы, кадры и т.д.

SeVlad
На сайте с 03.11.2008
Offline
1609
#75
silicoid:
например алгоритм JPEG заведомо делает выходные данные отличные от входных.

Да с этим никто и не спорит :) Просто про JPG давно всё написано и писалось честно, а про PNG и путаницы и всякое. аля "https нужен для безопасности".

Всё же просто - сжимается? Да. Файлы (побайтно) разные? Да.

Просто МОЖЕТ быть без потерь (=без компресии) размазалось у читателей на ЛЮБОЙ файл. Потерялось "видимое на глаз".

Про АЦП-ЦАП в данном сравнении достаточно только понимание шумов квантования. Наводки и др посторонние/неконтролируемые влияния - это лишнее.

saanvi
На сайте с 01.04.2015
Offline
108
#76
SeVlad:
Я просто намекну поисковый запрос: "rar с информацией для восстановления".
угу. В гуглояндексы - "не могу распаковать zip", "битый архив" и тп.

Оу, после таких откровений и спорить бессмысленно. "Битый архив" - привет из 1990-х, когда части архивов таскали на разных дискетках, и какая-нибудь часть могла физически запороться. В архив тогда добавлялась recovery record (которая, кстати, лично мне ни в одном случае не помогла :) ). Сейчас особого смысла в этом нет, т.к. носители информации просто так не теряют инфу (а если теряют, то напрочь и полностью).

Фактор компрессии в ZIP - от 0 до 9. Более высокая компрессия достигается за счёт более тщательного поиска "чего бы ещё ужать"; чаще всего к сильно поразительным результатам не приводит, но сколько-то процентов обычно экономит. Разумеется, в любом случае данные восстанавливаются на 100%. Даже на 146%.

В общем, кушайте чипсы с борщом, но не спорьте никогда о том, в чём и близко не смыслите.

Здоровый пофигизм (http://saanvi.ru)
_
На сайте с 24.03.2008
Offline
381
#77
SeVlad:
Я просто намекну поисковый запрос: "rar с информацией для восстановления".

Однако откуда тут взялся rar ? речь была о jpg/png/zip вроде бы :) ?

Избыточную информацию можно добавить куда угодно, это довольно просто.

Никакого отношения к алгоритму и принципу компресии это не имеет.

В jpg не добавляют, и о нм не плачат, т.к. если где-то появились "разноцветные квадратики", то всем пофиг...

SeVlad:
угу. В гуглояндексы - "не могу распаковать zip", "битый архив" и тп.

Да - это мощный аргумент. Просто-таки академический :)))

ДП
На сайте с 23.11.2009
Offline
203
#78
SeVlad:

Просто МОЖЕТ быть без потерь (=без компресии) размазалось у читателей на ЛЮБОЙ файл. Потерялось "видимое на глаз".

Так png может с потерями чтоли сжимать? Или раз размер файла стал меньше - это значит что-то потеряли?

[umka]
На сайте с 25.05.2008
Offline
456
#79
SeVlad:
Всё же просто - сжимается? Да. Файлы (побайтно) разные? Да.

А изображения — полностью идентичные :) Пиксель-в-пиксель!

Лог в помощь!
suffix
На сайте с 26.08.2010
Offline
331
#80
saanvi:
Оу, после таких откровений и спорить бессмысленно.

А с SeVlad-ом всегда спорить бессмысленно - он никогда не признается что сказал чушь даже если это всем уже видно :)

Клуб любителей хрюш (https://www.babai.ru)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий