- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
с исходником разницы не
Не "нет", а "не видно". Есть сравнение побайтно для тех кто не видит разницу в объёме.
просто разница в степени сжатия (это как зипом упаковать без компрессии и с максимальной компрессией)
Опять чипсы зип.. зип-файл - это совершено другой формат, нежели то, что "в нём" пакуется. Это другие данные, совершено другие. Абсолютно.
В компрессии графики алгоритмы те же (могут быть), но это без изменения формата.
Опять же - зачем компрессия в зипе? На что влияет? Чем выше компрессия - тем не только больше ресурсов на распаковку, но и выше риски не восстановить. Для графики такое просто недопустимо.
Расскажу проще - алгоритмы компрессии (хоть графики, хоть чего) работают в целом одинаково - убирают одинаковые/похожие данные-биты (пиксели в данном случае) и записывают места где их восстановить. Отличия алго только в том, как именно они это делают.
Это.. ну типа как АЦП-ЦАП преобразования (если кто понимает о чем речь): никогда на выходе не будет идеальной синусоиды, поступившей на вход.
Опять же - зачем компрессия в зипе? На что влияет? Чем выше компрессия - тем не только больше ресурсов на распаковку, но и выше риски не восстановить.
Давайте что-ли пруф на этот бред...
Ресурсов на распаковку думается от увеличения компрессии должно требоваться меньше(либо несущественно больше), но вот что есть риск не восстановить :) ? Да откуда он берется-то :) ?
Это на запаковку требуется больше ресурсов, т.к. строится более длинный словарь...
Расскажу проще - алгоритмы компрессии (хоть графики, хоть чего) работают в целом одинаково - убирают одинаковые/похожие данные-биты (пиксели в данном случае) и записывают места где их восстановить. Отличия алго только в том, как именно они это делают.
Нет, не надо пруфа.
Вы, похоже не понимаете простейших вещей: что есть алгоритмы с потерей информации и без.
Zip без потери. После распаковки получается ровно то, что было.
JPG с потерей, (канал яркости существенно, остальное менее) и то что было после распаковки уже не получить никак.
Именно поэтому JPG сильно эффективнее. И именно поэтому он "корежит" картинки.
Давайте что-ли пруф на этот бред...
Я просто намекну поисковый запрос: "rar с информацией для восстановления".
Zip без потери. После распаковки получается ровно то, что было.
угу. В гуглояндексы - "не могу распаковать zip", "битый архив" и тп.
Расскажу проще - алгоритмы компрессии (хоть графики, хоть чего) работают в целом одинаково
Это не совсем так, например алгоритм JPEG заведомо делает выходные данные отличные от входных.
Скажем так, если мы возьмем какой-нибудь EXE-шник и преобразуем его в картинку, то, сохранив получившиеся изображение в PNG/BMP мы сможем потом из изображения восстановить запускаемый файл, а если мы сохраним это в JPEG, то восстановить запускаемый файл у нас не получится. В этом и есть отличие JPEG алгоритма от всех остальных.
Он не сохраняет точные данные, он сохраняет похожие данные
ну типа как АЦП-ЦАП преобразования
Про АЦП-ЦАП это уже отдельный разговор, который в этом топике не обсуждается.
Скажем так. Даже при передаче аналогового сигнала по проводам уже происходят потери и уровень сигнала на входе != уровню сигнала на выходе, плюс наводки и т.д. Поэтому при квантовании, как и при передаче сигнала, всегда учитывается определенный уровень потерь и допусков
Так что мы тут говорим все-таки о определенном приближении.
Например 8битный преобразователь с частотой выборок 8кгц даст куда худшие показатели чем 24бита@96кгц. последний, при определенном допуске и для определенных условий можно назвать "неотличимым от оригинала"
Существует еще один вариант АЦП преобразования 1(2) бита на, допустим, 8 мегагерцах.
такой вид преобразования возвращает не сигму, а дельту, то-есть он просто показывает в какую сторону изменяется сигнал. А так как частота квантования у нас очень высокая, то и верность преобразования аналогового сигнала повышается.
---------- Добавлено 07.02.2018 в 13:14 ----------
На счет рисков невосстановить.
простой пример. как работает , допустим, старый добрый PCX алгоритм (LZW работает примерно по такому же принципу, но в двух направлениях)
у нас есть строка данных
FF FF FF FF FF FF FF FF FF FF FF FF
то для сжатия мы можем ее сохранить в виде
0B FF, что в переводе на русский означает "12 раз повторить FF цвет"
И вот если вместо 0B попадется допустим 1B, то изображение будет полностью разрушено. Без какой либо возможности восстановления.
для этого и начинают городить контрольные суммы, кадры и т.д.
например алгоритм JPEG заведомо делает выходные данные отличные от входных.
Да с этим никто и не спорит :) Просто про JPG давно всё написано и писалось честно, а про PNG и путаницы и всякое. аля "https нужен для безопасности".
Всё же просто - сжимается? Да. Файлы (побайтно) разные? Да.
Просто МОЖЕТ быть без потерь (=без компресии) размазалось у читателей на ЛЮБОЙ файл. Потерялось "видимое на глаз".
Про АЦП-ЦАП в данном сравнении достаточно только понимание шумов квантования. Наводки и др посторонние/неконтролируемые влияния - это лишнее.
Я просто намекну поисковый запрос: "rar с информацией для восстановления".
угу. В гуглояндексы - "не могу распаковать zip", "битый архив" и тп.
Оу, после таких откровений и спорить бессмысленно. "Битый архив" - привет из 1990-х, когда части архивов таскали на разных дискетках, и какая-нибудь часть могла физически запороться. В архив тогда добавлялась recovery record (которая, кстати, лично мне ни в одном случае не помогла :) ). Сейчас особого смысла в этом нет, т.к. носители информации просто так не теряют инфу (а если теряют, то напрочь и полностью).
Фактор компрессии в ZIP - от 0 до 9. Более высокая компрессия достигается за счёт более тщательного поиска "чего бы ещё ужать"; чаще всего к сильно поразительным результатам не приводит, но сколько-то процентов обычно экономит. Разумеется, в любом случае данные восстанавливаются на 100%. Даже на 146%.
В общем, кушайте чипсы с борщом, но не спорьте никогда о том, в чём и близко не смыслите.
Я просто намекну поисковый запрос: "rar с информацией для восстановления".
Однако откуда тут взялся rar ? речь была о jpg/png/zip вроде бы :) ?
Избыточную информацию можно добавить куда угодно, это довольно просто.
Никакого отношения к алгоритму и принципу компресии это не имеет.
В jpg не добавляют, и о нм не плачат, т.к. если где-то появились "разноцветные квадратики", то всем пофиг...
угу. В гуглояндексы - "не могу распаковать zip", "битый архив" и тп.
Да - это мощный аргумент. Просто-таки академический :)))
Просто МОЖЕТ быть без потерь (=без компресии) размазалось у читателей на ЛЮБОЙ файл. Потерялось "видимое на глаз".
Так png может с потерями чтоли сжимать? Или раз размер файла стал меньше - это значит что-то потеряли?
Всё же просто - сжимается? Да. Файлы (побайтно) разные? Да.
А изображения — полностью идентичные :) Пиксель-в-пиксель!
Оу, после таких откровений и спорить бессмысленно.
А с SeVlad-ом всегда спорить бессмысленно - он никогда не признается что сказал чушь даже если это всем уже видно :)