Неспециалисты часто путают термодинамическую и информационную энтропии. Тут дело в точке зрения.
В приложении к нашей дискуссии речь именно об этом - функции.
Продолжу: 256 электросчетчиков - 8 бит. ;)
Лехко. 16 электросчетчиков - четыре бита. ;)
Хм. Дискуссия развилась, не знаю, что и комментировать.
Разумеется нет. А в инструкции к лампочке - ни слова об урожае в теплице, которую она освещает. Он вообще не занимался куайном. Он занимался термодинамикой.
Лично я полагаю, что в самом начале она содержала полную информацию. У вирусов наверняка и сейчас содержит. С одноклеточными - не уверен, но вероятно.
Конструкцию высших организмов в этом блокноте не разместишь - просто не влезет по объему.
У меня есть гипотеза, откуда организм ее получает, но я ее приводить не собираюсь - слишком слабы для спора известные мне экспериментальные подтверждения, хотя они есть.
Все, что вы цитируете, я читал с интересом. Только у вас какая-то странная интерпретация прочитанного. Во-первых "Аристотель не говорил о жирафах, значит их нет" - не аргумент. Логико протестуэ. Во-вторых:
Будете смеяться, но электросчетчик тоже можно градуировать в килограммах.
А если известна плотность упаковки информации на один грамм носителя, то измерять можно хоть в битах, хоть в тоннах. Но мы-то говорим о другом.
Зачем так далеко ходить. Даемон Максвелла тоже не может быть описан таким образом. А он-то совсем прост.
Здесь и спрятана та мысль, что я пытаюсь до вас донести. Действительно, "ценность информации" в геноме огромна именно потому, что воспринимающая система очень сложна. А недостающая информация как раз и является частью воспринимающей системы. Для простоты два примера:
Пароль к большому архиву. Несколько байт имеют огромную ценность и разворачивают мегабайты информации, которая без них - просто шум.
URL. Тоже несколько байт, имеющих высокую ценность и могущих развернуть мегабайты.
Но ценность они имеют лишь в совокупности с воспринимающей системой, а без нее они тоже просто шум.
А вот здесь у вас крупный прокол. Вы сбросили со счетов энтропию. Если молекулы одинаковы, то количество информации равно не сумме информации в молекулах, а количеству информации в одной молекуле, плюс число, содержащее само количество молекул.
Попробуйте простой эксперимент: скопируйте один файл в другой, затем снова первый в конец второго и так несколько раз. Вы составите цепочку из одинаковых фрагментов. Затем заархивируйте получившийся файл хотя бы zip-ом (хороший пресс для энтропии) и поглядите на размер полученного архива.
Можете просто напечатать пару тысяч раз одну букву/слово - тоже получится файл из одинаковых фрагментов.
Попробуйте это с разной длиной цепочки и понимание вас посетит (возможно) ;)
Источник расчетов указывал неоднократно. Уже и ссылко вам нашел с расчетами (вот еще одна и еще), а вы уже с стопиццотый раз игнорите. И как нам говорить?
UPD. А вот и сама книжка.
Смотрите страницы 89 - 92.
Если про информацию, то основание системы счисления неважно. Хоть в 12-ричной вавилонской.
Не содержит полной информации об организме.
Если происходит копирование информации, то это полное количество информации источника, с учетом энтропии, за вычетом шума.
Теоретически энтропию можно выжать алгоритмически, а шум проигнорировать.
В данном случае весь вопрос в том, каков вклад энтропии и шума в эту разницу на 16 порядков. Если принять вашу версию (о полноте информации организма в геноме), то он должен быть чудовищным.
Насчет полного количества я уже говорил. Единственный, хоть и трудночитаемый источник в сети мне удалось найти здесь. Похоже на скан книги Волькенштейна.
Вы сами назвали число триплетов.
Речь про информацию или где? Что там "не катит"?
Нельзя, я проверял. Все источники и аргументы побиваются простейшим игнором, с переходом на второстепенные детали.
Не конструирует узлы, а слегка меняет их свойства - рычаг потолще, фары побольше, кузов порозовее. Причем, научилась этому, тыкая наугад в настройки автоматического производства.
Еще раз напомню классиков: