Понятие – информация – следствие аксиомы о существовании
энтропии и её самопроизвольном росте, известной как второе начало
термодинамики. Энтропия – мера информации – материальная физическая
переменная в том смысле, в котором материальны все остальные физические
переменные: измерима в экспериментах, может быть использована в математическом
аппарате.
Основа детерминизма природы – случайности. В природе не
существует количественно большего детерминизма, чем тот, который задают
максимумы энтропии.
Информация в природе возникает путем процесса синтеза информации
(универсального для неживых и живых объектов, а также их нервных систем).
Синтез информации основан на неизбежной случайности при реализации объектов
и процессов, ограничивающих её условиях и запоминании, управляемом критериями
устойчивости Ляпунова.
Равновесие не является и не может быть целью природы.
Информация имеет иерархический характер. Переход по ступеням
иерархии связан с забыванием системой своего прошлого. Информацию об объектах
и процессах описывает иерархический ряд для энтропии-информации.
Переходом по ступеням иерархии в природе управляет принцип
максимума производства энтропии (максимума способности к превращениям). Он
связан с седловой поверхностью, одно из сечений которой отображает
неустойчивость статического равновесия, а парпендикулярное – стабилизирующую
роль растущих потоков. Это главный созидающий принцип во Вселенной, который
универсален как для неживой природы, так и для возникновения и эволюции жизни
и разума.
Парадокс кажущегося уменьшения энтропии (например, при возникновении
и эволюции жизни и разума во Вселенной) имеет причиной приближенно
экспоненциальное уменьшение количества информации внутри каждой последующей
иерархической ступени роста энтропии. Энтропия по мере эволюции Вселенной
только растет, но наблюдаемыми нами являются преимущественно её последние
иерархические ступени, малые количества информации в которых воспринимаются
нами как рост порядка – кажущееся противоречие второму началу термодинамики.