|
Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наукаАксиомы I - III определяют энтропию-информацию как иерархическую переменную, нуль отсчета которой должен определяться дополнительными условиями. Их задает принцип максимума производства энтропии. Синтез информации содержит в себе запоминание результата. Поэтому он обязательно приводит к двум информационным (термодинамическим) подсистемам, у которых времена релаксации отличаются на много порядков величины. Долгоживущая подсистема есть запомненные объекты. Подсистема с малыми временами релаксации возникает при взаимодействии этих объектов между собой и с окружающей средой. Например, атомы и молекулы, образующие газ, и сам объем газа как физический объект. Наиболее фундаментальной и долгоживущей является информация об адиабатических инвариантах системы. Обозначу Sk,g меру количества долговременно запомненной (синтезированной) информации при очередном k-том этапе ее синтеза. В частности, это информация об адиабатических инвариантах системы. Меру информации, синтезированной за счет процессов самоорганизации типа рис. 1.3, обозначу Sk,s . Тогда на k-том этапе синтеза информации ее количество есть: Sk Sk,g + Sk,s . (1.13) Энтропию-информацию, отвечающую n-ной ступени иерархии объектов и процессов, например, эволюции жизни, в силу аксиомы III можно записать [2] – [6] в виде ряда: Sn S0 + S1| 0 + ... + Sk| 0,1,...,(k1) + ... + Sn| 0,1,...,(n1) , (1.14)
Энтропия Si при дополнительных условиях (i 1) удовлетворяет соотношению: Si|(i1) Si , (1.15) где знак равенства отвечает равновероятному случайному изменению условий во всем диапазоне их возможных значений. В силу неравенства (1.15) члены ряда (1.14) убывают приближенно экспоненциально, так как условия на каждой новой ступени иерархии k относятся к признакам предыдущей (k 1) ступени иерархии, то есть уменьшают количества информации пропорционально их предыдущему количеству (конкретно убывающая функция сложная, так как показатели экспоненты могут быть разными для разных интервалов ряда (1.14)). Убывает и разность Sk,g S(k-1),g . Это исчерпывающе объясняет [2] – [6] парадокс кажущегося роста порядка (кажущегося уменьшения энтропии) по мере эволюции Вселенной и, в частности, при возникновении и эволюции жизни и разума. Для каждой из задач человек наблюдает конкретные последние ступени иерархии роста энтропии-информации. Внутри этих ступеней изменения энтропии тем меньше, чем выше уровень иерархии ступени. Поэтому иерархический рост энтропии может восприниматься как ее наблюдаемое уменьшение. Это показано на рис. 1.7. По мере эволюции неживой, а потом живой природы энтропия только растёт. Каждый следующий иерархический шаг этого роста увеличивает суммарную энтропию. Но величина иерархической ступеньки экспоненциально уменьшается. В частности, для живой природы “высота” иерархической ступени, которая ответственна за существование человека, ничтожна по отношению к “высоте” ступени, определяющей возникновение прокариотической или эукариотической клетки. Эта малость наблюдаемой нами “высоты” ступени нашего собственного существования и есть причина кажущегося уменьшения энтропии, увеличения порядка, которое мы связываем со своим собственным существованием. Это не так. Беспорядок, количества информации по мере эволюции природы растут. Для каждой ступени иерархии k величина энтропии Sk,g определяется на основе принципа максимума производства энтропии. Он задает адиабатический инвариант системы Kk для k-го уровня иерархии энтропии-информации (рис. 1.6). В силу принципа максимума производства энтропии каждый иерархический шаг синтеза информации формирует Sk,g так, чтобы скорость роста энтропии (возможная в конкретных условиях данной ступени иерархии) была максимальна. Например, в мире живого для системы в целом ее задает максимально возможная скорость возникновения новых элементов (скорость размножения). Для ряда (1.14) энтропия рассматривается по отношению к системе в целом, то есть пропорциональна числу элементов. Но энтропия в этом случае растет и для единицы объема системы, так как существуют ошибки (и подобные им случайные изменения элементов), которые могут нелинейно расти в функции числа элементов. Для энтропии Sk,s Kk ln k Kk lnk (1.16) адиабатический инвариант системы Kk и вид статистики k (или k) фиксированы данным уровнем иерархии энтропии Sk,g . Определяющими для Sk,s являются процессы диссипативной самоорганизации. Поэтому фундаментальное описание процессов природы нужно проводить в системе координат рис. 1.6, связывающей между собой информацию S, семантическую информацию I и информацию J lnK (1.17) о величине адиабатических инвариантов системы. Процессы в плоскостях Sk Ik подчиняются законам, сводка которых дана на рис. 1.3. Положение плоскостей Sk Ik на оси J (величину адиабатического инварианта Kk) определяет принцип максимума производства энтропии (1.12). В определении информации о величине адиабатических инвариантов (1.17) содержится размерный множитель . Как будет ясно из главы III, в определении J и величины на фундаментальном уровне должна участвовать постоянная слабого взаимодействия. Уровни иерархии k определяют как возникновение и эволюцию Вселенной, так и возникновение и эволюцию жизни и разума на Земле. Поэтому разум природы и разум человека имеют единую основу, единый способ взаимодействия с окружающей средой. Именно поэтому природа и воспринимается нами как разумная. Отличие между разумом человека и разумом природы только в том, что для человека запоминание эфемерно, а условия не имеют фундаментальных способов контроля, так как процветание человека не есть цель природы. Ее "цели" исчерпываются вторым началом термодинамики, то есть стремлением к максимальному хаосу в пределах величин обобщенной энергии (в том числе – абстрактной) и условий, заданных на данном уровне иерархии роста количества информации – энтропии. В Московском Государственном университете им. Ломоносова 10 октября 1995 г. И.Р. Пригожин читал лекцию "Время, хаос, законы природы". Из аудитории в связи с моими работами ему был задан вопрос: "Условия Ляпунова выполняются не только при максимуме энтропии и минимуме производства энтропии, но и при минимуме энтропии и максимуме производства энтропии. Возможны ли такие состояния в природе?" Его ответ – "Нет. При выходе из равновесия производство энтропии минимально. Другого вариационного принципа нет". Пригожин ошибается. В его принципе минимума производства энтропии для систем, близких к равновесию, а также его развитии для систем, далеких от равновесия (подчиняющихся условиям синтеза информации (1.4) – (1.7)), нет "возникающего" в том смысле, который Пригожин вложил в название своей книги "От существующего к возникающему" [40]. Всё возникающее у Пригожина, в конечном счёте, имеет цель в виде конкретного состояния равновесия. Она может быть далекой или близкой, но такая конкретная "цель" у него всегда существует. Если цель есть, то нет возникающего, так как цель существует раньше, чем путь к ней и возможные остановки на этом пути. Если цель есть, то "стрела времени" уже "воткнута" в эту цель. Но тогда она вовсе не "стрела". Истинно новое возникает как результат, который разрушил равновесие. Новое, возникающее – это то, что преодолело тупик равновесия и открыло новые возможности роста энтропии-информации. Преодоление тупика равновесия описывает принцип максимума производства энтропии, то есть критерий устойчивости Ляпунова в виде минимума энтропии и максимума ее производства. Именно поэтому принцип максимума производства энтропии есть главный, первичный созидающий закон Вселенной. Категория: Библиотека » Философия Другие новости по теме: --- Код для вставки на сайт или в блог: Код для вставки в форум (BBCode): Прямая ссылка на эту публикацию:
|
|