Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука

- Оглавление -


            Что и как в природе образует из элементов систему, обладающую определёнными свойствами?

Ответ, который дан в этой работе, конкретен – воз­ник­новение но­вых объектов и их состояний (сис­тем) имеет причиной процесс синтеза информации – создание информа­ции вновь. Син­тез информации есть первичный, основополагающий для природы физичес­кий процесс, кото­рый имеет разные фор­мы, объединён­ные общей основой.

            Синтез информации определен [32], [33] как запоминание слу­чай­но­го выбора. Такое определение детализирует [2] – [6] цепочка:

Случайные выборки.

Условия, с помощью которых случайным выборкам сопо­ста­в­­ляет­ся некоторое следствие.

Запоминание результата в виде  устойчивого  воспроизве­де­ния данного следствия.

            Понятие запоминания для физической системы (физической пере­менной) тождественно понятию – устойчивость воспроизведения систе­мы (переменной). Поэтому для синтеза информации решающие есть условия устой­чивости физических и абстрактных процессов. Устойчи­вость систем проверяется на  основе  известных крите­ри­ев А. Ляпунова, сформулированных на основе функций Ляпунова [26]. Существование

функций Ляпунова есть достаточный критерий устойчи­вости.

            Если принять известными классы функций      или      и посто­ян­ных  K,  то можно укрупненно выделить виды синтеза информации (рис. 1.3), отличающиеся видом функций Ляпунова и условиями устой­чи­вости. Все виды синтеза информации рис. 1.3 самопроизвольны, то есть направлены либо в сторону максимума энтропии, либо к минимуму энергии взаимодействия.

            Первый из видов синтеза информации – установление стати­чес­ки равно­вес­ного состояния, например, в газе. Ему соответствует макси­мум энтропии-информации:

dS  0   и   d2S < 0.                                       (1.4)

            Само количество информации, которое недостает до полного опи­сания индивидуальных атомов или молекул, материализуется в виде физической  переменной – энтропии   S,   например, газа (1 на рис. 1.3).

            Без подвода энергии или тепла рост энтропии возможен только как переход­ный процесс, заканчивающийся окончательным равновесием (1.4), то есть  dS  0. Энтропия-информация описывает наиболее веро­ят­ное рас­пределе­ние энергии. В идеальной замкнутой системе под­вода энергии и тепла нет, но энт­ропия как физическая переменная существу­ет. Это тавтоло­гично оз­на­чает, что в замкнутой системе как предел обя­за­телен случай   dS  0. Но понятие замкнутая система есть идеализация, поэтому всегда необходимо рассматривать конкретные особенности реа­лизации такого предела.

            Особенность энтропии как переменной, описывающей рас­пре­деле­ние, (многократно подчеркиваемая, начиная от Больцмана) в том, что это распре­де­ление имеет исключительно острый максимум. Например [34], вероятность найти при однократном наблюдении в массе газа величиной 10 грамм-моле­ку­лы отклонение энергии  10  от значения, заданного мак­симумом энтропии, сос­тавляет непредставимо малую ве­ли­чину по­ряд­ка 10. Поэтому детер­ми­низм возможного в данных условиях мак­симума энтропии-информации (опре­деляемый случайно­стя­ми для эле­­­ментов системы) количественно намного пре­вос­ходит де­тер­минизм, например, закона сохранения энергии в классичес­ких формулиров­ках.

            Это использует известный метод максимума энтропии Джейнса [35] и его развитие Хакеном [36].  Конкретные реализации этого метода основаны на классической больцмановской нормировке энтро­пии [31]. 

            Согласно второму началу термодинамики в формулировке аксио­мы II, веч­ное равновесие невозможно. Поэтому при любых масштабах про­цес­сов замкнутая система есть идеализация (что было подчеркнуто в аксио­ме IV).

            Необходимо отметить, что в современной литературе о самоорга­ни­­за­ции (см., например, фундаментальную книгу Г. Ха­ке­на [36]) ут­верж­дается, что количество информации в равновесной системе равно нулю. Это, конечно, ошибка. Можно принять такое приближенное условие, ес­ли считать равновесие “целью природы”. Но это не так.

В открытой системе (при непрерывном подводе энергии или тепла) возмо­жен рост энтропии, исключающий равенство, то есть   dS > 0   до тех пор, по­ка подвод энергии, превышающий диссипацию, не будет прер­ван. Ес­тест­­вен­но, что рассматриваются релаксирующие системы. В специально скон­ст­ру­и­рованной открытой системе при подводе энергии возможно условие  .

            Подвод энергии выводит систему из равновесия. При отклонениях от равновесия система стремится вернуться к нему. Запоминание в про­цес­се синтеза информации в этом случае обеспечивают критерии устой­чи­вости вида 2 на рис. 1.3  в форме максимума энтропии  и минимума производства энтропии:

 < 0   и   >  0.                                    (1.5)

            Это классическая онсагеровская неравновесная термодинамика, а условие (1.5) есть принцип минимума производства энтропии Пригожи­на [36] – [39] для процессов, близких к равновесию.

            Динамическое равновесие (как основа запоминания) есть отличи­тель­ная особенность синтеза информации (3 на рис. 1.3) в системах, да­лё­ких от статического равновесия (статическое равновесие пони­ма­ет­ся как одновременно равновесие статистическое, для распреде­ле­ний).

            Для них результат Глансдорфа и Пригожина [37] содержит ус­ло­вие устой­чивости, записанное с помощью возмущений  про­из­водства энтро­пии в данном неравновесном состоянии, то есть в виде условия:

 <  0    и   (0.                              (1.6)

            Энтропия и её производство для близких к равновесию систем автоматически есть функции Ляпунова. Для далеких от равновесия сис­тем устойчивость зависит от деталей кинетики процессов, а потому воз­му­щения производства энтропии в (1.6) не всегда есть функции Ляпу­нова, так как синтез информации при условиях запоминания (1.6) есть процесс, зависящий от многих условий. Возникающие динамические объек­­ты ста­ти­чески неравновесны.

            Основополагающие работы в этой области [37] – [40]. Про­цес­сы 2, 3 на рис. 1.3 принято называть диссипативной самоорганизаций или са­моорга­низацией хаоса. Только издательство Шпрингер в серии "Син­эр­гетика" выпу­сти­ло более 60 книг по этим вопросам.

            В природе часто встречается принципиально иной вид синтеза инфор­мации (отличающийся от заданного условиями 1, 2, 3 на рис. 1.3), при котором функция Ляпунова использует свободную энергию.

            В результате такого синтеза информации также возникают стати­чес­ки равновесные объекты (например, кристаллы): случайные выборки разных "нумерованных" атомов образуют одинаковые структуры.

            Свободная энергия есть термодинамический потенциал, у которого неза­висимой переменной является температура. В зависимости от выбо­ра неза­висимых переменных для форм энергии, являющихся ре­зуль­та­том работы сил  Xi,  обладающих потенциалом, свободная энергия имеет разные названия. Общепринятые среди них существуют для ме­ха­ни­чес­кой энергии как сос­тав­ляющей в термодинамическом потен­циа­ле.

            Условия устойчивости в этом случае, записанные, например, с помо­щью свободной энтальпии, имеют вид:

dG  0     и    d2 G  >  0.                                  (1.7)

            Синтезированная информация есть свойства кристалла как мак­ро­скопического объекта. Условия устойчивости в этом случае имеют вид  4  на рис. 1.3.

            Информацию такого типа можно назвать семантической, так как она однозначно определена, например, свойствами атомов, образующих кристалл. Синтез информации только выявляет ее из шумов. Обосно­ва­ние строгого определения понятия сематическая информация в виде:

I  K lnZ,                                                (1.8)

где  Z – статистическая сумма. Связь I  со свободной энергией будет рассмотрена в параграфе  8  этой главы.

            Роль информации как физической переменной в том, что ее вели­чи­­на и изменения задают факт существования физических объектов и про­цессов.

            Все процессы рис. 1.3 самопроизвольны, то есть связаны с ростом энтро­пии (или уменьшением энергии взаимодействия). Их главная об­щая особен­ность в том, что все они имеют "цель" в виде равновесия. Из­вест­ный парадокс "тепловой смерти Вселенной" в том и состоит, что "целью" всего сущего оказывается вечное окончательное равновесие. Условия типа рис. 1.3 создают на этом пути то, что Пригожин [39] назвал "возникающим". Всё в терминах Пригожина "возникающее", на­хо­­дит­ся не дальше от равновесия, чем позволяют условия (1.6). Поэтому самые неравновесные из процессов, описы­ваемых на основе критериев рис. 1.3 (а ими исчерпывается современный арсе­нал самоор­ганизации хаоса), не позволяют ответить на вопрос:  почему "тепловая смерть" Вселенной не наступила задолго до появления Вселенной в её совре­мен­ном виде, а тем более жизни и разума в ней?

            Если информация может возникать только в процессах возврата к равно­ве­сию, то не только жизнь и разум, но и все сущее есть только случайные флуктуации, так как в существующей науке нет способа опи­сать возникновение новой информации в процессах ее роста, не ограни­чен­ных равновесием.  А в том, что в природе многократно существуют в избытке локальные самые разнообразные равновесия, убеждать не надо.

            Кроме того важнейший раздел современной науки – классическая механика – не имеет аксиоматической общности с термодинамикой. В ней отсутствует строгое определение энергии, включающее в себя урав­не­ния состояния, общепри­ня­тые в остальной науке. Поня­тие – информа­ция – в ней отсутствует. Везде в природе процессы или объекты воз­ни­кают и существуют в результате изменений количеств ин­фор­мации, а в механике подобного нет.

 

Просмотров: 1085
Категория: Библиотека » Философия


Другие новости по теме:

  • Уравнение Шредингера есть условие нормировки действия-энтропии-информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Взаимодействия энергии и информации в термодинамических циклах - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Классы процессов синтеза информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение для информации о механической системе при случайных начальных условиях - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Принцип максимума производства энтропии - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Почему нормировка действия-энтропии-информации приводит к волновым уравнениям в комплексной форме - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Нормировка энтропии и связь между энергией и информацией в системах из многих элементов - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Размерная постоянная в определении энтропии – адиабатический инвариант системы - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.2. Хаотические состояния, необратимость и рост энтропии. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Упражнение № 2. Ответ на вопрос "Что есть я?" - Упражнения, направленные на развитие личности и достижение духовного роста - Дж. Томас. 1992.
  • Действие как мера информации в классической и в квантовой механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 4.2.Опережающее отражение вместо обработки информации для построения "образов-картинок" - Введение в системную психофизиологию - Ю.И. Александров - Философия как наука
  • 1.1 Определения понятия "информация   - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Что такое безразмерные мировые постоянные и как определить их величину - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Что значит получить информацию с помощью классических измерений? - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1.1. Количество информации - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1. Что есть благо и кто есть Бог ? - Проблема Абсолюта и духовной индивидуальности в философском диалоге Лосского, Вышеславцева и Франка - С. В. Дворянов - Философы и их философия
  • Информация как физическая переменная - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1.2 Ценность информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2. Рецепция и генерация информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава 8. "БЫТЬ ТЕМ, КЕМ ТЫ ЕСТЬ НА САМОМ ДЕЛЕ". ЦЕЛИ ЧЕЛОВЕКА ГЛАЗАМИ ПСИХОТЕРАПЕВТА - О становлении личностью. Психотерапия глазами психотерапевта - К. Роджерс
  • IV. "Я" во сне - СНЫ. Что это такое и как они вызываются - Ледбитер Ч.У.
  • Наглядные пояснения к понятию – информация - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Информация и формулировка аксиом термодинамики - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Что есть вера? - Введение в культурно-философскую антропологию - Чернявская Ю.В. - Философия как наука
  • Энергия в классической механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Что есть незначимые стимулы для человека? - ПСИХОТЕХНОЛОГИИ - Смирнов И., Е.Безносюк, А.Журавлёв
  • Что есть “воспринятая информация”? - ПСИХОТЕХНОЛОГИИ - Смирнов И., Е.Безносюк, А.Журавлёв



  • ---
    Разместите, пожалуйста, ссылку на эту страницу на своём веб-сайте:

    Код для вставки на сайт или в блог:       
    Код для вставки в форум (BBCode):       
    Прямая ссылка на эту публикацию:       





    Данный материал НЕ НАРУШАЕТ авторские права никаких физических или юридических лиц.
    Если это не так - свяжитесь с администрацией сайта.
    Материал будет немедленно удален.
    Электронная версия этой публикации предоставляется только в ознакомительных целях.
    Для дальнейшего её использования Вам необходимо будет
    приобрести бумажный (электронный, аудио) вариант у правообладателей.

    На сайте «Глубинная психология: учения и методики» представлены статьи, направления, методики по психологии, психоанализу, психотерапии, психодиагностике, судьбоанализу, психологическому консультированию; игры и упражнения для тренингов; биографии великих людей; притчи и сказки; пословицы и поговорки; а также словари и энциклопедии по психологии, медицине, философии, социологии, религии, педагогике. Все книги (аудиокниги), находящиеся на нашем сайте, Вы можете скачать бесплатно без всяких платных смс и даже без регистрации. Все словарные статьи и труды великих авторов можно читать онлайн.







    Locations of visitors to this page



          <НА ГЛАВНУЮ>      Обратная связь