Страница 11 - Разум природы и разум человека - А.М. Хазен - Философия как наука

- Оглавление -


Сегодня беспокоящий парадокс для исследо­ва­телей заключён в, ка­залось бы, противоречии между возрастанием слож­ности в про­цессе биологи­ческой эволюции (считающимся отобра­же­нием роста порядка) и законом роста энтропии, то есть самопроиз­воль­ного рос­та бес­порядка, в изолированной физической системе.

Стараются уйти от этого парадокса с помощью утверждения – жизнь есть от­кры­тая система вдали от равновесия. Неравновесность под­дер­живает подвод энергии извне. В процессе возврата к равновесию про­­исходят процессы самоорганизации. При этом первично жизнь есть ис­к­лю­­че­ние – гигантская флуктуация, направленная против роста энтропии. Флук­­ту­а­ции такого рода (как малые эффекты) науке известны. Если речь идёт о крайне редком исключении, то (за неимением лучшего) сойдёт и  ги­гант­с­кая флуктуация. К этому добавляют не вполне понят­ные пояс­не­ния о том, что жизнь поглощает негэнтропию, то есть имеет внешний ис­точ­­ник, который упорядочивает системы. В этом участ­ву­ют име­на весь­ма крупных учёных, хотя при этом забывают, что жили они тог­­да, когда не существовало многих сегодняшних понятий и решений.

Кроме того остаётся без внимания и то, что равновесные состояния широко представлены в эволюции жизни на всех уровнях – от дина­ми­ческого равновесия таксономических видов жизни со своим окружением до статического равновесия спор микробов, семян и подобного. Но если равновесие достигнуто, то почему оно должно нарушаться? Опять флук­туация?

Впервые и исчерпывающее разрешение этих противоречий дано в моих работах [2], [3], [11] и в этой книге. Продолжу пояснения.

Самопроизвольно беспорядок (энтропия-информация) растет. На­ко­нец хаос становится таким, что не только человек, но и сама Природа, не могут в нём разобраться. Что вы делаете дома, когда набирается хаос многих мелочей, которые выбросить жалко, а рассортировать нет воз­можности?  Вы их складываете в ящик, а потом при наведении порядка в доме переставляете этот ящик как целое – как новый объект.

            Природа, как и человек, когда беспорядок достигает некоторой боль­шой величины, не имеет возможности в нём разобраться и поэтому создает новые укрупненные объекты. Хаос оказывается спрятанным в “ящики”, с которыми Природа обращается как с целым.

            Этот переход от хаоса к новым объектам (синтез новой информа­ции) происходит [2] на основе цепочки:   Случайности — Условия — Запоминание.

            Хаос, созданный ростом энтропии, гарантирует существование на­чальной случайности. Обсуждение условий пока отложу. Рассмотрю воп­рос:   что в физике есть синоним слова – запоминание?

            Главная особенность понятия запоминание в том, что запомнен­ное можно повторить, воспроизвести вновь таким же. В физике из­вест­ны ус­тойчивые состояния процессов и объектов. Устойчивые сос­тоя­ния мож­­но воспроизвести вновь. Поэтому в физике устойчивость есть си­но­ним слова запоминание. 

            Узнать о том устойчиво или нет состояние объекта или процесс поз­­воляют критерии устойчивости, которые нашел российский мате­ма­­тик А. Ляпунов. Они используют анализ максимумов и минимумов про­­­цесса, который исследуется, и его изменений во времени (изменения про­изводства результата в данном процессе).

            Запоминаться должна информация.  Её мерой является энтропия. Поэтому в природе при создании информации вновь (её синтезе) кри­те­рии устойчивости Ляпунова нужно формулировать, используя энтропию и её из­менения во времени – производство энтропии d или возмуще­ния про­изводства энтропии (d). Функции, к которым применяют критерии устойчивости, называют функциями Ляпунова. В частности, в [11] впер­вые указано, что действие в механике есть функция Ляпунова.

            Ключевые формы критериев устойчивости для статических состоя­ний и динамических процессов, в которых происходят изменения энтро­пии, её производства и возмущений производства энтропии собраны и отмечены стрелками 1 – 3 на схеме рис. 1.2.

            Синтез информации начинается со случайностей. Они происходят с элементами системы, обладающими конк­рет­ными свойствами и могут быть представлены как случайные вы­борки, зависящие от этих свойств (вни­зу слева на рис. 1.2). В любой из систем действуют свои конкретные условия, ограничивающие возможные случайные выборки. Собственно син­тез информации происходит в том случае, когда среди слу­чайностей, отобранных условиями, есть такие, которые могут быть запомнены. Для этого необходима устойчивость состояний или про­цес­сов с их учас­ти­ем. Её можно установить с помощью критериев ус­той­­чивости, сфор­му­лированных внутри прямоугольников вверху и справа на рис. 1.2. От­ли­чия этих критериев определяет классы процессов и объек­тов, возника­ю­щих в результате синтеза информации.

Стрелка 1 указывает на критерий статической устойчивости, ко­то­рому соответствует максимум энтропии-информации. Это наиболее час­то представленная в природе причина существования её объектов. Такая устойчивость есть основная “цель” в природе. Она наиболее рас­про­стра­не­на и наиболее прочная.

            Однако состояние равновесия, возникшее и запомненное за счёт вы­­пол­не­­ния кри­терия устойчивости 1, в природе может нарушаться. На­при­мер, при подводе к системе энер­гии извне. Тогда система стре­мит­ся на­­зад к тому же или новому равновесию. В этом процессе возникают иные случ­ай­но­с­ти и условия. Если для них существуют устойчи­вые сос­то­яния, то могут возникать новые устойчивые процессы и объек­ты. Они ус­той­чивы ди­на­­ми­чес­ки. Их существованием управляет крите­рий ус­­той­чи­во­сти Ля­пу­нова 2 на рис. 1.2, который известен в физике как принцип ми­­ни­мума производства энтропии И. Пригожина [25].

Когда уход системы от равновесия относительно большой, то это только увеличи­вает её стремление назад к равновесию. И в этом случае су­ществуют свои случайности и условия. Запоминанием их управляет кри­­те­рий динамической устойчивости, записанный на основе возмуще­ний производства энтропии (3 на рис. 1.2). Такое запоминание создаёт ещё один класс динамически равно­вес­ных объектов. 

В формировании устойчивых состояний в природе широко участ­вует стремление к минимуму энергии взаимодействия элементов систем. Например, атомы химических элементов хотя бы мысленно можно про­ну­меровать. Случайность для них выражает возможность равноправ­ного включения в молекулу вещества атомов с разными “номерами”. Для слу­чайностей в этом случае усло­вия задают свой­ст­ва атомов. Они известны в химии как типы химических свя­зей, валентности, законы образования вторичной и третичной струк­туры для биомолекул. Устойчивость, то есть со­с­тав, форму, свойства мо­лекул химических соединений можно пред­­ставить как запо­ми­нание на основе критерия устойчивости в виде ми­ни­мума свободной энтальпии G (которую исторически в физической химии обыч­но назы­ва­ют свободной энергией).

В схеме вари­ан­тов синтеза информации рис. 1.2 главную роль иг­ра­ет мера информации – энтропия-информация (1.1) и её приращения (ло­гарифмичес­кие функции). Почему в этом участвует критерий ус­той­чивости (запоми­нания) 4 на основе мини­му­ма одной из форм энергии? Такого вопроса обычно не задают. Однако этот вопрос и ответ на него ис­ключительно важны, в частности, именно для задач возникновения и эволюции жизни. В следую­щих параграфах этой гла­вы будет показано, что про­цедура нормировки энтропии (обяза­тель­ная при её определении с помощью (1.1)) вводит логарифмичес­кую функцию, кото­рая связана со свободной энергией. Эта функция определена в этой работе и названа се­ман­тической информацией (обозначенной I). Выбор названия продикто­ван тем, что энерге­ти­ческие вза­и­модействия при­­нято считать первич­ны­ми в природе. То есть свя­зан­ная с ними ин­фор­мация, как бы, только вы­де­ляется из шумов. “Энер­­ге­ти­чес­кий” кри­те­рий устойчивости обоз­на­чен на рис. 1.2 цифрой 4. Он опи­сы­вает устой­чи­вость и синтез информации, которые зависят от миниму­ма свободной энергии. Понятие о семанти­че­с­кой информации приводит к необходимости определить энтропию в ви­де функции комплексного пе­ре­менного. Критерии устойчивости услож­ня­ются. Более подробно поня­тия о семантической информации и о кри­те­риях устойчивости 5 в комп­лек­с­ной плоскости введены в [11], [12]. Крат­ко они будут пояснены в сле­ду­ющих параграфах.

Новое в науке обязательно имеет предшествен­ни­ков. Это должно быть справедливым и по отношению к введенному по­ня­тию о семан­ти­чес­кой информации в его связи с понятием об энтропии. Такую преемст­венность формально-математически устанавливает эн­т­­ропия Куль­бака [26].

Критерии устойчивости Ляпунова, сформулированные на рис. 1.2, конкретно показывают, когда в природе случайный выбор из хаоса “мел­ких” объектов пора “спрятать” в новый укрупненный объект. Эти кри­те­рии устойчивости есть главное в новой области науки, известной как са­мо­ор­га­низация хаоса или диссипативная самоорганизация (как обычно называют). Без их использования практически нет ни одной работы по самоорганизации. Однако, почти как система, в литературе нет упомина­ний о том, что самоорганизация хаоса есть синтез информации. В этой главе говорилось о введенном в [11] понятии, что действие как перемен­ная механики есть энтропия-информация. В таком виде оно есть функ­ция Ляпунова. Это впервые введено также в работе [11].

Для части задач самоорганизации Г. Хакен  (например, [27]) пред­ло­­жил наз­вание – Синэргетика. В серии под этим общим названием толь­ко изда­тельство научной литературы Шпрингер выпустило за пос­ледние годы свыше 60 книг  разных авторов.  Не меньше об этом напе­ча­та­но книг в дру­­гих издательствах. В частности, в книге И. Пригожина “От сущест­ву­ющего к возникающему” [28] поставлен вопрос об инфор­мации в при­роде. Но удовлетворительного ответа на него в его книге нет. В работах М. Эйгена математически описана предбиологическая эво­­­лю­ция [29], [30], но жизнь всё-таки и у него возникает как флукту­а­ция, направ­лен­ная против роста энтропии. В книге Л.А. Блю­мен­фельда [1] по­с­тав­ле­ны задачи  о связях биофизики и информации.  В  S - те­о­ре­ме Ю. Л. Кли­мон­товича [31] сформулированы критерии самоор­га­ни­зации для случая, когда известно какие параметры в данной за­даче мож­но считать управляющими.  В работах Л.А. Шелепина рас­­смотрены коопе­ра­­ти­в­ные яв­­ления в физических системах [32], в частности, многоуров­невых. Хо­ро­шее пособие по синэргетике для студентов см. [33].

Далеко не полный список работ в области самоорганизации хаоса пре­высит объём этой книги в целом. Ситуацию, которая сегод­ня суще­ст­ву­ет в этой области, в част­но­сти, в проблеме возникновения и эволюции жизни и разума, мож­но по­яс­нить так.      

Критерии рис. 1.2 определяют новые объекты – “предметы”,  воз­ни­­кающие за счёт критериев запоминания 1, 4, 5, а также устойчивые “по­токи” энт­ро­пии-информации (на основе критериев 2, 3, 5).

Статические равновесные состояния максимума энтропии, оп­ре­деляемые условием 1, или равновесного экстремума 4 свободной энер­гии (семантической ин­формации) мож­но для наглядности представить в виде “озер” и “пру­дов”. Правда для энтропии “верх” там, где “низ” для во­ды, но для семан­тичес­кой информации аналогия более прямая. 

            Устойчивые динамические состояния (2 и 3) – это “потоки, стека­ю­щие с гор”. “Вода” в них течет по таким путям, на которых сопроти­в­ле­ние дви­же­нию минимально. Для энтропии-информации динамические устой­чи­вые состояния зависят не от “сопротивления движению воды”, а от cко­рости изменения энт­ро­пии-информации – производства энтропии. Для энтро­пии-информации “пути потоков” определяют с помощью прин­­­ципа При­гожина минимума производства энтропии 2.

            Если известно, что на “горе” есть “озеро” и “вода” из него может течь в “нижнее озеро”, то процессы и объекты, которые создает поток энтропии-информации,  описаны или есть методы, с помощью которых их можно описать. Однако возникновение и эволюцию жизни, сущность и работу ра­зу­ма нельзя объяснить только на основе синтеза информации согласно критериям рис. 1.2. Ведь для всех случаев рис. 1.2 предзадано сущест­вова­ние некоего равновесного состояния – “цели”. Систему мож­но вы­ве­с­ти из равно­ве­сия. Она будет стремиться вернуться к равновес­но­му сос­то­янию. В про­цессе этого возврата на основе критериев 2 и 3  будут воз­ни­кать но­вые процессы, состояния и объекты. Но “тупик рав­новесия”, возврат к которому есть их “цель”,  должен быть задан извне. Как его преодолеть до работ [2], [3], [11] не было известно.

            Например, РНК и ДНК – носители генетической информации – есть некоторый класс молекул, равновесно существующих на основе ми­ни­мума свободной энергии (минимума семантической информации). Их можно вы­делить в виде “порошка”. Хранить их в определенных усло­ви­ях неогра­ни­ченно долго. Семена, споры растений и микробов – пример та­ких мо­ле­кул вместе с “контейнерами” для их сохранения. Им соответ­ствует “ниж­нее озеро” – тупик равновесия. Однако вместо тупика РНК и ДНК приводят к новым потокам роста количества информации в виде ог­­ром­ного разнообразия форм жизни.

            Жизнь нельзя объяснить, если не указать такой способ синтеза ин­формации, который разрушает “тупики равновесия” и самопроизвольно создаёт новые классы равновесных состояний, то есть новые “цели”. Имен­но этот способ синтеза информации должен быть главным для воз­ник­новения и эволюции жизни, для возникновения и эволюции мозга животных, для работы разума человека.

Что превращает “тупики равновесия” в самопроизвольный реаль­ный поток роста количества информации в процессе возникновения и эволюции жизни и мозга человека?

В соответствии с рассказанным выше для ответа на этот вопрос на­до указать конкретно для каждой задачи (например, задачи о синтезе ин­фор­мации в ДНК или при работе мозга), что есть в данной задаче источ­ник случайностей, каковы в этой задаче условия и какой критерий ус­той­чивости управляет запоминанием. Но при этом недостаточно ис­поль­­­­­зовать критерии 1 – 4 рис. 1.2. Нужен ещё и анализ устойчивости в комплексной плоскости 5. И, самое главное, нужно указать, как именно при­рода переходит от тупиков равновесия к новому росту энтропии. В этом важнейшее отличие от пред­шествующих работ того, что пред­ло­же­но в [2] – [11] и здесь,. Поясню это.

Просмотров: 596
Категория: Библиотека » Философия


Другие новости по теме:

  • Уравнение Шредингера есть условие нормировки действия-энтропии-информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Почему нормировка действия-энтропии-информации приводит к волновым уравнениям в комплексной форме - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Принцип максимума производства энтропии - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Нормировка энтропии и связь между энергией и информацией в системах из многих элементов - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.2. Хаотические состояния, необратимость и рост энтропии. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Размерная постоянная в определении энтропии – адиабатический инвариант системы - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Классы процессов синтеза информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Взаимодействия энергии и информации в термодинамических циклах - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Действие как мера информации в классической и в квантовой механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение для информации о механической системе при случайных начальных условиях - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1.2 Ценность информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.1.1. Количество информации - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2. Рецепция и генерация информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1. Что есть благо и кто есть Бог ? - Проблема Абсолюта и духовной индивидуальности в философском диалоге Лосского, Вышеславцева и Франка - С. В. Дворянов - Философы и их философия
  • Когда аналитическая механика дает строгие результаты без явного учета уравнения состояния - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Глава 40. Восприятие и передача информации. Естественные механизмы обработки информации. - Русская модель эффективного соблазнения- Богачев Ф.
  • Глава 2. УСТОЙЧИВОСТЬ ДИНАМИЧЕСКИХ СИСТЕМ И ПРОБЛЕМА НЕОБРАТИМОСТИ. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава 1. ОСНОВНЫЕ ПОНЯТИЯ ДИНАМИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.3.1. Динамическая и параметрическая устойчивость квантово-механических систем. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Урок 4. Кто есть я? Это единственный вопрос, который - Путь Волшебника - Дипак Чопра
  • 7. ДЕНЬГИ ЕСТЬ ЗЛО - Если хочешь быть богатым и счастливым не ходи в школу - Р. Кийосаки
  • Глава 3. СБОР ИНФОРМАЦИИ НА ОСНОВЕ ИНТЕГРАТИВНОЙ МОДЕЛИ. ДИАГНОСТИЧЕСКИЕ МЕТОДИКИ И ТЕХНИКИ ИНТЕРВЬЮИРОВАНИЯ СЕМЬИ - Системная семейная терапия- Черников А.В.
  • 2.4. Распределенные динамические системы - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Наглядные пояснения к понятию – информация - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 8. ЧТО ЕСТЬ ФИНАНСОВАЯ ЗАЩИЩЕННОСТЬ? - Если хочешь быть богатым и счастливым не ходи в школу - Р. Кийосаки
  • Уравнение состояния – составляющая уравнений Гамильтона - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Упражнение № 2. Ответ на вопрос "Что есть я?" - Упражнения, направленные на развитие личности и достижение духовного роста - Дж. Томас. 1992.



  • ---
    Разместите, пожалуйста, ссылку на эту страницу на своём веб-сайте:

    Код для вставки на сайт или в блог:       
    Код для вставки в форум (BBCode):       
    Прямая ссылка на эту публикацию:       





    Данный материал НЕ НАРУШАЕТ авторские права никаких физических или юридических лиц.
    Если это не так - свяжитесь с администрацией сайта.
    Материал будет немедленно удален.
    Электронная версия этой публикации предоставляется только в ознакомительных целях.
    Для дальнейшего её использования Вам необходимо будет
    приобрести бумажный (электронный, аудио) вариант у правообладателей.

    На сайте «Глубинная психология: учения и методики» представлены статьи, направления, методики по психологии, психоанализу, психотерапии, психодиагностике, судьбоанализу, психологическому консультированию; игры и упражнения для тренингов; биографии великих людей; притчи и сказки; пословицы и поговорки; а также словари и энциклопедии по психологии, медицине, философии, социологии, религии, педагогике. Все книги (аудиокниги), находящиеся на нашем сайте, Вы можете скачать бесплатно без всяких платных смс и даже без регистрации. Все словарные статьи и труды великих авторов можно читать онлайн.







    Locations of visitors to this page



          <НА ГЛАВНУЮ>      Обратная связь