|
Страница 11 - Разум природы и разум человека - А.М. Хазен - Философия как наукаСегодня беспокоящий парадокс для исследователей заключён в, казалось бы, противоречии между возрастанием сложности в процессе биологической эволюции (считающимся отображением роста порядка) и законом роста энтропии, то есть самопроизвольного роста беспорядка, в изолированной физической системе. Стараются уйти от этого парадокса с помощью утверждения – жизнь есть открытая система вдали от равновесия. Неравновесность поддерживает подвод энергии извне. В процессе возврата к равновесию происходят процессы самоорганизации. При этом первично жизнь есть исключение – гигантская флуктуация, направленная против роста энтропии. Флуктуации такого рода (как малые эффекты) науке известны. Если речь идёт о крайне редком исключении, то (за неимением лучшего) сойдёт и гигантская флуктуация. К этому добавляют не вполне понятные пояснения о том, что жизнь поглощает негэнтропию, то есть имеет внешний источник, который упорядочивает системы. В этом участвуют имена весьма крупных учёных, хотя при этом забывают, что жили они тогда, когда не существовало многих сегодняшних понятий и решений. Кроме того остаётся без внимания и то, что равновесные состояния широко представлены в эволюции жизни на всех уровнях – от динамического равновесия таксономических видов жизни со своим окружением до статического равновесия спор микробов, семян и подобного. Но если равновесие достигнуто, то почему оно должно нарушаться? Опять флуктуация? Впервые и исчерпывающее разрешение этих противоречий дано в моих работах [2], [3], [11] и в этой книге. Продолжу пояснения. Самопроизвольно беспорядок (энтропия-информация) растет. Наконец хаос становится таким, что не только человек, но и сама Природа, не могут в нём разобраться. Что вы делаете дома, когда набирается хаос многих мелочей, которые выбросить жалко, а рассортировать нет возможности? Вы их складываете в ящик, а потом при наведении порядка в доме переставляете этот ящик как целое – как новый объект. Природа, как и человек, когда беспорядок достигает некоторой большой величины, не имеет возможности в нём разобраться и поэтому создает новые укрупненные объекты. Хаос оказывается спрятанным в “ящики”, с которыми Природа обращается как с целым. Этот переход от хаоса к новым объектам (синтез новой информации) происходит [2] на основе цепочки: Случайности — Условия — Запоминание. Хаос, созданный ростом энтропии, гарантирует существование начальной случайности. Обсуждение условий пока отложу. Рассмотрю вопрос: что в физике есть синоним слова – запоминание? Главная особенность понятия запоминание в том, что запомненное можно повторить, воспроизвести вновь таким же. В физике известны устойчивые состояния процессов и объектов. Устойчивые состояния можно воспроизвести вновь. Поэтому в физике устойчивость есть синоним слова запоминание. Узнать о том устойчиво или нет состояние объекта или процесс позволяют критерии устойчивости, которые нашел российский математик А. Ляпунов. Они используют анализ максимумов и минимумов процесса, который исследуется, и его изменений во времени (изменения производства результата в данном процессе). Запоминаться должна информация. Её мерой является энтропия. Поэтому в природе при создании информации вновь (её синтезе) критерии устойчивости Ляпунова нужно формулировать, используя энтропию и её изменения во времени – производство энтропии d или возмущения производства энтропии (d). Функции, к которым применяют критерии устойчивости, называют функциями Ляпунова. В частности, в [11] впервые указано, что действие в механике есть функция Ляпунова. Ключевые формы критериев устойчивости для статических состояний и динамических процессов, в которых происходят изменения энтропии, её производства и возмущений производства энтропии собраны и отмечены стрелками 1 – 3 на схеме рис. 1.2. Синтез информации начинается со случайностей. Они происходят с элементами системы, обладающими конкретными свойствами и могут быть представлены как случайные выборки, зависящие от этих свойств (внизу слева на рис. 1.2). В любой из систем действуют свои конкретные условия, ограничивающие возможные случайные выборки. Собственно синтез информации происходит в том случае, когда среди случайностей, отобранных условиями, есть такие, которые могут быть запомнены. Для этого необходима устойчивость состояний или процессов с их участием. Её можно установить с помощью критериев устойчивости, сформулированных внутри прямоугольников вверху и справа на рис. 1.2. Отличия этих критериев определяет классы процессов и объектов, возникающих в результате синтеза информации. Стрелка 1 указывает на критерий статической устойчивости, которому соответствует максимум энтропии-информации. Это наиболее часто представленная в природе причина существования её объектов. Такая устойчивость есть основная “цель” в природе. Она наиболее распространена и наиболее прочная. Однако состояние равновесия, возникшее и запомненное за счёт выполнения критерия устойчивости 1, в природе может нарушаться. Например, при подводе к системе энергии извне. Тогда система стремится назад к тому же или новому равновесию. В этом процессе возникают иные случайности и условия. Если для них существуют устойчивые состояния, то могут возникать новые устойчивые процессы и объекты. Они устойчивы динамически. Их существованием управляет критерий устойчивости Ляпунова 2 на рис. 1.2, который известен в физике как принцип минимума производства энтропии И. Пригожина [25]. Когда уход системы от равновесия относительно большой, то это только увеличивает её стремление назад к равновесию. И в этом случае существуют свои случайности и условия. Запоминанием их управляет критерий динамической устойчивости, записанный на основе возмущений производства энтропии (3 на рис. 1.2). Такое запоминание создаёт ещё один класс динамически равновесных объектов. В формировании устойчивых состояний в природе широко участвует стремление к минимуму энергии взаимодействия элементов систем. Например, атомы химических элементов хотя бы мысленно можно пронумеровать. Случайность для них выражает возможность равноправного включения в молекулу вещества атомов с разными “номерами”. Для случайностей в этом случае условия задают свойства атомов. Они известны в химии как типы химических связей, валентности, законы образования вторичной и третичной структуры для биомолекул. Устойчивость, то есть состав, форму, свойства молекул химических соединений можно представить как запоминание на основе критерия устойчивости в виде минимума свободной энтальпии G (которую исторически в физической химии обычно называют свободной энергией). В схеме вариантов синтеза информации рис. 1.2 главную роль играет мера информации – энтропия-информация (1.1) и её приращения (логарифмические функции). Почему в этом участвует критерий устойчивости (запоминания) 4 на основе минимума одной из форм энергии? Такого вопроса обычно не задают. Однако этот вопрос и ответ на него исключительно важны, в частности, именно для задач возникновения и эволюции жизни. В следующих параграфах этой главы будет показано, что процедура нормировки энтропии (обязательная при её определении с помощью (1.1)) вводит логарифмическую функцию, которая связана со свободной энергией. Эта функция определена в этой работе и названа семантической информацией (обозначенной I). Выбор названия продиктован тем, что энергетические взаимодействия принято считать первичными в природе. То есть связанная с ними информация, как бы, только выделяется из шумов. “Энергетический” критерий устойчивости обозначен на рис. 1.2 цифрой 4. Он описывает устойчивость и синтез информации, которые зависят от минимума свободной энергии. Понятие о семантической информации приводит к необходимости определить энтропию в виде функции комплексного переменного. Критерии устойчивости усложняются. Более подробно понятия о семантической информации и о критериях устойчивости 5 в комплексной плоскости введены в [11], [12]. Кратко они будут пояснены в следующих параграфах. Новое в науке обязательно имеет предшественников. Это должно быть справедливым и по отношению к введенному понятию о семантической информации в его связи с понятием об энтропии. Такую преемственность формально-математически устанавливает энтропия Кульбака [26]. Критерии устойчивости Ляпунова, сформулированные на рис. 1.2, конкретно показывают, когда в природе случайный выбор из хаоса “мелких” объектов пора “спрятать” в новый укрупненный объект. Эти критерии устойчивости есть главное в новой области науки, известной как самоорганизация хаоса или диссипативная самоорганизация (как обычно называют). Без их использования практически нет ни одной работы по самоорганизации. Однако, почти как система, в литературе нет упоминаний о том, что самоорганизация хаоса есть синтез информации. В этой главе говорилось о введенном в [11] понятии, что действие как переменная механики есть энтропия-информация. В таком виде оно есть функция Ляпунова. Это впервые введено также в работе [11]. Для части задач самоорганизации Г. Хакен (например, [27]) предложил название – Синэргетика. В серии под этим общим названием только издательство научной литературы Шпрингер выпустило за последние годы свыше 60 книг разных авторов. Не меньше об этом напечатано книг в других издательствах. В частности, в книге И. Пригожина “От существующего к возникающему” [28] поставлен вопрос об информации в природе. Но удовлетворительного ответа на него в его книге нет. В работах М. Эйгена математически описана предбиологическая эволюция [29], [30], но жизнь всё-таки и у него возникает как флуктуация, направленная против роста энтропии. В книге Л.А. Блюменфельда [1] поставлены задачи о связях биофизики и информации. В S - теореме Ю. Л. Климонтовича [31] сформулированы критерии самоорганизации для случая, когда известно какие параметры в данной задаче можно считать управляющими. В работах Л.А. Шелепина рассмотрены кооперативные явления в физических системах [32], в частности, многоуровневых. Хорошее пособие по синэргетике для студентов см. [33]. Далеко не полный список работ в области самоорганизации хаоса превысит объём этой книги в целом. Ситуацию, которая сегодня существует в этой области, в частности, в проблеме возникновения и эволюции жизни и разума, можно пояснить так. Критерии рис. 1.2 определяют новые объекты – “предметы”, возникающие за счёт критериев запоминания 1, 4, 5, а также устойчивые “потоки” энтропии-информации (на основе критериев 2, 3, 5). Статические равновесные состояния максимума энтропии, определяемые условием 1, или равновесного экстремума 4 свободной энергии (семантической информации) можно для наглядности представить в виде “озер” и “прудов”. Правда для энтропии “верх” там, где “низ” для воды, но для семантической информации аналогия более прямая. Устойчивые динамические состояния (2 и 3) – это “потоки, стекающие с гор”. “Вода” в них течет по таким путям, на которых сопротивление движению минимально. Для энтропии-информации динамические устойчивые состояния зависят не от “сопротивления движению воды”, а от cкорости изменения энтропии-информации – производства энтропии. Для энтропии-информации “пути потоков” определяют с помощью принципа Пригожина минимума производства энтропии 2. Если известно, что на “горе” есть “озеро” и “вода” из него может течь в “нижнее озеро”, то процессы и объекты, которые создает поток энтропии-информации, описаны или есть методы, с помощью которых их можно описать. Однако возникновение и эволюцию жизни, сущность и работу разума нельзя объяснить только на основе синтеза информации согласно критериям рис. 1.2. Ведь для всех случаев рис. 1.2 предзадано существование некоего равновесного состояния – “цели”. Систему можно вывести из равновесия. Она будет стремиться вернуться к равновесному состоянию. В процессе этого возврата на основе критериев 2 и 3 будут возникать новые процессы, состояния и объекты. Но “тупик равновесия”, возврат к которому есть их “цель”, должен быть задан извне. Как его преодолеть до работ [2], [3], [11] не было известно. Например, РНК и ДНК – носители генетической информации – есть некоторый класс молекул, равновесно существующих на основе минимума свободной энергии (минимума семантической информации). Их можно выделить в виде “порошка”. Хранить их в определенных условиях неограниченно долго. Семена, споры растений и микробов – пример таких молекул вместе с “контейнерами” для их сохранения. Им соответствует “нижнее озеро” – тупик равновесия. Однако вместо тупика РНК и ДНК приводят к новым потокам роста количества информации в виде огромного разнообразия форм жизни. Жизнь нельзя объяснить, если не указать такой способ синтеза информации, который разрушает “тупики равновесия” и самопроизвольно создаёт новые классы равновесных состояний, то есть новые “цели”. Именно этот способ синтеза информации должен быть главным для возникновения и эволюции жизни, для возникновения и эволюции мозга животных, для работы разума человека. Что превращает “тупики равновесия” в самопроизвольный реальный поток роста количества информации в процессе возникновения и эволюции жизни и мозга человека? В соответствии с рассказанным выше для ответа на этот вопрос надо указать конкретно для каждой задачи (например, задачи о синтезе информации в ДНК или при работе мозга), что есть в данной задаче источник случайностей, каковы в этой задаче условия и какой критерий устойчивости управляет запоминанием. Но при этом недостаточно использовать критерии 1 – 4 рис. 1.2. Нужен ещё и анализ устойчивости в комплексной плоскости 5. И, самое главное, нужно указать, как именно природа переходит от тупиков равновесия к новому росту энтропии. В этом важнейшее отличие от предшествующих работ того, что предложено в [2] – [11] и здесь,. Поясню это. Категория: Библиотека » Философия Другие новости по теме: --- Код для вставки на сайт или в блог: Код для вставки в форум (BBCode): Прямая ссылка на эту публикацию:
|
|