Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/init.php on line 69 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/init.php on line 69 Warning: strtotime(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 53 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 54 Warning: strtotime(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 56 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 57
|
Страница 17 - Разум природы и разум человека - А.М. Хазен - Философия как наукаАксиоматически информация определена как запомненный случайный выбор. Мера информации есть неопределённость, устранённая этим выбором – синтезом информации. В природе синтез информации реализует запоминание на основе критериев устойчивости рис. 1.2. Синтез таким способом информации создаёт объект. Количество информации (1.1) определяет существование объекта и его свойства. Этим мера неопределённости – энтропия превращена в меру энтропии-информации. Для информации в процессах общения людей синтез информации происходит иным образом. В его основе лежит существование цели передачи информации. Запоминание случайного выбора происходит на основе критериев, которые заданы человеком. Формула (1.1) как выражение количества информации сохраняется в виде (1.4), но при этом изменяет смысл и знак. Кроме того, энтропия в ней не есть характеристика максимума вероятности состояния системы. Поясню это примером. В 1871 г. Максвелл в связи со вторым началом термодинамики предложил парадоксальную задачу, названную – “Демон Максвелла”.
Максвелл считал, что его “демон” второе начало термодинамики нарушать не может. Детальные исследования на протяжении более столетия это подтвердили (см., например, обзор [42]). Здесь я вернулся к “демону Максвелла” потому, что он даёт пример подхода к физической задаче, в которой не разграничена энтропия как физическая переменная, описывающая информацию (как меру неопределённости), и энтропия в терминологии цели, с помощью которой определяется устранённая неопределённость (то есть тем способом, который лежит в основе теории информации как науки о передаче сообщений). Кстати, именно анализ задачи о “демоне” в работе Л. Сциларда 1929 г. (непосредственно после формализации Хартли понятия об информации в 1928 г.) был первым исследованием о связях между энтропией и информацией. Работа “демона” заключается в том, что он определяет координаты и скорости молекул газа – имеет цель. Молекулы газа различимы (нумеруемы). “Демон”, пропуская их через дверцу, должен определить их номер. Без этого задача некорректна. Нельзя с больцмановским газом нумерованных молекул обращаться без учета этого важнейшего для него факта. “Демон” должен иметь “регистр” для запоминания номеров. Нет такого запоминания – нет результата деятельности “демона”. Работа “демона” связывает запомненные номера с заданными величинами скоростей. Поток молекул, образовавшийся в результате работы “демона” на выходе из дверцы С, описывает запись в “регистре”. В ней содержится величина информации – устранённая “демоном” неопределенность, которая в пределе равна энтропии SA со знаком минус – неопределённость устранена не путём физического процесса синтеза информации, а с помощью записей в “регистре”, внешнем по отношению к схеме рис. 1.9. В этом физическом примере присутствуют главные особенности информации как формализации человеческих взаимодействий (отличающие её от информации как физической переменной) – внешняя по отношению к физическим процессам заданная цель и столь же внешнее запоминающее устройство. Устранение парадоксальности задачи о “демоне Максвелла”, основанное на учёте необходимости “регистра” и его очистки от накопленных данных, дано Р. Ландауэром из фирмы IBM в ходе исследований термодинамики работы компьютеров [42]. Помимо этого существует обширная литература, в которой рассматривается другой путь устранения парадоксальности “демона”, использующий квантовые взаимодействия, необходимые для измерений в этой задаче. В нём цель и внешние по отношению к системе взаимодействия так же присутствуют, но завуалированы, поэтому анализировать этот путь не буду. Пример “демона Максвелла” опять показывает, что понятие об информации и о способе превращения энтропии из меры неопределённости в меру информации, имеет два принципиально отличных смысла: – синтез информации в физических системах как запоминание случайного выбора на основе критериев устойчивости с участием энтропии (в строгом случае) как функции комплексного переменного. – мысленная реализация цели и “регистров”, эквивалентных по функциям памяти компьютеров. Необходимо дополнительно к примеру “демона Максвелла” проанализировать как и что именно понимается в физике при заявлениях о том, что энтропия есть мера неопределённости – мера “незнания” поведения элементов системы. В качестве источника известных формулировок в таком анализе приму, например, книгу [22], в частности потому, что её определения неоригинальны и повторяются во многих других учебниках и монографиях. Цитаты из этой книги в последующих абзацах выделены кавычками без дополнительных напоминаний источника. Курсив в них мой. Рассматривается модель газа, для которой в предельном состоянии нулевой абсолютной температуры нет теплового движения молекул. Из изложенного в этой главе понятно, что энтропия есть иерархическая переменная и нуль её отсчёта можно задавать произвольно. В [22] принимается, что “в этих условиях наше знание микроскопического состояния тела является полным” – все молекулы, независимо от своих пространственных координат, имеют одинаковое состояние. Его легко установить в теориях или экспериментах. Обратите внимание на подчёркнутое – в физике в дополнение к её законам появляется человек и его человеческие понятия и ощущения. При любой ненулевой температуре существует “наше <человека как исследователя> полное незнание” микроскопического состояния газа. “Незнание” возникает потому, что гипотеза о молекулярном хаосе “равноценна признанию того, что мы бессильны проследить за движением отдельных молекул”. Однако в этом случае определимы (в теории или наблюдениях) однозначные макроскопические параметры газа, например, давление и температура. Можно также “определить степень нашего незнания”, вычислив число возможных состояний системы . Его количественное выражение есть энтропия физической системы вида (1.1). Отсюда в [22] делается вывод, что “информация о микроскопическом состоянии тем меньше, чем больше число ”. Простите, почему?! Ведь природа существует вне нас. Ей безразлично, что знает о ней человек и что он может или не может о ней узнать. Реальностью для природы является хаос, совместимый с данными конкретными условиями. Он является детерминированным состоянием и определяет однозначно макроскопические свойства системы (в данном примере температуру и давление). Количественное выражение хаоса числом – энтропией – строго и точно задало все свойства макроскопического объекта или процесса. Такой хаос есть незнание только в терминах поколений людей, сформировавших модель с “незнанием ”. Информация – это устранённая неопределённость. Хаосу отвечат устойчивое (запомненное) состояние максимума энтропии, то есть число (максимум ln или другие экстремумы рис. 1.2). Его существование (как результат синтеза информации) устранило неопределённость, отобразив это свойствами возникшего объекта или процесса. Именно поэтому энтропия как физическая переменная есть мера информации в природе. Её можно выразить в терминах информации при передаче сообщений человеком, введя мысленную операцию измерения параметров одной молекулы. Результат измерений можно считать мерой такой информации. Его можно связать с энтропией, присвоив ему знак минус. Определять полезен или вреден для человека-исследователя такой способ описания природы есть его право как создателя моделей – природе это безразлично. Но в законах природы только она сама может определять, что есть знание, а что – незнание. Важнейший информационный природный процесс есть возникновение новых объектов со своими свойствами. Для этого необходимо изменение количества информации как физической переменной. Может ли оно быть запомнено? – решает устойчивость процессов. Анализ этого (если необходимо одновременно учитывать вклад в экстремум и энтропии, и энергии) необходимо проводить на основе энтропии как функции комплексного переменного. Например. Для природы возникновение жизни первично есть абиогенный синтез класса молекул РНК и РНК, создающих иерархически новую ступень случайностей (неопределённости), а тем самым новую ступень иерархического роста энтропии-информации. При синтезе информации в РНК и ДНК (на уровне их образования как молекул) запоминание произошло на основе критериев устойчивости в комплексной плоскости. Результат – РНК или ДНК как класс химических соединений, главная особенность которых одинаковая свободная энергия, отнесенная к соответствующим видам химических связей нуклеотидов и кодонов. В этом участвовала энтропия РНК или ДНК в обычной форме физической химии. Образование молекулы РНК или ДНК устранило неопределённость, правда, парадоксально. Энтропия в физической химии – мера беспорядка. Энтропия в составе молекулы ДНК, казалось бы, таковой и осталась. Однако для конкретной ДНК она есть запомненный случайный выбор (информация), так как данная молекула существует как объект. Класс молекул РНК или ДНК как энергетически равноправных случайных форм становится источником неопределённости (случайных выборок) для новой ступени иерархии энтропии-информации. Естественный отбор многократно выделял из случайностей таких РНК или ДНК единственные и запоминал с помощью их размножения. Такой иерархически новый синтез информации тем же парадоксальным образом превратил новую неопределённость в информацию. Жизнь определяет энтропия-информация в РНК или ДНК как комбинации химических реакций с её участием. Человек эти же количества информации может описывать кодировкой – информацией в терминах двух четырёхбуквенных кодов, образованных из одного пятибуквенного (в РНК-содержащих формах жизни есть пятый нуклеотид, который не встречается в ДНК-содержащих). Информация в ДНК может быть описана не только в терминах естественных единиц измерения, заданных иерархическими адиабатическими инвариантами. Она может быть также представлена абстрактной формулой (1.6) при основании логарифма 4 и множителе при энтропии-информации вида (1.5), или равноправно в битах, или в натах. Существо дела от этого не зависит. Такая информация не есть физическая переменная – реальность природы. Это только один из способов человеческой кодировки природных переменных. Для человека он неоценимо полезен, но это его дело, а не Природы. Категория: Библиотека » Философия Другие новости по теме: --- Код для вставки на сайт или в блог: Код для вставки в форум (BBCode): Прямая ссылка на эту публикацию:
|
|