|
Что значит получить информацию с помощью классических измерений? - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наукаКак было подробно рассмотрено выше, существует энтропия-информация S как физическая переменная. Существует модель природы, называемая макроскопической. В ней синтез информации содержит нормировку энтропии, производимую в фазовом -пространстве Эренфеста. Условия такой нормировки вводят семантическую информацию I и температуру системы Свободная энергия F дополняет эти определения учетом сил, обладающих потенциалом. Информация по определению должна быть тем, что позволяет выразить все остальные переменные задач. И, действительно, исходное определение фундаментальных физических переменных основано именно на таком понимании информации, хотя об этом явно не упоминается. Например, когда термодинамический потенциал – свободная энергия – зависит только от количеств информации и механической работы , то определения сопряжённых переменных есть: и . (1.57) Преобразования Лежандра позволяют менять местами независимые и сопряженные переменные. В данном примере при переходе с их помощью к термодинамическому потенциалу будет определена как сопряженная переменная величина V, то есть: и . (1.58) Аналогично в случаях, когда в задачах участвует большее количество форм энергии. Энергия в термодинамических задачах определена как функция состояния системы, приращения которой есть полные дифференциалы. Это отображают известные в термодинамике соотношения Максвелла, требующие в данном примере, чтобы: или . (1.59) Соотношения Максвелла используются совместно с независимым условием связи между собой переменных задачи вида: . (1.60) Оно известно как уравнение состояния системы. Уравнение состояния для термодинамической системы должно быть определено независимыми методами. Это подчеркивалось в начале этой главы: методы термодинамики основаны на сохранении энергии и оперируют с функциями состояния системы. Таким образом, независимым от термодинамики способом, в процессе нормировки энтропии определена информация о системе, процессе (объектах). Постулировано, что переменные есть функции состояния системы. Это тавтологично утверждению, что независимые переменные задачи должны быть взаимосвязаны между собой условием вида (1.60) – уравнением состояния. Соотношения Максвелла (1.59) позволяют проверить, что конкретный вид (1.60) гарантирует существование функций состояния. Тогда производные вида (1.57), (1.58) есть фундаментальные определения физических переменных. Перечисленное выше есть строгая в пределах своих предпосылок, замкнутая модель. Определения типа (1.57), (1.58) являются в рамках такой модели определениями переменных физики. Измерить физическую переменную – это значит повторить её определение, используя кодировку. Слово – кодировка в данном случае означает, что используется произвольный способ преобразовать [43] измеряемую переменную в такую форму (возможно неоднозначную), которая удобно воспринимается органами чувств человека. Простейший пример преобразователя для измерения интенсивных переменных есть манометр. Давление преобразуется в силу, приложенную к некоторой реализации поршня в виде мембраны или трубки Бурдона. Наблюдается перемещение стрелки относительно шкалы. В современной науке и технике преобразование завершается, как правило, цифровым кодом, который полностью абстрагирован от устройства преобразователя. Слово – кодировка – приобретает свой прямой утилитарный смысл. Способ преобразования как кодировка в этом случае спрятан в ящике покупного прибора. Многие исследователи, из тех, кто использует данный прибор, его просто не знают. Измерение экстенсивных переменных всегда более сложное и абстрактное. Задумайтесь над, казалось бы, элементарным – измерением объёма. Парадоксально (а может быть наоборот – закономерно) наиболее сложным и абстрактным является измерение самой меры количества информации – энтропии. Должен подчеркнуть, что встречающееся во многих научных работах и учебниках утверждение о том, что энтропия есть только некая математическая конструкция, некорректно. Например, в случае (1.4) энтропия определена через переданное системе тепло и её температуру. Но переданное тепло изменяет кинетическую энергию составляющих объект молекул. Этому в силу соотношения Эйнштейна между массой и энергией соответствует изменение массы объекта. Оно слишком мало для того, чтобы быть ощутимым человеком, но ведь оно реально существует! Температуру органы чувств человека воспринимают. Поэтому изменение энтропии объекта могло бы ощущаться человеком однородно с изменением, например, давления на руку. Количественное отличие, возникающее при этом, не может быть основанием для исключения энтропии из числа материальных, потенциально ощущаемых человеком физических переменных. Это же относится и ко всем тем случаям, когда энтропия определена как универсальная мера количества информации (1.1), а не только для тепловых процессов. Теперь обратите внимание. Если равновесная система, процесс (объекты) определены как таковые своим уравнением состояния и для них известна семантическая информация и связанная с ней свободная энергия, а также энтропия как мера количества собственно информации, то этим определены все физические переменные объекта, содержащиеся в уравнении состояния. Информация как физическая переменная сохраняет интуитивный смысл понятия информации – определяет конкретно сведения об объектах. Получить информацию о физическом объекте или природном процессе означает отобрать у объекта или процесса часть составляющей его информации и/или часть семантической информации, а тем самым и энергии – изменить в нём за счёт измерения количество информации и энергии. Объектами измерений могут быть как адиабатические, так и замкнутые системы. Измерения в таких системах должны нарушать статус, фундаментальные свойства этих систем. Однако, если уравнение состояния вида (1.60) связывает между собой сами независимые переменные, а описывающие систему физические переменные определены производными вида (1.57), (1.58), то строго существует нулевой предел отбора от системы информации и энергии – в такой системе строго возможны не нарушающие её статуса измерения. Такой предел не соответствует реальности, но он задан данной моделью. Существует информация и семантическая информация как физические переменные. Измерения имеют цель получить информацию о системе. Они реализуют это буквально, в соответствии со смыслом информации как физической переменной. Однако одна и та же информация, как было пояснено выше, может быть отображена разной кодировкой. Способы и результаты такой кодировки задаются моделью, включающей в себя особенности нормировки энтропии-информации, вид уравнения состояния и принципы определения производных. Например, в модели с уравнением состояния (1.60) исторически эталонирование единиц измерения было задано сравнением с образцами. Это, кстати, строго соответствует принципам такой модели. В современных измерениях эталонирование единиц измерения вводится сравнением с функциями от мировых фундаментальных постоянных. В строгом виде это для модели с уравнением состояния (1.60) и определением нормировки энтропии-информации в -пространстве требует дополнительных предположений. Изложенное выше относилось к равновесным системам. Но, как подчёркивалось в начале этой главы, первична информация именно о равновесных объектах. Неравновесность вводит дополнительно к ней определения информации типа 2, 3 на рис. 1.3 и потоков с описывающими их переменными. Измерения, как и в случаях равновесных систем, есть получение от системы информации как физической переменной и её кодировка с помощью преобразований. Но для неравновесных процессов при этом на первый план выходят изменения переменных, в частности, энтропии-информации. Аксиоматически информация определена как запомненный случайный выбор. Мера информации есть неопределённость, устранённая этим выбором. Поэтому, если проводит эксперименты по одной из многих мысленных схем, например, производя последовательные деления пополам объема с единственной частице в нём так, чтобы локализовать её в результате только в одной из сопоставимых с ней по величине клеток этого объёма, то неопределенность будет устранена. Тот, кто загонял частицу в данную клетку фактически получит ту энтропию, тот беспорядок, от которого он частицу избавил. Однако таким способом определить и измерить информацию может только человек. Понятие информация относится к системам из многих элементов или к системам, в которых по той или иной причине присутствуют вероятности. Ибо если их нет, то нет и самого понятия об информации – не из чего запоминать выбор. Систему из многих элементов описывают макроскопические переменные – измеримый результат взаимодействия многих элементов системы с окружением. Поэтому информацию как физическую переменную должны определять её взаимоотношения с окружающей средой. В таком виде информация входит в определения макроскопических переменных в формах типа (1.57), (1.58). Природе не нужно проводить реальные или мысленные эксперименты с локализацией частицы в клетке. Информация в ней работает как измеримая физическая переменная. В такой роли информацию от других физических переменных отличает именно её свойство как таковой – возможность на её основе предсказать будущее в определённых пределах во времени и в пространстве. С битами или натами, определёнными человеком, природе делать нечего. Как будет показано в следующих главах этой книги, информацию как макроскопическую переменную определяют вариационные принципы. А они неустранимо связаны как с будущим, так и с прошлым. Однако, проиллюстрированные примером (1.57), (1.58) определения физических переменных неконкретны. В них отражено их единственное свойство – они определяют функции состояния системы. Конкретные свойства определениям типа (1.57), (1.58) задают независимые уравнения состояния среды. С их помощью однозначно и конкретно специфично определены все переменные задачи. Поэтому процесс измерений для классической механики или термодинамики не может повлиять на их результат –для производных типа (1.57), (1.58) существует предел в точке, поэтому возмущения при измерениях могут быть всегда заданы в пределе нулевыми. У элементов системы есть свойства при взаимодействии с окружением и самими собой. Свойства элементов системы заданы возможностью их движений и действием сил, обладающих потенциалом. Они определяют существование состояний – конкретных численных величин, характеризующих движение и потенциальные взаимодействия. Мера информация – энтропия есть число, переменная. Она определяет распределение элементов системы по их состояниям. Эти состояния обязательно содержат элемент случайности. Из скольких и каких случайностей произведен выбор или, в другой терминологии, какова вероятность состояния. Это характеризует энтропия как переменная, как величина, существующая независимо от человека в природе, измеримая им. Отделить свойства элементов системы при движении и при потенциальных взаимодействиях с учётом случайности конкретных реализаций состояний – вот то главное, что начал Больцман и продолжил Гиббс. Для природы количество информации в системе выражается материальными процессами, не зависящими от человека. Изменилось распределение вероятностей, изменилось число возможных состояний системы – за счёт этого может быть произведена механическая работы и многое другое осязаемое, конкретное. Природа может знать информацию о своих объектах только в таком виде. Человек может создать абстрактное описание этого. Это описание есть кодировка при измерениях физических переменных, в частности, информации-энтропии. Для того, чтобы измерить информацию в газе или в любом другом физическом объекте, надо знать, в первую очередь, что объект существует, то есть знать отличающий его комплекс свойств. Их задают уравнения состояния. Когда объект этим определён измерения информации о нём (как физической переменной) в пределе проводится без всяких воздействий измерительного прибора на объект, так как уравнения типа (1.57), (1.58) подразумевают, что для входящих в них функций сущестует предел в точке. Уравнения типа (1.57), (1.58) по своему принципу есть результат осреднения процессов для многих элементов системы и для них существование предела в точке есть выражение возможности такого осреднения. Нет этого предела – нет этих объектов. Вместо них задача поставлена для других объектов, а потому требует своего определения понятия – объект, элемент системы. Если человек измеряет информацию в битах, натах, то это его способ кодировки физической переменной. Природу этот способ не волнует. Но человек отображает процессы природы. Его кодировка оказалась удачной. Сочетание произвольности и закономерности при описании человеком распределений в природе отражает разный знак для меры информации в природе и при её описании человеком. Для природы определяющее есть само число возможных состояний, сами вероятности состояний. Человек описывает это же в терминах устранённой неопределенности, то есть из какого числа возможных случайностей выбрана единственная, точно описанная ситуация. С обоих точек зрения число, описывающее количество информации – одинаково. Разницу в подходе человека и природы отражает разный знак, присваеваемый одному и тому же числу. Абсолютизировать именно человеческий знак энтропии-информации, считать, что всегда нужно для её определения загонять элементы в клетки – это не физический подход. Вопрос о квантовых ограничениях при измерениях в строгом виде должен рассматриваться в модели, для которой при нормировке энтропии использована фундаментально определённая индивидуально для каждого уровня иерархии энтропии-информации, конечная по величине ячейка объёма в фазовом пространстве, а определение производных учитывает конечность этого объёма. Макроскопически индивидуальность свойств и состояний задают уравнения состояния. Определения переменных и их свойства быть функциями состояния задают определения типа (1.57), (1.58). Поэтому эти две группы определений (состояния – функции состояния) описываются независимыми друг от друга уравнениями. Если для их определения надо загонять частицы в клетки или делать, что угодно, хоть мысленно реализуемое, то это отображает процессы природы двумя группами определений – уравнениями состояния и функциями состояний. Что-либо может возникнуть в природе только тогда, когда произошли изменения количеств информации как физической переменной. Для природы возникновение жизни и человека первично есть абиогенный синтез класса молекул, допускающих новую ступень иерархического роста энтропии. В природе информация об этом выражается сугубо физической переменной – энтропией ДНК, но вычисленной не просто как химической молекулы. Жизнь определяет информация-энтропия в ДНК как число возможных комбинаций химических реакций с её участием. Человек эти же количества информации может описывать кодировкой – информацией в терминах четырёхбуквенного кода, то есть абстрактной формулой (1.2) при основании логарифма 4 и множителе при энтропии-информации (1.3). Подробнее о возникновения и эволюции жизни, работы разума, социальных систем человека см. [2] – [6]. Этому же посвящены две последующие книги этого цикла. Категория: Библиотека » Философия Другие новости по теме: --- Код для вставки на сайт или в блог: Код для вставки в форум (BBCode): Прямая ссылка на эту публикацию:
|
|