Что значит получить информацию с помощью классических измерений? - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука

- Оглавление -


Как было подробно рассмотрено выше, существует энтропия-ин­фор­мация S как физическая переменная. Существует модель природы, называемая макроскопической. В ней синтез информации содержит нор­ми­ровку энтропии, производимую в фазовом  -пространстве Эренфеста.  Условия такой нормировки вводят семантическую информацию I  и тем­пе­ратуру системы  Свободная энергия  F  дополняет эти определения учетом сил, обладающих потен­ци­алом.

Информация по определению долж­на быть тем, что позволяет вы­разить все остальные переменные задач. И, действительно, исходное опреде­ле­ние фундаментальных физи­чес­ких переменных основано имен­но на таком понимании информации, хотя об этом явно не упоминается.

Например, когда термодинамический потенциал – свободная энер­гия – зависит только от количеств информации и механической работы , то оп­ре­де­ле­ния сопряжённых переменных есть:

    и    .                         (1.57) 

Преобразования Лежандра позволяют менять местами независи­мые и сопряженные переменные. В данном примере при переходе с их по­мощью к тер­модинамическому потенциалу    будет оп­ре­делена как сопряженная переменная величина  V,  то есть:

     и    .                           (1.58) 

Аналогично в случаях, когда в задачах участвует большее коли­чест­­во форм энергии.

Энергия в термодинамических задачах определена как функция сос­­то­яния системы, приращения которой есть полные дифференциалы. Это отображают известные в термодинамике соотношения Макс­вел­­ла, требу­ю­щие в данном  примере, чтобы:

   или   .        (1.59)

Соотношения Максвелла используются совместно с независимым условием связи между собой переменных задачи вида:

.                                      (1.60)

Оно известно как уравнение состояния системы. Уравнение сос­то­я­ния для термодинамической системы должно быть определено незави­си­мыми методами. Это подчеркивалось в начале этой главы: методы тер­модинамики основаны на сохранении энергии и оперируют с функциями состояния системы.

Таким образом, независимым от термодинамики способом, в про­цес­се нормировки энтропии определена информация о системе, процессе (объектах). Постулировано, что переменные есть функции состояния сис­­темы. Это тавтологично утверждению, что независимые переменные задачи должны быть взаимосвязаны между собой условием вида (1.60) – уравнением состояния. Соотношения Максвелла (1.59) поз­воляют про­ве­рить, что конкретный вид (1.60) гарантирует существование функций сос­тояния. Тогда производные вида (1.57), (1.58) есть фундаментальные определения физических переменных.

Перечисленное выше есть строгая в пределах своих пред­­по­сы­лок, замкнутая модель. Определения типа (1.57), (1.58) являются в рамках такой модели определениями переменных физики.

Измерить физическую переменную – это значит повторить её оп­ре­де­ление, используя кодировку. Слово – кодировка в данном случае оз­на­чает, что используется произвольный способ преобразовать [43] изме­ря­е­мую переменную в такую форму (возможно неоднозначную), которая удоб­но воспринимается орга­на­ми чувств человека.

Простейший пример преобразователя для измерения интенсивных переменных есть манометр. Давление преобразуется в силу, приложен­ную к некоторой реализации поршня в виде мембраны или трубки Бур­до­на. Наблюдается перемещение стрелки относитель­но шкалы.

В современной науке и технике преобразование завершается, как пра­вило, цифровым кодом, который полностью абстрагирован от уст­рой­ства преобразователя. Слово – кодировка – приобретает свой прямой утилитар­ный смысл. Способ преобразования как кодировка в этом слу­чае спрятан в ящике покупного прибора. Многие исследователи, из тех, кто использует данный прибор, его просто не знают.

Измерение экстенсивных переменных всегда более сложное и аб­ст­­рак­т­ное. Задумайтесь над, казалось бы, элементарным – измерением объёма. Парадоксально (а может быть наоборот – закономерно) наиболее сложным и абстрактным является измерение самой меры количества ин­фор­мации – энтропии.

Должен подчеркнуть, что встречающееся во многих научных ра­бо­тах и учебниках утверждение о том, что энтропия есть только некая ма­те­ма­ти­чес­кая конструкция, некорректно.

Например, в случае (1.4) энтропия определена через переданное системе тепло и её температуру. Но переданное тепло изменяет кине­ти­ческую энергию составляющих объект молекул. Этому в силу соотноше­ния Эйнштейна между массой и энергией соответствует изменение мас­сы объекта. Оно слишком мало для того, чтобы быть ощутимым челове­ком, но ведь оно реально существует! Температуру органы чувств чело­ве­ка воспринимают. Поэтому изменение энтропии объекта могло бы ощу­­щаться человеком однородно с изменением, например,  дав­ле­ния на руку. Количественное отличие, возникающее при этом, не может быть основанием для исключения энтропии из числа матери­аль­ных, потенци­ально ощущаемых человеком физических переменных. Это же относится и ко всем тем случаям, когда энтропия определена как универсальная мера количества информации (1.1), а не только для тепловых процессов.

Теперь обратите внимание. Если равновесная система, процесс  (объек­ты) определены как таковые своим уравнением состояния и для них известна семантическая информация и связанная с ней свободная энергия, а также энтропия как мера количества собственно информа­ции, то этим определены все физические переменные объек­та­, содер­жа­щиеся в уравнении состояния. Инфор­мация как физическая перемен­ная сохра­няет ин­туи­тивный смысл поня­тия информации – определяет конкретно сведе­ния об объектах.

            Получить информацию о физическом объекте или природном про­­цессе означает отобрать у объекта или процесса часть составляю­щей его информации и/или часть семантической информации, а тем самым и энер­гии – изменить в нём за счёт измерения количество информации и энергии. Объектами измерений могут быть как адиабатические, так и замкнутые системы. Измерения в таких системах должны нарушать ста­тус, фун­даментальные свойства этих систем.

            Однако, если уравнение состояния вида (1.60) связывает между со­бой сами независимые переменные, а описывающие систему физи­чес­кие переменные определены производ­ными вида (1.57), (1.58), то стро­го существует нулевой предел отбора от системы информации и энер­гии – в такой системе строго возможны не нарушающие её статуса измерения. Такой предел не соответствует реальности, но он задан данной моделью.

            Существует информация и семанти­чес­кая информация как физи­чес­кие переменные. Измерения имеют цель полу­чить информацию о сис­теме. Они реализуют это буквально, в соот­вет­ст­вии со смыслом ин­фор­­ма­ции как физической переменной. Однако одна и та же инфор­ма­ция, как было пояснено выше, может быть ото­бражена разной кодиров­кой. Способы и результаты такой кодировки задаются мо­делью, включа­ю­щей в себя особенности норми­ровки энтро­пии-информации, вид урав­нения состояния и принципы опре­деления производных.

            Например, в модели с уравнением состояния (1.60) исторически эталонирование единиц измерения было задано сравнением с образцами. Это, кстати, строго соответствует принципам такой модели. В совре­мен­ных измерениях эталонирование единиц измерения вводится сравнением с функциями от мировых фундаментальных постоянных. В строгом виде это для модели с уравнением состояния (1.60) и определением норми­ров­ки энтропии-информации в  -пространстве требует дополнительных пред­положений. 

            Изложенное выше относилось к равновесным системам. Но, как под­чёркивалось в начале этой главы, первична информация именно о рав­­новесных объектах. Неравновесность вводит дополнительно к ней опреде­ле­ния информации типа 2, 3 на рис. 1.3 и потоков с описывающи­ми их переменными. Измерения, как и в случаях равновесных систем, есть получение от системы информа­ции как физической переменной и её кодировка с помощью преобразова­ний. Но для неравновесных процессов при этом на первый план выходят изменения переменных, в частности, энтропии-информации.

Аксиоматически информация определена как запомненный слу­чай­ный выбор. Мера информации есть неопределённость, устранённая этим выбором. Поэтому, если проводит эксперименты по одной из мно­гих мысленных схем, например, производя последовательные деления пополам объема с единственной частице в нём так, чтобы локализовать её в результате только в одной из сопоставимых с ней по величине клеток этого объёма, то неопределенность будет устра­нена. Тот, кто за­го­нял частицу в данную клетку фактически получит ту энтропию, тот беспорядок, от которого он частицу избавил. Однако таким способом оп­ре­делить и измерить информацию может только человек.

Понятие информация относится к системам из многих элементов или к системам, в которых по той или иной причине при­сут­ст­вуют вероятности. Ибо если их нет, то нет и самого понятия об информа­ции – не из чего запоминать выбор.

Систему из многих элементов описывают макроскопические пере­менные – измеримый результат взаимодействия многих элементов сис­те­мы с окружением. Поэтому информацию как физическую переменную дол­ж­ны определять её взаимоотношения с окружающей средой. В таком виде информация входит в определения макроскопических переменных в формах типа (1.57), (1.58).

Природе не нужно проводить реальные или мысленные экспери­мен­ты с локализацией частицы в клетке. Информация в ней работает как измеримая физическая переменная. В такой роли информацию от других физических переменных отличает именно её свойство как та­ко­вой – воз­мож­ность на её основе предсказать будущее в определённых пределах во времени и в пространстве. С битами или натами, опреде­лён­ными чело­ве­ком, природе делать нечего. Как будет показано в следующих главах этой книги, информацию как макроскопическую переменную оп­ре­де­ля­ют вариационные принципы. А они неустранимо связаны как с бу­ду­щим, так и с прошлым.

Однако, проиллюстрированные примером (1.57), (1.58) определе­ния физических переменных неконкретны. В них отражено их единст­вен­ное свойство – они определяют функции состояния системы.

Конкретные свойства определениям типа (1.57), (1.58) задают неза­ви­симые уравнения состояния среды. С их помощью однозначно и кон­к­рет­но специфично определены все переменные задачи. Поэтому процесс измерений для классической механики или термодинамики не может по­вли­ять на их результат –для производных типа (1.57), (1.58) существует предел в точке, поэтому возмущения при измерениях могут быть всегда заданы в пределе нулевыми.

У элементов системы есть свойства при взаимодействии с окруже­ни­ем и самими собой. Свойства элементов системы заданы возможно­стью их движений и действием сил, обладающих потенциалом. Они определяют существование состояний – конкретных численных величин, характеризующих движение и потенциальные взаимодействия. Мера ин­фор­мация – энтропия есть число, переменная. Она определяет распреде­ле­ние элементов системы по их состояниям. Эти состояния обязательно содержат элемент случайности. Из скольких и каких случайностей про­из­ве­ден выбор или, в другой терминологии, какова вероятность состоя­ния. Это характеризует энтропия как переменная, как величина, сущест­ву­ющая независимо от человека в природе, измеримая им.

Отделить свойства элементов системы при движении и при потен­циаль­ных взаимодействиях с учётом случайности конкретных реализа­ций состояний – вот то главное, что начал Больцман и продолжил Гиббс. 

Для природы количество информации в системе выражается мате­риаль­ными процессами, не зависящими от человека. Изменилось рас­пре­деление вероятностей, изменилось число возможных состояний сис­темы – за счёт этого может быть произведена механическая работы и многое другое осязаемое, конкретное. Природа может знать инфор­ма­цию о своих объектах только в таком виде. Человек может создать аб­страк­т­ное описание этого. Это описание есть кодировка при измерениях физических переменных, в частности, информации-энтропии.

Для того, чтобы измерить информацию в газе или в лю­бом другом фи­зическом объекте, надо знать, в первую очередь, что объект сущест­вует, то есть знать отличающий его комплекс свойств. Их задают уравнения состояния. Когда объект этим определён изме­ре­ния информации о нём (как физической переменной) в пределе прово­дит­ся без всяких воздействий измерительного прибора на объект, так как урав­нения типа (1.57), (1.58) подразумевают, что для входящих в них функ­ций сущестует предел в точке. Уравнения типа (1.57), (1.58) по сво­ему принципу есть результат осреднения процессов для многих элемен­тов системы и для них существование предела в точке есть выражение воз­­можности такого осреднения. Нет этого предела – нет этих объектов. Вместо них задача поставлена для других объектов, а потому требует своего определения понятия – объект, элемент системы.

Если человек измеряет информацию в битах, натах, то это его способ кодировки физической переменной.  Природу этот способ не вол­нует. Но человек отображает процессы природы. Его кодировка оказа­лась удачной. Сочетание произвольности и закономерности при описа­нии человеком распределений в природе отражает разный знак для меры информации в природе и при её описании человеком.

Для природы определяющее есть само число возможных состоя­ний, сами вероятности состояний. Человек описывает это же в терминах устранённой неопределенности, то есть из какого числа возможных слу­чай­ностей выбрана единственная, точно описанная ситуация. С обоих то­чек зрения число, описывающее количество информации – оди­наково. Разницу в подходе человека и природы отражает разный знак, прис­вае­вае­мый одному и тому же числу.

Абсолютизировать именно человеческий знак энтропии-информа­ции, считать, что всегда нужно для её определения загонять элементы в клетки – это не физический подход.

Вопрос о квантовых ограничениях при измерениях в строгом виде должен рассматриваться в модели, для которой при норми­ров­ке энтро­пии использована фундаментально определённая индивиду­ально для каждого уровня иерархии энтропии-информации, конечная по величине ячейка объё­ма в фазо­вом пространстве, а определение производных учитывает ко­неч­­ность этого объёма.

Макроскопически индивидуальность свойств и состояний задают уравнения состояния. Определения переменных и их свойства быть функ­циями состояния задают определения типа (1.57), (1.58). Поэтому эти две группы определений (состояния – функции состояния) описыва­ют­ся независимыми друг от друга уравнениями.

Если для их определения надо загонять частицы в клетки или де­лать, что угодно, хоть мысленно реализуемое, то это отображает  процес­сы природы двумя группами определений – уравнениями состояния и функциями состояний.

Что-либо может возникнуть в природе только тогда, когда прои­зош­ли изменения количеств информации как физической переменной. Для природы возникновение жизни и человека первично есть абиоген­ный синтез класса молекул, допускающих новую ступень иерархичес­ко­го роста энтропии. В природе информация об этом выражается сугубо фи­зической переменной – энтропией ДНК, но вычисленной не просто как химической молекулы.

Жизнь определяет информация-энтропия в ДНК как число воз­мож­ных комбинаций химических реакций с её участием. Человек эти же количества информации может описывать кодировкой – информацией в терминах четырёхбуквенного кода, то есть абстрактной формулой (1.2) при основании логарифма 4 и множителе при энтропии-информации (1.3). Подробнее о возникновения и эволю­ции жизни, работы разума, со­циаль­ных систем человека см. [2] – [6]. Этому же посвящены две последующие книги этого цикла.

Просмотров: 1419
Категория: Библиотека » Философия


Другие новости по теме:

  • Уравнение Шредингера есть условие нормировки действия-энтропии-информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Нормировка энтропии и связь между энергией и информацией в системах из многих элементов - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Размерная постоянная в определении энтропии – адиабатический инвариант системы - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.2. Хаотические состояния, необратимость и рост энтропии. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Информация как физическая переменная - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Когда аналитическая механика дает строгие результаты без явного учета уравнения состояния - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Почему нормировка действия-энтропии-информации приводит к волновым уравнениям в комплексной форме - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение для информации о механической системе при случайных начальных условиях - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение состояния – составляющая уравнений Гамильтона - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Взаимодействия энергии и информации в термодинамических циклах - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Действие как мера информации в классической и в квантовой механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Информация и формулировка аксиом термодинамики - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1 Определения понятия "информация   - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Классы процессов синтеза информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Принцип максимума производства энтропии - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Наглядные пояснения к понятию – информация - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1.1. Количество информации - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2.2. Условная и безусловная информация - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.4. Распределенные динамические системы - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.1.2 Ценность информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2. Рецепция и генерация информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Что есть “воспринятая информация”? - ПСИХОТЕХНОЛОГИИ - Смирнов И., Е.Безносюк, А.Журавлёв
  • Натуральная единица измерения температуры – обратное время - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 7. ДЕНЬГИ ЕСТЬ ЗЛО - Если хочешь быть богатым и счастливым не ходи в школу - Р. Кийосаки
  • Энергия в классической механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 8. ЧТО ЕСТЬ ФИНАНСОВАЯ ЗАЩИЩЕННОСТЬ? - Если хочешь быть богатым и счастливым не ходи в школу - Р. Кийосаки
  • Глава 40. Восприятие и передача информации. Естественные механизмы обработки информации. - Русская модель эффективного соблазнения- Богачев Ф.



  • ---
    Разместите, пожалуйста, ссылку на эту страницу на своём веб-сайте:

    Код для вставки на сайт или в блог:       
    Код для вставки в форум (BBCode):       
    Прямая ссылка на эту публикацию:       





    Данный материал НЕ НАРУШАЕТ авторские права никаких физических или юридических лиц.
    Если это не так - свяжитесь с администрацией сайта.
    Материал будет немедленно удален.
    Электронная версия этой публикации предоставляется только в ознакомительных целях.
    Для дальнейшего её использования Вам необходимо будет
    приобрести бумажный (электронный, аудио) вариант у правообладателей.

    На сайте «Глубинная психология: учения и методики» представлены статьи, направления, методики по психологии, психоанализу, психотерапии, психодиагностике, судьбоанализу, психологическому консультированию; игры и упражнения для тренингов; биографии великих людей; притчи и сказки; пословицы и поговорки; а также словари и энциклопедии по психологии, медицине, философии, социологии, религии, педагогике. Все книги (аудиокниги), находящиеся на нашем сайте, Вы можете скачать бесплатно без всяких платных смс и даже без регистрации. Все словарные статьи и труды великих авторов можно читать онлайн.







    Locations of visitors to this page



          <НА ГЛАВНУЮ>      Обратная связь