Размерная постоянная в определении энтропии – адиабатический инвариант системы - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука

- Оглавление -


            Обмен энергией с окружением в любой системе ограничен нало­жен­­ными на неё условиями. Эти условия можно разбить на два фун­дамен­тальных класса – адиабатические и неадиабатические системы.

            Если в системе количество информации (энтропия-информация) S  остается неизменным, а энергия в ней изменяется под действием сил  Xi , то такая система является адиабатической.

            Системы, в которых количества информации из­­ме­­няются в ре­зуль­тате взаимодействия с внешней сре­дой, есть неадиабатические системы.

            Эти определения аналогичны используемым в тер­модинамике. В классической термодинамике сис­те­му называют адиабатической, если она не обмени­вает­ся с окружающей средой теплом, но в общем ви­де адиа­батической является система, ко­торая не обме­нивается с окружением количествами инфор­­ма­ции. Это не исклю­чает для неё возможность совершать над внешней средой механическую работу (или внешней среде над системой). Если механи­чес­кая работа соверша­ет­ся бесконечно медленно по от­но­шению к характер­ным време­нам внут­ренних про­цес­сов, то адиабатическая си­с­тема обратима. Сле­дует подчеркнуть, что адиа­ба­тичес­кое изме­не­ние энергии сис­те­мы стро­го непрерывно в матема­ти­ческом смысле, независимо от того, рас­смат­ри­­вается ли классическая или квантовая система.

            В общем случае силы  Xi  могут иметь элект­ри­чес­кую, магнитную, химическую или внутриатомную природу. Обмен энер­ги­ей с окруже­ни­ем за счет сил  Xi  любой природы при бесконечно мед­лен­­ном протека­нии процессов может (как и механичес­кая работа) не нару­шать адиаба­тич­ности системы.

            Примером адиабатической обратимой системы является маятник Эрен­­феста (рис. 1.1) [27] в виде груза на нити, длина которой изменяет­ся беско­неч­но медленно по отношению к периоду его коле­ба­­ний. Та­кую систему называют адиаба­ти­чески инвари­ант­ной. Полная энергия адиа­ба­тически инва­ри­ант­ной сис­темы может изменяться непрерыв­но.

Адиабатически инвариантная система имеет адиа­ба­тический ин­ва­­ри­ант – характерную констан­ту, которая остается неизменной в адиаба­ти­ческом обра­ти­мом процессе. Для примера маятника Эренфеста адиаба­ти­ческий инвариант ha есть отношение энергии ко­ле­ба­ний маятника  Е   к его частоте  .  Для каж­­дого кон­­крет­ного макроскопического маятника та­кой ин­ва­ри­ант бу­дет иметь свою численную величи­ну. На­пример, для тепловых процес­сов это есть посто­ян­ная Больцмана  kB.  Адиа­ба­ти­чес­ким инвариантом яв­ляется также постоянная Планка  h.  Множитель  K  в определении энтропии (1.1) есть адиабатический инвариант системы в том смысле, в котором ввел это понятие Эренфест [27].

            В абстрактных вычислительных системах мера количества инфор­ма­ции  S  так же задана в виде (1.1), но основание логарифмов в (1.1) принимается равным числу  А   символов алфавита, с помощью которого описывается информация:

S  K logА ..                                            (1.2)

            Изменение числа  А  не может изменить количество информации в системе. Это есть адиабатический процесс. Адиабатический инвариант в абстракт­ной системе должен быть равен  1.  Поэтому множитель в (1.2) есть:

K  lnА.                                                  (1.3)

            В зависимости от выбора  А  величина  K  определяет известные еди­ни­­цы информации, например, бит,  для которого  А  2. Следует под­черк­нуть, что в вычислительных системах определение энтропии-инфор­мации в форме (1.1) часто используется в смысле, отличном от больц­ма­новского, то есть не как характеристика максимума вероятности состоя­ния системы. В этой книге энтропия-информация в небольцма­нов­ском смысле не рассматривается.

            В общем случае для физической системы мера информации – энт­ро­пия определена только в том случае, когда определен адиабатический инвариант системы, то есть множитель  K  в определении энтропии-информации (1.1).  Для разных систем  он может иметь разную величину  (не обязательно K  kB – постоянной Больцмана). Адиабатичес­кий инва­ри­ант всегда имеет конечную величину.  Предельный переход   K  0   при строгой постановке задач невозможен.

            Неадиабатическая система (как она определена в классической тер­модинамике) обменивается c окружающей средой количествами теп­ла, что экви­ва­лентно обмену количествами ин­фор­мации.  В этом случае изменение энергии системы за счет взаимодействия с окружением обяза­тельно содержит в себе изменения количества информации в системе – её энтропии. 

            Энтропия определена как функция состояния системы. Её измене­ния опи­сывают­ся полными дифференциалами. Обмен энтропией с окру­жа­ю­щей средой при неадиабатических процессах происходит в фор­мах, которые непосредственно не описываются полными дифференциалами. Поэтому то, что пере­дается от окру­жающей среды к системе и наоборот (напри­мер, тепло) не есть энергия – функция состояния (изменение кото­рой полный дифференциал в силу ак­си­о­матического опреде­ления).  Но в ре­­зультате такого процесса энергия системы изменяется.

            Приращения функций, не являющиеся полными дифференциала­ми, могут быть преоб­ра­зованы в полные дифференциалы с помощью ин­тег­рирующего множи­теля. Таковым по аксиоматическому определению в термодина­ми­ке является температура  .   Как множитель она участ­ву­ет в обратной форме  1/.  С её помощью процесс обмена информацией с окружением  может быть представлен в форме полных дифференциалов. Например, используя температуру в виде 1/как интегрирующий множитель, мож­но на основе изменения количест­ва тепла Q (не являющегося полным диффе­рен­ци­алом) определить изменение коли­чества информации  dS – функции, изменение которой являет­ся полным дифференциалом:

dS  Q/.                                               (1.4)

            В связи с изложенным выше об энергии и её связи с количествами инфор­­мации необходимо подчеркнуть элементарное, но важнейшее и многими абсолютно забываемое.

            Энергия по своему аксиоматическому определению – функ­ция сос­тояния систе­мы. Её изменения есть полные дифференциалы. Пе­ре­мен­ная, не являю­щая­ся функцией состояния, не есть и не может быть энер­гией. Но изменения функции произвольных независимых пере­менных не обязательно будут полными дифференциалами. Они могут стать полными дифферен­циа­­лами, если на независимые переменные наложены конкретные условия связи. 

            Понятия – энергия – нет и не может быть, если не сформу­ли­рова­ны условия связи между собой независимых переменных задачи. Эти ус­ло­вия связи в термодинамике известны как уравнения состояния.

            Энергия – функция состояния, а потому эквиваленты энер­гии су­ще­ствуют во многих задачах, которые не имеют отношения к теп­ло­вым процессам. Все математические особенности, связанные с полны­ми диф­фе­рен­циалами, интегрирующими множителями, уравнениями сос­то­я­ния в полной мере, тождественно относятся и к нетепловым задачам – об­щим процессам взаимодействия энергии и информации в физических системах.

            В этой работе энтропия (мера информации) и энергия понимаются имен­но в таком широком смысле, что отражено в формулировке начал (I  III), независящей от того, какие формы энергии, подчиняющиеся ак­си­о­ме IV, учитываются в данной задаче.  Поэтому в определении энтро­пии (1.1) пос­тоянная K необязательно равна постоянной Больцмана kB.  Соот­ветственно энергия может не быть классической меха­ни­ческой энер­гией. В частности при описании информации на уровне взаимодействия мозга челове­ка и окружающей среды это может быть абстрактная функция сос­тояния.

            Следует подчеркнуть ещё одну особенность информации как физи­чес­кой переменной. Для описания природы необходим непредставимый диапазон чисел, отличающихся на 40 – 60 порядков величины. Мера ин­фор­мации (1.1) потому является важнейшей переменной природы, что она описы­вает­ся логарифмической функцией. В её терминах описание при­­роды ста­новится возможным в числовом диапазоне всего порядка 100.  Поэтому зависимости, выраженные в терминах энтропии-информа­ции, доступны сопоставимым исследованиям при любых численных мас­шта­­бах процессов, харак­терных для Вселенной.   

            Методы человеческих исследований отражают возможности при­ро­ды. Сами по себе величины, отличающиеся на 40 – 60  поряд­ков, не могли бы равноправно оказывать влияние на процессы природы. Од­нако оно существует. Причина этого именно в решающей роли энтро­пии-информации для всех процессов природы, которую задаёт её лога­риф­­мический характер.

            По определению (см., например, [28], [29]) мера информации при обмене информацией между людьми ха­рак­те­ри­зует неопределен­ность, ус­т­ра­нённую с помощью данного сообщения.

            Человек устраняет неопределённость состояния путём пе­редачи ин­фор­мации. На этой основе он абстрактно вычисляет количест­во ин­фор­­ма­­ции в данном сообщении. Обмен ин­фор­мацией между объектами физики невозможен в таком смысле. В физике реально заданным свойст­вом объектов является существующий в них беспорядок, относительно каких-то конкретных признаков элементов системы. Сама неопределён­ность есть мера информации как физическая переменная. Локализация элемента системы может использоваться для изме­ре­ния ин­фор­мации как физической переменной в терминах человеческих сооб­ще­ний. Поэтому информация как абстракция и информация как фи­зи­ческая переменная от­личаются знаком. Об­суж­дения смы­сла вероятно­стей в свя­зи с физи­чес­кими  задачами содер­жат­ся, на­при­мер, в [30].

Просмотров: 995
Категория: Библиотека » Философия


Другие новости по теме:

  • Уравнение Шредингера есть условие нормировки действия-энтропии-информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение для информации о механической системе при случайных начальных условиях - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Действие как мера информации в классической и в квантовой механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Взаимодействия энергии и информации в термодинамических циклах - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Нормировка энтропии и связь между энергией и информацией в системах из многих элементов - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Почему нормировка действия-энтропии-информации приводит к волновым уравнениям в комплексной форме - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Энергия в классической механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Классы процессов синтеза информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Информация как физическая переменная - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.4. Распределенные динамические системы - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Принцип максимума производства энтропии - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Что такое безразмерные мировые постоянные и как определить их величину - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.2. Хаотические состояния, необратимость и рост энтропии. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.1.1. Количество информации - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Что значит получить информацию с помощью классических измерений? - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Наглядные пояснения к понятию – информация - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Информация и формулировка аксиом термодинамики - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Когда аналитическая механика дает строгие результаты без явного учета уравнения состояния - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение состояния – составляющая уравнений Гамильтона - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1.2 Ценность информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2. Рецепция и генерация информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Действие в классической механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Обратимость и необратимость классическая и квантовая - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 8. ЧТО ЕСТЬ ФИНАНСОВАЯ ЗАЩИЩЕННОСТЬ? - Если хочешь быть богатым и счастливым не ходи в школу - Р. Кийосаки
  • 1.1 Определения понятия "информация   - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.3.3. Наблюдаемые величины в структурно неустойчивых квантово-механических системах (см. [31]). - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2.2. Условная и безусловная информация - Основные понятия динамической теории информации - Неизвестен - Философия как наука



  • ---
    Разместите, пожалуйста, ссылку на эту страницу на своём веб-сайте:

    Код для вставки на сайт или в блог:       
    Код для вставки в форум (BBCode):       
    Прямая ссылка на эту публикацию:       





    Данный материал НЕ НАРУШАЕТ авторские права никаких физических или юридических лиц.
    Если это не так - свяжитесь с администрацией сайта.
    Материал будет немедленно удален.
    Электронная версия этой публикации предоставляется только в ознакомительных целях.
    Для дальнейшего её использования Вам необходимо будет
    приобрести бумажный (электронный, аудио) вариант у правообладателей.

    На сайте «Глубинная психология: учения и методики» представлены статьи, направления, методики по психологии, психоанализу, психотерапии, психодиагностике, судьбоанализу, психологическому консультированию; игры и упражнения для тренингов; биографии великих людей; притчи и сказки; пословицы и поговорки; а также словари и энциклопедии по психологии, медицине, философии, социологии, религии, педагогике. Все книги (аудиокниги), находящиеся на нашем сайте, Вы можете скачать бесплатно без всяких платных смс и даже без регистрации. Все словарные статьи и труды великих авторов можно читать онлайн.







    Locations of visitors to this page



          <НА ГЛАВНУЮ>      Обратная связь