Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/init.php on line 69 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/init.php on line 69 Warning: strtotime(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 53 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 54 Warning: strtotime(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 56 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 57 Страница 15 - Разум природы и разум человека - А.М. Хазен - Философия как наука



Страница 15 - Разум природы и разум человека - А.М. Хазен - Философия как наука

- Оглавление -


            Понятие о комплексной энтропии участвует в введенной ранее в ра­ботах [2] – [11] иерархичности синтеза информации. Поясню иерар­хию при росте энтропии-информации сначала для её пред­став­ле­ния в фор­ме функции действительного переменного.

Синтез информации содержит в себе запоминание результата. По­э­­то­му он обязательно приводит к двум информаци­он­ным (термодинами­чес­ким) подсистемам, у которых времена релаксации отличаются на мно­го порядков величины. Долгоживущая подсистема есть запомненные объекты. Подсистема с малыми временами релакса­ции возникает при вза­и­мо­действии этих объектов между собой и с окру­жающей средой.  На­пример, атомы и молекулы, образующие газ, и сам объем газа как фи­зи­ческий объект. Наиболее фундаментальной и долго­живущей является информация об адиабатических инвариантах системы.

            Обозначу  Sk,g меру количества долговременно запомненной (син­те­­зированной) информации при очередном k-том этапе ее синтеза. В част­ности, это есть информация об адиабатических инвариантах систе­мы.  Меру информации, синтезированной за счет процессов самооргани­за­ции типа рис. 1.2, обозначу  Sk,s . Тогда на  k-том  этапе синтеза инфор­мации ее количество:

Sk   =  Sk,g  + Sk,s .                                    (1.24)

            Энтропию-информацию, отвечающую n-ной ступени иерархии объек­­тов и процессов, например для возникновения и эволюции жизни,  можно записать [2] – [11] в виде ряда:

Sn  = S0 + S1| 0 + ... + Sk| 0,1,...,(k-1) + ... + Sn| 0,1,...,(n-1) ,       (1.25)                    

Рис. 1.6.

 
в котором каждый последующий член описывает энтропию-информа­цию при новых признаках и условиях по отношению к предыдущим чле­нам ря­да, а   S0    есть информация, приня­тая за начало отсчета для дан­ной по­становки задачи (например, инфор­ма­ция, необходимая для обра­зова­ния нук­леотидов, аминокислот и других пер­вич­ных соединений, ко­торые характер­ны для задач возникновения и эволюции жизни и разума).  

            Энтропия  Sk  при условиях  (k – 1)  удовлет­воря­ет соотношению:

Sk|(k-1)    Sk ,                                          (1.26)

где знак равенства отвечает равновероятному случайному изменению ус­ловий во всем диапазоне их возможных значений  и поэтому интереса не пред­ставляет. В силу неравенства (1.26) члены ряда (1.25) убывают приближен­но экс­по­ненциально, так как условия на каж­дой новой ступени иерархии k от­но­сят­ся к признакам предыдущей  (k – 1)  сту­пе­ни иерархии, то есть умень­шают ко­­личества информации про­­порци­о­наль­­но их предыдущему ко­ли­честву

 (кон­кретно убывающая функ­ция слож­ная, так как показате­ли экспо­нен­ты могут быть разными для разных интервалов ряда (1.25)). Убыва­ет и раз­ность   , что по­ка­зано на рис. 1.6.

Рис. 1.6.

 
 Это ис­чер­пы­ва­ю­ще объясняет [2] – [11] парадокс кажущегося роста по­ряд­ка (ка­жу­ще­го­­ся уменьшения энтропии) по мере эволюции Вселен­ной и, в част­ности, при возникно­ве­нии и эво­люции жизни и разума. 

Рис. 1.6.

 
            Наблюдаемыми человеком яв­ля­ют­­ся для каждой из задач конк­рет­ные последние ступени иерархии рос­та энт­ропии-информации. Внут­ри этих сту­пе­ней изменения энтро­пии тем мень­ше, чем выше их уро­вень иерархии. Поэто­му иерархический рост энт­ро­пии может восприни­мать­ся как ее наблюдаемое уменьшение.

            Для каждой ступени иерархии  k   величина энтропии   Sk,g   опре­деляется на основе принципа максимума производства энтропии.  Он за­дает адиабатический инвариант системы   Kk    для k-го уровня иерархии энт­ропии-информации. 

Рис. 1.7.

 
            В силу принципа мак­си­мума производства энтро­пии каждый иерар­­хический шаг синтеза информации фор­мирует  Sk,g  так, чтобы ско­­­рость роста энтропии (воз­можная в условиях дан­ной сту­­пе­­ни иерар­хии) была мак­си­­мальна. На­при­мер, в ми­ре жи­­во­го для сис­те­мы в целом ее задает мак­симально воз­мож­­ная ско­рость возник­но­ве­ния но­вых эле­­мен­тов (ско­рость раз­­мно­же­ния). Для ряда (1.25) энт­ро­пия рас­смат­ри­ва­ет­ся по от­но­шению к системе в це­лом, то есть про­пор­ци­о­нальна числу эле­мен­тов. Но энт­ро­пия в этом слу­чае рас­тёт и для еди­ницы объе­ма сис­темы, так как су­ще­­ствуют ошибки (и по­доб­ные им случайные изменения элементов), которые могут не­ли­ней­но расти в функции числа элементов.

Для энтропии

Sk,s = Kk ln k                                          (1.27)

адиабатический инвариант системы  Kk  и вид статистики   k  фиксиро­ва­­ны данным уровнем иерар­хии энтропии  Sk,g.  Опре­де­ля­ю­щими для  Sk,s  являются про­цессы дис­сипативной само­ор­ганиза­ции. Поэтому фун­да­мен­таль­­ное описание про­цессов при­роды нужно про­водить в сис­теме ко­ординат рис. 1.7, свя­зы­вающей между собой ин­формацию S, се­ман­ти­чес­кую информацию I, а также ин­форма­цию

                                              (1.28)

о величине адиабатических ин­­­вариан­тов  системы. 

Конкретные плоскости Jk маркирует величина ин­фор­мации об ади­а­батическом инва­ри­анте Sk,g в пределах данной плос­кости синтеза ин­фор­мации. В строгом виде каждая из этих плоскостей есть плоскость функ­ций комплексного переменного.

Положение плос­ко­стей  на оси J (ве­ли­­­чи­ну ади­а­батического ин­­ва­ри­­анта Kk) задаёт прин­цип мак­си­­мума производ­ст­ва энтропии (1.11). Про­цессы в плос­ко­стях  под­чи­­ня­ются зако­нам синтеза информации, сводка кото­рых дана на рис. 1.2.

            Уровни иерархии  k   оп­­ределяют как возникно­вение и эволюцию Вселенной, так и возникновение и эволюцию жизни и разума на Земле.  Поэтому разум при­ро­ды и ра­­зум человека име­ют еди­ную ос­нову, единый спо­соб вза­и­мо­действия с ок­ру­­­жаю­щей сре­дой. Именно по­э­то­му при­рода воспри­ни­мает­ся на­ми как разумная.

            Отличие между разу­мом человека и разумом при­роды в том, что для разума че­ловека запо­ми­нание эфе­мер­но, а ус­ловия не имеют фун­да­мен­­тальных спо­собов кон­т­ро­ля, так как процве­та­ние че­ловека не есть цель при­­­ро­ды. Ее “цели” исчерпы­ва­ют­ся вторым началом тер­мо­­ди­намики, то есть стрем­ле­нием к максимальному хаосу в пределах ве­ли­чин обоб­щен­ной энергии (в том числе – абстрактной) и условий, задан­ных на данном уровне иерар­хии роста количества энтро­пии-информации.

            Ряд (1.25) записан для энтропии-информации как составляющей комплексной энтропии, выраженной в форме функ­ции действитель­ного переменного. По отношению к полной информации о системе ряд (1.25) следует записывать в комплекс­ной форме:

.          (1.29)

            Семантическая информация в составе ряда (1.29) может умень­шать­­ся по мере роста номера ступени иерархии, но закон этого не обяза­тель­­но вида рис. 1.6. Этому закону напрямую подчиняется толь­­ко мни­мая составляющая ком­п­лексной энтропии, которая для ряда (1.25) запи­сы­валась как энтропия-информация в форме действительной функции.

Жизнь возникла на Земле и закономерно, многократно возникала и возникает во Вселен­ной в формах, сопо­ста­ви­мых с зем­ными (на плане­тах с условиями, близ­ки­ми к земным), потому, что на первичных эта­пах воз­ник­новения жизни велика роль семанти­чес­кой информации. Вну­три стар­­ших иерархичес­ких ступеней она мо­жет быть меньше, но остаётся. Поэтому мнимая составляющая iS чле­­нов ряда (1.29), как и для ряда (1.25), уменьшается приближенно экс­по­нен­циально. Изменение дейст­ви­тель­ной составляющей  I  необяза­тель­­но монотонное. Это не меняет при­веденного выше пояснения о сов­ме­стимости роста энтропии с кажу­щим­ся увеличением порядка, так как человек действие физических законов не включает в понятие беспорядка.

Принцип минимума производства энтропии Пригожина сфор­му­лирован так, что он не зависит от возможности описывать энтропию как функцию комплексного переменного. Поэтому в пределах каждой из плоскостей   он часто ведущий. Но без участия принципа максимума производства энтропии он работать не мо­жет, так как без него нет объектов, которые можно описать в этой плос­ко­сти.

В Московском Государственном университете 10 октября 1995 г. И.Р. Пригожин читал лекцию “Время, хаос, законы природы”. Из ауди­то­рии в связи с моими работами ему был задан вопрос: “Условия Ляпу­но­ва выполняются не только при максимуме энтропии и минимуме про­из­вод­ства энтропии, но и при минимуме энтропии и максимуме произ­вод­ства энтропии. Возможны ли такие состояния в природе?” Его ответ – “Нет. При выходе из равновесия производство энтропии минимально. Другого вариационного принципа нет”.

            И.Р. Пригожин ошибается. В его принципе минимума производ­ст­ва энт­­ропии для систем близких к равновесию, а также в его развитии для сис­­тем далеких от равновесия (подчиняющихся условиям синтеза ин­фор­­мации 3 на рис. 1.2), нет “возникающего” в том смысле, который он вложил в название своей книги “От существующего к воз­ни­ка­ю­ще­му” [28]. Всё возникающее у Пригожина в конечном счёте имеет цель в виде конкретного состояния равновесия. Она может быть дале­кой или близкой, но цель-равновесие у него всегда существует. Если цель есть, то нет возникающего, так как цель существует рань­ше, чем путь к ней и возможные остановки на этом пути. Если цель есть, то “стре­­ла вре­ме­ни” уже “воткнута” в эту цель. Но тогда она вовсе не стре­ла.

            Истинно новое возникает как результат, который разрушил ста­ти­ческое равно­весие. Новое, возникающее – это то, что преодолело ту­пик равновесия и открыло возможности роста энтропии-информации.  Пре­одоление тупи­ка равновесия описывает принцип максимума произ­вод­ства энтро­пии, то есть критерий устойчивости в виде минимума энт­ро­­пии и макси­мума ее производства. Именно поэтому принцип макси­мума произ­вод­ст­ва энт­ро­пии (принцип максимума способности к пре­в­ращениям) есть глав­ный, первичный созидающий закон Вселен­ной.

Жизнь, видообразование в процессе её эволюции есть преимущест­вен­но динамически равновесные состояния. Они устанавливаются в нерав­­новесном процессе стремления к пределу статического равнове­сия. В таком смысле жизнь является результатом неравновесных процессов.

            Эволюцию Вселенной, возникновение и эволюцию в ней жизни и разума, в частности, на Земле описывают процессы типа рис. 1.7. Осо­бен­ность их в том, что синтез информации на основе принципа макси­му­ма производства энтропии формирует плоскость  ,  в которой процессы самоорганизации типа рис. 1.2  и создаваемые ими объек­ты становятся основой для действия случайностей, накопление ко­то­рых приводит к синтезу информации на основе критерия устойчивости (1.11), задающего возникновение новой плоскости “тупиков равновесия”  в виде:   .      

Просмотров: 544
Категория: Библиотека » Философия


Другие новости по теме:

  • Уравнение Шредингера есть условие нормировки действия-энтропии-информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Принцип максимума производства энтропии - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Почему нормировка действия-энтропии-информации приводит к волновым уравнениям в комплексной форме - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Размерная постоянная в определении энтропии – адиабатический инвариант системы - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.2. Хаотические состояния, необратимость и рост энтропии. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Нормировка энтропии и связь между энергией и информацией в системах из многих элементов - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Классы процессов синтеза информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение для информации о механической системе при случайных начальных условиях - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Обозначения для энтропии и энергетического баланса - Реинжиниринг окружающей среды - Сусуму Сато, Хиромицу Кумамото
  • 1.1.1. Количество информации - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Взаимодействия энергии и информации в термодинамических циклах - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Действие как мера информации в классической и в квантовой механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1.2 Ценность информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2. Рецепция и генерация информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Наглядные пояснения к понятию – информация - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Глава 40. Восприятие и передача информации. Естественные механизмы обработки информации. - Русская модель эффективного соблазнения- Богачев Ф.
  • 1.1 Определения понятия "информация   - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1. Что есть благо и кто есть Бог ? - Проблема Абсолюта и духовной индивидуальности в философском диалоге Лосского, Вышеславцева и Франка - С. В. Дворянов - Философы и их философия
  • Информация как физическая переменная - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Информация и формулировка аксиом термодинамики - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение состояния – составляющая уравнений Гамильтона - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.2.2. Условная и безусловная информация - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава 1. ОСНОВНЫЕ ПОНЯТИЯ ДИНАМИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Упражнение № 2. Ответ на вопрос "Что есть я?" - Упражнения, направленные на развитие личности и достижение духовного роста - Дж. Томас. 1992.
  • Что есть “воспринятая информация”? - ПСИХОТЕХНОЛОГИИ - Смирнов И., Е.Безносюк, А.Журавлёв
  • 2.4. Распределенные динамические системы - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Когда аналитическая механика дает строгие результаты без явного учета уравнения состояния - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука



  • ---
    Разместите, пожалуйста, ссылку на эту страницу на своём веб-сайте:

    Код для вставки на сайт или в блог:       
    Код для вставки в форум (BBCode):       
    Прямая ссылка на эту публикацию:       





    Данный материал НЕ НАРУШАЕТ авторские права никаких физических или юридических лиц.
    Если это не так - свяжитесь с администрацией сайта.
    Материал будет немедленно удален.
    Электронная версия этой публикации предоставляется только в ознакомительных целях.
    Для дальнейшего её использования Вам необходимо будет
    приобрести бумажный (электронный, аудио) вариант у правообладателей.

    На сайте «Глубинная психология: учения и методики» представлены статьи, направления, методики по психологии, психоанализу, психотерапии, психодиагностике, судьбоанализу, психологическому консультированию; игры и упражнения для тренингов; биографии великих людей; притчи и сказки; пословицы и поговорки; а также словари и энциклопедии по психологии, медицине, философии, социологии, религии, педагогике. Все книги (аудиокниги), находящиеся на нашем сайте, Вы можете скачать бесплатно без всяких платных смс и даже без регистрации. Все словарные статьи и труды великих авторов можно читать онлайн.







    Locations of visitors to this page



          <НА ГЛАВНУЮ>      Обратная связь