Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/init.php on line 69 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/init.php on line 69 Warning: strtotime(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 53 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 54 Warning: strtotime(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 56 Warning: date(): Invalid date.timezone value 'Europe/Kyiv', we selected the timezone 'UTC' for now. in /var/www/h77455/data/www/psyoffice.ru/engine/modules/news/vuzliborg/vuzliborg_news.php on line 57 Страница 16 - Разум природы и разум человека - А.М. Хазен - Философия как наука



Страница 16 - Разум природы и разум человека - А.М. Хазен - Философия как наука

- Оглавление -


Вопрос о таких особенностях биологической информации как её ре­цепция, ценность, незаменимость, неизбыточность стоит в биологии не одно десятилетие (см., например, обзор М.В. Вольке­н­штей­на [41] и ис­точники, содержащиеся в его ссылках). Подход к этому вопросу во всех работах один – в биологию вносят язык и методы тео­рии инфор­ма­ции (науки о человеческих способах связи и обработки информации как средства достижения заданной извне цели). В моих работах и, в част­нос­ти, в этой книге неприменимость этих ме­то­дов и аппарата в биологии подчеркивается многократно – теория инфор­ма­ции исходит из предпо­сыл­ки о суще­ст­во­вании цели передачи, рецеп­ции и обработки инфор­ма­ции. Живые сис­те­мы при своём возникновении и эволюции цели в таком смысле не име­ют. Понятия классической тео­рии ин­фор­мации к ним в пря­мом виде неприменимы. Неудивителен поэтому в обзоре Воль­кен­штей­­на итог, которым он оценивает существующую литературу:    “Тер­мо­ди­намический анализ рецеп­ции и цен­нос­ти информа­ции не про­во­дился”. В отличие от этого дам краткий и исчерпывающий ответ на воп­рос, сформулированный в заголовке параграфа.

Информация о возникновении и эволюции жизни синтезируется в виде запоминания случайного выбора. Результат синтеза информации есть процессы, состояния и объекты. Запоминанием при синтезе инфор­мации управляют критерии устойчивости. Они содержат как кри­­терий рис. 1.4, отвечающий прин­ципу максимума про­изводства энт­ро­­пии, так и критерии устойчивости рис. 1.2, вклю­чая устойчивость 5 в ком­­п­­лекс­ной плоскости (параграф 9 этой главы).

Синтезированная таким образом информация це­ли не имеет (кро­ме самого про­цесса своего роста). Оценить её можно только в тер­­минах па­­раметров процессов, выражающих запоминание при синтезе инфор­ма­ции, а так­же физи­чес­ких эффектов, возможность которых создала ус­той­чивость как основа запоминания. Поэтому “термоди­намический ана­лиз рецеп­ции и цен­нос­ти информа­ции” есть просто анализ той ус­той­­чивости, которую как результат реально создали в дан­ной задаче кри­терии устойчивости. При этом первый вопрос – в чём в биологии состоят эффекты, сви­детель­ст­ву­ющие о том, что синтезированная ин­фор­мация принята? В чём выра­жается рецепция информации для био­ло­гических процессов и объектов на языке физики и химии?

Ответ можно дать краткий и исчерпывающий. Рецепция информа­ции в биологических процессах и объектах есть изменение условий для дейст­вия случайностей. Информа­ция принята, если в био­ло­гичес­кой сис­те­ме произошли из­мене­ния характерных для неё ус­ло­вий. Резуль­тат рецепции информации (как физической переменной) нужно оце­ни­вать в терминах и методами исследования устойчивости как средст­ва для за­по­минания случайного выбора с учётом вклада рецеп­ции информации в изменение условий.

Рецепция информации в природе должна приводить к новым воз­мож­ностям роста энтропии. Они раз­лич­ны, когда речь идёт о форми­ровании новых плоскостей  Sk,g  или когда речь идёт о росте энтропии в пре­делах заданных плоскостей  . Однако запомина­ние в равной степени определяющее в обоих случаях. Поэтому всё, что свя­зано с количественными  характеристиками (качество и подобное) ин­фор­мации как физической переменной должно описываться на языке за­дач устойчивости.

Количественно устойчивость, пришедшую в науку из механики, в част­ности, из её узкой прикладной об­ласти – автоматического регу­ли­рования – ха­рак­теризуют два критерия:

запас устойчивости;

область устойчивости.

Эти понятия в теории автоматического регулирования описывают качество регулирования. Поскольку устойчивость есть одна из сос­тав­ляющих синтеза информации, то естественно сопоставить характери­с­ти­кам качества информации определения для качества регулирования, из­вест­ные из теории автома­ти­ческого регулирования.

Сформулирую их в приложении к задачам возникновения и эволю­ции жизни и разума.

Рецепция информации выражается её син­тезом. Поступившая в систему информация путём изменения усло­вий синтеза создала новое запомненное состояние. Внешние воздействия мо­гут его раз­рушить. При синтезе информации чем бо­лее устойчив по от­ношению к внеш­ним воз­дейст­виям процесс запо­ми­нания, тем ценнее полученная информация. От­сюда опре­де­ление.

Ценность биологической информации есть запас устойчи­вос­ти, который создаёт рецепция или синтез информации (в функции от определяющих переменных и пара­метров задачи). 

Чем больше запас устойчивости, тем более ценная информация ему соответ­ст­вует. Такое определение ценности информации сохраняет в себе оценку последствий для условий её синтеза или ре­цеп­ции. С точки зрения стремления к максимуму энтропии возникает необходи­мость двух градаций одного и того же однородного опреде­ле­ния.

Принятая инфор­ма­ция может оп­ти­мизировать условия, необходи­мые для равновесия. Однако идеальное равновесие (максимальная при­спо­собленность к окружающей среде) есть “тупик равно­ве­сия”. При из­ме­нении внешних условий высокая оптимальность ста­но­вит­ся причиной быстрого вымирания вида жизни. Для поддержания роста энтропии бо­лее ценна та информация, которая в силу неопти­маль­ности открывает путь новым случайностям и новому росту энтропии-ин­формации теперь на основе принципа максимума про­из­водства энтро­пии. Поэтому поня­тие ценности биологической инфор­мации как запаса устойчивости тре­бует сопроводить его упоминанием о том, к каким про­цес­сам от­но­сится запас устойчивости – к последствиям рецепции ин­фор­мации при пере­ходах по сту­пеням иерархии энтропии-информации, или она изменяет условия синтеза информации в пределах одной и той же ступени.

Далее необходимо определить понятие незаменимости информа­ции. В этом можно исходить из представления о том, что чем шире об­ласть устойчивости при синтезе информации, тем в большем числе про­цессов, состояний, объектов существенны изменения ус­ловий, вызван­ные рецепцией данной информации. Сопо­с­тав­лю понятию не­заменимо­с­ти информации ширину области устойчивости и введу опре­де­ление.

Незаменимость биологической информации есть ширина обла­сти устойчивости при запоминании (составляющей процесса син­теза ин­фор­мации), представленная как функ­ция от определяю­щих переменных и параметров задачи.

Например, информация о РНК и ДНК может рассматриваться по отношению к ним как классам химических соединений. Их область ус­той­чивости (по отношению к такому смыслу информации о них) есть все прошлые и существующие виды и разновидности этих молекул, исполь­зу­емые формами жизни. Незаменимость этой информации огромна.

 Широкая область существования (устойчивости) РНК и ДНК при существенно разных внешних условиях свидетельствует о большом за­па­се устойчивости этих молекул как классе соединений. Это есть под­тверж­­дение большой ценности этой информации. Речь идёт о РНК и ДНК как результате синтеза информации на основе прин­ци­па макси­мума производства энтропии. С заданными извне целями это не связано.

Однако ДНК случайно изменяется и запоминается в виде кон­к­рет­ной структуры индивидуальной молекулы, то есть внутри иерар­хичес­ких плоскостей синтеза информации рис. 1.7. Это есть инфор­мация о конкретных видах жизни. Она формируется преи­му­щественно в про­цес­сах приближения к тупикам равновесия. Но они неизбежно должны быть разрушимы – максимум способности превращений есть главное в при­ро­де. Два пути синтеза информации, двойственность оценок её ценности и не­заменимости действуют и по отношению к информации, определяю­щей индивидуальные молекулы РНК и ДНК. И для такой информации не­замени­мость и ценность не имеют ничего общего с оцен­ками чело­ве­ка, который навязывает природе цели эволюции (в частнос­ти, как осно­вы для понятия об информации и её характеристиках). Более подробно примеры будут рассмотрены в главах III – VIII

В биологии пока нет даже намёка на то, как в задачах возникнове­ния и эволюции жизни и разума обос­но­ванно количест­вен­но отделить участие физико-хи­ми­ческих законов от результа­тов ес­те­ст­вен­ного отбо­ра как запомненного вы­бо­ра из слу­­чай­ностей.

Рис. 1.8.

 
При описании, введенном в этой ра­боте, уча­­с­тие физических и хи­ми­ческих зако­нов в воз­ник­но­ве­нии и эво­люции жизни ото­бра­жает се­ман­­тичес­кая ин­фор­ма­ция  Ik.  Результаты ес­те­ст­венного от­бора содер­жат­ся в энт­ропии-инфор­ма­ции  Sk.  Оба вида информации объединяются при поста­нов­ках задач в терминах функций комплекс­ного переменного.

В такой постановке задачи изображённый на рис. 1.8 век­тор  S*k  есть полная ин­фор­мация о системе. Понятно, что в зависимости от со­от­ношения в дан­ной задаче энтропии-информации Sk,g и семантической ин­фор­мации Ik будет разным угол  k , который образует вектор полной ин­фор­мации с осью семанти­чес­кой информации. Он и его функции ко­ли­чественно описывают соот­но­ше­ние в биологических задачах инфор­ма­ции как за­пом­ненного выбора из случайностей и ин­форма­ции как стремления к экс­тремумам энер­гии (что описывают как действие од­но­знач­ных физи­ко-химических законов).

Поэтому введу для описания возникновения и эво­лю­­ции жизни и разума критерий:

                                           (1.30)

и назову его – семантический коэффициент. Он опи­сы­­вает долю учас­тия физи­ко-химических законов (се­мантической ин­фор­­ма­ции) в синтезе инфор­ма­ции о процессах и объек­тах  k-го уров­­ня иерар­­хии энтропии-инфор­ма­ции.

Вопрос об относительной роли случай­нос­тей и од­но­значных фи­­зико-химических зако­нов при воз­никно­ве­нии и эво­люции жиз­ни и ра­зума обсуж­дает­ся в био­логии сто­ле­тия, в част­­ности, в тео­рии но­мо­генеза Л.С. Бер­га. Введенный выше количественный кри­те­рий, опи­сы­вающий соот­но­шение случайно­с­тей и фи­зико-химических зако­нов, впервые дал на него строгий коли­чест­вен­ный ответ.

В биологии необходим критерий, кото­рый объек­­тивно (в ви­де чис­ла) опреде­ляет сложность би­о­логической сис­темы. Введу опре­де­­ление: слож­ность биологической системы выражает число уровней иерар­хии энтропии-информации, описыва­ю­щих её.

Иерархия энтропии-информации едина и непрерывна для неживой и живой природы. Начинается она на уровне внутренней структуры “эле­ментарных частиц”. Поэтому понятие сложности системы должно вклю­чать в себя определение той ступени k иерархии энтропии-информации, которая принимается в качестве начала отсчёта для количественной оцен­ки сложности системы. Это может быть уровень химических эле­мен­­­тов, заданный таблицей Менделеева. Или более низ­кий иерархичес­кий уровень внут­­ренней структуры атомов, определяющей химические свя­зи. Или бо­лее высокий уровень аминокислот и нуклеотидов как це­ло­го. Выбор нуля для отсчёта сложности системы есть вопрос соглашения.

Приведенные выше определения относятся к энтропии-информа­ции как физической переменной. ДНК сегодня описывают в тер­минах обще­из­вестного четырёхбуквенного кода, считая, что существует цель воз­никновения ДНК. В этом случае понятие информации исполь­зу­ется в обычном смысле теории информации. Запретить такое нельзя. Слу­чаи, когда это полезно, существуют. Но природа цели не имеет, а по­тому на­до быть готовыми к возможным ошибкам при таком подходе. В за­клю­чение этой вводной главы приведу ещё один пример различия между ин­формацией как физической переменной – энтропией – и ин­фор­мацией как средстве для достижения заданной цели.

Просмотров: 562
Категория: Библиотека » Философия


Другие новости по теме:

  • Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение Шредингера есть условие нормировки действия-энтропии-информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Почему нормировка действия-энтропии-информации приводит к волновым уравнениям в комплексной форме - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Классы процессов синтеза информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.2. Рецепция и генерация информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1.2 Ценность информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.1.1. Количество информации - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Действие как мера информации в классической и в квантовой механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Принцип максимума производства энтропии - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение для информации о механической системе при случайных начальных условиях - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.2. Хаотические состояния, необратимость и рост энтропии. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Взаимодействия энергии и информации в термодинамических циклах - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Глава 40. Восприятие и передача информации. Естественные механизмы обработки информации. - Русская модель эффективного соблазнения- Богачев Ф.
  • Размерная постоянная в определении энтропии – адиабатический инвариант системы - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Глава 1. ОСНОВНЫЕ ПОНЯТИЯ ДИНАМИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Нормировка энтропии и связь между энергией и информацией в системах из многих элементов - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1 Определения понятия "информация   - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2.2. Условная и безусловная информация - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Наглядные пояснения к понятию – информация - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Информация как физическая переменная - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Информация и формулировка аксиом термодинамики - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.4. Распределенные динамические системы - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.4.2. Диссипативные структуры. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава 2. УСТОЙЧИВОСТЬ ДИНАМИЧЕСКИХ СИСТЕМ И ПРОБЛЕМА НЕОБРАТИМОСТИ. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.3.1. Динамическая и параметрическая устойчивость квантово-механических систем. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2.1. Иерархия информационных уровней - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Аннотация - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.4.1. Образование фронта: - Основные понятия динамической теории информации - Неизвестен - Философия как наука



  • ---
    Разместите, пожалуйста, ссылку на эту страницу на своём веб-сайте:

    Код для вставки на сайт или в блог:       
    Код для вставки в форум (BBCode):       
    Прямая ссылка на эту публикацию:       





    Данный материал НЕ НАРУШАЕТ авторские права никаких физических или юридических лиц.
    Если это не так - свяжитесь с администрацией сайта.
    Материал будет немедленно удален.
    Электронная версия этой публикации предоставляется только в ознакомительных целях.
    Для дальнейшего её использования Вам необходимо будет
    приобрести бумажный (электронный, аудио) вариант у правообладателей.

    На сайте «Глубинная психология: учения и методики» представлены статьи, направления, методики по психологии, психоанализу, психотерапии, психодиагностике, судьбоанализу, психологическому консультированию; игры и упражнения для тренингов; биографии великих людей; притчи и сказки; пословицы и поговорки; а также словари и энциклопедии по психологии, медицине, философии, социологии, религии, педагогике. Все книги (аудиокниги), находящиеся на нашем сайте, Вы можете скачать бесплатно без всяких платных смс и даже без регистрации. Все словарные статьи и труды великих авторов можно читать онлайн.







    Locations of visitors to this page



          <НА ГЛАВНУЮ>      Обратная связь