V.I. ПОРЯДОК И БЕСПОРЯДОК. ЭНТРОПИЯ, НЕГЭНТРОПИЯ И ИНФОРМАЦИЯ - Формула удачи - Царевы Игорь и Ирина, Сарычев Михаил

- Оглавление -


Все к лучшему в этом лучшем из миров.

Вольтер

Проявление феноменов Фортуны можно определить как случайные (на первый взгляд) стечения обстоятельств, приводящие в соответствии с КРИТЕРИЯМИ НЕБЕЗРАЗЛИЧИЯ к благоприятному для данного биологического объекта (БО) (или сообщества БО) результату. Благоприятным же, в свою очередь, можно считать такой результат, который способствует улучшению качества жизни. Последнее всегда связано с уменьшением неопределенности, то есть с увеличением предсказуемости того, что может произойти с БО.

Отсюда следует, что явления Фортуны тесно связаны с такими важнейшими понятиями современной физики и кибернетики, какими являются энтропия и информация. Чтобы установить эту связь, напомним кратко их определения.

Энтропия S вводится как мера упорядочения системы [1] и определяется с помощью соотношения:

S=kmW, (1)

где k - коэффициент (так называемая постоянная Больцмана); W - термодинамическая вероятность реализации данного состояния рассматриваемой системы, то есть число различных способов его реализации.

Из (1) следует, что чем больше величина W, то есть чем большим числом способов реализуется данное состояние, тем больше разупорядоченность системы и тем больше ее энтропия S. И, наоборот, с ростом упорядоченности в системе меньше становится величина энтропии. Имеет место фундаментальный закон природы, так называемое второе начало термодинамики, согласно которому упорядоченность изолированной неравновесной системы должна убывать со временем, а энтропия возрастать соответственно энтропия равновесной изолированной системы сохраняется. Проявлением этого закона является, например, исчезновение искусственно созданных неоднородностей в распределении плотности или температуры газа (жидкости) в замкнутом теплоизолированном объеме. Эти неоднородности, которые представляют собой определенную упорядоченность, постепенно исчезают в результате самодиффузии или теплопроводности, а энтропия данного объема газа возрастает по отношению к ее значению, в исходном, неоднородном состоянии.

Таким образом, в изолированной системе не может сохраниться никакое искусственно созданное упорядочение. Ход развития такой системы всегда приводит к постепенному разупорядочению, то есть к беспорядку.

Важную роль в анализе рассматриваемых вопросов играет также понятие информации. Оно непосредственно связано с понятием энтропии как меры беспорядка. Информация, содержащаяся в каком-либо событии, дает количественную меру сведений, которое это событие содержит. Пусть оно состоит в подбрасывании монеты. Пока она не брошена, событие отсутствует, и информации о ней нет, то есть она равна нулю. После того как монета подброшена и выпал, например, орел - событие реализовано и информация уже отлична от нуля. Оценим количество этой информации. Пусть мы бросаем две монеты одновременно. Ясно, что мы получим вдвое большую информацию. Вероятность реализации двух независимых событий (например, выпадение на одной монете орла, а на другой - решки), равна произведению их вероятностей, а информация - сумме информации об этих событиях. Следовательно, естественно определить меру информации как логарифм вероятности. В нашем примере вероятность выпадения определенной стороны монеты следующая: Р1= 1/2.

Вероятность выпадения определенных сторон сразу у двух монет

Р = Р1/ Р2; = 1/4, а информация, содержащаяся в этом событии

I = - К log Р = - К log Р1 - К log Р2= I + Т (2)

Где, К - некоторый, коэффициент пропорциональности, конкретный вид которого обусловлен соображениями удобства.

Таким образом, научное определение информации о каком-то событии связано с вероятностью его реализации. Это обстоятельство дает возможность установить связи информации с энтропией, так как последняя, согласно (1), также определяется через вероятность (впервые это было сделано Л. Сциллардом [2] - выдающимся физиком, лауреатом Нобелевской премии). Рассмотрим, например, ситуацию, когда событие состоит в переходе системы из одного состояния, характеризующегося энтропией S, = k In Wp в другое с энтропией

S, = k In W,

Пусть для определенности S1 < S2, (т. е. W1, > W2). Тогда при данном переходе энтропия системы уменьшается на величину

AS=S,-S =klnW1/W2

Введя в определение информации (2) коэффициент К = k In 10 и считая, что для состояний 1 и 2 вероятность их реализации Р1 ~ W1 и Р2 ~ W2, соответственно, отождествим изменение информации Л1 о системе при переходе 1 -> 2 с убыванием энтропии AS:

Д1 = - k In 10 log (Р,/Р,) = k In (W1/W2) = AS = - AN. (3)

В (3) введена величина AN уменьшения негэнтропии N (отрицательной энтропии). Таким образом, увеличение информации о данной системе имеет место только при уменьшении ее энтропии или увеличении негэнтропии. Это очень важный общий вывод.

Отметим, что на самом деле, особенно применительно к процессам, связанным с жизнедеятельностью биообъектов, важнейшей характеристикой информации, помимо количества, является ее ценность. Ясно, что два различных факта могут содержать одинаковое количество информации, но при этом быть далеко не равноценными для человека. Например, в установлении факта существования телекинеза столько же информации, сколько и в выпадении определенной стороны монеты при ее подбрасывании, так как телекинез либо существует" либо нет. Однако, ценность этой информации, весьма различна. Именно она будет играть важнейшую роль в описании механизмов феноменов Фортуны.

Просмотров: 986
Категория: Библиотека » Гипноз, транс, NLP


Другие новости по теме:

  • Уравнение Шредингера есть условие нормировки действия-энтропии-информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Размерная постоянная в определении энтропии – адиабатический инвариант системы - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Почему нормировка действия-энтропии-информации приводит к волновым уравнениям в комплексной форме - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение для информации о механической системе при случайных начальных условиях - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.1.2 Ценность информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.1.1. Количество информации - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Действие как мера информации в классической и в квантовой механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Информация и формулировка аксиом термодинамики - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Классы процессов синтеза информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Взаимодействия энергии и информации в термодинамических циклах - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2.2. Хаотические состояния, необратимость и рост энтропии. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Информация как физическая переменная - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Наглядные пояснения к понятию – информация - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.2. Рецепция и генерация информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.1 Определения понятия "информация   - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава 40. Восприятие и передача информации. Естественные механизмы обработки информации. - Русская модель эффективного соблазнения- Богачев Ф.
  • Нормировка энтропии и связь между энергией и информацией в системах из многих элементов - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.4. Распределенные динамические системы - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Принцип максимума производства энтропии - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 1.2.2. Условная и безусловная информация - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Когда аналитическая механика дает строгие результаты без явного учета уравнения состояния - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Что такое безразмерные мировые постоянные и как определить их величину - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Глава 1. ОСНОВНЫЕ ПОНЯТИЯ ДИНАМИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава XX. Отек, демиелинизация и искажение информации в нервной системе. - Вопросы этиологии, патофизиологии, патоморфологии и культурологии духовно-психосоматических болезней - И.В. Семенов
  • Что значит получить информацию с помощью классических измерений? - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение состояния – составляющая уравнений Гамильтона - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Выпадение информации - Терапевтические метафоры для детей и внутреннего ребенка - Миллс Дж., Кроули Р.



  • ---
    Разместите, пожалуйста, ссылку на эту страницу на своём веб-сайте:

    Код для вставки на сайт или в блог:       
    Код для вставки в форум (BBCode):       
    Прямая ссылка на эту публикацию:       





    Данный материал НЕ НАРУШАЕТ авторские права никаких физических или юридических лиц.
    Если это не так - свяжитесь с администрацией сайта.
    Материал будет немедленно удален.
    Электронная версия этой публикации предоставляется только в ознакомительных целях.
    Для дальнейшего её использования Вам необходимо будет
    приобрести бумажный (электронный, аудио) вариант у правообладателей.

    На сайте «Глубинная психология: учения и методики» представлены статьи, направления, методики по психологии, психоанализу, психотерапии, психодиагностике, судьбоанализу, психологическому консультированию; игры и упражнения для тренингов; биографии великих людей; притчи и сказки; пословицы и поговорки; а также словари и энциклопедии по психологии, медицине, философии, социологии, религии, педагогике. Все книги (аудиокниги), находящиеся на нашем сайте, Вы можете скачать бесплатно без всяких платных смс и даже без регистрации. Все словарные статьи и труды великих авторов можно читать онлайн.







    Locations of visitors to this page



          <НА ГЛАВНУЮ>      Обратная связь