1.1.1. Количество информации - Основные понятия динамической теории информации - Неизвестен - Философия как наука

- Оглавление -


Эта величина была введена в 1948 году Клодом Шенноном [29] на примере текстового сообщения. Количество информации в сообщении, содержащем N символов IN, по Шеннону равно;

            (1.1)

где M - число букв в алфавите, pi - частота встречаемости i-ой буквы в языке, на котором написано сообщение, знак " - " перед всей правой частью формулы (1.2) поставлен для того, чтобы Ii была положительной, несмотря на то, что logq pi < 0 ( pi < 1) . Двоичные логарифмы выбраны для удобства. При однократном бросании монеты М=2 ("орел" или "решка"), N = 1 и pi =1/2. При этом получаем минимальное количеств информации (I=1), которое называется "бит". Иногда в (1.1) используются натуральные логарифмы. Тогда единица информации называется "нат" и связана с битом соотношением: 1 бит = 1,44 ната.

Приведенные формулы позволили определять пропускную способность каналов связи, что послужило основанием для улучшения методов кодирования и декодирования сообщений, выбора помехоустойчивых кодов, словом, для разработки основ теории связи.

В этом примере текст можно рассматривать как результат выбора определенного варианта расстановки букв.

В общем случае, когда делается выбор одного варианта из n возможных (реализующихся с априорной вероятностью pi i=1,2,...n), количество информации выражается формулой:

        ; i=1,2, ... n.     (1.2)

Если все варианты равновероятны, то есть pi =1/n , то:

I= log2 n (1,3)

В частном случае сообщения из N букв из бинарного алфавита (М=2) число вариантов равно: n = 2N , количество информации I= N, что совпадает с формулой (1.1).

На этом примере удобно пояснить, что означает слово "равноправные" в определении (Q). Представим, что в тексте имеются символы, которые в алфавите вообще не содержатся (не "буквы"). Априорная вероятность такового считается очень малой ( pn+1 << 1/n) и в сумме (1,2) не учитывается, поскольку он выпадает из рассматриваемого множества.

Отметим, что формула (1,2) отражает количество информации, но не ценность её.

Поясним это на примере. Количество информации в сообщении, определяемое формулой Шеннона, не зависит от того или иного сочетания букв: можно сделать сообщение бессмысленным, переставив буквы. В этом случае ценность информации исчезнет, а количество информации останется прежним. Из этого примера следует, что подменять определение информации (с учетом всех её качеств) определением количества информации нельзя.

Исторически сложилось так, что определение количества информации бвло предложено раньше, чем определение самой информации. Для решения ряда практических задач это было полезно. Однако, в дальнейшем подмена понятий часто приводила к недоразумениям.

Обсудим в связи с количеством информации ещё два понятия: "Информационная тара" (термин введен В.И. Корогодиным [23]) и "Информационная ёмкость". Первый связан с мощностью множества, из которого выбираются варианты. Второй используется для физических систем, способных хранить информацию. По смыслу они близки друг другу.

Поясним смысл их на примере текста. Если любое сочетание букв в тексте является ценным, то количество ценной информации совпадает с полным количеством, но не может превышать его. Это значит, что любая передача сигналов и/или запоминающее устройство может содержать какое то количество ценной (или осмысленной) информации (не больше, чем (1,2) но может содержать и меньшее или не содержать вовсе. В этой связи количество информации в (1,2) можно назвать информационной тарой. Это понятие играет существенную роль при рецепции информации и/или при обработке её (в частности при перекодировке).

Приведем пример. Имеется текст на русском языке, содержащий Nr букв кирилицы (алфавит содержит 32 буквы). Перевод его на английский содержит Na букв латинского алфавита (26 букв). Русский текст - результат выбора определенного варианта из nr возможных (число вариантов порядка 32 в степени Nr ). Английский перевод - выбор определенного расположения латинских букв, который предопределен русским текстом (рецепция информации). Число вариантрв в английском текста порядка 26 в степени Na Количество ценной информации одинаково (если смысл не искажен), а количество информации различно.

Ниже, на примерах мы увидим, что процессы генерации, рецепции и обработки ценной информации сопровождаются "переливанием" информации из одной тары в другую. При этом, как правило. количество информации уменьшается, но количество ценной информации сохраняется. Иногда "информационные тары" столь различны. что можно говорить об информациях разного типа. Этот термин мы также будем применять к информациям, имеющим одинаковый смысл и ценность, но сильно различающихся количественно, то есть помещенных в разные тары.

В заключение раздела отметим, что сам Шеннон не разделял понятия информация и количество информации, хотя и чувствовал. что это к добру не приведет.

"Очень редко, - писал Шеннон, - удается открыть одновременно несколько тайн природы одним и тем же ключом. Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи нескольких магических слов, таких как информация, энтропия, избыточность... нельзя решить всех нерешенных проблем"[29].

Просмотров: 1079
Категория: Библиотека » Философия


Другие новости по теме:

  • 1.1.2 Ценность информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2. Рецепция и генерация информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.1 Определения понятия "информация   - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 4.2.Опережающее отражение вместо обработки информации для построения "образов-картинок" - Введение в системную психофизиологию - Ю.И. Александров - Философия как наука
  • 1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава 40. Восприятие и передача информации. Естественные механизмы обработки информации. - Русская модель эффективного соблазнения- Богачев Ф.
  • Глава 1. ОСНОВНЫЕ ПОНЯТИЯ ДИНАМИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Уравнение Шредингера есть условие нормировки действия-энтропии-информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Роль условий устойчивости при синтезе информации как физическом процессе - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Классы процессов синтеза информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Иерархия энтропий при синтезе информации - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Взаимодействия энергии и информации в термодинамических циклах - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Действие как мера информации в классической и в квантовой механике - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Уравнение для информации о механической системе при случайных начальных условиях - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • Почему нормировка действия-энтропии-информации приводит к волновым уравнениям в комплексной форме - Введение меры информации в аксиоматическую базу механики - А.М. Хазен - Философия как наука
  • 2. "ЛЮСИ", "НУ И НУ!" И "ББМ" В ОДНОЙ КУЧЕ - Формула удачи - Царевы Игорь и Ирина, Сарычев Михаил
  • 27. "КРАСНЫЙ" ВЫ, "СИНИЙ" ИЛИ "СЕРЫЙ"? - Я вижу вас голыми. Как подготовитьск презентации и с блеском ее провести - Рон Хофф
  • "ИНТЕЛЛЕКТУАЛ", "ГУРМАН" И "ЕСТЕСТВОВИСПЫТАТЕЛЬ" - Опасный, странный, таинственный незнакомец по имени мужчина (практическое руководство для женщин) - Октав Аме.
  • 1.2.2. Условная и безусловная информация - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.1. Понятия "Crisis management" и "кризисных" технологий. - Манипулирование личностью - Г. Грачев, И. Мельник
  • МЕТОДЫ "СЮРПРИЗА" И "МОЙ ДРУГ ДЖОН" - Стратегия психотерапии - Милтон Эриксон
  • Аннотация - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.4.2. Диссипативные структуры. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.4.1. Образование фронта: - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 1.2.1. Иерархия информационных уровней - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.4. Распределенные динамические системы - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава 2. УСТОЙЧИВОСТЬ ДИНАМИЧЕСКИХ СИСТЕМ И ПРОБЛЕМА НЕОБРАТИМОСТИ. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.3.1. Динамическая и параметрическая устойчивость квантово-механических систем. - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • 2.1. Динамические уравнения и фазовые портреты нелинейных систем: - Основные понятия динамической теории информации - Неизвестен - Философия как наука
  • Глава I. ОТ "ТЕОРИИ БИТЫХ ГОРШКОВ" К "ФОРМУЛЕ УДАЧИ" - Формула удачи - Царевы Игорь и Ирина, Сарычев Михаил



  • ---
    Разместите, пожалуйста, ссылку на эту страницу на своём веб-сайте:

    Код для вставки на сайт или в блог:       
    Код для вставки в форум (BBCode):       
    Прямая ссылка на эту публикацию:       





    Данный материал НЕ НАРУШАЕТ авторские права никаких физических или юридических лиц.
    Если это не так - свяжитесь с администрацией сайта.
    Материал будет немедленно удален.
    Электронная версия этой публикации предоставляется только в ознакомительных целях.
    Для дальнейшего её использования Вам необходимо будет
    приобрести бумажный (электронный, аудио) вариант у правообладателей.

    На сайте «Глубинная психология: учения и методики» представлены статьи, направления, методики по психологии, психоанализу, психотерапии, психодиагностике, судьбоанализу, психологическому консультированию; игры и упражнения для тренингов; биографии великих людей; притчи и сказки; пословицы и поговорки; а также словари и энциклопедии по психологии, медицине, философии, социологии, религии, педагогике. Все книги (аудиокниги), находящиеся на нашем сайте, Вы можете скачать бесплатно без всяких платных смс и даже без регистрации. Все словарные статьи и труды великих авторов можно читать онлайн.







    Locations of visitors to this page



          <НА ГЛАВНУЮ>      Обратная связь