|
Страница 7 - Разум природы и разум человека - А.М. Хазен - Философия как наукаМатематическая формализация понятия об информации есть одно из крупнейших достижений ХХ века. Однако она возникла и развита для задач обработки и передачи человеческих сообщений. В них обязательно существует цель передачи информации. Методы и определения теории информации как науки о передаче сообщений неустранимо прямо или косвенно основаны на существовании такой цели. При существовании цели, для достижения которой передаются сообщения, абстрактное математическое определение количества информации основано на простых житейских аналогиях. Например. Есть город. Есть ваш друг, который живёт в “синем доме с башенкой” где-то в этом городе. “Синий дом” – это есть известная заданная цель. Вы можете в этом городе пойти из случайной точки по случайным улицам и ходить так до тех пор, пока не увидите этот дом. Как бы не был сложен город, можно подсчитать число возможных маршрутов такого поиска. Это число, как элементарно понятно, очень большое. Удобнее использовать его логарифм по любому основанию, например, натуральный. Тогда можно записать вместо числа его логарифм: . (1.4) Ваш друг написал вам письмо и сообщил свой адрес и маршрут к нему. До получения письма была неопределённость маршрутов в виде числа возможных их вариантов, записанного в логарифмической форме . Письмо есть информация для вас в самом обиходном виде – она задала вам единственный маршрут вместо случайных. Он не обязательно наиболее вероятный – он только есть заданный, определённый. Информация в письме устранила неопределённость. Число , которое описывает устранённую неопределенность, есть мера количества информации. Это и есть строгое математическое определение понятия – информация – в терминах человеческих сообщений. Видна аналогия с предыдущим. Число возможных состояний системы при определении энтропии (1.1) и неопределённость, выраженная числом возможных маршрутов в достижении цели, – однородные переменные. Как и в (1.1), в итоговом определении меры информации (1.4) использовано не само число , а его логарифм – число . Отличие между ними в том, что определение (1.1) описывает наиболее вероятное состояние системы. Для этого используется процедура нормировки энтропии (которая будет пояснена в параграфе 9 этой главы). Информация есть устранённая неопределенность. Количественно её выражает логарифм числа случайных вариантов, которые информация заменила единственным. Определение (1.1) и (1.4) похожи. Подобно (1.1а) определение (1.4) может быть записано с помощью вероятностей в виде: . (1.4а) Опять знак минус появляется потому, что числа возможных состояний больше единицы, а вероятности состояний – меньше единицы. Опять, если не будет оговорено, ссылка на (1.4) подразумевает и (1.4а). Разница между (1.1) и (1.4) не в формулах, а в сопровождающих их условиях – энтропия-информация Больцмана-Гиббса есть характеристика максимума вероятности состояния системы, а в теории информации определение Хартли (1.4), (1.4а), введенное в 1928 г., относится к конкретному событию (см. [20], [21]). На связь определения информации с энтропией впервые обратил внимание Л. Сцилард в 1929 г. Непостижимая для многих сложность абстрактного понятия об информации сводится к элементарному. Всегда можно подсчитать число случайных вариантов достижения некоей цели или вероятность этого. Далее вычислить логарифм и принять его величину мерой информации того сообщения, которое устранило неопределённость. Такую информацию принято называть информацией Хартли. Однако и в теории информации, как науке о передаче сообщений человеком, иногда используется информация (энтропия) в смысле Больцмана. Природа “знает” только натуральные логарифмы. Поэтому энтропия-информация (1.1) определена именно на их основе. Логарифм может быть определён при любом основании А, а не обязательно при основании в виде числа e, как это соответствует натуральным логарифмам. Человек может использовать разные основания логарифмов – десятичные, двоичные и другие – произвольные с любыми основаниями A. Поэтому определение информации (1.4) в зависимости от выбора основания логарифмов будут давать разные числа. Такого в определениях переменных для описания процессов и явлений быть не должно. Для того, чтобы исключить этот разнобой, определение информации (1.4), записанное с использованием логарифма по основанию А, дополняют множителем: . (1.5) Тогда . (1.6) Конкретная величина (1.5) множителя возникает в этом случае потому, что адиабатический инвариант абстрактной системы должен быть равен единице. Множитель (1.5) определяет величину и название единицы измерения информации в зависимости от выбранного “алфавита”, который отражает основание логарифмов. Для привычной человеку абстрактной информации основание логарифмов указывает число символов А того “алфавита”, который он использует. В таком случае определение энтропии-информации (1.4) приобретает вид: = lnA logA.. (1.7) В таком виде мера информации, не зависит от выбора основания логарифмов, но имеет разные единицы измерения. Например, при А = 2 это известный всем бит. Если величина K = 1, то такую единицу информации называют нат. Кстати, приведенные выше пояснения относительно единиц измерения информации нетривиальны. Обычно (для определённости см., например, [22]) выбор множителя в (1.6) обосновывают соображениями [22] типа: “Выбор коэффициента K произволен и должен быть сделан на основе соображений удобства”. Существует (в том числе среди квалифицированных научных работников) заблуждение. Например, оно явно высказано в популярной статье [23] академика Н.Н. Моисеева: “Все процессы, которые физика изучает, прекрасно укладываются в те законы и принципы отбора, которые обходятся без понятия "информация". Короче говоря, физике понятие информации не нужно. И я уверен, что физические законы и впредь не будут содержать этого понятия”. Такие заявления есть ошибка. В механике (как основе физики) уже больше 150 лет существует переменная – действие. Пусть тело массой m движется равномерно и прямолинейно со скоростью v и прошло путь, длиною r. Количество действия в этом случае есть: (Джс). В такой постановке задачи произведение – импульсу тела. Казалось бы, действие есть “невыразительная” переменная. Однако она самым существенным образом участвует в фундаментальных законах природы. Например, механическая траектория частицы определяется на основе вариационных принципов как геометрическое место точек минимума действия. Знаменитая постоянная Планка есть квант действия. Распространение света (любых электромагнитных волн) описывается с участием экстремума действия. Внимательный анализ фундаментальных работ в механике и в физике показывает, что в основах науки действие есть даже более важная переменная, чем, например, энергия. Ввёл в науку действие как её переменную ещё в 1744 г. П. Мопертюи. Он же сформулировал важнейший и первичный для многих областей науки принцип наименьшего действия, носящий его имя. Почему эта, казалось бы, ординарная функция импульса и времени имеет важнейшее значение в науке? Такого вопроса никто ещё не ставил. Работают математические формулы на основе действия – и достаточно. Как впервые исчерпывающе показано в [11], действие есть основополагающая переменная механики и физики потому, что в “основе основ” науки – в классической механике Гамильтона-Якоби – действие есть энтропия (1.1) как мера больцмановской информации (функция Ляпунова). Только знак у неё противоположный – тот, который ввёл Гиббс. Вот почему “невыразительное” действие столь важно в науке! Поэтому реально (а не на основе застарелой невнимательности) физические законы без участия понятия об информации как физической переменной не существовали, не существуют и впредь существовать не могут. Однако природа не имеет цели. Этим информация в законах физики отличается от информации при передаче человеческих сообщений. Информация в природе должна быть первичной для всех её законов, но при этом она должна быть физической переменной, так как этот термин тавтологично означает то, что описывает именно процессы природы. Информация в терминах человеческого общения и информация как физическая переменная выражаются, казалось бы, одинаковыми формулами (1.1) и (1.4). Формулы действительно одинаковы. Но, подчеркну ещё раз, между ними есть принципиальное отличие, которое содержится вне их самих. Определение энтропии-информации как физической переменной (1.1) включает в себя дополнительное определение – переменная S в них описывает максимум вероятности состояния системы. Этот максимум устанавливает дополнительная неотъемлемая принадлежность определения (1.1) – процедура нормировки энтропии. Существует ещё одно отличие определения энтропии как физической переменной – меры информации (1.1) – и информации, подразумевающей существование цели в форме (1.4). Мера (1.1) считается мерой неопределённости (или как иначе говорят – беспорядка). Мера (1.4) есть устранённая неопределённость. Для информации как физической переменной неопределённость устраняет само существование объекта (процесса) природы или техники. Категория: Библиотека » Философия Другие новости по теме: --- Код для вставки на сайт или в блог: Код для вставки в форум (BBCode): Прямая ссылка на эту публикацию:
|
|