|
2.1. Динамические уравнения и фазовые портреты нелинейных систем: - Основные понятия динамической теории информации - Неизвестен - Философия как наукаВ этом разделе мы приведем основные сведения и поясним понятия теории динамических систем (или, что то же , качественной теории дифференциальных уравнений). Полное изложение можно найти в соответствующих математических учебниках [1-5]. Популярное изложение содержится в книгах [6 - 9] Теория динамических систем, основана на дифференциальных уравнениях вида: dui/dt = (1/ti) Fi(u1 , u2, ...un) , (2.1) где ui - динамические переменные, например, концентрации реагирующих веществ, Fi(ui) - нелинейные функции, описывающие их взаимодействие. ti - характерные времена изменения переменных ui , i = 1, 2, ... n. Уравнения (2.1) являются динамическими, то есть при задании конкретного вида функции Fi их решения, вообще говоря, однозначно определяются начальными условиями Казалось бы в такой ситуации ничего неожиданного быть не должно. Тем не менее характерные для синергетики неожиданности здесь возникают, когда решения динамических уравнений теряют устойчивость. Анализ устойчивости уравнений движения (изменения), а также устойчивости стационарных состояний основан на исследовании поведения малых отклонений от соответствующего решения . Покажем это на примере стационарных состояний системы частиц (точек). Стационарными называются состояния, соответствующие таким значениям переменных u1 , u2, ...un , при которых все функции Fi(u1 , u2, ... un) равны нулю. При этом значения ui не меняются со временем, так как все производные (см. 2.1) также равны нулю. Однако малые отклонения от стационарных значений dui изменяются со временем, и их изменение можно описать системой линейных дифференциальных уравнений: (2.2) где: при uj = `uj , `uj - стационарные значения переменных. Решения системы (2.2) имеют вид: (2.3) Здесь коэффициенты ei i определяются из условий: (2.4) Откуда следует, что они пропорциональные начальным отклонениям, (e ~ du(0)) и малы в меру малости последних. Величины li - числа, которые являются решениями алгебраического уравнения: det| ai,j - dij li| = 0, где dij - символ Кронекера такой, что dij = 0 , если i № j и dij = 1 при i = j. Величины li играют важную роль в теории устойчивости, их называют числами Ляпунова. Если числа Ляпунова отрицательны, то все dui(t) убывают со временем, поэтому состояние устойчиво. В этом случае система стремится обратно к стационарному состоянию, даже, если ее немного отклонить от него. Если хотя бы одно из чисел Ляпунова положительно, то состояние неустойчиво. В общем случае числа Ляпунова могут быть комплексными. Устойчивость определяется тогда знаком действительной части. Если среди чисел Ляпунова имеются равные нулю или чисто мнимые, то стационарное состояние называется нейтральным; при отклонении от него не появляются ни возвращающие, ни отклоняющие силы. Анализ неустойчивых движений основан на том же принципе: определяется временнaя зависимость малых отклонений от заданной траектории. Используются линейные по отклонениям уравнения (высшими степенями dui(t) пренебрегают), решения которых имеют вид: (2.5) Числа Ляпунова при этом уже не постоянны, а зависят от времени. Траектория является неустойчивой, если среди чисел li(t) имеются такие, вещественные части которых положительны в достаточно большом интервале времени Dt, таком. что Dt l(t) >> 1. Подчеркнем важное свойство: числа Ляпунова являются характеристическими (или собственными) числами системы; они не зависят от начальных условий. Таким образом, устойчивость (или неустойчивость) - внутреннее свойство исследуемой системы, а не результат внешнего воздействия. Особенность его в том, что проявляется оно только при наличии малых внешних воздействий. Эта особенность привела к важным методологическим последствиям. Сейчас приходится пересматривать и подвергать ревизии некоторые, казалось бы установившиеся в физике понятия. Обсудим три примера. Рассмотрим понятие абсолютно изолированной системы. Сейчас ясно, что его можно (и то не всегда) ввести лишь как предел неизолированной системы при стремлении к нулю величины внешнего воздействия. Для устойчивых систем такой предел существует и, следовательно, понятие остается в силе. В неустойчивых системах такой предел, вообще говоря, не существует. Действительно, предел величины du(t) = eЧ еlt (где l > 0) при e ® 0 и t ® µ зависит от порядка стремления аргументов к своим пределам. Формально величину e (которая отражает меру внешних воздействий) и время t можно считать независимыми. Однако, как мы убедились на конкретном примере, уже при сравнительно небольших временах фактор еlt возрастает столь сильно, что компенсировать его уменьшением e - задача абсурдная. Суть дела здесь в том, что экспоненциальная зависимость (explt) очень сильна, конкурировать с ней практически невозможно. Поэтому для неустойчивых систем понятие "абсолютно изолированная система" теряет смысл; можно говорить об относительно изолированной системе. В связи с явлением неустойчивости возникает необходимость пересмотреть такие понятия как "бесконечно малое" и "бесконечно большое". Ясно, что при небольших временах (таких, что t"1/Rel ) и Dx<<1, то есть отклонения малы, и возмущением можно пренебречь. При этом динамическим расчетам можно доверять даже в случае их неустойчивости. Время t"1/Rel называется интервалом предсказуемости (или горизонтом прогнозирования). Ясно также, что при больших временах (таких, что Rel·t =100 - 1000) отклонение Dx(t) станет большим при любых реальных возмущениях Действительно, для того, чтобы пренебречь возмущениями в этом случае необходимо изолировать систему с точностью до , что невозможно. Здесь не обсуждалось, какую размерность имеют величины Dx(t) и Dx0 и в каких единицах они измерены. В данном случае это и не важно. Дело в том, что любые физические величины (длины, массы, временные интервалы, числа частиц и т. д.) в нашем мире ограничены, то есть выражаются числами в интервале от 10-100 до 10+100 . Большие (или меньшие) числа могут появиться лишь как результат расчета, в котором фигурирует экспоненциальная (или более мощная ) функция. В связи с этим Эдваром Каснером было введено новое понятие "гугол" - столь большое число (больше 10+100 ), которое не может соответствовать никакой физической величине (см. [10]) Возмущение является физической величиной. Отсюда следует, что начальное отклонение не может быть меньше 10-100 , в то время как величина Rel·t вполне может стать больше 100. Обратный "гугол" , хотя формально является конечной величиной, реально должна рассматриваться как бесконечно малая. В частности, вопрос: как ведет себя функция внутри интервала порядка обратный гугол, лишен смысла. Функцию на таком интервале следует заменить числом (средним по интервалу), поскольку более детальное её поведение принципиально не наблюдаемо. Это утверждение. хотя и негативно, играет важную практическую роль. что мы продемонстрируем позже. Требует ревизии и понятие "причины" [11,12]. Обычно под причиной понимают начальные условия (или импульсные внешние воздействия), которые в соответствии с динамикой системы приводят к определенному результату, т.е. - следствию. На этом языке слово "вскрыть причинно-следственные связи" означают "понять динамику промежуточных процессов". При этом негласно предполагают, что причины и следствия соизмеримы. Для устойчивых (или нейтральных) процессов это всегда имеет место. В неустойчивых процессах ситуация иная: очень малая величина приводит к следствию, которое по масштабам с причиной не соизмеримо. Обычно в таких случаях говорят, что причиной явилась неустойчивость, а не малое начальное воздействие. При этом, однако, происходит весьма существенный сдвиг понятий: в качестве причины фигурирует внутреннее свойство системы, а не внешнее воздействие. Поясним сказанное на житейском примере. Рассмотрим два случая. В первом хрустальная ваза стоит на середине стола (состояние устойчиво). Прошел некто и неловким движением столкнул вазу со стола - она разбилась. В чем причина столь печального события, или, другими словами, кто виноват? Ясно, что виноват "некто" а причина - его неловкое движение. Рассмотрим другой случай: ваза стоит на краю стола так, что чуть не падает (состояние, близкое к неустойчивому). Пролетела муха - ваза разбилась. В этом случае муху не обвиняют, а говорят, что причина события в неустойчивом положении вазы. Виноват тот, кто ее поставил (так, чтобы никто не был виноват, в жизни обычно не бывает). Забегая несколько вперед, отметим, что в основе утверждения "событие произошло случайно" (то есть без видимой причины) также лежит неустойчивость динамических процессов. В общем случае выход из неустойчивого состояния возможен в разные стороны. Так, шарик, движущийся по водоразделу, может свалиться как вправо, так и влево. Направление зависит от начального возмущения. В отсутствии выделенного направления принимается, что малые возмущения равновероятны. Здесь мы впервые употребляем слово "вероятность". В устойчивых динамических системах оно не употребляется и, более того, не имеет смысла. В неустойчивых системах, напротив, достоверные предсказания не имеют смысла, и можно говорить лишь о вероятности того или иного результата. Таким образом, неустойчивость является тем свойством, которое позволяет ввести в динамическую теорию понятие "вероятность". Из изложенного следует, что устойчивость (неустойчивость) - не просто одно из свойств динамической системы. Это свойство существенно расширяет и изменяет аксиоматику динамических систем и позволяет взглянуть на мир с иной точки зрения. Ярким следствием неустойчивости является "динамический хаос". Вернемся к системе уравнений (2.1). При исследовании открытых систем, способных к самоорганизации, в качестве динамических переменных ui выступают самые различные величины: потенциалы и токи в физике, концентрации различных веществ в химии, численности организмов разных видов в биологии и экологии. Число переменных в реальных системах достаточно велико. Исследовать свойства многомерных систем сложно. На помощь приходят методы редукции, т. е. сведения системы уравнений, содержащих большое число дифференциальных уравнений (и, следовательно, переменных) к более простой системе из меньшего числа уравнений. Редуцированную систему уравнений называют базовой. От неё требуется: Во-первых, чтобы она описывала основные черты рассматриваемого явления. Во- вторых, чтобы она содержала минимальное число переменных и параметров. В-третьих, чтобы она была "грубой" в смысле Андронова. Последнее означает, что при малом изменении параметров и слабом расширении базовой системы (то есть добавлении высших производных и/или новых членов с малыми коэфициентами), решения должны меняться мало. В химической кинетике редукция кинетических уравнений использовалась давно и известна как метод стационарных концентраций. Он основан на временной иерархии процессов. Последнее означает, что характерные времена ti в (2.1) существенно различны и их можно разделить на три группы. К первой относятся процессы, времена которых совпадают с характерными временами интересующего нас явления. Ко второй относятся медленные (по сравнению с первыми) процессы и к третьей - быстрые. Например, если нас интересуют изменения системы, происходящие за 1-10 минут, то процессы, протекающие за секунды и доли секунд считаются быстрыми, а процессы, для которых требуются часы и сутки - медленными. Иная градация возникает, если нас интересуют секундные изменения; тогда минутные процессы мы уже отнесем к медленным. Разбив реакции на такие группы, мы можем заметить следующее: 1. Все медленно и очень медленно изменяющиеся концентрации мы просто можем считать постоянными и равными их начальным значениям. 2. В быстрых и очень быстрых реакциях успевают установиться стационарные концентрации. Другими словами, между соответствующими концентрациями быстро установятся определенные соотношения и при изменении одной из них другие почти мгновенно к ней подстроятся. В этом случае часть дифференциальных уравнений можно заменить алгебраическими соотношениями и система упростится. В результате останутся лишь процессы, имеющие примерно одинаковые скорости; их, как правило, не много. Замену дифференциальных уравнений алгебраическими называют иногда принципом стационарных концентраций. Строгое математическое обоснование такой процедуры было дано А.Н.Тихоновым [13] . Мы не будем здесь приводить доказательство этой теоремы, ограничимся лишь примером. Пусть среди n компонентов процесса имеется такой (концентрацию его обозначим u1), который очень быстро образуется, но очень быстро расходуется. Тогда уравнение для него можно записать в виде: где А = 1/ t1 >>1 (2.6) Учитывая, что за времена порядка t1 все концентрации, кроме u1, изменяются слабо и считая их постоянными, можно найти стационарную концентрацию `u1 из условия: (2.7) Используя (2.7) можно выразить `u1 через другие переменные и таким образом сократить число дифференциальных уравнений. На первый взгляд это может показаться парадоксальным. Действительно, приравнивая нулю функцию F(ui,) мы как бы считаем, что скорость изменения u1 равна нулю, хотя с другой стороны именно она пропорциональна большой величина А. Не трудно убедиться, однако, что парадокса тут нет, если стационарное состояние уравнения (2.6) устойчиво. Последнее является необходимым условием теоремы Тихонова, если оно не соблюдается, то использовать метод стационарных концентраций нельзя. Для демонстрации этого рассмотрим решение уравнения (2.6), в случае малых отклонений u1 от стационарного значения. В данном случае выражение (2.3) принимает вид: где ; (2.8) Устойчивость решения уравнения (2.6) означает, что частная производная в (2.8) отрицательна. Число Ляпунова при этом тоже отрицательно и очень велико (поскольку А>>1). Это обстоятельство обеспечивает быстрое установление стационарного значения концентрации u1 , что и является основным утверждением теоремы Тихонова. При моделировании конкретных сложных систем (например, экологических) сначала исследуют базовую модель и затем её расширяют до полной, которая называется имитационной. Последняя дает те же результаты, что и базовая, но кроме того позволяет описать поведение "деталей", то есть тех быстрых переменных, которые в базовой модели не фигурируют. Во многих и очень важных случаях базовая модель содержит всего два уравнения. Для исследования их используется наглядный метод построения так называемого фазового портрета. Поясним его смысл на примере двух уравнений для переменных x и y. (2.9) P(x,y) и Q(x,y) известные и в общем случае нелинейные функции своих переменных. На рисунке 2.1 приведена плоскость (x,y). Каждая точка на этой плоскости дает информацию о состоянии системы (2.9) и потому называется изображающей точкой. Пусть в начальный момент t=0 переменные x и y равны x=x1 ; y=y1 . Вычислим их приращения за малый интервал времени Dt. Эти приращения отложены на рисунке (2.1). Там же приведен вектор смещения изображающей точки. Аналогично можно вычислить смещение в следующий интервал времени. Повторяя процедуру можно получить ломаную линию, которая при Dt®0 переходит в плавную кривую, именуемую траекторией системы. Движение изображающей точки по траектории дает представление о развитии процесса во времени, даже если точное решение системы (2.9) не известно или не может быть выражено в аналитической форме. Именно в этом заключается ценность фазового портрета. Для упрощения расчетов удобно провести две линии P(x,y)=0 и Q(x,y)=0. На первой приращение Dx=0, то есть траектории на ней вертикальны. На второй приращения Dy =0, то есть траектории на ней горизонтальны. Эти линии называются главными изоклинами. Точки их пересечения соответствуют стационарны состояниям, поскольку при этом оба приращения равны нулю. На этом примере удобно проиллюстрировать теорему Тихонова и прояснить некоторые математические тонкости. Последние заключаются в следующем: i) Полная система уравнений содержит n переменных и требует задания стольких же начальных условий. В редуцированной системе число переменных и начальных условий меньше, то есть часть условий оказываются лишними. ii) При редукции нарушаются аналитические свойства решения полной системы. Поясним это на примере редукции системы (2.9) в случае когда tx >> ty . Cогласно теореме Тихонова систему (2.9) можно редуцировать до одного уравнения: (2. 10) где зависимость y(x) - решение алгебраического уравнения Q(x,y) =0. На рисунке 2.1, б приведен фазовый портрет системы (2.9) при tx >> ty. Видно, что траектории во всех точках, кроме лежащих на изоклине горизонталей, практически вертикальны, поскольку Dy >> Dx. Поэтому изображающая точка очень быстро, за время ty, попадает на изоклину горизонталей и затем медленно движется к стационарному состоянию согласно (2.10). Формально траектория плавная, но на ней имеется очень крутой поворот в точке(x1 , y2). Уравнение (2.10) этот крутой поворот не описывает, с чем и связано нарушение аналитических свойств решения полной системы (2.9). Начальное значение переменной y1 в уравнении (2.10) не фигурирует, важно лишь значение x1 . Любое другое значение y, лежащее на вертикали x=x1 приводит к тому же результату. Иными словами, редуцированная система забывает о начальном значении y. Таким образом редуцированная система правильно описывает процесс на ограниченном, но наиболее важном для данной задачи, временном интервале. Информационные аспекты редукции (и теоремы Тихонова) в следующем. При редукции сложной системы количество информации сокращается, сохраняется только ценная информация, а не ценная забывается. Мы остановились на этом примере столь детально, поскольку редукция сложных систем играет очень важную роль при описании и исследовании процессов самоорганизации. Как упоминалось, редукция основана на временной иерархии. Возникает вопрос: в каких случаях она имеет место и почему. В неживой природе она имеет место далеко не всегда. Так, например, при горении водорода образуется много промежуточных продуктов и времена их взаимопревращений примерно одного порядка. В процессах самоорганизации в живой природе, напротив, временная организация наблюдается практически всегда. Тому есть причины. Дело в том, что задачи моделирования и самоуправления во многом сходны и временная иерархия необходима и для того и для другого. Отсюда следует на первый взгляд парадоксальный вывод: построение математических моделей живых самоорганизующихся систем - задача более простая, чем моделирование процессов в неживой природе, хотя и последнее интересно и важно. Возможно, именно с этим связаны успехи синергетики в биологии, экологии и социальных науках. Стационарные состояния динамической системы могут быть разного типа. Их классификацию удобно привести на примере системы (2.9), 1. Устойчивый узел - так называется стационарное состояние в случае, если траектории упираются в точку, то есть приближаются к ней апериодически. При этом в линейном приближении вблизи точки все числа Ляпунова вещественны и отрицательны. 2. Устойчивый фокус - в этом случае траектории имеют вид свертывающихся спиралей и изображающая точка приближается к стационару, совершая затухающие колебания. При этом числа Ляпунова комплексны; реальная часть их отрицательна, а мнимая равна частоте колебаний. 3. Центр - в этом случае траектория представляет собой замкнутые кривые. Числа Ляпунова при этом чисто мнимые. В системе происходят незатухающие колебания амплитуда которых зависит от начальных условий (но не от параметров системы). Частота (т.е. мнимая часть числа Ляпунова) напротив, определяется внутренними свойствами системы. Состояние "центр" нейтрально, то есть ни устойчиво, ни неустойчиво. 4. Неустойчивый фокус - в этом случае траектории - раскручивающиеся спирали. Числа Ляпунова определенные в линейном приближении комплексны, и реальная часть их положительна. В реальных системах, как правило, раскручивание спирали ограничивается нелинейными членами. Тогда раскручивающаяся спираль навивается на замкнутую траекторию изнутри. Другие траектории, стремящиеся к неустойчивому фокусу из одаленных областей фазового пространства, навиваются на замкнутую траекторию снаружи. Эта замкнутая траектория называется предельным циклом (или циклом Пуанкаре). Движение точки по предельному циклу описывает периодический процесс. В отличие от центра, в данном случае амплитуда и период определенный внутренними свойствами системы и не зависит от начальных условий. 5. Седло - неустойчивое состояние в котором, хотя бы одно из чисел Ляпунова положительно. На фазовом портрете системы типа 2.2 через седло проходит только две особых линии. Одна из них такова, что изображающие точки движутся по ней к седлу и упираются в него. Эта линия называется сепаратрисой. Другая такова, что точки движутся от седла в разные стороны. Остальные траектории "обтекают" седло (в ту или иную сторону) и не попадают в него. Примером может служить движение шарика в потенциальном поле имеющем форму седла ( или перевала) - отсюда и происхождение названия - седло. Точки типы "седла" с необходимостью возникают в бистабильных системах, где имеется два разных центра притяжения (типа устойчивого узла или фокуса). Линия, проходящая через седло разделяет области притяжения устойчивых точек - отсюда ясно и ее название - сепаритриса, то есть разделяющая. Конкретные примеры таких систем мы приведем ниже. Отметим, что в гамильтоновых системах могут существовать только особые точки типа седла и центра. Другие стационарные состояния в них невозможны. Продемонстрируем метод построения фазового портрета на ряде конкретных примеров. Рассмотрим бистабильную колебательную систему вида: (2.11) Она описывает движение шарика массы m в потенциальном поле V(x) при наличии трения (коэфициент трения - g) (2.12) Первый член левой части (2.11) - сила инерции, второй - сила трения, пропорциональная скорости. Потенциал V(x) представлен на рисунке 2.2. Видно, что имеются две лунки, в которых может находиться шарик и барьер между ними. Если кинетическая энергия шарика достаточно велика, то он может колебаться между лунками. Для построения фазового портрета системы (2.11) удобно её представить в виде двух уравнений для координаты x и импульса р. (2.13) где обозначено: Фазовый портрет системы (2.13) приведен на рисунке 2.3. Пересечение изоклин - стационарные состояния - расположены в точках: x=1 , x=-1 и x=0. Средняя из них - седловая. Таким образом, система бистабильна и выбор конечного состояния зависит от начального положения изображающей точки. Траектории - спирали. Сепаратрисы, будучи сами траекториями, тоже имеют спиральную форму, они изображены на рисунке жирными линиями. Слои между сепаратрисами - области притяжения устойчивых состояний. Толщина слоев зависит от коэффициента трения g, спирали сгущаются при уменьшении последнего. Уравнение (2.11) качественно описывает игру в "орлянку", то есть вращение подброшенной в воздух монеты и последующее падение её. Два стационарных состояния соответствуют "орлу" или "решке". Трение монеты о воздух очень мало и сепаратрисы плотно заполняют фазовое пространство. Малое, но конечное изменение начального условия или малое внешнее воздействие может перебросить точку в соседний слой, что приводит к изменению выбора системой конечного состояния, то есть к генерации информации. Физический смысл описанного прост: если шарик имеет вначале достаточно большую кинетическую энергию, то до остановки он совершит так много колебаний, что предугадать результат очень сложно. Если начальные условия заданы на сепаратрисе, то это вообще невозможно. В отсутствии трения (g=0), спирали замыкаются и устойчивые фокусы превращаются в центры, то есть нейтральные состояния (числа Ляпунова при этом чисто мнимые). Уравнения (2.13) при этом описывают незатухающие колебаня. При малых амплитудах - колебания вокруг стационарной точки (либо x = +1, либо x=-1). При больших амплитудах - это колебания вокруг обеих точек. Положение изображающей точки на плоскости (x,p) определяет как координату(x), так и импульс (р). Угол между линией, направленной из начала координат к изображающей точке, и абсциссой представляет собой фазу колебаний. Отсюда происходит название - фазовая плоскость. В отсутствии трения (g=0) решение уравнения ((2.11) существенно упрощается. Тому есть причина, причем фундаментальная - закон сохранения энергии. Полная энергия, то есть сумма кинетической и потенциальной энерги (2. 14) не изменяется со временем. Величина Н называется гамильтонианом, а соответствуюшие системы - гамильтоновыми. Используется и другое название - консервативные системы. Этим подчеркивается, что некая величина, в данном случае энергия, сохраняется. В общем случае, при наличии трения энергия (2.14) не сохраняется, точнее, она рассеивается, диссипирует, переходит в тепло. Такие системы называются диссипативными, происхождение термина очевидно. При очень сильной диссипации ( ) в уравнении (2.11) можно пренебречь силой инерции и представить его в виде: (2.15) Оно описывает движение легкого шарика в потенциальном поле V(x) в очень вязкой жидкости. Оно же описывает простейшую запоминающую ячейку - триггерный элемент. В настоящее время термин "диссипативные системы" очень популярен поэтому его уместно обсудить более детально. Существующая в теории динамических систем терминология заимствована из механики, где такие понятия как энергия, импульс, диссипация имеют четкий смысл. Там же, в механике, квантовой механике, теории поля и т. п. ( то есть в "фундаментальных" науках) рассматриваются преимущественно гамильтоновы системы. Тому есть причины: Во-первых, закон сохранения энергии действительно фундаментальный. Он действительно соблюдается в каждом отдельном акте взаимодействия элементарных частиц и физических полей. В более сложных процессах происходит диссипация энергии и эту проблему мы рассмотрим позже. Во-вторых, методы исследования гамильтоновых систем детально разработаны. В реальной жизни, и в частности, в процессах, связанных с информацией, приходится иметь дело с диссипативными системами. Таким образом, область применимости гамильтоновых систем в реальной жизни крайне узка. Мы остановились на этом вопросе, поскольку до сих пор не прекращаются попытки построить "фундаментальную биологию" или "фундаментальную информатику" по образу и подобию гамильтоновой механики. Из изложенного следует, что попытки уложить реальную жизнь в прокрустово ложе гамильтоновых систем обречены на неудачу. Рассмотрим фазовый портрет еще одной системы, имеющей отношение к информации и, в частности, к процессу генерации информации в биологических системах (возникновению единого генетического кода) [7,8,14]. Система состоит из двух уравнений du1 /dt = u1 - u1 u2 - а1 u12 du2 /dt = u2 - u1 u2 - а2 u22 (2.16) Обсудим сперва свойства системы (2.16) в симметричном случае. когда а1 =а2=а. Фазовый портрет её представлен на рисунке 2.4. Изоклины вертикалей (Du1 = 0) определяются из условия F1( u1, u2 ) = u1 - u1 u2 - а u12 = 0 и соответствуют линиям u1 = 0 и u2 = 1 - а u1 . Изоклины горизонталей (Du2 = 0) определяются из условия u2 - u1 u2 - а u22 = 0 и соответствуют линиям u2 = 0 и u1= 1 - аu2. (см.рис.2.4). Система имеет четыре стационарных состояния. Первое расположено при u1 = u2 = 0 и неустойчиво. Оба числа Ляпунова положительны и равны l1,2 =+1. Такая точка называется неустойчивым узлом. Второе расположено на биссектрисе u1 = u2 = (1 + а)-1 и тоже неустойчиво (типа седла). Имеются два устойчивых состояния (типа узла): при u1 = 1/а (u2 = 0) и при u2 = 1/а ( u1 =0); в них оба числа Ляпунова отрицательны. Вся плоскость разделяется сепаратрисой на две области; в каждой из них траектории стремятся к соответствующему устойчивому состоянию. В нашем случае в силу симметрии системы она совпадает с биссектрисой. Эта модель позволяет проследить процесс рецепции информации и возникновение (генерацию) ее. Так, если в силу внешних причин начальные условия не симметричны, то система приходит к определенному стационарному состоянию - это рецепция информации. Если заранее выбор не предопределен, то есть начальные условия симметричны и заданы на сепаратрисе, то система сама, по воле случая, выбирает одно из стационарных состояний - это генерация информации. Ниже мы вернемся к этой системе и обсудим ее более детально. В случае, когда коэффициенты а1 и а2 не одинаковы (например, 1> а2 >а1 ) симметрия нарушается, но качественные свойства системы сохраняются: имеются две области притяжения, они различны, но сопоставимы. Фазовый портрет представлен на рисунке 2.5. Категория: Библиотека » Философия Другие новости по теме: --- Код для вставки на сайт или в блог: Код для вставки в форум (BBCode): Прямая ссылка на эту публикацию:
|
|