История возникновения и развития методов реконструкции математических моделей динамических систем по порождаемому временному ряду
РЕФЕРАТ
для сдачи кандидатского экзамена по истории и философии науки
(История математики)
Тема: «История возникновения и развития методов реконструкции математических моделей динамических систем по порождаемому временному ряду»
СОДЕРЖАНИЕ
Введение……………………………………………………………………….......3
§ 1. Возникновение и развитие теории динамических систем………………...5
§ 2. Развитие методов реконструкции математических моделей динамических систем…………………………………………………………………………….15
Заключение……………………………………………………………………….23
Список литературы………………………………………………………………24
Введение
В развитии различных областей человеческой деятельности математика оказывала и оказывает существенное влияние. Современное развитие науки характеризуется потребностью изучения всевозможных сложных процессов и явлений. Происходит значительное увеличение темпов математизации и расширение ее области действия. Теории математики широко применяются в других науках, казалось бы совершенно от нее далеких – лингвистике, юриспруденции. Это вызвано естественным процессом развития научного знания, который потребовал привлечения нового и более совершенного математического аппарата, проявлением новых разделов математики, а также кибернетики, вычислительной техники и так далее, что значительно увеличило возможности ее применения.
Математическое моделирование по временным рядам – бурно развивающееся направление математической статистики и нелинейной динамики. Оно возникло с аппроксимации множества экспериментальных точек на плоскости гладкой линией. В настоящее время эмпирические модели имеют вид сложных дифференциальных и разностных уравнений и способны описывать даже нелинейные колебательно-волновые феномены.
Использование современных компьютеров с их большими объемами памяти и скоростями обработки данных и современными математическими пакетами в значительной степени облегчает получение модельных систем нелинейных уравнений, обработку сложных зашумленных сигналов, типичных для реальных объектов и ситуаций. Практические приложения эмпирических моделей весьма разнообразны – от прогнозов будущего до технической и медицинской диагностики, но процедуры их получения формализовать чрезвычайно сложно[4].
В реферате предпринята попытка рассмотреть исторические и философские аспекты возникновения и развития методов реконструкции математических моделей динамических систем. В первом параграфе рассмотрено возникновение теории динамических систем, понятий динамическая систем, вычислительный эксперимент, математическая модель и хаос. Во втором параграфе рассматривается развитие методов реконструкции математических моделей динамических систем, применения компьютеров для проведения вычислительных экспериментов.
§ 1. Возникновение и развитие теории динамических систем
Первая линия развития, которая вела к появлению теории динамических систем, связана с небесной механикой. Основоположниками классической механики принято считать Исаака Ньютона, Жозефа Луи Лагранжа, Пьера Симона Лапласа, Уильяма Гамильтона. Результатом их деятельности стало формирование представления о том, что сейчас называют гамильтоновой или консервативной динамической системой. Проблема трёх тел в небесной динамике, – первая задача, анализируя которую исследователи столкнулись с возникновением сложной динамики и хаоса. Впервые об этом написал Анри Пуанкаре. Результатом изучения системы трёх тел стало развитие теории возмущений.
С развитием компьютеров возможности изучения и наглядного представления сложной динамики расширились. Одним из первых примеров компьютерного исследования сложной динамики стала работа французских астрофизиков, рассмотревших модель движения звезды через галактический диск.
Значительный прогресс в понимании соотношения между квазипериодической динамикой и хаосом связан с теорией, разработанной в 50-60-х годах А.Н. Колмогоровым и В.И. Арнольд, а также американцем Ю. Мозером. В качественном отношении большое значение получили работы Б.В. Чирикова и Г.М. Заславского.
Вторая линия развития связана со статической физикой и формированием эргодической теории. Как известно, состоятельное описание в статической физике достигается только в рамках квантовой теории. Однако, много важного было сделано в предположении, что на фундаментальном уровне законы движения микрочастиц, из которых построены физические системы, подчиняются классической гамильтоновой механике. Основоположники статистической физики Д.У. Гиббс и Л. Больцман рассматривали фазовое пространство гамильтоновых систем, образованных совокупностью большого числа микрочастиц. В силу закона сохранения энергии, предоставленная сама себе система должна оставаться всё время на некоторой гиперповерхности в этом пространстве, задаваемой условием постоянства энергии. Больцман ввёл эргодическую гипотезу – предположение о том, что имеется по существу только одна фазовая траектория, проходящая через все точки эргодической поверхности. В 1913 году было доказано, что такое невозможно. Исправленная версия (П. Эренфест) состоит в том, что фазовая траектория с течением времени должна проходить сколь угодно близко от любой точки эргодической поверхности. Результатом стало формирование отдельной математической дисциплины – эргодической теории или метрической теории динамических систем.
Появление компьютеров позволило в начале 50-х годов Ферми, Паста и Уламу предпринять попытку пронаблюдать в вычислительном эксперименте процесс установления термодинамического равновесия в цепочке связанных нелинейных осцилляторов. Результат оказался совершенно неожиданным: вместо релаксации к равновесию наблюдался квазипериодический процесс. Эта работа показала, что проблема значительно сложнее, чем виделась раньше и дала тем самым толчок исследованиям, приведшим впоследствии к представлению о распределённых системах, а также к понятию солитона. Как выяснилось, свойство эргодичности само по себе не является ни необходимым, ни достаточным для желаемого обоснования статистической физики. По настоящему существенным является неустойчивость фазовых траекторий системы по отношению к малым возмущениям начальных условий и связанное с этим более сильное, чем эргодичность, свойство перемешивания. Одним из первых эту идею разработал Н. С. Крылов (1917-1947).
Количественная характеристика неустойчивости траекторий известна как ляпуновский характеристический показатель – величина, введённая русским математиком А.М. Ляпуновым (1857-1918). В 1968 г. советский математик В.И. Оселедец опубликовал важнейший результат – так называемую мультипликативную эргодическую теорему, которая позволяет говорить о ляпуновских показателях, определённых не для одной фазовой траектории, а для множества траекторий.
Были введены и другие характеристики, позволяющие различать простую и сложную динамику, – динамическая энтропия, известная как энтропия Колмогорова–Синая (1959) и топологическая энтропия (1965).
(1917{1947)
Третья линия развития связана с радиотехникой, электроникой, теорией автоматического регулирования. Основоположником этого направления развития теории динамических систем был Б. Ван-дер-Поль. С этим именем связан генератор и осциллятор Ван-дер-Поля – классическая модель нелинейной системы, демонстрирующей периодические автоколебания. Около 1927 г. Ван-дер-Поль и Ван-дер-Марк исследовали динамику такого генератора под периодическим внешним воздействием. Режим работы устройства контролировался по звуку работы в наушниках. Исследователи отметили явление синхронизации при определенных рациональных соотношениях частоты воздействия и собственной частоты и шумоподобные колебания при переходах между областями захвата. Возможно, это первое документально зарегистрированное экспериментальное наблюдение хаоса.
Работа Ван-дер-Поля и Ван-дер-Марка повлияла на работу Картрайт и Литтлвуда (1945). В этой работе, посвященной математическому исследованию уравнения автогенератора под периодическим внешним воздействием, была обнаружена необычайная сложность динамики, в частности, наличие у системы (при достаточно большой амплитуде внешней силы) бесконечного числа неустойчивых периодических орбит. Эта работа впоследствии оказала влияние на математиков, создававших основы математической теории сложной динамики и хаоса.
В России в 20-е годы в Московском университете сформировалась сильная научная школа Л.И.Мандельштама (1879-1944). Интересы этой школы охватывали, в частности, радиофизику, оптику, колебательные процессы в системах различной природы. Мандельштам первым пришел к пониманию возможности такой дисциплины, как теория нелинейных колебаний, — до этого полагали, что нелинейные явления должны изучаться для каждой конкретной системы отдельно. В конце 20-х годов ученик Мандельштама А.А. Андронов (1901-1952) установил, что адекватным математическим образом периодических автоколебаний являются предельные циклы, введенные Пуанкаре в его качественной теории дифференциальных уравнений. Мандельштам сразу понял важность этого достижения и настоял на немедленной публикации результата. Андронов привлек также для анализа автоколебательных систем созданный А.М.Ляпуновым аппарат теории устойчивости. Одно из важных достижений — исследование момента возникновения автоколебаний при изменении параметров, ситуации, которую теперь называют бифуркацией Андронова-Хопфа. С 1931 г. Андронов работает в Нижнем Новгороде (Горьком), где вокруг него формируется крупная научная школа в области теории колебаний. В 1937 г. выходит классическая книга А. А. Андронова, А.А.Витта и С.Э.Хайкина «Теория колебаний». Один из соавторов книги – Витт оказался жертвой репрессий и погиб в лагерях, в издании книги 1937 г. его имя было исключено и восстановлено только в последующих изданиях.
Одним из важных достижений развивающейся теории нелинейных колебаний стало формирование Андроновым и Понтрягиным представления о грубых или структурно-устойчивых системах. Представим себе пространство, точки которого изображают динамические системы. Система грубая, если около соответствующей ей точки пространства систем можно указать такую окрестность, что в ней будут располагаться только системы с топологически эквивалентным устройством фазового пространства. В пространстве параметров грубые системы занимают целые области. Эти области разграничены поверхностями, где располагаются негрубые системы коразмерности один. На этих поверхностях могут располагаться линии коразмерности два и т. д.
Исследовательская программа нелинейной теории колебаний по Андронову и Понтрягину и состоит в выделении и изучении грубых ситуаций, а затем негрубых в порядке возрастающей коразмерности. Что касается негрубых ситуаций, то они составляют предмет теории бифуркаций — глубокой и хорошо развитой математической дисциплины, одного из краеугольных камней нелинейной динамики.
С 1970 г. с интервалом в 2 года в Горьком организуются школы-семинары по нелинейным колебаниям и волнам, в которых участвуют ведущие советские ученые. Этих школ состоялось 9, и они во многом определили распространение в нашей стране идей нелинейной динамики и динамического хаоса. Еще одна школа, восстанавливающая прерванную традицию, уже международная, состоялась в 1995 г. В формировании, распространении и популяризации в России представлений о хаотической динамике большую роль сыграли А. В. Гапонов-Грехов, Ю.И.Неймарк, М.И.Рабинович, Л. П. Шильников. В 1979 г. Кияшко, Пиковский и Рабинович предложили, по-видимому, первый простой радиотехнический автогенератор, в котором целенаправленно был реализован режим хаотических автоколебаний.
Четвертая линия развития связана с гидродинамикой и проблемой турбулентности. В 1883 г. была опубликована работа английского физика Осборна Рейнольдса (1842-1912) «Экспериментальное исследование обстоятельств, которые определяют, будет ли движение воды прямолинейным или волнистым, и о законе сопротивления в параллельных каналах». В зависимости от безразмерного параметра, известного теперь как число Рейнольдса), движение воды в трубке было ламинарным или турбулентным. Хотя основные уравнения, описывающие динамику вязкой жидкости — уравнения Навье-Стокса, уже были известны, причины возникновения турбулентности оставались загадкой. С тех пор вопрос о природе турбулентности стоял перед наукой, приобретая со временем все большую остроту. Около 1920 г. английский физик Л.Ричардсон развил качественные представления о том, что в турбулентном течении имеется перенос энергии от крупных ко все более и более мелким завихрениям, пока энергия не диссипирует из-за вязкости в малых масштабах. В 1941 г. была предложена теория турбулентности Колмогорова-Обухова. Анализ основывался на предположении, что при больших числах Рейнольдса турбулентное состояние можно считать локально однородным и изотропным в статистическом смысле, и о том, что имеет место каскадная передача энергии от крупных пространственных масштабов к мелким в так называемом «инерционном интервале» — области масштабов, где вязкость несущественна. Замечательно простая и глубокая теория приводила ко вполне определенному теоретическому предсказанию — распределение энергии по спектру должно быть пропорционально /г~5'3, где к – волновое число («закон пяти третей»). К настоящему времени получены экспериментальные данные, хорошо согласующиеся с этим законом, но осознана также необходимость внесения уточнений в теорию.
Другое направление в попытках понять природу турбулентности состояло в поисках ответа на вопрос — как возникает турбулентность, если постепенно увеличивать число Рейнольдса, начав от малых значений, когда течение заведомо ламинарное. В 1944 г. была опубликована статья советского физика Л.Д.Ландау (1908— 1968) «К проблеме турбулентности». В этой замечательной для своего времени статье Ландау предположил, что турбулентность возникает в результате большого числа (каскада) последовательных бифуркаций, каждая из которых состоит в появлении колебаний с новой частотой. Вновь возникающие частоты в типичном случае находятся в иррациональном соотношении с ранее возникшими частотами. Аналогичные представления развивал несколько позже немецкий математик Э.Хопф (1902-1983; работа «Математический пример, демонстрирующий особенности турбулентности» опубликована в 1948). Поэтому данную картину возникновения турбулентности называют сценарием Ландау-Хопфа. Подчеркнем, что этим работам предшествовало формирование представлений об автоколебаниях, предельных циклах и бифуркациях в радиофизике и теории колебаний.
В 1963 г. американский метеоролог Э.Лоренц опубликовал статью «Детерминированное непериодическое течение», в которой обсуждались результаты численного интегрирования с помощью компьютера системы трех обыкновенных дифференциальных уравнений, моделирующей динамику жидкости при конвекции в подогреваемом снизу слое. Будучи хорошо образованным математически, Лоренц подверг полученные результаты тщательному и глубокому обсуждению, акцентировав внимание на взаимосвязи между наблюдаемой сложной динамикой и присущей системе неустойчивостью фазовых траекторий. Позднее это свойство хаотической динамики пропагандировалось им под названием «эффект бабочки»: в приложении к метеорологии взмах крыльев бабочки может через достаточное время повлечь существенное изменение погоды где-то совсем в другом месте. Примерно в то же самое время А. Н. Ораевский с соавторами также получили непериодические решения для аналогичных уравнений в теории одномодового лазера. Как работа Лоренца, опубликованная в метеорологическом журнале, так и работа Ораевского не были своевременно замечены и оценены.
В 1971 г., основываясь на достигнутом к этому времени продвижении в математических исследованиях, Д.Рюэль и Ф. Такенсвыступили с работой «О природе турбулентности». Подвергнув критике теорию Ландау, они аргументировали, что уже после включения в игру относительно небольшого числа частот (трех или четырех в зависимости от некоторых математических деталей) динамика может стать турбулентной и, в частности, демонстрировать характерный для случайного процесса сплошной спектр. Это связывалось с появлением в фазовом пространстве «странного аттрактора» — ключевой термин, введение которого определило историческое значение работы Рюэля и Такенса. Подчеркивалось наличие неустойчивости фазовых траекторий на странном аттракторе и его нетривиальная геометрическая структура — он представлял собой то, что стали называть фрактальным множеством или просто фракталом.
С точки зрения интерпретации результатов, работа Рюэля и Такенса также оказалась уязвимой для критики. Многие вопросы, которые возникают в связи с предложенной ими картиной перехода к турбулентности, до сих пор остаются открытыми. Надо сказать, что аргументация и в работе Ландау, и в работе Рюэля и Такенса носила столь общий характер, что имела равное отношение как к возникновению турбулентности, так и к возникновению сложной динамики в диссипативных системах другой физической природы. Дальнейшее понимание возможных типов перехода произошло благодаря еще одной линии развития.
Попытки математического описания биологических проблем динамики популяций восходят к Томасу Мальтусу (1766-1834), автору нашумевшей концепции о том, что численность людей возрастает в геометрической прогрессии, а средства поддержания жизни лишь в арифметической. Поэтому численность населения должна регулироваться войнами, эпидемиями и пр. Марксисты, как известно, заклеймили эту теорию как человеконенавистническую. Не входя в полемику, заметим, что в отсутствие факторов, сдерживающих рост населения, изменение численности популяции из года в год «по Мальтусу» можно описать как х>п>+\ = Rx>n>, где R — параметр, определяющий условия жизни популяции. Ввести сдерживающий фактор можно, если добавить в уравнение нелинейный, например, квадратичный член: ж>п+1> = R(x>n> — x2>n>). Полученное соотношение называют логистическим отображением и оно действительно неплохо описывает, по крайней мере, с качественной стороны, динамику некоторых биологических популяций.
Интересный результат, проливающий свет на возможность сложной динамики в логистическом отображении, был получен в конце 40-х годов в работе американских математиков Станислава Улама (1909-1984) и Джона фон Неймана. Они показали, что для случая R = 4 это отображение путем замены переменных сводится к форме, допускающей тривиальный анализ, причем оказывается, что выбором начальной точки х можно реализовать любую наперед заданную последовательность знаков величины х — х>тах>.
В 1975 г. американские математики Ли и Йорке опубликовали работу «Период три означает хаос». Речь шла о том, что если при частном значении параметра логистическое или другое одномерное отображение вида х>п>+\ = f(x>n>) имеет цикл периода три, то оно имеет бесконечное множество циклов всех прочих периодов. Эта работа привлекла большое внимание, и стоит отметить, что именно в ней в контексте нелинейной динамики впервые появился термин «хаос», ставший впоследствии общепринятым обозначением всей области деятельности, о которой мы ведем речь. Только через несколько лет на Западе стало широко известно, что еще в 1964 г. советский математик А. Н. Шарковский опубликовал гораздо более содержательную теорему, устанавливающую самые общие закономерности сосуществования циклов различного периода в одномерных непрерывных отображениях.
К середине 70-х годов было уже хорошо известно, что при увеличении параметра в логистическом отображении имеет место последовательность бифуркаций удвоения периода. Соответствующие компьютерные результаты очень наглядно были представлены, например, в работе Роберта Мэя (1976). В это время, занимаясь исследованием удвоений периода с помощью карманного калькулятора, американский физик Митчел Фейгенбаум, работавший в Лос-Аламосской национальной лаборатории, обнаружил, что точки бифуркаций удвоения периода накапливались к определенному пределу – порогу возникновения хаоса по закону геометрической прогрессии с показателем 4,669... Этот показатель оказался универсальным, т. е. возникал и в других отображениях, и, как затем выяснилось, в нелинейных диссипативных системах самого разного вида.
Используя аппарат, аналогичный развитому ранее в теории фазовых переходов, – метод ренормализационной группы, Фейгенбаум построил замечательную теорию, объясняющую универсальность удвоений периода (1978-1979). Теория эта выглядела слишком формально, с точки зрения физиков, и слишком нестрого, с точки зрения математиков, так что Фейгенбауму далеко не сразу удалось опубликовать статью с изложением своих результатов. Эта задержка отчасти компенсировалась тем, что Фейгенбаум активно рассказывал о своей работе на конференциях и семинарах.
В дальнейшем переход к хаосу через удвоения периода, демонстрирующий обнаруженные свойства универсальности, наблюдался в огромном количестве нелинейных систем различной физической природы и в их моделях. Одна из первых очень аккуратных работ – эксперимент по конвекции в жидком гелии (1979). Работа Фейгенбаума стимулировала также изучение и ренормгрупповое описание [10].
§ 2. Развитие
методов реконструкции
математических
моделей динамических систем
Математические модели являются одним из основных инструментов познания человеком явлений окружающего мира. Под математическими моделями понимают основные закономерности и связи, присущие изучаемому явлению. Это могут быть формулы или уравнения, наборы правил или соглашений, выраженные в математической форме. Испокон веков в математике, механике, физике и других точных науках естествознания для описания изучаемых ими явлений использовались математические модели. Так, законы Ньютона полностью определяют закономерности движения планет вокруг Солнца. Используя основные законы механики, относительно нетрудно составить уравнения, описывающие движение космического аппарата, например, от Земли к Луне. Однако получить их решение в виде простых формул не представляется возможным. Для расчета траекторий космических аппаратов служат компьютеры.
Создание моделей по экспериментальным временным рядам в математической статистике и теории автоматического управления получило название идентификации систем а в нелинейной динамике – реконструкции динамических систем.
Предшественницами современных задач реконструкции были задачи аппроксимации и статистического исследования зависимостей между наблюдаемыми величинами, которые рассматривались уже в середине XVIII века в работах И. Ламберта.
Первоначально наблюдаемые процессы моделировались с помощью явных функций времени η = f (t), аппроксимирующих множество экспериментальных точек на плоскости (t, η). Целью моделирования были прогноз будущего развития процесса или сглаживание наблюдаемых зашумленных данных. В начале XX века серьезный шаг в развитии методов эмпирического моделирования сложных процессов был сделан в математической статистике, когда было предложено использовать линейные стохастические модели. Этот подход был основным в течение полувека (20-70-е гг. ХХ в.) и нашел многочисленные приложения, особенно для автоматического управления. Формирование концепции динамического хаоса и развитие вычислительной техники привели к тому, что в последние годы эмпирическое моделирование проводится уже на основе нелинейных разностных и дифференциальных уравнений, в том числе многомерных. Рассматриваемые проблемы актуальны как в фундаментальном, так и в прикладном плане. Эмпирические модели востребованы в различных областях науки и практики в физике, метеорологии, сейсмологии, экономике, медицине, физиологии и других науках.
Применение компьютеров для математического моделирования изменило само понятие "решить задачу". До этого исследователь удовлетворялся написанием математической модели. А если ему еще удавалось доказать, что решение (алгоритм) в принципе существует, то этого было достаточно, если априори полагать, что модель адекватно описывает изучаемое явление. Поскольку, как правило, нет простых формул, описывающих поведение модели, а стало быть и объекта, который описывается моделью, то единственный путь - свести дело к вычислениям, применению численных методов решения задач. В таком случае необходим конкретный алгоритм, указывающий последовательность вычислительных и логических операций, которые должны быть произведены для получения численного решения. С алгоритмами связана вся история математики. Само слово "алгоритм" является производным от имени средневекового узбекского ученого Аль-Хорезми. Еще древнегреческим ученым был известен алгоритм нахождения числа "пи" с высокой точностью. Ньютон предложил эффективный численный метод решения алгебраических уравнений, а Эйлер - численный метод решения обыкновенных дифференциальных уравнений. Как известно, модифицированные методы Ньютона и Эйлера до сих пор занимают почетное место в арсенале вычислительной математики. Ее предметом являются выбор расчетной области и расчетных точек, в которых вычисляются характеристики моделируемого объекта, правильная замена исходной математической модели ее аналогом, пригодным для расчета, т. е. некоторой дискретной моделью. Поскольку модели должны представлять изучаемые явления в необходимой полноте, понятно, что они становятся весьма сложными.
В модели входят множество величин, подлежащих определению, а сами эти величины зависят от большого числа переменных и постоянных параметров.
Наконец, модели реальных процессов оказываются нелинейными. Аппарат классической математической физики приспособлен для работы с линейными моделями. В этом случае сумма (суперпозиция) частных решений уравнения есть также его решение. Найдя частное решение уравнения для линейной модели, с помощью принципа суперпозиции можно получить решение в общем случае. На этом пути в традиционной математической физике были получены замечательные результаты. Однако она становится бессильной, если встречается с нелинейными моделями. Принцип суперпозиции здесь неприменим, и алгоритмов для построения общего решения не существует. Поэтому для нелинейных моделей законченных теоретических результатов получено немного.
Методология математического
моделирования в кратком виде выражена
знаменитой триадой "модель - алгоритм
- программа", сформулированной
академиком А. А. Самарским, основоположником
отечественного математического
моделирования. Эта методология получила
свое развитие в виде технологии
"вычислительного эксперимента",
разработанной школой А. А. Самарского,
– одной из информационных технологий,
предназначенной для изучения явлений
окружающего мира, когда натурный
эксперимент оказывается слишком дорогим
и сложным.
Во многих важных областях
исследований натурный эксперимент
невозможен, потому что он либо запрещен
(например, при изучении здоровья
человека), либо слишком опасен (например,
при изучении экологических явлений),
либо просто неосуществим (например,
при изучении астрофизических явлений).
Вычислительный эксперимент в отличие от натурных экспериментальных установок позволяет накапливать результаты, полученные при исследовании какого-либо круга задач, а затем быстро и гибко применять их к решению задач в совершенно других областях. Этим свойством обладают используемые универсальные математические модели. Например, уравнение нелинейной теплопроводности пригодно для описания не только тепловых процессов, но и диффузии вещества, движения грунтовых вод, фильтрации газа в пористых средах. Изменяется только физический смысл величин, входящих в это уравнение. Проведение вычислительного эксперимента можно условно разделить на два этапа. После первого этапа вычислительного эксперимента, если надо, модель уточняется как в направлении ее усложнения (учет дополнительных эффектов и связей в изучаемом явлении), так и упрощения (выяснение, какими закономерностями и связями в изучаемом явлении можно пренебречь). На последующих этапах цикл вычислительного эксперимента повторяется до тех пор, пока исследователь не убеждается, что модель адекватна тому объекту, для которого она составлена.
Информационные технологии, поддерживающие вычислительный эксперимент, включают в себя методы построения математических моделей силами конечных пользователей информационных систем (специалистов в своей предметной области, а не профессиональных математиков и программистов), информационную поддержку их деятельности для поиска и выбора алгоритмов и программ численного решения задач, методы и средства контроля точности производимых вычислений и правильности работы применяемых программ. При проведении вычислительного эксперимента исследователь может с помощью пользовательского интерфейса "играть" на модели, ставя интересующие его вопросы и получая ответы. Таким образом, исследователь получает мощный инструмент для анализа и прогноза поведения сложных нелинейных многопараметрических объектов и явлений, изучение которых традиционными методами затруднено или вообще невозможно. Пора "младенчества" технологии вычислительного эксперимента приходится на 50-е годы XX века. Дата появления первых серьезных результатов вычислительного эксперимента в СССР зафиксирована вполне официально – 1968 год, когда Госкомитет СССР по делам открытий и изобретений засвидетельствовал открытие явления, которого на самом деле никто не наблюдал. Это было открытие, так называемого, эффекта Т-слоя (температурного токового слоя в плазме, которая образуется в МГД-генераторах). Свидетельство на это открытие было выдано академикам А. Н. Тихонову и А. А. Самарскому, члену-корреспонденту АН СССР С. П. Курдюмову, докторам физико-математических наук П. П. Волосевичу, Л. М. Дегтяреву, Л. А. Заклязьминскому, Ю. П. Попову (ныне директору ИПМ им. М. В. Келдыша РАН), В. С. Соколову и А. П. Фаворскому. В данном случае вычислительный эксперимент предшествовал натурному. Натурные эксперименты "заказывались" по результатам математического моделирования. Через несколько лет в трех физических лабораториях на разных экспериментальных установках практически одновременно был надежно зарегистрирован Т-слой, после чего технологам и инженерам стал окончательно ясен принцип работы МГД-генератора с Т-слоем. Плазма с ее нелинейными свойствами стала одним из важнейших объектов математического моделирования и вычислительного эксперимента. Заманчивая перспектива решения энергетической проблемы связана с управляемым термоядерным синтезом изотопов водорода, дейтерия и трития. Энергетическая проблема для человечества заключается в том, что нефти и газа при нынешнем темпе их потребления хватит всего на несколько десятков лет. А сжигать столь ценное химическое сырье в топках электростанций и двигателях внутреннего сгорания - это, по образному выражению Д. И. Менделеева, "почти все равно, что топить печь ассигнациями". С запасами угля дело обстоит гораздо лучше, но его добыча с каждым годом становится все труднее. Выходом может быть лазерный термоядерный управляемый синтез, исследование которого осуществляется с помощью вычислительного эксперимента. В 1974 г. коллектив сотрудников ФИАН и ИПМ АН СССР под руководством академиков Н. Г. Басова, А. Н. Тихонова и А. А. Самарского предложил принципиально новую концепцию лазерного термоядерного синтеза на основе результатов вычислительного эксперимента. Еще одна область использования вычислительного эксперимента - это "вычислительная технология" - применение математического моделирования с помощью компьютеров не только для решения фундаментальных научных проблем, но и для разработки технологических процессов в промышленности. Для тех случаев, когда технологические процессы описываются хорошо известными математическими моделями, для расчета которых предложены эффективные вычислительные алгоритмы, разработаны пакеты прикладных программ, технология вычислительного эксперимента позволяет создавать новые программы и совершенствовать средства общения человека с компьютером. У технологов есть потребность в изучении новых промышленных технологий, например лазерно-плазменной обработки материалов (плазменной термохимии).
Основатель нобелевских премий Альфред Нобель, как известно, исключил математику из числа наук, за достижения в которых присуждается эта высшая научная награда. Вместе с тем, современное математическое моделирование охватывает области исследований, до недавнего времени недоступные математике. В последние годы ряд Нобелевских премий по химии, медицине, экономике, физике элементарных частиц были присуждены работам, методологическую основу которых составляло математическое моделирование. Например, для дальнейшего исследования нелинейных процессов в микромире были разработаны соответствующие численные методы с применением компьютеров и компьютерных сетей (сетевых grid-технологий), ориентированные на решение задач физики элементарных частиц. Алгоритмы квантово-механических расчетов прогрессируют не менее быстрыми темпами, чем в других областях вычислительной математики.
Биология во многом остается экспериментальной и описательной дисциплиной, а история математического моделирования биологических процессов вряд ли насчитывает более 20 лет. И все-таки уже можно назвать биологические задачи, для которых вычислительный эксперимент становится определяющей методологией. Математическое моделирование и вычислительный эксперимент – ведущие методологии изучения глобальных моделей процессов и явлений на Земле, например климата Земли. Проведение работ по глобальному моделированию стимулировалось деятельностью Римского клуба, неправительственной организации. Первую из таких моделей опубликовал в 1971 г. американский специалист по теории управления Д. Форрестер. Компьютерные игры, проведенные Д. Форрестером с глобальной моделью, показали, что в середине ХХI века человечество ждет кризис, связанный прежде всего с истощением природных ресурсов, падением численности населения и производства продуктов, ростом загрязнения окружающей среды. Известны результаты глобального моделирования явления "ядерной зимы", выполненные в ВЦ АН СССР В. В. Александровым и Г. Л. Стенчиковым под руководством академика Н. Н. Моисеева. Эти результаты дали человечеству, в том числе политикам, неопровержимые аргументы против ядерной войны, даже так называемой "ограниченной ядерной войны".
Для математического моделирования
и вычислительного эксперимента
использовались, главным образом,
универсальные цифровые вычислительные
машины, доступные коллективам
исследователей. В СССР в 70-80-х годах
прошлого века это были БЭСМ-6 и модели
ЕС ЭВМ, для которых разрабатывались
библиотеки и пакеты прикладных программ
вычислительной математики. С появлением
персональных компьютеров стало возможно
развитие информационной технологии
вычислительного эксперимента, которая
предусматривает поддержку пользовательского
интерфейса и поиска нужных алгоритмов
и программ с помощью персональных
компьютеров (отечественного производства
или импортных), а проведение расчетов
на математических моделях - с помощью
высокопроизводительных компьютеров
БЭСМ-6, ЕС ЭВМ или суперкомпьютеров
"Эльбрус".
Потребности
вычислительного эксперимента при
изучении явлений в наиболее сложных
областях науки, таких, как проблемы
физики элементарных частиц, молекулярной
биологии (например, геном человека),
геофизики (в частности, физики атмосферы)
и др., оказались связанными с необходимостью
обеспечить предельно возможные
вычислительные мощности. Выход был
найден в коллективном использовании
вычислительных мощностей, доступных
исследователям через компьютерные
сети. В развитии так называемых
grid-технологий, разрабатываемых мировым
сообществом в настоящее время, участвуют
и ведущие научные институты России:
Объединенный институт ядерных
исследований (г. Дубна), Научно-исследовательский
институт ядерной физики МГУ, Институт
физики высоких энергий РАН (г. Протвино),
Институт биофизики РАН (г. Пущино),
Институт прикладной математики им. М.
В. Келдыша РАН и др. Идея организации
распределенных вычислений в гетерогенной
сетевой среде, называемая метакомпьютингом,
образно выражается метафорой "grid
(сеть)". Подобно тому, как мы подключаем
к электросети бытовые приборы, не
задумываясь об устройстве этой
электросети, сетевые grid-технологии
призваны предоставить исследователям
требуемые вычислительные мощности как
разделяемые ресурсы. В Европе такой
сетью должна стать Data Grid, к которой
будет подключен и российский сегмент.
Заключение
Математическое моделирование – один из основных методов научного исследования. Это направление исследований, начавшись с задач аппроксимации экспериментальных зависимостей гладкими функциями, переживало взлеты и падения интереса со стороны научной общественности. Так, взлет 1980-х – начала 1990-х был связан с надеждами на концепцию динамического хаоса, с доказательством известных теорем Такенса, с появлением мощной вычислительной техники. Казалось, что вот-вот – и конструирование моделей по рядам данных будет поставлено «на поток».
Но затем последовало разочарование, вызванное частыми практическими неудачами разрабатывавшихся универсальных подходов. Задачи математического моделирования сложных процессов в общем случае не могут быть решены с помощью готовой технической процедуры.
Они остаются, и, по всей видимости, всегда останутся в значительной степени искусством. Здесь вряд ли возможны универсальные методики, пригодные на все случаи жизни. Но для определенных классов объектов удается разработать рецепты решения таких задач, и это представляется перспективным направлением исследований.
Не все специалисты разделяют такое оптимистическое отношение к проблеме. Но, какие бы ни были перспективы, уже то, что достигнуто в этой области, достойно изучения и применения в практике.
Список литературы
Анищенко В.С. Динамические системы // Соросовский образовательный журнал. 1997. № 11. С. 77-84.
Анищенко В.С. Знакомство с нелинейной динамикой: Лекции соросовского профессора: Учеб. пособие. – Москва-Ижевск: Институт компьютерных исследований, 2002.
Афанасьева В.В. К философскому обоснованию феномена детерминированного хаоса. – М.: Наука, 2001.
Безручко Б.П., Смирнов Д.А. Математическое моделирование и хаотические временные ряды. Саратов: ГосУНЦ «Колледж», 2005.
Вячеслав С.С., Горохов В.Г., Розов М.А. Философия науки и техники. Электронный учебник.
Динамические системы (Современные проблемы математики, фундаментальные направления). – Т. 1, 2. – М.: ВИНИТИ, 1985.
Заславский А. Собственные миры динамических систем. – М.: Наука, 1986.
Кириленко Г.Г., Шевцов Е.В. Философия. Высшее образование / Кириленко Г.Г., Шевцов Е.В. - М.: Филол. о-во СЛОВО: ООО Изд-во ЭКСМО, 2003.
Кохановский В.П., Золотухина Е.В., Лешкевич Т.Г., Фатхи Т.Б. Философия для аспирантов: Учебное пособие. Изд. 2-е - Ростов н/Д: "Феникс", 2003.
Кузнецов С.П. Динамический хаос (курс лекций). М.: Издательство Физико-математической литературы, 2001.
Малинецкий Г.Г. Хаос. Структуры. Вычислительный эксперимент (введение в нелинейную динамику). – М.: Эдиторил УРСС, 2000.
Месарович М., Такахара Я.. Общая теория систем. Математические основы. – М.: Мир, 1978.
Павлов А.Н., Янсон Н.Б. Анищенко В.С. Реконструкция динамических систем // Радиотехника и электроника. 1999. Т. 44, № 9. С. 1075-1092.
Самарский А. А., Михайлов А. П. Компьютеры и жизнь. – М.: Педагогика, 1987.
Трубецков Д. И. и др. Введение в теорию самоорганизации открытых систем М.: Физматлит, 2000.