Стратегии и тактики экстремального параллелизма

В 2008 году просвещённое человечество вступило в новую эру — эпоху петафлопных вычислений. Именно тогда в США был запущен первый в мире суперкомпьютер петафлопной (от английского flops — абревиатура от flow point per second) производительности, что означает 1015 арифметических операций с плавающей запятой (при стандартном 32-битовом представлении вещественного числа) в секунду. Для сравнения — это примерно соответствует суммарному быстродействию одного миллиона обычного однопроцессорного персонального компьютера со скоростью около одного гигафлопа (109 флопс).

Надо сказать, что появление «петафлопника» было предсказано с высокой точностью ещё 20 лет назад, и тогда это казалось чем-то фантастическим, поскольку составляло суммарную мощность всего компьютерного парка США.

В соответствии с законом Мура (одного из основателей компании Intel), который достаточно строго выполняется около 50 лет, между появлением первого в мире «гигафлопника» и «терафлопника» (1000 гигафлоп) прошло 11 лет, между появлением «терафлопника» и «петафлопника» — тоже 11 лет. Так вот — в 2019 году грядёт пришествие экзафлопного компьютера с быстродействием 1018 флопс. И это уже совсем новый качественный уровень, который напрашивается назвать компьютерной сингулярностью в истории человечества.

На пороге новой эры

Согласно текущим технологическим тенденциям, «экзафлопник» — это многопроцессорная компьютерная система (МКС) с сотнями миллионов вычислительных узлов и миллиардами ядер (арифметические устройства без большой собственной памяти), с рабочими площадями в несколько футбольных полей и с энергопотреблением в десятки мегаватт.

Важно отметить, что в последние два-три года темпы развития компьютеризации отнюдь не снижаются. Список Топ-500 мощнейших суперкомпьютеров мира на сентябрь 2011 г. уже насчитывает 10 петафлопников, причем на первые два места вышли японский и китайский МКС с быстродействием более 8 и 3 петафлопс соответственно. Отрадно отметить, что в клуб суперкомпьютерных держав уже вошла и Россия: отечественный петафлопник работает в Российском федеральном ядерном центре (ВНИИЭФ, г. Саров). Согласно интернетовскому порталу NEWSLAND, имеются планы запуска российского экзафлопника в 2020 году.

Признанный лидер мирового вычислительно сообщества Джек Донгарра (Окриджская лаборатория, США) в 2008 г. организовал международную программу IESP (International Exascale Software Project, www.exascale.org), возглавляемую комитетом, в который вошли более 50 ведущих специалистов из разных стран. Под эгидой IESP проводятся регулярные рабочие совещания, на которых выработан и непрерывно развивается объёмный коллективный документ — Roadmap (дорожная карта), что-то вроде Библии, излагающий насущные компьютерные проблемы и пути их решения. Суть излагаемых скрижалей сводится к следующему.

Масштабы грядущего параллелизма МКС означают переход количества в качество и требуют кардинальной смены парадигм и вычислительно-информационных технологий.

Хотя сейчас алгоритмы реализуются на десятках, сотнях и тысячах процессоров, существующее программное обеспечение своими корнями остается однопроцессорным и использующим искусственные приёмы распараллеливания вычислений.

Именно сейчас мировое сообщество столкнулось с глобальной проблемой смены всего программного оснащения компьютеров: операционных систем, компиляторов, инструментариев и приложений. Эта задача по своей грандиозности не под силу одному государству и срочно требует всеобщей координации и интеграции работ.

На основе данных положений формулируются концепции будущего «софта» (общепринятый русскоязычный жаргон от короткого английского software), главная из которых состоит в том, что все программы общего назначения должны быть открытыми и доступными (Open Source). Это не исключает возможность существования «закрытых» продуктов и права на интеллектуальную собственность, но главным теперь становится продажа не программного кода, а услуг по его использованию (термин SaS — Software as Service).

Новые условия меняют и принципы использования суперкомпьютерных мощностей. Экзафлопник должен стать базой Центра обработки данных (ЦОД), или Data Center, являющимся надежным хранилищем огромных объёмов информации, в том числе всех необходимых системных и прикладных программ, и обеспечивающим в удаленном доступе необходимые пользовательские расчёты с предоставлением всех заказываемых ресурсов МКС. Такой режим эксплуатации получил название «облачные вычисления» (Cloud Computing) и направлен фактически на замену традиционных собственных вычислительных центров в небольших или средних организациях.

Следует сказать, что эти технологии в большей степени обсуждаются методически, а на практике могут сильно эволюционировать и привести к чему-то совсем новому как по форме, так и по содержанию. Организация работ вычислительных центров коллективного пользования является насущной многие десятилетия, а проходящие сейчас научно-технические дискуссии по этим вопросам подтверждают известный тезис «новое — это хорошо забытое старое».

Хотя стоимость вычислительных работ в абсолютном выражении стремительно дешевеет, сама разработка и эксплуатация суперкомпьютеров — достаточно дорогая производственная сфера. Чтобы по крайней мере окупить такие суперрасходы, пета- и экзафлопные МКС должны быть загружены расчётами актуальных приложений прорывного характера, так что концепция каждого типового ЦОДа — это мегапроект национального уровня.

Стремительный прогресс наукоемких технологий действительно выдвигает новые суперзадачи, которые могут быть решены только на суперкомпьютерах: био- и нанотехнологии, прогноз погоды, климата и экологических процессов, физика высоких энергий, финансовые задачи и т.д. Математическое моделирование становится третьим путём познания, играя роль связующего звена между теоретическими и экспериментальными исследованиями. И современные вычислительно-информационные технологии дают такие немыслимые возможности по проникновению в тайны природы, по оптимизации промышленных производств, что даже ставят новые философско-методологические проблемы о когнитивном потенциале человеческого общества.

Однако «дьявол таится в деталях», и надо пройти ещё длинный путь, чтобы построить виртуальные суперкомпьютерные миры, которые могли бы стать главным и повседневным орудием инженера, учёного, топ-менеджера, врача, госчиновника и любого профессионала в своей созидательной деятельности.

Если «нулевые» годы XXI века можно ассоциировать с победным шествием никем не прогнозируемых заранее Интернета и мобильной связи, в корне изменивших информационную сферу общества, то следующее десятилетие нас ожидает вторжение вычислительного моделирования в масштабах, последствия которых также непредсказуемы.

Результаты этих инноваций, конечно, будут зависеть в первую очередь от действий лидеров и ведущих экспертов компьютерного сообщества. Стоящие перед ними проблемы можно разбить на три основные части: brainware (в терминологии академика А. А. Дородницына, много лет возглавлявшего Вычислительный центр РАН) — это алгоритмы и совокупный математический интеллект, hardware (архитектура «железного» оборудования МКС, фантастический рост которых и служит главной движущейся силой) и software — программное обеспечение, являющееся общепризнанным «слабым звеном» в данной триаде по росту производительности труда.

Возникшие «экзапроблемы» математического моделирования можно коротко сформулировать следующим образом: как решать сверхзадачи на супер-МКС пост-петафлопной производительности? Здесь надо пройтись по всей классической технологической цепочке — модели, алгоритмы, программы, расчёты, анализ, — и в первую очередь с точки зрения полномасштабного распараллеливания, которое как раз и составляет вызов нового поколения.

Задачи, модели, алгоритмы

Вычислительная математика после появления ЭВМ была обречена на бурное развитие, ознаменовавшееся созданием универсальных подходов к решению всех основных уравнений матфизики, что сейчас более полно называется задачами математического моделирования.

Несмотря на неисчерпаемое многообразие окружающего нас мира, все явления и процессы описываются достаточно ограниченным набором математических моделей. Можно перечислить системы дифференциальных уравнений: Максвелла — для электромагнетизма, Ламе — для упруго-пластичности, Навье—Стокса — для гидро-газодинамики, Шредингера — для квантовой физики, уравнения химической кинетики и др., — пальцев двух рук вполне хватит. Конечно, задачи могут формулироваться и посредством интегральных уравнений, и с помощью обобщенных вариационных постановок. Однако элементарных дифференциальных операторов, к счастью, совсем немного: градиент, ротор, дивергенция, внутренние и внешние произведения, — а на основе их комбинирования можно представить всевозможные природные, технические, социальные, финансовые и даже общественные явления и процессы.

Каждая из таких задач может иметь свои сложности, обусловленные или пространственной сингулярностью в окрестности особых точек, или нелинейными динамическими эффектами типа предельных циклов, бифуркаций и странных аттракторов. Без понимания этих важных специальных свойств — а это прерогатива теоретиков — невозможно построить высокоточный численный метод, надежно рассчитывающий практические ситуации с такой сложной спецификой.

Наращивание компьютерных мощностей в последние два-три десятилетия позволило серьёзно подступиться к решению междисциплинарных задач, которые связаны с моделированием взаимосвязанных процессов различной природы и описываются большими системами дифференциальных и/или интегральных уравнений со многими неизвестными функциями. Хорошей иллюстрацией может служить проблема комплексного моделирования технологических процессов в электрометаллургии.

Например, алюминиевый электролизёр представляет собой сложнейшее техническое устройство с сотнями разномасштабных деталей из различных материалов, в котором надо рассчитывать огромные токи и электромагнитные поля, процессы тепломассопереноса с фазовыми переходами, прочность конструкций, циркуляции жидкого металла и электролита, т.е. решать совместно почти весь джентльменский набор уравнений матфизики. Сюда можно добавить и такое обстоятельство, что в одном заводском цехе находится около сотни электролизёров, которые последовательно соединены электрическими шинами, а также взаимодействуют между собой посредством магнитных полей. В общем, модель «виртуальный электролизёр» или «виртуальный цех» вполне подходит под статус суперзадачи для суперкомпьютера.

Однако этим потребная ресурсоёмкость ЭВМ далеко не исчерпывается. Рассмотренные до сих пор формулировки относятся к классу прямых задач, в которых решение вычисляется при полностью заданных граничных и начальных условиях. В жизни наиболее важно решать обратные задачи, включающие формальные параметры, которые надо оптимизировать по условию минимизации некоторого целевого функционала при известных дополнительных линейных и/или нелинейных ограничениях на входные данные. Например, в описанном электролизёре параметры и ограничения могут быть связаны с его геометрическими или физическими характеристиками, а оптимизируемый показатель — «выход металла по току», т.е. вес производимого алюминия на единицу затраченной электроэнергии.

Решение обратной задачи методами оптимизации производится с помощью направленного перебора прямых задач, количество которых в «тяжёлых» случаях может измеряться сотнями и тысячами. Ситуация значительно усложняется при «многоовражной» зависимости функционала от параметров, а особенно — при наличии большого количества локальных минимумов и необходимости поиска глобального минимума. Практический результат решения обратной задачи в данном случае — это оптимизация эксплуатационного режима электролизера, уменьшение количества аварий в цехе и, наконец, увеличение производственной прибыли.

Другой тип обратной задачи — это идентификация неизвестных параметров физико-математической модели на основе сопоставления результатов расчётов и натурных измерений. Актуальный междисциплинарный пример можно привести из геофизики — это комплексная разведка полезных ископаемых с использованием сейсмических исследований и вибропросвечивания Земли, электромагнитных полей от разнообразных источников, магнитотеллурического зондирования и гравиметрических технологий. Результат такого крупномасштабного эксперимента — надёжное прогнозирование залежей полезных ископаемых, в частности углеводородов.

Список таких компьютерных сверхпроектов можно продолжить. В ближайшие годы следует ожидать создание виртуальной модели живой клетки, что представляет собой очень сложную проблему, но обещает сделать новый прорыв в биологии и фундаментальной медицине. Одна из продвинутых отраслей — авиастроение. «Виртуальный самолёт» уже помогает значительно сокращать многолетние аэродинамические продувки моделей, неизбежные прочностные и лётные испытания. И конечно, нельзя не упомянуть о моделировании ядерного оружия, которое наверняка активно развивается в странах «атомного клуба» при строжайшем моратории на любые натурные эксперименты.

Если теперь обратиться к численным методам, то здесь надо отметить, на первый взгляд, неожиданную тенденцию последних десятилетий — активное проникновение инноваций из теоретической математики. Такие, казалось бы, заоблачные абстракции, как теория групп, уравнения на многообразиях, внешние произведения и дифференциальные формы, гамильтоновый формализм, теория хаоса становятся базой для конструирования алгоритмов нового поколения. Отсюда следует необходимость создания качественно нового базового математического и прикладного программного обеспечения, способного к перманентному развитию, легко адаптируемого к новым платформам динамически развивающихся компьютерных систем и ориентированного на длительный жизненный цикл.

Разумеется, эффективность алгоритма в пост-петафлопную эру не котируется без такого качества, как высокопроизводительные вычисления, что однозначно воспринимается как масштабируемый параллелизм. Последний термин можно понимать в том смысле, что время решения задачи на P процессорах в P раз меньше, чем на одном процессоре. Другое возможное определение (не всегда эквивалентное): если общий объём арифметических операций для решения задачи увеличивается в P раз и число арифметических устройств (АУ) МКС тоже увеличивается в P раз, то время расчёта остается неизменным. Строго говоря, эти качественные суждения надо уточнять, но главное уже понятно: если коэффициент использования АУ меньше 10 % (остальные 90 % простаивают), то исправление этой ситуации есть новая математическая задача, причем зачастую далеко не простая.

Классические математические качества численных методов: погрешность аппроксимации, устойчивость, точность, экономичность, — остаются, естественно, в силе. Можно только добавить, что теперь ужесточаются требования к выполнению законов сохранения: энергии, импульса и других инвариантов решения, — т.е. максимальное наследование свойств исходных дифференциальных уравнений. Получил распространение новый термин — алгоритмы высокого разрешения, который фактически означает переход на новый уровень моделирования. Здесь большую роль играет, конечно, и количественный фактор: суперкомпьютерная память, объём которой всегда растёт пропорционально скорости выполнения операций, позволяет на порядки увеличивать число узлов расчётных сеток. А это открывает возможности «ухватывать» в численных экспериментах такие тонкие эффекты, которые и не снились исследователям лет 10–20 назад.

Конвергенция алгоритмических структур и компьютерных архитектур

Главный сложившийся принцип и даже лозунг распараллеливания — это отображение алгоритмов на архитектуру ЭВМ. Действительно, переделать алгоритм или программу — вопрос нескольких человеко-недель, а проектирование и создание нового компьютера занимает человеко-годы. Однако в действительности в истории вычислительных машин распараллеливание работы различных устройств (например, АУ и средства ввода-вывода данных) присутствовало изначально. Если вспомнить последнюю четверть ХХ века, то можно обнаружить поразительное богатство изобретательских компьютерных идей: матричные ЭВМ, специализированные процессоры, транспьютеры, экзотические архитектуры типа «шафл», гиперкуб и т.д.

Однако в начале нового века мировой рынок оказался побеждён коммерчески наиболее выгодными унифицированными МКС кластерного типа, когда однотипные многопроцессорные и/или многоядерные вычислительные узлы (с общей памятью) соединены шинами в единую сеть, физические соединения между которыми осуществляются специальными коммутаторами. Работа всех устройств контролируется одним управляющим узлом, а информационные обмены между всеми узлами осуществляются тривиальной передачей сообщений, реализуемой программной системой MPI (Message Passage Interface). В общем случае используется так называемое гибридное программирование с применением распределённой и общей памяти: на основе MPI — распараллеливание «по узлам», а в каждом из них — организация многопотоковых вычислений над общей памятью.

Правда, последние годы положение стало меняться. Для быстрой визуализации изображений были разработаны графические процессорные элементы (GPU — Graphic Processor Unit) с ограниченным набором операций и большим количеством вычислительных ядер над общим кэшем (cashe — сверхбыстрая оперативная память). По соотношению «производительность/цена» они намного превзошли универсальные центральные процессорные элементы (CPU — Central Processor Unit) и даже стали применяться не только для выполнения графических операций. Сами графические ускорители начали резко эволюционировать, появились новые поколения GPU с быстро развивающимся языком и соответствующей системой программирования CUDA (подмножество языка общего назначения С++), и даже появился новый термин, внутренне противоречивый по своему смыслу: GPU общего назначения, или GP GPU (GP — абревиатура от General Purpose). Теперь одним из генеральных направлений компьютерных архитектур являются гетерогенные МКС, в которых вычислительные узлы, кроме обычных процессоров и/или ядер, содержат GPU.

Однако данный вектор развития — это частный случай концепции программируемых логических интегральных схем (ПЛИС, или FPGA — Field Programmable Gate Array), заключающейся в проектировании и автоматизированном изготовлении кремниевого кристалла с электронной схемой, ориентированной на быструю реализацию конкретного алгоритма. Эта идея создания спецпроцессора «под задачу» витает в воздухе уже много лет(около 30 лет назад существовал термин «кремниевый компилятор»), но только в последнее десятилетие технологические достижения делают эту проблему экономически оправданной.

Поскольку революционные преобразования, в том числе компьютерные, прогнозировать на короткий исторический срок невозможно, можно считать, что пост-петафлопные и первые экзафлопные МКС будут иметь рассмотренную гетерогенно-кластерную структуру. Очевидно также, что межузловые и даже межпроцессорные коммуникации будут слабым звеном, тормозящим общее быстродействие суперкомпьютера.

В этой связи представляется очень естественным рассмотреть возможные взаимоотношения между структурами алгоритмов и компьютерными архитектурами. МКС может быть представлена односвязным ненаправленным графом, вершины которого соответствуют вычислительным узлам, а рёбра — информационным связям. С другой стороны, важно отметить, что главным принципом распараллеливания для многомерных задач является метод декомпозиции областей (МДО): расчётная область разбивается на подобласти, в каждой из которых формулируются подзадачи, взаимосвязанные между собой через вспомогательные краевые условия на смежных границах. Все подзадачи могут решаться одновременно на соответствующих вычислительных узлах, а решение общей задачи ищется последовательными приближениями «по подобластям», путем итерационного пересчёта смежных краевых условий, через которые осуществляются взаимосвязи подзадач (как раз эта процедура и требует коммуникаций между узлами). Очевидно, что расчётная схема МДО описывается также с помощью графа, и для идеального отображения данного алгоритма на архитектуру МКС их графы должны совпадать.

Исходная идея МДО восходит к концу XIX века и называется альтернирующим методом Шварца. Его можно представить математически с помощью матричного оператора, в котором каждый диагональный блок соответствует «своей» подобласти, а ненулевые внедиагональные блоки обозначают взаимосвязи смежных подобластей. Таким образом, граф МДО описывает матричный портрет оператора A.

Представление расчётной области совокупностью взаимосвязанных подобластей можно назвать также макросетью, в отличие от микросети, которая строится при генерации расчётной сетки, используемой в основных современных методах конечных разностей, конечных объёмов и конечных элементов (МКР, МКО, МКЭ) для приближённого решения задач математического моделирования. Важно отметить, что топологически трехмерные макро— и микросеть эквивалентны в обобщённом смысле, т.е. состоят из объектов одинаковых типов: вершины, ребра, грани и объёмы. Системы алгебраических уравнений, которые получаются, например, после аппроксимации дифференциальных задач при использовании сеточных методов, описываются с помощью разреженных матриц, в которых диагональные элементы соответствуют узлам сетки, а внедиагональные элементы отличны от нуля только в позициях, отвечающих за взаимосвязи геометрически соседних узлов.

Таким образом, системы сеточных уравнений и их матричные «портреты» также представляются с помощью графов. А в матричной форме МДО после этапа дискретизации каждый матрично-операторный элемент превращается в матричный блок большой размерности, определяемой числом узлов в соответствующих подобластях. Если общее количество узлов в расчётной области зафиксировано, а число вычислительных узлов МКС и число подобластей растёт, то в каждой из них узлов становится меньше и меньше. В пределе мы можем получить компьютерную сеть с одним процессором на каждый узел.

Отнюдь не факт, что такая МКС будет оптимальной с коммерческой точки зрения. Скорее всего, истина находится в «золотой середине», а приведенные рассуждения призваны показать, что развитие алгоритмических структур и компьютерных архитектур -— это дорога с двухсторонним движением. С точки зрения быстрого решения одной «большой» задачи, перспективным являются следующие направления эволюции архитектур:

— макросети МКС различной размерности (1-D, 2-D и трёхмерные);

— динамическая реконфигурация МКС с возможностью реализации различных сеточных шаблонов;

— быстрые ближние связи с синхронизацией обменов и вычислений.

Всё это — простейшие иллюстрации к очень разнообразным вопросам оптимизации МКС. Можно добавить, что если рассматривается общая производительность ЦОД коллективного пользования, то сама постановка проблемы значительно меняется и требует учета распределения глобальных ресурсов между потоками задач.

Концепция базовой системы моделирования

Традиционные формы программного обеспечения математического моделирования — это библиотеки алгоритмов и пакеты прикладных программ (ППП), ориентированные на решение конкретного класса задач определенным кругом пользователей, которые определяют требования к интерфейсу и функциональным характеристикам. Примерами таких успешных коммерческих продуктов являются ANSYS, FEMLAB, NASTRAN, MATLAB и многие другие. Слабым местом этих крупных разработок, имеющих свою длительную историю, является инерционность жёстких структур данных и программных технологий, делающих неясными перспективы их перехода к новым стратегиям массивного распараллеливания на базе МКС с миллионами процессоров и ядер.

Для выхода из фактически сложившегося кризиса прикладного программирования кардинальным представляется переход от конкретных классов задач к ориентации на общедоступные наборы инструментариев, поддерживающих различные технологические этапы моделирования (генераторы сеток, аппроксиматоры уравнений, алгебраические решатели и т.д.), взаимодействующих между собой на основе разработки согласованных структур данных (геометрических, сеточных, алгебраических, графических). Такой модульный принцип позволит осуществить независимую реализацию, развитие и переиспользование продуктов коллективов разработчиков, а также их адаптацию к непрерывно появляемым платформам МКС.

Очень важно, что здесь изначально могут быть заложены гибкие стратегии и тактики параллелизма на различных стадиях вычислительного эксперимента. Кроме того, эта модель ориентирована на сборку конкретных приложений из представительного набора программных блоков наподобие детского конструктора LEGO, что должно обеспечить такие трудно совместимые категории, как универсальность и эффективность. Разумеется, достижение этой цели требует координации усилий вычислительного сообщества, но примеры успешного сотрудничества такого рода уже имеются: в области линейной алгебры общепринятыми являются форматы и стили пакетов BLAS, SPARSE BLAS, а также коллекции типовых матриц для сравнительного тестирования.

В качестве унифицированной технологической среды решения широкого круга прикладных математических задач можно рассмотреть Базовую Систему Моделирования (БСМ), состоящую из следующих основных компонентов, охватывающих все главные этапы крупномасштабного вычислительного эксперимента, сформулированные около 30 лет назад в работах Г. И. Марчука, А. А. Самарского, Н. Н. Яненко и их учеников:

— система геометрического и функционального моделирования, реализующая входной пользовательский интерфейс и формирующая в результате множественные структуры геометрических и функциональных данных (ГСД и ФСД);

— библиотека генераторов квазиструктурированных сеток, работающая на основе анализа ГСД, а также ФСД, и формирующая, в свою очередь, сеточную структуру данных (ССД), которая полностью и однозначно определяет итоги дискретизации расчётной области, включая взаимосвязи сеточных объектов с функциональными;

— система программной реализации различных аппроксимационных алгоритмов исходной задачи, на основе уже построенных ССД и ФСД, результатом исполнения которой является алгебраическая структура данных (АСД), представляющая дискретизованную модель исходной задачи;

— библиотека алгебраических методов, осуществляющая на базе ССД решение систем линейных или нелинейных алгебраических уравнений, проблемы собственных значений или вычисление рекуррентных последовательностей в нестационарных задачах;

— постобработка и визуализация результатов моделирования, ориентированная на совокупность конкретных способов представления сеточных функций в рамках БСМ и использующая имеющиеся в широком распространении внешние графические редакторы, а также системы автоматизации проектирования (САD, САМ, САЕ, PLM);

— набор оптимизационных процедур для решения обратных задач идентификации параметров модели (условная минимизация целевых функционалов) на основе реализации последовательности прямых задач; средства управления сложными вычислительными процессами.

Данные компоненты являются самодостаточными, автономными и могут разрабатываться независимыми группами специалистов в различных алгоритмических областях на основе согласования множества информационных форматов. Структура создаваемых программных компонент предусматривает гибкое взаимодействие с внешними прикладными и системными разработками, в том числе — включение в библиотеки БСМ алгоритмических процедур других авторов, для чего создается совокупность конверторов (переходников) структур различных форматов данных. Помимо расширяемого набора вычислительных инструментариев, БСМ включает средства конфигурации (сборки) проблемно-ориентированных пакетов прикладных программ для конкретных производственных областей.

По своей архитектуре БСМ представляет собой интегрированную среду вычислительно-информационных инструментариев для сообщества прикладных математиков и программистов, которые могли бы не только использовать готовые компоненты для своих проектов, но и привносить инновации в общую копилку. Эта концепция широкой скоординированной кооперации естественно согласуется с X-STACK — так названо программное обеспечение экзамасштабного назначения в «дорожной карте» IESP.

Описанные принципы построения базовой системы моделирования касаются только содержательных аспектов. При этом многие актуальные вопросы требуют дальнейших исследований: поддержка коллективной разработки, сопровождения, эксплуатации и развития программных комплексов с длительным жизненным циклом, обеспечение крупномасштабируемого параллелизма на МКС экстремальной производительности, оптимизация программного кода на алгоритмическом и системном уровне, организация массовых экспериментов на центрах коллективного пользования по технологиям облачных вычислений.

Об авторе:

Валерий Павлович Ильин — главный научный сотрудник Института вычислительной математики и математической геофизики СО РАН, доктор физико-математических наук, профессор, ведущий специалист в области прикладной математики и информатики, автор более 300 научных работ (из них 12 монографий), обладатель трёх авторских свидетельств.

Основные научные результаты В. П. Ильина: экономичные прямые и итерационные алгоритмы решения систем алгебраических уравнений и проблемы собственных значений, компактные методы конечных разностей, конечных объёмов и конечных элементов повышенной точности для аппроксимации смешанных краевых задач, эффективные многосеточные методы и декомпозиция областей для решения многомерных уравнений математической физики, вычислительно-информационные технологии математического моделирования в электрофизике и других прикладных областях, распараллеливание алгоритмов и их отображение на архитектуру многопроцессорных вычислительных систем.

Под его руководством в течении многих лет выполняются работы по грантам РФФИ и РАН, международным и региональным проектам. В. П. Ильин многократно участвовал в международных конференциях, читал лекции по приглашениям ведущих зарубежных университетов и научных центров.

С 1964 года ведет преподавательскую работу в Новосибирском госуниверситете и является профессором кафедры «Вычислительная математика». 35 его учеников защитили кандидатские диссертации, шесть из них стали докторами наук.

В. П. Ильин — член редколлегий «Сибирского журнала вычислительной математики», журнала «Прикладная физика» и «Сибирского журнала индустриальной математики». В. П. Ильин является руководителем проекта РФФИ № 11-01-00205.

пн вт ср чт пт сб вс