Применение высокопроизводительных вычислений в задачах компьютерного моделирования




Дата11.02.2017
Размер0.51 Mb.
Просмотров138
Скачиваний0

ИЗВ. ВУЗОВ. ПРИБОРОСТРОЕНИЕ. 2009. Т. 52, № 10

ПРИМЕНЕНИЕ
ВЫСОКОПРОИЗВОДИТЕЛЬНЫХ ВЫЧИСЛЕНИЙ
В ЗАДАЧАХ КОМПЬЮТЕРНОГО МОДЕЛИРОВАНИЯ

УДК
004.272.2
М. В.
Я
КОБОВСКИЙ

ВЫЧИСЛИТЕЛЬНЫЙ ЭКСПЕРИМЕНТ
НА МНОГОПРОЦЕССОРНЫХ СИСТЕМАХ:
АЛГОРИТМЫ И ИНСТРУМЕНТЫ
Обсуждаются проблемы, возникающие при проведении вычислительных экспериментов на многопроцессорных системах. Рассматриваются вопросы рациональной декомпозиции, огрубления триангулированных поверхностей, иерархической обработки и распределенной визуализации больших объемов се- точных данных.
Ключевые слова: многопроцессорные системы, распределенная визуализация,
рациональная декомпозиция, математическое моделирование, вычислитель-
ный эксперимент, параллельные алгоритмы, триангуляция, огрубление данных.
Введение. Современные многопроцессорные системы обладают производительностью более
14 10
операций с плавающей точкой в секунду, что потенциально позволяет за короткое время выполнять большие объемы вычислений. С помощью суперкомпьютеров возможно проведение вычислительных экспериментов, направленных на решение фундаментальных и прикладных задач газовой динамики, горения, микро- и наноэлектроники, экологии и многих других. Несмотря на то что потребность в проведении подобных экспериментов велика, большая часть современных суперкомпьютеров востребована далеко не в полной мере. Тому есть весомые причины.
Фундаментальной проблемой создания методов, позволяющих эффективно использо- вать совокупную мощность множества процессоров, является необходимость разработки ал- горитмов, обладающих существенным запасом внутреннего параллелизма на всех этапах рас- чета. Каждый шаг решения задачи должен содержать достаточное количество взаимно неза- висимых операций, выполнение которых возможно одновременно на всех выделенных для расчета процессорах. В идеале все множество операций, необходимых для решения задачи, следует равномерно распределить между всеми процессорами на протяжении всего времени выполнения расчета. Указанная проблема, безусловно, имеет определяющий характер, но она далеко не единственная.
Рост вычислительной мощности суперкомпьютеров обеспечивается сегодня за счет экс- тенсивного увеличения числа обрабатывающих элементов — процессоров, процессорных ядер, мультитредовых устройств и им подобных (далее — процессоров). Увеличение вычис- лительной мощности за счет роста числа поддерживаемых потоков команд, а не за счет ско- рости обработки одного потока, обусловливает несоответствие между возможностями тради-

Вычислительный эксперимент на многопроцессорных системах: алгоритмы и инструменты 51
ИЗВ. ВУЗОВ. ПРИБОРОСТРОЕНИЕ. 2009. Т. 52, № 10
ционных средств подготовки и анализа данных и способностью многопроцессорных систем к генерации больших массивов результатов.
Одним из наиболее активно используемых методов изучения процессов, протекающих в сложных многомерных объектах, является метод математического моделирования. Часто этот метод является единственной возможностью изучения сложных нелинейных явлений. В силу естественных временных ограничений невозможен натурный эксперимент при изучении гло- бальных изменений климата. В соответствии с действующими международными соглашениями невозможен натурный эксперимент в области изучения поведения вещества в экстремальных условиях ядерного взрыва. Дорог и практически невоспроизводим натурный эксперимент, имеющий своей целью определение оптимальных режимов добычи углеводородов на нефтяных месторождениях. Список можно продолжить, но принцип ясен — там, где натурный экспери- мент невозможен, необходим эксперимент вычислительный. В его рамках создается математи- ческая модель изучаемого явления. Использование методов математической физики приводит к описанию объекта исследования системой нелинейных многомерных уравнений в частных производных, решение которых определяется с помощью численных методов. Непрерывная среда заменяется дискретным аналогом — конечной сеткой по времени и пространству. Диф- ференциальные уравнения, действующие в непрерывном пространстве, заменяются алгебраиче- скими, действующими в дискретном пространстве разностной сетки или конечных элементов.
Решение алгебраических уравнений возлагается на суперкомпьютер.
Накоплен значительный опыт применения многопроцессорных систем для моделирова- ния физических и технологических процессов, но он ориентирован в первую очередь на па- раллельные системы средней производительности, содержащие относительно небольшое число процессоров. При переходе к вычислительным системам, количество процессоров в которых исчисляется сотнями и более, требуется создание адекватных средств обработки больших объемов данных.
Увеличение числа процессоров, используемых для решения задачи, приводит к умень- шению объема вычислений, выполняемых на каждом из процессоров. В свою очередь, это ведет к относительному росту доли накладных расходов, обусловленных необходимостью обеспечения взаимодействия процессов передачи данных между процессорами и наличием других операций, обеспечивающих согласованное решение задачи на многопроцессорной системе. С ростом числа процессоров наступает насыщение — момент, после которого уве- личение числа процессоров уже не приводит к сокращению времени решения задачи. Таким образом, за счет многопроцессорности сложно сокращать время решения задачи, но с помо- щью суперкомпьютеров можно решать более сложные задачи, увеличивая степень детализа- ции изучаемых объектов, включая в рассмотрение дополнительные факторы, что влечет за собой увеличение объемов данных, описывающих эти объекты.
Оперирование большими объемами данных предъявляет новые требования и к исполь- зуемым алгоритмам, и к самим принципам организации работы на суперкомпьютере. Работа становится невозможной без привлечения параллельных алгоритмов и средств, поддержи- вающих всю цепочку действий, требуемых для численного моделирования на подробных сетках, в том числе методов формирования геометрических моделей высокого качества, гене- раторов поверхностных и пространственных сеток, средств декомпозиции сеток, библиотек распределенного ввода—вывода, алгоритмов и библиотек балансировки загрузки процессо- ров, средств визуализации результатов крупномасштабных экспериментов и многих других.
Будем считать объем данных „большим“, если выполняются некоторые из следующих условий:
— вычислительной мощности любого отдельно взятого процессорного узла недоста- точно для обработки всего объема данных за приемлемое время;

52
М. В. Якобовский
ИЗВ. ВУЗОВ. ПРИБОРОСТРОЕНИЕ. 2009. Т. 52, № 10
— оперативной памяти любого отдельно взятого процессорного узла недостаточно для хранения всего объема обрабатываемых данных;
— пропускной способности сетей передачи данных недостаточно для передачи за ра- зумное время всего объема полученной информации от сервера хранения данных до рабочего места пользователя.
Рассмотрим в рамках настоящей статьи проблемы рациональной декомпозиции сеток и визуализации сеточных данных.
Декомпозиция данных. Будем руководствоваться широко использующимся на практи- ке методом геометрического параллелизма, в соответствии с которым элементы расчетной сетки и ассоциированные с ними сеточные данные равномерно распределяются по процессо- рам компактными группами. За счет того что каждый процессор обрабатывает размещенные на нем данные, вычислительная нагрузка так же равномерно распределяется по процессорам.
Можно сформулировать первый критерий разбиения сеток: данные следует распреде- лить так, чтобы объемы вычислительной работы, выполняемой на каждом процессоре, были одинаковыми.
Второй критерий связан с необходимостью минимизации сопровождающих расчет на- кладных расходов. Распределим сеточные данные так, чтобы сократить объемы передавае- мых между процессорами в ходе вычислений данных. В контексте рассматриваемых задач на суперкомпьютер возлагается задача решения систем алгебраических уравнений. Есть два ос- новных метода построения таких систем — на основе явных и неявных схем. Использование явных схем выглядит наиболее привлекательными, поскольку не требует привлечения доро- гостоящих в вычислительном плане алгоритмов обращения матриц большого размера. С точ- ки зрения описания нестационарных физических процессов явные схемы также имеют преимущество, поскольку они естественным образом отражают связь между значениями физических переменных, соответствующими последовательно моделируемым моментам вре- мени. Системы алгебраических уравнений, соответствующие явным разностным схемам, об- ладают важным свойством локальности, позволяющим эффективно использовать многопро- цессорные системы с распределенной памятью. Оно заключается в том, что для вычисления новых значений физических величин в некотором узле сетки необходимо знать о значениях сеточных функций только в тех узлах, что находятся на небольшом (по числу ребер) расстоя- нии от обрабатываемого узла. В первом приближении это означает, что объем данных, пере- даваемых между процессорами, будет определяться числом узлов, соседствующих с узлами, хранящимися на других процессорах.
Теперь можно сформулировать второй критерий: данные следует распределить так, чтобы минимизировать число ребер, соединяющих узлы, хранящиеся на разных процессорах.
Таким образом, задача рациональной декомпозиции сетки сводится к разбиению вер- шин графа сетки на заданное число классов эквивалентности — доменов. Требуется найти такой вариант разбиения сетки на домены, содержащие одинаковое количество вершин, при котором число ребер, соединяющих вершины из разных доменов (число „разрезанных“ ре- бер), минимально. Задача рационального разбиения графов принадлежит классу
NP
-полных, что заставляет использовать для ее решения эвристические алгоритмы.
Существует ряд пакетов декомпозиции графов, среди которых выделяются ParMETIS,
CHACO, PARTY, JOSTLE и SCOTCH. Наиболее эффективны иерархические методы рацио- нального разбиения графов (B. Hendrickson, R. Leland, G. Karypis, V. Kumar и др.) [1—3]. В их основе лежит следующая последовательность действий: огрубление графа (построение по- следовательности уменьшающихся в размере вложенных графов), начальная декомпозиция огрубленного графа на заданное число доменов, восстановление графа и локальное уточнение границ доменов.

Вычислительный эксперимент на многопроцессорных системах: алгоритмы и инструменты 53
ИЗВ. ВУЗОВ. ПРИБОРОСТРОЕНИЕ. 2009. Т. 52, № 10
Огрубление графа выполняется путем многократного объединения пар соседних вер- шин в одну, в результате чего формируется граф с небольшим числом агрегированных вер- шин, каждой из которых соответствует подмножество вершин исходного графа.
Начальная декомпозиция может быть выполнена с помощью практически любого алго- ритма, вплоть до алгоритма полного перебора, поскольку число вершин огрубленного графа может быть сокращено до достаточно малого значения. Но, как правило, качество такой де- композиции будет низким, поскольку оно непосредственно зависит от равномерности про- цесса огрубления графа. При разбиении огрубленного графа практически неизбежно форми- руются домены несовпадающих весов, так как веса агрегированных вершин могут иметь зна- чительный разброс. В связи с этим необходимо выполнять локальное уточнение границ до- менов, что позволяет уравновесить веса доменов и уменьшить число ребер, пересекающих их границы, например, с помощью алгоритмов Kernighan-Lin (KL) и Fiduccia-Mattheyses (FM)
[4], обладающих относительно низкой вычислительной сложностью.
Для ряда задач актуальны два дополнительных критерия декомпозиции:
— минимизация максимальной степени домена (число соседних доменов) с целью сни- жения числа актов обмена данными на каждом шаге по времени и уменьшения сложности вычислительного алгоритма;
— обеспечение связности каждого из описывающих домен подграфов.
Перечисленные ранее алгоритмы не позволяют контролировать связность и максималь- ную степень доменов. Одним из методов, обеспечивающих формирование начального при- ближения высокого качества, является алгоритм спектральной бисекции. Применяя его ре- курсивно, можно разбивать граф на произвольное число частей. Декомпозиция графа на две части может быть выполнена с помощью упорядочения вершин графа по значениям компо- нент вектора Фидлера — собственного вектора, соответствующего наибольшему ненулевому собственному значению спектральной матрицы графа (матрицы Лапласа) [3, 5, 6]. Разбиение графа на большее число частей, согласно компонентам вектора Фидлера, может быть исполь- зовано для формирования доменов, имеющих малое число соседей. Существенным недостат- ком метода является сложность определения компонент вектора Фидлера вырожденной спек- тральной матрицы графа, что ограничивает число вершин разбиваемого графа.
Для обеспечения связности подграфов каждого из доменов может быть использован ин- крементный метод [7]. Определив глубину произвольной вершины как кратчайшее расстоя- ние от нее до множества граничных вершин домена, можно ввести понятие ядра заданного уровня. Ядро уровня
k
определим как подграф, образованный вершинами глубиной не менее
k
и ребрами, инцидентными только этим вершинам. Алгоритм инкрементного роста ориен- тирован на формирование доменов, в каждом из которых ядра заданного уровня связны, что является более существенным условием, чем требование связности каждого из доменов. Тес- тирование показывает, что использование инкрементного алгоритма обеспечивает и малое число разрезанных ребер, и высокий уровень связности ядер доменов.
Иерархическая обработка больших сеток. Моделирование на многопроцессорных вычислительных системах центров коллективного пользования сопряжено с выполнением длительных вычислений с помощью большого количества сравнительно коротких сеансов.
Число используемых процессоров может изменяться от одного сеанса к другому, что вынуж- дает многократно решать задачу балансировки загрузки. Несмотря на высокую эффектив- ность иерархических алгоритмов, разбиение нерегулярных расчетных сеток большого разме- ра занимает значительное время. Для снижения потерь целесообразно использовать иерархи- ческий метод хранения и обработки больших сеток. В соответствии с ним расчетная сетка предварительно разбивается на множество блоков небольшого размера — микродоменов.
В дальнейшем сетка хранится в виде набора микродоменов и графа, определяющего их взаи- мосвязи, — макрографа. Каждая из вершин макрографа соответствует микродомену. Перед

54
М. В. Якобовский
ИЗВ. ВУЗОВ. ПРИБОРОСТРОЕНИЕ. 2009. Т. 52, № 10
очередным сеансом расчета производится разбиение макрографа, и каждому процессору на- значается список микродоменов. Поскольку в макрографе значительно меньше вершин, чем в исходной сетке, его разбиение требует меньшего времени и может быть выполнено последова- тельными алгоритмами. Дополнительный выигрыш по времени достигается за счет возможно- сти распределенного хранения больших графов как совокупности микродоменов, что значи- тельно уменьшает накладные расходы на чтение и запись сеток большим числом процессоров.
Распределенная визуализация. С ростом числа процессоров, используемых для прове- дения вычислительных экспериментов, сложность задачи преобразования больших объемов сеточных данных к виду, пригодному для наглядного отображения, существенно возрастает.
Для визуализации уже недостаточно ресурсов персональных компьютеров (ПК) — рабочих мест пользователей [8—10]. Наиболее естественным путем решения проблемы является ис- пользование технологии клиент—сервер, в соответствии с которой (рис. 1):
— серверная часть системы визуализации, как правило, выполняемая на многопроцес- сорной системе, обеспечивает обработку большого объема данных;
— клиентская часть системы визуализации, выполняясь на ПК, обеспечивает интерфейс взаимодействия с пользователем и непосредственное отображение данных, подготовленных сервером, используя при этом аппаратные возможности персонального компьютера как для построения наглядных визуальных образов (с помощью графических ускорителей, стереоуст- ройств), так и для управления ими (с помощью многомерных манипуляторов).
Удаленное рабочее место
Клиентская часть
Сеть (локальная или глобальная)
Кластер
Дисковый массив
Рабочие узлы
Сервер
Рис. 1
На сервере целесообразно подготавливать данные, обеспечивающие формирование клиентом именно трехмерного образа объекта, манипулирование которым с целью его изуче- ния с различных направлений возможно уже без дополнительных обращений к серверу.
В этом заключается одно из существенных отличий обсуждаемого подхода от методов, ис- пользуемых в большинстве доступных систем визуализации, выполняющих на сервере „рен- деринг“ — формирование двумерного растрового образа изучаемого объекта.
Одним из наиболее мощных и наглядных методов визуализации трехмерных скалярных данных является визуализация изоповерхностей, описываемых множеством треугольников.
Современные видеоускорители аппаратно поддерживают отображение массивов треугольни- ков, что значительно повышает наглядность визуализации как за счет высокой скорости вы- вода данных на экран, так и за счет возможности автоматического формирования стереоизоб- ражений.
Ядро системы визуализации представлено рядом алгоритмов фильтрации и огрубления первичных данных, позволяющих аппроксимировать результаты вычислений ограниченным объемом данных, достаточным, однако, для восстановления изучаемого образа с заданным уровнем качества. Фактически к алгоритму огрубления предъявляются два требования, вызы- вающие потребность обеспечить интерактивный режим работы, а следовательно — высокую

Вычислительный эксперимент на многопроцессорных системах: алгоритмы и инструменты 55
ИЗВ. ВУЗОВ. ПРИБОРОСТРОЕНИЕ. 2009. Т. 52, № 10
скорость предоставления пользователю визуального образа. За короткое время необходимо ог- рубить данные и передать результат на компьютер пользователя. Следовательно, во-первых, алгоритм огрубления должен работать быстро. Во-вторых, необходимо выполнить огрубление данных до объема, заданного временем, отведенным на передачу данных на компьютер пользо- вателя. Число описывающих изоповерхность узлов велико и по порядку величины может сов- падать с числом узлов исходной трехмерной сетки, поэтому и необходим этап ее огрубления до размеров, допускающих их передачу через медленные каналы связи за короткое время. Необхо- димые коэффициенты „сжатия“ — отношения объемов данных, описывающих исходную изо- поверхность и ее образ, достигают сотен тысяч и более, поэтому следует использовать методы сжатия с потерей точности. В первую очередь визуально воспринимаются основные контуры и формы трехмерного объекта, спроецированного на двумерный экран, следовательно, при изу- чении объекта „в целом“ деталями можно пожертвовать. При необходимости фрагменты объекта можно изучить с большим увеличением и меньшей потерей точности.
Простейшие алгоритмы сжатия, основанные на снижении точности представления ве- щественных чисел, описывающих сетку, и последующей компрессии с помощью стандарт- ных алгоритмов, подобных групповому кодированию (RLE) или кодированию строк (LZW), значительного выигрыша не дают. Большую часть объема данных о триангуляции составляет целочисленная информация, описывающая ее топологию — связи между узлами. Стандарт- ными алгоритмами сжатия без потерь эта информация практически не обрабатывается. Таким образом, основной интерес представляют алгоритмы, формирующие некоторую новую триангулированную поверхность, аппроксимирующую исходную изоповерхность, но содер- жащую значительно меньшее количество узлов.
Огрубление триангулированных поверхностей. Эффективны алгоритмы огрубления триангулированных поверхностей на основе методов редукции [11, 12]. Их основная идея за- ключается в итерационном удалении из исходной поверхности некоторого количества узлов таким образом, чтобы триангуляция, определенная на оставшихся точках, аппроксимировала исходную поверхность с требуемой точностью. В качестве иллюстрации на рис. 2, а пред- ставлена триангулированная сфера (точек 98 880, треугольников 195 884), а на рис 2, б — ре- зультат огрубления сферы с помощью редукции (точек 215, треугольников 375). Методы ре- дукции допускают огрубление изоповерхностей, обладающих достаточно сложной структу- рой, например, имеющих самопересечения.
а)
б)
Рис. 2
Параллельный алгоритм построения и огрубления изоповерхностей основан на методе геометрического параллелизма. Каждый процессор формирует часть изоповерхности, прохо- дящую через обрабатываемый процессором фрагмент сетки — домен. Результаты, получен- ные при огрублении фрагментов изоповерхности, передаются на один процессор. Однако с помощью такого алгоритма невозможно обработать произвольно большой объем данных.
Суммарный объем данных, описывающих огрубленные на процессорах фрагменты, не может

56
М. В. Якобовский
ИЗВ. ВУЗОВ. ПРИБОРОСТРОЕНИЕ. 2009. Т. 52, № 10
превышать объема оперативной памяти того единственного процессорного узла, на котором выполняется окончательная обработка изоповерхности. Проблема решается разбиением про- цессоров на группы и введением дополнительных промежуточных этапов. После первого этапа огрубления результаты, полученные всеми процессорами одной группы, передаются на один из процессоров этой же группы. На каждом из таких процессоров выполняется второй этап огрубления, полученные результаты передаются на один процессор для окончательной обработки. При необходимости можно использовать каскадную схему, увеличив число эта- пов, что в принципе снимает ограничения на исходный объем обрабатываемых данных.
Каскадная схема позволяет получить дополнительный выигрыш — существенно улуч- шить качество аппроксимации поверхности. При частичном огрублении на каждом из про- цессоров присутствуют узлы двух типов: внутренние и граничные. Узел считается гранич- ным, если множество опирающихся на него треугольников распределено по нескольким про- цессорам. Разрешено удаление только внутренних узлов, граничные не могут быть удалены, поскольку удаление разных узлов одной и той же границы разными процессорами может привести к возникновению разрывов триангулированной поверхности. При сильном огрубле- нии внутренней части поверхности исключается большое число внутренних узлов. Поскольку все граничные узлы сохраняются, на огрубленной таким образом изначально гладкой поверх- ности возникают артефакты — изломы, описываемые большим числом точек, сглаживание которых на заключительном этапе затруднительно. Каскадная многоэтапная схема позволяет применять на каждом шаге меньшее сжатие внутренней части, что положительно сказывается на картине в целом. Результаты триангуляции передаются на персональный компьютер поль- зователя, где выполняется отображение поверхности.
На рис. 3, а приведена изоповерхность распределения плотности среды, полученная при моделировании обтекания летательного аппарата с использованием тетраэдральной сетки, содержащей более 2 млн узлов и 14 млн тетраэдров (визуализация разработанной системой
RemoteViewer).
На рис. 3, б приведен результат визуализации изоповерхности плотности среды, полу- ченный с помощью системы Tecplot, широко используемой для визуализации научных дан- ных на персональных компьютерах. Сравнение рис. 3, а и б показывает хорошее совпадение формы изоповерхностей, полученных с помощью разных инструментов, что подтверждает высокое качество образов, формируемых описанными алгоритмами визуализации.
Y
а)
Z
X
б)
Рис. 3
Заключение. В заключение следует подчеркнуть, что рассмотренные в статье методы обработки результатов проводимых на суперкомпьютерах вычислительных экспериментов актуальны, если другие методы оказываются неприменимыми. Они актуальны, если исполь- зуются объемы данных, для обработки которых недостаточно ресурсов ПК и недостаточно возможностей хорошо развитых и обладающих богатой функциональностью последователь- ных пакетов прикладных программ.
Работа выполнена при поддержке проекта РФФИ № 08-07-00458-а, 09-01-00292-а.

Вычислительный эксперимент на многопроцессорных системах: алгоритмы и инструменты 57
ИЗВ. ВУЗОВ. ПРИБОРОСТРОЕНИЕ. 2009. Т. 52, № 10
СПИСОК ЛИТЕРАТУРЫ
1. Hendrickson B. and Leland R. A. Multi-Level Algorithm for Partitioning Graphs // Tech. Rep. SAND93-1301,
Sandia National Laboratories, Albuquerce. October 1993.
2. Hendrickson B. and Leland R. An Improved Spectral Graph Partitioning Algorithm for Mapping Parallel
Computations // SIAM J. Sci. Comput. 1995. Vol. 16, N 2.
3. Karypis G., Kumar V. Multilevel Graph Partitioning Schemes // ICPP (3). 1995. P.113-122.
4. Fiduccia C. and Mattheyses R. A linear time heuristic for improving network partitions // Proc. 19th IEEE Design
Automation Conf. 1982. P. 175—181.
5. Fiedler M. Eigenvectors of aciyclic matrices // Czechoslovak Mathematical J. 1975. Vol. 25(100). P. 607—618.
6. Fiedler M. A property of eigenvectors of nonnegative symmetric matrices and its application to graph theory //
Czechoslovak Mathematical J. 1975. Vol. 25(100). Р. 619—633.
7. Якобовский М. В. Инкрементный алгоритм декомпозиции графов // Вестн. Нижегородского Университета им. Н. И. Лобачевского. Сер. Математическое моделирование и оптимальное управление. Вып. 1(28).
Н. Новгород: Изд-во ННГУ, 2005. С. 243—250.
8. Iakobovski M. V., Karasev D. E., Krinov P. S., Polyakov S. V. Visualisation of grand challenge data on distributed systems // Proc. Symp. Mathematical Models of Non-Linear Excitations, Transfer, Dynamics, and Control in
Condensed Systems and Other Media. Moscow—London: Plenum Publishers, 2001. Р. 71—78.
9. Якобовский М. В. Обработка сеточных данных на распределенных вычислительных системах // Вопр. атомной науки и техники. Сер. Математическое моделирование физических процессов. 2004. Вып. 2. С. 40—53.
10. Iakobovski M., Nesterov I., Krinov P. Large distributed datasets visualization software, progress and opportunities //
Computer Graphics & Geometry. 2007. Vol. 9, N 2, Р. 1—19.
11. Krinov P.S., Iakobovski M.V., Muravyov S.V. Large Data Volume Visualization on Distributed Multiprocessor
Systems // Parallel Computational Fluid Dynamics: Advanced numerical methods software and applications. Proc. of the Parallel CFD 2003 Conf. Moscow, Russia. Amsterdam: Elsevier, 2004. P. 433—438.
12. Кринов П.С., Якобовский М.В., Муравьёв С.В. Визуализация данных большого объема в распределенных многопроцессорных системах // Высокопроизводительные параллельные вычисления на кластерных системах.
Мат. 3-го Междунар. науч.-практич. семинара. Н. Новгород: Изд-во ННГУ, 2004. C. 81—88.
Сведения об авторе
Михаил Владимирович Якобовский д-р физ.-мат. наук, профессор; Институт математического модели- рования РАН, сектор программного обеспечения вычислительных систем и сетей, Москва; зав. сектором; E-mail: lira@imamod.ru
Рекомендована институтом
Поступила в редакцию
10.03.09 г.


Поделитесь с Вашими друзьями:


База данных защищена авторским правом ©nethash.ru 2017
обратиться к администрации

войти | регистрация
    Главная страница


загрузить материал