Cписок вопросов по курсу «Суперкомпьютеры и параллельная обработка данных»



Скачать 370.37 Kb.
Pdf просмотр
Дата02.03.2017
Размер370.37 Kb.
Просмотров118
Скачиваний1

Cписок вопросов по курсу «Суперкомпьютеры и параллельная обработка
данных».
1.
Архитектура параллельных вычислительных систем. Классификация параллельных компьютеров и систем.
2.
Векторно-конвейерные компьютеры. Понятие векторной обработки. Архитектура векторно-конвейерных компьютеров. Векторизация программ.
3.
Параллельные компьютеры с общей памятью. Архитектура компьютеров с общей памятью. Архитектура многоядерных процессоров.
4.
Вычислительные системы с распределенной памятью.
5.
Концепция GRID и облачные вычисления.
6.
Модели параллельного программирования. Модель передачи данных. Модель с общей памятью. Модель параллелизма по данным.
7.
Ускорение, эффективность, закон Амдала. Слабая и сильная масштабируемость.
8.
Методы и средства отладки эффективности параллельных программ.
9.
Методы и средства функциональной отладки параллельных программ. Динамический контроль, сравнительная отладка.
10.
Вычислительный комплекс IBM Blue Gene/P.
11.
Вычислительный комплекс IBM pSeries 690 HPC Regatta.

Технология параллельного программирования OpenMP.
12.
Модель общей памяти. Выполнение OpenMP-программы (Fork and Join Model).
13.
Понятие консистентности памяти. Консистентность памяти в OpenMP (weak ordering).
14.
Основные понятия. Директивы и клаузы. Понятие структурного блока. Компиляция
OpenMP-программы.
15.
Классы переменных (клаузы shared, private, директива threadprivate).
16.
Параллельная область (директива parallel).
17.
Понятие задачи (директива task).
18.
Распределение выполнения витков цикла между нитями (директива for).
19.
Различные способы распределения витков цикла между нитями (клауза schedule).
20.
Циклы с зависимостью по данным. Организация конвейерного выполнения для циклов с зависимостью по данным.
21.
Распределение нескольких структурных блоков между нитями (директива section).
22.
Редукционные операторы.
23.
Выполнение структурного блока одной нитью (директива single).
24.
Копирование значений приватных переменных (клаузы firstprivate, lastprivate, copyin, copyprivate).
25.
Конструкции для синхронизации нитей. Директивы critical, barrier, taskwait, atomic, flush, ordered.
26.
Система поддержки выполнения OpenMP-программ.
27.
Новые возможности стандарта OpenMP. Векторизация.
28.
Новые возможности стандарта OpenMP. Обработка исключительных ситуаций.
29.
Поддержка ускорителей/сопроцессоров.
30.
Ошибки в OpenMP-программах. Конфликт доступа к данным. Взаимная блокировка нитей.
Неинициализированные переменные.
31.
Оптимизация OpenMP-программы. Балансировка нагрузки нитей. Локализация данных.


Технология параллельного программирования DVM.
32.
DVM - модель параллелизма по данным и управлению.
33.
Распределение и локализация данных (спецификации DISTRIBUTE, ALIGN, TEMPLATE).
34.
Правило собственных вычислений. Распределение витков цикла между процессорами.
35.
Спецификация параллельно выполняющихся секций программы (параллельных задач) и отображение их на процессоры
36.
Организация доступа к удаленным (расположенным на других процессорах/ускорителях) данным .
37.
Организация выполнения редукционных операций - глобальных операций с расположенными на различных процессорах/ускорителях данными (таких, как их суммирование или нахождение их максимального или минимального значения).
38.
Определение фрагментов программы (регионов) для выполнения на ускорителях.
39.
Управление перемещением данных между памятью ЦПУ и памятью ускорителей.
40.
Параллельный ввод-вывод в DVM-системе.
41.
Функциональная отладка и анализ эффективности DVM-программ.
Технология параллельного программирования MPI.
42.
Основные понятия MPI: сообщение, структура сообщения, тело сообщения, тэг, коммуникатор, базовые типы данных MPI.
43.
Базовые функции MPI_Init, MPI_Finalize, MPI_Comm_size и MPI_Comm_rank.
44.
Организация двухсторонних взаимодействий в MPI. Понятие о режимах передачи сообщений. Схемы реализации. Условия завершения операций двухсторонней передачи.
45.
Функции MPI_Send и MPI_Recv: назначение, список параметров, примеры использования. Определение числа фактически полученных элементов сообщения.
Совмещенная операция MPI_Sendrecv.
46.
Неблокирующие функции MPI_Isend и MPI_Irecv: назначение, список параметров, примеры использования.
47.
Функции проверки и ожидания завершения пересылок MPI_Wait, MPI_Test.
48.
Понятие о коллективных операциях. Функция MPI_Barrier. Широковещательная рассылка данных MPI_Bcast. Операция редукции.
49.
Семейство коллективных функций сборки и рассылки данных MPI_Gather, MPI_Scatter,
MPI_Alltoall.
Введение в методы параллельного программирования.
50.
Параллельные методы умножения матрицы на вектор.
51.
Параллельные методы умножения матриц. Ленточный алгоритм.
52.
Параллельные методы умножения матриц. Алгоритм Фокса.
53.
Параллельные методы умножения матриц. Алгоритм Кэннона.
54.
Методы параллельной сортировки данных.
55.
Параллельные методы решения систем линейных уравнений. Метод Гаусса.
56.
Параллельные методы решения дифференциальных уравнений в частных производных.
Метод Jacobi.
57.
Параллельные методы решения дифференциальных уравнений в частных производных.
Метод SOR.
58.
Параллельные методы решения дифференциальных уравнений в частных производных.
Метод Red-Black.

ЛИТЕРАТУРА
1)
В.В.Воеводин, Вл.В.Воеводин. Параллельные вычисления-СПб.: БХВ-Петербург, 2002.-608 с.: ил. (тираж - 3000 экземпляров).
ISBN 5-94157-160-7 2)
А. О. Лацис. Параллельная обработка данных : учеб. пособие для студ. вузов - М. :
Издательский центр «Академия», 2010. - 336 с. - (Университетский учебник. Сер.
Прикладная математика и информатика).
ISBN 978-5-7695-5951-8 3)
Антонов А.С. Технологии параллельного программирования MPI и OpenMP : Учеб. пособие. Предисл.: В.А.Садовничий. - М.: Издательство Московского университета, 2012.-
344 с.-(Серия "Суперкомпьютерное образование").
ISBN 978-5-211-06343-3.
4)
DVM-система. Сайт: http://dvm-system.org/ru/docs/


Поделитесь с Вашими друзьями:


База данных защищена авторским правом ©nethash.ru 2017
обратиться к администрации

войти | регистрация
    Главная страница


загрузить материал