Параллельное умножение матриц



страница1/7
Дата06.03.2017
Размер1.31 Mb.
Просмотров896
Скачиваний3
ТипРеферат
  1   2   3   4   5   6   7

Федеральное государственное бюджетное образовательное учреждение

высшего профессионального образования



«ЧЕЛЯБИНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»



КВАЛИФИКАЦИОННАЯ РАБОТА
Параллельное умножение матриц


Факультет

математический

Исполнитель

Харламенков Е.П.

Направление

Информационные технологии

Группа

МТ-401

Кафедра

Вычислительной математики и информационных технологий

Научный руководитель

Рудаков С.А.

Дата защиты




Консультант




Оценка




Рецензент




Челябинск 2012

Содержание


Содержание 2

Введение 3

Глава 1 Параллельное программирование 5

1.2 Архитектура высокопроизводительных ЭВМ 8

1.3 Параллельные модели программирования 10

1.4 Принцип разработки параллельного алгоритма 12

1.5 Коммуникационные библиотеки 19

1.5.1 Библиотека OpenMP 20

1.5.2 Библиотека MPI 21

1.5.3 Система PVM 23

1.5.4 Сравнение MPI и PVM 25

1.6 Интерфейс передачи сообщений 26

1.6.1 Почему MPI? 27

1.6.2 Основные функции MPI. 28

Глава 2 Реализация программы умножения матриц 33



2.2 Разработка алгоритма 36

2.3 Решение для кластера 38

2.3.1 Настройка кластера. 39

2.3.2 Настройка Visual Studio 40

2.3.3 Создание группового файла 43

2.3.4 Запуск программы 44

2.4 Решение для суперкомпьютера 45

2.4.1 Подключение к суперкомпьютеру. 46

2.4.2 Обмен файлами с суперкомпьютером. 51

2.4.3 Компиляция и запуск программы. 53

2.4.4 Отладка программы 57

Глава 3 Анализ результатов. 64



3.2 Матрицы 1500х1500 67

Заключение. 71

Список литературы. 72

Приложение 1. Последовательное умножение матриц 73

Приложение 2. Параллельное умножение матриц 74




Введение


Актуальность выбранной темы - Мощности современных процессоров вполне достаточно для решения элементарных шагов большинства задач, а объединение нескольких десятков таких процессоров позволяет решать многие поставленные задачи, не прибегая к помощи суперкомпьютеров. Также построение кластера на основе обычных персональных компьютеров намного дешевле, чем приобретение суперкомпьютера. Но скорость вычисления зачастую имеет решающее значение. Эффективность суперкомпьютера в несколько раз превышает эффективность кластера с распределенной памятью, а стоимость превышает в десятки раз. В результате возникает вопрос об оптимальной вычислительной архитектуре для нашей задачи. Этим определяется актуальность данной темы.

Цель выпускной квалификационной работы – разработать параллельную программу умножения матриц. Сравнить результаты быстродействия этой программы на кластере и суперкомпьютере. Адаптировать программу для работы с библиотеками WMPI и OpenMPI, а также с операционными системами Windows и Linux.

Предметная область – технологии и программные библиотеки для управления кластером. Средства настройки данных библиотек. Средства отладки параллельных программ.

Постановка задачи – необходимо получить таблицы и графики, иллюстрирующие время выполнения поставленных задач на различных конфигурациях кластеров, а также при различных настройках суперкомпьютера.

Для достижения поставленной цели в работе поставлены следующие задачи:



  1. изучить теоретические и практические методы организации кластеров.

  2. разработать параллельную программу для кластеров с управлением OC Windows (с помощью библиотек WMPI и OpenMPI)

  3. перенести полученную программу на суперкомпьютер под управлением OC Linux

  4. провести сравнительный анализ быстродействия данной программы на различных архитектурах.

Научная новизна – сравнительный анализ быстродействия кластера с распределенной памятью и суперкомпьютера, с учетом размерности узлов суперкомпьютера и процессоров кластера.

Методы исследования и разработки проекта – разработка параллельной программы, тестирование, анализ результатов, построение таблиц, графиков.

Практическая значимость работы – работа имеет значимость в учебных целях. Может использоваться для обучения параллельному программированию с библиотекой MPI, а также отладке параллельных программ и оптимизации их для использования на кластере с распределенной памятью и суперкомпьютере.


Поделитесь с Вашими друзьями:
  1   2   3   4   5   6   7


База данных защищена авторским правом ©nethash.ru 2017
обратиться к администрации

войти | регистрация
    Главная страница


загрузить материал