Кукса П. П., Шмаков Е. В., Яхина И. Р., Панюшкин М. А



Скачать 332.06 Kb.
Pdf просмотр
Дата02.03.2017
Размер332.06 Kb.
Просмотров207
Скачиваний0
ТипАнализ


Кукса П.П., Шмаков Е.В., Яхина И.Р., Панюшкин М.А.

Московский Государственный Технический Университет
им. Н.Э. Баумана

E-mail: kouxa@online.ru
WWW: http://www.geocities.com/pkouxa

Современные суперкомпьютеры: состояние и перспективы.
Введение
Анализ сложности задач, возникающих при проектировании инженерных сооружений, автомобилей, судов и летальных аппаратов, военной техники, моделировании атмосферы и мирового океана, предсказании погоды и глобальных изменений в атмосфере, разработке новых лекарств, при проведении космических исследований, при создании систем визуализации, а также широкого класса других задач показал , что для их решения требуются компьютеры с производительностью 10 10
- 10 16
оп/сек и более. Для повышения производительности компьютеров может увеличиваться быстродействие последовательных архитектур путем применения более современной технологии на основе, например, арсенида галлия (GaAS) или переходов Джозефсона. Однако последовательная архитектура имеет предел, определяемый скоростью распространения электрического сигнала по физическим линиям связи между компонентами. Альтернативой последовательным являются архитектуры, основанные на параллелизме, когда данные и алгоритмы распределяются между процессорами. Параллельные архитектуры являются наиболее перспективным и динамичным направлением увеличения скорости решения прикладных задач.
К настоящему времени спроектированы и опробованы сотни различных компьютеров, использующих в своей архитектуре тот или иной вид параллельной обработки данных. Однако проверку временем выдержали только несколько из огромного множества параллельных архитектур. Вследствие отсутствия единой классификации параллельных архитектур, возможны разночтения при выделении основных классов и их количества. Приняв в качестве параметра классификации наличие общей (разделяемой) или распределенной памяти можно выделить следующие классы параллельных компьютеров:
Симметричные мультипроцессорные системы (SMP) - системы, в которых несколько процессоров работает над общей памятью; вся система функционирует под управление одной операционной системы (ОС).
Массивно-параллельные системы (MPP)-системы с распределенной памятью, состоящие из вычислительных узлов, связанных через коммуникационную среду; на каждом узле работает полноценный или урезанный вариант ОС.
Системы с неоднородным доступом к памяти (NUMA-системы) - системы, в которых память физически рапределена, но логически общедоступна, то есть представляющие нечто среднее между SMP и MPP- системами.
Параллельно-векторные сиситемы (PVP) - системы со специальными векторно-конвейерными процессорами, В узле несколько таких процессоров,как правило, работают над общей памятью (как в
SMP-системе). Несколько узлов могут быть объединены с помощью коммутаторов (как в MPP-системе).
Вариантом реализации массивно-параллельных систем являются кластеры, представляющие связанный набор полноценных компьютеров, каждый из которых может обладать архитектурой SMP, NUMA (мы рассматриваем применение кластеризации для суперкомпьютерных вычислений и не затрагиваем применение кластеров для высоко-критичных приложений (приложения электронной коммерции, корпоративные WEB-серверы, оперативная обработка банковских тразакций и др.)
При организация распределенных вычислений в Интернет путем объединение (иногда очень большего числа) разнородных вычислительных ресурсов создается новая структура - мета-компьютер, которая также может использоваться для проведения больших вычислений.
Симметричные мультипроцессорные системы (SMP).
Состоят из совокупности процессоров, обладающих одинаковыми возможностями доступа к памяти и внешним устройствам и функционирующих под управлением одной ОС. Все процессоры работают с разделяемой общей памятью с единым адресным пространством [1].
Использование SMP обеспечивает следующие возможности :

Масштабирование приложений при низких первоначальных затратах, путем применения на новых более производительных средствах без преобразования приложений.

Создание приложений в привычных программных средах.

Одинаковое время доступа ко всей памяти.

Пересылка сообщений с высокой скоростью

Аппаратную поддержку когерентности кэшей и блоков памяти.
Процессоры подключаются к памяти с помощью общей шины или коммутатора. Чтобы воспользоваться преимуществом быстрых процессоров просто необходимо уменьшать задержки при обращении к памяти. Это означает, что шина должна быть более короткой и иметь меньшее количество подсоединений, или должно быть

2
уменьшено количество точек переключения. Оба названных физических требования идут в разрез с добавлением более быстрых процессоров и их большего количества и поэтому резко ограничивается размер системы, в то время как масштабируемость является очень важной для большинства современных задач. Таким образом, с увеличением числа процессоров узким местом становится доступ к памяти. Поэтому, как правило, количество процессоров в
SMP-системах не превышает 32.
Производимая пересылка данных между процессорами является наиболее быстрым и дешевым средством коммуникации в параллельных архитектурах общего назначения [10]. Поэтому при наличии большого числа коротких транзакций (что свойственно банковским приложениям), когда приходится часто синхронизировать доступ к общим данным, наилучшим выбором является именно SMP-архитектура. Этим можно объяснить весьма широкой применение SMP-серверов в коммерческих сфере, например, в составе кластеров. Увеличение вычислительной мощности SMP-сервера идет за счет применения более быстродействующих процессоров и увеличение пропускной способности коммутатора[11]. SMP системы используются в составе более сложных систем в качестве базовых элементов, например в массивно-параллельных системах.
Массивно-параллельные системы (MPP)
Основные причины появления массивно-параллельных компьютеров - это, во-первых, необходимость построения компьютеров с гигантской производительностью, и, во-вторых, необходимость производства компьютеров в большом диапазоне как производительности, так и стоимости. Для массивно-параллельного компьютера, в котором число процессоров может сильно меняться, всегда можно подобрать конфигурацию с заранее заданной производительностью и/или стоимостью. [8]
С некоторой степенью условности, MPP-компьютеры можно характеризовать следующими параметрами: используемые микропроцессоры, коммуникационная сеть, организация памяти и наличие или отсутствие host- компьютера.
MPP система состоит из однородных вычислительных узлов, включающих:

один или несколько центральных процессоров (обычно RISC)

локальную память

коммуникационный процессор или сетевой адаптер

устройства ввода/вывода
В каждом узле работает своя копия ОС, а узлы объединяются коммуникационной сетью (сетью межпроцессорного взаимодействия). Поскольку как уже отмечалось MPP системы относятся к системам с распределенной памятью, то число процессоров может быть очень большим.
Важно отметить, что взаимосвязи между узлами (и между копиями ОС, принадлежащими каждому узлу) не требуют аппаратно поддерживаемой когерентности, так как каждый узел имеет собственную ОС и, следовательно, свое уникальное адресное пространство физической памяти. Когерентность реализуется программными средствами, с использованием техники передачи сообщений. Задержки, которые присущи программной поддержке когерентности на основе сообщений [1,7], обычно в сотни и тысячи раз больше, чем те, которые получаются в системах с аппаратными средствами. С другой стороны, их реализация значительно менее дорогая. В некотором смысле в МРР-узлах задержкой приходится жертвовать, чтобы подсоединить большее число процессоров - сотни и тысячи узлов.
Нельзя не сказать о факторах, снижающих производительность: вследствие распределенности памяти взаимодействие процессоров осуществляется в основном посредством передачи сообщений друг другу, отсюда следует два замедляющих работу фактора - время инициализации посылки сообщения ( латентность) и собственно время передачи сообщения по сети. Максимальная скорость передачи достигается на больших сообщениях, когда латентность, возникающая лишь в начале, не столь заметна на фоне непосредственно передачи данных. Идеальным с точки зрения ускорения обмена сообщениями является применение коммутаторов, позволяющих связывать каждый процессор с любым другим напрямую, однако построение больших коммутаторов сопряжено со значительными трудностями [7,1].
Примером современной массивно-параллельной системы является широко распространенная система SP корпорации IBM, представляющая собой набор рабочих станций RS/6000 [15,19,20], соединенных высокопроизводительным коммутатором. Такая архитектура позволяет разбивать систему на группы так, что одна группа выполняет параллельную обработку, в то время как другие узлы занимаются последовательной обработкой.
Система SP стала популярной благодаря широким возможностям масштабируемости (до 8192 процессоров), а также благодаря гибкости реализации различных конфигураций, дающей возможность включать в систему новейшие технологические достижения, что также делает ее перспективной для будущих применений, поскольку возможно простое обновление системы. RS/6000 SP суперкомпьютер позволяет пользователям начать с малого числа узлов, а затем наращивать вычислительную мощность, добавляя узлы без замены существующего аппаратного обеспечения, то есть обеспечивается долгосрочное сохранение вложенных капиталов. В силу своих преимуществ перед другими системами, RS/6000 SP позволил IBM доминировать в списке TOP500 самых высокопроизводительных компьютеров, где 144 позиций занимает суперкомпьютер RS/6000 SP (из них 29 в первой сотне), что делает его самым популярным на сегодняшний день[14, 17, 18].
Кроме того, в июле 2000 IBM заняла первую строку в рейтинге, построив на базе все той же массивно- параллельной архитектуры RS/6000 SP суперкомпьютер, объединяющий 8192 процессора, с оперативной памятью объемом 8 Тб и дисковым массивом на 160 Тб с рекордной производительностью 12,3 TFLOPS [14, 17].

3
Современное направление развития MPP-систем заключается в увеличение мощности вычислительного узла путем подсоединения дополнительных процессоров и по существу превращения его в SMP-узел, а так же путем увеличения вычислительной мощности применяемых процессоров.
Анализ списка TOP500 показал тенденцию увеличения числа суперкомпьютеров, используемых в коммерческой сфере. Впервые в истории списка TOP500, более чем половина систем - 260 - используется для коммерческого применения. Кроме того, по данным IBM за последние два года более половины продаж новых суперкомпьютеров пришлось на долю заказчиков, которые использовали суперкомпьютеры в качестве коммерческих WEB-серверов
[19]. Говоря о будущем MPP-систем, нельзя не сказать, что по данным IBM построение компьютера с производительностью 10 15 оп/с (1 петафлоп, т.е. 1 квадриллион оп/c) основано на массивно-параллельной архитектуре SMASH (Simple, Many, Self-Healing) [16] отличительными особенностями которой являются:
1)упрощение отдельных процессоров, что позволяет увеличить скорость их работы и уменьшить занимаемую площадь, 2) увеличение параллельно работающих потоков до 8 миллионов, 3)автоматическое обнаружение и обход неисправностей.
Системы с неоднородным доступом к памяти (NUMA)
Система состоит из однородных базовых модулей, состоящих из небольшого числа процессоров и блока памяти.
Модули объединены с помощью высокоскоростного коммутатора. Поддерживается единое адресное пространство, аппаратно поддерживается доступ к удаленной памяти, т.е. к памяти других модулей. При этом доступ к локальной памяти в несколько раз быстрее, чем к удаленной. В случае, если аппаратно поддерживается когерентность кэшей во всей системе (обычно это так), говорят об архитектуре cc-NUMA (cache-coherent NUMA).
Система работает под управлением единой ОС. Возможности ОС по управлению большим числом процессоров ограничивают масштабируемость NUMA-систем. Кроме того, масштабируемость ограничена объемом адресного пространства и возможностями аппаратуры поддержки когерентности кэшей. Системы NUMA не подходят для решения задач, требующих частой синхронизации. В этом смысле NUMA вряд ли могут заменить SMP. СУБД могут эффективно использовать NUMA-системы, поскольку возможно разбить сложный запрос на независимо выполняемые части (например, сканирующие отдельные части большой таблицы).
То есть если удается разбить приложение на отдельные части, каждая из которых располагается в одном узле, а взаимодействие между возникает не часто, становится возможным эффективно применять NUMA. Еще одним примером использования NUMA является ведение бухгалтерии корпорации, имеющих относительно независимые офисы.
Сравнительно новой архитектурой с неоднородным доступом к памяти является NUMAflex [22], представленная компанией Silicon Graphics Inc. Эта новая технология построения высокопроизводительных систем, основана на создании многопроцессорных компьютеров из базовых "кирпичиков" (bricks) и позволяет пользователям расширять системы и добавлять новые технологии по мере необходимости. Система, построенная на базе технологии NUMAflex, имеет 7 типов модулей: процессорный, дисковый, графический, модуль базового ввода- вывода, коммутационный, модуль расширения PCI, расширение для высокопроизводительного ввода-вывода.
Новые типы модулей могут быть добавлены для построения специализированных конфигураций. Модульная технология позволяет кардинальным образом изменить привычную практику покупки высокопроизводительных компьютеров. Теперь пользователи имеют возможность расширять и модернизировать в своих системах только необходимые элементы или добавлять новые технологии по мере их появления, в то время как традиционно приходилось приобретать дорогостоящие "универсальные" системы, которые либо намного превосходили требования их владельцев, либо быстро устаревали и их приходилось заменять, что требовало больших усилий и средств. Гибкая, сравнительно недорогая архитектура позволит решать более сложные проблемы с привлечением суперкомпьютерных ресурсов. Модульная технология является перспективной благодаря возможности постепенного и своевременного наращивания мощности систем для удовлетворения постоянно растущих требований потребителей, обеспечивая конкурентоспособность. В настоящий момент единая система масштабируется до 512 процессоров и 1 Тб оперативной памяти , а кластерное решение на базе NUMAflex до нескольких тысяч процессоров и терабайт памяти.
Другим примером архитектуры с неоднородным доступом к памяти может служить NUMA-Q [23] корпорации
IBM. IBM NUMA-Q составлена из блоков, содержащих по 4 процессора, кэши, память, шины ввода/вывода, имеющих доступ к высокоскоростному соединению IQ-Link, которое обеспечивает быстрый доступ к памяти и практически прозрачно для ОС и приложений. Технология несомненно продолжит обеспечивать быстрое увеличения производительности. Эта перспектива благоприятствует NUMA-Q архитектуре, так как она легко адаптируется к новейшим технологиям и компонентам.
Параллельные векторные системы (PVP)
Основным признаком таких систем является наличие векторно-конвейерных процессоров. Такие процессоры являются специализированными и дорогостоящими, их производят в очень ограниченных количествах, что противоречит утвердившейся тенденции использования микропроцессоров, микросхем памяти и других компонентов, массовый выпуск которых освоен промышленностью. Это привело к вытеснению в последнее время векторно-параллельных суперкомпьютеров массивно-параллельными системами. Однако развитие PVP-архитектур не останавливается. Так, например, разработку нового векторного суперкомпьютера Cray SV2 фирмой SGI поддерживает правительство США. CRAY SV2 будет масштабироваться до нескольких десятков терафлоп.
Хорошим примером современного векторного суперкомпьютера может служить NEC SX-5 [12] с пиковой производительностью 5 TFLOP, обладающий большими потенциальными возможностями и высокой надежностью.

4
Еще одним примером векторно-параллельных суперкомпьютеров является серия VPP от Fujitsu [21].
Процессорный элемент состоит из векторного и скалярного блоков. Векторный блок имеет очень высокую производительность 9,6 Гфлопс. Скалярное устройство имеет VLIW (very large instruction word) RISC архитектуру.
Число процессорных элементов может доходить до 128 ( до 512 в некоторых случаях). Объем памяти на один процессорный элемент составляет до 16 Gb. Всеми процессорными элементами можно управлять по отдельности, можно управлять группами процессорных элементов или всей системой в целом. Процессоры связаны коммутаром c возможностью передавать данные во время вычислений (пропускная способность составляет 3,2 Gb/sec).
В применениях, требующих высокой пропускной способности оперативной памяти, суперкомпьютеры PVP- архитектуры по-прежнему сильно опережают своих конкурентов. Поэтому на операциях, для которых характерна плохая локализация данных в кэше, лучше применять PVP-системы. Примером таких операций могут служить операции "сборки/разборки" (gather/scаtter), когда производиться не последовательное циклическое обращение к элементам массива данных. Говоря о векторно-параллельных компьютерах не стоит забывать о том, что они служили источником архитектурных идей для компьютеров других классов: векторные операции с векторами длиной 2 элемента были введены, например в AMD 3DNOW! и расширение KATMAI в Pentium III.
Суперкомпьютеры NEC, CRAY традиционно ориентированы на решение задач "великого вызова" (Grand
Challenges): аэрокосмическая и автомобильная промышленность, предсказание погоды и др.
Вероятно, спрос на векторно-параллельные суперкомпьютеры останется достаточно высоким по крайней мере еще несколько лет, поскольку в ряде применений (например, вопросы национальной безопасности) важна производительность, а не соотношение цена/производительность, которое для PVP-систем очень высоко.
Кластеры.
Фактически кластеры представляют собой набор из нескольких ЭВМ, соединенных через некоторую коммуникационную структуру. В качестве такой структуры может выступать обычная компьютерная сеть (на основе сетевой технологии Ethernet, Token Ring), однако из соображений производительности желательно иметь высокоскоростные каналы на основе специализированных технологий (Memory Channel (свыше 100 Мб/с), Myrinet
(140 Мб/с), SCI). Кластеры могут использоваться для построения высоконадежных систем с уровнем готовности
99,999% [13] или для проведения суперкомпьютерных вычислений. В последнем случае на первый план выходит не высокая доступность системы, а быстродействие и способность эффективно распараллелить решаемую задачу.
Высокая производительность, которая теоретически достижима при выполнении вычислений на множестве машин, может быть существенно снижена из-за задержек и низкого быстродействия межсоединений узлов кластера.
Решение на базе высокоскоростного коммуникационного канала стоит недешево, однако по сравнению с традиционными коммерческими суперкомпьютерами, кластер на базе стандартных процессоров гораздо более экономичен. MPP-, SMP-, PVP-системы часто недоступны для многих научных и образовательных учреждений именно вследствие их высокой цены. Широкое распространение бесплатной ОС Linux и существенное повышение производительности персональных компьютеров в последние годы сделало возможным создание кластеров из общедоступных компьютеров. Примерами могут служить кластер стоимостью 40000 $ их 12 двухпроцессорных компьютеров на базе PENTIUM-III/500 MHz, установленный в НИИВЦ МГУ, а также кластерная система "Паритет" в Институте Высокопроизводительных Вычислений и Баз данных (ИВВиБД). Кластерные системы благодаря возможности наращивания числа узлов и отсутствию единой ОС обладают исклютельно хорошей масштабируемостью, что особенно важно в условиях быстрого роста требований к производительности системы.
Основной проблемой является обеспечение реальной масштабируемости, которая означает наличие в системе динамической балансировки нагрузки узлов, так чтобы при добавлении новых узлов в кластер программное обеспечение оптимально распределялось в расширенной системе.
Мета-компьютинг.
В последнее время организация распределенных вычислений в сети Internet становится все более популярной. В рамках сети создается мета-компьютер-виртуальный компьютер, объединяющий вычислительные ресурсы пользователей, который может и не иметь постоянной конфигурации, поскольку технология мета-компьютинга[ ] позволяет включать и исключать отдельные компоненты с сохранением непрерывного функционирования всей системы в целом. Уже существует огромное количество исследовательских проектов [ ], объединяющих десятки тысяч людей по всему миру. Мета-компьютинг является перспективным способом решения некоторого класса задач (в основном поискового и переборного типа), особенно если учесть увеличение числа пользователей, имеющих постоянное соединение с Internet.


Самые высокопроизводительные суперкомпьютеры.


5
На сегодняшний день существуют пять основных проектов по построению суперкомпьютеров высокой производительности. Все эти проекты входят в программу американского правительства «Ускоренная стратегическая компьютерная инициатива» ASCI. В соответствии с этой программой каждые 18 месяцев производительность разрабатываемых супер – ЭВМ должна увеличиваться в 3 раза, и к 2004 году достигнуть 100 триллионов операций с плавающей точкой в секунду (100 терафлопс), что иллюстрирует рисунок 1.
Проект Option Red
В конце 1996 года усилиями фирмы Intel (Intel Scalable System Division) была создана супер – ЭВМ с небывалой по тем меркам произвадительностью – 1 терафлопс.
Вся супер – ЭВМ состоит из 74 вычислительных стоек по 64 вычислительной машины (ВМ) каждая и 2 коммутационных стоек по 25 ВМ каждая. Все компьютеры использовали микропроцессор Pentium Pro с тактовой частотой 200 Мгц и 64 Мбайта оперативной памяти.
Основной набор параметров данной супер – ЭВМ:

9624 микропроцессора

500 Гбайт оперативной памяти

1,8 Тфлопс пиковой производительности

Общая стоимость проекта – 50 млн долларов [1]
Проект Option Green
Проект Option Greed основан на архитектуре RS/6000 SP корпорации IBM – масштабируемая массивно – параллельная вычислительная система «общего назначения». Эта система представляет собой набор рабочих станций RS6000 с центральным процессором POWER2, P2SC либо PowerPC с различными тактовыми частотами
(66, 77, 112, 120 и 135 Мгц).
Основной набор параметров данной супер – ЭВМ:

4096 микропроцессоров

524 Гбайта оперативной памяти

3 Тфлопса пиковой производительности

Общая стоимость проекта – 93 млн долларов [1]
Проект SGI/Cray Computing
Несколько лет назад фирма SGI/Cray Computing по заказу лаборатории Los Almos National Labs разработала терафлопсную супер – ЭВМ, с использованием микропроцессоров R10000 и архитектурой системы с неоднородным доступом к памяти.
Основной набор параметров данной супер – ЭВМ:

4096 микропроцессора

524 Гбайта оперативной памяти

4 Тфлопс пиковой производительности

Общяя стоимость проекта – 110,5 млн долларов [1]
Проект Option Blue
Не так давно фирма IBM анонсировала новые вычислительные машины RS/6000 SP2: каждый ВМ содержит до четырёх новых микропроцессоров PowerPC 604e c тактовой частотой 332 Мгц. Всего в суперкомпьютере – 4096 ВМ. Такой ВМ имеет производительность до 2,6 Гфлопс, а в целом суперкомпьютер имеет производительность более 10 Тфлопс. [1]

6
Проект фирмы DEC
Два года назад фирма DEC заключила четырёхлетний контракт стоимостью 11 млн долларов с министерством энергетики США о создании в рамках программы ASCI системы с производительностью до 100
Тфлопс. Компьютер создавался для Лос – Аламовской ядерной лаборатории и должен был базироваться на 64 – разрядных микропроцессорах Alpha фирмы DEC [1].
В настоящее время, в связи с покупкой корпорацией Qompac фирмы DEC, об этом проекте мало что слышно. Однако, внушительная мощь Qompac внушает некоторый оптимизм по данному вопросу.
В заключении хотелось бы сказать несколько слов об отечествннных разработках супер компьютера. По инициативе Российской Академии наук (РАН) и Министерства науки и технологии Российской Федерации была разработана и выполнена «Комплексная программа по созданию многопроцессорных вычислительных систем
(МВС) и параллельным вычислительным технологиям» [2,5].
В рамках этой программы была разработана система МВС – 100, образцы которой несколько лет успешно эксплуатируются в институтах РАН и ряде других ведомств. А также МВС – 1000, которая является усовершенствованый моделью МВС – 100, с производительностью на уровне триллиона операций в секунду [2].
IBM открывает 100-миллионный исследовательский проект для построения петафлопного суперкомпьютера
Проект компании IBM.
Целью этого нового исследовательского проекта является построение суперкомпьютера, в 500 и более раз превосходящего по производительности самые мощные компьютеры сегодняшнего дня.
Данный компьютер под названием "Blue Gene" будет иметь производительность порядка 1 PETAFLOPS
(10 15
операций в секунду). Данная система будет использоваться для изучения "сворачивания" человеческих белков
(protein fold), что является одной из фундаментальных проблем биологии и одной из "больших задач", требующих применения суперкомпьютеров. Для получения столь высокой производительности IBM планирует использовать качественно новую архитектуру, названную SMASH ("Simple, Many and Self-Healing").
Предполагается, что каждый отдельный процессор Blue Gene будет иметь производительность порядка 1 GFLOPS.
32 таких процессора будут помещены на один кристалл, а компактная плата размером 2 на 2 фута будет вмещать 64 таких чипа, т.е. одна плата будет иметь производительность 2 TFLOPS и в быстродействии не будет уступать мощнейшим суперкомпьютерам ASCI, занимающим 8000 квадратных метров плошади. 8 таких плат будут помещены в 6-футовую стойку, а вся система будет состоять из 64 стоек с суммарной производительностью в 1
PETAFLOPS.
Нейронные сети.
Первые однослойные нейронные сети стали известны сравнительно недавно, примерно с 40 – х годов и эффект от их применения был незначительный. Однако уже в восмидесятых годах, всвязи с открытием методов обучения многослойных сетей, интерес к нейросетям резко возрос [4].
Сейчас нейронным сетям уделяется особое внимание. Компьютер основанный на нейронных цепях способен решать задачи, в принцепи не решаемые на известных типах вычислительных машин. Даже самый мощный суперкомпьютер плохо справляется с распознованием зашумленных образов (отпечатки пальцев, сетчатка глаза, форма лица и т.д.), сложных данных и оценки их нелинейных связей. Из вышесказанного можно сделать вывод: нейрокомпьютеры по сложности и важности выполняемых задач стоят на равне и даже выше обычных супер – ЭВМ и их дальнейшее развитие принесёт пользы не меньше, чем многопроцессорные суперкомпьютеры
[3].
Список литературы.
1.
Корнеев В.В. Параллельные вычислительные системы. – М., 1999. – 311 с.
2.
Забродин А.В. Параллельные вычислительные технологии. Состояния и перспективы. – М. 1999. – 20 с.
3.
Терехов С.А., Воленко Е.В. Генетическая оптимизация нейронных сетей. – Снежинск, 2000 – 11 с.
4.
Потапенко А.М., Юрченко А.Г. Подход к построению систем, основанных на нейросетях // Методы и средства систем обработки информации. Курск: Курский Государственный университет., 1997., 27 – 33 с.
5.
Игнатьев В.М. Афанасьева Н.Ю. Планирование параллельных вычислительных процессов в однородных многопроцессорных системах. – Тула, 1998. – 77 с.
6.
М. Кузьминский. Современные суперкомпьютеры: состояние и перспективы. Открытые Системы #06/95.
7.
Параллельные компьютеры с распределенной памятью. COMPUTERWORLD РОССИЯ #22/1999 8.
Воеводин В.В. Архитектура массивно-параллельных компьютеров (на примере CRAY T3D).
9.
Кузьминский М. MPP-системы Cray T3E/CrayT3D. COMPUTERWORLD РОССИЯ #14/96.
10.
Sizing Up Parallel Architectures http://www.citforum.ru/koi/hardware/articles/art_5.shtml
11.
Коваленко Е. Система Sequent NUMA-Q. Открытые системы #02/97 12.
Кузьминский М. Векторно-параллельные суперкомпьютеры NEC. Открытые системы #07/99

7 13.
Дубова Н. Кластеризация массовых серверных систем. Открытые системы #02/99 14.
IBM builds world’s fastest supercomputer http://www.rs6000.ibm.com/resource/pressreleases/2000/Jun/asci_white.html
15.
RS/6000 Large Scale Servers http://www.rs6000.ibm.com/hardware/largescale/
16.
IBM Blue Gene http://www.research.ibm.com/news/detail/architecture_fact.html
17.
Reports names IBM #1 in supercomputing http://www.rs6000.ibm.com/resource/pressreleases/2000/Jun/
18.
TOP 500 www.top500.org
19.
Business intelligence solutions with RS/6000 SP parallel processing http://www.rs6000.ibm.com/solutions/bi/brief.html
20.
Scientific and technical computing with RS/6000 SP http://www.rs6000.ibm.com/solutions/stc/brief.html
21.
VPP5000 http://www.fujitsu.co.jp/hypertext/Products/Info_process/hpc/vpp5000e/
22.
Sgi NUMAflex http://www.sgi.com/global/ru/newsroom/2000/0725_numaflex.html
23.
NUMA Q-2000 http://www.sequent.com/whitepapers/numa_arch.html http://www.sequent.com/whitepapers/numa_arch2.html

Document Outline

  • Введение
  • Симметричные мультипроцессорные системы (SMP).
  • Массивно-параллельные системы (MPP)
  • Параллельные векторные системы (PVP)
  • Кластеры.
  • Мета-компьютинг.
  • Самые высокопроизводительные суперкомпьютеры.
    • Проект Option Red
    • Проект Option Green
    • Проект SGI/Cray Computing
    • Проект Option Blue
    • Проект фирмы DEC
  • Нейронные сети.
  • Список литературы.


Поделитесь с Вашими друзьями:


База данных защищена авторским правом ©nethash.ru 2017
обратиться к администрации

войти | регистрация
    Главная страница


загрузить материал