Игорь Н. Бекман компьютеры в информатике



Скачать 344.63 Kb.
Pdf просмотр
страница2/2
Дата13.02.2017
Размер344.63 Kb.
Просмотров691
Скачиваний0
1   2
1845. Выдан патент на счетный прибор 3. Я. Слонимского - суммирующую машину Снаряд для сложения и вычитания, за которую автор получил Демидовскую премию.
1846. Создан «счислитель Куммера» в котором вместо зубчатых колее использовались кремальеры. По его принципу в 1949 г. в СССР была создана машина "Прогресс.
1847. Английский математики логик Джорж Буль в работе 1847 Математический анализ логики изложил основы так называемой булевой алгебры, идеи которой он развил в вышедшей в работе 1854 Исследование законов мышления. Дж. Буля считают основоположником современной математической логики.
1850. В США выдан патент Д. Пармелю на первую клавишную суммирующую машину.
1857. В США Томас Хилл создает первую в мире двухразрядную машину .
1860. АН. Больман создает новый вариант русских счётов. С 1863 до конца XIX в. Из США и Англии распространяются современные ротационные печатные машины, совершенствованию которых служило изобретение В. Буллоком (США) устройства, печатавшего на бумажной ленте с укрепленных на цилиндре печатных знаков.
1864-1865 гг. - Дж. К. Максвелл публикует работу Динамическая теория поля, в которой даётся точное определение электромагнитного поля, начинается эра электродинамической картины мира - теория Максвелла приобретает законченный вид. http://profbeckman.narod.ru/EVM

1867. Владимир Яковлевич Буняковский вице-президент Российской академии наук создает счётный механизм, основанный на принципе действия русских счётов.
1867. Американский топограф КЛ. Шоулз изобретает первую практическую пишущую машинку, которую с х гг. широко производит машиностроительная фабрика Ф. Ремингтона, и машинка получает наименование «Ремингтон».
1868. Чешский художник, ученый и изобретатель Я. Гусник изобретает фототипию (репродукция изображений. Независимо от него в 1869 в России фотограф В. Я. Рейнгард и физик К. Д. Низовский изобретают фототипию (русское название «светопечать»).
1868-1869. - Русский изобретатель П. П. Княгинский построил первую наборную машину – автомат- наборщик. На этом принципе в Англии А. Мэкки встроит движимую паром наборную машину
Вторая половина XIX в. И. А. Вышнеградский - ученик известного русского математика МВ. Остроградского в ряде работ заложил основания теории автоматического регулирования.
1873. А. Мей (Англия) обнаружил уменьшение сопротивления селеновой изоляции телеграфного кабеля даже при свете Луны, что послужило началом создания фоторезисторов.
1875. Лондонский инженер У. Смит изготовил первый в мире полупроводниковый прибор-фотометр.
1876. Американский изобретатель А. Г. Белл получает патент на изобретение телефона
1877. Немецкий математик Эрнст Шредер опубликовал работу Алгебра логики.
1878. А. Г. Белл совместно с Тейнтером провел первый в мире сеанс беспроволочной связи на расстоянии
213 мс помощью фотофона - устройства, соединяющего в себе фотометр и телефон .
1878. Русский математики механик ПЛ. Чебышев создает суммирующий аппарат с непрерывной передачей десятков, а в 1881 приставку к нему для умножения и деления.
1880. ВТ. Однер создает в России арифмометр с зубчаткой с переменным числом зубцов, а в 1890. налаживает массовый выпуск усовершенствованных арифмометров, которые впервой четверти XIX в. были основными математическими машинами, нашедшими применение во всем мире. Их модификация Феликс выпускалась в СССР дох гг.
1884-1887. летний американец Ю. Д. Фельт разрабатывает и совместно с Р. Таррантом производит счетную клавишную машину «Комптометр».
1885. Американец У. Бэрроуз заканчивает машину, которая печатает исходные цифры и результат вычисления . Вон совместно с Т. Меткалфом, Р. М. Скраггсом и X. Паем создает первую в мире фирму по производству счётных машин.
1888. Американец Герман Холлерит построил статистический табулятор с целью ускорить обработку результатов переписи населения. В табуляторе информация, нанесенная на перфокарты, расшифровывалась электрическим током. Машина Холлерита имела большой успех, на её основе было создано преуспевающее предприятие, которое в 1924 году превратилась в фирму IBM - крупнейшего производителя современной вычислительной техники. Эта корпорация развила технологию перфокарт в мощный инструмент для деловой обработки данных и выпустила обширную линию специализированного оборудования для их записи. К 1950 технология IBM стала вездесущей в промышленности и правительстве.
XIX в, вторая половина. Французский художник постимпрессионист Жорж Сера предлагает метод живописи под названием пуантилизм, на электронной аналогии которого основана работа растрового дисплея.
Начало х гг. В России С. Лаптев, в Германии Г. Мейзенбах, в Финляндии Ф. Эглофштейн ив СШАМ.
Леви независимо друг от друга изобретают растр - дробление с помощью специальной сетки изображения на точки.
1892. У. Барроуз выпустил первый коммерческий сумматор. СВ Цюрихе фирма "Ганс Эгли" выпускает в течение 40 лет счетную машину Болле-Штайгера "Миллионер.
25.04.1895. АС. Поповна заседании физического отделения Русского физико-химического общества сделал доклад Об отношении металлических порошков к электрическим колебаниям, а 12.03.1886 продемонстрировал первую в мире радиопередачу на расстоянии 250 м.
1895. Выходит в свет фундаментальная статья голландского ученого ГА. Лоренца Опыт теории электрических и оптических явлений, в которой он даёт систематическое изложение электронной теории строения вещества.
1897. Английский физик Дж. Томсон сконструировал электронно-лучевую трубку и се помощью исследовал отклонение катодных лучей (потока электронов) в магнитном и электрическом полях.
Конец XIX в. Португальский учёный А. ди Пайва и независимо от него русский учёный ПИ. Бахметьев выдвигают принцип последовательной передачи элементов изображения, принятый затем в телевидении. В http://profbeckman.narod.ru/EVM

1884 немецкий учёный П. Нипков предложил для этой цели использовать специальный диск Нипкова» с отверстиями.
1900. Под руководством АС. Попова была осуществлена первая практическая радиопередача на расстоянии
47 км при спасении броненосца «Генерал-адмирал Апраксин», севшего на камни вблизи острова Гогланд в Финском заливе Балтийского моря.
1901. Итальянский физик Г. Маркони установил радиосвязь между Европой и Америкой.
1904. Известный русский математик, кораблестроитель академик АН. Крылов предложил конструкцию машины для интегрирования обыкновенных дифференциальных уравнений которая была построена в 1912 г.
1904. Английский физик ДА. Флеминг получил патент на электронный двухэлектродный прибор- диод для выпрямления колебаний.
1906. Американские физики Л. де Форест и Р. Либен сконструировали трехэлектродный вакуумный прибор
- электронный вакуумный триод.
1907. Американский инженер Дж. Пауэрс сконструировал автоматический карточный перфоратор.
1907. Русский учёный Б. Л. Розинг заявил патент на использование в телевидении электронно-лучевой трубки.
1916. Русский изобретатель ЕЕ. Горин подаёт в Комитет по техническим делам заявку на электрофотографический аппарат. Электрофотография в настоящее время широко применяется в различных областях информатики.
1918. Советский ученый МА. Бонч-Бруевич изобретает ламповый триггер. В 1919 независимо от МА.
Бонч-Бруевича такой же прибор изобрели американцы У. Икклз и Ф. Джордан.
1920. Американский исследователь Ю. Лилиенфельд высказал идею создания полупроводникового прибора
- усилителя электрических сигналов.
1928. Американский математик Джон фон Нейман сформулировал основы теории игр, ныне широко применяемых в теории и практике машинного моделирования сложных ситуаций.
1929. АИ. Волков, русский инженер, получил патент на электронную систему цветного телевидения. С 1930-х такие компании как Friden, Marchant и Monro начали выпускать настольные механические калькуляторы, которые могли складывать, вычитать, умножать и делить. Словом «computer»
вычислитель») называлась должность - это были люди, которые использовали калькуляторы для выполнения математических вычислений.
Рис. 4. Арифмометр Феликс - самый распространённый в СССР. Выпускался в 1929-1978.
1931. Французский инженер Р.-Л. В. Валтат выдвигает идею использования двоичной системы счисления при создании механических счетных устройств.
Середина х гг. XX столетия. В результате разработок В. К.
Зворыкина и Ф. Франсуорта в США, К- Свинтона в Великобритании, В. П. Грабовского, СИ. Катаева, А. П.
Константинова, Б. Л. Розинга, П.В. Тимофеева, П. В. Шмакова в СССР появляются первые системы электронного телевидения.
1928-1933 гг. Английский инженер-математик Л. Д. Комри создает счетные машины для табулирования функций, вычисляет и печатает семи - и восьмизначные таблицы тригонометрических функций с шагом в одну секунду дуги. Его первая разностная машина "Нёйшн" (1933 г) табулировала со скоростью до 13 знаков.
1932. Советский ученый И. Е. Тамм, впоследствии лауреат Нобелевской премии, ввёл понятие поверхностных состояний полупроводника – уровней Тамма», играющих большую роль в работе полевых транзисторов и других полупроводниковых приборов.
1936. Английский математик А. Тьюринг и независимо от него американский математики логик Э. Л. Пост уроженец Польши) выдвинули и разработали концепцию абстрактной вычислительной машины. "Машина
Тьюринга" - гипотетический универсальный преобразователь дискретной информации, теоретическая вычислительная система. Тьюринг и Пост показали принципиальную возможность решения автоматами любой проблемы при условии возможности ее алгоритмизации с учетом выполняемых ими операций.
1936. Англичанин Алан Тьюринг опубликовал основополагающую работу О вычислимых числах, заложив теоретические основы теории алгоритмов.
1936. Конрад Цузе (Зюс) - немецкий инженер, работая в изоляции в нацистской Германии, начал работу над своим первым вычислителем (автоматической цифровой машиной с программным управлением на http://profbeckman.narod.ru/EVM
механических элементах) серии Z, имеющим память и возможность программирования. Созданная, в основном, на механической основе, но уже на базе двоичной логики, модель Z1, завершённая в 1938, таки не заработала достаточно надёжно, из-за недостаточной точности выполнения составных частей. Следующая машина Цузе Z3 была завершена в 1941. Она была построена на телефонных реле и работала вполне удовлетворительно. Тем самым, Z3 стала первым работающим компьютером, управляемым программой. Во многих отношениях Z3 была подобна современным машинам, в ней впервые был представлен ряд новшеств, таких как арифметика с плавающей запятой. Замена сложной в реализации десятичной системы на двоичную, сделала машины Цузе более простыми и, а значит, более надёжными; считается, что это одна из причин того, что Цузе преуспел там, где Бэббидж потерпел неудачу. Программы для Z3 хранились на перфорированной плёнке. Условные переходы отсутствовали, нов х было теоретически доказано, что Z3 является универсальным компьютером. В двух патентах 1936, Цузе упоминал, что машинные команды могут храниться в той же памяти что и данные - предугадав архитектуру фон
Неймана. Реализовано это только в 1949 в британском EDSAC.
1937. Американский физик болгарского происхождения Дж. В. Атанасов формулирует принципы автоматической вычислительной машины на ламповых схемах для решения систем линейных уравнений.
1937. Клод Шеннон показал, что существует соответствие один-к-одному между концепциями булевой логики и некоторыми электронными схемами, которые получили название логические вентили, которые в настоящее время повсеместно используются в цифровых компьютерах. Работая в МТИ, в своей основной работе он продемонстрировал, что электронные связи и переключатели могут представлять выражение булевой алгебры. Так своей работой A Symbolic Analysis of Relay and Switching Circuits он создал основу для практического проектирования цифровых схем.
1938. Американский математики инженер К. Шэннон, а в 1941 русский ученый В. И. Шестаков показали возможности аппарата математической логики для синтеза и анализа релейно-контактных переключательных схем.
1938. - Американец Р. Риш демонстрирует механическое говорящее устройство.
1939. Американцы Риш, Дадли и Уоткинс демонстрируют на выставке в Нью-Йорке электрическую говорящую машину- синтезатор речи – Вкодер».
1939. В США инженером Дж. Стибницем закончена начатая в 1937 г. работа над релейной машиной «Model
K» фирмы Белл, которая выполняла арифметические операции над комплексными числами в двоично- пятиричной системе их представления. Это был релейный интерполятор, управляемый программной перфолентой. В конце 1938 года Bell Labs санкционировала исследования по новой программе, возглавляемые Стибницем. В результате этого, 8.01.1940 был завершён Complex Number Calculator, умеющий выполнять вычисления над комплексными числами. 11.09.1940 в Дартмутском колледже, на демонстрации входе конференции Американского математического общества, Стибниц отправлял компьютеру команды удалённо, по телефонной линии с телетайпом. Это был первый случай, когда вычислительное устройство использовалось удалённо. Среди участников конференции и свидетелей демонстрации были Джон фон Нейман, Джон Моучли и Норберт Винер, написавший об увиденном в своих мемуарах. В 1944-1946 была создана универсальная вычислительная машина Модель У на 9000 реле, соответствующая классической беббиджевской структуре и выполняющая операции сложения за 0,3 с умножения с деления с. Она позволяла вычислять ряд функций.
1939. Джон Атанасов и Клиффорд Берри из Университета штата Айова разработали Atanasoff-Berry
Computer (ABC). Это был первый в мире электронный цифровой компьютер. Конструкция насчитывала 300 электровакуумных ламп, в качестве памяти использовался вращающийся барабан. Машина ABC не была программируемой, но она была первой, использующей электронные лампы в сумматоре. В 1939 в Endicott
laboratories в IBM началась работа над Harvard Mark I. Известный как Automatic Sequence Controlled
Calculator, Mark I был электромеханическим компьютером общего назначения, созданного с финансированием IBM, под руководством гарвардского математика Горварда Айкена. Компьютер создан под влиянием Аналитической машины Ч. Бэббиджа, с использованием десятичной арифметики, колёс для хранения данных и поворотных переключатей в дополнение к электромагнитным реле. Машина программировалась с помощью перфоленты, и имела несколько вычислительных блоков, работающих параллельно. Машина была не совсем Тьюринг-полной. Mark I перенесён в Гарвардский университет, где начал работу в мае 1944. Перед Второй мировой войной механические и электрические аналоговые компьютеры считались наиболее современными машинами. Они использовали преимущества того что математические свойства явлений малого масштаба - положения колёс или электрическое напряжение и ток - подобны математике других физических явлений, например таких как баллистические траектории, инерция, резонанс, перенос http://profbeckman.narod.ru/EVM
энергии, момент инерции и т. п. Они моделировали эти и другие физические явления значениями электрического напряжения и тока.
Рис. 5. Дифференциальный анализатор, Кембридж, 1938.

Во время Второй мировой войны, Великобритания достигла определённых успехов во взломе зашифрованных немецких переговоров. Код немецкой шифровальной машины «Энигма» был подвергнут анализу с помощью электромеханических машин, которые носили название бомбы. Такая бомба, разработанная Аланом Тьюрингом и Гордоном
Уэлшманом, исключала ряд вариантов путём логического вывода, реализованного электрически. Большинство вариантов приводило к противоречию, несколько оставшихся уже можно было протестировать вручную. Немцы также разработали серию телеграфных шифровальных систем, несколько отличавшихся от
«Энигмы». Машина Lorenz SZ 40/42 использовалась для армейской связи высокого уровня. Первые перехваты передач с таких машин были зафиксированы в 1941. Для взлома этого кода, в обстановке секретности, была создана машина Колосс (Colossus). Спецификацию разработали профессор Макс
Ньюман и его коллеги сборка Colossus Mk I выполнялась в исследовательской лаборатории Почтового департамента Лондона. Колосс стал первым полностью электронным вычислительным устройством. В нём использовалось большое количество электровакуумных ламп, ввод информации выполнялся с перфоленты. Колосс можно было настроить на выполнение различных операций булевой логики, но он не являлся Тьюринг-полной машиной. Информация о существовании этой машины держалась в секрете дох гг. Уинстон Черчиль лично подписал приказ о разрушении машины на части, не превышающие размером человеческой руки. Из-за своей секретности, Колосс не упомянут во многих трудах по истории компьютеров. Этапы развития электронно-вычислительных систем
1940. В США проведен эксперимент по управлению на расстоянии вычислительной машиной «Белл-Г», сконструированной Дж. Стибницем.
1940. - Под руководством Джона фон Неймана разработан компьютер MANIAC (Mathematical Analyzer
Numerical and Computer).
1941. - В Германии введены в эксплуатацию первые в мире универсальные цифровые вычислительные машины на электромеханических элементах «Зюс-2» и «Зюс-3».
1942. - Дж. Стибниц сконструировал вычислительное устройство с программным управлением
1942. - Американский инженер-кибернетик ДБ. Паркинсон сконструировал вычислительный автомат, который в сочетании с радарами и зенитной артиллерией использовался для защиты Лондона от немецкий ракет "Фау-1".
1943 - Под руководством Бистчли создается первый электронный компьютер "Colossus-1".
1944 - Американский математик Горвард Айкен (см. форзац IV) сконструировал в Гарвардском университете автоматическую вычислительную машину "Маркс программным управлением на релейных и механических элементах.
1944 - Дж. Эккерт предложил создавать машинную память на ультразвуковых линиях задержки. е гг. - Ф. Вильяме, Дж. Форстер, А. Хэфа предложили запоминающее устройство на основе электронно-лучевых трубок.
1943. Под руководством американца Говарда Айкена по заказу и при поддержке фирмы IBM создан Mark-1 - первый программно-управляемый компьютер. Он был построен на электромеханических реле, а программа обработки данных вводилась с перфоленты.
Рис. 6. ЭНИАК выполнял баллистические расчёты и потреблял мощность в 160 кВт.
1945. Американцы Джон Преспер Эккерт и Джон Уильям Мочли создали первый мощный электронно-цифровой компьютер «Эниак» (ENIAC - Electronic
Numerical Integrator and Calculator). Американский ENIAK, который часто называют первым электронным компьютером общего назначения, доказал применимость электроники для масштабных вычислений. Это стало ключевым моментом в разработке вычислительных машин, прежде всего из-за огромного прироста вскорости вычислений, но также и по причине появившихся возможностей для миниатюризации. Эта машина была враз быстрее, чем все другие машины того времени. Разработка «ЭНИАК» продлилась с 1943 до
1945. В то время, когда был предложен данный проект, многие исследователи были убеждены, что среди тысяч хрупких электровакуумных ламп многие будут сгорать настолько часто, что «ЭНИАК» будет слишком много времени простаивать в ремонте, и тем самым, будет практически бесполезен. Тем не менее, на реальной машине удавалось выполнять несколько тысяч операций в секунду в течение нескольких часов, до очередного сбоя из-за сгоревшей лампы. «ЭНИАК» удовлетворяет требованию полноты по Тьюрингу. Но программа для этой машины определялась состоянием соединительных кабелей и переключателей - огромное отличие от машин с хранимой программой, появившихся позже.

Рис. 7. Британский Colossus был использован для взлома немецких шифров входе Второй мировой войны.

1945. Переработав идеи Эккерта и Мочли, а также, оценив ограничения
«ЭНИАК», американец Джон фон Нейман написал отчёт Предварительный доклад о машине Эниак», описывающий проект компьютера (EDVAC), в котором сформулировал принципы работы и компоненты современного программно-управляемого компьютера. В ЭВМ программа, и данные должны храниться в единой универсальной памяти. Нейман определил четыре основные компоненты Арифметико-Логическое Устройство (АЛУ устройство управления память устройство ввода/вывода информации. С тех пор архитектура подобных компьютеров называется фон-неймановской. Принципы Неймана послужили основой для разработки первых по-настоящему гибких, универсальных цифровых компьютеров.
1947. Изобретение транзистора.
1948. Первая работающая машина с архитектурой фон Неймана – «Baby» - Small-Scale Experimental Machine Малая экспериментальная машина) - создана в Манчестерском университете.
1949. Манчестерский Марк I - полная система, с трубками Уильямса и магнитным барабаном в качестве памяти, а также с индексными регистрами.
1949. Австралийская CSIRAC выполнила свою первую тестовую программу.
1950. EDSAC, разработанный и сконструированный в Кембриджском университете, - другой претендент название первый цифровой компьютер с хранимой программой. Он уже мог использоваться для решения реальных проблем. EDSAC был создан на основе архитектуры компьютера EDVAC, наследника ENIAC. В отличие от ENIAC, использовавшего параллельную обработку, EDVAC располагал единственным обрабатывающим блоком. Такое решение было проще и надёжнее, поэтому такой вариант становился первым, реализованным после каждой очередной волны миниатюризации. Многие считают, что Манчестерский Марк I /EDSAC/EDVAC стали Евами, от которых ведут свою архитектуру почти все современные компьютеры.
1950. ЭВМ МЭСМ (Малая электронная счётная машина) - первый универсальный программируемый компьютер в континентальной Европе, созданный командой учёных под руководством Сергея Алексеевича
Лебедева из Киевского института электротехники СССР, Украина. Она содержала около 6000 электровакуумных ламп и потребляла 15 кВт. Машина могла выполнять около 3000 операций в секунду.
1951. Британский компьютер LEO I впервые в мире стал регулярно использоваться для рутинной офисной работы.
1951. Первая машина Ferranti Mark I доставлена в манчестерский университет в феврале 1951, и девять других проданы в 1951-1957.
1951. UNIVAC 1 установлен в Бюро переписи населения США. Машина разработана в компании Remington
Rand, которая продала 46 таких машин по цене в 1 млн $ за каждую. UNIVAC первый массово производимый компьютер. Состоял из 5200 электровакуумных ламп, и потреблял 125 кВт энергии. Использовались ртутные линии задержки, хранящие 1000 слов памяти, каждое по 11 десятичных цифр плюс знак (72-битные слова. В отличие от машин IBM, оснащаемых устройством ввода с перфокарт, UNIVAC использовал ввод с металлизированной магнитной ленты, благодаря чему обеспечивалась совместимость с некоторыми существующими коммерческими системами хранения данных.
1953. Начало серийного производства ЭВМ Стрела на Московском заводе счётно-аналитических машин. Стрела относится к классу больших универсальных ЭВМ стр хадресной системой команд. ЭВМ имела быстродействие 2000-3000 операций в секунду. В качестве внешней памяти использовались два накопителя на магнитной ленте емкостью 200 000 слов, объём оперативной памяти - 2048 ячеек по 43 разряда. Компьютер состоял из 6200 ламп, 60000 полупроводниковых диодов и потреблял 150 кВт энергии. http://profbeckman.narod.ru/EVM

1955. Морис Уилкс изобретает микропрограммирование, принцип, который позднее широко используется в микропроцессорах самых различных компьютеров. Микропрограммирование позволяет определять или расширять базовый набор команд с помощью встроенных программ.
1956. IBM впервые продаёт устройство для хранения информации на магнитных дисках - RAMAC (Random
Access Method of Accounting and Control). Оно использует 50 металлических дисков диаметром 24 дюйма, по
100 дорожек с каждой стороны. Устройство хранило до 5 МБ данных и стоило поза МБ. (В 206 подобные устройства хранения данных – жёсткие диски - стоили 0,001 $ за Мб.)
1956. FORTRAN - первый реализованный язык программирования высокого уровня. Создан в 1954-1957 группой программистов под руководством Джона Бэкуса в корпорации IBM (язык Планкалкюль, претендующий на пальму первенства, был изобретен ещё в 1945, ноне был реализован вплоть до 2000). Название FORTRAN является аббревиатурой от FORmula TRANslator, те. переводчик формул. Язык Фортран широко используется до сих пор - в первую очередь для научных и инженерных вычислений.
1958. Двое учёных, живущих в совершенно разных местах, изобрели практически идентичную модель интегральной схемы. Один из них, Джек Килби, работал на Texas Instruments, другой, Роберт Нойс, был одним из основателей небольшой компании по производству полупроводников Fairchild Semiconductor. Обоих объединил вопрос Как в минимум места вместить максимум компонентов. Транзисторы, резисторы, конденсаторы и другие детали в то время размещались на платах отдельно, и учёные решили попробовать их объединить на одном монолитном кристалле из полупроводникового материала. Только
Килби воспользовался германием, а Нойс предпочёл кремний. Вони отдельно друг от друга получили патенты на свои изобретения - началось противостояние двух компаний, которое закончилось мирным договором и созданием совместной лицензии на производство чипов. После того как впустила интегральные схемы в свободную продажу, их сразу стали использовать в производстве калькуляторов и компьютеров вместо отдельных транзисторов, что позволило значительно уменьшить размер и увеличить производительность.
1959. На основе транзисторов IBM выпустила мейнфрейм IBM 7090 и машину среднего класса IBM1401. Последняя использовала перфокарточный вводи стала самым популярным компьютером общего назначения того времени в период 1960-1964 было выпущено 100 тыс. экземпляров этой машины. В ней использовалась память на 4000 символов (позже увеличенная до 16000 символов.
Рис. 8. Транзисторы, в качестве миниатюрной и более эффективной замены электровакуумным лампам, совершили революцию в вычислительной технике.
1960. Выпуск транзисторной
IBM1620, изначально только перфоленточную, но вскоре обновлённую до перфокарт. Модель стала популярна в качестве научного компьютера, выпущено 2000 экземпляров. В машине использовалась память на магнитных сердечниках объёмом до 60000 десятичных цифр.
1960. Разработан алгоритмический язык АЛГОЛ.
1960. DEC выпустила свою первую модель - PDP-1, предназначенную для использования техническим персоналом в лабораториях и для исследований.
1961. Burroughs Corporation выпустила B5000, первый двухпроцессорный компьютер с виртуальной памятью, стековой архитектурой, адресацией на основе дескрипторов, и отсутствием программирования напрямую на языке ассемблера.
1961. Начало производства компьютеров на интегральных схемах, в том числе – персональных.
1961. Первая советская полупроводниковая микросхема создана в Таганрогском радиотехническом институте, в лаборатории Л. Н. Колесова.
1963. Профессора Дартмутского колледжа Томас Курт и Джон Кемени разработали алгоритмический язык
Бейсик (BASIC - Beginner's All-purpose Symbolic Instruction Code - универсальный код символических инструкций для начинающих Basic - основной, базовый) - семейство высокоуровневых языков программирования. Язык предназначался для обучения программированию и получил широкое распространение в виде различных диалектов, прежде всего как язык для домашних микрокомпьютеров.
1964. Фирма IBM объявила о создании семейства компьютеров System-360. Это был важнейший шаг к унификации, совместимости и стандартизации компьютеров. В этом же году в серии статей о науке и технике будущего в английском журнале «New Scientist» впервые появилось словосочетание персональный компьютер (Personal Computer - PC). http://profbeckman.narod.ru/EVM

1964. Начало серийного производства в СССР полупроводниковых ЭВМ Снег и Весна. Пиковая производительность ЭВМ Снег составила 300 000 операций в секунду. Машины изготавливались на базе транзисторов с тактовой частотой 5 МГц.
1966. Начало производства БЭСМ-6 - лучшей советской ЭВМ го поколения, в которой впервые использован принцип совмещения выполнения команд (до 14 одноадресных машинных команд могли находиться на разных стадиях выполнения. Механизмы прерывания, защиты памяти и другие новаторские решения позволили использовать БЭСМ-6 в мультипрограммном режиме и режиме разделения времени. ЭВМ имела 128 Кб оперативной памяти на ферритовых сердечниках и внешнюю памяти на магнитных барабанах и ленте. БЭСМ-6 работала с тактовой частотой 10 МГц и рекордной для того времени производительностью - 1 миллион операций в секунду. Всего было выпущено 355 ЭВМ.
1970. Швейцарец Никлаус Вирт разработал язык программирования Паскаль, получивший впоследствии широкое распространение в обучении и программировании.
1971. Под руководством инженера фирмы Intel Теда Хоффа создан первый микропроцессор - разрядный
4004 или, как его назвали, компьютер водном кристалле. Он состоял из 2250 транзисторов и выполнял все функции центрального процессора универсального компьютера.
1974. На компьютерном рынке появился микрокомпьютер Altair на базе Intel 8080.
1975. Студенты Пол Аллен и Билл Гейтс реализовали интерпретатор языка Бейсик для персонального компьютера Altair. Они же основали компанию Microsoft, - крупнейший производитель программного обеспечения персональных компьютеров. Создан микропроцессор MOP-technology 6502, он состоял из 4300 транзисторов и широко использовался в персональных компьютерах. Фирма IBM представила на рынок один из первых лазерных принтеров IBM 3800.
1977. В массовое производство запущены три персональных компьютера Apple-2 (Apple Computer) на базе процессора 6502, PET (Commodore) на базе процессора 8088, TRS-80 (Tendy Corporation) на базе процессора
Z80.
1983. Фирма Apple Computer построила персональный компьютер Apple Lisa - первый компьютер, управляемый манипулятором мышь. В этом же году началось массовое использование гибких дисков дискет) как стандартных носителей информации.
1985. Первая попытка Microsoft реализовать многозадачную операционную среду для персонального компьютера на основе графического интерфейса Windows 1.01.
1988. Основатель фирмы Apple Стив Джобс со своей новой фирмой Next Computer создали компьютер Next и операционную систему Next Step. Фирмой Philips разработан стандарт записи компакт-дисков CD-I (CD-
Interactive).
1989. Тим Бернерс-Ли (Conseil Europeen pour la Recherche Nucleaire - CERN, Женева) предложил концепцию распределенной информационной системы с целью объединения знаний человечества, которую он назвал Всемирной паутиной (World Wide Web - WWW). Для её создания он объединил две существующие технологии - технологию протоколов для передачи данных и технологию гипертекста (Hypertext
Technology).
1991. Создан первый браузер (Browser) - компьютерная программа просмотра гипертекста - работавший в режиме командной строки. Его применение позволило в 1992 реализовать проект, направленный на создание бесшовного информационного пространства (Seamless Informational Area), охватывающего всю планету.
1993. Фирма Intel представила микропроцессор Pentium. Фирма Siemens представила свой нейрокомпьютер
Synapse1, мощность которого эквивалентна 8000 рабочих станций. Компьютер параллельно обрабатывает информацию от сети искусственных нейронов - идеальное устройство для решения задач по распознаванию изображений и речи.
1995. Создание универсальной многозадачной операционной системы Windows 95. Система Windows 95 стала первой графической операционной системой для компьютеров IBM PC. Впоследствии эта операционная система получила свое развитие в Windows 98. Фирма Microsoft в системе Windows 95 ввела новый стандарт самоустанавливающихся устройств (Plug & Play).
1996. С каждым новым поколением ЭВМ увеличивались быстродействие и надежность их работы приуменьшении стоимости и размеров, совершенствовались устройства ввода/вывода информации. Устройства ввода приближаются к естественному для человека восприятию информации (зрительному, звуковому, тактильному, и операция по её вводу в компьютер становится все более удобной для человека. В последней четверти ХХ века промышленные ЭВМ, а затем персональные компьютеры стали аппаратно-вычислительной основой создания многофункциональных управляющих и информационных систем. В Табл.1 приведены параметры электронно-вычислительных устройств разных поколений. http://profbeckman.narod.ru/EVM

Табл.1. Развитие ЭВМ.
Поколение Элементная база Быстродействие Программное обеспечение Применение Примеры е (1946-
1959) Электронные лампы
10-20 тыс. операций/сек Машинные языки Расчетные задачи
ЭНИАК (США,
МЭСМ (СССР, УРАЛ (СССР) е (1960-
1969) Полупроводники 100-500 тыс. операций/сек Алгоритмические языки, диспетчерские системы, пакетный режим Инженерные, научные, экономические задачи
IВМ 701 (США,
БЭСМ-6, БЭСМ-
4 СССР, Минск СССР) е (1970-
1979) Интегральные микросхемы Порядка 1 млн операций/сек Операционные системы, режим разделения времени АСУ, САПР, научно- технические задачи
IBM 360 (США,
ЕС 1030, 1060 СССР) е (1980 - наст. время)
СБИС, микропроцессоры Десятки и сотни млн. операций/сек Базы и банки данных Управление, коммуникации, АРМ, обработка текстов, графика ПЭВМ, серверы В конце го века развитие компьютерной техники пошло по двум направлениям созданием малогабаритных персональных компьютеров и создание мощных суперкомпьютеров. Современный суперкомпьютер - это мощный компьютер с производительностью несколько миллиардов операций с плавающей точкой в секунду. Суперкомпьютер представляет собой многопроцессорный и/или многомашинный комплекс, работающий на общую память и общее поле внешних устройств. Авторы термина Д.Мишель и С.Фернбач, х годах работали в Ливерморской национальной лаборатории и компании Control Data Corporation.
Рис. 9. Cray-2 - самый быстрый компьютер х годов ХХ века Термин «суперкомпьютер» вошёл в общеупотребительный лексикон благодаря распространенности компьютерных систем американца Сеймура Крея - Control Data 6600, Control Data 7600, Cray-1,
Cray-2, Cray-3 и Cray-4 (Рис. 9). Крей разрабатывал вычислительные машины, которые, по сути, становились основными вычислительными средствами правительственных, промышленных и академических научно- технических проектов США с середины х годов до 1996 года. На сегодняшний день суперкомпьютеры являются уникальными системами, создаваемыми "традиционными" лидерами компьютерного рынка, такими как IBM, Hewlett-Packard, NEC и другими, которые приобрели множество ранних компаний, вместе сих опытом и технологиями. Компания Cray Inc. по прежнему занимает достойное место в ряду производителей суперкомпьютерной техники. Большинство суперкомпьютеров х годов ХХ века оснащались векторными процессорами, К началу и середине х небольшое число (от 4 до 16) параллельно работающих векторных процессоров практически стало стандартным суперкомпьютерным решением. Типичный векторный компьютер включает в себя скалярный процессор целочисленной арифметики, функциональные блоки сложения и умножения чисел с плавающей точкой, векторный процессор и общую память. Это компьютеры, построенные по технологии разделяемая память - один поток управления - много потоков данных (Shared Memory - Single
Instruction - Multi Data). Конец хи начало х годов охарактеризовались сменой магистрального направления развития суперкомпьютеров от векторно-конвейерной обработки данных к большому и сверхбольшому числу параллельно соединенных скалярных процессоров.
Массивно-параллельные системы стали объединять в себе сотни и даже тысячи отдельных процессорных элементов, причем ими могли служить не только специально разработанные, но и общеизвестные и доступные в свободной продаже процессоры. Большинство массивно-параллельных компьютеров создавалось на основе мощных процессоров с архитектурой RISC (Reduced Instruction Set
Computer), наподобие Power PC или PA- RISC. Использование серийных микропроцессоров позволило не только гибко менять мощность установки в зависимости от потребностей и возможностей, но и значительно http://profbeckman.narod.ru/EVM
удешевить производство. Примерами суперкомпьютеров этого класса могут служить Intel Paragon, IBM SP,
Сray T3D/T3E и ряд других. В ноябре 2002 года фирма Cray Inc. анонсировала решение Cray X1 с характеристиками 52,4 Тфлопс и 65,5
Тб ОЗУ (флопс - термин от английского словосочетания Floating Point, означающего вычисления с плавающей точкой. Его стартовая цена начиналась с 2,5 миллионов долларов. Этим комплексом сразу заинтересовался испанский метеорологический центр. В это же время был опубликован список Top 500
(http://www.top500.org), в который входили вычислительные системы, официально показавшие максимальную производительность. Его возглавила "Компьютерная модель Земли" (Earth Simulator) с результатом 35,86 Тфлопс (5120 процессоров, созданная одноименным японским центром и NEC. На втором-четвертом местах со значительным отставанием расположились решения ASCI (7,7; 7,7 и 7,2
Тфлопс). Они эксплуатируются Лос-Аламосской лабораторией ядерных исследований, а созданы Hewlett-
Packard (первые два насчитывают по 4096 процессоров) и IBM (8192 процессора.
Петафлопсный рубеж (тысяча триллионов операций с плавающей запятой в секунду) компания Cray
Inc. обещает преодолеть к концу десятилетия. Схожие сроки сулят и японцы. В Токио в рамках соответствующего проекта GRAPE готовится модель GRAPE-6. Она объединяет 12 кластеров и 2048 процессоров и показывает производительность 2,889 Тфлопс (с потенциальными возможностями 64
Тфлопс). В перспективе в GRAPE-решение будет включено 20 тыс. процессоров, а обойдется оно всего в 10 миллионов долларов Однако уникальные решения с рекордными характеристиками обычно недешевы, поэтому и стоимость подобных систем никак не могла быть сравнима со стоимостью систем, находящихся в массовом производстве и широко используемых в бизнесе. Прогресс в области сетевых технологий сделал свое дело появились недорогие, но эффективные решения, основанные на коммуникационных технологиях. Это и предопределило появление кластерных вычислительных систем, фактически являющихся одним из направлений развития компьютеров с массовым параллелизмом вычислительного процесса (Massively
Parallel Processing - MPP). Вычислительный кластер - это совокупность компьютеров, объединенных в рамках некоторой сети для решения крупной вычислительной задачи. В качестве узлов обычно используются доступные однопроцессорные компьютеры, двух- или четырехпроцессорные SMP-серверы (Symmetric Multi Processor). Каждый узел работает под управлением своей копии операционной системы, в качестве которой чаще всего используются стандартные операционные системы Linux, NT, Solaris и т. п. Рассматривая крайние точки зрения, кластером можно считать как пару персональных компьютеров, связанных локальной 10-мегабитной сетью Ethernet, таки обширную вычислительную систему, создаваемую в рамках крупного проекта. Такой проект объединяет тысячи рабочих станций на базе процессоров Alpha, связанных высокоскоростной сетью
Myrinet, которая используется для поддержки параллельных приложений, а также сетями Gigabit Ethernet и
Fast Ethernet для управляющих и служебных целей. Состав и мощность узлов может меняться даже в рамках одного кластера, давая возможность создавать обширные гетерогенные (неоднородные) системы с задаваемой мощностью. Выбор конкретной коммуникационной среды определяется многими факторами особенностями класса решаемых задач, доступным финансированием, необходимостью последующего расширения кластера и т. п. Возможно включение в конфигурацию специализированных компьютеров, например файл-сервера, и, как правило, предоставлена возможность удаленного доступа на кластер через
Internet. На современном рынке представлено не так много поставщиков готовых кластерных решений. Это связано, прежде всего, с доступностью комплектующих, легкостью построения самих систем, значительной ориентацией на свободно распространяемое программное обеспечение, а также с уникальностью задач, решаемых с помощью кластерных технологий. Среди наиболее известных поставщиков стоит отметить SGI,
VALinux и Scali Computer. Летом 2000 года Корнелльский университет (США) основал Консорциум по кластерным технологиям (Advanced Cluster Computing Consortium), основная цель которого - координация работ в области кластерных технологий и помощь в осуществлении разработок в данной области. Ведущими компаниями, обеспечивающими инфраструктуру консорциума, стали крупные производители компьютерного оборудования и программного обеспечения - Dell, Intel и Microsoft. Среди других членов консорциума можно назвать Аргоннскую национальную лабораторию, Нью-Йоркский, Корнелльский и Колумбийский университеты, компании Compaq, Giganet, IBM, Kuck & Associates и другие. Из интересных российских проектов следует отметить решение, реализованное в Санкт-
Петербургском университете на базе технологии Fast Ethernet [http://www.ptc.spbu.ru]: собранные кластеры могут использоваться и как полноценные независимые учебные классы, и как единая вычислительная http://profbeckman.narod.ru/EVM
установка, решающая крупную исследовательскую проблему. В Самарском научном центре пошли по пути создания неоднородного вычислительного кластера, в составе которого работают компьютеры на базе процессоров Alpha и Pentium III. В Санкт-Петербургском техническом университете собрана установка на основе процессоров Alpha и сети Myrinet без использования локальных дисков на вычислительных узлах. В Уфимском государственном авиационном техническом университете проектируется кластер на базе двенадцати Alpha-станций, сети Fast Ethernet и ОС Linux. Технологии суперкомпьютеров и кластеров первоначально выросли в основном из научных потребностей - для решения фундаментальных и прикладных задач физики, механики, астрономии, метеорологии, сопротивления материалов и т. д, где требовались огромные вычислительные мощности. Большая производительность требуется при проектировании сложных управляемых систем (самолетов, ракет, космических станций, создании синтетических лекарств с заданными свойствами, в генной инженерии, предсказании погоды и природных катаклизмов, повышении эффективности и надежности атомных электростанций, прогнозировании макроэкономических эффектов и т.п. Довольно продолжительное время размеры вычислительных устройств постоянно уменьшались. В
1965 Гордон Мур сформулировал эмпирический закон, согласно которому производительность вычислительных систем удваивается каждые восемнадцать месяцев. Мур вывел свой эмпирический закон, построив зависимость числа транзисторов в интегральной микросхеме от времени.
Рис. 10. Закон Гордона Мура
Одно время закон Мура выполнялся довольно хорошо (см. Рис. 10). Нов начале го века ежегодное уменьшение на 10-30% размеров элементарных вычислительных модулей привело к практическому применению устройств с элементарными модулями размером в 100-200 ангстрем (0,01-0,02 мк), те. размер элементарного вычислительного устройства приблизился к молекулярным размерам. На таком уровне законы классической физики уже не работают и начинают действовать квантовые законы, которые для многих важных динамических задач еще не описаны теоретически. Для описания работы таких устройств неприменимы классические объекты и методы информатики. В частности, в силу квантового принципа неопределенности Гейзенберга, в таких микроскопических системах нет аналога понятию «bit». Несмотря на большие ожидания и большие усилия по разработке, квантового компьютера создать не удалось, и закон Мура прошлось похоронить – размеры компьютеров перестали уменьшаться, наоборот – они увеличиваются (из-за своей многоядерности). Если быстродействие суперкомпьютеров ещё как-то растёт, то быстродействие персональных компьютеров зависло где-то на уровне 2-3 ГГерц и последние 10 лет не меняется. Об обещанных в конце го века РС со скорострельностью 1000 ГГерц и Герц не может быть и речи. Перспективы развития бытовых компьютеров – скорее регресс, чем прогресс…
Тем не мене в научно-исследовательских лабораториях крупнейших университетов и транснациональных ИТ-компаний рассматриваются несколько возможных направлений создания элементной базы нового поколения вычислительных устройств на принципах ядерного магнитного или электронного парамагнитного резонанса на атомных ионах, помещенных в ловушки Паули или Пеннинга; с использованием явления сверхпроводимости на квантовых точках в полупроводниковых неорганических системах на основе оптической симуляции квантовой логики или на металло-биологической гибридной основе. http://profbeckman.narod.ru/EVM
Многие из указанных направлений имеют существенные недостатки, которые в некоторых случаях приводят к принципиальной невозможности создания конкурентоспособного вычислительного устройства. Характерным примером является проект корпорации IBM, которая в 1999 году только на первый этап разработки молекулярной элементной базы нового поколения выделила 17 миллиардов долларов налет. В результате был создан макет, оперирующий с 5 или 7 квантовыми битами и весом около 7 тонн, способный решать только примитивные задачи типа разложения числа 15 на два множителя 5 и 3. В настоящее время наиболее перспективным направлением разработки элементной базы компьютеров нового поколения представляется использование самоорганизующихся квантовых точек в твёрдотельных системах, которые могут выполнять функции квантовых битов и быть связанными в квантовый регистр на основе, например, электростатического или магнитного типа взаимодействия. Впрочем, реальных достижений на этом направлении (равно, как на всех остальных) пока невидно. Ничего не вышло и с искусственным интеллектом. Сейчас единственным реальным путём развития компьютеров является массовое применение многоядерных систем (те. одновременное использование водной ЭВМ нескольких процессоров. Постепенно они становятся основной платформой серверов, настольных компьютеров и ноутбуков, и встраиваемых систем. Однако движению поэтому пути сильно мешают ограничения и нерешенные проблемы программного обеспечения. Развитие многоядерных систем - это путь к повсеместному использованию параллельных вычислений. При этом, наиболее распространенным способом повышения производительности является распараллеливание потока команд или потока данных. Распараллеливание данных - это применение одной операции сразу к нескольким элементам массива данных. Параллелизм задач предусматривает разбиение вычислительного процесса на несколько подзадач (процессов, потоков, каждая из которых выполняется на своем ядре (процессоре. Многоядерные системы относят к классу MIMD (Multiple Instruction, Multiple
Data). В них несколько программных ветвей выполняются одновременно и независимо, нов определенные моменты они обмениваются данными. Активное внедрение многоядерных систем подразумевает существенное изменение стиля программирования разработчики вынуждены использовать параллельные потоки, порождение и обработку асинхронных событий и др. Иными словами, новая аппаратная архитектура требует смены программной парадигмы - перехода от последовательного стиля программирования к параллельному. Сделать это достаточно трудно…
Многоядерный процессор - это многопроцессорная система, реализованная на кристалле, обеспечивающая повышение эффективности работы вычислительной системы в целом.
Параллельная обработка. Если некое устройство выполняет одну операцию за единицу времени, то тысячу операций оно выполнит за тысячу единиц. Если предположить, что есть пять таких же независимых устройств, способных работать одновременно, то тысячу операций система из пяти устройств может выполнить уже за двести единиц времени. Аналогично, системе из N устройств на туже работу понадобится
1000/N единиц времени. Однако это идеальный случай, от которого реальность бывает весьма далека. Простой пример. Один землекоп за один час может выкопать яму объемом один кубометр. Два землекопа, работая вместе, выкопают такую же яму за полчаса. А шестьдесят землекопов Ясно, что они будут просто мешать друг другу и быстрее процесс не пойдёт.
Конвейерная обработка. Для сложения двух вещественных чисел, представленных в форме с плавающей запятой, требуется множество мелких операций - сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т. п. Первые процессоры для каждой пары аргументов выполняли операции последовательно, одна за другой, пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых. Идея конвейерной обработки заключается в разбиении процесса выполнения общей операции на отдельные этапы - их называют микрооперациями или ступенями.
Причём каждая микрооперация, выполнив свою работу, передает результат следующей, одновременно принимая новую порцию входных данных. Получаем очевидный выигрыш вскорости обработки за счет совмещения прежде разнесенных во времени операций. Предположим, что в операции можно выделить пять микроопераций, каждая из которых выполняется за одну единицу времени. Тогда одно неделимое последовательное устройство обработает сто пар аргументов за пятьсот единиц времени. Если же каждую микрооперацию выделить в отдельный этап конвейерного устройства, тона пятой единице времени на разной стадии обработки будут находиться первые пять пар аргументов, первый результат будет получен через пять единиц времени, каждый следующий - через одну единицу после предыдущего, а весь набор из ста пар будет обработан за 5+99=104 единицы времени - ускорение по сравнению с последовательным устройством почтив пять раз (по числу ступеней конвейера. Казалось бы, конвейерную обработку можно с http://profbeckman.narod.ru/EVM
успехом заменить параллельной, для чего продублировать основное устройство столько раз, сколько ступеней конвейера предполагается выделить. Однако стоимость и сложность получившейся системы будет несопоставима со стоимостью и сложностью конвейерного варианта, а производительность окажется почти такой же, а то и хуже. Представьте для примера, что на автозаводе заменили сто этапов сборки машины сотней бригад, собирающих каждый автомобиль от начала до конца. Каковы же будут расходы на зарплату сборщикам такой высокой квалификации и на оснащение их рабочих мест?
Чтобы написать параллельную программу, необходимо выделить в ней части, которые могут одновременно вычисляться разными процессорами, функциональными устройствами или же разными ступенями конвейера. Возможность разбиения программы на части определяется наличием или отсутствием в ней истинных информационных зависимостей. Две операции программы (в данном случае под операцией можно понимать как отдельный оператор, таки более крупные куски кода) называются информационно
зависимыми, если результат выполнения одной операции используется в качестве аргумента в другой. Таким образом, чтобы распараллелить программу, нам нужно найти в ней информационно независимые операции, распределить их между вычислительными устройствами и обеспечить их синхронизацию и коммуникацию. Используя параллельную систему с N вычислительными устройствами, мы, разумеется, ожидаем получить ускорение выполнения программы враз по сравнению с последовательным вариантом. Но действительность почти всегда оказывается далека от идеала (вспомните про шестьдесят землекопов. Предположим, что необходимо решить некоторую вычислительную задачу. Предположим, что её алгоритм таков, что доля α от общего объёма вычислений может быть получена только последовательными расчётами, а, соответственно, доля 1−α может быть распараллелена идеально (те. время вычисления будет обратно пропорционально числу задействованных узлов N). Другими словами, доля операций, которые нужно выполнять последовательно, равна α (при этом под долей понимается не статическое число строк кода, а время выполнения последовательной программы. Крайние случаи в значениях α соответствуют полностью параллельными полностью последовательным (α=1) программам. Тогда для того, чтобы оценить, какое ускорение S может быть получено на компьютере из N процессоров приданном значении α, можно воспользоваться законом Амдала.
Джин Амдал сформулировал закон в 1967, обнаружив простое по существу, но непреодолимое по содержанию ограничение нарост производительности при распараллеливании вычислений В случае, когда задача разделяется на несколько частей, суммарное время её выполнения на параллельной системе не может быть меньше времени выполнения самого длинного фрагмента.
Закон Амдала гласит прирост производительности (S) системы зависит от количества процессоров
(N) и доли последовательных операций (α) в программе. Ускорение, которое может быть получено на вычислительной системе из N процессоров, по сравнению с однопроцессорным решением не будет превышать величины
N
S
α
α

+

1 1
(1) Например, если 9/10 программы исполняется параллельно, а 1/10 по-прежнему последовательно, то ускорения более чем в десять раз получить в принципе невозможно, независимо от качества реализации параллельной части кода и числа процессоров (ядер. Отсюда можно сделать вывод, что эффективно распараллелена может быть нелюбая программа, а только та, в которой доля информационно независимых операций достаточно велика. Впрочем, это не должно отпугивать от параллельного программирования, потому что, как показывает практика, большинство вычислительных алгоритмов устроено в этом смысле довольно хорошо. Важное следствие закона Амдала состоит в том, что максимальный рост производительности (враз при N процессорах) недостижим. В противном случае последовательно исполняемая часть программы должна быть равна нулю, что невозможно. Еще одно следствие закона таково чем меньше доля последовательно исполняемой части программы, тем больше прирост производительности (Рис. 11).
Рис. 11. Следствия закона Амдала Сегодня только небольшая часть программного обеспечения может выполняться на многоядерных процессорах, что подтверждают результаты http://profbeckman.narod.ru/EVM
тестов синтетических и предназначенных для конкретных классов приложений. Реальный рост производительности дают лишь программы, оптимизированные под многопоточность, такие как Adobe
Premiere Pro 1.5 и 3DMax. Сегодня нет хороших драйверов устройств, поддерживающих многопоточность. Из формулы (1) следует, что P-кратное ускорение может быть достигнуто, только когда доля непараллельного кода равна 0. Очевидно, что добиться этого практически невозможно. Очень наглядно действие закона Амдала демонстрирует Табл. 2.
Табл. 2. Ускорение работы программы в зависимости от доли непараллельного кода. Число процессоров Доля последовательных вычислений %
50 25 10 5
2 Ускорение работы программы
2 1.33 1.60 1.82 1.90 1.96 4
1.60 2.28 3.07 3.48 3.77 8
1.78 2.91 4.71 5.93 7.02 16 1.88 3.36 6.40 9.14 12.31 32 1.94 3.66 7.80 12.55 19.75 512 1.99 3.97 9.83 19.28 45.63 2048 2.00 3.99 9.96 19.82 48.83 Из Табл. 2 хорошо видно, что если, например, доля последовательного кода составляет 2%, то более чем кратное ускорение в принципе получить невозможно. С другой стороны, по-видимому, нецелесообразно запускать такую программу на 2048 процессорах стем, чтобы получить кратное ускорение. Тем не менее, такая задача достаточно эффективно будет выполняться на 16 процессорах, а в некоторых случаях потеря 37% производительности при выполнении задачи на 32 процессорах может быть вполне приемлемой. Закон Амдала устанавливает предельное число процессоров, на котором программа будет выполняться с приемлемой эффективностью в зависимости от доли непараллельного кода.
Табл. 3 показывает, во сколько раз быстрее выполнится программа с долей последовательных вычислений α при использовании N процессоров.
α\N 10 100 1000 0 10 100 1000 10% 5.263 9.174 9.910 25% 3.077 3.883 3.988 40% 2.174 2.463 2.496 Из Табл. 3 видно, что только алгоритм, вовсе не содержащий последовательных вычислений (α=0), позволяет получить линейный производительности с ростом количества вычислителей в системе. Если доля последовательных вычислений в алгоритме равна 25%, то увеличение числа процессоров до 10 дает ускорение в 3,077 раза (эффективность 30,77%), а увеличение числа процессоров до 1000 даст ускорение в
3,988 раза (эффективность 0,4%). Отсюда же очевидно, что при доле последовательных вычислений
α общий прирост производительности не может превысить 1/α. Так, если половина кода - последовательная, то общий прирост никогда не превысит двух. Закон Амдала показывает, что прирост эффективности вычислений зависит от алгоритма задачи и ограничен сверху для любой задачи. Не для всякой задачи имеет смысл наращивание числа процессоров в вычислительной системе. Более того, если учесть время, необходимое для передачи данных между узлами вычислительной системы, то зависимость времени вычислений от числа узлов будет иметь максимум. Это накладывает ограничение на масштабируемость вычислительной системы, те. означает, что с определенного момента добавление новых узлов в систему будет увеличивать время расчёта задачи. Формула (1) не учитывает накладные расходы на обмены между процессорами, поэтому в реальной жизни ситуация может быть ещё хуже. В настоящее время можно выделить четыре направления развития высокопроизводительной вычислительной техники.
1.
Векторно-конвейерные компьютеры. Конвейерные функциональные устройства и набор векторных команд - две главные особенности таких машин. В отличие от традиционного подхода векторные команды оперируют целыми массивами независимых данных, что позволяет эффективно загружать доступные конвейеры, те. команда вида A=B+C может означать сложение двух массивов, а не двух чисел. Характерный представитель этой группы - семейство векторно-конвейерных компьютеров Cray, куда входят, например, Cray EL, Cray J90 и Cray T90. http://profbeckman.narod.ru/EVM

2.
Параллельные компьютеры с общей памятью. Оперативная память таких компьютеров разделяется несколькими одинаковыми процессорами, благодаря чему снимаются проблемы предыдущего класса, но добавляются новые число процессоров, имеющих доступ к общей памяти, по чисто техническим причинам нельзя сделать большим. В эту группу входят многие современные многопроцессорные SMP- компьютеры или, например, отдельные узлы компьютеров HP Exemplar и Sun StarFire.
3.
Массивно-параллельные компьютеры с распределенной памятью. Идея построения компьютеров этого класса тривиальна возьмем серийные микропроцессоры, снабдим каждый своей локальной памятью, соединим посредством некоторой коммуникационной среды - вот и все. Достоинству такой архитектуры масса если нужна высокая производительность - можно добавить еще процессоров если ограничены финансы или заранее известна потребная вычислительная мощность - легко подобрать оптимальную конфигурацию и т. п. Однако есть и серьезный минус, сводящий многие плюсы на нет. Дело в том, что межпроцессорное взаимодействие в компьютерах этого класса идёт намного медленнее локальной обработки данных самими процессорами. Именно поэтому написать эффективную программу для таких компьютеров очень сложно, а для некоторых алгоритмов иногда просто невозможно. К этому классу можно отнести компьютеры Intel Paragon, IBM SP1, Parsytec, IBM SP2 и Cray T3D/T3E (причём острота вышеупомянутого недостатка в них значительно ослаблена, а также компьютерные сети - дешёвая альтернатива крайне дорогим суперкомпьютерам.
4. Последнее направление представляет собой комбинации трех предыдущих. Из нескольких процессоров (традиционных или векторно-конвейерных) и общей для них памяти сформируем вычислительный узел. Если полученной вычислительной мощности недостаточно - объединим несколько узлов высокоскоростными каналами. Подобную архитектуру называют кластерной, и по такому принципу построены Cray SV1, HP Exemplar, Sun StarFire, NEC SX-5, IBM SP2 и др. Поскольку кластерное решение позволяет достичь наилучшего соотношения цены и производительности, именно оно является в настоящее время наиболее перспективным для конструирования компьютеров с рекордными показателями производительности. Не зря самый мощный российский суперкомпьютер, установленный в Межведомственном суперкомпьютерном центре (768 процессоров Alpha 21264 в узлах, связанных между собой коммуникационной сетью Myrinet), создан по кластерной технологии, а в последнюю, ю редакцию списка пятисот самых мощных компьютеров мира
(2001) вошли уже 43 кластерные системы.
Традиционные методики оценки производительности компьютерных систем постепенно теряют свою эффективность – компьютеры все активнее взаимодействуют друг с другом, людьми и внешним миром, что приводит к появлению стиля компьютерной обработки, определяемой сценариями развития событий, а это открывает эру новых интеллектуальных устройств и одновременно порождает совершенно новые потребности в оценке их производительности. http://profbeckman.narod.ru/EVM

Document Outline

  • 2. ИСТОРИЯ ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ



Поделитесь с Вашими друзьями:
1   2


База данных защищена авторским правом ©nethash.ru 2019
обратиться к администрации

войти | регистрация
    Главная страница


загрузить материал