ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 10.01.2024
Просмотров: 1151
Скачиваний: 1
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
Первым электронным компьютером (рис.8) можно назвать систему, созданную в 1942 году Джоном В. Атанасовым в колледже штата Айова. Эта машина была специализированной и предназначалась для решения задач математической физики.
В ходе разработок Атанасов создал и запатентовал первые электронные устройства, которые впоследствии применялись довольно широко в первых компьютерах. Атанасов сформулировал, а в 1939 году опубликовал окончательный вариант своей концепции современной вычислительной машины.
Для военных целей требовались более совершенные вычислительные системы. В 1943 г американец Говард Эйкен с помощью работ Бэббиджа на основе техники XX в – электромеханических реле – смог построить на одном из предприятий фирмы IBM такую машину под названием “Марк-1” (рис. 9). «Марк-1» имел в длину 15 метров и в высоту 2,5 метра, содержал 800 тысяч деталей, располагал 60 регистрами для констант, 72 запоминающими регистрами для сложения, центральным блоком умножения и деления, мог вычислять элементарные трансцендентные функции.
Еще раньше идеи Бэббиджа были переоткрыты немецким инженером Конрадом Цузе, который в 1941 г. построил аналогичную машину. К этому времени потребность в автоматизации вычислений (в томчисле для военных нужд – баллистики, криптографии и т.д.) стала настолько велика, что над созданием машин типа построенных Эйкеном и Цузе одновременно работало несколько групп исследователей. Начиная с 1943 г., группа специалистов под руководством Джона Моучли и Преспера Экерта в США начала конструировать подобную машину уже на основе электронных ламп, а не реле. Их машина, названная ENIAC, работала в тысячу раз быстрее, чем Марк-1. ENIAC содержал 18 тысяч вакуумных ламп, занимал площадь 9x15 метров, весил 30 тонн и потреблял мощность 150 киловатт. ENIAC имел и существенный недостаток – управление им осуществлялось с помощью коммутационной панели, у него отсутствовала память, и для того чтобы задать программу приходилось в течение нескольких часов или даже дней подсоединять нужным образом провода. Худшим из всех недостатков была ужасающая ненадежность компьютера, так как за день работы успевало выйти из строя около десятка вакуумных ламп. Чтобы упростить процесс задания программ, Моучли и Экерт стали конструировав новую машину, которая могла бы хранить программу в своей памяти. В 1945 г к работе был привлечен знаменитый математик Джон фон Нейман, который подготовил доклад об этой машине. Доклад был разослан многим ученым и получил широкую известность, поскольку в нем фон Нейман ясно и просто сформулировал общие принципы функционирования универсальных вычислительных устройств.
1. Принцип программного управления. Из него следует, что программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.
Выборка программы из памяти осуществляется с помощью счетчика команд. Этот регистр процессора последовательно увеличивает хранимый в нем адрес очередной команды на длину команды.
Так как команды программы расположены в памяти друг за другом, то тем самым организуется выборка цепочки команд из последовательно расположенных ячеек памяти.
Если же нужно после выполнения команды перейти не к следующей, а к какой-либо другой, используются команды условного или безусловного переходов, которые заносят в счетчик команд номер ячейки памяти, содержащей следующую команду. Выборка команд из памяти прекращается после достижения и выполнения команды “стоп”.
Таким образом, процессор исполняет программу автоматически, без вмешательства человека.
2. Принцип однородности памяти. Программы и данные хранятся в одной и той же памяти. Поэтому компьютер не различает, что хранится в данной ячейке памяти – число, текст или команда. Над командами можно выполнять такие же действия, как и над данными. Это открывает целый ряд возможностей. Например, программа в процессе своего выполнения также может подвергаться переработке, что позволяет задавать в самой программе правила получения некоторых ее частей. Более того, команды одной программы могут быть получены как результаты исполнения другой программы.
3. Принцип адресности. Структурно основная память состоит из перенумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка. Отсюда следует возможность давать имена областям памяти, так, чтобы к запомненным в них значениям можно было впоследствии обращаться или менять их в процессе выполнения программ с использованием присвоенных имен.
ENIAC стал первым представителем 1-го поколения компьютеров. Любая классификация условна, но большинство специалистов согласилось с тем, что различать поколения следует исходя из той элементной базы, на основе которой строятся машины. Таким образом, первое поколение представлено ламповыми машинами.
В 1946 г. фон Нейман начинает разработку новой машины, и в 1949 г. была построена электронная машина по обработке дискретных переменных «EDVAC» (рис. 10), которая впоследствии была признана первым компьютером.
Машина на электронных лампах работала значительно быстрее, чем на электромеханических реле, но сами электронные лампы были ненадежны. Они часто выходили из строя. Для их замены в 1947 году Джон Бардин, Уолтер Браттейн и Уильям Шокли предложили использовать изобретенные ими переключающие полупроводниковые элементы – транзисторы.
Совершенствование первых образцов вычислительных машин привело в 1951 году к созданию компьютера UNIVAC (рис. 11), предназначенного для коммерческого использования. Он стал первым серийно выпускаемым компьютером.
В 1950-х годах было создано второе поколение компьютеров, выполненных на транзисторах. В результате быстродействие машин возросло в 10 раз, а размеры и вес значительно уменьшились. Стали применять запоминающие устройства на магнитных ферритовых сердечниках, способные хранить информацию неограниченное время даже при отключении компьютеров. Их разработал Джой Форрестер в 1951-1953 годах. Большие объемы информации хранились на внешнем носителе, например на магнитной ленте или на магнитном барабане.
Рейнольд Б. Джонсон, сотрудник IBM, разработал устройство IBM 305 RAMAC (контрольно-считывающее устройство по методу случайного доступа) (рис. 12).
Устройство состояло из 50 вращающихся магнитных дисков диаметром 60 см, которые были расположены один над другим. Механизм считывания и записи перемещался между дисками, обеспечивая более быстрый доступ к данным, чем магнитная лента. После того как возможности устройства были продемонстрированы на Всемирной ярмарке в Брюсселе в 1958-м, от носителей на магнитных лентах отказались.
В 1959 году Д. Килби, Д. Херни, К. Леховец и Р. Нойс изобрели интегральные микросхемы (чипы), ставшие элементной базой ЭВМ третьего поколения, в которых все электронные компоненты вместе с проводниками помещались внутри кремниевой пластинки. Применение чипов в компьютерах позволило сократить пути прохождения тока при переключениях. Скорость вычислений при этом увеличилась в десятки раз. Существенно уменьшились и габариты машин. Появление чипа позволило создать третье поколение компьютеров. И в 1964 году фирма IBM начинает выпуск компьютеров IBM-360 (рис. 13) на интегральных микросхемах.
Начало 70-х годов знаменует переход к компьютерам четвертого поколения – на сверхбольших интегральных схемах (СБИС). Другим признаком ЭВМ нового поколения являются резкие изменения в архитектуре.
Техника четвертого поколения породила качественно новый элемент ЭВМ – микропроцессор или чип. В 1971 году пришли к идее ограничить возможности процессора, заложив в него небольшой набор операций, микропрограммы которых должны быть заранее введены в постоянную память. Оценки показали, что применение постоянного запоминающего устройства в 16 килобит позволит исключить 100-200 обычных интегральных схем. Так возникла идея микропроцессора, который можно реализовать даже на одном кристалле, а программу в его память записать навсегда.
В 1965 году Дуглас Энгелбарт создал первую «мышь» (рис. 14) – компьютерный ручной манипулятор. Впервые она была применена в персональном компьютере Apple фирмы Macintosh, выпущенном позднее, в 1976 году.
В 1967 году компания IBM начала производить дискету для компьютера, изобретенную Йосиро Накамацу – съемный гибкий магнитный диск («флоппи-диск») для постоянного хранения информации. Первоначально дискета была гибкой, имела диаметр 8 дюймов и емкость 80 Кбайт, затем – 5 дюймов. Современная дискета емкостью 1,44 Мбайта, впервые выпущенная фирмой Sony в 1982 году, заключена в жесткий пластмассовый корпус и имеет диаметр 3,5 дюйма.
В 1969 году в США началось создание оборонной компьютерной сети – прародителя современной всемирной сети Internet.
В 1970-е годы были разработаны матричные принтеры, предназначенные для распечатки информации на выходе из компьютеров.
К середине 70-х годов положение на компьютерном рынке резко и непредвиденно стало изменяться. Четко выделились две концепции развития ЭВМ. Воплощением первой концепции стали суперкомпьютеры, а второй – персональные ЭВМ. Из больших компьютеров четвертого поколения на сверхбольших интегральных схемах особенно выделялись американские машины «Крей-1» (рис. 15) и «Крей-2» (рис. 16), а также советские модели «Эльбрус-1» (рис. 17) и «Эльбрус-2» (рис. 18). Первые их образцы появились примерно в одно и то же время – в 1976 году. Все они относятся к категории суперкомпьютеров, так как имеют предельно достижимые для своего времени характеристики и очень высокую стоимость.
Величиной, используемой для измерения производительности компьютеров, показывающей, какое количество операций с плавающей запятой в секунду выполняет данная вычислительная система является флопс (акроним от англ. Floating point Operations Per Second). Как и большинство других показателей производительности, данная величина определяется путем запуска на испытуемом компьютере тестовой программы, которая решает задачу с известным количеством операций и подсчитывает время, за которое она была решена. Одним из важнейших достоинств показателя флопс является то, что он до некоторых пределов может быть интерпретирован как абсолютная величина и вычислен теоретически, в то время как большинство других популярных мер являются относительными и позволяют оценить испытуемую систему лишь в сравнении с рядом других. Эта особенность дает возможность использовать для оценки результаты работы различных алгоритмов, а также оценить производительность вычислительных систем, которые еще не существуют или находятся в разработке. Следующие по возрастанию единицы измерения: килофлопсы, мегафлопсы, гигафлопсы, терафлопсы, петафлопсы. Терафлопс (TFLOPS, Тфлопс) – величина, используемая для измерения производительности суперкомпьютеров. 1 терафлопс = 1 триллион операций в секунду = 1000 миллиардов операций в секунду.
Примеры: компьютер ЭНИАК, построенный в 1946 году, при массе 27 т и энергопотреблении 150 кВт, обеспечивал производительность в 300 флопс. БЭСМ-6 (1968) – 1 Мфлопс, Cray-1 (1974) – 160 Мфлопс, Эльбрус-2 (1984) – 125 Мфлопс, Cray Y-MP (1988) – 2,3 Гфлопс, суперкомпьютер СКИФ МГУ (2008) – 60 Тфлопс, суперкомпьютер Blue Gene/L (2006) – 478,2 Тфлопс, суперкомпьютер IBM Roadrunner (2008) – 1,105 Пфлопс, суперкомпьютер Jaguar (2008) – 1,64 Пфлопс.
В 1971 году сотрудник компании Intel Эдвард Хофф создал первый микропроцессор 4004 (рис. 19), разместив несколько интегральных микросхем на одном кремниевом кристалле. Хотя первоначально он предназначался для использования в калькуляторах, по существу он представлял собой законченный микрокомпьютер. Это революционное изобретение кардинально перевернуло представление о компьютерах как о громоздких, тяжеловесных монстрах. Микропроцессор дал возможность создать компьютеры четвертого поколения, которые помещались на письменном столе пользователя.
19 апреля 1965 года, в журнале Electronics вышла знаменитая статья Гордона Мура «Переполнение числа элементов на интегральных схемах», в которой будущий сооснователь корпорации Intel дал прогноз развития микроэлектроники на ближайшие десять лет, предсказав, что количество элементов на кристаллах электронных микросхем будет и далее удваиваться каждый год.
Вскоре после выхода статьи эта эмпирически подмеченная закономерность получила название закона Мура (рис. 20) и стала, пожалуй, самым знаменитым законом в компьютерной области и полупроводниковой индустрии, задав некий фундаментальный вектор развития технологии. И хотя закон Мура не принадлежит к числу «научных» – физических или математических – законов, на базе которых строятся современные представления о природе и протекающих в ней процессах, а является просто метко подмеченным эмпирическим правилом, отражающим экспоненциальный характер развития одной из многочисленных тенденций в современном человеческом обществе, он оказался очень удобным для описания определенных вещей и весьма полезным для прогнозирования деятельности компаний в этой области.
Закон Мура стал синонимом технологической эволюции. «Закон Мура – основной лейтмотив нашей деятельности в области конвергенции вычислительных и коммуникационных возможностей, – заявил глава корпорации Intel Крейг Барретт на открытии одного из форумов Intel для разработчиков. – Приверженность корпорации Intel закону Мура позволяет нам создавать интегрированные платформы