Файл: История и перспективы развития средств вычислительной техники.pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 01.04.2023

Просмотров: 120

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Глава 4. Четвертое поколение вычислительной техники

Период 1980-1990гг. принадлежит компьютерам четвертого поколения. Прогресс этой сферы идет, в основном, по пути развития того, что уже изобретено и придумано, – прежде всего за счет повышения мощности и миниатюризации элементной базы и самих компьютеров. С начала 80-х, благодаря появлению персональных компьютеров, вычислительная техника становится по-настоящему массовой и общедоступной. Этот этап можно охарактеризовать следующими тенденциями:

  • Компьютеры становятся более дешевыми, а знания профессионалов, умеющих с ними работать, более дорогими.
  • Вычислительная техника была помещена в каждый терминал
  • Разработана первая операционная система персонального компьютера.
  • IBM требовалось программное обеспечение для своих ПК
  • Гейтс обратился в Seattle Computer Products, купил 86-DOS, и на его основе создал MS-DOS.
  • ОС имеет вид библиотеки подпрограмм и исполнителей команд.
  • Появляются персональные рабочие станции
  • Появляются персональные компьютеры
  • Создание Apple II
  • Создание IBM PC
  • Увеличение пользователей Macintosh
  • Бизнес-приложения продвигают отрасль
  • Разработка и внедрение текстовых процессоров
  • Разработка и внедрение электронных таблиц
  • Разработка и внедрение баз данных
  • Выпуск большого количества компьютерных приложений

В 1991 году Ричард А. Бруннер и Дилип П. Бхандаркар в совей книге «Справочное руководство по архитектуре VAX» дали количественный анализ недостатков VAX по сравнению с компьютером RISC, по существу положив начало технической кончина VAXа.

Первым суперкомпьютером, построенным на транзисторах считается Stretch, IBM 7030. Stretch следовал за IBM 704 и имел цель быть в 100 раз быстрее, чем он. Цель была достигнута. План состоял в том, чтобы получить коэффициент 1,6 от перекрывающейся выборки, процесса декодирования и выполнения, используя четырехступенчатый конвейер. Многие решения, которые были применения были описаны еще в начале 60-х годов Вернером Бухольцем. Именно он ввел термин «байт» и описал конструкторские и инженерные компромиссы, в том числе с использованием обходов ALU.

Первые процессоры RISC[11] были созданы ее в 1964 году. Именно в 80-х годах они получили свое широкое распространение. Несколько ранних работ по изучению RISC, опубликованных в начале 1980-е годы, стали попыткой количественной оценки преимуществ упрощения набор инструкций. Однако лучшим анализом сравнения VAX и MIPS является публикация Дилип П. Бхандаркар в 1991 году, через 10 лет после первого опубликованные документа о RISC. После 10 лет споров о преимуществах внедрения RISC, эта статья убедила даже самых отчаянных скептиков-конструкторов о преимуществах архитектуры набора инструкций RISC.


Несколько исследовательских проектов ввели параллельные разработки, связанные с многозадачностью компьютера. Так в середине 1980-х, процессор Stanford MIPS имел возможность разместить два операции в одной инструкции, хотя эта возможность была снижена в коммерческих вариантах архитектуры, в первую очередь по соображениям производительности. В это же время в Йельском университете профессор Джозеф Фишер со своими коллегами предложил создать процессор с очень широкой инструкцией (512 бит) и назвала этот тип процессора VLIW. VLIW - это обычные компьютеры, предназначенные для запуска скомпилированного кода и используемые как обычные компьютеры, но предлагающие большие объемы параллелизма на уровне команд, запланированные планировщиком трассировки или подобным компилятором. VLIW сейчас широко используются, особенно во встроенных системах. Самые популярные ядра VLIW были проданы в количестве нескольких миллиардов процессоров. Использованный для этого код был сгенерирован для процессора с помощью планирования трассировки и первоначально разрабатывался Фишером для генерации микрокода. Реализация планирования трассировки для Йельского процессора описана Джозефом Фишером в 1984 году. [10]

IBM отменила ACS и активные исследования в этой области в 1980-е годы. Более чем через 10 лет после того, как ACS был отменен, Джон Кок сделал новое предложение для суперскалярного процессора, динамически принимающего решение. Джон Кок и Тилак Агервала описал ключевые идеи в нескольких выступлениях в середине 1980-х годов и придумал термин суперскаляр.

В 1984 году Ж. Э. Смит и его коллеги в Висконсине предложили подход, который решал несколько проблем с ограниченным динамическим планированием процессора. Его ключевой особенностью является использование очередей для поддержания порядка между классами инструкций, например, ссылок на память, позволяя ему пропускать вперед еще один класс инструкций. Трансивер ZS-1, описанный Ж. Э. Смит оплощает этот подход с очередями для подключения блока хранения нагрузки и операционных блоков. Реализация Power2 использует очереди аналогичным образом. В 1989 году Э. Смит описал преимущества динамического планирования и сравнили его с подходом к статическому планированию.

IBM System/360 Model 91 — модель серии компьютеров IBM System/360 компании IBM. Была объявлена в 1964 году как конкурент суперкомпьютеру CDC 6600 компании Control Data Corporation. Модель 91 была самой производительной в линейке IBM S/360 и предназначалась для научных вычислений и использовалась для исследования космоса, в физике элементарных частиц и численного прогноза погоды. Модель 91 была первым компьютером IBM, поддерживающим внеочередное исполнение инструкций. В компьютере были реализованы многие новшества для использования параллелизма на уровне команд: конвейеризация исполнительных устройств, переименование регистров, предсказание переходов, динамическое обнаружение конфликтов памяти. В модуле вещественной арифметики был впервые реализован Алгоритм Томасуло, который он описал в 1967 году. Этот алгоритм использовал переименование регистров для внеочередного исполнения инструкций. Многие эти идеи на 25 лет практически были забыты, пока их не стали активно использовать в микропроцессорах в 1990-х годах[3,5].


В 1988 году Д. Смит и А. Плесцкун исследовали использование буферизации и ведение точных прерываний, в результате ими была описана концепция буфера переупорядочения. А в 1990 г. было описано добавление переименования и динамического планирования, открыв тем самым новые возможности для развития этого направления.

Нэнси Патт-американский профессор электротехники и вычислительной техники в Техасском университете в Остине и его коллеги были ранними сторонниками агрессивного переупорядочения. Они сосредоточились на контрольно-пропускном пункте и механизмах перезапуска. Впервые реализованный ими подход в HPSm[12], который также является расширение алгоритма Томасуло.

Параллельно с суперскалярными разработками, рос коммерческий интерес к VLIW. Многопоточный процессор был основан на концепциях, разработанных в Йельском университете, хотя многие важные уточнения для повышения практичности подхода были сделаны уже позднее. Среди них был буфер хранилища с контрольной меткой.

Хотя было продано более 100 многопоточных процессоров, различные проблемы, в том числе трудности внедрения нового набора инструкций от небольшой компании, конкуренция со стороны коммерческих RISC микропроцессоров, не смогли изменить экономику на рынке мини-компьютеров привели к провалу компании.

Почти одновременно с запуском компьютерных компаний Multiflow, Cydrome было начато создания процессора VLIW, который также оказался неудачным коммерчески.

В 1989 году Dehnert, Hsu и Bratt объяснили архитектуру и производительность Cydrome Cydra 5[13], процессора с широким набором инструкции, обеспечивающим динамическую регистрацию переименования и дополнительную поддержку конвейерной обработки программного обеспечения. Cydra 5, являлся уникальным сочетанием аппаратного и программного обеспечения, включая условные регистры вращения, направленный на извлечение ILP. Cydrome полагался на большие ресурсы, чем в многопоточном процессоре и смог добиться конкурентоспособности в первую очередь на коды. Но большое количество проблем в Cydrome привели к отсутствию коммерческого успеха в разработке. И Это не смтря на то, что при своей стоимотси в почти 1 млн. компьютер мог достигать трети производительности компьютера за 10-2- млн. $. [7,9,12]

И Multiflow, и Cydrome хотя и были неудачными коммерческими структурами, произвели много профессионалов с большим опыт в разработке ILP-параллелизма на уровне инструкций, а также передовых технологий компиляторов. Многие из этих людей пошли дальше, чтобы включить свой опыт и фрагменты разработанных технологии в более новые процессоры.


В 1993 году был издан обширный сборник статей, охватывающий описание аппаратного и программного обеспечения всех важных процессоров. В нем так же был описан метод планирования, называемый полициклическим планированием, что в дальнейшем стало основой для большинства программно-конвейерных схем.

В начале 1990-х годов Вэнь-Мэй Хву и его коллеги из Университета Иллинойса разработали компилятор под названием IMPACT, для изучения взаимодействия между архитектурой с различными выпусками и технологией компилирования. Этот проект привел к нескольким важным идеям, включая суперблок планирования, широкое использование профилирования для руководства различными оптимизациями и использование специального буфера, аналогичного к ALAT или программно-управляемого буферного хранилища, для составления автоматизированного обнаружения конфликтов памяти. Был исследован компромисс между производительностью частичной и полной поддержкой предикации.

Все ранние процессоры RISC имели отложенные ветви, схемы, а внедрение микропрограммирования и нескольких исследований по прогнозированию ветвей времени, позволили усовершенствовать механизм компиляции. В 1986 году это удалось Уэйн Роберт Хеннесси и его команде. Они сделали количественное сравнение различных схем модуля предсказания переходов или прогнозирования ветвления, а также времени компиляции и времени выполнения.

В 1992 году была сделана оценка этой работе, в которой отмечался о диапазон компиляции временной ветви-схемы прогнозирования с использованием метрики расстояния между ошибочными предсказаниями.

Глава 5. Пятое поколение вычислительной техники

Переход к компьютерам пятого поколения предполагал переход к новым архитектурам, ориентированным на создание искусственного интеллекта, создание развитого человеко-машинного интерфейса (распознавание речи, образов). Это все относится к классу суперкомпьютеров. Это компьютеры, которые имеют максимальную на время их выпуска производительность, или так называемые компьютеры 5-го поколения. К основным характеристикам и нововведениям этого периода можно отнести:

  • Подключение имеет первостепенное значение.
  • Люди хотят обмениваться данными, а не аппаратными средствами.
  • Сетевые приложения продвигают отрасль.
  • Большие запросы на развитие компьютерных сетей
  • Развитие электронной почты
  • Защита и мультипрограммирование менее важны для персональных машин.
  • Защита и мультипрограммирование более важны для серверных машин.
  • Рынок компьютерных услуг продолжает горизонтальное расслоение
  • Появляются Интернет-провайдера, предоставляющие услуги-посредника между ОС и приложениями
  • Информация становится товаром
  • Реклама становится компьютерным рынком.
  • Возникают новые сетевые архитектур
  • Развиваются распределенные операционные системы
  • Возникает понятие «Облако»

Блестящие результаты на этом этапе стали возможны благодаря ранним попыткам построить LOW и VLIW машины-особенно компаниями Cydrome и Multiflow. В долгой истории работы компилятора, которые продолжались университете Иллинойса и других местах даже после того, как эти компании потерпели неудачу в HP. Идеи, полученные в результате этой работы, привели разработчиков HP к предложению 64-разрядную архитектуру VLIW в соответствии с архитектурой HP PA RISC.

Intel искала новую архитектуру для замены x86 (теперь называется IA-32) архитектуры и обеспечить 64-разрядную возможность. В 1995 году они сформировали партнерство для разработки новой архитектуры IA-64 и начали строить процессоры на его основе. Itanium является первым таким процессором.

В 2002 году Intel представила дизайн второго поколения IA-64, Itanium 2.

Еще один подход, который исследован в литературе, - это использование прогнозирования стоимости. Предсказание этих значений может позволить прогнозировать на основе значений данных. Был проведен ряд исследований по использованию прогнозирования стоимости. Shen J.P., Lipasti M.H. в своей книге «Modern Processor Design - Fundamental of Superscalar Processors» опубликовали свои мысли, посвященные оценке концепции прогнозирования стоимости и ее потенциала влияния на эксплуатацию ILP. D 1999 ujle 72. Брэд Колдер, Гленн Рейнман и Дин Таллсен в книге «Selective Value Prediction». исследовали идею селективного предсказания значения. Другие авторы пытались подходить к данной проблеме с точки зрения повторного использования значений, полученных инструкциями. Профессор Andreas Moshovos показал, что решение о прогнозировании ценности, путем отслеживания достижения прирост производительности. Эта область в настоящее время активно развивается, представляя новые результаты, публикуя их на каждой конференции.

В 1994 и 1995 годах были анонсированы широкие суперскалярные процессоры от каждого из основных поставщиков: процессор Intel Pentium PRO и Pentium II (с одинаковой реализацией основной трубопроводной структуры, описанной в 1995году), AMDK-5,K-6, and Athlon;Sun UltraSPARC систем. Последняя часть XX века показала миру вторые поколения многих из этих процессоров (Pentium III, AMD Athlon и Alpha 21264, среди прочих). Второе поколение, хотя и аналогично по скорости выпуска, может поддерживать более низкий CPI и обеспечивать гораздо более высокие тактовые частоты.Все они включали динамическое планирование.

На практике необходимо учесть много факторов, в том числе технологии выполнения, иерархии памяти, мастерство дизайнеров. И все это для того чтобы определить какой подход лучше.