Файл: История и перспективы развития средств вычислительной техники.pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 01.04.2023

Просмотров: 134

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

В период с 2000 по 2005 год доминировали три тенденции среди суперскалярных процессоров: внедрение более высоких тактовых частот достигается за счет более глубокой конвейеризации (например, в Pentium 4), введение многопоточности (например, IBM в Power 4 и Intel в Pentium 4 Extreme) и начало о движении к многоядерности (например,от IBM в Power 4, AMD в Opteron).

Еще необходимо отметить одну тенденцию данного периода это активное изменение графических интересов. Раньше они конфигурировались, но не программировались разработчиком приложения. С каждым поколением предлагались дополнительные улучшения. Тем не менее, разработчики становились все более изощренными и просили больше новых особенностей, превосходящие возможности встроенных функции.

GeForce 3 сделал первый шаг к настоящей общей программируемости шейдера. Он дал возможность разработчику приложений частный внутренний набор команд для механизма представления вершин с плавающей запятой. Это совпало с выпуском Microsoft DirectX 8 и расширений вершинных шейдеров OpenGL. Более поздние графические процессоры, вовремя DirectX 9, расширили общую программируемость и возможность представления с плавающей запятой части пикселя и выполненной текстуры. ATI Radeon серии 9700, введенная в 2002 году, включала программируемый 24-битный код с плавающей точкой, в котором процессор фрагмент пикселя запрограммировал с DirectX 9 и OpenGL. GeForce FX добавил 32-разрядные пиксельные процессоры с плавающей запятой. Он был частью общей тенденции к унификации функциональности различных этапов, по крайней мере, для прикладных программ. GeForce от NVIDIA Серии 6800 и 7800 были построены с отдельными конструкциями процессоров и отдельными аппаратными средствами, предназначенными для обработки вершин и фрагментов. XBox 360 представила ранний унифицированный процессор GPU в 2005 году, позволяющий вершинным и пиксельным шейдерам выполнить их на том же процессоре.

По мере появления графических процессоров с поддержкой DirectX 9 некоторые исследователи обратили внимание на скользкий путь роста производительности графических процессоров и начали изучать их использование при решении сложных параллельных задач. Совместимые с DirectX 9 графические процессоры были предназначены только для сопоставления функции, требуемых графическим API. Для доступа к вычислительным ресурсам, программист должен был переводить вопрос в родные графические операции.

Шейдеры не имели средств для выполнения произвольных операций разброса памяти. Единственный способ записать результат в память-это выдать его в виде пиксельного цвета. Его значение и настройка представляются в виде буфера кадров для записи - результат к двумерному буферу кадров. Кроме того, единственный способ получить итог от одного прохода вычисления к следующему, это написать все параллельные результаты для пиксельного буфера кадров, а затем использовать его в качестве карты текстуры входных данных шейдера фрагмента пикселя следующего этапа вычисления. Общее схема вычислений на GPU в эту эпоху были довольно неудобными. Тем не менее, бесстрашный исследователи продемонстрировали несколько полезных приложений с кропотливыми усилиями.


Еще одним важным направление в истории развития вычислительной техники стали микропроцессоры. Трудно отличить первый мультипроцессор MIMD. Удивительно, но первый компьютер из корпорации Эккерта-Мочли, например, имел дубликаты для повышения доступности. Еще в 1959 годы были приведены ранние аргументы в пользу нескольких процессоров. Два из наиболее точно описанных многопроцессорных проекта были осуществлены в 1970-е годы в Университете Карнеги-Меллона. Первым из них который состоял из 16 PDP-11, Соединенных координатный коммутатор на 16 блоков памяти. Он был одним из первых мультипроцессоров с большей, чем несколько процессоров и общей памяти модель программирования.

Большая часть исследований в рамках этого проета была посвящена программному обеспечению, особенно в области ОС. Более поздний мультипроцессор был кластерным с распределенной памятью и неравномерным временем доступа. Это отсутствие кэшей и длительная задержка удаленного доступа сделали размещение данных критичным. Этот мультипроцессор и ряд прикладных экспериментов хорошо описаны различных источниках. Многие идеи были бы повторно использованы в 1980-х, когда микропроцессор сделал создания мультипроцессоров намного дешевле.

В попытке построить крупномасштабные мультипроцессоры, были исследовано два различных направления: мультикомпьютеры передачи сообщений и масштабируемые мультипроцессоры с общей памятью. Хотя было много попыток построить сетчатые и гиперкубсвязанные мультипроцессоры. Один из первых мультипроцессоров успешно был построенн в Калтехе . Это позволило внедрить важные достижения в технологии маршрутизации и межсоединений и существенно снизить стоимость межсоединений, что помогло сделать мультикомпьютер жизнеспособным.

Intel iPSC 860, гиперкуб-Соединенное собрание i860s, было основано на этих идеях. Более поздние мультипроцессоры, такие как Intel Paragon, использовали сети с более низкой размерностью и более высокими индивидуальными связями. Образец также использовал отдельный i860 в качестве контроллера связи в каждом узле. Практическим путем было обнаружено, что лучше использовать процессоры i860 как для вычислений, так и для связи. Возникла идея использовать мультипроцессоры CM-5 и соединение fat tree. Это обеспечило доступ userlevel к каналу связи значительно уменьшив задержку передачи сигнала. В 1995 году эти два мультипроцессора представляли современное состояние в мультикомпьютерах передачи сообщений.


Глава 6. Перспективы

На сегодняшний день мы находимся на следующем этапе развития средств вычислительной техник. Его точные временные промежутки еще не известны, но уже можно с определенной долей вероятности утверждать, что он будет посвящен мобильным технологиям. К его основным характеристикам можно отнести следующее:

  • Современный человек носит в рюкзаке карманные компьютеры, которые более мощные, чем почти все компьютеры, которые предшествующие им
  • Огромный спрос на handheld (портативные) устройства
  • Синхронизация устройств и облачного сервиса
  • Распространение геолокации
  • Большая востребованность специальных технологий, например, FitBit
  • Эволюция операционных систем на устройствах

Сегодня можно выделить несколько наиболее прорывных технологий для вычислительной техники, но отметить хотелось две из них, как наиболее востребованные:

  1. Технология «Блокчейн»: распределенных баз данных, использующая алгоритмы для надежного учета транзакций. Информацию в системе нельзя изменить, так как более поздние цепочки защищают данные о предыдущих операциях. Основные области применения:

• Идентификация и управления доступом

• P2P транзакции

• Управление цепочками поставок

• Смарт-контракты

• Отслеживаемость информации

• Регистрация актива

  1. «Интернет вещей»: Программные алгоритмы, реализующие задачи визуального восприятия, принятия решений и др. Концепция ИИ в т.ч. включает машинное обучение – написание самообучающихся программ (т. е. способных становиться более «разумными»). Основные области применения:

• Трейдинговые системы

• Управление рисками и противодействие мошенничеству real-time

• Автоматизированные виртуальные помощники

• Андеррайтинг кредитов и страхование

• Клиентская служба

• Анализ данных и передовая аналитика

Заключение

Современные компьютеры проникают во все составляющие жизни человеческого общества. Компьютер стоит в мобильном телефоне, холодильнике, станке, автомашине, поезде, самолете, электрическом щитке и многих других вещах. Включение данных устройств позволяет повысить оперативность работы с данными устройствами, а также уровень автоматизации деятельности. Современные компьютерные технологии позволяют за счет большого объема обрабатываемой информации, используя специальные алгоритмы, получить более полную информацию о строении вещества, устройств, внутренних органов живого существа и человека в том числе.


Следует отметить, что современные вычислительные комплексы имеют огромное быстродействие, что одновременно с наличием систем связи между отдельными устройствами позволяют организовать обмен данных между различными вычислительными комплексами. Результатом этого является возможность моделирования сложнейших процессов в самых разных отраслях науки. Программное обеспечение позволяет значительно упростить работы с компьютером и автоматизировать выполнение многих действий.

Исходя из вышесказанного, можно утверждать, что все это поднимает человечество на недосягаемую высоту, но при этом делает его очень зависимым от используемых технологий.

Список литературы

  1. Azizi, O., Mahesri, A., Lee, B. C., Patel, S. J., & Horowitz, M. [2010]. Energyperformance tradeoffs in processor architecture and circuit design: a marginal cost analysis. Proc. International Symposium on Computer Architecture, 26-36.
  2. Bell, C. G. [1984]. “The mini and micro industries,” IEEE Computer 17:10 (October), 14–30.
  3. Landstrom, B. [2014]. “The Cost Of Downtime,” http://www.interxion.com/blogs/ 2014/07/the-cost-of-downtime/
  4. McMahon, F. M. [1986]. The Livermore FORTRAN Kernels: A Computer Test of Numerical Performance Range, Tech. Rep. UCRL-55745, Lawrence Livermore National Laboratory, University of California, Livermore.
  5. Cvetanovic, Z., and R. E. Kessler [2000]. “Performance analysis of the Alpha 21264-based Compaq ES40 system,” Proc. 27th Annual Int’l. Symposium on Computer Architecture (ISCA), June 10–14, 2000, Vancouver, Canada, 192–202.
  6. Fabry, R. S. [1974]. “Capability based addressing,” Communications of the ACM 17:7 (July), 403–412.
  7. Jouppi, N. P., and S. J. E. Wilton [1994]. “Trade-offs in two-level on-chip caching,” Proc. 21st Annual Int’l. Symposium on Computer Architecture (ISCA), April 18–21, 1994, Chicago, 34–45.
  8. Kessler, R. E. [1999]. “The Alpha 21264 microprocessor,” IEEE Micro 19:2 (March/April), 24–36.
  9. Texas Instruments [2000]. “History of innovation: 1980s,” www.ti.com/corp/docs/ company/history/1980s.shtml.
  10. Edmondson, J. H., P. I. Rubinfield, R. Preston, and V. Rajagopalan [1995]. “Superscalar instruction execution in the 21164 Alpha microprocessor,” IEEE Micro 15:2, 33–43.
  11. Ellis, J. R. [1986]. Bulldog: A Compiler for VLIW Architectures, MIT Press, Cambridge, Mass
  12. Leiner, A. L., and S. N. Alexander [1954]. “System organization of the DYSEAC,” IRE Trans. of Electronic Computers EC-3:1 (March), 1–10.
  13. Maberly, N. C. [1966]. Mastering Speed Reading, New American Library, New York
  1. Steven Paul Jobs, статья в журнале «Wired», февраль 1996 г.

  2. Электронный числовой интегратор и вычислитель — англ. ENIAC, сокр. от Electronic Numerical Integrator and Computer

  3. EDVAC (Electronic Discrete Variable Automatic Computer) — одна из первых электронных вычислительных машин

  4. EDSAC (англ. Electronic Delay Storage Automatic Calculator

  5. Wilkes, Wheeler, and Gill 1951; Wilkes 1985, 1995

  6. Automatic Sequence Controlled Calculator, сокр. ASCC — автоматический вычислитель, управляемый последовательностями

  7. Redmond and Smith, 1980 г.

  8. MIPS (сокращение от названия соответствующего проекта Стэнфордского универсиета англ. Microprocessor without Interlocked Pipeline Stages

  9. Virtual Address eXtension) — 32-битная компьютерная архитектура, была разработана в середине 1970-x годов Digital Equipment Corporation

  10. Э́ндрю Стюарт Таненба́ум (англ. Andrew Stuart Tanenbaum) — профессор Амстердамского свободного университета

  11. RISC ( англ. Restricted (reduced) Instruction Set Computer — «компьютер с сокращённым набором команд») 

  12. HP Service Manager — флагманский продукт Hewlett-Packard для автоматизации процессов службы поддержки и управления ИТ-услугами

  13. Подразделенческий суперкомпьютер, первый минисуперкомпьютер, разработанный компанией Cydrome.