Файл: История и перспективы развития средств вычислительной техники.pdf
Добавлен: 01.04.2023
Просмотров: 141
Скачиваний: 1
В период с 2000 по 2005 год доминировали три тенденции среди суперскалярных процессоров: внедрение более высоких тактовых частот достигается за счет более глубокой конвейеризации (например, в Pentium 4), введение многопоточности (например, IBM в Power 4 и Intel в Pentium 4 Extreme) и начало о движении к многоядерности (например,от IBM в Power 4, AMD в Opteron).
Еще необходимо отметить одну тенденцию данного периода это активное изменение графических интересов. Раньше они конфигурировались, но не программировались разработчиком приложения. С каждым поколением предлагались дополнительные улучшения. Тем не менее, разработчики становились все более изощренными и просили больше новых особенностей, превосходящие возможности встроенных функции.
GeForce 3 сделал первый шаг к настоящей общей программируемости шейдера. Он дал возможность разработчику приложений частный внутренний набор команд для механизма представления вершин с плавающей запятой. Это совпало с выпуском Microsoft DirectX 8 и расширений вершинных шейдеров OpenGL. Более поздние графические процессоры, вовремя DirectX 9, расширили общую программируемость и возможность представления с плавающей запятой части пикселя и выполненной текстуры. ATI Radeon серии 9700, введенная в 2002 году, включала программируемый 24-битный код с плавающей точкой, в котором процессор фрагмент пикселя запрограммировал с DirectX 9 и OpenGL. GeForce FX добавил 32-разрядные пиксельные процессоры с плавающей запятой. Он был частью общей тенденции к унификации функциональности различных этапов, по крайней мере, для прикладных программ. GeForce от NVIDIA Серии 6800 и 7800 были построены с отдельными конструкциями процессоров и отдельными аппаратными средствами, предназначенными для обработки вершин и фрагментов. XBox 360 представила ранний унифицированный процессор GPU в 2005 году, позволяющий вершинным и пиксельным шейдерам выполнить их на том же процессоре.
По мере появления графических процессоров с поддержкой DirectX 9 некоторые исследователи обратили внимание на скользкий путь роста производительности графических процессоров и начали изучать их использование при решении сложных параллельных задач. Совместимые с DirectX 9 графические процессоры были предназначены только для сопоставления функции, требуемых графическим API. Для доступа к вычислительным ресурсам, программист должен был переводить вопрос в родные графические операции.
Шейдеры не имели средств для выполнения произвольных операций разброса памяти. Единственный способ записать результат в память-это выдать его в виде пиксельного цвета. Его значение и настройка представляются в виде буфера кадров для записи - результат к двумерному буферу кадров. Кроме того, единственный способ получить итог от одного прохода вычисления к следующему, это написать все параллельные результаты для пиксельного буфера кадров, а затем использовать его в качестве карты текстуры входных данных шейдера фрагмента пикселя следующего этапа вычисления. Общее схема вычислений на GPU в эту эпоху были довольно неудобными. Тем не менее, бесстрашный исследователи продемонстрировали несколько полезных приложений с кропотливыми усилиями.
Еще одним важным направление в истории развития вычислительной техники стали микропроцессоры. Трудно отличить первый мультипроцессор MIMD. Удивительно, но первый компьютер из корпорации Эккерта-Мочли, например, имел дубликаты для повышения доступности. Еще в 1959 годы были приведены ранние аргументы в пользу нескольких процессоров. Два из наиболее точно описанных многопроцессорных проекта были осуществлены в 1970-е годы в Университете Карнеги-Меллона. Первым из них который состоял из 16 PDP-11, Соединенных координатный коммутатор на 16 блоков памяти. Он был одним из первых мультипроцессоров с большей, чем несколько процессоров и общей памяти модель программирования.
Большая часть исследований в рамках этого проета была посвящена программному обеспечению, особенно в области ОС. Более поздний мультипроцессор был кластерным с распределенной памятью и неравномерным временем доступа. Это отсутствие кэшей и длительная задержка удаленного доступа сделали размещение данных критичным. Этот мультипроцессор и ряд прикладных экспериментов хорошо описаны различных источниках. Многие идеи были бы повторно использованы в 1980-х, когда микропроцессор сделал создания мультипроцессоров намного дешевле.
В попытке построить крупномасштабные мультипроцессоры, были исследовано два различных направления: мультикомпьютеры передачи сообщений и масштабируемые мультипроцессоры с общей памятью. Хотя было много попыток построить сетчатые и гиперкубсвязанные мультипроцессоры. Один из первых мультипроцессоров успешно был построенн в Калтехе . Это позволило внедрить важные достижения в технологии маршрутизации и межсоединений и существенно снизить стоимость межсоединений, что помогло сделать мультикомпьютер жизнеспособным.
Intel iPSC 860, гиперкуб-Соединенное собрание i860s, было основано на этих идеях. Более поздние мультипроцессоры, такие как Intel Paragon, использовали сети с более низкой размерностью и более высокими индивидуальными связями. Образец также использовал отдельный i860 в качестве контроллера связи в каждом узле. Практическим путем было обнаружено, что лучше использовать процессоры i860 как для вычислений, так и для связи. Возникла идея использовать мультипроцессоры CM-5 и соединение fat tree. Это обеспечило доступ userlevel к каналу связи значительно уменьшив задержку передачи сигнала. В 1995 году эти два мультипроцессора представляли современное состояние в мультикомпьютерах передачи сообщений.
Глава 6. Перспективы
На сегодняшний день мы находимся на следующем этапе развития средств вычислительной техник. Его точные временные промежутки еще не известны, но уже можно с определенной долей вероятности утверждать, что он будет посвящен мобильным технологиям. К его основным характеристикам можно отнести следующее:
- Современный человек носит в рюкзаке карманные компьютеры, которые более мощные, чем почти все компьютеры, которые предшествующие им
- Огромный спрос на handheld (портативные) устройства
- Синхронизация устройств и облачного сервиса
- Распространение геолокации
- Большая востребованность специальных технологий, например, FitBit
- Эволюция операционных систем на устройствах
Сегодня можно выделить несколько наиболее прорывных технологий для вычислительной техники, но отметить хотелось две из них, как наиболее востребованные:
- Технология «Блокчейн»: распределенных баз данных, использующая алгоритмы для надежного учета транзакций. Информацию в системе нельзя изменить, так как более поздние цепочки защищают данные о предыдущих операциях. Основные области применения:
• Идентификация и управления доступом
• P2P транзакции
• Управление цепочками поставок
• Смарт-контракты
• Отслеживаемость информации
• Регистрация актива
- «Интернет вещей»: Программные алгоритмы, реализующие задачи визуального восприятия, принятия решений и др. Концепция ИИ в т.ч. включает машинное обучение – написание самообучающихся программ (т. е. способных становиться более «разумными»). Основные области применения:
• Трейдинговые системы
• Управление рисками и противодействие мошенничеству real-time
• Автоматизированные виртуальные помощники
• Андеррайтинг кредитов и страхование
• Клиентская служба
• Анализ данных и передовая аналитика
Заключение
Современные компьютеры проникают во все составляющие жизни человеческого общества. Компьютер стоит в мобильном телефоне, холодильнике, станке, автомашине, поезде, самолете, электрическом щитке и многих других вещах. Включение данных устройств позволяет повысить оперативность работы с данными устройствами, а также уровень автоматизации деятельности. Современные компьютерные технологии позволяют за счет большого объема обрабатываемой информации, используя специальные алгоритмы, получить более полную информацию о строении вещества, устройств, внутренних органов живого существа и человека в том числе.
Следует отметить, что современные вычислительные комплексы имеют огромное быстродействие, что одновременно с наличием систем связи между отдельными устройствами позволяют организовать обмен данных между различными вычислительными комплексами. Результатом этого является возможность моделирования сложнейших процессов в самых разных отраслях науки. Программное обеспечение позволяет значительно упростить работы с компьютером и автоматизировать выполнение многих действий.
Исходя из вышесказанного, можно утверждать, что все это поднимает человечество на недосягаемую высоту, но при этом делает его очень зависимым от используемых технологий.
Список литературы
- Azizi, O., Mahesri, A., Lee, B. C., Patel, S. J., & Horowitz, M. [2010]. Energyperformance tradeoffs in processor architecture and circuit design: a marginal cost analysis. Proc. International Symposium on Computer Architecture, 26-36.
- Bell, C. G. [1984]. “The mini and micro industries,” IEEE Computer 17:10 (October), 14–30.
- Landstrom, B. [2014]. “The Cost Of Downtime,” http://www.interxion.com/blogs/ 2014/07/the-cost-of-downtime/
- McMahon, F. M. [1986]. The Livermore FORTRAN Kernels: A Computer Test of Numerical Performance Range, Tech. Rep. UCRL-55745, Lawrence Livermore National Laboratory, University of California, Livermore.
- Cvetanovic, Z., and R. E. Kessler [2000]. “Performance analysis of the Alpha 21264-based Compaq ES40 system,” Proc. 27th Annual Int’l. Symposium on Computer Architecture (ISCA), June 10–14, 2000, Vancouver, Canada, 192–202.
- Fabry, R. S. [1974]. “Capability based addressing,” Communications of the ACM 17:7 (July), 403–412.
- Jouppi, N. P., and S. J. E. Wilton [1994]. “Trade-offs in two-level on-chip caching,” Proc. 21st Annual Int’l. Symposium on Computer Architecture (ISCA), April 18–21, 1994, Chicago, 34–45.
- Kessler, R. E. [1999]. “The Alpha 21264 microprocessor,” IEEE Micro 19:2 (March/April), 24–36.
- Texas Instruments [2000]. “History of innovation: 1980s,” www.ti.com/corp/docs/ company/history/1980s.shtml.
- Edmondson, J. H., P. I. Rubinfield, R. Preston, and V. Rajagopalan [1995]. “Superscalar instruction execution in the 21164 Alpha microprocessor,” IEEE Micro 15:2, 33–43.
- Ellis, J. R. [1986]. Bulldog: A Compiler for VLIW Architectures, MIT Press, Cambridge, Mass
- Leiner, A. L., and S. N. Alexander [1954]. “System organization of the DYSEAC,” IRE Trans. of Electronic Computers EC-3:1 (March), 1–10.
- Maberly, N. C. [1966]. Mastering Speed Reading, New American Library, New York
-
Steven Paul Jobs, статья в журнале «Wired», февраль 1996 г. ↑
-
Электронный числовой интегратор и вычислитель — англ. ENIAC, сокр. от Electronic Numerical Integrator and Computer ↑
-
EDVAC (Electronic Discrete Variable Automatic Computer) — одна из первых электронных вычислительных машин ↑
-
EDSAC (англ. Electronic Delay Storage Automatic Calculator) ↑
-
Wilkes, Wheeler, and Gill 1951; Wilkes 1985, 1995 ↑
-
Automatic Sequence Controlled Calculator, сокр. ASCC — автоматический вычислитель, управляемый последовательностями ↑
-
Redmond and Smith, 1980 г. ↑
-
MIPS (сокращение от названия соответствующего проекта Стэнфордского универсиета англ. Microprocessor without Interlocked Pipeline Stages ↑
-
Virtual Address eXtension) — 32-битная компьютерная архитектура, была разработана в середине 1970-x годов Digital Equipment Corporation ↑
-
Э́ндрю Стюарт Таненба́ум (англ. Andrew Stuart Tanenbaum) — профессор Амстердамского свободного университета ↑
-
RISC ( англ. Restricted (reduced) Instruction Set Computer — «компьютер с сокращённым набором команд») ↑
-
HP Service Manager — флагманский продукт Hewlett-Packard для автоматизации процессов службы поддержки и управления ИТ-услугами ↑
-
Подразделенческий суперкомпьютер, первый минисуперкомпьютер, разработанный компанией Cydrome. ↑