Файл: Основы_обл_техн_лекции.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 21.04.2024

Просмотров: 264

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

управление самыми важными серверами предприятия. Удачным примером оборудования, которое может успешно решить задачи консолидации вычислительных ресурсов в организациях любого уровня являются блейд-системы, а также и системы и сети хранения данных.

Очевидное преимущество этого решения в том, что упрощается выделение персонала поддержки и его работа по развертыванию и управлению системами, снижается степень дублирования опытных кадров. Централизация также облегчает использование стандартизованных конфигураций и процессов управления, создание рентабельных систем резервного копирования для восстановления данных после сбоя и поддержания связности бизнеса. Упрощается и решение вопросов организации высококачественного контроля за состоянием окружающей среды и обеспечения физической защиты. Может быть улучшена и сетевая безопасность, поскольку серверы оказываются под защитой единого, централизованно управляемого межсетевого экрана.

Логический тип консолидации подразумевает перестройку системы управления ИТ-инфраструктуры. Это необходимо как для увеличения масштабируемости и управляемости сложной распределенной вычислительной системы, так и для объединения сегментов корпоративной сети. Логическая консолидация обеспечивает введение централизованного управления и унификацию работы с ресурсами компании на основе открытых стандартов. В результате появляется возможность создания глобальных информационных служб предприятия — каталога LDAP, корпоративного портала или ERP-системы, что в конечном итоге позволит улучшить управляемость предприятия за счет более актуальной и полной информации об его функционировании.

Логическая консолидация приложений приводит к централизации управления критическими для бизнеса системами и приложениями. Преимущества логической консолидации очевидны: в первую очередь это высвобождение аппаратных ресурсов, которые можно использовать на других участках информационной системы. Во-вторых, более простая и логичная структура управления ИТ-инфраструктурой делает ее более гибкой и приспособленной для будущих изменений.

Сценарий гомогенной консолидации предусматривает перенос одного масштабного приложения, ранее выполнявшегося на нескольких серверах, на один, более мощный (рис. 1.6). В качестве примера такой операции можно привести базы данных, которые зачастую наращивают экстенсивным путем по мере роста объема обрабатываемой информации. Объединение данных и приложений на одном сервере заметно ускоряет процессы обработки и поиска, а также повышает уровень целостности.

Гетерогенная консолидация по содержанию схожа с гомогенной, но в этом случае объединению подлежат разные приложения. Например, несколько экземпляров Exchange Server и SQL Server, ранее запускавшиеся на отдельных компьютерах, могут быть сведены на единой машине. Преимущества гетерогенной консолидации - возрастающая масштабируемость сервисов и более полное задействование системных ресурсов.

13


Рисунок 1.6 Консолидация приложений

Как отмечают специалисты по облачным технологиям – консолидация ИТинфраструктуры – является первым шагом к “облаку”. Чтобы перейти к использованию облачных технологий, компаниям необходимо сначала решить задачи неконсолидированной ИТ-инфраструктуры. «Без консолидации невозможно построить эффективное процессно-ориентированное управление, поскольку отсутствует единая точка предоставления сервисов».

Анализируя историю развития информационных технологий и современные тенденции можно сделать вывод, что эволюционный виток ИТ, начавшийся вместе с эпохой мэйнфреймов более пятидесяти лет назад, замкнулся – вместе с облаками мы вернулись к централизации ресурсов, но на этот раз не на уровне мэйнфреймов с их зелеными терминалами а на новом технологическом уровне.

Выступая на конференции, посвященной проблемам современных процессоров, профессор Массачусетского технологического института Ананд Агарвал сказал: «Процессор – это транзистор современности». Новый уровень отличается тем, что здесь также собираются мэйнфреймы, но виртуальные, и не из отдельных транзисторов, как полвека назад, а из целых процессоров или целиком из компьютеров. На заре ИТ многочисленные компании и организации «лепили» собственные компьютеры из дискретных компонентов, монтируя их на самодельных печатных платах – каждая организация делала свою машину, и ни о какой стандартизации или унификации и речи не могло быть. И вот на пороге второго десятилетия XXI века ситуация повторяется – точно так же из серверов-лезвий, компьютеров, разнообразного сетевого оборудования собираются внешние и частные облака. Одновременно наблюдается та же самая технологическая разобщенность и отсутствие унификации: Microsoft, Google, IBM, Aptana, Heroku, Rackspace, Ning, Salesforce строят глобальные мэйнфреймы, а кто-то под собственные нужды создает частные облака, которые являются теми же мэйнфреймами, но меньшего масштаба. Остается предположить, что впереди изобретение интегральной схемы и микропроцессора.

Ключевые термины:

Мейнфрейм - это главный компьютер вычислительного центра с большим объемом внутренней и внешней памяти.

Блэйд-сервер — компьютерный сервер с компонентами, вынесенными и обобщёнными в корзине для уменьшения занимаемого пространства.

Система Хранения Данных (СХД) - это программно-аппаратное решение по организации надёжного хранения информационных ресурсов и предоставления к ним гарантированного доступа.

14


SAN - это высокоскоростная коммутируемая сеть передачи данных, объединяющая серверы, рабочие станции, дисковые хранилища и ленточные библиотеки. Обмен данными происходит по протоколу Fibre Channel, оптимизированному для быстрой гарантированной передачи сообщений и позволяющему передавать информацию на расстояние от нескольких метров до сотен километров.

Консолидация — это объединение вычислительных ресурсов либо структур управления в едином центре.

Литература:

1.John W. Rittinghouse, James F. Ransome – «Cloud Computing: Implementation, Management, and Security»

2.http://www.hwp.ru/articles/Blade_serveri_ih_istoriya_2C_osnovnie_preimushchestva_2 C_sovremennie_sistemi/

3.http://sun.com

4.http://hp.com

15

Лекция 2. Технологии виртуализации.

Технологии виртуализации

Согласно статистике средний уровень загрузки процессорных мощностей у серверов под управлением Windows не превышает 10%, у Unix-систем этот показатель лучше, но тем не менее в среднем не превышает 20%. Низкая эффективность использования серверов объясняется широко применяемым с начала 90-х годов подходом “одно приложение — один сервер”, т. е. каждый раз для развертывания нового приложения компания приобретает новый сервер. Очевидно, что на практике это означает быстрое увеличение серверного парка и как следствие — возрастание затрат на его администрирование, энергопотребление и охлаждение, а также потребность в дополнительных помещениях для установки всё новых серверов и приобретении лицензий на серверную ОС.

Виртуализация ресурсов физического сервера позволяет гибко распределять их между приложениями, каждое из которых при этом “видит” только предназначенные ему ресурсы и “считает”, что ему выделен отдельный сервер, т. е. в данном случае реализуется подход “один сервер — несколько приложений”, но без снижения производительности, доступности и безопасности серверных приложений. Кроме того, решения виртуализации дают возможность запускать в разделах разные ОС с помощью эмуляции их системных вызовов к аппаратным ресурсам сервера.

Рисунок 2.1 Виртуализация подразумевает запуск на одном физическом компьютере нескольких виртуальных компьютеров

Воснове виртуализации лежит возможность одного компьютера выполнять работу нескольких компьютеров благодаря распределению его ресурсов по нескольким средам. С помощью виртуальных серверов и виртуальных настольных компьютеров можно разместить несколько ОС и несколько приложений в едином местоположении. Таким образом, физические и географические ограничения перестают иметь какое-либо значение. Помимо энергосбережения и сокращения расходов благодаря более эффективному использованию аппаратных ресурсов, виртуальная инфраструктура обеспечивает высокий уровень доступности ресурсов, более эффективную систему управления, повышенную безопасность и усовершенствованную систему восстановления

вкритических ситуациях.

Вшироком смысле понятие виртуализации представляет собой сокрытие настоящей реализации какого-либо процесса или объекта от истинного его представления

16


для того, кто им пользуется. Продуктом виртуализации является нечто удобное для использования, на самом деле, имеющее более сложную или совсем иную структуру, отличную от той, которая воспринимается при работе с объектом. Иными словами, происходит отделение представления от реализации чего-либо. Виртуализация призвана абстрагировать программное обеспечение от аппаратной части.

Вкомпьютерных технологиях под термином «виртуализация» обычно понимается абстракция вычислительных ресурсов и предоставление пользователю системы, которая «инкапсулирует» (скрывает в себе) собственную реализацию.

Проще говоря, пользователь работает с удобным для себя представлением объекта, и для него не имеет значения, как объект устроен в действительности.

Сейчас возможность запуска нескольких виртуальных машин на одной физической вызывает большой интерес среди компьютерных специалистов, не только потому, что это повышает гибкость ИТ-инфраструктуры, но и потому, что виртуализация, на самом деле, позволяет экономить деньги.

История развития технологий виртуализации насчитывает более сорока лет. Компания IBM была первой, кто задумался о создании виртуальных сред для различных пользовательских задач, тогда еще в мэйнфреймах. В 60-х годах прошлого века виртуализация представляла чисто научный интерес и была оригинальным решением для изоляции компьютерных систем в рамках одного физического компьютера. После появления персональных компьютеров интерес к виртуализации несколько ослаб ввиду бурного развития операционных систем, которые предъявляли адекватные требования к аппаратному обеспечению того времени. Однако бурный рост аппаратных мощностей компьютеров в конце девяностых годов прошлого века заставил ИТ-сообщество вновь вспомнить о технологиях виртуализации программных платформ.

В1999 г. компания VMware представила технологию виртуализации систем на базе x86 в качестве эффективного средства, способного преобразовать системы на базе x86 в единую аппаратную инфраструктуру общего пользования и назначения, обеспечивающую полную изоляцию, мобильность и широкий выбор ОС для прикладных сред. Компания VMware была одной из первых, кто сделал серьезную ставку исключительно на виртуализацию. Как показало время, это оказалось абсолютно оправданным. Сегодня WMware предлагает комплексную виртуализационную платформу четвертого поколения VMware vSphere 4, которая включает средства как для отдельного ПК, так и для центра обработки данных. Ключевым компонентом этого программного комплекса является гипервизор VMware ESX Server. Позднее в «битву» за место в этом модном направлении развития информационных технологий включились такие компании как Parallels (ранее

SWsoft), Oracle (Sun Microsystems), Citrix Systems (XenSourse).

Корпорация Microsoft вышла на рынок средств виртуализации в 2003 г. с приобретением компании Connectiх, выпустив свой первый продукт Virtual PC для настольных ПК. С тех пор она последовательно наращивала спектр предложений в этой области и на сегодня почти завершила формирование виртуализационной платформы, в состав которой входят такие решения как Windows 2008 Server R2 c компонентом Hyper- V, Microsoft Application Virtualization (App-v), Microsoft Virtual Desktop Infrastructure (VDI), Remote Desktop Services, System Center Virtual Machine Manager.

На сегодняшний день поставщики технологий виртуализации предлагают надежные и легкоуправляемые платформы, а рынок этих технологий переживает настоящий бум. По оценкам ведущих экспертов, сейчас виртуализация входит в тройку наиболее перспективных компьютерных технологий. Многие эксперты предсказывают, что к 2015 году около половины всех компьютерных систем будут виртуальными.

Повышенный интерес к технологиям виртуализации в настоящее время неслучайно. Вычислительная мощь нынешних процессоров быстро растет, и вопрос даже не в том, на что эту мощь расходовать, а в том, что современная «мода» на двухъядерные

имногоядерные системы, проникшая уже и в персональные компьютеры (ноутбуки и

17


десктопы), как нельзя лучше позволяет реализовать богатейший потенциал идей виртуализации операционных систем и приложений, выводя удобство пользования компьютером на новый качественный уровень. Технологии виртуализации становятся одним из ключевых компонентов (в том числе, и маркетинговых) в самых новых и будущих процессорах Intel и AMD, в операционных системах от Microsoft и ряда других компаний.

Преимущества виртуализации

Приведем основные достоинства технологий виртуализации:

1.Эффективное использование вычислительных ресурсов. Вместо 3х, а то 10

серверов, загруженных на 5-20% можно использовать один, используемый на 5070%. Кроме прочего, это еще и экономия электроэнергии, а также значительное сокращение финансовых вложений: приобретается один высокотехнологичный сервер, выполняющий функции 5-10 серверов. С помощью виртуализации можно достичь значительно более эффективного использования ресурсов, поскольку она обеспечивает объединение стандартных ресурсов инфраструктуры в единый пул и преодолевает ограничения устаревшей модели «одно приложений на сервер».

2.Сокращение расходов на инфраструктуру: Виртуализация позволяет сократить количество серверов и связанного с ними ИТ-оборудования в информационном центре. В результате этого потребности в обслуживании, электропитании и охлаждении материальных ресурсов сокращаются, и на ИТ затрачивается гораздо меньше средств.

3.Снижение затрат на программное обеспечение. Некоторые производители программного обеспечения ввели отдельные схемы лицензирования специально для виртуальных сред. Так, например, покупая одну лицензию на Microsoft Windows Server 2008 Enterprise, вы получаете право одновременно её использовать на 1 физическом сервере и 4 виртуальных (в пределах одного сервера), а Windows Server 2008 Datacenter лицензируется только на количество процессоров и может использоваться одновременно на неограниченном количестве виртуальных серверов.

4.Повышение гибкости и скорости реагирования системы: Виртуализация предлагает новый метод управления ИТ-инфраструктурой и помогает ИТадминистраторам затрачивать меньше времени на выполнение повторяющихся заданий — например, на инициацию, настройку, отслеживание и техническое обслуживание. Многие системные администраторы испытывали неприятности, когда «рушится» сервер. И нельзя, вытащив жесткий диск, переставив его в другой сервер, запустить все как прежде… А установка? поиск драйверов, настройка, запуск… и на все нужны время и ресурсы. При использовании виртуального сервера — возможен моментальный запуск на любом «железе“, а если нет подобного сервера, то можно скачать готовую виртуальную машину с установленным и настроенным сервером, из библиотек, поддерживаемых компаниями разработчиками гипервизоров (программ для виртуализации).

5.Несовместимые приложения могут работать на одном компьютере. При использовании виртуализации на одном сервере возможна установка linux и windows серверов, шлюзов, баз данных и прочих абсолютно несовместимых в рамках одной не виртуализированной системы приложений.

6.Повышение доступности приложений и обеспечение непрерывности работы предприятия: Благодаря надежной системе резервного копирования и миграции виртуальных сред целиком без перерывов в обслуживании вы сможете сократить периоды планового простоя и обеспечить быстрое восстановление системы в критических ситуациях. “Падение» одного виртуального сервера не ведет к потери остальных виртуальных серверов. Кроме того, в случае отказа одного физического сервера возможно произвести автоматическую замену на резервный сервер.

18