ИТ-инфраструктура следующего поколения

Раздел: Информационные технологии
Автор(ы): А.Г. Быков, журнал "Корпоративные системы" (№6, 2005)
размещено: 05.02.2007
обращений: 16258

Понимание роли и места ИТ в нашей жизни и бизнесе повлекло за собой взрывообразный рост объема и возрастание важности компьютерных данных. Ответом на эти потребности стало рождение новой, третьей по счету, архитектуры ИТ-инфраструктуры, в которой предпринята попытка соединить преимущества как централизованной, так и распределенной архитектур.
Современной жизни присущи постоянные изменения, в том числе и архитектуры ИТ-инфраструктуры. Её контуры вырисовываются на наших глазах и уже повлекли изменения в стратегиях ведущих компьютерных фирм, которые активно пропагандируют свое видение и предложения для этой новой архитектуры: Adaptive Enterprise (Hewlett-Packard), стратегия TRIOLE (Fujitsu-Siemens), Business On-Demand (IBM), Utility Computing, Oracle Information Architecture, ILM-стратегия компании EMC2 — эти названия «на слуху», и в среде специалистов знакомы уже многим. Что позволяет утверждать, что это архитектура следующего поколения? В чем ее отличие от прошлых архитектур? Почему она появилась? Как воспользоваться её преимуществами?

Старший вице-президент по бизнес-приложениям и главный технолог Microsoft Дэвид Васкевич в своей, изданной IDG еще в 1993 г. книге «Стратегии клиент-сервер. Руководство по выживанию специалистов по реорганизации» достаточно убедительно во второй раз (первыми были кибернетики) очертил основную роль компьютерных технологий как инструмента оптимизации системы управления, инструмента, исполняющего правила управления, или программы. Этот инструмент сам является сложной многокомпонентной системой, к которой применимы законы управления. Поэтому рассмотрение архитектуры ИТ-инфраструктуры мы будем делать под углом её адекватности потребностям по выполнению правил управления, возможности поддерживать свой собственный гомеостазис1.

ТРИ ЭПОХИ

Сначала рассмотрим, какие архитектуры ИТ-инфраструктуры нам хорошо известны.

В «начале времен» архитектура ИТ-инфраструктуры была централизованной. В центре информационной системы (ИС), в Главном Вычислительном Центре, располагались Главный вычислитель — мейнфрейм, Главная шина данных и подсистема памяти (подсистема хранения данных, включая ОЗУ, диски и ленты), к которым «робкими» ответвлениями Главной шины были подключены «тупые» терминалы. Компонентов было относительно немного, управление было эффективным, но Вычислительный Центр был единой точкой отказа всей ИС, да и стоимость мейнфреймов была очень высока, поэтому они были доступны только самым крупным организациям, которые могли их себе «позволить». С кибернетической точки зрения (закон Эшби2) явно требовалось увеличить разнообразие системы для обеспечения её отказоустойчивости и удешевления, что и произошло.

Появление персональных компьютеров стало началом эры распределенных и намного более доступных вычислений — систем клиент-сервер. Вычислительные устройства и подсистема памяти «распределились» поближе к терминалам, обеспечив более полное соответствие архитектуре приложений. Это потребовало прежде всего бурного развития технологий шины данных — системы коммуникаций, развитие которых сейчас явно опережает эволюционное состояние остальных компонентов корпоративного «компьютера».

Клиент-серверное построение относительно долгое время отвечало требованиям бизнеса. Но при этом постепенно была потеряна возможность эффективного управления ИТ-инфраструктурой. Уже в самом начале появились проблемы с организацией адекватного управления распределенными системами, обеспечением надежности и эффективности (первыми столкнулись с ними крупные организации). Возможности системы управления всё больше отставали от увеличения разнообразия ИТ-инфраструктуры. И всё же существенная экономия от использования массовых, «дешевых» компонентов распределенных систем более десятилетия позволяла «закрывать глаза» на неуправляемое разрастание их количества, на трудности с получением ответа на простые (с точки зрения бизнеса) вопросы по уровню использования имеющихся ресурсов, на проблемы обеспечения необходимой надежности и отказоустойчивости, на постоянный, быстрый и всё более неконтролируемый рост расходов на управление самой ИТ-инфраструктурой.

Но времена изменились. Понимание роли и места ИТ в нашей жизни и бизнесе повлекло за собой взрывообразный рост объема и возрастание важности компьютерных данных. Несмотря на то что эйфория электронного бизнеса прошла, всё к большему количеству ИС организаций предъявляется требование быть on-line 24 часа в сутки, 7 дней в неделю. Всё большее число руководителей начинает оценивать затраты на ИТ с инвестиционной точки зрения и хотят получить как можно больше на каждые вложенные инвестиционные доллар/евро/гривну. Поэтому перед ИТ-менеджерами стоят многочисленные проблемы, вызванные постоянным давлением — «делать больше с меньшими ресурсами», улучшать уровень ИТ-сервисов наряду со снижением операционных расходов.

Ответом на эти потребности стало рождение новой, третьей по счету, архитектуры ИТ-инфраструктуры, в которой предпринята попытка соединить преимущества как централизованной, так и распределенной архитектур. Делается попытка использовать принципы, которые применяются в управлении другими крупными, сложными и распределенными системами.

С точки зрения управления ИТ-инфраструктурой (и учитывая закон Эшби) нас прежде всего интересуют:

  • способы уменьшения существующего разнообразия её компонентов;
  • увеличение разнообразия способов воздействия на неё как систему.

Ключевыми словами здесь являются «консолидация» и «виртуализация». Вот с этими терминами и надо разобраться подробнее.

ФИЗИЧЕСКАЯ КОНСОЛИДАЦИЯ

Консолидацией называют процесс объединения мелких объектов в более крупный, этакого «собирания камней» после «разбрасывания». В случае компьютерных систем консолидация может быть двух типов: физическая и логическая.

Физическая консолидация означает физическое размещение серверов и системы хранения данных в одном или нескольких ограниченных помещениях или вычислительных центрах, использование нескольких мощных серверов вместо десятков или сотен более мелких.

Уменьшение количества серверов, уменьшение количества производителей используемого оборудования, уменьшение количества интерфейсов управления дает ощутимый эффект снижения общей стоимости владения. Прежде всего это происходит за счет снижения административных расходов, но не только. Не надо забывать, что стоимость процессорной мощности все время снижается, при этом стоимость необходимого пространства, электропитания, установки, интеграции и администрирования остается на том же уровне (и одинакова независимо от того, сильно или не очень загружен ваш сервер).

При «только физической» консолидации проблема кроется в том, что мы просто «возвращаемся» в вычислительный центр прошлого с созданием одной или нескольких точек отказа всей ИС организации. При этом не исключены варианты, что такая консолидация может снизить общую гибкость организации. Поэтому одной физической консолидации в настоящее время уже недостаточно.

ВИРТУАЛИЗАЦИЯ СЕРВЕРОВ

По мнению Gartner Group, назвавшей 2004 год годом виртуализации, современные организации должны думать сегодня прежде всего не о консолидации серверов, а о стратегии виртуализации серверов3. В этом случае мы сталкиваемся с другим видом консолидации — логической.

Технологии виртуализации серверов — это способ спрятать физическую природу ресурсов за счет расслоения всей системы на различные уровни управления. Тем самым обеспечивается кардинальное уменьшение количества управляемых серверных компонентов (прежде всего за счет стандартизации), а за счет добавления инструментов более «гранулярного» управления этими стандартными компонентами достигается увеличение количества способов управления ими. Добавление многоуровневой организации управления всей ИТ-инфраструктурой на базе определения сервисов (например используя стандарты ITIL) ещё более увеличивает разнообразие воздействия на ИТ-инфраструктуру, делая управление реально адекватным разнообразию управляемой системы.

Слой виртуализации обеспечивает разделение реальных физических ресурсов — процессоров, подсистемы памяти (в том числе и системы хранения данных), а также сетевого оборудования и ПО, которое выполняется на них (рис. 1).

Виртуальная инфраструктура

Технологии виртуализации используются с давних пор в мейнфреймах под именами «управления смешанной нагрузкой» и «логических разделов». Её зачатки можно обнаружить практически во всех современных ОС (например HAL уровень в Windows или до сих пор революционная архитектура TIMI для IBM AS/400 и OS/400).

Одним из ярких результатов использования инструментов «гранулярного» управления в этой технологии является, например, тот факт, что обычная средняя полезная загруженность мейнфрейма зачастую находится в районе 80%, что вдвое превышает обычную среднюю загрузку RISC-сервера и намного выше средней загруженности серверов с Intel-архитектурой (5-15%). Практически повышение загруженности при использовании технологий виртуализации составляет от 30 и более процентов для RISC и не меньше чем в два раза — для Intel-серверов.

Кроме достижения более рациональной загруженности процессорных мощностей, технологии виртуализации серверов позволяют достичь следующих результатов:

  • предоставление компьютерных мощностей для новых приложений в течение десятков секунд, а не дней;
  • время отклика на проведение изменений измеряется в минутах;
  • обслуживание аппаратных компьютерных ресурсов производится без прерывания работы (zero-downtime);
  • обеспечивается создание высокоустойчивых конфигураций с временем восстановления, измеряемым в минутах (и за гораздо меньшие деньги).

Такие новые технологии виртуализации, как распределенные менеджеры нагрузки, SAN и grid-вычисления, дополнительно расширяют границы применения виртуализации за пределы одного физического сервера.

С точки зрения организации, технологии виртуализации серверов позволяют обеспечить необходимый уровень стабильности исполнения правил управления (программ), быстро реагировать на изменившуюся обстановку, обеспечивают потребности системы управления организацией в целом, делают ИТ-сервисы по-настоящему гибкими и согласованными. И все это за меньшую цену.

КОНСОЛИДАЦИЯ СИСТЕМ ХРАНЕНИЯ ДАННЫХ

Еще одним стимулом изменений, приведших к возникновению новой архитектуры ИТ-инфраструктуры, стал взрывообразный рост объемов информации (вместе с одновременным нарастанием ее важности, ценности для практически каждого бизнеса). Использование прямого подключения системы хранения данных к серверу (Direct Attached Storage, DAS) долгие годы удовлетворяло потребности организаций при приемлемом уровне затрат. Но при больших объемах информации стоимость системы хранения данных, вместе со всеми мерами по защите информации, стала значительно превышать стоимость всех остальных компонентов ИС. В такой ситуации уже и система хранения данных требует стратегического планирования.

Аналогично ситуации с процессорными ресурсами сегодня мы уже не можем мириться с недоиспользованием дискового пространства на уровне 15-50% в «островках данных», с порожденным «взрывом данных» «взрывом потребностей администрирования данных» и, зачастую, даже невозможностью обеспечить адекватную защиту за сопоставимые деньги. Разнообразие компонентов системы памяти стало недопустимо превышать требуемое разнообразие инструментов управления системой памяти.

Ответом на все эти требования стала технология сетей хранения данных (Storage Area Network, SAN), которая является примером логической консолидации ресурсов хранения данных. Аналогично сетям LAN, которые позволяют эффективно разделять свои ресурсы для своих клиентов, сети SAN позволяют эффективно разделять ресурсы системы хранения данных между серверами.

Внедрение SAN позволяет достичь следующих основных результатов:

  • эффективное использование ресурсов системы хранения данных на уровне 80-85%;
  • снижение в 7-10 раз расходов на управление системами хранения данных (включая резервирование и восстановление данных, управление свободным пространствоми и производительностью, планирование восстановления после катастроф);
  • появление возможности обеспечения реальной непрерывности бизнеса (Business Continuity, BC) и быстрого восстановления после возникновения чрезвычайных обстоятельств (Disaster Recovery, DR) за сопоставимую с возможными потерями цену.

ИДЕИ — В ПРАКТИКУ

Как часть собственной стратегии по созданию адаптивной и адекватной ИТ-инфраструктуры и в результате сотрудничества с компаниями-производителями (прежде всего с ЕМС и VMware, Sun Microsystems и Hewlett-Packard) компания «S&T Софт-Троник» предлагает несколько вариантов решений построения современного вычислительного центра (см. рис. 2). Они базируются на серверах как RISC, так и Intel-архитектуры, системах хранения данных и соответствующем ПО управления компании ЕМС, ПО виртуализации серверов Intel-архитектуры VMware, Solaris Containers (Solaris 10), HP Virtual Server Environment (HP-UX Hi).

Пример конфигурации

Эти решения никак не конкурируют с созданием систем grid-вычислений или кластеров с высокой производительностью, которые предпочтительны для крупных и/или специализированных решений. Однако они позволяют, например, находясь в рамках бюджета покупки 30 двухпроцессорных brand-name серверов (согласно идеологии старой архитектуры), сразу же:

  • обеспечить тот же или даже более высокий уровень производительности;
  • внедрить отказоустойчивую SAN;
  • организовать удаленный офис «горячей» замены для обеспечения непрерывности бизнеса и быстрого восстановления после чрезвычайных событий;
  • организовать централизованное управление и мониторинг;
  • купить библиотеку резервного копирования;
  • дополнительно обучить новым технологиям двух системных администраторов.

Приведенный пример «моментальных» экономических выгод от использования новой архитектуры ИТ-инфраструктуры (см. рис. 3) показывает настолько очевидные преимущества, что, согласно принципу бритвы Оккама, долговременные выгоды в этом случае можно и не учитывать.

Виртуальная инфраструктура будущего

Об авторе:

    Быков Алексей Геннадиевич — консультант, отдел информационно-технической поддержки, компания «S&T Софт-Троник» (г. Киев).


    1 Гомеостазис (от греч. homoios — одинаковый и stasis — состояние), или гомеостаз — способность открытой системы сохранять постоянство своего внутреннего состояния посредством скоординированных реакций, направленных на поддержание динамического равновесия.

    2 «Только разнообразие может справиться с разнообразием» (под разнообразием в кибернетике понимается число различаемых объектов или различаемых состояний объекта).

    3 Predicts 2004: Server Virtualization Evolves Rapidly.



ЧИТАЙТЕ ТАКЖЕ:
КНИГИ ПО ТЕМЕ:
Цифровой банк. Как создать цифровой банк или стать имЦифровой банк. Как создать цифровой банк или стать им
Интернет вещей. Будущее уже здесьИнтернет вещей. Будущее уже здесь
Блокчейн. Схема новой экономикиБлокчейн. Схема новой экономики

Отзывы

Игорь Филипенко, iphilipenko@ingo.com.ua
Хороший материал и правильное место для размещения. Было бы неплохо 2-3 "кейса" из разных индустрий с реальными цифрами.
Игорь
2007-02-05 10:21:10
Ответить




МЕТОДОЛОГИЯ: Стратегия, Маркетинг, Изменения, Финансы, Персонал, Качество, ИТ
АКТУАЛЬНО: Новости, События, Тренды, Инсайты, Интервью, Бизнес-обучение, Рецензии, Консалтинг
СЕРВИСЫ: Бизнес-книги, Работа, Форумы, Глоссарий, Цитаты, Рейтинги, Статьи партнеров
ПРОЕКТЫ: Блог, Видео, Визия, Визионеры, Бизнес-проза, Бизнес-юмор

Страница Management.com.ua в Facebook    Менеджмент.Книги: телеграм-канал для управленцев    Management Digest в LinkedIn    Отслеживать нас в Twitter    Подписаться на RSS    Почтовая рассылка


Copyright © 2001-2024, Management.com.ua

Подписка на Менеджмент.Дайджест

Получайте самые новые материалы на свой e-mail (1 раз в неделю)



Спасибо, я уже подписан(-а)