По мере того как виртуализация перестает быть чем-то новым, перед управляющим ЦОДами персоналом ИТ-подразделений встает вопрос: “А что же дальше?”. Совершенно очевидно, что многие предприятия получили в результате виртуализации значительный экономический эффект и этот рынок продолжает развиваться.
Ожидается, что к концу года объем рынка средств виртуализации в целом достигнет вполне приличного показателя в 2,7 млрд. долл. Такую цифру приводит исследовательская компания Gartner. Но теперь, когда данная технология по меньшей мере частично используется большинством предприятий, ИТ-подразделения начинают сталкиваться с непредвиденными трудностями, которые сдерживают ее дальнейшее распространение по всей информационной инфраструктуре, в некоторых случаях даже не позволяют текущим проектам достичь поставленных перед ними целей.
Действительно, по данным опроса 120 руководителей ИТ-подразделений, проведенного в этом году компанией Network Instruments на выставке Interop, 55% из них получили в результате виртуализации не столько выигрыш, сколько новые проблемы. Среди таких проблем назывались более высокие затраты на виртуализацию по сравнению с ожидавшимися (47% заявили, что затраты были слишком высоки) и трудности с управлением виртуальными средами.
Примерно 59% проинтервьюированных заявили, что их организации не имели опыта адекватного управления данной технологией. Кроме того, 27% сообщили, что отсутствие наглядности и инструментов управления стали для них главной проблемой при использовании виртуализации.
“Затраты на управление виртуальными средами могут оказаться выше ожидавшихся, потому что с ростом степени загрузки серверов расходы на управление ими могут остаться на прежнем уровне или возрасти в связи с освоением организациями технологий, с которыми прежде они не имели дела”, — писал аналитик из компании Gartner Рене Миллмен в опубликованном в апреле 2009 г. докладе о виртуализации.
Чтобы пожинать истинные плоды виртуализации, наращивать долю виртуализированных серверов и использовать эту технологию для обеспечения работы важнейших приложений, предприятиям следует согласовать свои стратегии виртуализации с изменениями, которые происходят в их серверных комнатах с появлением новой технологии.
“Мы видим, что компании ищут способы повысить уровень виртуализации своих серверов и сделать это с сознанием ответственности и соблюдением рамок бюджета, — сказал Алекс Бэкмен, генеральный директор компании VKernel, выпускающей средства управления виртуальными средами. — С точки зрения соотношения затрат и преимуществ они получают очевидную экономию на электроэнергии и на занимаемых серверами площадях. Но при этом они начинают понимать, что в области виртуализации их ожидает много сюрпризов, поэтому затраты оказываются гораздо выше, чем они предполагали”.
Перед лицом трудностей
Какие же сюрпризы преподносит виртуализация руководителям ИТ-подразделений? Основная проблема, быстро выросшая до больших масштабов, связана с наглядностью управления, считает Джон Бломейер, аналитик, работающий в ЦОДе компании Hershey Entertainment & Resort Co. (г. Хёрши, шт. Пенсильвания).
“Недостатком виртуализации является утрата наглядного представления о своей вычислительной среде, — отметил он. — Я думаю, что выражу мнение многих самых разных людей, если скажу, что основная проблема связана со стремлением знать все о вашей виртуальной вычислительной среде точно так же, как вы знали, когда она была физической”.
Бломейер считает, что за последние несколько лет он со своей командой довел уровень виртуализации серверов в ЦОДе Hershey примерно до 70%. Им приходилось преодолевать трудности, поскольку разделение ресурсов в рамках гипервизора хотя и помогало в некоторых случаях справиться с перегрузками системы, в то же время затрудняло поиск и устранение неисправностей.
Основная проблема связана со стремлением знать все о вашей виртуальной вычислительной среде точно так же, как вы знали, когда она была физической.
Подобно многим ИТ-менеджерам Бломейер несколько лет назад обнаружил, что если он хочет довести виртуализацию до нынешнего уровня, его организации необходимо будет найти способы управления виртуальными машинами (ВМ) и их оптимизации. Два года назад он приобрел набор инструментов для управления виртуализацией производства VKernel, чтобы его сотрудники могли более глубоко анализировать производительность систем и более уверенно контролировать возможные сбои в работе ВМ.
“Главным образом нам хотелось знать, что происходит внутри машин: как они работают, не ограничивают ли их производительность дисковые операции чтения-записи или какие-то другие операции, — пояснил он. — Мне хотелось знать, нет ли там ограничений производительности, которые можно было бы устранить за счет настройки оперативной памяти или процессора. Меня интересовало также, работают системы в оптимальном режиме или они перегружены”.
Бломейер не одинок. По мнению аналитиков Gartner, рынок средств управления виртуальными серверами в ближайшие несколько лет должен ежегодно расти на 38% и к 2013 г. достичь 4 млрд. долл. Причина такого роста, считают аналитики, заключается в том, что организации вроде Hershey крайне нуждаются в инструментах оптимизации виртуальных сред.
В нынешней ситуации, сказал Бэкмен из компании VKernel, отсутствие наглядности является лишь одной из многих проблем, которые несет с собой виртуализация. Другие связаны с планированием вычислительной мощности, мониторингом систем и управлением хранением.
“До появления виртуализированных ЦОДов на каждом Windows-сервере работало одно приложение, — рассказал он. — Серверу не приходилось предоставлять оперативную память, процессоры или систему хранения в качестве разделяемых ресурсов, поэтому не было проблем с планированием и мониторингом его производительности. А в виртуализированном ЦОДе эти процессы начинают играть ключевую роль, позволяя обеспечить хорошую базовую производительность и высокую доступность”.
Это в особенности касается планирования хранения данных и управления им. В эпоху виртуализации хранение стало весьма дорогим делом. Чтобы использовать преимущества мобильности ВМ, которую обеспечивают корпоративные решения в области виртуализации, организациям необходимо подключать эти машины к дорогостоящим сетям хранения. Немаловажная деталь, которую многие предприятия не учитывали, приступая к виртуализации.
“Я общался со многими клиентами и потенциальными покупателями, которые говорили: “Ух, я и не думал, что придется сразу потратить 500 тыс. долл. на массивы хранения с интерфейсом Fibre Channel SCSI”, — отметил Бэкмен. — А это лишь первое из того, что им потребуется. Поскольку возможность быстро и легко создавать новые ВМ сводит их с ума, количество ВМ начинает быстро расти и исчерпывает столь дорогой ресурс, как общая система хранения”.
По данным опроса, проведенного Gartner в конце 2008 г., 54% из 147 респондентов заявили, что виртуализация серверов заставляет их организации менять архитектуру систем хранения.
“Корпорация EMC не случайно купила компанию VMware, — заметил Бэкмен. — Рост количества ВМ не только создает проблемы с хранением, но и становится причиной головной боли, когда организация пытается инвентаризировать свои активы. Когда серверы представляли собой просто компьютеры определенной конфигурации и размещались в стойках в серверных комнатах, даже тогда управление активами представляло нелегкую задачу. А теперь подумайте, какие трудности возникают, если серверы уже не являются больше физическими объектами”.
Инструменты управления: встроенные или приобретенные отдельно?
Конечно, имеются способы совершенствования управления виртуальными средами по сравнению с тем, что обеспечивают традиционные функции гипервизора. Вопрос в том, как лучше это сделать.
“Борьба переносится в сферу управления в связи с тем, что гипервизоры становятся “бесплатными” (доходы обеспечиваются за счет технического обслуживания и поддержки пользователей), а их функции реализуются на аппаратном уровне, — писали в апреле аналитики из Gartner. — В настоящее время рынок средств управления виртуальными серверами широко открыт для всех. Более 100 производителей выпускают продукты, удовлетворяющие те или иные потребности в области управления”.
Поскольку рынок находится в процессе становления, выбор инструментов управления ВМ может оказаться непростой задачей. Многие специалисты по ИТ затрудняются решить, выбрать им набор вполне зрелых приложений сторонних производителей или дождаться, когда крупные вендоры средств виртуализации выпустят собственные инструменты, встроенные в их платформы. Основные игроки этого рынка вполне сознают наличие спроса на средства управления и стремятся удовлетворить его, разрабатывая собственные продукты.
Например, в июле VMware расширила функции управления, заложенные в ее продукт vCenter, дополнив его новыми возможностями: vCenter Chargeback позволяет глубоко изучить ресурсы ЦОДа, а vCenter AppSpeed расширяет функции управления приложениями, запущенными в виртуальной среде.
Gartner ожидает, что в течение ближайших двух лет наиболее широко будут представлены на рынке те функции управления, которые заложены в соответствующие платформы.
Однако некоторые менеджеры, и среди них Бломейер, предпочитают не дожидаться, пока разработчики платформ создадут свои наборы инструментов. Бломейер поясняет, что главная причина, побудившая его обратиться к сторонним разработчикам, заключалась в том, что его не удовлетворяли аналитические возможности vCenter. И хотя VMware разработала на ближайший год четкий план выпуска средств управления, неопределенность относительно цен и фактических функций ее продуктов не позволяет ему ждать: “Я не хотел дожидаться, пока VMware наверстает упущенное. Неведение вызывало чувство разочарования. А я не знаю, каковы планы VMware и во что они выльются с точки зрения цен. Будут ли эти инструменты в свободном доступе? Будут ли все они или некоторые из них дорогостоящими? Этого я не знаю”.
Подготовка к следующему шагу
Независимо от того, выберет ли организация встроенные управляющие приложения или от стороннего производителя, одно можно сказать с уверенностью: применение более совершенных средств управления корпоративными ВМ обеспечит ей гибкость, необходимую, чтобы поднять виртуализацию на новый уровень.
В этом случае компании смогут настроить свои виртуальные среды таким образом, чтобы они динамически реагировали на потребности бизнеса. Короче говоря, организации, имеющие наиболее развитые средства управления и наиболее высокую долю виртуализированных серверов, смогут превратить свои ЦОДы в собственные вычислительные облака.
“При динамической виртуализации действительно используется та модель бизнеса, на которую я настрою инфраструктуру, чтобы ее конфигурация и производительность соответствовали подъемам и спадам нагрузки”, — заметил Майкл Коллар, главный ИТ-архитектор компании Siemens IT Solutions.
Динамическая виртуализация позволит наиболее передовым в техническом отношении организациям перейти к модели “инфраструктура как сервис” (Infrastructure as a Service, IaaS), согласно которой ресурсы ИТ выделяются в рамках собственных вычислительны облаков. Это открывает перед не склонными к риску организациями хорошую возможность добиться присущей облакам гибкости, не передавая исполнение всех своих важнейших приложений в общедоступные облака, сказал Билл Пиэ, вице-президент по архитектуре и стратегии компании InterContinental Hotels Group (IHG), штаб-квартира которой находится в г. Виндзор в Великобритании. Пиэ является горячим сторонником частных облаков. Он использовал инфраструктуру, разработанную компанией VMware, чтобы посредством внутрифирменного облака предоставить бизнес-подразделениям возможность использовать IaaS: “Мы организовали несколько ЦОДов и настроили виртуальные среды этих ЦОДов на создание внутреннего облака. Это вычислительная среда наподобие облака, но использующая только внутренние ресурсы компании. И это позволяет нам создавать свои системы и ПО в рамках облачной парадигмы, но применять их в нашей собственной вычислительной среде”.
Одним из значительных преимуществ данного подхода является его эластичность, которая играет важную роль в гостиничном бизнесе — отрасли, где возможны большие колебания спроса в связи с туристическими сезонами и даже природными катастрофами. Что еще важнее, такой подход позволяет приучить сотрудников бизнес-подразделений IHG к новой, весьма детализированной системе оплаты услуг вычислительных облаков прежде, чем “ИТ будут перенесены в облака, что произойдет в ближайшие пять-семь лет”. Последнее Пиэ и его коллеги считают неизбежным.
“Мы уже можем приступить к сбору метрик, характеризующих работу приложений, в том числе в рамках модели, при которой оплачивается каждое действие, — сказал Пиэ. — Бизнес-подразделения привыкли к тому, что сначала требуются капитальные вложения. Но при использовании облаков, когда вычисления становятся чем-то вроде коммунальной услуги, вы платите за то, что реально применяли. В рамках этой задачи мы начали собирать метрики, обучать бизнес-пользователей и приучать их к новой модели оплаты. Внутрифирменное облако предоставило нам такие возможности”.
Денис Пустоваров, руководитель проектов практики комплексных решений компании “Verysell Проекты”
Для российских потребителей вопросы “зеленых ИТ” пока актуальны не столько из-за экологической составляющей, сколько экономической, и виртуализация в этом плане может стать надежным помощником руководителя ИТ-службы. Первое, чего позволяет добиться технология виртуализации, — это минимизация потребления электроэнергии за счет многократного сокращения количества физических серверов и, как следствие, кондиционеров, которые эти серверы охлаждают. В результате затраты ИТ-департамента на электроэнергию могут сократиться в два-три раза. Даже для российского рынка, где стоимость электроэнергии не так высока, как в Европе, денежный эквивалент такой экономии в более или менее крупном ЦОДe будет весьма внушительным. Не менее важными факторами для российских компаний являются сокращение затрат на площади, необходимые для размещения серверов, и обеспечение сохранности информации, которая в случае выхода одного сервера из строя автоматически мигрирует на другой.
Все эти плюсы для ИТ-департаментов организаций оборачиваются еще и значительным вкладом в экологию: снижается количество тепла, выделяемого в окружающую среду, и количество вредных материалов, используемых при производстве и утилизации “железа”.
Вопрос стоимости и, главное, окупаемости инвестиций в технологию виртуализации для каждой компании индивидуален: в некоторых случаях система может окупить себя уже в первые полгода эксплуатации, для большинства компаний срок составляет в среднем от года до полутора. Существуют также решения (например, операционная система Microsoft Windows Server 2008) со встроенной поддержкой виртуализации. В случае их приобретения единственные затраты, которые несет компания на виртуализацию, — это затраты на настройку ПО и, возможно, обучение персонала.
Валерий Безруков, заместитель начальника отдела проектирования вычислительных комплексов компании “Инфосистемы Джет”
Green IT — не самая популярная тема в России. Точнее, она ограничивается попытками вписаться в жесткие рамки энергопотребления в связи с дефицитом доступных мощностей почти во всех крупных российских регионах. В Москве, Санкт-Петербурге, Краснодаре, Екатеринбурге даже перенос ЦОДов на окраину города не решает проблему, а вынос в “область” как правило невозможен из-за недостаточной пропускной способности каналов связи, дороговизны прокладки оптоволокна на большие расстояния и плохого транспортного сообщения. Именно поэтому все крупные компании вынуждены строить дата-центры внутри периметра крупных городов, где существенные ограничения как по доступной электрической мощности, так и по размерам имеющихся помещений становятся одним из определяющих факторов при выборе оборудования для ЦОДов.
Какие же технологии можно рассматривать как “зеленые” в данном контексте развития ИТ-инфраструктуры? В первую очередь, это применение новых высокопроизводительных серверов с многоядерными процессорами. Почти все производители за последние годы увеличили количество ядер на одном кристалле (в качестве примера можно привести Intel Nehalem, AMD Barcelona и Sun T1/T2), обеспечив рост производительности таких процессоров по сравнению с одноядерными в 4—8 раз, но сохранив при этом их энергопотребление на прежнем уровне. А за счет постоянного улучшения других компонентов (процессорных наборов, микросхем памяти, средств управления энергопотреблением), а также конструктива серверов (схемы охлаждения, число вентиляторов, блоки питания) их энергопотребление в целом сократилось. Например, сервер Sun SPARC Enterprise T5440, содержащий до четырех процессоров T2+, по производительности превосходит уже снятый с производства, но еще достаточно популярный в корпоративной среде Sun Fire E15K, но потребляет энергии в разы меньше.
Вероника Митрошкина, директор по работе с корпоративными заказчиками в архитектуре и строительстве Autodesk CIS
ИТ-компании всегда являлись проводниками инноваций в экономике. Пропагандируя бережное отношения к окружающей среде, мы должны первыми показывать пример и стараться оптимизировать наше собственное воздействие на экологию.
В Autodesk сейчас действует программа по повышению экологической эффективности. В ее рамках мы разработали новые корпоративные экологические стандарты С-FACT (Corporate Finance Approach to Climate-Stabilizing Targets). Для измерения своего влияния на экологию Autodesk взял на себя обязательство контролировать не только прямые выбросы, но также и широкий спектр косвенных выбросов, связанных, к примеру, с бизнес-поездками, арендованными помещениями, взаимодействием сотрудников, масштабными конференциями и разработками дата-центров. Все эти аспекты включены в С-FACT.
Мы также провели исследование так называемого “углеродного следа” нашего самого популярного решения — AutoCAD. В нем мы рассмотрели все фазы жизни продукта, включая разработку сырья, транспортировку, производство, распределение и утилизацию. Исследование позволило определить операции, оказывающие наибольшее воздействие на окружающую среду и, в частности, продемонстрировало, что загрузка программного обеспечения через Интернет почти в пять раз экологичнее по сравнению с распространением полностью упакованного продукта. Мы планируем использовать результаты исследования для информирования своих клиентов и партнеров об экологических преимуществах загрузки ПО, а также дальнейшего выяснения жизнеспособности альтернативных способов его распространения.