Технологии виртуализации первого поколения разрабатывались в расчете на уже представленные на рынке Intel-серверы для ЦOДов и повышали эффективность их работы. Организации, делающие следующий шаг — от консолидации к виртуальным операциям, будут объединять значительно более мощные виртуальные машины, выполняемые на физических хост-системах с резко возросшими характеристиками.
Насколько вырастет мощность виртуальных машин? На конференции VMworld 2011, прошедшей в конце августа, компания VMware открыла эру гигантских виртуальных машин, максимальная конфигурация которых может включать до 32 виртуальных процессорных ядер и 1 Тб оперативной памяти.
На состоявшейся 14 сентября нынешнего года конференции Microsoft BUILD говорилось, что ОС Windows Server 8 также будет способна поддерживать виртуальные машины, имеющие до 32 виртуальных процессорных ядер и до 512 Гб оперативной памяти. И гипервизор Microsoft Hyper-V, встроенный в Windows Server 8, показал, что недавно выпущенная предварительная версия этой ОС для разработчиков спроектирована для физических систем, имеющих до 160 логических процессоров и до 2 Тб физической оперативной памяти.
Поскольку технологии виртуальных вычислений в ЦОДах представляют собой сложное сплетение числа и мощности процессоров, объемов оперативной и внешней памяти и сетевых характеристик, я ограничусь здесь физическими компонентами “внутри коробки": процессором и оперативной памятью. Основной вывод для ИТ-менеджеров состоит в возвращении отточенной в эпоху мэйнфреймов концепции “лучшие практики” (best-practice), теперь совершающей уникальный виток на платформе x86.
Надежность, доступность и удобство обслуживания в виртуальных ЦОДах достигаются с помощью стандартных серверов, которые масштабированы, модернизированы и соединены друг с другом таким образом, что выход из строя отдельной физической машины или ее узла не приводит к остановке бизнеса в целом.
Как будут выглядеть физические серверы через два или три года? На ознакомительном семинаре Microsoft для разработчиков, прошедшем ранее в сентябре в штаб-квартире корпорации, официальные представители сообщили, что, согласно руководствам разработчиков аппаратных средств, стандартный сервер будет иметь от 6 до 64 логических ядер, 64 Гб оперативной памяти и сетевой интерфейс 40 Гбит/c. Стоить он будет от 300 до 1500 долл.
Джордж Рид, ИТ-директор туристической и страховой компании Seven Corners, расположенной в г. Кармел, шт. Индиана, и пользователь VMware, поделился своими мыслями относительно серверов для ЦОДов следующего поколения. “Мы взяли 100 физических серверов и виртуализировали их [в ноябре 2010 г.], — сообщил г-н Рид. — Сегодня у нас работает около 150 виртуальных серверов. Опираясь на партнерство с нашим системным интегратором, мы перешли к внедрению Cisco Unified Computing System/VMware vSphere. Мы рассматриваем возможность установки дополнительного облачного оборудования в стойки, освобожденные в результате первого этапа виртуализации, а также вопросы, связанные с использованием приложений для создания изображений, мультимедиа и другого контента. Сегодня мы ориентируемся на петабайтные объемы внешней памяти и соответствующее увеличение числа процессоров”.
Мощность и скорость имеют значение
В серверах для ЦОДов завтрашнего дня число процессорных гнезд, скорее всего, останется относительно небольшим, в то время как вырастет число логических ядер и значительно увеличится объем оперативной памяти. Волна виртуализации, начавшаяся где-то в 2006 г., все еще набирает силу по мере продолжения увеличения числа виртуальных серверов. В то же время виртуализация толкает вверх мощности физических серверов в ЦОДах.
По мнению Малкольма Фергюсона, архитектора корпоративных решений в Hewlett-Packard, конфигурации типичного стоечного сервера и блейд-сервера в настоящее время меняются. “Эти серверы имели в [в 2006 г.] в среднем 4 Гб оперативной памяти, а сегодня ее объем составляет в среднем 200 Гб”, — подчеркнул он. А некоторые современные серверы могут поддерживать до 256 Гб или даже 1 Тб оперативной памяти.
Как считает Фергюсон, требования к памяти резко выросли, особенно для виртуальных машин. “До начала широкомасштабного внедрения технологий виртуализации типовые требования приложений к оперативной памяти составляли от 2 до 4 Гб, — отмечает Фергюсон. — Сегодня же отдельным серверам требуется 24, 48 или 96 Гб ОЗУ, и в этом нет ничего необычного”.
Повышение объема используемой оперативной памяти стало главной причиной беспокойства по поводу изменений в лицензионной политики VMware. Так называемый “налог на оперативную память” в первоначальной схеме изменения лицензирования VMware vSphere 5.0 определял цену лицензии на основании объема памяти VRAM, распределенной по всем виртуальным машинам (он мог быть меньше общего объема установленной физической памяти).
Компания VMware отреагировала на озабоченность пользователей и изменила первоначальную схему лицензирования, оставив при этом в качестве основной предпосылки использование распределения памяти VRAM как основу для расчета цены лицензии. Посмотрим, как этот нетехнический аспект серверной виртуализации отразится на конфигурации физических серверов в будущем.
Изменение внешнего облика
Отреагировав на распространение виртуализации, Dell, HP и другие изготовители добавили в свои серверы слот карты памяти Secure Digital (SD) для ускорения загрузки выбранного гипервизора в физических системах. Хотя компании-производители, с которыми я беседовал, не распространяются на тему других изменений в архитектуре, планируемых на будущее, ИТ-менеджерам следует ожидать появления дополнительных технических нововведений, нацеленных на ускорение работы гипервизора.
Ясно, что по мере повышения концентрации виртуальных машин на физических системах важность надежности, доступности и удобства обслуживания будет только расти. Чад Феннер, директор по продуктовому маркетингу семейства серверов PowerEdge компании Dell, и Фергюссон из HP — оба указали области, в которых их конкурирующие инструменты управления серверами могут сделать работу более предсказуемой.
Например, возможность рассылки упреждающих сообщений о сбое оборудования, уже присутствующая в HP Insight Control, помогает в обслуживании и поддержании доступности оборудования. Интегрированные на платах сервера датчики контролируют состояние памяти, производительность дисков и процессора и постоянно отслеживают симптомы, сигнализирующие о повышении вероятности появления в будущем серьезных ошибок в серверах ЦОДа.
В дополнение к этому, серверы, на которых выполняется производственная нагрузка, будут все чаще включать возможности удаленного мониторинга с фокусом на интеграцию с инструментами мониторинга гипервизоров, которые уже доступны в настоящее время. Помимо модификации аппаратной части виртуализация серверов послужила толчком для развития инструментов управления серверами. Как Dell (с OpenManage), так и HP (с Insight Control) предлагают интеграцию с такими инструментами управления виртуализацией, как VMware vCenter и Microsoft System Center Virtual Machine Manager
ИТ-менеджеры должны ожидать дальнейшего повышения степени интеграции с этими платформами управления и появления систем управления, встраиваемых в жизненный цикл виртуальных машин и показывающих как уровни обслуживания, так и операционные расходы. Более мощные виртуальные и физические машины ближайшего будущего также окажутся в числе тех систем, которые будут контролироваться особенно внимательно.