Проанализировав публикации на тему технологий виртуализации за последний год, можно увидеть, что одной из четких линий обсуждения является выпуск корпорацией Microsoft своего гипервизора Hyper-V. Причём общую тональность суждений можно охарактеризовать примерно так: появление на рынке данного решения знаменует начало активной деятельности Редмонда в этом “горячем” ИТ-сегменте и может привести к существенному изменению соотношения сил на нем. (Хотя Hyper-V был официально выпущен в июне, о его перспективах и сейчас говорится преимущественно применительно к будущему времени.) В результате у не очень посвященных в тему людей может создаться впечатление, что Microsoft только сейчас начала (или собирается начать) работать на рынке виртуализации. Что совсем не так.
Microsoft может быть смело причислена к ветеранам технологий виртуализации для аппаратной платформы x86. Ее деятельность в этом направлении началась весной 2003 г. покупкой технологий виртуализации у компании Connetix. Отметим, что Connetix тогда считалась игроком номер два на этом рынке после VMware (игроков тогда было всего три, считая SWsoft). Собственно, именно 2003 г. можно считать точкой отсчета современного рынка ПО виртуальных машин, что определяется экспертами очень просто: “Раз этим занялась Microsoft, значит, началось…” И данное мнение быстро нашло подтверждение: оперативно определив перспективы нового рынка, корпорация EMC в конце того же года купила VMware (см. PC Week/RE, № 48/2003).
Так почему же, будучи совсем не новичком на этом рынке, Microsoft до сих пор числится аналитиками лишь в категории “перспективных”? Что мешало ей выйти на лидирующие позиции? Именно с этой темы началась беседа обозревателя PC Week/RE Андрея Колесова с побывавшим в конце сентября в Москве старшим директором подразделения Windows Server Marketing Group корпорации Microsoft Бобом Виссе.
PC Week: Как бы вы охарактеризовали текущий статус Microsoft на поле средств виртуализации: это опытный игрок, имеющий устойчивое положение в команде, или новичок, которому еще предстоит доказать свое право играть в основном составе?
Боб Виссе: Наверное, так: опытный игрок, у которого все еще впереди. Мне кажется, ваша аналогия с игровым полем не очень точна. Рынок виртуализации находится в стадии “бурлящего” формирования, и о какой-то статической расстановке сил на нем говорить не приходится. Скорее тут подойдет сравнение с забегом на стайерскую дистанцию, в котором положение после первых двух кругов еще абсолютно ни о чем не говорит. При этом тактика лидера может заключаться как раз в том, чтобы не лезть раньше времени вперед.
Считается, что Microsoft активно работает на рынке виртуализации с 2003 г., после приобретения Connectix. Мы сразу выпустили свой продукт Virtual PC для ПК, а через год — первую версию серверного решения Virtual Server. Но на самом деле корпорация занималась виртуализацией и раньше — с конца 90-х годов мы развивали направление терминального доступа (Windows Terminal Services), которое сегодня является одной из важных составных частей этого рынка.
Однако в последнюю пару лет мэйнстрим виртуализации — это серверные технологии, которые сегодня ассоциируются с понятием гипервизор. Год назад мы анонсировали наши планы в этой сфере и последовательно реализуем их: летом выпустили Hyper-V, а в октябре появится другой ключевой продукт — Virtual Machine Manager 2008.
PC Week: Тогда прежде чем поговорить о серверных делах, давайте разберемся, что представляет собой сегодня виртуализационная платформа Microsoft в целом.
Б. В.: Для начала я должен подчеркнуть, что само понятие “платформа виртуализации” не является статическим: оно сегодня означает более широкий круг вопросов, чем три, а тем более пять лет назад. В нынешнем виде наша стратегия по данному направлению была сформулирована в начале этого года на корпоративной конференции Microsoft Virtualization Deployment Summit. Главным моментом тут является то, что виртуализация для нас — это технологический компонент, которому отводится ключевая роль в реализации нашей общей концепции динамических ИТ.
Идея тут заключается в предоставлении заказчикам следующих основных возможностей: пользователи получают доступ к данным, когда это им нужно; автоматизированные процессы соответствуют бизнес-целям; обеспечиваются безопасность и соответствие нормативным требованиям; легкая адаптация ИТ-служб к изменению потребностей бизнеса; оптимизация ИТ-затрат. Соответственно использование технологий виртуализации должно изменить сам подход к организации вычислительных систем, обеспечивая более эффективное использование ресурсов, предоставляя более гибкие возможности управления ресурсами и изменениями
Мы считаем, что наша платформа виртуализации уже сегодня имеет все необходимые средства для покрытия потребностей заказчиков. Тут нужно уточнить, что основная идея виртуализации — это обеспечение более высокой степени изоляции программных компонентов. Такая изоляция может и должна быть на разных уровнях вычислительных систем. Мы выделяем четыре таких уровня и предлагаем для них соответствующий набор средств. К этим уровням мы относим виртуализацию серверов для более эффективного использования вычислительных ресурсов, виртуализацию настольных систем для создания изолированных операционных сред на стандартном ПК, виртуализацию приложений для повышения изоляции программ в среде ОС, а также презентационную виртуализацию, основанную на идее централизованной обработки и хранения данных с передачей на клиентский ПК только интерфейса пользователя.
Для централизованного управления всеми этими виртуальными средствами служит большой набор инструментов семейства Microsoft System Center. Центральная роль отводится выпущенному в конце прошлого года System Center Virtual Machine Manager. О его важности говорит то, что уже в нынешнем октябре выйдет его новая версия 2008, в которой, в частности, реализованы возможности управления гетерогенными виртуальными и физическими средами.
PC Week: И все же вызывает откровенное удивление неспешность Microsoft в деле создания гипервизора. Ведь именно VMware ESX Server, появившийся еще шесть лет назад, во многом обеспечивает лидерство VMware на этом рынке. Да и такие компании, как Citrix и Sun, хоть и ненамного, но все же опередили Microsoft с выпуском своих продуктов. Чем это можно объяснить?
Б. В.: Я бы отметил два момента. Во-первых, Hyper-V технологически связан с Windows Server, и потому график его разработки связан с графиком обновления этой серверной ОС. Обратите внимание: мы сначала обещали выпустить Hyper-V через полгода после старта Windows Server 2008, но сократили этот разрыв до четырех месяцев.
Второе и, возможно, более важное. На рынке присутствуют подобные системы, и срок появления Hyper-V не имеет решающего значения — кварталом раньше или кварталом позже. Гораздо актуальнее обеспечение высокого качества продукта. Именно потому, что рынок ждёт наше решение (в том числе и конкуренты, которые тут же воспользуются нашими промахами), мы не имеем права на ошибки, а значит, и на спешку.
Хотя Hyper-V официально вышел на рынок всего три месяца назад, но уже сейчас можно сказать, что задача по обеспечению качества продукта нами успешно решена. Об этом, в частности, говорят примеры, в том числе и в России, использования Hyper-V (не дожидаясь выхода версии 2.0 или хотя бы первого пакета обновлений) заказчиками в серьезных инфраструктурных проектах.
PC Week: И все же эксперты считают, что возможности Hyper-V уступают функционалу VMware Virtual Infrastructure.
Б. В.: Они, возможно, правы. Странно, если бы было наоборот, учитывая, что у нас версия 1, а у них 3. Но при этом мы считаем, что всё необходимое для реализации серьезных проектов в Hyper-V уже есть. При этом у нас имеется четкий план развития продуктов, возможности нашей платформы серьезно расширятся с выпуском в самое ближайшее время Virtual Machine Manager 2008. Нужно подчеркнуть: мы не идем след в след по технологическому пути конкурентов, у нас применяются другие архитектурные и технические решения, которые позволяют предложить заказчикам некоторые принципиально иные преимущества.
PC Week: Но функция живой миграции — Live Migration — виртуальных машин появится у вас еще не скоро?
Б. В.: Мгновенное перемещение виртуальных машин между физическими серверами без остановки работы пользователей — это дело хорошее, оно производит отличное впечатление на заказчиков во время демонстрации ПО. Но, признаться, реальная потребность в такой функции появляется не так уж часто.
Уже долгое время наши продукты поддерживают технологию Quick Migration, которая позволяет сделать перемещение виртуальных серверов за доли минуты. Для большинства реальных задач этого вполне достаточно. Что касается Live Migration, то такая возможность появится в обновленном варианте Hyper-V, выпуск которого запланирован на 2010 г.
PC Week: На какие конкурентные преимущества вы будете делать акценты, продвигая свои виртуализационные решения?
Б. В.: На доверие к Microsoft как надежному, проверенному временем поставщику. На хорошее знакомство с нашими продуктами, наличие подготовленных специалистов и партнеров, готовых помочь клиенту.
На самом деле наши виртуализационные продукты, в частности Virtual Server и Virtual PC, уже сейчас достаточно хорошо распространены на рынке. Отмечу, что стоимостные показатели, которыми оперируют многие исследователи рынка, не очень адекватно отражают реальную ситуацию, так как большинство наших виртуализационных продуктов распространяется бесплатно. Так вот, все эти пользователи наших продуктов — это потенциальные клиенты для новых предложений от нас. Мы считаем, что наши решения выгоднее для заказчиков с ценовой точки зрения. Более того, мы можем существенно снизить для клиентов порог начальных затрат при переходе в виртуальные среды, предоставляя им возможность постепенного движения в этом направлении в соответствии со своими потребностями и возможностями.
PC Week: А каковы перспективы развития Virtual Server после выхода Hyper-V? Он будет развиваться параллельно, по примеру вашего главного конкурента?
Б. В.: Нет, развитие Virtual Server на текущей версии закончено, хотя его поддержка будет продолжаться. У нас нет необходимости в поддержке двух технологических линий, так как первая не имеет никаких преимуществ перед второй, более совершенной. В то же время, как я уже сказал, и Hyper-V позволяет свести к минимуму затраты клиентов на его освоение, использование в пилотных проектах. Ведь это средство бесплатно поставляется в составе Windows Server 2008.
PC Week: Сегодня набирает силу концепция создания виртуальной инфраструктуры ПК (Virtual Desktop Infrastructure, VDI), и уже целый ряд поставщиков предлагает свои решения для ее реализации. Правда, аналитики говорят, что рыночные перспективы этой идеи пока не очень ясны.
Б. В.: В том-то все и дело. Идея замены полноценных ПК тонкими клиентами не нова, достаточно вспомнить шумиху по поводу сетевых компьютеров десять лет назад. Но опыт показывает, что пользователи, в том числе и корпоративные, не хотят отказываться от применения многофункциональных, причем именно персональных компьютеров. Мне кажется, что продвижение VDI — это пока больше маркетинговая кампания. Впрочем, в арсенале Microsoft тоже есть такие технологии, и если заказчикам они понадобятся, мы сможем их предоставить.
PC Week: За неделю до нашей беседы компания VMware обнародовала свои амбициозные планы по созданию качественно новой операционной системы для виртуальных дата-центров (Virtual Datacenter OS, VDC OS). А руководитель компании Пол Мариц публично пообещал отправить традиционные ОС на задворки истории. Вы можете как-то прокомментировать эти заявления?
Б. В.: Я не был на конференции VMworld, а по информации СМИ не могу точно судить, что там было на самом деле. При встрече я спрошу у Пола, что он имел в виду.
Если говорить серьезно, то нужно вспомнить, что обещания отправить ОС, а вместе с ними и Windows в архив истории звучали не раз за последние 10—15 лет, но их реализация почему-то все время откладывается. Лично я знаю одно: приложения, с которыми имеют дело пользователи, пишутся для работы в среде традиционных ОС, а не виртуальных систем.
PC Week: И все же — как скоро мы окажемся в виртуализированном рае, где затраты на ИТ будут минимальны, приложения будут легко перемещаться между физическими серверами, все нужные ресурсы будут выделяться по требованию клиента, а бизнес-сервисы внедряться через секунды после получения запроса от пользователя?
Б. В.: Хотя многие эксперты говорят о быстром переходе заказчиков к использованию средств виртуализации, нам кажется, что на самом деле процесс будет все же весьма эволюционным. Высокий процент использования компаниями средств виртуализации, который указывается в аналитических исследованиях, не должен вводить в заблуждение, так как нужно уточнять, насколько широко применяются эти средства. Да, инструменты виртуализации есть у многих клиентов, но пока их круг во многом ограничен задачами разработки и тестирования. Применение виртуализации для консолидации ИТ-ресурсов при выполнении критически важных задач только начинается.
Второй важный момент заключается в том, что мы сегодня не можем точно сказать, какую конкретно позицию займут средства виртуализации на рынке. Очевидно, что их распространение будет расширяться. Но до какой степени и как скоро? Ответ мы сможем получить в ходе их практического применения заказчиками.
Но сейчас можно достаточно уверенно сказать, что на полностью виртуализированные среды компании перейдут не очень скоро. У заказчиков еще долго будут смешанные системы с виртуальными и физическими средами. Это, в частности, означает, что традиционные ОС, ориентированные на физическое оборудование, в любом случае сохранятся. Например, уже сегодня есть четкие рекомендации по поводу того, какие решения не стоит переводить в виртуальные среды — это почтовые системы, СУБД. Каково будет соотношение виртуальных и физических компонентов, сейчас сказать сложно. Можно ожидать, что виртуальная доля в серверном сегменте будет выше, в клиентском — ниже.
В целом же нужно подчеркнуть: рынок находится еще только на раннем этапе широкого внедрения средств виртуализации.
PC Week: Спасибо за беседу.