В публикациях недавнего времени, посвященных центрам обработки данных (ЦОДам), основное внимание, как правило, уделяется обсуждению различных аспектов уменьшения энергопотребления и созданию инженерной инфраструктуры, отвечающей достижению соответствующей цели. Зачастую при этом в тени остается вычислительная часть ЦОДа, хотя в последние годы она претерпевает существенные изменения. Современные крупные центры данных, обслуживающие нескольких заказчиков или несколько мощных приложений, отличаются от своих предшественников качественно: их вычислительная структура создается (или переоборудуется) таким образом, чтобы быть динамической. Одним из активных проводников идеи динамических центров данных является компания Fujitsu Siemens Computers (FSC). С главой ее представительства в России и СНГ Виталием Фридляндом шеф-редактор PC Week/RE Игорь Кондратьев побеседовал о концепции FSC в области динамических центров обработки данных.
PC Week: Когда FSC занялась проблематикой динамических центров обработки данных?
Виталий Фридлянд: Для начала отмечу, что было бы неправильно говорить о том, что Fujitsu Siemens Computers первой "вошла в эту воду" в 2003-2004 гг. Еще до образования нашей компании - а это случилось в 1999 г. - подобной проблематикой занималась ее предшественница - Siemens Nixdorf. Кроме того, помимо подхода FSC к реализации динамических ИТ-инфраструктур в целом и центров обработки данных в частности существуют и другие близкие по сути подходы (могу назвать как минимум четыре).
Можно считать, что мысль о создании динамических центров данных родилась в 1970-х гг., поскольку в основе этих центров лежит идея динамического распределения вычислительных ресурсов между приложениями. Соответствующая идеология появилась вместе с архитектурой IBM System 370, операционной системой VMS корпорации Digital Equipment (DEC) и первыми UNIX-системами.
PC Week: Очевидно, за три десятка прошедших лет ситуация с динамическим распределением вычислительных ресурсов радикально изменилась?
В. Ф.: Безусловно. В целом ситуация всё это время развивалась по спирали. Если говорить о приложениях - в смысле решения конкретных практических задач - то в основном они не поменялись. Скажем, задача расчета ядерного реактора или управления предприятием стояла и тогда, актуальна она и сегодня. Другое дело, что в то время вычислительных ресурсов для выполнения адекватных расчетов не хватало.
До недавнего времени многие практические задачи были таковы, что никакое динамическое распределение ресурсов фактически не позволяло повысить эффективность их решения, и соответственно невозможно было устанавливать какие-то закономерности с точки зрения рационального применения динамического распределения вычислительных ресурсов. Если в нашем распоряжении, например, имелся весьма ограниченный объем памяти, то как бы мы ни крутились с его динамическим распределением, распараллеливанием задач, использованием специальных расчетных алгоритмов и другими приемами, все равно мы находились в рамках ограничений на память и производительность процессоров.
Раньше с помощью разного рода ухищрений, в том числе и перераспределения вычислительных ресурсов, можно было обсчитать ядерный реактор, но получение результата требовало нескольких часов расчета, в то время как происходящие в реакторе физические процессы длятся секунды и даже миллисекунды. В этой связи перед расчетчиками всегда стояла задача поиска оптимальных с инженерной точки зрения методов решения подобных задач.
PC Week: Как тогда охарактеризовать современную ситуацию с динамическим распределением вычислительных ресурсов?
В. Ф.: Сейчас эта ситуация вышла на определенный рубеж. В последнее время в любой прикладной области - химии, физике, математике, управлении производством - базы данных достигли таких объемов и размерности (они стали многомерными), что скорость доступа к хранящимся в них и нуждающимся в анализе данным требует применения каких-то эффективных подходов. В частности, телекоммуникационным компаниям для решения задач биллинга или управления информационными потоками между каналами связи - так называемой трафикации - нужны очень мощные серверные ресурсы.
Сегодня эти ресурсы появились: в начале 2000-х гг. они стали таковыми, что скорость решения прикладных задач теперь соизмерима с получением оптимального законченного решения данного приложения. И проблема динамического распределения ресурсов уже может решаться в условиях, когда они соизмеримы с требованиями приложений.
Важным преимуществом принципов динамического перераспределения ресурсов является то, что при их использовании получаются робастные решения, что очень важно для современного быстроразвивающегося производства и бизнеса. В связи с этим задача динамического перераспределения ресурсов получила новый импульс, и все лидеры ИТ-индустрии - повторю, что здесь мы не оригинальны - стали заниматься проблемами динамического использования вычислительных ресурсов и созданием динамических инфраструктурных решений, отвечающих изменившимся требованиям рынка, включая центры обработки данных.
PC Week: Что же FSC вкладывает в понятие "динамический центр обработки данных"?
В. Ф.: По нашим представлениям, это понятие базируется на трех составляющих. Во-первых, на идее виртуализации вычислительного пространства. Это означает, что в динамическом ЦОДе имеется пул виртуальных серверов и систем хранения, которые объединены средствами мониторинга и управления. Эти средства позволяют принимать решение, на каком компьютере или даже на каком процессоре будет выполняться конкретное приложение. Пользователь приложения отстранен от соответствующего процесса выбора подобно тому, как мы, когда летим на самолете, зачастую не знаем, по какому маршруту он следует и какие действия предпринимает пилот.
Во-вторых, частью понятия динамического ЦОДа является автоматизация. Это означает, что вычислительные ресурсы должны перераспределяться между отдельными приложениями автоматически, причем механизм такого перераспределения представляет собой некую надстройку над операционной системой.
Отмечу в этой связи несколько важных аспектов. В частности, надежность функционирования центра обработки данных. Ресурсы надо перераспределять, если произошел отказ оборудования, например, из-за отключения энергопитания, на котором выполнялось приложение. Ресурсы целесообразно перераспределять в рамках крупных территориально распределенных систем: пиковые загрузки серверов в отдаленных друг от друга регионах, расположенных в разных часовых поясах, естественно, не совпадают по времени.
Кроме того, и само приложение должно работать эффективно, в частности, за счет распараллеливания вычислений. Конечно, с точки зрения автоматизации это наиболее проблемная часть. Тем не менее есть много приложений, которые хорошо распараллеливаются; среди них, например, задачи, связанные с запросами к базам данных, или grid-вычисления. Могут подвергаться распараллеливанию и задачи, основанные на нечетких алгоритмах.
И, наконец, в-третьих, понятие динамического ЦОДа включает интеграцию: все ресурсы такого центра должны быть связаны в единое целое даже в тех случаях, когда они разнесены территориально и находятся в географически отдаленных друг от друга точках. Тогда можно говорить о существовании единого вычислительного пространства, в котором пользователь работает с одной интегрированной системой. Одна из сторон интеграции - консолидация серверов и систем хранения.
PC Week: А почему все-таки Fujitsu Siemens фокусируется на динамических центрах обработки данных?
В. Ф.: Fujitsu Siemens - одна из немногих компаний, производящих весьма широкий спектр оборудования: ноутбуки, десктопы, серверы, КПК, системы хранения... В условиях достаточно разветвленной деятельности перед нами реально встает проблема фокусировки бизнеса. Естественно, что FSC делает акцент на решениях класса high-end: именно на продаже таких решений возможно получение максимальной прибыли, что очень важно для коммерческой фирмы.
Учитывая большую потребность современных заказчиков в ресурсоемких приложениях, а также в приложениях, требующих функционирования в реальном времени, наша компания предлагает для поддержки таких приложений все необходимые средства, в частности средства виртуализации vBlade (созданные фирмой Egenera) для блейд-серверов BladeFrame. По сути BladeFrame представляет собой динамическую инфраструктуру, ограниченную пространством одной стойки.
Концепция динамических центров обработки данных является частью TRIOLE - более широкой стратегии FSC, направленной на создание динамических ИТ-инфраструктур. Эта стратегия объединяет различные средства, позволяющие на практике не только оценивать, какие вычислительные ресурсы нужны для решения конкретной задачи и какие базы данных и серверы приложений использовать, но и определять, требуется ли прибегать к кластерной конфигурации, и решать много других вопросов, естественно, с учетом всех знаний о виртуализации, интеграции и автоматизации.
PC Week: А кто занимается проектно-аналитической частью, связанной с внедрением динамических ЦОДов? Участвует ли в этом сама Fujitsu Siemens?
В. Ф.: Вопрос очень важный и принципиальный, потому что занимается этим тот, кто проектирует такие центры. Наша сфера ответственности заканчивается на предоставлении ИТ-инфраструктуры (с точки зрения решения стоящих перед пользователем задач), однако одно из наших подразделений - IT Professional Service - может выполнять и проектные работы, имея для этого все необходимые инструменты и ресурсы.
PC Week: Спасибо за беседу.