Курс на облако с минимальным PUE
Сергей Андронов, руководитель департамента проектирования, внедрения и сопровождения Центра сетевых решений компании «Инфосистемы Джет»
— Какой самый страшный звук в дата-центре?
— Тишина...
Если сравнивать современные принципы ЦОДостроения с теми, что были «на коне» лет 10 назад, можно проследить принципиальные отличия. В начале 2000 годов масштабирование дата-центра обеспечивалось за счет изначального закладывания избыточности решений — предоставления максимально возможных мощностей и ресурсов. Одним словом, внушительных CAPEX’ов. OPEX на тот момент в расчет не брали. В то же время ЦОД при строительстве ориентировали на определенную архитектуру: они жестко сегментировались на Hi-End`ы, сетевую часть (LAN, SAN и т.п.), серверы х-86, СРК и т.п. Такая карта местонахождения диктовала раз и навсегда закладываемые маршруты прокладки коммуникаций. Другими словами, дата-центры были «неповоротливыми» относительно потенциальной модернизации размещаемого в них серверного оборудования.
Сегодня, в посткризисный период, владельцы ЦОД стали в большей степени принимать в расчет экономический фактор. Одна из их главных задач — минимизировать CAPEX и оптимизировать OPEX. То есть масштабирование должно обеспечиваться пошагово за счет использования гибких и легко адаптируемых решений.
При этом существенно изменилась и концепция построения ИТ-инфраструктуры: «вектор силы» направлен на повышение энергоемкости. Доля Hi-End-оборудования пошла на убыль, тогда как количество серверов Х-86, напротив, увеличилось в разы. Один физический сервер теперь, благодаря виртуализации, может «скрывать в себе» несколько логических. Фермы виртуализации объединяют их в единое целое, и в случае выхода из строя того или иного сервера виртуальные машины (ВМ) «поднимаются» на другом, без прерывания работы и совершенно незаметно для пользователей.
Чем это преимущество оборачивается для ЦОД десятилетней выдержки? Фрагментацией, если говорить в терминах дисковых систем: в одних точках дата-центра наблюдается ощутимый рост плотности нагрузки, тогда как в других — разреженность (площади простаивают без дела). Его заполнение перестало быть равномерным, что привело к дисбалансу и с точки зрения инженерной инфраструктуры. На отдельных участках ЦОД появились перекосы — перегрев, превышение лимитов по электричеству или, наоборот, его дефицит. Подобные точки отказа грозят остановкой серверного оборудования. Это не могло не отразиться на степени утилизации дата-центров: в начале миллениума ее среднее значение превышало 80%, тогда как сейчас едва ли достигает 50%.
Сегодняшнюю ситуацию с дата-центрами в России я бы обозначил как «демографическое старение в стране отечественных ЦОД». Пик их строительства пришелся на конец
1990-х — начало2000-х. Грянувший кризис 2008 года заморозил или заставил вовсе свернуть большинство строек. Потепление наступило лишь в2010–2011 годах — некоторые из них были извлечены из долгого ящика. В результате на 4 докризисных дата-центра в среднем приходится всего 1 ЦОД-новичок, который может похвастаться использованием «зеленых» технологий и «низкокалорийным» PUE. ЦОДы «с судьбой» не так энергоэффективны, но снимать их со счетов пока преждевременно: они надежны, масштабны (далеко не все новые дата-центры занимают такие площади) и, как уже было сказано, гораздо более многочисленны. Поэтому целесообразнее будет провести их модернизацию с учетом новых тенденций.
Если говорить об оптимизации OPEX’ов, то не последнюю скрипку здесь на данный момент играет Power Usage Effectiveness — PUE. Энергоэффективность ЦОД становится одним из ключевых параметров для их владельцев, соответственно, ускоренными темпами растет спрос на «зеленые» решения.
Синергия серверного и инженерного оборудования
Таким образом, перед компаниями стоит цель повышения отдачи от их ЦОД. Для ее достижения необходимо решить 2 задачи — увеличить плотность ресурсной базы серверного хозяйства и повысить утилизацию инженерной инфраструктуры, её свободных мощностей и параметров. По степени своей взаимосвязанности они напоминают известный парадокс ленты Мебиуса, у которой не 2, а одна сторона.
На первый план здесь выходит идея так называемой дефрагментации свободных мощностей инженерных инфраструктур с точки зрения ресурсов (площадей, электропотребления, тепловыделения и т.п.). Для мониторинга этих параметров целесообразно использовать
Но видоизменение «инженерки» в любом случае трудоемко и обладает ограничениями с точки зрения «физики». Она в буквальном смысле слова зависит от ширины трубы, толщины проложенного кабеля, сечения воздухоканала и т.д.
Гораздо легче, при использовании технологий виртуализации, переместить в ту или иную физическую зону дата-центра нагрузку на процессорные мощности. Если их расположить более или менее равномерно, можно обеспечить и распределение нагрузки путем миграции ВМ между физическими серверами в соответствии со статистическими показателями, накапливаемыми DCIM. Тогда вы сможете доставлять высоконагруженные процессорные ресурсы ближе к подходящим элементам инженерной инфраструктуры. И наиболее холодно будет в зонах «накала серверных страстей». Проблема карты фиксированного местонахождения, рассчитанной на Hi-End-ориентированное зонирование дата-центров, снимется с повестки дня.
В то же время идея подразумевает под собой отнюдь не ручное управление перемещением процессорных ресурсов. Для эффективной реализации такого подхода недостаточно наличия технологии виртуализации и DCIM. Нужна специализированная инфраструктурная сеть датчиков или SNMP-адаптеров для фиксации и передачи в аналитическое ядро системы управления ВМ данных о превышении пороговых значений по тем или иным критичным параметрам. Затем система сможет реализовывать заранее прописанные сценарии по переносу виртуальных машин в различные места ЦОД. Здесь мы говорим уже не о классической, а о макровиртуализации: физический дата-центр с точки зрения организации своей работы преобразуется в облако или «мегасервер».
ЦОД как облачный Perpetuum Mobile
Популяризация cloud-сервисов также подталкивает владельцев ЦОД к развитию их инфраструктуры. «Землей», без которого облако не смогло бы существовать, являются серверные мощности и «инженерка». Поэтому оно вовсе не бесконечно, как может показаться на первый взгляд. За каждым cloud-сервисом стоит осязаемая инженерная инфраструктура, с четкими показателями кВт по холоду и энергопотреблению, километражу оптоволокна и т.д.
Соответственно, говорить о разрастании облака можно, только понимая, какой инженерный ресурс с точки зрения ЦОДа может быть в него заложен. При построении дата-центра требуется учитывать и соблюдать планы по масштабированию или разнесению его сегментов на некоторые расстояния (здесь начинает работать понятие асинхронных транзакций, зависящих от скорости передачи сигнала по оптоволокну).
Один из наиболее удачных подходов к построению энергоэффективного и масштабируемого ЦОДа, рассчитанного на потребности «привязанного» к нему облака, — модульный. В этом случае дата-центры наращиваются полноценными «кубиками». Это позволяет масштабировать ЦОД за счет увеличения числа модулей, а также системы внутри каждого из них. Такой подход обеспечивает большую гибкость серверной инфраструктуры.
Таким образом, возможности ЦОДа и облака влияют друг на друга. С одной стороны, наращивание cloud-среды ограничено территориальными возможностями масштабирования серверного комплекса. А с другой, развитие облачных сервисов становится причиной модернизации дата-центров, что вписывается в концепцию повышения их энергоемкости и энергоэффективности.
Контактная информация
Наши сайты: www.jet.su, www.jetinfo.ru. Электронная почта: info@jet.su.
Другие статьи раздела «Тонкости ЦОДостроения»