Руководители в области ИТ-инфраструктуры и операций (Infrastructure and Operations, I&O) все больше внимания уделяют новым идеям и технологиям, а также ищут новые способы повышения ценности бизнеса. Заслуженный вице-президент по исследованиям и аналитик Gartner Дэвид Капуччио рассказывает на портале ComputerWeekly, как поэтапное переоборудование дата-центров позволит увеличить их мощность и сократить эксплуатационные расходы.

Избрав правильный подход, предприятия могут перестроить устаревшую инфраструктуру дата-центров с целью увеличения их мощности, поддержки новых и развивающихся бизнес-услуг, а также снижения эксплуатационных расходов. Организации с унаследованными рабочими нагрузками должны решить, как лучше реструктурировать физическую инфраструктуру, чтобы повысить эффективность и продлить срок службы ЦОДа.

Большинство I&O-руководителей уделяют внимание миграции в облако, стратегии Edge и перемещению рабочих нагрузок ближе к клиенту. Но они должны помнить, что основной набор рабочих нагрузок по-прежнему носит локальный характер. Хотя целесообразность продления инвестиций в устаревшие дата-центры может вызывать сомнения, это все же позволяет получить значительные преимущества в краткосрочной и долгосрочной перспективах.

Рассмотрим, I&O-руководители могут оптимизировать имеющиеся в их распоряжении ЦОДы для поддержки новых и развивающихся бизнес-услуг.

Повышение эффективности рабочего пространства

Основным ограничением для дата-центров, работающих на пике операционных возможностей, является недостаток физического пространства и мощности для поддержки дополнительного оборудования или адекватной инфраструктуры охлаждения. Это приводит к тому, что компании либо решают построить ЦОД нового поколения, рассчитанный на долгосрочную эксплуатацию, либо прибегают к услугам колокации, облака или хостинга. Хотя эти варианты являются жизнеспособными, каждый из них подразумевает перемещение рабочих нагрузок за пределы традиционного локального периметра. Это создает риски и усложняет операционную среду. Возможной альтернативой для долгосрочной модернизации существующих дата-центров является использование автономных стоечных систем.

Эти промышленные корпуса содержат группу стоек, предназначенную для обеспечения средней и высокой плотности вычислений. Часто в них встроен собственный механизм охлаждения, поэтому модернизацию или перепрофилирование самоохлаждающихся стоек можно рассматривать как простой и эффективный способ увеличения эффективного пространства ЦОДа для вычислений высокой плотности.

Наиболее очевидный метод модернизации — подготовка небольшого участка под один из автономных блоков без ущерба для окружения. Затем зал ЦОДа можно будет разбить на отдельные секции и изменить конфигурацию.

Как правило, автономные стойки подключаются к имеющемуся в наличии блоку распределения электроэнергии, в некоторых случаях может потребоваться дополнительный блок охлаждения или распределения хладагента. Надо иметь в виду, что занимаемая стойкой площадь с учетом дополнительного поддерживающего оборудование увеличится на 20%.

Поскольку системы охлаждения в стойках являются автономными, они не требуют конфигурирования перегородок горячих/холодных потоков или герметизации. Это позволит более гибко размещать новые стойки в зале ЦОДа.

После установки устройства начните поэтапную миграцию рабочих нагрузок из других секций ЦОДа. Это не миграция типа замены одна на одну, поскольку новые стойки поддерживают более высокую плотность охлаждения. Довольно часто в существующих дата-центрах в среднем используется только 50-60% мощности стоек, потому что стойки высокой плотности обладают повышенным тепловыделением.

Новые автономные стойки зачастую могут принять на 40-50% больше рабочей нагрузки. Например, блок из четырех стоек может обрабатывать рабочую нагрузку, с которой ранее справлялось от шести до восьми стоек с традиционной компоновкой оборудования. В результате такой миграции старая часть серверной зоны будет сильно фрагментирована.

Следующий этап проекта — высвобождение дополнительного пространства, что предполагает дефрагментацию среды и миграцию рабочих нагрузок из стоек с неполной загрузкой. После миграции можно приступить к переносу оборудования и освобождения участка площади для установки следующей автономной стойки. По мере их установки общая плотность вычислений на стойку и, следовательно, на квадратный метр увеличивается, что приводит к значительному уменьшению общей необходимой площади ЦОДа.

На этой стадии миграции предприятие может заняться обновлением серверов — в зависимости от того, на каком этапе экономического жизненного цикла они находятся. Внедрение серверов меньших форм-факторов позволит повысить плотность размещения в стойке, одновременно снижая общие требования к питанию и охлаждению.

Ключевым моментом при этом остается входная мощность ЦОДа — ее должно хватать для стоек более высокой плотности. Одним из преимуществ является то, что по мере перемещения рабочих нагрузок в новые стойки общая нагрузка на охлаждение может фактически уменьшиться, поскольку большая часть воздушного потока циркулирует внутри стойки. Это снижает требования к воздушному потоку, необходимому для обдува всего ЦОДа.

Переосмысление инфраструктуры охлаждения

Несмотря на то, что производители чипов пытаются снизить тепловыделение процессоров, увеличение требований к вычислительной мощности приводит к повышению плотности размещения оборудования, что, в свою очередь, увеличивает требования к охлаждению. По мере роста числа серверов высокой плотности I&O-руководители должны обеспечивать надлежащий уровень охлаждения компьютерных залов.

Тем предприятиям, которые собираются переоборудовать дата-центры, чтобы добиться экстремальной плотности размещения оборудования на небольшой площади для квантовых вычислений или приложений искусственного интеллекта, в качестве возможных вариантов следует рассмотреть жидкостные или иммерсионные системы охлаждения. По прогнозам Gartner, к 2025 г. дата-центры, в которых будут применяться специальные методы охлаждения и повышения плотности, смогут снизить эксплуатационные расходы на 20-40%.

На охлаждение может уходить до 60-65% всей потребляемой ЦОДом энергии. Стойки высокой плотности с потребляемой мощностью 15-25 кВт часто требуют более 1,5 кВт охлаждающей нагрузки на каждый 1 кВт ИТ-нагрузки, в первую очередь для создания потока холодного воздуха, необходимого для охлаждения стоек.

Теплообменники задней двери (Rear-door heat exchangers, RDHx) — это заменяемые на месте (в большинстве случаев) двери стоек, которые охлаждают горячий воздух при выходе из двери стойки и не полагаются на поток охлаждающего воздуха в зале ЦОДе. Преимущество RDHx заключается не только в большей эффективности стойки, но и в высвобождении энергии: если раньше она использовалась для охлаждения, то теперь ее могут использовать другие системы или она может перенаправляться для дополнительной ИТ-нагрузки. Среди поставщиков RDHx: Futjitsu, Vertiv, Schneider Electric, Nortek Air Solutions, Cool IT Systems и Opticool.

Экономия с применением RDHx может показаться неочевидной, поэтому заказчики должны быть готовы построить бизнес-кейс. В зависимости от тепловой нагрузки и стоимости энергии возврат инвестиций (ROI) может быть достигнут в течение нескольких лет. Во многих случаях RDHx позволяет избежать ранее запланированной модернизации оборудования (с типичным сроком окупаемости инвестиций от 15 до 20 лет).

Проблему охлаждения серверов высокой плотности можно решить с помощью жидкостного охлаждения, поскольку вода (кондуктивное охлаждение) проводит более чем в 3000 раз больше тепла, чем воздух, и требует для этого меньше энергии. Жидкостное охлаждение позволяет постоянно масштабировать вычислительную инфраструктуру для удовлетворения потребностей бизнеса.

Большинство поставщиков недавно начали предлагать вместо воды хладагент низкого давления, что позволяет решить проблемы с утечкой воды, поскольку в случае утечки он выкипает в виде нетоксичных, не вызывающих коррозии газов. Для его применения могут потребоваться дополнительные расходы на узлы распределения охлаждающей жидкости, но зато предприятие застрахует себя от утечек воды, которые могут повредить оборудование.

Все большим спросом начинают пользоваться иммерсионные системы охлаждения, особенно в тех ЦОДах, где устанавливаются автономные системы высокой плотности (40-100 кВт и выше).

Системы иммерсионного охлаждения доступны на рынке. Их можно интегрировать в существующие дата-центры, где установлены серверы с воздушным охлаждением. Однако их внедрение проходит медленно, поскольку ранее предприятия инвестировали большие средства в механические методы охлаждения, а также в связи с постоянно повышающейся энергоэффективностью современных систем. Поставщики систем иммерсионного охлаждения: Green Revolution Cooling, Iceotope, LiquidCool, TMGCore и Stulz.

Поскольку все среды разные, для I&O-руководителей очень важно использовать такие метрики, как эффективность использования энергии (power usage efficiency, PUE) и эффективность использования пространства ЦОДа (datacentre space efficiency, DCSE), чтобы оценить преимущества и конкретную экономию затрат от таких инвестиций.

Выводы

I&O-руководители могут добиться значительного увеличения существующих ресурсов за счет поэтапной модернизации ЦОДа, снижая при этом требования к охлаждению и высвобождая мощности для дополнительных ИТ-нагрузок. Эта деятельность требует сосредоточенности, поскольку любое физическое перемещение оборудования в действующем производственном ЦОДе сопряжено с риском. Однако, если выполнять долгосрочный проект и разбивать его на небольшие управляемые этапы, преимущества могут быть далеко идущими и значительно перевешивать риски.

Поэтапную миграцию также легче осуществлять с точки зрения бюджетирования, поскольку в отличие от традиционного проекта строительства ЦОДа потребности в финансах можно разбить на несколько кварталов. Кроме того, миграция дает множество преимуществ, позволяя снизить общие затраты, тогда как при строительстве нового объекта капитальные затраты окажутся гораздо выше. Если I&O-руководители задумываются о совершенствовании своих дата-центров для поддержки новых бизнес-услуг и снижения эксплуатационных расходов, им следует рассмотреть поэтапный подход.