Объёмы информации в современном мире растут чуть ли не экспоненциальными темпами. По крайней мере, аналитики IDC предрекают по итогам нынешнего года 44-кратный рост использования данных в глобальном масштабе. В итоге общий объём информации, с которым имеют дело компании и частные пользователи во всём мире, может превысить 32 зеттабайта (1 Зб = 1 млрд. Тб).
Все предпосылки для столь стремительного роста и в самом деле налицо. Персональные и коммерческие компьютеры год от года становятся всё мощнее, средства хранения данных увеличивают свои характерные объёмы и предлагают всё более привлекательную удельную стоимость единицы сберегаемой на них информации.
Параллельно растут и аппетиты конечных пользователей в отношении потребляемых данных, в том числе и для таких информационно-ёмких задач, как бизнес-аналитика. Эксперты Aberdeen Group свидетельствуют, что ещё в 2009-м году, в самый разгар глобальной рецессии, корпоративный сегмент демонстрировал 32%-ное ежегодное увеличение объёмов используемых данных.
В такой ситуации для множества руководителей естественным выбором становится оптимизация подсистемы хранения информации, выделение такой подсистемы в собственный центр обработки данных либо использование услуг внешних ЦОДов. Централизация хранения и обработки информации находится в русле ещё одной зримой тенденции последних нескольких лет — перехода к модели использования ИТ в виде услуг (в том числе в виде облачных сервисов).
Хранение и обработка данных в качестве услуги, предоставляемой на коммерческой основе, становится полноправной отраслью ИТ-бизнеса. В этой отрасли, как и полагается в условиях рынка, развиваются конкуренция, борьба за долгосрочное внимание заказчика, стремление к оптимизации расходов. В ситуации, когда подсистема хранения данных является частью внутренней ИТ-инфраструктуры некой организации, она ещё может строиться по затратному принципу. ЦОД же как коммерческое предприятие обязан быть выгодным — и для своего владельца, и для клиентов.
Наряду с повышением требований к отдельным подсистемам ЦОДов (системам хранения, серверам, сетевому оборудованию и т. д.) растут ожидания конечных потребителей их услуг в плане общей их эффективности, в том числе и энергоэффективности. Добиваться же такой эффективности владельцам ЦОДов приходится за счёт внедрения новейших технологий (в частности, особенно актуальной сейчас виртуализации ресурсов), а также путём применения самых современных архитектурных и инженерных решений.
Чистая энергия
Рассматривая новые требования, которые предъявляет рынок к современным ЦОДам, остановимся в рамках данной статьи на средствах их энергообеспечения. Учитывая, что с каждым днём конечным заказчикам приходится иметь дело со всё возрастающими объёмами данных, владельцам ЦОДов необходимо вводить в строй новое оборудование и модернизировать уже существующее, не выпуская из внимания, разумеется, обеспечение этого оборудования адекватным электропитанием.
Более того, концепция хранения и обработки данных как услуги подразумевает, что внешние предприятия в перспективе начнут полностью полагаться на ЦОДы в плане аутсорсинга своего информационного оборота. Это, в свою очередь, будет означать повышение ответственности поставщиков таких услуг перед своими клиентами. Даже кратковременное отсутствие доступа заказчика к размещённым в ЦОДе данным нанесёт ему ощутимый ущерб и повлечёт за собой (в случае корректно составленного контракта) выплату солидных неустоек.
При этом владельцу ЦОДа приходится решать задачу оптимизации энергообеспечения своего предприятия, поддерживая оптимальный баланс между затратами на оборудование и внешние услуги и эффективностью энергосистемы. В число наиболее серьёзных вызовов, с которыми приходится сталкиваться в такой ситуации, входят:
- обеспечение непрерывного электропитания аппаратуры ЦОДов (включая расчёт оптимальных параметров систем электропитания, их резервирование, необходимость предусматривать контур автономного питания на аварийный случай и т. п.);
- снижение собственного энергопотребления устройств, занятых обеспечением непрерывного электропитания;
- возможность уверенного масштабирования подсистемы питания с сохранением её эффективности, а также повышение надёжности и удобства её обслуживания.
По словам Александра Зайцева, руководителя направления по работе с системными интеграторами в российском офисе компании Eaton, в последние годы к желанию клиентов минимизировать затраты на строительство ЦОДа и всех его инженерных систем добавилось требование снижать операционные расходы на систему в целом, равно как и стоимость её обновления. Таким образом, перед производителями устройств гарантийного электроснабжения встает задача по созданию отказоустойчивых энергоэффективных систем с высокой плотностью мощности.
Если год-два назад требование к системам бесперебойного питания о наличии режимов энергосбережения было необязательным, то в последнее время оно является неотъемлемой частью задачи в построении системы. При этом дополнительными факторами здесь выступает, помимо экономии средств как таковой, вполне ощутимое давление со стороны государственных органов и организаций по защите окружающей среды.
Современные ЦОДы далеко ушли от первых, не слишком крупных, цифровых библиотек данных в составе локальных вычислительных сетей предприятия, для организации электропитания которых достаточно было весьма скромных средств. Как отмечает Андрей Маркин, руководитель корпоративного отдела российского представительства PowerCom, в настоящее время ЦОДы строятся с расчётом возможности оперативного наращивания мощностей, что подразумевает также и оперативное масштабирование систем электропитания, а это, в свою очередь, требует простоты развертывания дополнительных мощностей. Поэтому предпочтение при выборе конкретного решения для ЦОДа зачастую отдаётся модульным, масштабируемым системам.
Кроме того, поскольку инфраструктура систем энергообеспечения имеет постоянную аппаратную составляющую (телекоммуникационные стойки, шкафы с кабель-каналами, системами охлаждения, распределительными панелями и т. д.), некоторые производители систем бесперебойного энергоснабжения включают их в состав предлагаемого базового комплекта. Дальнейшее развитие систем энергообеспечения ЦОДов будет, скорее всего, идти по пути совершенствования управляющей системы, оптимизации расходов на её обслуживание (анализ потребления электроэнергии с выдачей рекомендаций по оптимизации), удалённого мониторинга, объединения в глобальные информационные и энергетические сети, подключения резервных и альтернативных источников электроэнергии.
Как отмечает Олег Письменский, директор по развитию направления “Центры обработки данных” российского представительства APC by Schneider Electric, по опыту сотрудничества его компании с наиболее успешными розничными банками и телеком-корпорациями показывают, что одним из ключевых факторов роста их клиентской базы является мобильный банкинг, рост социальных и деловых сетей и различных приложений для мобильных устройств. Результат внедрения таких мобильных приложений — увеличение количества операций в 3-4 раза, что, разумеется, является дополнительной нагрузкой на сети передачи данных и вычислительные ресурсы.
Распределение операций по времени носит динамический характер, что приводит к динамическому же изменению энергопотребления. Нынешнее соотношение энергопотребления в пике мощности и на холостом ходу находится в районе 5-6 крат — против типичных для 2005 года 2-3 крат. Этот пример иллюстрирует первое требование к инженерной инфраструктуре объекта: способность в режиме реального времени реагировать на изменение энергопотребления и, как следствие, обеспечивать соответствующий теплоотвод.
Алексей Волков, технический консультант Tripp Lite, особо подчёркивает, что в последние годы наблюдается переход от экстенсивного развития (последовательного наращивания мощностей ЦОДов) к повышению производительности уже установленного вычислительного оборудования. Увеличивается нагрузка на энергосистему, усложняется инфраструктура ЦОДов, ужесточаются требования к отказоустойчивости энергосистемы — и при этом стоимость потребляемой ЦОДом энергии возросла настолько, что уже сопоставима со стоимостью оборудования.
В этой связи одними из главных потребностей этих предприятий становятся решения с высокой эффективностью в плане использования электроэнергии и системы контроля за инфраструктурой; такие системы управления, которые позволяют по максимуму использовать весь потенциал существующих мощностей ЦОДов — без необходимости расширения и даже замены аппаратной составляющей систем их энергообеспечения.
Оптимизация
В качестве коммерческого предприятия, действующего на свободном рынке, ЦОД не может позволить себе быть неэффективным, если не желает остаться уже в самом обозримом будущем вовсе без заказчиков. Конкуренция в сфере ИТ как услуги будет в ближайшие годы только усиливаться. Особенно по мере того, как всё большее распространение станут получать полноценные облачные сервисы. Поставщики услуг виртуализации будут активнее привлекать ЦОДы в качестве субподрядчиков, размещая свои виртуальные серверы на их аппаратных платформах. Разумеется, ради обеспечения надёжности и бесперебойности предоставления своих услуг таким поставщикам окажется крайне выгодно сотрудничать с теми ЦОДами, у которых минимизированы накладные расходы и которые поэтому в состоянии предложить наиболее конкурентоспособные цены.
Минимизация накладных расходов, впрочем, ни в коем случае не должна выражаться в экономии на системах энергоснабжения. Более того, как раз эти системы обязаны быть наиболее эффективными и современными, поскольку дальнейшее их развитие (после первичной установки, прокладки и наладки) — весьма недешёвое удовольствие. Андрей Маркин прямо указывает, что решения, которые призваны обеспечить достойную энергоэффективность, должны закладываться уже на этапе проектирования ЦОДа. Ведь модернизация существующей системы, построенной без учета требований энергоэффективности, может оказаться делом более затратным, чем создание новой.
Таким образом, при проектировании ЦОДа необходимо подробно рассматривать структуру энергозатрат, планировать и соответствующим образом оптимизировать их. Здесь нужно отметить, что существенным фактором, оказывающим влияние на общие показатели энергоэффективности ЦОДа, является система охлаждения. До недавнего времени её оптимизации и вообще учёту её вклада в общий баланс энергозатрат уделялось, к сожалению, не самое серьёзное внимание. А ведь при системном подходе к проектированию дата-центра можно и нужно принимать в расчёт естественную конвекцию тепла; выстраивать систему, реагирующую на изменение условий окружающей среды.
Высокую значимость оптимизации системы охлаждения для повышения энергоэффективности ЦОДа признаёт и Алексей Волков — ведь на эту систему может приходиться до 60% всех энергозатрат дата-центра. Оптимизация охлаждения представляет собой целый комплекс мер, каждая из которых вносит свой вклад в итоговую эффективность готового решения. К примеру, шкафы с оборудованием должны размещаться по ставшей уже общепринятой схеме с организацией “горячих” и “холодных” коридоров, а расстояние между стойками и высота фальшпола должны определяться в зависимости как от мощности охлаждаемого оборудования, так и от производительности прецизионных кондиционеров.
Олег Письменский указывает, что планирование развития ЦОД в сильно условном и упрощенном виде может выглядеть следующим образом: необходимо определиться со зданием и его конфигурацией; затем — с размерами, количеством и этапностью введения в эксплуатацию машинных залов (один, два или более за этап); с дизайном типового машзала; с топологией систем энергораспределения и охлаждения. Последующие этапы планирования должны включать определение требуемой мощности ИБП, выбор конкретных моделей (учитывая что нагрузка, подключенная к ИБП, не будет превышать 95% от выходной мощности, т. е. ИБП будет работать с максимальным КПД), дизайн системы охлаждения и её рабочие параметры.
В итоге потребуется подготовить план заполнения машинного зала и соответствующего расположения оборудования в расчете на наихудший случай в несколько этапов до получения оптимальных значений расхода энергии, а также спланировать точки роста ИТ-нагрузки (с интервалом в месяц, квартал или год), в соответствии с чем предусмотреть на будущее соответствующие изменения. По приведенной Олегом Письменским оценке, правильно спроектированная и эксплуатируемая система охлаждения, работающая в режиме экономайзера, в определенных климатических условиях способна сэкономить до 70% годовых затрат на свое электропитание, что соответствует более чем 15% улучшению среднегодового показателя энергоэффективности объекта.
Особо подчеркнём, что современный ЦОД должен быть полностью готов к решению спорадических локальных проблем с теплоотводом — в частности, при выходе из строя одного из участков системы кондиционирования; чтобы обеспечить бесперебойность своей работы до устранения неполадок соответствующими техническими службами. Так, Tripp Lite предлагает своим заказчикам специальное решение — компактный мобильный кондиционер. Если имеющаяся система охлаждения не позволяет устранить локальную точку перегрева без перестроения всей инфраструктуры, небольшой кондиционер с направленным воздуховодом способен решить локальную проблему без солидных капитальных вложений.
Сегодня основной акцент при планировании энергосистемы ЦОДов делается на снижение непроизводственных потерь энергии. Для этого необходимо, разумеется, использовать системы бесперебойного питания с высоким КПД. ИБП на базе устаревших технологий дают КПД всего 75—85% — в нынешних условиях такое попросту неприемлемо. Сама компания Tripp Lite предлагает своим заказчикам ИБП с КПД до 94,5%. Более того, при работе в экономичном режиме, переключение в который возможно по графику, заданному пользователем в специальной системе управления Power Alert, его можно довести до 97—98%.
Новые ЦОДы, которые вводятся в строй в самое последнее время, выходят на рынок ИТ-услуг в период достаточно активной конкурентной борьбы: значительная доля солидных заказчиков уже нашла себе постоянных партнёров. Однако в отношении технологий, которые применяются для их постройки (и, в частности, для создания их энергосистем) эти новички могут оказаться заметно привлекательнее своих предшественников. По словам Александра Зайцева, в отношении систем бесперебойного питания одной из основных технологий, которая обеспечивает энергоэффективную работу устройств, является бестрансформаторная технология с использованием транзисторов IGBT, что уже давно реализуется, в частности, в системах бесперебойного питания Eaton. Такое исполнение ИБП в комплексе с интеллектуальной системой управления транзисторами позволяет добиться высоких показателей энергоэффективности. А если применить модульный дизайн устройств и усовершенствованные алгоритмы управления системы (что сделано, к примеру, в ИБП Eaton 9395 и 9390), то можно добиться выдающихся показателей КПД, вплоть до 99%.
Повышение КПД системы резервного энергоснабжения на 10% дает в масштабах среднего ЦОДа экономию до 10 тыс. долл. США за год — немалая сумма, которую с успехом можно направить на модернизацию собственно хранилища данных, а также на расширение и резервирование линий связи. Ведь чем более распространяется ИТ как услуга, тем большее значение приобретает эффективная доступность этой услуги — что выражается не в последнюю очередь в высоконадёжном и скоростном информационном канале между поставщиком и заказчиками.
Хладнокровная стандартизация
Принятие и эффективное продвижение индустриальных стандартов крайне важно для любой высокотехнологичной отрасли. Стандарты — это концентрированный в сухих параграфах документов живой опыт сотен и тысяч высококвалифицированных специалистов; стандарты позволяют предусмотреть и описать множество вариантов построения и эксплуатации ЦОДов, способствуют созданию тиражируемых и масштабируемых решений. В результате принятия общего для индустрии стандарта потребители получают возможность с лёгкостью консолидировать необходимые им элементы инфраструктуры, которые, в свою очередь, становятся унифицированными конструктивно и потому менее затратными в плане технического и сервисного обслуживания.
Требования к инженерной инфраструктуре ЦОДа, которые формирующие стандарты, формулируются на основе реальных потребностей клиентов дата-центров, прежде всего в части обеспечения соответствия этой инфраструктуры бизнес-процессам и кругу решаемых заказчиками задач. Такие стандарты описывают, в частности, кабельные системы ЦОДов, контуры электропитания и кондиционирования. В мире сейчас можно считать общепринятыми американский стандарт на телекоммуникационную инфраструктуру центров обработки данных EIA/TIA-942, а также аналогичный европейский EN 50173-5.
К сожалению, как отмечает Андрей Маркин, в области разработки стандартов энергоэффективности Россия находится в положении догоняющего. И дело здесь не только в слабой развитости нормативной базы. В конце концов, никто не мешает взять тот же американский или европейский стандарт за основу для построения своего собственного. Дело ещё и в том, что внутренние цены на электроэнергию в России относительно невелики, а значит, повышение эффективности подсистемы энергопитания ЦОДа не выразится в незамедлительном возврате ощутимых инвестиций. Ценовой же фактор, как водится, прежде всего стимулирует внимание бизнеса к энергоэффективности, и если значимость этого фактора невелика, не появится и явственно выраженного стремления к созданию общих для отечественной индустрии стандартов (в частности, стандартов для систем электропитания ЦОДа).
Алексей Волков предлагает в качестве одного из методов оценки энергоэффективности ЦОДа использовать расчет доли непроизводственных потерь электроэнергии. Сегодня эксперты заявляют, что энергопотребление практически любого центра обработки данных вполне реально сократить вдвое при сохранении его вычислительных мощностей — за счёт определённых затрат на оптимизацию систем электропитания и кондиционирования, разумеется.
Впрочем, как показывает мировая практика, внедрение стандартов обычно происходит после насыщения рынка (взять хотя бы историю развития знакомых теперь, кажется, даже любому рядовому покупателю ИТ-устройств стандартов ISO 900х). В России же бум активного строительства дата-центров далеко еще не закончен, и вполне вероятно, что формирования и внедрения отечественных стандартов в этой отрасли можно ожидать ещё как минимум через пару лет.
Повышение энергоэффективности действующих ЦОДов, заложенной или же не заложенной на уровне стандартов, выражается в модернизации систем энергоснабжения и кондиционирования — что само по себе может представляться владельцу дата-центра не самым очевидным и оправданным бизнес-решением. Затраты на улучшение существующей инфраструктуры путём её замены на более современную, а не за счет простого расширения, всегда весьма ощутимы. Если модернизировать модульную систему электропитания относительно просто (при условии, что не придётся перепрокладывать кабельную сеть из-за выросшей нагрузки), то прочие служебные компоненты ЦОДа потребуют заметных затрат для приведения в адекватное современным требованиям состояние.
Однако, как свидетельствуют эксперты, практически в каждом случае овчинка стоит выделки. По замечанию Алексея Волкова, синергетический эффект от повышения энергоэффективности ЦОДа (увеличения КПД подсистемы энергоснабжения и оптимизации системы охлаждения) может выражаться в более чем 50%-ной экономии ежегодных расходов на электроэнергию. Вдобавок развитие инфраструктуры центра обработки данных, как правило, сопровождается внедрением дополнительного инструментария для контроля и управления ею, и это создает основу для более эффективной оптимизации инфраструктуры в будущем.
Кроме того, модернизация инфраструктуры необходима для успешного внедрения новых серверных решений. Как правило, ЦОД строится с десятилетним расчетным сроком эксплуатации. За это время серверное оборудование обновляется два-три раза. Какой бы резерв ни закладывался при проектировании инфраструктуры, прогресс технологий и рост потребностей рынка на протяжении этого срока точно оценить крайне сложно. Так что инфраструктура даже самых современных, с иголочки, ЦОДов безусловно потребует обновления и развития уже в ближайшие годы. Представляется разумным уже на этапе ее разработки сразу же внедрять решения, которые облегчат дальнейшее повышение энергоэффективности.
Современные компоненты систем энергоснабжения ЦОДов уже предоставляют в распоряжение своих владельцев мощные средства повышения эффективности, причём не только в экстремальных режимах работы (на пределе допустимой нагрузки). Как свидетельствует Александр Зайцев, основными технологиями, уже внедренными в ИБП Eaton и позволяющими существенно оптимизировать работу как одиночных, так и параллельных систем бесперебойного питания, являются “Адаптивная система управления модулями” (Virtual Module Management System — VMMS), реализованная в системах Eaton 9395, и “Система сохранения энергии” (Energy Saver System — ESS), применяемая в устройствах Eaton 9390 и 9395.
Эти технологии ориентированы на такие ЦОДы, где уровень резервирования настолько высок (от Tier II и выше), что системы работают в недогруженном состоянии. Это приводит к снижению КПД энергосистем, а следовательно, к дополнительным затратам. Благодаря упомянутым технологиям пользователь значительно снижает затраты на владение системой бесперебойного питания, причем ему не приходится идти на компромисс между надежностью и эффективностью. Экспертами подсчитано, что, например, при использовании системы ESS можно добиться стопроцентной окупаемости ИБП уже через три — пять лет. К этому сроку как раз может подоспеть необходимость коренной реорганизации инфраструктуры электропитания ЦОДа — и экономически такой шаг окажется вполне оправданным.
Андрей Маркин подчёркивает, что срок возврата инвестиций зависит от уровня сложности и производительности системы. Для сложных систем характерен высокий уровень потребления энергии, соответственно срок окупаемости окажется меньше. Кроме того, модернизацию системы энергоснабжения необходимо привязывать к плановому обновлению вычислительного оборудования, поскольку каждый сервер или СХД рассчитан на вполне определённые параметры энергоснабжения.
Практические рекомендации
По мнению Андрея Маркина, проблема энергоснабжения и теплоотвода в ЦОДах напрямую связана со стоимостью аренды занимаемой площади. Один из ключевых факторов конкуренции — поиск оптимального решения соотношения стоимости занимаемой площади и качества теплоотвода, и он является начальной задачей проектирования системы. Олег Письменский уверен, что клиентов прежде всего интересует надежность и непрерывность предоставления сервисов ЦОД вне зависимости от внешних факторов, а также стоимость данных сервисов.
Если же говорить о конкурентоспособности энергоэффективных решений, то соответствие данного ЦОДа высоким стандартам энергоэффективности может быть не только ценовым, но и маркетинговым фактором привлечения заказчиков. Благодаря большому вниманию к этой проблеме, которое стимулирует, в частности, пресса (и отраслевая, и самая широкая — вспомним, как часто в ней звучит тема “ответственности перед природой”), при прочих равных условиях заказчик предпочтет ЦОД, соответствующий стандартам энергоэффективности, как более высокотехнологичный.
Александр Зайцев уточняет, что клиенту коммерческого ЦОДа прежде всего интересна, безусловно, стоимость аренды; вероятность того, что клиент, который собирается арендовать вычислительные мощности, будет интересоваться показателями энергоэффективности дата-центра, невелика. Зато владелец ЦОДа непременно будет стремиться вывести своё предприятие на максимальный уровень эффективности и надежности. Впрочем, именно эффективность и надёжность в итоге и определят стоимость аренды для клиента, так что опосредованным образом конечные потребители услуг ЦОД всё-таки будут ориентироваться на наиболее энергоэффективные предложения.
По мере того, как общая для ИТ-рынка тенденция к интеграции будет проникать в сферу ЦОДов, в России (как это уже происходит во всём мире) начнет расти популярность дата-центров с высоким потреблением энергии — свыше 20 кВт на каждую стойку. В этом случае относительно невысокие внутренние тарифы на электроэнергию играют на руку отечественным поставщикам ИТ как услуги, позволяя — при наличии соответствующего объёма заказов — предлагать рынку максимально привлекательные по стоимости варианты аренды ЦОДов. Впрочем, как отмечает Алексей Волков, пока что в России таких комплексов не много; окупаемость их также зависит от множества факторов — от энергоэффективности применяемого оборудования, ценовой политики на ресурсы ЦОДа и т. п.
Как указывает Олег Письменский, основные проблемы ЦОДов с высоким потреблением энергии — сам по себе отвод тепла, а также обеспечение его непрерывности, поскольку при отказе системы охлаждения ИТ-оборудование отключится по перегреву и, возможно, в ходе последующей эксплуатации будет подвержено сбоям. Существующие штатные решения Schneider Electric позволяют работать с высокими плотностями мощности без риска перегрева оборудования — например, как в случае инженерной инфраструктуры суперкомпьютера “Ломоносов”, где потребление некоторых стоек составляет порядка 60 кВт. При этом затраты на создание, внедрение и эксплуатацию таких систем существенно не отличаются от обычных.
Отечественный рынок коммерческих ЦОДов, в любом случае, еще весьма активно развивается, и при выборе партнерского ЦОДа одним из ключевых критериев остается уровень доверия к поставщику, поскольку критериям репутации и надёжности для многих таких поставщиков попросту ещё не удалось (за недостаточностью проведённого на рынке времени) сформироваться. В то же время расходы на энергообеспечение составляют пока не самую крупную долю в итоговой стоимости услуг дата-центров. Однако с ростом расходов на энергоснабжение, увеличением спроса на услуги ЦОДов и ростом объёма предложений на рынке перед владельцами коммерческих ЦОДов остро встанет вопрос повышения энергоэффективности. В итоге это скажется на стоимости услуг коммерческого ЦОДа, превратится в значимое конкурентное преимущество.
Какие же практические рекомендации помогут обеспечить высокую надежность функционирования уже установленных систем энергообеспечения ЦОДов? По мнению Александра Зайцева, самое главное — это регулярное сервисное обслуживание систем. Не надо экономить на сервисе, выжидая окончания гарантийных сроков оборудования. Компании-производители, в том числе Eaton, предлагают различные типы сервисных контрактов на гибких условиях.
При этом не стоит забывать и о системах мониторинга, которые также позволяют предотвратить потерю данных и простои вычислительных систем. Такие потери и простои могут принести ЦОДу огромные убытки, решительно несопоставимые с суммами, которые могут быть затрачены на своевременное сервисное обслуживание систем энергоснабжения. Вложения в сервис здесь можно рассматривать как своеобразные страховые взносы, направленные в итоге на повышение привлекательности дата-центра с точки зрения его клиентов. Периодические работы по техническому обслуживанию энергооборудования должны производится не реже одного раза в квартал.
Аналогично и мнение Алексея Волкова: не стоит пренебрегать сервисными услугами производителей или компаний-поставщиков, т. е. проводить техническое обслуживание уже имеющихся систем. Это во многом предопределяет заявленный срок эксплуатации оборудования. Вдобавок одним из ключевых компонентов является система контроля и мониторинга, способная оперативно уведомить персонал о возникающих проблемах в системе электропитания или системе охлаждения. Разумеется, нельзя забывать, что качество оборудования имеет ключевое значение — не стоит экономить на нем.
По словам Олега Письменского, в ходе проектирования и строительства объекта необходимо обеспечить его соответствие стандартам с возможной последующей сертификацией, в частности Uptime Institute. Имеет смысл уделить внимание недавно опубликованному документу Uptime institute Operational Sustainability standard, а также стандартами Statement on Auditing Standards (SAS) No. 70, выпущенными American Institute of Certified Public Accountants (AICPA), соответствие которым крайне важно для поставщиков услуг — в частности, и ЦОДов.
“Изначально нужно выбирать устройства высокой степени надежности, с резервированием основных узлов” — таково мнение и Андрея Маркина. В числе главных рекомендаций по обеспечению надёжности систем энергоснабжения он приводит обеспечение охлаждения и вентиляции помещения в необходимых для эффективной работы ЦОДа объёмах. Практическую ценность такого совета ощущают все, кто прошлым дымным московским летом имел дело с предоставлением или получением услуг центров обработки данных.