Выбор локации для дата-центра (ЦОД) определяется климатом, доступом к ресурсам и инфраструктурой региона.

Северные территории позволяют снизить затраты на охлаждение за счет фрикулинга, но требуют защиты оборудования от экстремальных морозов. В южных районах многоступенчатые системы охлаждения увеличивают энергопотребление.

Ключевыми факторами остаются доступ к дешевой электроэнергии, водоснабжение и качество телекоммуникаций.

Рассмотрим главные критерии выбора площадки для ЦОДа.

Климат и географические риски

Климатические условия в различных регионах сильно влияют на проектирование и эксплуатацию дата-центров.

В северных регионах, где преобладают низкие температуры большую часть года, применяют систему фрикулинга, которая использует наружный воздух для охлаждения серверного оборудования. Это снижает энергопотребление на 40-50% по сравнению с традиционными системами кондиционирования. Однако при экстремальных морозах ниже −35°C необходим дополнительный подогрев воздуха для предотвращения переохлаждения.

В центральных регионах климат менее стабилен, поэтому дата-центрам приходится переключаться между разными способами охлаждения в зависимости от сезона.

В зимний период — естественный холодный воздух, а летом — чиллеры, обеспечивающие циркуляцию охлажденной воды.

На юге страны, например, в Краснодаре, из-за высокой летней температуры применяют многоступенчатые системы охлаждения — градирни, работающие по принципу испарения воды, в сочетании с чиллерами для точного контроля температуры. В прибрежных регионах дополнительно устанавливают осушители, которые предотвращают повреждение оборудования из-за повышенной влажности.

Энергоэффективность дата-центров тоже зависит от локации. В северных регионах затраты на охлаждение составляют 10-20% от общего энергопотребления (PUE 1,1-1,2), тогда как в южных показатель может достигать 70-100% (PUE 1,7-2,0).

С точки зрения PUE, северные территории более перспективны для размещения дата-центров, но окончательное решение требует комплексного анализа.

Например, Красноярский край обладает дешевой электроэнергией благодаря Красноярской ГЭС и другим ГЭС Ангаро-Енисейского каскада, но его инфраструктурные ограничения могут значительно повлиять на стоимость и сроки реализации проектов дата-центров.

Существуют климатические риски. Например, в сейсмоопасных зонах, таких как Кавказ, серверное оборудование монтируют на антивибрационные платформы, а в регионах с песчаными бурями используют многоуровневые системы фильтрации воздуха.

Эти меры повышают стоимость инфраструктуры на 15-20%, но они необходимы для бесперебойной работы оборудования.

Электричество и вода

На электроэнергию приходится 40-60% ежегодных эксплуатационных расходов дата-центра. Если учитывать капитальные затраты (строительство, оборудование), ее доля в общей стоимости владения может снизиться до 25-35%.

Современный ЦОД среднего масштаба потребляет 30-70 МВт, как маленький город. Высокая плотность размещения серверного оборудования и необходимость круглосуточной работы требуют больших объемов электроэнергии и гарантированной бесперебойности ее поставок. Даже кратковременный сбой в электропитании может привести к нарушению SLA, потере данных и существенным финансовым убыткам.

Для обеспечения отказоустойчивости нужны многоуровневые системы резервирования: подключение к нескольким независимым подстанциям, развертывание дизель-генераторных установок с автоматическим вводом в работу и мощные источники бесперебойного питания (ИБП) с литиево-ионными или свинцово-кислотными аккумуляторами.

В регионах с нестабильной энергосистемой или высокими тарифами на электроэнергию эксплуатационные затраты резко возрастают, поэтому такие локации менее привлекательны для размещения дата-центров.

Территории с доступом к дешевой возобновляемой энергии — гидроэлектростанциям, ветровым или солнечным паркам — позволяют снизить операционные расходы ЦОДа.

Эффективность систем охлаждения дата-центров напрямую зависит от водоснабжения. Например, градирни, несмотря на энергоэффективность, требуют постоянного доступа к воде.

В регионах с дефицитом водных ресурсов или ограничениями на их использование приходится внедрять замкнутые системы с сухими охладителями или переходить на альтернативные решения вроде иммерсионного охлаждения, что ведет к росту капитальных и эксплуатационных расходов.

Жесткая вода увеличивает эксплуатационные затраты: требует либо дорогой водоподготовки, либо использования коррозионностойких материалов в теплообменном оборудовании.

В некоторых случаях, особенно в холодных климатических зонах, дата-центры полностью отказываются от водяного охлаждения в пользу свободного воздушного охлаждения, что снижает зависимость от водных ресурсов, но для размещения того же количества оборудования понадобится больше площади из-за необходимости обеспечения достаточных воздушных зазоров.

Инфраструктура региона

В первую очередь оцените количество доступных интернет-провайдеров — для обеспечения надежности нужно как минимум 3-4 независимых оператора связи. Москва, например, обладает существенным преимуществом: в городе десятки доступных провайдеров, тогда как во многих регионах выбор ограничен всего 1-2 операторами, что создает риски для бесперебойной работы.

Точки обмена трафиком (IXP) позволяют значительно снизить задержки передачи данных до 2-5 мс для локальных сервисов, что особенно важно для финансовых операций и реального времени. В России такие точки присутствуют в ключевых ИТ-хабах: Москве, Санкт-Петербурге, Казани и Новосибирске, но могут отсутствовать в менее развитых регионах.

Доступность и качество оптоволоконных соединений — не менее важный фактор. Проконсультируйтесь напрямую с крупными сетевыми операторами о возможности подключения к магистральным каналам передачи данных.

Учтите, что плотность оптоволоконной сети существенно варьируется между регионами — в столичных районах обычно есть избыточность каналов, а в отдаленных регионах инфраструктура часто развита недостаточно. Это ограничивает скорость передачи данных, и ЦОД может простаивать.

Алексей Равинский, генеральный директор Zapusk Group