АЛЕКСАНДР СЕМЕНОВ: ИT В БОЛЬШОМ ГОРОДЕ
Я не случайно выбрал для этой колонки название, как у популярного сериала: при просмотре его отдельных серий меня буквально терзала зависть к главной героине фильма, которая увлеченно занималась любимым делом, а потом - за приличное вознаграждение - описывала свои эмоции и впечатления на страницах одной из центральных нью-йоркских газет. "Вот бы и мне так", - мечтал я, имея в виду, правда, информационные технологии, сферу моих основных интересов. И вот - мечта сбылась.
Теперь попробую более или менее регулярно делиться своими впечатлениями о том, что меня действительно заинтересовало в области ИТ и осталось в памяти. А на первый случай расскажу о Центре обработки данных компании SAP, расположенном неподалеку от немецкого города Гейдельберга, где мне довелось побывать в начале октября.
Перед посещением Центра был еще некий семинар, но он представлял собой обычный отчет серьезных людей о большой проделанной работе и ничем особо не запомнился. А вот Центр произвел яркое впечатление.
Снаружи он похож на большой десятиэтажный дом без окон. Попасть в него непросто, потому что за высоким железным забором этот дом еще окружен трехметровой полосой газона, которая просматривается телекамерами и контролируется инфракрасными сенсорами. Но нас встретил у ворот директор Центра, и поэтому все двери открывались перед нами без проблем. Кстати, двери - тоже непростые: чтобы проникнуть в здание, потом - на его этажи и наконец в комнаты, надо предъявить идентификационную карточку и отпечаток пальца, прямо как в серьезных детективных фильмах. Один из собратьев-журналистов задержался в дверях и стал их разглядывать. Через минуту раздался резкий сигнал сирены, который гудел, пока дверь не закрылась.
В Центре расположено более 15 тыс. серверов, выполняющих самые разные вычисления, чаще всего связанные с приложениями SAP. Сам Центр соединен линиями оптоволоконной связи с отделениями SAP по всей планете (в том числе в Москве и Санкт-Петербурге), и любой клиент компании в любой точке земного шара может взять сервер в аренду, чтобы запустить на нем собственные приложения, а может и приложения арендовать у SAP.
В специальной комнате управления Центром в несколько рядов установлены большие экраны, за которыми сидят дежурные. Туда тоже сложно попасть, но нас опять-таки впустили. В случае непредвиденных обстоятельств управление может быть передано в аналогичные центры в США, Индии или Сингапуре.
Мы были допущены в одну из серверных комнат на первом этаже, где стояло около сотни шкафов с серверами. Нам разрешили открывать дверцы шкафов - серверы там самые разные от разных производителей. Они мирно гудели, не создавая никакого ощущения сложности выполняемого процесса. Вот о сложностях, а точнее, о том, какие меры предприняты, чтобы никаких сложностей не было, нам рассказал директор.
Во-первых - резервирование данных. С определенной регулярностью, для какой-то информации ежедневно, для какой-то - еженедельно, происходит архивирование всей информации Центра на ленточные носители. Расположены эти ленты в другом городке километров за двадцать, а для передачи данных есть три оптоволоконные линии - одна основная и две резервные. Информацию на ленты сбрасывает специальный робот.
Второй важнейший аспект - электрическое питание. Понятно, что без электричества никакой сервер работать не будет. К Центру подходят две линии электропередачи от двух местных электростанций. Если обе они откажут, то имеется специальный зал с дизелями, мощности которых хватит на электроснабжение не только всего Центра, но и двух ближайших городков. Однако для того чтобы дизели заработали и вышли на расчетную мощность, требуется несколько минут. Для поддержки работоспособного состояния серверов в течение этих минут рядом с каждой серверной комнатой есть еще одна - с сотнями электрических батарей, которые могут взять на себя питание серверов мгновенно и поддерживать его на протяжении 40 мин. Шкафы этих батарей выглядят очень внушительно, а вес каждого достигает тонны.
Третий момент, необходимый для успешного функционирования серверов, - это температура. Во всех серверных комнатах установлена температура 22С, при которой серверы чувствуют себя комфортно и работают без сбоев. Для этого существует водяное охлаждение, а воду гонят мощные моторы, расположенные на самом нижнем этаже. Если в каком-либо секторе здания система охлаждения нарушится, она будет переключена на резервные моторы, но этот процесс тоже занимает несколько минут, а буквально через 5-10 мин неохлаждаемый сервер перегревается. На это время в здании предусмотрены огромные резервуары с четырехградусной водой, которая в случае любого сбоя будет направлена в систему охлаждения.
Далее - противопожарная система. При появлении очага возгорания в помещение направляется специальный безвредный инертный газ, очень быстро снижающий содержание кислорода в воздухе до 10%, - при таком его количестве всякий огонь гаснет, а человек может дышать. Таким образом, никакого вреда людям, работающим в здании, нанесено не будет.
И последний аккорд немецкой аккуратности и предусмотрительности: перед входом в каждую серверную комнату к стене подвешен небольшой прозрачный бачок, где лежат... беруши, то бишь разноцветные ватные затычки для ушей. Серверы гудят, и если вы заботитесь о своем здоровье, то незачем подвергать свой нежный ушной аппарат лишней нагрузке.
Наверное, на бумаге все выглядит не так эффектно, но когда сам на протяжении получаса ходишь по этому огромному, совершенно безлюдному зданию меж блестящих никелированных труб и насосов, батарей и серверов, которые работают и будут работать, что бы там ни случилось во внешнем мире, - право, это очень впечатляет. Естественно, никаких сбоев и отказов в работе Центра не случалось. Как сказал директор, после 11 сентября 2001 г. он серьезно задумался, что будет, если на крышу их здания упадет "Боинг-767" с полными баками... По его словам, тогда Центр выйдет из строя. Другой причины он не видит...