Рынок серверов традиционно считается консервативным. На нем, в отличие, например, от рынка систем хранения уже в течение многих лет не появлялись изделия, основанные на использовании новых, ранее не применявшихся в коммерческой практике физических принципах выполнения основных функций. Базовые механизмы функционирования CPU долгое время оставались и в значительной мере продолжают оставаться неизменными. Конкуренция в данном секторе скорее шла на уровне подходов к решению корпоративных задач автоматизации, требующих интенсивных и очень интенсивных вычислений.
В поисках «идеальной» архитектуры
С начала нынешнего столетия явно обозначилась архитектура, ориентированная на использование большого количества недорогих x86-серверов, совместно работающих над одной задачей. Впоследствии такой подход получил название scale-out. Благодаря как правило невысоким капитальным затратам на внедрение подобной архитектуры, хорошей масштабируемости и вполне приемлемыми для большинства сценариев характеристиками надежности (вследствие некритичной зависимости работы вычислительного комплекса в целом от отказа одного или даже нескольких его компонентов) принципы scale-out с каждым годом становились все более популярными в корпоративной среде.
В последние годы положение стало меняться, что, в свою очередь, было обусловлено по крайней мере двумя причинами. Во-первых, при достигнутых к сегодняшнему дню масштабах внедрения scale-out архитектуры стали резко расти OPEX-затраты на ее поддержание и развертывание. Этому не в последнюю очередь способствовал «зоопарк» x86-серверов разных поколений и производителей, и, к тому же, к расходам данной категории добавлялись новые, ранее вовсе непредусмотренные статьи, связанные, например, с покрытием серверной инфраструктуры виртуализацией. По данным IDC в
Во-вторых, нагрузка на серверы, в свою очередь тесно связанная с меняющимся ландшафтом прикладной автоматизации, теперь почти везде растет нелинейно. Иными словами, к необходимости обрабатывать все большее количество традиционных бизнес-транзакций добавляются новые профили использования ИС: аналитика больших данных, потоковая обработка первичной информации с датчиков и интеллектуальных устройств, процессинг медийной информации и некоторые другие. В подобной ситуации бизнес как минимум начинает искать альтернативу scale-out архитектуре, и в результате вторую жизнь получает имеющая более глубокие исторические корни модель scale-up. В данном случае масштабируемость ИТ-поддержки при количественном развитии бизнеса, а также производительность обработки информации, требующаяся для новых задач, обеспечивается за счет конфигурирования единого аппаратного решения одного производителя. Одно из преимуществ в сравнении со scale-out архитектурой на базе х86 тут очевидно: значительная доля ответственности за технические характеристики производительности, надежности и масштабируемости решения, а также некие гарантии стоимостных ограничений при его развитии на площадке заказчика ложится на вендора, предлагающего данное решение. Также важно отметить, что возвращение концепции scale-up должно по возможности учитывать все сопутствующие решения и наработки, которые успели себя зарекомендовать за десять-пятнадцать лет популярности альтернативной концепции, использующей х86-серверы различных поставщиков. Одним из характерных примеров здесь является сильно возросшая за это время популярность программных решений с открытой архитектурой.
И, наконец, корпоративный пользователь, ориентируясь на продукцию единого производителя, должен тем не менее иметь возможность полностью сохранить scale-out модель вычислений, если ему, по тем или иным причинам, она кажется более эффективной.
Версия от IBM
Примеров отклика производителей серверного оборудования на обозначенные вызовы достаточно, и если их число все же не так велико, то только в виду сильной ограниченности круга самих производителей. Но в этой ситуации легче следить за действиями каждого из них.
Представляется, что одним из наиболее показательных и удачных примеров эволюции серверной архитектуры, учитывающим все вышеперечисленные нюансы, является развитие линейки серверов Power Systems компании IBM.
На очень непростом с точки зрения коммерческого продвижения рынке серверов устройства рассматриваемого нами семейства чувствуют себя вполне уверенно. Специалисты объясняют такое положение Power System несколькими причинами. Во-первых, еще в 2013 году IBM официально заявила, что вкладывает около 1 млрд. долл. в развитие Power System как аппаратной платформы для Linux, и уже реализованные в рамках этих планов инициативы, безусловно, дали свои результаты. Linux сегодня является одной из ключевых платформ для систем IBM Power System, которые также функционируют совместно с AIX и IBM i.
Понятно, что ни одним, ни двумя предложениями учесть все вызовы современного серверного рынка невозможно в принципе. Поэтому важно то, что, говоря о Power Systems, мы имеем в виду весьма внушительную категорию устройств, работающих на разных операционных системах, рассчитанных на разных заказчиков, и ориентированных на разные задачи, среди которых безусловно выделяются задачи Big Data и High Performance Computing. Существуют также решения, рассчитанные на объединение многих серверов согласно принципам scale-out.
Еще одним очень значимым шагом, предпринятым в связи с развитием платформы Power Systems является инициатива OpenPower, помимо IBM пока объединившая в себе еще несколько компаний: Google, Mellanox, Tyan и NVIDIA. Основной технологической подоплекой деятельности данного альянса сейчас является продвижение технических инноваций на базе процессорной архитектуры POWER, на которой в настоящее время создаются серверы Power Systems. Если говорить об отдельных составляющих вычислительной архитектуры, то для самой IBM участие в данной инициативе прежде всего связано с выпускаемыми ею в настоящее время процессорами POWER8. Его прежде строго проприетарная архитектура ныне считается открытой, хотя контроль над набором команд по-прежнему полностью сохраняется за IBM. Вторым направлением деятельности IBM, тесно связанной с инициативой OpenPower, является работа над интерфейсом CAPI (Coherent Accelerator Processor Interface). Поскольку создание подобного инструмента по сути является новым словом в архитектуре обработки информации на уровне CPU (а здесь, повторим, прошедшие десятилетия не были очень богатыми на инновации) о нем следует сказать чуть подробнее.
Для этого вернемся к тезису о том, что прикладные системы сегодняшней бизнес-среды требуют не только высокой производительности. Типичные шаблоны вычислений меняются качественно, и в результате помимо привычной обработки транзакций в бизнесе (не в последнюю очередь в связи с актуальностью пресловутой концепции Big Data) становятся широко востребованными алгоритмы, ранее в основном применявшиеся в научных исследованиях или инженерных расчетах. Соответственно в этих областях была и по сей день остается популярной концепция так называемых гетерогенных вычислений, когда некоторую часть расчетов берут на себя специализированные сопроцессоры, будь то цифровые процессоры сигналов (Digital Signal Processor — DSP) или же программируемые логические матрицы (Field Programmable Gate Array — FPGA). Центральный CPU при этом освобождался для выполнения других, как правило, более универсальных задач. По этому же пути вполне можно было бы пойти и в бизнес-среде, если бы не опять-таки высокие требования к производительности. Дело в том, что традиционная схема гетерогенных вычислений с использованием сопроцессоров, вроде бы и направленная как раз на повышение этой самой производительности, вместе с тем сопряжена с весьма ощутимыми ее потерями из-за интенсивных операций обмена данными между отдельными процессорными единицами и интенсивным обслуживанием аппаратных прерываний. И самое главное то, что такой вариант гетерогенных вычислений требует создания специализированных версий прикладного ПО.
Здесь на помощь как раз и приходит интерфейс CAPI, реализованный в системах, работающих на базе POWER8. При его посредничестве внешние совместимые с CAPI аппаратные ускорители, устанавливаемые в систему через разъем PCI Express и ориентированные на специфику того или иного приложения, могут «бесшовно» сопрягаться с POWER8, фактически действуя как одно из его ядер. CAPI также может успешно применяться в том случае, когда мощь Power Systems усиливается ресурсами внешней flash-памяти, и она в этом случае фактически используется в качестве оперативной.
Как результат, решения IBM за счет возможности применения построенных на FPGA различных аппаратных ускорителей обеспечивают требуемую степень адаптации к различным конфигурациям современных бизнес-задач при сохранении высокой производительности вычислений и небольших инвестициях в разработку ПО.
Если говорить о прикладных системах, считается, что гетерогенные вычисления, организованные на базе процессора POWER8 и систем Power System, наиболее подходят для моделирования сложных систем методом Монте-Карло, работы с очень большими хэш-таблицами, а в отраслевом аспекте для решения задач ИТ-поддержки в сфере финансов и медицины.
В интерьере программных решений
Хорошо известно, что продвижение корпоративных серверов на рынок всегда было связано с решением наиболее популярных на тот или иной момент времени задач автоматизации, и, как следствие, с партнерством их производителей с компаниями, выпускающими наиболее востребованное в сегменте среднего и крупного бизнеса прикладное ПО. Появление подобных альянсов, как правило, сопровождалось предоставлением неких гарантий беспроблемного функционирования всего аппаратно-программного комплекса и декларацией характеристик, демонстрирующих производительность работы тех или иных программных продуктов на продвигаемой платформе.
В отношении Power Systems IBM по сути идет этим же путем, только акцент в данном случае делается, в том числе, и на новейшие программные технологии, совсем недавно вышедшие на корпоративный рынок, но уже успевшие продемонстрировать на нем свою эффективность. Запущенный еще в 2015 году и уже весьма популярный маркетинговый слоган SAP HANA on IBM Power System (или просто HANA on Power) как раз подразумевает, что различные, в том числе, чисто отраслевые сценарии использования SAP HANA были тщательно и по многим параметрам протестированы на рассматриваемой нами аппаратной платформе. Напомним также, что само решение HANA, прежде всего ориентированное на новые задачи современного бизнеса, базируется на столь же новой для корпоративного рынка технологии in memory computing.
Здесь же можно сказать и об инициативе IBM Data Engine for NoSQL, также очень тесно связанной именно с системами Power Systems, процессорами POWER8 и интерфейсом CAPI. Речь идет опять-таки о новом технологическом направлении работы с корпоративными данными, развивающемся как альтернатива традиционным реляционным СУБД. Здесь также высокая производительность в сочетании со способностью серверов Power Systems справляться с решением тех типов задач, которые ранее нечасто встречались в практике автоматизации бизнеса, имеет решающее значение.