Лаборатории компании Hewlett Packard Enterprise уже больше двух лет ведут работу над новым интересным проектом под названием The Machine, который является смелым шагом в переосмыслении архитектуры дата-центров, переносящим на главное место в вычислительных процессах память вместо процессоров.
28 ноября на своей конференции Discover 2016 London компания успешно продемонстрировала концепцию Memory-Driven Computing, ставящую память в центр платформы вычислений для достижения невозможных по нынешним меркам производительности и эффективности.
SAP, Oracle и другие реализовали аналогичные идеи в новых более мощных СУБД, но еще никто не сумел продемонстрировать работающий на базе такой идеи сервер. Так было до сегодняшнего дня.
Проект The Machine был анонсирован два года назад, и главным действующим лицом в разработке его дорожной карты и самой системы был заслуженный ветеран HPE Мартин Финк, директор компании по технологиям и руководитель HP Labs. Однако в конце нынешнего года после 30 лет работы в компании он уйдет на пенсию, а HP Labs переходит в состав HPE Enterprise Group, которую возглавляет исполнительный вице-президент и главный управляющий Антонио Нири.
Рост числа подключенных устройств требует новых моделей вычислений
Gartner прогнозирует, что к 2020 г. число подключенных устройств достигнет 20,8 млрд., они будут генерировать беспрецедентные объемы данных, нарастающие более быстрыми темпами, чем возможности их обрабатывать, хранить, ими управлять и обеспечивать их безопасность при существующих архитектурах вычислений.
«Исследовательский проект The Machine знаменует достижение крупной вехи и является одним из крупнейших и сложнейших проектов в истории нашей компании, — сказал Нири. — На нынешнем прототипе мы продемонстрировали потенциал Memory-Driven Computing, а также открыли дверь незамедлительно последующим инновациям. Мы продолжаем работать над революционными технологиями, и наши заказчики и отрасль в целом могут рассчитывать на преимущества, которые откроются благодаря этим разработкам».
Концептуальный прототип технологии, заработавший с октября этого года, показывает фундаментальные строительные блоки новой архитектуры в совместной работе, причем именно так, как они проектировались исследователями HPE и ее подразделения Hewlett Packard Labs.
Компания продемонстрировала:
— вычислительные узлы, имеющие доступ к общему пулу Fabric-Attached Memory;
— оптимизированную ОС на основе Linux, работающую на специально спроектированной однокристальной системе (SOC);
— прогресс в области фотоники — действующие оптические коммуникационные соединения, включая новый модуль X1 на базе кремниевой фотоники;
— новые инструменты для создания ПО, призванного использовать преимущества больших ресурсов энергонезависимой памяти.
Модельные эксперименты на стадии проектирования прототипа показали, что быстродействие этой архитектуры может на много порядков повысить скорость вычислений. Как сообщила компания, испытания новых средств программирования на существующих продуктах при разных рабочих нагрузках продемонстрировали возможность ускорить выполнение задач до 8000 раз. HPE ожидает получить аналогичные результаты после расширения прототипа за счет увеличения числа узлов и ресурсов памяти.
Помимо расширения задействуемых ресурсов разработчики исследовательского проекта The Machine планируют усилить фокус на экзафлопсные масштабы вычислений (Exascale Computing). Exascale представляет собой развивающееся направление высокопроизводительных вычислений (HPC), ставящее целью создание на несколько порядков более мощных компьютеров, чем любые существующие ныне системы.
HPE утверждает, что ее архитектура Memory-Driven Computing масштабируема от миниатюрных IoT-устройств до уровня Exascale и тем самым является идеальной базой для новых типов высокопроизводительных вычислений и рабочих нагрузок с интенсивной обработкой данных, включая аналитику больших данных.
Memory-Driven Computing и коммерциализация
HPE заявляет о том, что она коммерциализирует технологии, разработанные в рамках исследовательского проекта, в новых и уже существующих продуктах. В настоящее время эти технологии распадаются на четыре категории.
Энергонезависимая память (NVM). HPE продолжает свою работу над выводом на рынок настоящей NVM с байтовой адресацией и планирует получить первые результаты в
Fabric (включая фотонику). Благодаря исследованиям в области фотоники HPE движется к перспективным продуктам, в частности, к системам на платформе HPE Synergy, которые появятся в будущем году и будут в себя включать фотонно-оптические технологии, находящиеся сегодня в процессе активной разработки. В более далекой перспективе HPE планирует интегрировать фотонику в 2018–2019 гг. в дополнительные продуктовые линейки, включая свой портфель систем хранения данных. Компания также планирует вывести на рынок матричные системы Fabric-Attached Memory, используя протокол высокопроизводительных межсоединений, разработанный под эгидой недавно созданного Gen-Z Consortium, к которому присоединилась HPE.
Формирование экосистемы. Уже проделано много работы по созданию ПО для будущих систем с центральной ролью памяти. В этом году HPE завязала кооперацию с компанией Hortonworks и проектом Spark для вывода на рынок ПО, созданного для Memory-Driven Computing. В июне HPE также начала публиковать на Github кодовые пакеты, чтобы разработчики могли начать знакомиться с программированием для новой архитектуры с ключевой ролью памяти. В будущем году компания планирует перенести этот код в существующие системы, а в
Безопасность. В своем прототипе HPE продемонстрировала новые безопасные межсоединения элементов памяти, соответствующие ее видению встраивания средств безопасности в весь стек аппаратуры и ПО. В будущем году компания планирует в продолжение этой работы создать новые аппаратные функции безопасности, а в ближайшие три года и новые программные функции безопасности. Начиная с 2020 г. HPE собирается объединять эти решения с дополнительными технологиями безопасности, которые сегодня находятся на этапе исследований.