Edge Computing — быстро развивающаяся технология, но ее выгоды станут очевидными только после консолидации многочисленных платформ и фреймворков. Портал IoT World Today рассказывает об основных из них.
Архитектура периферийных вычислений стала центром, вокруг которого концентрируется множество вычислительных задач. Среди ее преимуществ можно выделить минимальные сетевые задержки при обработке данных и возможности для работы с большими объемами данных, но в то же время у нее имеются и слабые стороны — недостаточная интероперабельность протокольного стека и отсутствие стандартизации. Как следствие, на сегодняшний день устройства и приложения, которые работают на границе сети, представляют из себя набор автономных Edge-экосистем.
Архитектура Edge приближает вычислительные ресурсы к данным и устройствам. Многие рыночные эксперты рассматривают ее как ключевую парадигму за пределами облачных вычислений. Имеются некоторые цифровые сценарии, которым требуются крайне низкие задержки, и это как раз тот случай, где она проявляет себя лучше облачных сервисов. Однако имеющееся разнообразие интерфейсов и отсутствие промышленных стандартов сильно замедляют прогресс, потому что лишают устройства и приложения возможности взаимодействовать друг с другом.
В настоящее время предпринимаются усилия по разработке стандартов, интерфейсов, кода и компонентов, которые будут содействовать тому, чтобы реализовать потенциал периферийных вычислений. Все это создает сложности тем пользователям, которые ищут готовые решения для применения устройств Интернета вещей (IoT) и Edge-приложений — они попросту не знают, что с чем может работать в связке. Рынок изобилует платформами Edge Computing, но ни одна из них пока не является лидером рынка. Многие производители стремятся навязать рынку собственные стандарты, поскольку это расценивается как следующий логичный шаг в его развитии. Рынок Edge всего за несколько лет достиг миллиардных оборотов (оценки на 2024 г. варьируются от 9 млрд. долл. до более чем 28 млрд. долл.).
McKinsey решила аргументировать свой прогноз (она считает, что к 2025 г. объем рынка может достичь 215 млрд. долл.), расписав 107 «конкретных сценариев применения», которые из-за проблем с задержкой не могут опираться на вычислительные ресурсы в облаке или корпоративные ЦОДы. Многие открытые Edge-проекты спонсируются различными отраслевыми группами с целью стандартизации ключевых аспектов технологии и выпуска платформ, которые упростят интеграцию проектов. Некоторые из них даже предлагают готовое ПО, которое поставщики могут включить в свои продукты и услуги. На его создание потребовались многие годы разработок, но, как показывает практика, корпоративным планировщикам непросто определиться с выбором, потому что их сбивает с толку набор слабосвязанных или конфликтующих фреймворков.
«Эти усилия частично пересекаются, но также есть области, в которых они дополняют друг друга, — сказал основатель и главный аналитик консалтинговой фирмы Edge Research Group Джим Дэвис. — Предприятия по-прежнему должны либо объединять эти компоненты, либо полагаться на сторонних поставщиков и интеграторов».
Open Sorce-платформы Edge подразделяются на несколько типов. К первому относят концепцию туманных вычислений (fog computing), позволяющую выводить облачные ресурсы на периферию через децентрализованную вычислительную инфраструктуру гетерогенных узлов. Второй тип — мобильные/периферийные вычисления для множественного доступа (Mobile/Multi-Access Computing, MEC) для подключения беспроводных LTE-сетей и сетей радиодоступа следующего поколения к периферийным архитектурам. Третий тип — микрооблачные вычисления (cloudlet computing), позволяющие «ЦОДу из коробки» (модульный ЦОД) предоставлять ресурсоемкие вычислительные возможности на периферии, включая поддержку центральных офисов операторов мобильной связи.
Наиболее масштабные усилия по консолидации инициатив в области Edge Computing предпринимаются под эгидой организации Linux Foundation, которая в 2019 г. основала LF Edge — зонтичную структуру, которая курирует семь Edge-проектов. «Наша цель состоит в том, чтобы унифицировать Open Source-фреймворки как на уровне инфраструктуры, так и на уровне приложений, для рынков IoT, телекоммуникаций, облачного и корпоративного Edge», — сказал главный директор LF Edge Арпит Джошипура, добавив, что «усилия LF Edge направлены на то, чтобы воспрепятствовать фрагментации такого большого рынка».Три ключевых проекта LF Edge:
EdgeX Foundry. Донором проекта стала Dell, которая поделилась исходным кодом. EdgeX представляет собой набор слабо связанных микросервисов, которые взаимодействуют через общий интерфейс прикладного программирования (API), позволяя дополнять или заменять их пользовательскими реализациями. Стадии коммерческой готовности ПО EdgeX V1.0 (Edinburgh) достигло в середине 2019 г., после того, как были выпущены три предварительные версии. ПО позиционируется как стабильный базовый набор API для разработки периферийных приложений. LF Edge заявляет, что несколько поставщиков уже предоставили решения, основанные или разработанные на основе кода EdgeX.
Edge Virtualization Engine (EVE). Этот Open Source-проект предоставляет облачную платформу для периферийных вычислений. Старт проекту был дан в 2019 г., после того как ему был передан код ZEDEDA. В качестве базовой настройки EVE применяет гипервизор для развертывания на серверах типа bare-metal («голое железо»). Он предоставляет возможности для конфигурирования и оркестровки, а также среду выполнения контейнера. EVE предназначен для развертывания любой ОС на виртуальной машине (ВМ), установки приложений в ВМ и контейнерах, обеспечения масштабируемого централизованного управления многими устройствами на больших расстояниях. По умолчанию он предлагает встроенные возможности mesh- и облачных сетей, используя стандартные технологии VPN, доступные в публичных облаках.
Akraino Edge Stack. Проект стартовал в феврале 2018 г., после того как получил исходный код от AT&T. Это облачный программный стек, оптимизированный для периферийных вычислительных систем и приложений со службой обеспечения сети и управления приложениями на борту. Первый релиз был представлен в середине 2019 г. — он включает в себя десять готовых и проверенных концептуальных решений, в том числе Radio Edge Cloud, несколько сетевых и телекоммуникационных облачных моделей, а также нативную инфраструктуру для развертывания Kubernetes.
Одно из направлений Akraino — попытка объединить разработку LF Edge с облачной платформой StarlingX для периферийных вычислений и распределенных IoT-устройств. За ее создание отвечает Edge Computing Group при OpenStack Foundation. StarlingX оптимизирована для высокопроизводительных приложений с низкой задержкой. Изначально это был проприетарный продукт Wind River, некогда подразделения Intel. Последняя передала код StarlingX в OpenStack Foundation. В начале 2018 г. он был выделен в отдельный проект, и сейчас доступна третья версия платформы.
StarlingX предоставляет базовый уровень OpenStack с вычислительными, сетевыми возможностями, возможностями хранения, а также конфигурационными и другими функциями управления. «StarlingX начал с того, что взял компоненты OpenStack и уменьшил их», — говорит исполнительный директор OpenStack Foundation Джонатан Брайс.
Еще один Edge-проект, который опекает OpenStack, — это Airship. Его инициаторами выступили AT&T и Dell с целью интеграции OpenStack с контейнерным оркестратором Kubernetes для периферийных ЦОДов и центральных офисов телекоммуникационных компаний.
Eclipse Foundation — это еще одна организация, которая занимается продвижением Edge Computing. Недавно в ее рамках была сформирована рабочая группа Edge Native, чтобы в краткосрочной перспективе перейти к созданию комплексного программного стека. Она курирует два проекта, которые оперируют кодом промышленного уровня: Eclipse ioFog, который нацелен на запуск микросервисов в распределенной Edge-сети. Его разработкой занимаются Adlink, Bosch, Edgeworx, Eurotech, Kynetics, Huawei, Intel и Siemens. Второй — Eclipse fog05, основой которого послужил код Adlink для обеспечения децентрализованной инфраструктуры для fog-развертываний и MEC.
Под эгидой Eclipse Foundation действует еще один проект с более продолжительной, чем у вышеупомянутых историей, — это Kura, расширяемый Open Source IoT-фреймворк, который предоставляет API-доступ к аппаратным интерфейсам шлюзов IoT. В настоящее время доступен в версии 4.1.0.
Все эти проекты имеют много общего. CEO Edgeworx и руководитель проекта Eclipse ioFogКилтон Хопкинс говорит, что Edge Native планирует развернуть эталонные архитектуры и рабочие примеры, которые покажут, как разработчики могут приспособить различные открытые компоненты для создания комплексного, готового к использованию решения. «Оно может включать ioFog, EdgeX и, возможно, некоторые вещи из стека Akraino, — пояснил Хопкинс. — Edge-индустрия сейчас достаточно зрелая, чтобы мы могли это сделать».
Не исключено, что некоторые из этих проектов потерпят неудачу или станут частью других проектов. Дело в том, что существует множество аналогичных или пересекающихся Edge-инициатив, таких как CORD (центральный офис, преобразованный в ЦОД), Virtual Central Office (vCO), KubeEdge для расширения оркестровки контейнерных приложений и хостинга на границе сети, а также ряд других. «Применение Edge требует различных подходов, но сейчас их слишком много», — говорит основатель и президент аналитической фирмы Senza Fili Моника Паолини.
Edge Computing занимаются и облачные гиганты: Amazon Web Services и Microsoft Azure. AWS IoT Greengrass — это ПО для локальных вычислений и безопасного подключения к облаку периферийных устройств, тогда как Microsoft позиционирует Azure IoT Edge в качестве управляемого сервиса для развертывания облачных рабочих нагрузок на периферии сети. Каждая из сторон заинтересована в том, чтобы периферийные среды не отобрали хлеб у их сервисов для обработки и хранения данных, которые обеспечивают им доходы в облачной среде.
Несмотря на то, что Edge-рынок фрагментирован и перенасыщен платформами под разные цели и задачи, история уже не раз демонстрировала, что консолидация неизбежна. Выработка стандартов займет какое-то время, но это не значит, что оно уйдет впустую. Разработчики потратят его, чтобы периферийная архитектура делала то, что ей положено: ускоряла вычисления, повышала уровень интегрированности и интенсивности обработки данных независимо от местоположения.