Переход к периферийным вычислениям (edge computing) сопряжен с рядом трудностей — от незрелости экосистемы до управления рисками. Опрошенные порталом Enterprisers Project эксперты рассказывают о четырех общих проблемах и способах их решения.
Периферийные вычисления во многом являются естественным продолжением других распределенных архитектур, особенно гибридных облачных сред. Их потенциальные преимущества огромны — что объясняет растущий интерес к ним — и могут быть еще более расширены при сопряжении с облачными вычислениями.
Эти преимущества не достаются бесплатно: сама природа распределенных ИТ-сред создает внутреннюю сложность. Но это не повод отказываться от тенденции — это просто говорит о необходимости планирования.
Ниже рассматриваются четыре ключевые проблемы, которые ставят перед нами периферийные вычисления, и даются советы, как их решать.
1. Управление высокораспределенными средами
Управление любой крупномасштабной edge-архитектурой подобно управлению сотнями или даже тысячами небольших ИТ-сред. И вы не можете посылать специалиста службы поддержки каждый раз, когда что-то требует внимания. «У вас, вероятно, будет много устройств на периферии, и там, вероятно, не так много местного ИТ-персонала», — отмечает Гордон Хафф, технологический евангелист Red Hat.
Если вы пытаетесь вручную управлять такими вещами, как конфигурация, исправления ОС и обновления ПО, а также множеством других общих эксплуатационных требований, то, скорее всего, вам придется несладко. То же самое касается стандартизации — или ее отсутствия — в отношении ОС и другого ПО, инструментария и т. д.
«Развертывание и эксплуатация крупномасштабных распределенных инфраструктур и так достаточно сложны, поэтому не стоит добавлять сюда случайности и разрозненности», — говорит Хафф.
Команды, управляющие гибридными облачными или мультиоблачными системами — особенно с контейнерными приложениями в составе — вероятно, уже поняли это, но всегда полезно напомнить: вам нужен практический план для операций второго дня и далее.
Победить эту проблему можно с помощью автоматизации и согласованности — двух столпов периферийных операций. «Автоматизация и управление необходимы для таких задач, как массовая настройка, принятие мер в ответ на события и централизованное обновление приложений, — говорит Хафф. — Следствием этого требования является обеспечение максимальной согласованности от дата-центра до периферии. Стандартизированные конфигурации операционных систем и оркестровка кластеров — ваши друзья».
2. Поиск правильного сочетания проблемы и решения
Реализация преимуществ периферийных вычислений зависит от продуманной стратегии и тщательной оценки ваших сценариев использования, отчасти для того, чтобы убедиться, что преимущества превзойдут естественную сложность периферийных сред.
«CIO не должны внедрять или форсировать периферийные вычисления только потому, что это модная тенденция — есть реальные проблемы, которые они призваны решать, и не все сценарии имеют такие проблемы», — говорит Джереми Линден, старший директор по управлению продуктами Asimily.
Отчасти внутренняя проблема здесь заключается в том, что одна из самых больших особенностей периферийных вычислений — низкая задержка — имеет широкую привлекательность. Не так много ИТ-руководителей тоскуют по более медленным приложениям. Но это не означает, что перенести все из центра обработки данных или облака на периферию — это хорошая (или просто осуществимая) идея.
«Например, часть рабочей нагрузки автономного автомобиля может размещаться в облаке, но по своей природе он должен реагировать на события очень быстро (чтобы избежать опасности) и делать это в ситуациях, когда подключение к Интернету может быть недоступно, — говорит Линден. — Это сценарий, в котором периферийные вычисления имеют смысл».
В его практике, связанной с IoT-безопасностью медицинских устройств, оптимизация затрат и выгод требует детального рассмотрения рабочих нагрузок. «Отправка всего сетевого трафика, собираемого на устройствах IoT, в облако, потребовала бы нереально высокой пропускной способности — и создало бы проблемы с безопасностью данных. Поэтому периферийные устройства обрабатывают его на месте и отправляют в облако извлеченные инсайты, — говорит Линден. — Но большая часть вычислений, например расчет показателей риска для устройств, может быть легко выполнена в обычной облачной модели».
Эксперт советует провести честную внутреннюю оценку затрат и выгод потенциальных периферийных сценариев использования — и затем сосредоточиться на тех, где производительность/задержка (или другие цели) действительно критичны. Как и в случае с облаком, не следует использовать подход «все или ничего».
3. Работа с экосистемой, которая все еще находится на стадии становления
Франсуа Балдассари, генеральный директор Memfault, приводит набор фундаментальных проблем, существующих, с точки зрения ПО, везде — на периферийном узле, в облаке или на традиционных конечных точках:
- Как мы развертываем ПО и отслеживаем версии?
- Как мы контролируем производительность и какова наша стратегия наблюдаемости?
- Как мы отслеживаем дефекты?
- Как мы обнаруживаем и снижаем риски безопасности?
Для облачных и нативно-облачных приложений уже существует проверенный набор ответов на эти вопросы. Балдассари указывает на рост инженерии надежности систем (SRE) как области, которая, по сути, существует для решения этих и других проблем современного ПО и инфраструктуры. DevOps, DevSecOps, GitOps и другие дисциплины также предлагают пересекающиеся подходы к решению подобных задач.
Хотя эти практики могут распространяться на периферийные развертывания, сама edge-экосистема все еще находится в относительно зачаточном, по сравнению с облаком, состоянии. «Экосистема все еще незрелая, и в настоящее время на рынке представлено некоторое количество неполных разнородных решений», — говорит Балдассари.
Как и облачные вычисления раньше, экосистема периферийных вычислений будет развиваться с течением времени. А пока ИТ-руководителям стоит проявить дополнительную осмотрительность при выборе платформ, инструментария и удовлетворения других требований. «Они должны поработать со своими поставщиками, чтобы понять, какова их стратегия надежности, какие SLA они предлагают, и какие инструменты они предоставляют ИТ-командам для мониторинга периферийных устройств в корпоративной сети, — говорит Балдассари. — Если ничего другого не остается, то необходимо использовать соответствующие сетевые политики для жесткого контроля и ограничения того, что могут делать периферийные устройства в сети».
4. Внимание к безопасности периферийной инфраструктуры и приложений
Подобно тому, как безопасность стала одним из основных подразделов облачных вычислений, так же она станет одним из основных приоритетов в периферийных вычислениях, которые, по определению, расширяют поверхность риска.
«Периферийные вычисления приносят фантастические преимущества для пользователей, но ценой появления фундаментальных проблем безопасности», — говорит Кристофер Сестито, генеральный директор HiddenLayer.
Также как и облака, периферия сама по себе не является менее безопасной, чем централизованная среда. Она просто требует приоритета со стороны руководства — и некоторых обновленных стратегий — для создания надежной защиты.
Специалисты по безопасности утверждают, что в периферийных средах решающее значение имеет гранулированный подход — на уровне пользователя или узла. «Управление доступом здесь еще более важно, а многофакторная аутентификация должна применяться всегда, где это возможно», — говорит Сестито.
Важную роль играет автоматизация безопасности (например, инструменты XDR и EDR), равно как и тщательное рассмотрение того, как данные раскрываются или перемещаются между сетевыми устройствами.
Если вы еще не используете модель нулевого доверия, развертывание edge может стать причиной для начала. «Использование принципов проектирования Zero Trust Security быстро становится надежным стандартом для хорошо сегментированных и хорошо защищенных ресурсов компании», — считает Рон Хауэлл, управляющий архитектор корпоративных сетей Capgemini Americas.
Правильно приоритизированная периферийная безопасность может фактически укрепить общую позицию организации в условиях все более распределенной ИТ-реальности. Руководители и команды, которые уже применяют многоуровневый подход к обеспечению безопасности облаков и контейнеров, должны чувствовать себя на периферии как дома.
«Лидеры отрасли приходят к пониманию того, что не все ИТ- и бизнес-требования к сети могут быть удовлетворены только с помощью облачной архитектуры предприятия, — говорит Хауэлл. — Облачные вычислительные услуги будут улучшены и дополнены использованием периферийных вычислений, периферийной безопасности и правильной сети».