Бизнес-эксперты из нескольких отраслей, принявшие участие в ряде опросов, поделились своими мыслями о главных преимуществах периферийных вычислений. Их мнения на портале Enterprisers Project обсуждает технологический евангелист Red Hat Гордон Хафф.
Когда речь заходит о данных, в прессе чаще всего акцентируется внимание на их объеме. Размер присутствует и в некогда вездесущем термине «большие данные».
Это не новый взгляд на вещи. Так, в маркетинговых материалах слишком много внимания уделяется пропускной способности больших серверов, и недостаточно — времени, которое проходит между запросом данных и их получением, то есть задержке.
Мы наблюдаем аналогичную ситуацию в отношении Интернета вещей (IoT) и периферийных вычислений (Edge). При постоянно растущих объемах данных, собираемых все большим количеством датчиков, несомненно, существует необходимость фильтровать или агрегировать эти данные, а не отправлять их по всей сети в централизованный дата-центр для анализа.
С этим согласны практики. Недавно Frost and Sullivan по просьбе Red Hat провела 40 интервью с руководителями бизнес-подразделений (наряду с несколькими ИТ-руководителями) из организаций с более чем 1000 сотрудников. Они представляли компании в сфере производства, энергетики и коммунальных услуг из Северной Америки, Германии, Китая и Индии. Когда их спросили об основных причинах, побуждающих к внедрению периферийных вычислений, они отметили проблемы, связанные с пропускной способностью, а также со слишком большим количеством данных в центральном дата-центре.
В фокусе: задержка и возможности подключения
Однако участники интервью уделили значительно больше внимания задержке и, в более широком смысле, зависимости от сетевого подключения. Общими темами были такие триггеры, как необходимость улучшить подключение, увеличить скорость вычислений, быстрее обрабатывать данные на месте и избежать задержек при передаче данных в облако и обратно.
Например, один из руководителей нефтегазовой отрасли рассказал, что перенос вычислений на периферию «улучшает способность реагировать на любую случайную ситуацию, поскольку вам больше не нужно принимать все решения централизованно. Вы можете брать локальные данные, прогонять их через свою периферийную вычислительную систему или модель и принимать решения в режиме реального времени. Другой аспект — общая безопасность. Теперь, когда ваши данные никуда не уходят, а производятся и потребляются локально, риск того, что кто-то перехватит данные во время их прохождения по сети, практически исчезает».
В еще одном опросе ИТ-сообщества, проведенном Red Hat и Pulse.qa, 45% из 239 респондентов заявили, что снижение задержки является самым большим преимуществом развертывания рабочих нагрузок на периферии. (На втором месте оказалась оптимизация производительности данных, которая в общем-то тоже связана с задержкой). Снижение пропускной способности? Интерес к этому показателю — на уровне единиц процентов (8%).
Задержка также заняла важное место в ответах наших респондентов на вопрос, какие преимущества периферийных вычислений они считают главными.
Самые главные преимущества оказались связаны с немедленным доступом к данным (включая желание иметь доступ к данным в режиме реального времени, чтобы их можно было обрабатывать и анализировать непосредственно на месте), устранением задержек данных (вызванных их передачей данных) и возможностью иметь круглосуточный доступ к надежным данным (для постоянного анализа и получения быстрых результатов). Общей темой был действенный локальный анализ.
Стоимость как преимущество периферийных вычислений всплывала то тут, то там — особенно в контексте сокращения использования облака и связанных с этим расходов. Однако, как и в других проведенных нами исследованиях, стоимость не упоминалась в качестве основного фактора или преимущества периферийных вычислений. В основном, в качестве драйверов назывались доступ к данным и связанные с этим выгоды.
Драйверы: гибридное облако и данные
Почему мы видим такое повышенное внимание к периферийным вычислениям и связанной с ними локальной обработке данных? Наши интервью и другие исследования показывают, что, вероятно, особенно важны две причины.
Первая заключается в том, что спустя 15 лет после первого развертывания публичного облака ИТ-организации все чаще принимают явную стратегию гибридного облака. Согласно результатам исследования Red Hat «2022 Global Tech Outlook», это наиболее распространенная стратегия для облака у более чем 1300 респондентов, принимающих решения в сфере ИТ. Стратегия «публичное облако в первую очередь» оказалась наименее распространенной. Это соответствует данным, которые мы видели в других опросах.
Все это не означает, что увлечение публичными облаками проходит. Но периферийные вычисления помогли привлечь внимание к вычислениям (и хранению данных) в различных областях сети, а не полностью централизованно у кого-то из крупных провайдеров публичных облаков. Периферийные вычисления позволили обосновать, почему публичные облака не будут единственным местом, где будут происходить вычисления.
Вторая причина заключается в том, что мы выполняем все более сложные задачи, требующие больших объемов данных, на периферии. Наши интервьюируемые рассказали нам, что одним из основных толчков к внедрению edge-вычислений является необходимость в цифровой трансформации и внедрении таких решений, как IoT, ИИ, подключенные автомобили, машинное обучение и робототехника. Эти приложения часто имеют и облачный компонент. Например, обычно модели МО обучаются в облачной среде, а затем запускаются на периферии.
Мы также начинаем видеть применение кластеров на базе Kubernetes. Это не только обеспечивает масштабируемость и гибкость при развертывании на периферии, но и предоставляет согласованный набор инструментов и процессов от дата-центра до периферии.
Неудивительно, что локальность данных и задержка являются важными характеристиками гибридного облака, частью которого может быть периферийное развертывание. Наблюдаемость и мониторинг также имеют значение. Наряду с выделением ресурсов и другими аспектами управления. И да, пропускная способность — и надежность каналов связи — играет важную роль. Это связано с тем, что гибридное облако является разновидностью распределенной системы, поэтому если что-то имеет значение в какой-то компьютерной системе, то, вероятно, оно имеет значение и в распределенной системе. Возможно, даже большее.