Kubernetes — это сердце революции в области искусственного интеллекта, позволяющее как унаследованным виртуальным машинам (ВМ), так и новым ИИ-приложениям существовать в единой среде, пишет на портале The New Stack Бен Коэн, главный менеджер по маркетингу продуктов Red Hat.
Предприятия и организации по всему миру уже привыкли к концепции периферийных вычислений (Edge Computing), будь то отслеживание событий в заводском цеху или применение в розничных магазинах, где мы совершаем покупки, — Земля теперь охвачена периферийными вычислениями.
Распространение периферийных вычислений предполагает несколько областей развития для предприятий, использующих эту технологию. Во-первых, для этого необходимы датчики или устройства Интернета вещей (IoT). Отсюда вытекает второй пункт: больше данных для обработки. Целью большинства инициатив в области периферийных вычислений является быстрый и локальный сбор, мониторинг и анализ данных. В результате становится возможным определить усталость и эффективность заводских компонентов по частоте отказов, а клиенты могут получить специализированные предложения или новый опыт, который иначе невозможен без локальных ресурсов.
Однако, что дальше? Теперь, когда все датчики установлены и данные поступают, какова перспектива Edge? Ответ на этот вопрос, безусловно, содержится в заголовках новостей, но вместо того, чтобы быть просто добавлением к шумихе, Edge — это идеальное место для запуска ИИ-приложений. В конце концов, ИИ отлично подходит для анализа данных, а на периферии определенно производится много данных для анализа.
Так как же сочетаются ИИ и Edge? Ответ на этот вопрос лежит в отказе от технологии, с которой вы, скорей всего, уже хорошо знакомы: виртуальные машины.
Проблемы на периферии
Что делает периферийные вычисления уникальными? Поскольку они происходят не в стенах дата-центра, помимо всех повседневных проблем у них есть некоторые дополнительные. Вот некоторые из них:
- Нестандартные серверы. Иногда не хватает места для половины стойки (или даже узла 4U).
- Ненадежное сетевое подключение. Не в каждом месте есть стабильная и быстрая сеть.
- Ненадежное электропитание. Даже электричество не гарантируется круглосуточно.
- Отсутствие системы отопления, вентиляции и кондиционирования воздуха. В некоторых местах жарко, холодно, влажно или пыльно (не очень хорошо для оборудования).
- Горы данных. Объем пользовательских данных, генерируемых устройствами и датчиками, может исчисляться гигабайтами.
Это лишь несколько примеров того, что может ожидать вас на периферии. Устранение этих проблем, конечно же, является основой для поддержания потока данных.
Общие современные проблемы
Технологии постоянно меняются, но одна константа для ИТ-команд всегда остается неизменной: поиск баланса между новыми интересными вещами, которые будут приносить доход в будущем, и старыми вещами, которые приносят деньги сегодня.
Приложения бывают разных форм и размеров — большие/маленькие, виртуализированные/контейнерные/на «голом железе», а теперь еще и ближние/дальние. Это действительно «адская смесь» для многих организаций — в конце концов, у кого есть ресурсы, чтобы переписать каждое приложение? Даже с учетом всех преимуществ контейнеров ВМ все еще чрезвычайно популярны и останутся таковыми на долгие годы.
Использование гибридного решения позволяет использовать все преимущества современной контейнерной инфраструктуры на ВМ в полевых условиях. Для всех этих смешанных сред, в которых используются различные типы приложений, гибридное решение позволяет вашим ВМ и контейнерам работать бок о бок, используя одни и те же инструменты и процессы, и дает возможность командам совместно управлять всеми своими приложениями, включая для «голого железа», на единой прикладной платформе.
Проблемы завтрашнего дня
Трудно найти свежий технологический блог, в котором бы не упоминался ИИ. Теперь, когда у всех существующих приложений есть общее, давайте посмотрим на новые сценарии использования ИИ, которые могут дать новые инсайты или решения. Будь то контроль качества на заводе, специальные предложения в розничной торговле или бортовые операции на транспорте, интеллектуальные инсайты, которые являются быстрыми, локальными и частными, могут принести реальную пользу существующим отраслям.
Независимо от того, как вы относитесь к ИИ, есть фундаментальные, неоспоримые вещи, необходимые для построения рабочего процесса, процесса разработки и, в конечном счете, применения ИИ. Эти требования не так уж и удивительны: если вы видели одну схему рабочего процесса ИИ, то вы видели их все. Единственное различие, как правило, заключается в фактической реализации ПО. Но в целом рабочий процесс одинаков и не отличается от традиционного процесса разработки ПО:
- есть данные;
- некоторое ПО анализирует эти данные и выдает на их основе определенный результат;
- достоверность результата оценивается;
- ПО обновляется, данные обновляются;
- переходим к шагу 1.
Разработка ПО похожа тем, что это тоже цикл обратной связи. Чем больше программ написано, чем больше данных собрано, чем больше выходных данных может быть оценено, тем лучше становится ПО. Это самовоспроизводящийся цикл, но без постоянного притока данных и инноваций в ПО процесс может застопориться.
Таким образом, на практиков ложится обязанность поддерживать приток данных в кластер. Именно поэтому Kubernetes является сердцем революции в области ИИ: эта платформа позволяет всей этой инфраструктуре существовать в едином ментальном пространстве для всех участников.
Добавление ВМ в периферийные точки только усиливает мощь платформы. Поскольку периферийные системы получают данные локально и иногда требуют приложений, которые старше, чем некоторые разработчики, ВМ закрывают унаследованные рабочие нагрузки для этих распределенных приложений, которые не обязательно являются нативно-облачными. OpenShift, например, позволяет организациям использовать как новые ИИ-приложения, так и унаследованные виртуальные машины — все в одной среде, с одним набором инструментов в одном месте.