Портал BigDataWire рассказывает о том, как искусственный интеллект меняет проблематику гравитации данных.
Так называемая «гравитация данных» на самом деле никогда не исчезала, поэтому говорить о её возвращении может быть не совсем точно. Однако до прихода ИИ она определённо оставалась малозаметной. Традиционные рабочие нагрузки анализа данных были достаточно снисходительными, поэтому эта проблема не была катастрофической. Небольшая задержка загрузки панелей мониторинга или отчёты, работающие ночью, не были катастрофой. Система продолжала работать, даже если не на пике своей эффективности.
Всё изменилось с рабочими нагрузками ИИ, которые не так снисходительны. Крупным системам ИИ необходим постоянный доступ к огромным объёмам данных. Им может даже потребоваться доступ из нескольких сред и регионов. Когда эти данные находятся далеко от вычислительных мощностей, затраты растут, а производительность снижается таким образом, что это трудно игнорировать. ИИ не создал новую инфраструктурную проблему. Он выявил уже существующую. Поэтому в этом контексте справедливо сказать, что проблема гравитации данных вернулась.
Эпоха облачных вычислений предполагала, что проблема гравитации данных решена
Гравитация данных описывает, как данные накапливают вес по мере роста. Мы знаем, что перемещение больших наборов данных обходится дорого, а управление ими после начала миграции между системами — сложно. Из-за этого приложения, как правило, мигрируют в сторону данных, а не наоборот. Это и есть гравитация данных.
В период расцвета облачной аналитики это ограничение отошло на второй план. Централизованные озера данных, пакетная обработка и ночные задания упростили покрытие затрат на перемещение. Медленный отчет или задержка обновления редко приводили к сбоям в системе. Безусловно, экономические факторы по-прежнему имели значение, однако они не были настолько болезненными, чтобы вынудить к архитектурным изменениям.
Рабочие нагрузки ИИ сократили этот запас прочности, поэтому сейчас его стало меньше. Когда моделям требуется постоянный доступ к свежим данным, гравитация начинает определять успех ИИ в реальных операционных процессах.
Как именно ИИ ухудшил ситуацию с гравитацией данных?
По сути, ИИ изменил то, как системы используют данные. Это основное изменение. Он также увеличил частоту обращения к данным. Это означает, что данные больше не извлекаются один раз и не хранятся постоянно. К ним обращаются многократно. В некоторых случаях к ним обращаются непрерывно во многих системах одновременно. Это создает давление, которое старые рабочие нагрузки никогда не создавали.
ИИ также изменил ожидания в отношении актуальности данных. Модели полагаются на свежие сигналы. Некоторые даже называют это сигналами реального времени. Устаревшие входные данные быстро снижают точность. Это заставляет чаще перемещать данные и оставлять их ближе к месту выполнения моделей. Задержки, которые раньше казались незначительными, теперь влияют на результаты.
Еще одно изменение — координация. Конвейеры ИИ редко работают в одном месте. Обучение может выполняться в одной среде. Инференс может выполняться где-то еще. Оценка и переобучение часто происходят отдельно. Каждый шаг зависит от данных, совместно используемых в разных системах. Эта зависимость заставляет перемещать данные между системами. Это происходит даже тогда, когда команды пытаются сохранить их на месте.
Следует помнить, что системы ИИ также генерируют собственные данные. Речь идет о прогнозах, логах, обратной связи и корректировках. Все они становятся новыми входными данными, а генерируемые ими выходные данные не исчезают. Они питают будущие выводы. Со временем это создает слои зависимости, которые трудно распутать.
Проблема гравитации данных не сводится к какой-либо одной задаче. Она заключается в повторении и последующем накоплении. ИИ постоянно работает с одними и теми же наборами данных, и когда это происходит снова и снова, ощущение гравитации данных усиливается.
Предприятия ощущают на себе тяжесть гравитации данных
Для предприятий гравитация данных перестала быть просто фоновым ограничением инфраструктуры. Теперь она стала серьезным риском для предприятий. Они понимают, насколько сложно перемещать данные в масштабах, сопоставимых с масштабами ИИ. Это влияет не только на производительность, но и на надежность и стоимость.
Некоторые организации реагируют на это, дублируя наборы данных в разных облаках и регионах, чтобы модели работали в непосредственной близости от вычислительных мощностей. Однако при этом увеличиваются объемы хранилища и накапливаются изменения в сети. Тактические усилия по оптимизации превращаются в постоянные накладные расходы. Организации также могут сталкиваться с ростом своих расходов на облачные сервисы, поскольку ИИ заставляет постоянно копировать и перемещать данные.
Надежность также может быть негативно затронута гравитацией данных. Распределенные конвейеры ИИ полагаются на длинные цепочки сервисов, но они не предназначены для тесной координации. Задержка в одной системе может вызывать волновой эффект в последующих рабочих процессах.
Например, корпоративная модель прогнозирования зависит от данных из разных источников — запасы, цены, транзакции клиентов и т. д. Когда какой-либо из потоков поступает с задержкой, весь конвейер останавливается. Задания на обучение приходится перепланировать, а вычисления на основе устаревших входных данных приводят к неточной модели прогнозирования. Большинство организаций просто не могут себе этого позволить. Команды часто пытаются быстро обойти эти проблемы, используя обходные пути и буферы, что только усложняет и без того перегруженную систему и делает её ещё более уязвимой.
Управление данными также подвергается серьёзным испытаниям, поскольку оно с трудом успевает за темпами развития. Данные теперь хранятся на нескольких платформах, и политики должны применяться везде одновременно. Контроль доступа должен управляться в зависимости от среды. Аудиты становятся сложнее, поскольку права собственности всё больше фрагментируются. Нет единого источника истины, поскольку данные поступают из различных облаков и регионов.
Эти проблемы проявляются в скорости доставки данных. Команды, работающие с данными, тратят на управление перемещением данных больше времени, чем на улучшение моделей. Команды ИИ и машинного обучения всё больше занимаются операциями с инфраструктурой, в то время как продуктовые команды ждут завершения конвейеров вместо того, чтобы работать над тестированием идей. Именно так предприятия ощущают тяжесть гравитации данных, и легче от этого не становится.
Переход к архитектурам «вычислений на данных»
Выше обозначены проблемы гравитации данных, с которыми сталкиваются предприятия в эпоху ИИ. Сейчас многие организации переосмысливают свой подход. Что они могут сделать?
Многие стремятся изменить место выполнения работы. Вместо того чтобы переносить огромные массивы данных между платформами, они перемещают вычислительные ресурсы ближе к данным. Это кардинально отличается от перемещения данных ближе к вычислительным ресурсам.
Само хранилище не является узким местом, а вот перемещение данных — да. По мере увеличения объема и частоты доступа к данным рабочими нагрузками ИИ это становится все большей проблемой. Каждая передача данных увеличивает операционный риск и затраты. Централизация конвейеров не является устойчивым решением, поскольку делает системы более хрупкими и концентрирует сбои в одной точке.
Более эффективный подход — сосредоточиться на выполнении. Вычислительные ресурсы легче и проще в развертывании, чем корпоративные данные. Команды перепроектируют конвейеры таким образом, чтобы модели работали там, где уже есть данные. Обучение и инференс все чаще происходят в средах озер-хранилищ и хранилищ данных. Некоторые организации развертывают региональные узлы инференса, чтобы запросы оставались локальными, в то время как другие перемещают легковесные модели ближе к периферийным узлам для уменьшения задержки.
Такой подход сохраняет наборы данных на месте, позволяя при этом рабочим нагрузкам ИИ свободно перемещаться. Он сокращает конвейеры и уменьшает ненужные передачи. Он также дает командам больший контроль над производительностью, поскольку модели могут развертываться в зависимости от близости как к данным, так и к пользователям.
Предприятия, успешно управляющие гравитацией данных, также внедряют федеративные уровни доступа, которые позволяют приложениям работать с распределенными наборами данных без необходимости полной консолидации. Аналитические движки теперь поддерживают выполнение моделей на месте. Это устраняет необходимость экспортировать большие объемы данных только для выполнения прогнозов. Вместо того чтобы полагаться на единый централизованный конвейер, рабочие нагрузки распределяются по регионам в зависимости от того, где они наиболее целесообразны.
Аналитика, системы хранения и ИИ начинают конвергировать на уровне платформы. Инфраструктурные стеки становятся все более интегрированными. Это упрощает развертывание моделей непосредственно в средах данных. А также уменьшает количество переходов между системами и упрощает операции.
Преодоление гравитации данных требует перехода к дата-центрической архитектуре. Модели адаптируются к местоположению данных, а не наоборот. Локальность становится частью проектирования системы. Для многих предприятий это становится стандартным способом масштабирования ИИ, сохраняя при этом отзывчивость и управляемость систем.































