По мере развития технологий искусственного интеллекта компании внедряют модульные архитектуры, обеспечивающие гибкость и снижающие барьеры для внедрения ИИ, пишет на портале ITPro Today Сурабхи Санхла, вице-президент Kore.ai.

Стремительное развитие технологий ИИ заставляет многие компании пересматривать свой подход к интеграции этих возможностей. Большинство коммерчески развернутых моделей ИИ ранее были в основном прогностическими, но появление больших языковых моделей (LLM) открыло новую эру генеративного ИИ (GenAI). Хотя LLM представляют собой современную технологию, исследования и разработки в области ИИ продолжаются. Чтобы оставаться конкурентоспособными, организациям крайне важно создавать гибкие и модульные технологические стеки, которые позволят им быстро внедрять последние инновации в области ИИ.

Отделив прикладной уровень от компонентов ИИ и машинного обучения, компании могут менять базовые модели с минимальными или нулевыми нарушениями в работе с клиентами. Такой архитектурный подход, а также доступ к новейшим моделям с открытым исходным кодом демократизируют ИИ. Это дает возможность даже нетехническим организациям и малым предприятиям создавать сложные решения, которые идут в ногу с прогрессом этих технологий.

Коммодитизация искусственного интеллекта

Доступ к моделям ИИ больше не ограничивается крупнейшими технологическими компаниями, обладающими ресурсами и собственным опытом. Основополагающие технологии ИИ стали более доступными и экономически эффективными, предоставляя даже частным лицам прямой доступ к ИИ через такие платформы, как ChatGPT и Claude. LLM находятся в авангарде этой тенденции: наряду с более мощными аналогами появляются небольшие, более доступные версии, такие как GPT-4o Mini. В целом, разрыв в производительности между различными моделями также сокращается, что делает ценообразование более конкурентным, чем когда-либо.

Открытый доступ к моделям ИИ еще больше ускоряет процесс коммодитизации, снижая входные барьеры и позволяя нетехнологическим и небольшим компаниям внедрять решения на базе ИИ в свои организации. Платформы, подобные Hugging Face, демократизируют доступ, выпуская предварительно обученные модели с открытым исходным кодом, которые компании адаптируют к своим конкретным задачам. Разработка отраслевых малых языковых моделей (SLM) и ИИ-агентов, ориентированных на конкретные задачи, также позволяет небольшим компаниям внедрять ИИ в свою деятельность, значительно сокращая расходы на обучение, развертывание и тонкую настройку пользовательских моделей ИИ.

Спектр перехода от монолитной к модульной архитектуре

Недавнее партнерство Apple с OpenAI демонстрирует, что даже самые известные технологические гиганты будут внедрять в свои продукты внешние ИИ-сервисы. Интеграция Apple-OpenAI представляет собой более модульный подход к ИИ «подключи и работай», а не монолитную модель собственной разработки. Внедрение модульной или монолитной архитектуры — это не бинарный выбор, а спектр. Интеграция Apple с OpenAI отражает более высокую степень модульности. Напротив, подход Amazon к Alexa, когда все компоненты создаются и тесно интегрируются собственными силами, является примером более монолитной архитектуры.

Хотя монолитная архитектура обеспечивает более высокий уровень контроля, она может препятствовать быстрым инновациям и адаптации. Риск того, что изменения в одном компоненте могут повлиять на всю систему, ограничивает возможность легко использовать внешние ИИ-возможности. С другой стороны, компании, внедряющие модульную архитектуру ИИ, могут сосредоточиться на том, что у них получается лучше всего, — на работе с клиентами, одновременно интегрируя лучшие в своем классе возможности ИИ от внешних поставщиков. Модульный дизайн обеспечивает бóльшую гибкость, позволяя компаниям быстро и масштабно использовать новейшие достижения. Кроме того, снижается необходимость в разработке всех возможностей ИИ собственными силами, что еще больше снижает барьеры входа для небольших игроков с ограниченным опытом и ресурсами.

В модульной архитектуре технологические уровни взаимодействуют через API и микросервисы, которые абстрагируют детали реализации базового уровня. Слои стека могут взаимодействовать без необходимости знать особенности внутренних операций другого слоя. Такое разделение изолирует каждый слой и позволяет заменять ИИ-компоненты независимо друг от друга. В результате подход «подключи и работай» снижает затраты и риски, связанные с внесением изменений.

Например, слой расширенного поиска (RAG) можно обновлять независимо, чтобы обеспечивать доступ к самым актуальным источникам данных. Аналогичным образом, слой понимания естественного языка (NLU) можно легко заменить — например, перейти с OpenAI на Gemini — без изменения компонентов, которые зависят от результатов NLU. Такая гибкость позволяет быстро внедрять передовые технологии ИИ, сохраняя при этом стабильность и производительность системы.

Подготовка к переходу на модульный принцип

Для многих компаний, особенно с обширными унаследованными системами, первоначальные инвестиции в переход на модульную архитектуру могут оказаться неподъемными, даже с учетом долгосрочных преимуществ. Унаследованные данные, хранящиеся в устаревших форматах, мешают компании внедрять новые ИИ-технологии. Хотя предприятия могут начать с интеграции распространенных сторонних приложений, модернизация и перенос унаследованных данных имеют решающее значение для полной интеграции с новыми ИИ-инструментами.

Кроме того, еще одним важным шагом на начальном этапе является переход к архитектуре, ориентированной на API и микросервисы, чтобы сократить количество тесно связанных систем. Компаниям также важно усилить шифрование данных и другие меры безопасности, особенно в отношении конфиденциальных данных клиентов, чтобы решить проблемы безопасности при интеграции с внешними ИИ-сервисами и обеспечить соответствие нормам безопасности.

Наконец, инвестирование в инфраструктуру, например облачные сервисы, и рассмотрение в будущем таких передовых мер, как кэширование для уменьшения количества вызовов LLM, может еще больше оптимизировать производительность.

Модульная экосистема ИИ

Модульная экосистема ИИ представляет собой гибкую среду, включающую включающая различных игроков, которые способствуют демократизации и коммодитизации технологий ИИ. Поставщики фундаментальных моделей создают основные возможности и специализированные SLM. Поставщики ИИ-решений для предприятий создают готовые и специализированные решения для конкретных областей и отраслей. Поставщики ИИ-сервисов предлагают платформы для создания моделей ИИ и оказывают такие услуги, как маркировка данных, инжиниринг подсказок и тонкая настройка моделей ИИ. Инфраструктурные игроки предоставляют облачные сервисы для размещения моделей ИИ, решения для хранения и управления данными, а также высокопроизводительные вычислительные ресурсы.

Эта экосистема способствует быстрому внедрению инновационных ИИ-технологий и одновременно расширяет сферу их применения. По мере того как разработчики технологий создают все более совершенные инструменты и ИИ-сервисы, модульная архитектура становится стержнем, обеспечивающим бесшовную интеграцию и ускоряющим рост. Благодаря ей новаторам становится проще расширять границы, а организациям любого размера — внедрять и эффективно масштабировать ИИ-решения.

Модульная архитектура: баланс между инновациями и стабильностью

Внедрение модульных ИИ-архитектур открывает широкие возможности, но в то же время сопряжено с определенными трудностями. Хотя переход и первоначальные инвестиции могут быть дорогостоящими и сложными, особенно для предприятий с большим объемом унаследованных решений, потенциальные преимущества — такие как повышение гибкости, снижение затрат и облегчение доступа к специализированным ИИ-инструментам — весьма привлекательны.

Для новых, более гибких компаний модульный подход может быть более органичным и упростить внедрение передовых технологий ИИ с самого начала. По мере становления экосистемы ИИ организациям важно соизмерять стратегическую ценность с инвестициями, чтобы убедиться, что их технологические стеки действительно адаптируемы и готовы к будущему.