Сравнение новых стандартов для пользовательских интерфейсов агентов искусственного интеллекта обнаруживает ключевые различия между ориентированным на нативные решения A2UI от Google и веб-ориентированным MCP Apps, который предпочитает OpenAI, сообщает портал The New Stack.
Google только что запустила Open Source-проект A2UI, призванный помочь разработчикам создавать «агентные пользовательские интерфейсы». Это новый шаг в уже ставшем регулярном цикле выпуска новых стандартов и протоколов для создания пользовательского интерфейса для ИИ-агентов и чат-ботов.
Сначала появился MCP-UI, проект экосистемы Model Context Protocol (MCP), тесно связанный с Anthropic и используемый Shopify (среди прочих). Вскоре после этого OpenAI запустила Apps SDK, а также AgentKit и другие UI-инструменты. Затем, всего месяц назад, был анонсирован MCP Apps — предлагаемый открытый стандарт «для интерактивных пользовательских интерфейсов в MCP», который поддерживается как Anthropic, так и OpenAI.
Что такое A2UI? Кроссплатформенный подход, ориентированный на нативные решения
Итак, что же Google предлагает в A2UI такого, чего нет в множестве других проектов, использующих агентные интерфейсы? Компания заявляет, что «A2UI был разработан для решения конкретных задач, связанных с совместимыми, кроссплатформенными, генеративными или основанными на шаблонах ответами пользовательского интерфейса агентов».
Термин «кроссплатформенный» — важная подсказка: это не веб-ориентированный подход, который в основном использовали MCP-UI и OpenAI, полагаясь на изолированные iframes. Вместо этого A2UI использует подход, который Минко Гечев из Google называет «ориентированным на нативные решения». Он описал его как «декларативный, а не исполняемый», добавив, что агенты ИИ «отправляют описание компонентов UI, а не код».
В настоящее время A2UI имеет клиентские библиотеки для Flutter, Web Components и Angular. Но со временем, вероятно, охват будет расширен и на другие библиотеки. Идея заключается в том, чтобы агент заявлял, как должен выглядеть пользовательский интерфейс в принимающем приложении (например, чат-боте), а для его генерации будут использоваться нативные библиотеки. «A2UI отделяет структуру UI от его реализации. Агент отправляет описание дерева компонентов и связанной с ним модели данных. Ваше клиентское приложение отвечает за сопоставление этих абстрактных описаний со своими нативными виджетами — будь то веб-компоненты, виджеты Flutter, компоненты React, представления SwiftUI или что-то совершенно другое», — говорится в сообщении о запуске A2UI.
Гечев также объяснил, что A2UI создан для потоковой передачи. «Используя формат на основе JSONL, A2UI обеспечивает прогрессивный ренедеринг, поэтому пользователи видят результаты мгновенно, как только агент „придумает“», — написал он.
Веб-ориентированная стратегия пользовательского интерфейса OpenAI
В новой области «агентной разработки» идет борьба за позиции. OpenAI, в частности, затронула множество направлений (вспомните шутку о шестипалых изображениях, сгенерированных ИИ). В настоящее время компания прилагает бóльшую часть усилий для превращения ChatGPT в платформу для приложений, где приложения будут представлять собой веб-виджеты, отображаемые в изолированных средах (обычно iframes). Только что OpenAI объявила, что разработчики теперь могут отправлять приложения в ChatGPT.
Однако компания также недавно вышла на рынок веб-браузеров со своим Atlas. И вполне возможно, что в какой-то момент она еще займется бизнесом смартфонов — или каких-либо других аппаратных устройств. «У меня есть предчувствие, что способ, которым мы создаем приложения ChatGPT сегодня, разделяет некоторые основные идеи и структуру с потенциальной платформой для смартфонов, которую, по слухам, OpenAI собирается запустить в будущем», — рассказал Адам Ши, директор по инжинирингу компании TELUS Digital.
Хотя OpenAI, похоже, пытается охватить все на свете, она сосредоточена на веб-технологиях в своем Apps SDK и (очевидно) в Atlas. Это отличает ее подход от Google, которая стремится к кроссплатформенному охвату с A2UI.
MCP Apps vs. A2UI: объяснение ключевых различий
Также стоит отметить, что OpenAI является участником проекта MCP Apps, который происходит как от проекта MCP-UI (созданного Идо Саломоном и Лиадом Йосефом, которые сейчас работают в Monday.com), так и от OpenAI Apps SDK. Компания Anthropic, породившая MCP, также активно участвует в этом проекте.
Расширение MCP Apps Extension (SEP-1865), если приводить его полное название, было запущено в прошлом месяце в официальном блоге MCP. Его цель — «стандартизировать поддержку интерактивных пользовательских интерфейсов в Model Context Protocol».
В настоящее время MCP Apps использует явно веб-ориентированный подход, применяя песочницу iframe, которую поддерживают как MCP-UI, так и Apps SDK. Как говорится в сообщении о запуске, «весь UI-контент выполняется в изолированных iframes с ограниченными правами доступа».
В своем сообщении о запуске A2UI Google подчеркнула, что ее подход «native-first» отличается от подхода MCP Apps. «Вместо извлечения непрозрачной полезной нагрузки для отображения в песочнице, агент A2UI отправляет шаблон нативных компонентов», — пояснила компания. Ключевой момент здесь заключается в том, что «шаблон», отправленный через A2UI, может использоваться для генерации веб-кода, нативного мобильного UI или компонентов настольных приложений.
Развивающиеся фреймворки для разработки агентов
В этом году было выпущено множество различных компонентов, помогающих разработчикам создавать агентов или подключать свои приложения к агентам. Google упомянула об этом в своем сообщении о запуске A2UI, отметив, что помимо создания пользовательского интерфейса, «вы также можете использовать фреймворки AG UI, Vercel AI SDK, GenUI SDK для Flutter, который уже использует A2UI в качестве основы, для обработки „каналов“».
Помимо обилия аббревиатур, иногда возникает путаница в том, кто что создает. Оказывается, AG UI (Agent-User Interaction) — это протокол взаимодействия от компании CopilotKit из Сиэтла, которая предоставляет инструменты для реализации AG UI. Теперь он также поддерживает A2UI.
И это еще без упоминания протокола Agent2Agent (A2A) от Google, который работает на уровне координации между агентами, а не на уровне пользовательского интерфейса.
Суть в том, что разработчикам придется разобраться во множестве различных технологий, прежде чем они поймут, как создавать и подключать агентов. Возможно, в 2026 г. все это станет яснее.
Но, по крайней мере, для пользовательского интерфейса сейчас есть два довольно понятных подхода: создать мини-веб-приложение (подход, предпочитаемый OpenAI и Anthropic, и теперь поддерживаемый MCP Apps) или использовать нативно-ориентированный подход с A2UI от Google.































