По данным Gartner, агентный искусственный интеллект может значительно повысить потенциал ИИ и к 2028 г. войти в 33% корпоративных программных приложений по сравнению с 1% сегодня, сообщает портал AI Business.

Автономная технология может помочь CIO в достижении их целей в области ИИ, но это потребует соблюдения правовых и этических норм. Наряду с потенциальными преимуществами эта технология несет в себе новые риски и угрозы безопасности, помимо тех, что присущи моделям и приложениям ИИ, говорит Авива Литан, заслуженный вице-президент-аналитик Gartner.

До сих пор большие языковые модели (LLM) не действовали по собственной инициативе, но с приходом агентного ИИ они могут получить возможность действовать автономно при минимальном контроле со стороны человека. LLM смогут адаптироваться к контексту и выполнять поставленные задачи в сложных условиях.

Эта способность может значительно увеличить потенциал ИИ, позволив ему изучать данные, проводить исследования, составлять задачи и выполнять их в цифровом или физическом мире с помощью API или роботизированных систем. Например, будущие агентные системы ИИ, обладающие полной самостоятельностью, смогут учиться у окружающей среды, принимать решения и выполнять задачи самостоятельно.

Gartner, которая включила агентный ИИ в список главных стратегических технологических трендов 2025 г., предсказывает, что к 2028-му ИИ-агенты в качестве машинных клиентов смогут взять на себя 20% взаимодействий с цифровыми витринами, доступными для чтения человеком. Также к 2028 г. не менее 15% повседневных рабочих решений будут приниматься автономно с помощью агентного ИИ, по сравнению с нулевым показателем в 2024-м.

Однако, по мнению Gartner, пользователям следует помнить о дополнительных рисках. «При использовании стандартных моделей и приложений ИИ поверхность угроз часто ограничивается входными данными, обработкой моделей и выходными данными, уязвимостями ПО на уровне оркестровки и сред, в которых они размещены, — говорит Литан. — При использовании ИИ-агентов поверхность угроз расширяется и включает в себя цепочку событий и взаимодействий, которые они инициируют и в которых участвуют и которые по умолчанию не видны и не могут быть остановлены человеком или системным оператором».

По его словам, некоторые угрозы включают в себя раскрытие или утечку данных в любой точке цепочки событий агентов, допущенные ИИ-агентами несанкционированные, непреднамеренные или злонамеренные логические ошибки кодирования, которые приводят к утечке данных или другим угрозам. Существуют также риски, связанные с цепочкой поставок, при использовании библиотек или кода, загружаемого со сторонних сайтов для использования в агентах.

Как считает Литан, чтобы справиться с этими угрозами, ИТ-руководители должны информировать свои организации о присущих ИИ-агентам рисках, которые могут проникать в корпоративные продукты, и принимать меры по их снижению. К таким мерам можно отнести обнаружение и пометку аномальных действий ИИ-агентов и действий, которые нарушают определенные заданные политики предприятия, а также просмотр и картирование всех действий и информационных потоков ИИ-агентов.

Предприятия уже внедряют или настраивают продукты с возможностями ИИ-агентов, включая Microsoft Copilot Studio, Azure AI Studio, AWS Bedrock и Google NotebookLM. Однако между существующими помощниками на базе LLM и полноценными ИИ-агентами все еще существует большой разрыв. По мнению Gartner, сначала этот разрыв будет закрыт для узкоспециализированной деятельности, а со временем, когда мир научится создавать, управлять и доверять агентным ИИ-решениям, и для более широкой деятельности.