По мере того, как предприятия наперегонки внедряют искусственный интеллект, вопросы безопасности и бюджетирования становятся все более актуальными. Опрошенные порталом InformationWeek эксперты рассказывают о том, какие затраты на безопасность несет с собой ИИ.

Мы уже это проходили. Появляется новая, захватывающая технология, которая обещает изменить бизнес. Предприятия спешат ее внедрить. Поставщики стремятся создать наиболее привлекательные сценарии использования. Бизнес на первом месте, безопасность на втором. Мы видели это с облаком, а теперь мы находимся на ранних стадиях развития другой новой технологии — ИИ.

Исследование, проведенное IBM, показало, что только 24% проектов генеративного ИИ (GenAI) включают элемент безопасности.

«Сейчас советы директоров гораздо лучше понимают необходимость кибербезопасности. Руководители компаний понимают репутационный риск», — говорит Акиба Саиди, вице-президент по управлению продуктами IBM Security.

Такое понимание означает, что все больше руководителей предприятий задумываются об ИИ в контексте безопасности, даже если на данный момент экономическая целесообразность преобладает над безопасностью.

Какие издержки безопасности несет ИИ в корпоративной среде? Как должны быть адаптированы бюджеты, чтобы справиться с этими расходами?

Безопасность данных

Безопасность данных — не новая концепция и не новая статья расходов для предприятий. Но она необходима для обеспечения безопасности ИИ.

«Прежде чем обеспечить хорошую безопасность ИИ, необходимо обеспечить хорошую безопасность данных, потому что в основе ИИ лежат данные, а многие компании и люди, с которыми мы общались, все еще испытывают проблемы с ... базовым уровнем данных», — говорит Джон Гиглио, директор по облачной безопасности поставщика облачных решений SADA.

Для организаций, которые не уделяют приоритетного внимания безопасности данных, разговор о бюджетировании безопасности ИИ может оказаться непростым. «Здесь могут быть очень скрытые расходы. Их очень трудно выявить», — отмечает Гиглио.

Безопасность моделей

Сами модели ИИ нуждаются в защите. «Многие из платформ GenAI на самом деле представляют собой просто черные ящики. Поэтому нам приходится создавать новые парадигмы, чтобы понять, как тестировать такие решения», — говорит Матти Пирс, вице-президент по информационной безопасности, рискам и соблюдению нормативных требований компании Absolute Security.

Манипуляции с моделями также вызывают беспокойство. Можно «... обманом заставить модели предоставить информацию, которую они не должны предоставлять, разгласить конфиденциальные данные, заставив модель сделать то, для чего она не предназначена», — говорит Саиди.

В какие инструменты и процессы необходимо инвестировать предприятию, чтобы этого не произошло?

Теневой ИИ

ИИ легко доступен сотрудникам, и руководители предприятий могут не знать, какие инструменты уже используются в их организации. Теневые ИТ — не новая проблема; теневой ИИ просто усугубляет ее.

Если сотрудники передают корпоративные данные различным неизвестным инструментам ИИ, риск раскрытия возрастает. Нарушения, связанные с теневыми данными, сложнее выявить и локализовать, что в конечном итоге приводит к увеличению затрат. Согласно IBM, взломы с использованием теневых данных обходятся в среднем в 5,27 млн. долл.

Обучение сотрудников

Каждый раз, когда предприятие внедряет новую технологию, оно сталкивается с необходимостью обучения. Понимают ли сотрудники, создающие новые ИИ-возможности, последствия для безопасности?

«Если вы взглянете на людей, которые создают модели ИИ, то это специалисты в области науки о данных. Они исследователи. Их опыт не обязательно связан с безопасностью», — отмечает Саиди.

Им нужны время и ресурсы, чтобы научиться защищать модели ИИ. Предприятиям также необходимо инвестировать в обучение конечных пользователей. Как им следует использовать инструменты ИИ с учетом требований безопасности? «Вы не сможете защитить что-то, если не понимаете, как это работает», — говорит Гиглио.

Обучение сотрудников также должно быть направлено на изучение новых возможностей для атак, которые предоставляет ИИ субъектам угроз. «Наши программы повышения осведомленности должны начать уделять особое внимание тому факту, что злоумышленники теперь могут выдавать себя за других людей, — говорит Пирс. — Мы можем сталкиваться с дипфейками, которые на самом деле очень страшны и могут быть сделаны во время видеозвонков. Мы должны убедиться, что наши сотрудники и наши организации готовы к этому».

Регулирование и комплаенс

Руководителям предприятий необходимы надежные системы регулирования и политики, чтобы снизить риски потенциально дорогостоящих последствий использования ИИ: раскрытие данных, теневой ИИ, манипулирование моделями, атаки с использованием ИИ, нарушения безопасности, предвзятость моделей.

«Пока еще нет подробных правил о том, как именно вы должны доказывать аудиторам свое соответствие требованиям безопасности в отношении контроля данных или моделей ИИ, но мы знаем, что они появятся, — говорит Саиди. — Это приведет к росту расходов».

Киберстрахование

GenAI открывает новые возможности и создает риски для безопасности предприятий, что может означать изменения в сфере киберстрахования. Могут ли правильные защитные инструменты реально снизить риски и страховые взносы предприятия? Могут ли более сложные угрозы привести к росту стоимости страхования?

«Возможно, еще рано... оценивать, как GenAI повлияет на профиль страховых рисков», — говорит Гиглио. Возможно, это так, но расходы на страхование — важная часть разговора о расходах на безопасность.

Составление бюджета

Руководителям предприятий придется на постоянной основе обсуждать стоимость ИИ и его потребности в безопасности.

«Большинство служб безопасности еще только пытаются понять, что им нужно защищать и что на самом деле изменилось. Что у них уже есть, что можно использовать?» — говорит Саиди.

Кто участвует в этих развивающихся дискуссиях? Естественно, CISO играют ведущую роль в определении средств контроля безопасности, применяемых к инструментам ИИ на предприятии, но, учитывая растущее повсеместное распространение ИИ, необходим подход с участием многих вовлеченных сторон. Другие руководители высшего звена, юридическая группа и группа по соблюдению нормативных требований часто имеют право голоса. По словам Саиди, на предприятиях формируются межфункциональные комитеты для оценки рисков, внедрения, регулирования и бюджетирования ИИ.

По мере того как эти команды на предприятиях начинают лучше оценивать различные затраты на безопасность ИИ, в разговор должны включаться и поставщики ИИ. Ключевой момент для любой организации, занимающейся безопасностью или ИТ, при разговоре с поставщиком — понять: «Мы будем использовать вашу платформу ИИ, но что вы собираетесь делать с нашими данными?».

Собирается ли поставщик использовать данные предприятия для обучения моделей? Как защищены данные предприятия? Как поставщик ИИ решает проблему потенциальных рисков безопасности, связанных с внедрением его инструмента?

Поставщики ИИ все больше готовятся к тому, чтобы вести эти разговоры о безопасности со своими клиентами. «Крупные игроки, такие как Microsoft и Google, начинают включать ответы на вопросы о безопасности в свои предложения, а не просто рассказывать о возможностях GenAI, потому что они знают, что эти вопросы им зададут», — говорит Гиглио.

При обсуждении бюджетирования ИИ возникает знакомый конфликт: инновации против безопасности. Распределить деньги непросто, и существует множество возможностей допустить ошибку, поскольку процесс внедрения находится еще на очень ранней стадии. Однако уже существуют новые ресурсы, призванные помочь предприятиям понять степень риска, например «OWASP Top 10 for Large Language Model Applications». Более четкое представление о рисках поможет руководителям предприятий определить, куда нужно направить деньги.