В мире зародилась активная дискуссия о необходимости регулирования искусственного интеллекта. Сейчас уже опубликованы первые законодательные инициативы в этой сфере, принятые на уровне правительств в Евросоюзе, Китае и США. Рассмотрим суть таких мероприятий, а также спрогнозируем как будет развиваться ИИ в ИБ.
ИИ в мире
Рассматриваемый в Евросоюзе закон об ИИ содержит в себе риск-ориентированный подход к градации систем ИИ. Такой вектор позволяет осуществлять выборочный контроль решений по ИИ в различных областях экономики. Назначение одних только штрафов за нарушение правил соблюдения градаций систем ИИ по уровням риска является недостаточным, ведь если взять масштабные корпорации, то подобные размеры штрафов не будут являться для них препятствием целенаправленного занижения риска систем ИИ. Описанные в законе регуляторные песочницы тоже вызывают вопросы о способах взаимодействия с регуляторами и обратной связью по разработке и дальнейшему соблюдению методических рекомендаций для комплексной проверки систем ИИ. Возможно, подобные правила будут разрабатываться каждым государством-членом Евросоюза отдельно, однако отсутствие широкой базы методологических документов на данный момент времени не позволяет говорить о безопасном применении систем ИИ.
Законодательная инициатива США в части безопасного ИИ включает в себя глубокий контроль за всеми решениями в области безопасности функционирования ИИ со стороны правительства и различных национальных центров. Подобное проникновение государственных ведомств позволяет осуществить внедрение различных «дыр» или «закладок» практически в любое решение, которое базируется на технологиях ИИ. А заданный в указе вектор международного сотрудничества через национальный ресурс исследований в области ИИ позволит распространить внедрение подобных «закладок» в том числе и на различные международные решения и исследования.
Временные меры по управлению генеративными системами искусственного интеллекта, принятые Китаем, показывают два основных вектора законодательных инициатив: ответственность разработчиков за весь генерируемый контент и соответствие систем ИИ социалистическим ценностям. Первый аспект позволяет правительству Китая, в случае выявления любых «закладок» в поставляемых на международных рынок решений в области ИИ, максимально отрицать свою причастность к подобным разработкам. А вот требования соответствия систем ИИ социалистическим ценностям, понимание о которых имеется лишь у правительства Китая, очередной раз подчеркивает заинтересованность правительственных учреждений в существенном контроле любых технологий, которые могут использоваться против правительства.
Искусственный интеллект в информационной безопасности
Здесь можно выделить три возможных вектора применения ИИ в области ИБ в РФ. Первое — создание доверенных средств защиты информации с применением технологий ИИ. Данное направление является самым очевидным, так как в последние годы технологии искусственного интеллекта все активнее проникают в различные инструменты администраторов информационной безопасности. Однако ключевой вектор развития — доверенное применение технологий ИИ в средствах защиты информации.
Второй вектор развития — это внедрение технологии ИИ в инструменты, которые позволяют разрабатывать безопасное программное обеспечение. Здесь важно отметить создание интеллектуальных инструментов анализа исходных кодов на наличие различных уязвимостей, закладок, проблем взаимодействия со средствами защиты информации и т. п. Без подобных решений создание интеллектуальных решений в области информационной безопасности не представляется возможным.
Третье направление — подготовка квалифицированных кадров. Внедрение технологий ИИ в образовательные процессы «взращивания» администраторов и разработчиков средств защиты информации является важным фактором создания доверенных решений в области информационной безопасности. Ведь даже по самым скромным подсчетам в ближайшие годы понадобятся десятки тысяч специалистов в области ИИ. Таким образом, необходимо проработать вопросы о ежегодной подготовке не менее 7000 — 10 000 специалистов по ИИ в области ИБ.
Развитие ИИ в ИБ
Уже к 2030 году технологии ИИ в области ИБ сумеют развиться до настоящих полнофункциональных экосистем. Абсолютно каждое средство защиты информации будет содержать в себе различные элементы ИИ. Причем все эти элементы будут иметь комплексное представление о функционировании смежных компонентов, все решения начнут взаимодействовать друг с другом. Подобный подход потребует серьезной стандартизации в области разработки решений по ИБ с использованием технологий ИИ, но появившийся недавно вектор работы экспертного сообщества над этим направлением показывает движение к созданию доверенной среды применения ИИ в ИБ.
Не стоит забывать и о развитии других технологий, например, создание цифровых двойников. Такая технология позволит иметь полную цифровую «копию» информационной системы, в которой различные решения в области ИИ позволят проводить широчайший спектр экспериментов по оценке влияния оказываемых на систему воздействий в режиме реального времени. Подобное можно воспринимать как «песочницу на максималках».