Искусственный интеллект (AI) в перспективе затронет огромное число отраслей, однако индустрия безопасности только начинает осваивать его потенциал.
Еще не владея четкими представлениями о будущих приложениях AI в мире безопасности, Курт Рёмер, главный стратег компании Citrix по вопросам безопасности, считает, что искусственный интеллект должен играть важную роль в понимании вопросов и проблем, которые в индустрии безопасности ассоциируются с угрозами.
«AI предстоит сыграть огромную роль в безопасности, и в своей основе это обусловлено тем, что проблема безопасности исключительно сложна и представляет собой нечто гораздо большее, чем то, что может осилить отдельно взятый эксперт или даже авторитетная команда специалистов по безопасности», — считает Рёмер.
«Потенциал AI состоит в том, что он может предоставлять специалистам по безопасности информацию к действию и создавать условия, при которых им требуется только принимать решения, — говорит он. — Рабочие процессы будут протекать автоматически, а функции безопасности во все моменты времени будут работать согласно плану в фоновом режиме без участия людей».
Поскольку AI-системы строятся вокруг набора точек принятия решений и граничных условий, Рёмер отмечает, что AI-система также должна понимать, когда происходит выход за рамки граничных условий или случается незапланированное событие, и на этом этапе обращаться к людям, предоставляя информацию к действию, на основе которой высокообразованный человек может принять решение.
«Это то, чего у нас сегодня нет, и многие отвечающие за безопасность организации все еще вязнут в трясине множества деталей и занимаются управлением сетевыми экранами, то есть работой, которую за нас должен бы реально выполнять искусственный интеллект, — констатирует Рёмер. — Сетевые экраны, системы обнаружения вторжений, каналы поступления информации, существующие уязвимости и как все это относится к конкретной организации — это не то, чем должны сегодня заниматься люди». Вместо этого, считает он, людям должна быть предоставлена информация и возможность принимать решения на ее основе.
В то же время Рёмер предупреждает, что не следует перекладывать на искусственный интеллект всю полноту ответственности, поскольку такие системы могут стать очень привлекательными для злоумышленников. «Если злоумышленник работает внутри организации или если хакеру удастся внедриться в AI-систему, отслеживающую в организации проблемы безопасности, и внести в нее изменения, то, манипулируя этой системой, можно вообще отключить безопасность всего предприятия», — говорит он.
Аналогичным образом, продолжает Рёмер, если в AI-системе будет присутствовать дефект или уязвимость или она будет некорректно сконфигурирована и обслуживаться ненадлежащим образом, потенциально организации могут оказаться в ситуации, когда их системы безопасности функционируют неправильно. «AI-система реально нуждается в том, чтобы кто-то за ней наблюдал и следил за ее состоянием, чтобы можно было рассчитывать на ее целостность, — говорит он. — Надо наблюдать и за наблюдающими».
По словам Рёмера, несмотря на прогресс в индустрии, еще существуют вендоры и заказчики, ищущие идеальное решение для обеспечения безопасности, хотя это вещь, конечно, весьма эфемерная. «Большинство организаций понимает, что людям надо концентрироваться не столько на технических мерах по обеспечению безопасности, сколько на управлении рисками, причем управление очень сложными комплексами рисков современного цифрового мира требует использования многообразных решений, — говорит Рёмер. — В индустрии безопасности существует проблема, которая нуждается в решении, и заключается она в обеспечении интероперабельности между вендорами и между отдельными продуктами, чтобы все они могли работать вместе более эффективно».