CEO компании IBM Джинни Рометти присоединилась к числу технологических лидеров, призывающих к большей прозрачности, соблюдению этики и анализу социальных последствий в связи с разработками в сфере искусственного интеллекта (ИИ) и когнитивных приложений.
К Всемирному экономическому форуму в Давосе она подготовила доклад с изложением фундаментальных принципов, которых надо придерживаться при внедрении технологий ИИ.
В этом она не одинока. Массачусетский технологический институт, Гарвардский университет и Рид Хоффман из LinkedIn в числе других объединились в создании фонда размером 27 млн. долл. для анализа последствий использования ИИ. Администрация президента Обамы недавно опубликовала отчет о влиянии ИИ на рабочие места, свои соображения также высказал ряд организаций, в том числе Университет Карнеги — Меллон, некоммерческое учреждение, поддерживаемое технологическими гигантами, и IEEE.
Что касается доклада Рометти, то его цель — инициировать дискуссию об ответственности при внедрении ИИ. В вводных замечаниях к докладу говорится следующее.
Технология нового поколения и работающие на ней когнитивные системы, вместе обычно называемые искусственным интеллектом, скоро затронут все грани нашей работы и жизни, ИИ располагает потенциалом радикально их трансформировать в лучшую сторону... Как и все прежние революционные технологии, эта технология несет за собой крупные последствия. На многие из возникающих вопросов сегодня еще нет ответов, и чтобы их дать, потребуется время, исследования и открытые дискуссии.
Рометти сформулировала три базовых принципа.
· Конечная цель. IBM заявляет, что ее ИИ-системы будут призваны дополнять человеческий интеллект. В обозримом будущем ИИ не сможет заменить людей. «Наша технология, продукты, сервисы и политики будут предназначены для усиления и расширения человеческих способностей, опыта и потенциала. Наша позиция основана не только на принципиальных соображениях, но и на науке, — говорит Рометти. — Если быть реалистами, когнитивные системы не смогут достигнуть уровня сознания или стать независимой силой».
· Прозрачность. IBM заявляет, что будет подробно информировать, когда и с какой целью будут разрабатываться и внедряться ее ИИ-решения. Данные, используемые для обучения ИИ, будут прозрачными, и компания также будет рекомендовать пользователям защищать свои данные при внедрении аналогичных практик.
· Новые навыки. IBM заявляет, что внедрение ИИ-решений должно учитывать человеческие факторы, и организации должны помогать работникам и гражданам в получении навыков, необходимых для использования новых сервисов.
Принципы Рометти весьма широки, но следовать им, возможно, будет не просто. Если IBM сможет обеспечивать прозрачность в обучении своих ИИ-систем и использовании данных, то в отраслевом масштабе и на уровне отдельных компаний и госучреждений, видимо, так не получится. Тем не менее, дискуссии по ИИ должны будут продолжаться, потому что для ясных ответов на реальные вопросы потребуется время.