Более ста экспертов в области искусственного интеллекта и этики попытаются подготовить базу для публичного обсуждения этических аспектов ИИ.
В то время как в мире технологий ведут форсированную разработку искусственного интеллекта, Институт инженеров электротехники и электроники (IEEE) призывает всех остановиться и задуматься об этических последствиях. И начали они с того, что опубликовали первую редакцию документа, в котором рассматривается целый ряд этических проблем, вызванных применением ИИ.
Документ, озаглавленный «Ethically Aligned Design: A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous Systems (AI/AS)», был подготовлен комитетами IEEE в рамках Всемирной программы института по продвижению этических аспектов в искусственном интеллекте и автономных системах (АС). В программе принимают участие более ста авторитетных лидеров и экспертов в области ИИ, этики и смежных областях.
Опубликовав первый проект документа, IEEE призывает общественность прокомментировать его содержание. «Мы обязаны проследить за тем, чтобы эти технологии ориентировались в первую очередь на человека и придерживались наших моральных ценностей и этических принципов, — говорится в аннотации к докладу. — Помимо достижения функциональных целей и решения технических проблем, ИИ/АС должны функционировать на благо людей... Согласовав принципы проектирования ИИ/АС с ценностями их пользователей и общества в целом, мы сможем поставить на первое место рост благополучия человека как мерило прогресса в нашу алгоритмическую эпоху».
Документ состоит из восьми разделов, каждый из которых разработан разными комитетами Всемирной программы IEEE. Начинается он с описания общих принципов, сформулированных комитетом, изучившим «высоконравственные этические проблемы», применимые ко всем типам ИИ/АС. Эти принципы включают в себя «пользу для человека» (меры, направленные на то, чтобы не допустить ущемления искусственным интеллектом прав человека), ответственность, прозрачность, а также образованность и осведомленность.
Во втором разделе предпринимаются попытки решить проблему внедрения нужных ценностей в автономные интеллектуальные системы (АИС). В нем признается наличие целого ряда трудностей, например, того факта, что ценности далеко не всегда бывают общепризнанными, а АИС может иметь дело с множественными, конфликтующими ценностями.
Далее в документе рассматривается методология, призванная направить в нужное русло исследование этических норм и этичное проектирование. В четвертом разделе речь идет о безопасности и степени благодетельности универсального искусственного интеллекта и искусственного суперинтеллекта. Этот вид продвинутого ИИ «может оказать революционное влияние на весь мир, по масштабам подобное аграрной или промышленной революциям, которое повлечет за собой небывалый уровень общемирового процветания», — говорится в докладе. Вместе с тем, по мере функционального усовершенствования ИИ «все опаснее становится возможность непредвиденных или непреднамеренных действий».
В следующем разделе обсуждается фундаментальная потребность людей в определении и управлении своими личными данными и доступе к ним. Далее в докладе обсуждаются трудности, связанные с пересмотром автономных систем вооружения, и даются рекомендации относительно таких методик, как ведение контрольного журнала операций, гарантирующего подотчетность таких систем.
Седьмой раздел посвящен экономическим и гуманитарным факторам, например, проблеме безработицы, возникающей с развитием ИИ. В последнем разделе рассматривается роль закона, а именно законные способы повышения подотчетности ИИ.
IEEE просит предложить свои замечания по документу к 6 марта 2017 г. Тем временем другие организации также начали дискуссию вокруг этических вопросов, связанных с автономными системами. Университет Карнеги—Меллон недавно объявил об учреждении нового исследовательского центра, посвященного изучению этики ИИ. Помимо этого, Google, Facebook, Amazon, Microsoft и IBM недавно основали некоммерческую организацию, которая будет вести разъяснительную работу среди населения и призывать к открытому диалогу по поводу ИИ.