Глава Microsoft Сатья Наделла опубликовал свои мысли по поводу технологии искусственного интеллекта (ИИ) в американском онлайновом журнале Slate. Эксперты по ИИ в целом с ним согласны, но считают, что сформулированные им правила порождают ряд вопросов.
Наделла призывает пересмотреть отношение к ИИ и вместо того, чтобы фокусироваться на перспективах и опасностях, которые сулит эта технология, сосредоточиться на вопросах организации взаимодействия между машинами и людьми для расширения возможностей интеллекта: «Преимущества такой совместной работы часто теряются в ходе обсуждения того, чем хорош или плох искусственный интеллект».
Он сформулировал десять принципов и целей, которые следует учитывать при разработке ИИ, чтобы успокоить общественность относительно потенциального вреда этой технологии. Шесть правил касаются технологии искусственного интеллекта.
1. ИИ должен быть направлен на помощь человеку и уважение его независимости. Например, способные к сотрудничеству роботы должны выполнять опасные работы, такие как добыча ископаемых, которые могут поставить жизнь человека под угрозу.
2. Необходима прозрачность ИИ. Мы должны знать, как работает эта технология и по каким правилам. Информация о том, как ИИ выполняет анализ и воспринимает окружающий мир, должна быть публично доступной.
3. Нужно, чтобы ИИ повышал эффективность, но не задевал достоинство людей, учитывая культурные традиции и их разнообразие. Для этого требуется более глубокое, широкое и разнообразное участие населения в разработке ИИ-систем.
4. При проектировании ИИ очень важно предусмотреть защиту личной информации. Применение самых современных и изощренных средств защиты позволит предохранить персональную и групповую информацию и тем самым завоевать доверие людей.
5. Необходимо обеспечить контролируемость ИИ с точки зрения алгоритмов, чтобы человек смог предотвратить неумышленный вред. Другими словами, нужно учитывать ожидаемые и неожиданные действия.
6. ИИ должен предохранять от предвзятости. Задача состоит в том, чтобы эвристические правила не использовались для дискриминации.
Еще четыре правила касаются людей, точнее тех качеств, на которых должны фокусироваться будущие поколения.
7. Эмпатия. Понимание мыслей и чувств других людей, способность к взаимодействию и построению отношений будет критически важной в мире «человек-ИИ».
8. Образование. Чтобы создавать инновации, которые мы сейчас даже не можем вообразить, и управлять ими, необходимо повышать инвестиции в образование. Но развитие знаний и навыков, необходимых для реализации этой новой технологии в широком масштабе, является сложной социальной проблемой, для решения которой потребуется немало времени.
9. Креативность. Машины будут обогащать и повышать наши творческие способности.
10. Рассудительность и контролируемость. Мы, возможно, могли бы принять компьютерную диагностику или судебное решение, но нужно чтобы человек был готов нести ответственность за результаты.
Эксперты считают, что данные правила являются хорошим началом для продвижения идей ИИ в массы, но некоторые из них легче сформулировать, чем выполнить. Например, если один ИИ-алгоритм является прозрачным, а другой более производительным, как часто бывает в машинном обучении, вряд ли компания, работающая на конкурентном рынке, предпочтет прозрачный.
Сформулировать правила и цели недостаточно, утверждают эксперты. Следующим шагом должно стать создание стимулов для достижения поставленных целей, а это очень сложная задача.