Институт будущего жизни (Future of Life Institute) опубликовал открытое письмо с призывом приостановить на шесть месяцев некоторые виды исследований в области искусственного интеллекта. Ссылаясь на «глубокие риски для общества и человечества», группа просит лаборатории ИИ приостановить исследования систем ИИ, более мощных, чем GPT-4, до тех пор, пока вокруг них не будут установлены дополнительные ограничения, сообщает портал Datanami.
«Системы ИИ с интеллектом, конкурентоспособным по сравнению с человеческим, могут представлять глубокую опасность для общества и человечества, — говорится в открытом письме. — Продвинутый ИИ может привести к глубоким изменениям в истории жизни на Земле, и его следует планировать и управлять им с соответствующим вниманием и ресурсами. К сожалению, такого уровня планирования и управления сейчас нет».
По мнению авторов письма, без ограничительных рамок — таких, как Асиломарские принципы ИИ — у нас нет надлежащих механизмов контроля, чтобы обеспечить планомерное и контролируемое развитие ИИ. Как утверждается, сегодня мы сталкиваемся именно с такой ситуацией.
«К сожалению, нет надлежащего уровня планирования и управления — несмотря на то, что в последние месяцы лаборатории ИИ втянулись в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — говорится в письме.
В отсутствие добровольной паузы со стороны исследователей ИИ, Институт призывает правительство США принять меры по предотвращению вреда, причиняемого продолжающимися исследованиями больших языковых моделей (LLM).
Ведущие исследователи ИИ разделились во мнении о том, следует ли приостановить свои исследования. Почти 1200 человек, включая лауреата премии Тьюринга Йошуа Бенжио, соучредителя OpenAI Элона Маска и соучредителя Apple Стива Возняка, подписали открытое письмо, прежде чем пришлось ввести паузу в самом процессе подсчета подписей. Однако не все убеждены в правильности запрета на исследование систем ИИ, более мощных, чем GPT-4.
«Письмо о приостановке обучения ИИ просто смехотворно, — заявил Бинду Редди, генеральный директор и основатель Abacus.AI. — Как бы вы приостановили попытки Китая сделать что-то подобное? США лидируют с технологией LLM, и пришло время удвоить усилия».
«Я не подписывал это письмо, — заявил другой лауреат премии Тьюринга Ян Лекун (он получил ее вместе с Йошуа Бенжио и Джеффри Хинтоном в 2018 г.). — Я не согласен с его предпосылками».
Лекун, Бенжио и Хинтон, которых Ассоциация вычислительной техники (ACM) назвала «отцами революции глубокого обучения», положили начало нынешнему увлечению ИИ более десяти лет назад своими исследованиями нейронных сетей. Сегодня глубокие нейронные сети стали основным направлением деятельности исследователей ИИ во всем мире.
Исследования в области ИИ получили новый импульс после публикации в 2017 г. статьи Google «Transformer: A Novel Neural Network Architecture for Language Understanding». Вскоре исследователи стали отмечать неожиданно проявляющиеся свойства LLM, такие как способность обучаться математике, рассуждать по цепочке мыслей (CoT) и следовать инструкциям.
Широкая публика узнала, на что способны эти LLM, в конце ноября 2022 г., когда OpenAI выпустила ChatGPT. С тех пор мир технологий поглощен внедрением LLM во все, что они делают, и гонка по созданию все более крупных и способных на все большее моделей набирает обороты, что видно по выпуску GPT-4 15 марта.
Хотя некоторые эксперты в области ИИ высказывают опасения по поводу недостатков LLM, включая склонность ко лжи, риск раскрытия частных данных и потенциальное влияние на рабочие места, это нисколько не ослабило огромный аппетит широкой публики к их новым возможностям. По мнению генерального директора Nvidia Дженсена Хуанга, возможно мы находимся в точке перегиба в развитии ИИ. Похоже, джинн уже выбрался из бутылки, и неизвестно, куда он направится дальше.