Генеральный директор OpenAI Сэм Альтман говорит, что выход на рынок общего искусственного интеллекта (AGI) произойдет в 2025 г., но, как считают опрошенные порталом InformationWeek эксперты, решить эту задачу будет крайне сложно.
Несколько лет назад эксперты в области ИИ предсказывали, что AGI станет реальностью к 2050 г. OpenAI вместе с BigTech-компаниями продвигает искусство возможного, но реализация AGI в ближайшее время все же маловероятна.
«Мы не можем предполагать, что мы близки к AGI, потому что на самом деле мы не понимаем даже текущий ИИ, который далек от мечты о AGI. Мы не знаем, как нынешние ИИ приходят к своим выводам, и даже не можем объяснить процессы, с помощью которых это происходит, — говорит Эйч Пи Ньюквист, автор книги „The Brain Makers“ и исполнительный директор The Relayer Group, консалтинговой компании, которая отслеживает развитие практического ИИ. — Существует огромный пробел, который необходимо ликвидировать, прежде чем мы сможем приступить к созданию ИИ, способного делать то, что умеет каждый человек. А отличительной чертой человеческого мышления, которую попытается повторить AGI, является способность объяснить, как мы пришли к решению проблемы или к ответу на вопрос. Мы же пока пытаемся удержать существующие большие языковые модели (LLM) от галлюцинаций».
В настоящее время OpenAI проводит альфа-тестирование расширенного голосового режима, который призван звучать по-человечески (например, периодически делать паузы при разговоре, чтобы перевести дух). Он также может распознавать эмоции и невербальные подсказки. Эти достижения помогут ИИ казаться более похожим на человека, что очень важно, но впереди еще много работы.
Эдвард Тиан, генеральный директор компании ZeroGPT, которая занимается обнаружением использования генеративного ИИ (GenAI) в текстах, также считает, что для реализации AGI потребуется время. «Идея AGI заключается в создании ИИ, максимально похожего на человека, — типа ИИ, который может сам себя обучать и, по сути, работать автономно. Поэтому одна из самых очевидных задач — создать ИИ таким образом, чтобы разработчики в конечном итоге могли перестать участвовать в его разработке, поскольку цель состоит в том, чтобы он работал самостоятельно, — говорит он. — Технология, какой бы продвинутой она ни была, не может воссоздать человека, поэтому задача состоит в том, чтобы попытаться разработать ее так, чтобы она была как можно более человекоподобной. Это также приводит к этическим дилеммам, связанным с надзором. Безусловно, есть много людей, которые обеспокоены тем, что ИИ может обладать слишком большой автономией и контролем, и эти опасения обоснованы. Как разработчикам создать AGI и в то же время ограничить его возможности в случае необходимости? Из-за всех этих вопросов и наших нынешних ограниченных возможностей и правил, я думаю, что 2025 г. не является реалистичным».
Что потребуется для достижения AGI
Нынешний ИИ — узкий искусственный интеллект (ANI) — хорошо справляется с конкретной задачей, но не может обобщить эти знания для решения других задач.
«Учитывая, сколько времени ушло на создание нынешних моделей ИИ, которые страдают от непоследовательных результатов, несовершенных источников данных и необъяснимых предубеждений, вероятно, имеет смысл совершенствовать то, что уже существует, а не начинать работу над еще более сложными моделями, — говорит Макс Ли, генеральный директор поставщика децентрализованных данных ИИ Oort и адъюнкт-доцент кафедры электротехники Колумбийского университета. — В научных кругах мы даже не знаем, почему многие компоненты AGI работают и почему они не работают».
Чтобы достичь AGI, система должна делать нечто большее, чем просто выдавать результаты и вступать в диалог, а это значит, что одних LLM будет недостаточно.
«Он также должен уметь постоянно учиться, забывать, выносить суждения с учетом других людей, включая окружение, в котором эти суждения выносятся, и многое другое. С этой точки зрения мы еще очень далеки от AGI, — говорит Алекс Хаймс, директор по ИИ компании Dataminr. — Трудно представить себе AGI, не включающий в себя социальный интеллект, а нынешние системы ИИ не обладают никакими социальными возможностями, например пониманием того, как их поведение влияет на других, как оно соответствует культурным и социальным нормам и т. д. И, конечно, AGI потребуются возможности обработки и создания не только текста, но и других видов модальностей — не только „понимания“ звуков и визуальных сигналов, но и, возможно, тактильных ощущений».
Например, GPT-4 может генерировать человекоподобный текст, но не может выполнять задачи, требующие понимания динамики физического мира, такие как функции роботов или сенсорное восприятие.
«Чтобы достичь AGI, нам нужны продвинутые алгоритмы обучения, которые могут обобщать и обучаться автономно, интегрированные системы, объединяющие различные дисциплины ИИ, огромные вычислительные мощности, разнообразные данные и много междисциплинарного сотрудничества, — говорит Сергей Кастукевич, заместитель технического директора компании SOFTSWISS, занимающейся разработкой ПО для игровых автоматов. — Например, нынешние модели ИИ, используемые в автономных автомобилях, требуют огромных массивов данных и вычислительных мощностей только для того, чтобы справиться с вождением в конкретных условиях, не говоря уже о достижении общего интеллекта».
LLM основаны на сложных моделях-трансформерах. Хотя они невероятно мощные и даже обладают некоторым эмерджентным интеллектом, трансформеры предварительно обучены и не учатся в режиме реального времени.
«Возможности трансформеров в плане рассуждений и планирования все еще достаточно базовые. Хотя в области агентных систем наблюдается определенный прогресс. На самом деле, это одна из самых горячих областей GenAI, и она находится в центре внимания исследователей. Пользователь может поставить задачу, а ИИ-агент — разработать план и выполнить его, — говорит Абхи Махешвари, генеральный директор ИИ-платформы Aisera. — Для достижения AGI необходимо совершить некоторые прорывы в моделях ИИ. Они должны будут обобщать ситуации без необходимости обучения на конкретном сценарии. Система также должна будет делать это в режиме реального времени, как и человек, когда он интуитивно понимает что-то».
Кроме того, по его словам, для создания AGI-возможностей, скорее всего, потребуется новая аппаратная архитектура, например, квантовые вычисления, поскольку графических процессоров, скорее всего, будет недостаточно. Кроме того, аппаратная архитектура должна стать гораздо более энергоэффективной и не требовать огромных дата-центров.
Другие соображения
Аднан Масуд, главный ИИ-архитектор компании UST, предоставляющей услуги по цифровой трансформации, говорит, что AGI должен будет уметь делать несколько вещей, которые пока невозможны. В частности:
- Способность к обобщению. AGI, обученный на медицинских данных, сможет также диагностировать механические повреждения.
- Неограниченное обучение. AGI должен будет использовать человеческое руководство и обучение с подкреплением для выполнения определенных задач, а затем самостоятельно добывать знания.
- Причинно-следственные связи. AGI должен уметь объяснять причинно-следственные связи, например, урожай не удался, потому что почва была заражена бактериями.
- Сенсорный ввод и обработка информации. AGI должен будет лучше понимать контекст, например, окружающую среду, в которой он работает.
LLM уже начинают делать выводы о причинно-следственных связях и со временем смогут рассуждать. Они также будут лучше решать проблемы и развивать когнитивные способности, основываясь на возможности получать данные из разных источников.
«Один из пробелов, которые мы имеем сейчас, — это физический аспект робототехники. Робототехника еще не пережила свой момент ChatGPT, поэтому для того, чтобы взять в руки бутылку с водой и сделать с ней что-то, роботу требуется значительное количество тренировок, — говорит Масуд. — Каждый квартал я посещаю MIT Media Lab и Robotics Lab и провожу много времени с исследователями. Обучение с подкреплением там еще не очень хорошо себя зарекомендовало».
Еще одно очевидное требование — необходимость регулирования безопасности.
«Идея о том, что машина или робот может обладать интеллектом, равным человеческому, одновременно и восхищает, и пугает. С одной стороны, это позволит людям сосредоточиться на более значимой и желанной работе или занятиях и может привести к созданию утопического общества, в котором будут разрешены разногласия, прекратятся войны, а человечество будет жить более мирно, — говорит Ли. — С другой стороны, роботы, управляемые AGI, могут ополчиться против людей, как предсказывал Сэм Альтман, и, возможно, истребить их. Знание — сила, и, хотя люди, возможно, остались на вершине пищевой цепочки, обладая наибольшим количеством знаний за всю историю нашей планеты, страшно подумать о том, что может произойти, когда этого больше не будет».
Хотя в прошлые годы многие специалисты в области науки о данных не спешили отвергать антиутопическое будущее, вызванное ИИ, они делали это в контексте ANI. Теперь многие говорят о том, что, хотя AGI не будет реализован в течение одного или нескольких десятилетий, его необходимо регулировать, чтобы убедиться, что он действует в интересах людей.
«Регулирование ИИ будет сложным, а регулирование AGI — еще более сложным, — говорит Масуд. — Самый большой риск — это рассогласованность. Если цели ИИ будут расходиться с человеческими ценностями, это может привести к пагубным последствиям».
Еще одна проблема — «выключатель». Если ИИ выйдет из себя и люди захотят его отключить, сможет ли система защитить себя от экзистенциальной угрозы?
Кроме того, предвзятость и дискриминация уже являются огромными проблемами, которые будут сохраняться, поскольку первопричиной их возникновения являются люди. Более того, более высокий уровень автоматизации будет иметь экономические последствия, которые еще не до конца понятны.
«Что будут делать политики, если повсеместная автоматизация приведет к замещению рабочих мест и экономическому равенству? — говорит Масуд. — Еще одна проблема — угрозы безопасности. Если AGI будет использоваться в злонамеренных целях, какую политику вы будете проводить, чтобы люди или национальные государства не начали нападать друг на друга?»
И наконец, существует проблема соотношения известных и неизвестных рисков или непредвиденных последствий.
«Технологические регуляторы и правительства должны лучше понимать модели ИИ, то, как они создаются и как работают, особенно по мере того, как инструменты ИИ будут становиться способными на все большее и переходить в эру AGI, — говорит Рон Райтер, технический директор и соучредитель поставщика облачной платформы безопасности данных Sentra. — Когда речь заходит о возможностях ИИ, мы только начинаем изучать область того, что возможно. Однако в какой-то момент AGI сможет сам себя обучать, учась на своих ошибках, и, по мнению некоторых исследователей, станет бесконечно умным. В преддверии такого будущего международному сообществу необходимо разработать ряд этических норм в области ИИ, соблюдение которых будет способствовать лучшему будущему для человечества».