В справедливом мире открытый исходный код и открытые модели должны оставаться выбором, а закрытый исходный код — правом, пишет на портале The New Stack Кит Пияновски, эксперт MinIO по вопросам искусственного интеллекта и машинного обучения.
ИИ находится в центре идеального шторма в индустрии ПО, и теперь многие эксперты призывают к созданию ИИ с открытым исходным кодом.
В вопросе о том, как контролировать ИИ, сталкиваются три мощные точки зрения:
- Весь ИИ должен быть с открытым исходным кодом для совместного использования и прозрачности.
- Следует сохранить закрытым исходный код ИИ и позволить крупным технологическим компаниям контролировать его.
- Установить правила использования ИИ.
Есть несколько фактов, которые делают эту дискуссию непростой. Во-первых, даже если у вас есть исходный код модели, вы абсолютно ничего не знаете о том, как она себя поведет. Открытость ИИ требует гораздо большего, чем предоставление исходного кода. Во-вторых, ИИ бывает разных видов и может использоваться для решения широкого круга проблем. От традиционного ИИ для обнаружения мошенничества и целевой рекламы до генеративного ИИ для создания чат-ботов, которые, на первый взгляд, дают результаты, похожие на человеческие, приближая нас к конечной (и пугающей) цели — искусственно созданному интеллекту (Artificially Generated Intelligence). Наконец, все перечисленные выше идеи по управлению ИИ имеют доказанную эффективность для улучшения ПО в целом.
Разбор различных точек зрения
Давайте обсудим различные точки зрения, перечисленные выше, более подробно.
Перспектива № 1 — весь ИИ должен быть с открытым исходным кодом для совместного использования и прозрачности. Эта точка зрения исходит из стремления к прозрачности ИИ. Open Source — это проверенный способ распространения и улучшения ПО. Он обеспечивает полную прозрачность при использовании обычного ПО. Программное обеспечение с открытым исходным кодом (OSS) продвинуло индустрию ПО вперед на несколько шагов.
Перспектива № 2 — сохранить закрытым код ИИ и позволить крупным технологическим компаниям контролировать его. Закрытый исходный код, или проприетарное ПО, — это идея о том, что изобретение следует держать в секрете, подальше от конкурентов, чтобы получить максимальную финансовую выгоду. Для Open Source-идеалистов это звучит как откровенное зло; однако это скорее философский выбор, чем тот, что существует в спектре добра и зла. Большинство ПО является проприетарным, и это неплохо по своей сути — это основа конкурентной и здоровой экосистемы. Это фундаментальное право любого новатора, создающего что-то новое, — выбрать путь закрытого исходного кода. Вопрос в том, что если вы работаете без прозрачности, то какие могут быть гарантии в отношении ответственного ИИ?
Перспектива № 3 — установить правила использования ИИ. Это исходит от законодателей и чиновников, настаивающих на регулировании. Основная идея заключается в том, что если государственная функция или технология настолько мощная, что злоумышленники или безответственное управление могут нанести вред обществу, то необходимо назначить государственное агентство для разработки мер контроля и обеспечения соблюдения этих правил. Существует мнение, что действующие лидеры в области ИИ также хотят регулирования, но по причинам, которые не столь благонравны, — они хотят ограничить игровое поле, на котором они будут лидировать. В первую очередь мы сосредоточимся на сфере общественного блага.
Истинная природа Open Source
До появления генеративного ИИ большинство ПО, используемого в центрах обработки данных, было обычным. Вы можете точно определить, что делает традиционное ПО, если у вас есть его исходный код. Инженер, свободно владеющий соответствующим языком программирования, может просмотреть код и определить его логику. Можно даже модифицировать его и изменить его поведение. Открытый исходный код — это еще один способ сказать: «Я собираюсь предоставить все необходимое для определения поведения и изменения поведения ПО». Короче говоря, истинная природа OSS заключается в том, чтобы предоставить все необходимое для понимания поведения программы и его изменения.
Чтобы модель была полностью открытой, вам нужны данные для обучения, исходный код модели, гиперпараметры, используемые во время обучения, и, конечно, сама обученная модель, состоящая из миллиардов (а вскоре и триллионов) параметров, которые хранят знания модели — также известные как параметрическая память. Некоторые организации предоставляют только модель, а все остальное оставляют при себе и заявляют, что это «Open Source». Такая практика известна как «open-washing» и обычно не одобряется ни сообществом разработчиков открытого, ни сообществом разработчиков закрытого кода, считающих ее неискренней. Я бы хотел, чтобы для моделей ИИ, которые являются общими частично, использовался новый термин. Может быть, «частично открытая модель» или «модель от „open-washing“-компании»«.
Когда речь заходит о полностью общих моделях, возникает последняя трудность. Допустим, организация хочет поступить правильно и поделиться всем, что касается модели — обучающими данными, исходным кодом, гиперпараметрами и обученной моделью. Но вы все равно не сможете точно определить, как она поведет себя, пока не проведете всестороннее тестирование. Параметрическая память, определяющая поведение модели, не поддается человеческому пониманию. Опять же, индустрии нужен другой термин для полностью открытых моделей. Термин, отличный от «открытый исходный код», который следует использовать только для ПО, не относящегося к ИИ, поскольку исходный код модели не помогает определить ее поведение. Возможно, «открытая модель».
Общие аргументы
Давайте рассмотрим некоторые общие аргументы, которые поддерживают использование только одной из описанных выше перспектив. Их выдвигают страстные защитники своей точки зрения, но эта страсть может затуманить суждения.
Аргумент. Сторонники закрытого ИИ утверждают, что у крупных технологических компаний есть средства для защиты от потенциальных опасностей и злоупотреблений. Поэтому код ИИ должен быть закрытым и его следует держать подальше от сообщества Open Source.
Опровержение. У крупных технологических компаний есть средства для защиты от потенциальных злоупотреблений, но это не означает, что они будут делать это разумно или вообще делать. Кроме того, у них есть и другие цели. Их главная цель — зарабатывать деньги для своих акционеров, что всегда будет иметь приоритет.
Аргумент. Те, кто считают, что ИИ может угрожать человечеству, любят спрашивать: «А вы бы открыли исходный код Манхэттенского проекта?».
Опровержение. Это аргумент в пользу контроля. Однако это несправедливая и некорректная аналогия. Целью Манхэттенского проекта было создание бомбы в военное время путем использования радиоактивных материалов для получения ядерного синтеза. Ядерный синтез не является технологией общего назначения, которую можно применять для решения различных задач. Вы можете сделать бомбу и высвободить энергию — и все. Ингредиенты и результаты опасны для широкой общественности, поэтому все аспекты должны регулироваться. ИИ — это совсем другое. Как было сказано выше, он бывает разного сорта и с разными рисками.
Аргумент. Сторонники открытого ИИ говорят, что открытый исходный код способствует обмену научными знаниями, обеспечивает прозрачность и является средством, не позволяющим немногим монополизировать мощную технологию.
Опровержение. В основном это верно, но не совсем. Открытый исходный код действительно обеспечивает совместное использование. Но для модели ИИ он обеспечит лишь некоторую прозрачность. Наконец, вопрос о том, помешают ли «открытые модели» нескольким людям монополизировать сферу ИИ, является спорным. Прежде чем запустить такую модель, как ChatGPT, в масштабе, нужно понимать, что заполучить ее смогут только несколько компаний.
Потребности многих перевешивают потребности немногих
В фильме «Звездный путь 2: Гнев Хана» Спок умирает от радиационного отравления. Он понимает, что для спасения необходимо отремонтировать главные двигатели корабля, но машинное отделение залито смертоносной радиацией. Несмотря на опасность, Спок входит в наполненную радиацией камеру, чтобы произвести необходимый ремонт. Он успешно восстанавливает варп-двигатель, позволяя «Энтерпрайзу» удалиться на безопасное расстояние. К сожалению, вулканцы не имеют иммунитета к радиации. Его предсмертные слова, обращенные к капитану Кирку, объясняют логику его действий: «Потребности многих перевешивают потребности немногих или одного».
Это совершенно здравая логика, и ее придется использовать для контроля над ИИ. Определенные модели представляют опасность для широкой публики. Для этих моделей потребности общества перевешивают права новаторов.
Должен ли весь ИИ быть с открытым исходным кодом?
Давайте рассмотрим ранее установленные аксиомы:
- Открытый исходный код должен оставаться выбором.
- Открытые модели не так прозрачны, как ПО без ИИ с открытым исходным кодом.
- Закрытый исходный код — это право новатора.
- Нет никакой гарантии, что крупные технологические компании будут правильно контролировать свой ИИ.
- Потребности широкой общественности должны превалировать над всеми остальными.
В пяти приведенных выше пунктах представлено все, что я пытался прояснить относительно открытого и закрытого исходного кода, а также регулирования. Если вы верите, что они верны, то ответ на вопрос «Должен ли весь ИИ быть с открытым исходным кодом?» будет отрицательным, потому что открытый код не будет контролировать ИИ, как и закрытый код. Более того, в справедливом мире открытый исходный код и открытые модели должны оставаться выбором, а закрытый исходный код — правом.
Мы можем сделать еще один шаг вперед и поговорить о действиях, которые может предпринять индустрия в целом, чтобы продвинуться к эффективному контролю над ИИ:
- Определите типы моделей, которые представляют опасность для широкой публики. Поскольку они управляют информацией (чат-боты) или опасными ресурсами (автоматические автомобили), модели с высоким риском должны регулироваться.
- Следует поощрять организации делиться своими моделями как полностью открытыми. Open Source-cообществу разработчиков необходимо будет принять меры и либо предотвратить, либо маркировать модели, доступ к которым открыт лишь частично. Сообщество также должно разработать тесты, которые можно использовать для оценки моделей.
- Закрытые модели должны быть разрешены, если они не представляют риска для широкой публики. Крупные технологические компании должны разработать свои средства контроля и тесты, которые они профинансируют и будут распространять. Это может стать шансом для них тесно сотрудничать с сообществом разработчиков Open Source для решения общей проблемы.