В автоматизации нет ничего нового, но передача полного контроля автоматизированной системе несет в себе потенциальные риски. Почему дополненный интеллект — более гуманный подход, чем искусственный интеллект, объясняет портал Techopedia.
«Человеку свойственно ошибаться, но чтобы по-настоящему испортить ситуацию, нужен компьютер». Известный американский обозреватель Уильям Э. Воган сделал это наблюдение еще в 1969 г. Передача управления автоматизированной системе чревата тем, что она может выйти из строя и причинить серьезный вред до того, как это обнаружится.
Автоматизация не нова, но она становится все более распространенной благодаря интеграции цифровых и физических систем. Положительной стороной автоматизации в масштабе является высокая эффективность. Но недостатком системы типа «настроил и забыл» является то, что кто-то может не настроить ее должным образом.
Автоматизация может иметь разрушительные последствия. Эта антиутопическая возможность была показана еще в 1936 г., когда герой Чарли Чаплина в фильме «Новые времена» оказался во власти мега-машины.
В современном мире наши машины и электроника гораздо более точны, однако ошибки могут случаться и случаются. Даже когда автоматизированные процессы работают так, как задумано, опыт людей, участвующих в них, может быть далеко не оптимальным, как это произошло в случае с масштабными увольнениями в Alphabet.
Преимущества ИИ-автоматизации
Сторонники автоматизации на основе искусственного интеллекта отмечают, что рост эффективности может быть обеспечен благодаря освобождению людей от необходимости выполнять повторяющиеся задачи, исследования и анализ данных. Автоматизация выполнения рутинных задач позволяет высвободить больше времени для решения проблем, развития и изысканий.
Некоторые отмечают, что ИИ уже применяется для конкретных целей, позволяя ставить более точные медицинские диагнозы, лучше использовать природные ресурсы и получать более персонализированное образование, чем это могут обеспечить учителя в классе. Он также повышает безопасность в трех областях:
- обнаружение присутствия оружия, например, огнестрельного;
- устранение необходимости подвергать людей физическим и химическим опасностям;
- прогнозирование стихийных бедствий.
Это не просто потенциал, а реализация реальных возможностей ИИ. На данный момент ИИ доказал свою способность принимать автоматические решения. Однако эти решения не всегда являются правильными, что порождает проблему возможного неправильного использования ИИ.
Злоупотребление ИИ-автоматизацией
Не все, что можно автоматизировать, следует автоматизировать. Forrester отмечает, что в настоящее время мы страдаем от последствий так называемых «случайных актов автоматизации».
Вместо того чтобы улучшать результаты, как предполагалось, эти автоматизированные процессы ухудшают опыт клиентов и компаний, которые на них полагаются. Без надзора за их исправлением они могут привести к результатам, которые варьируются от раздражения до серьезных рисков безопасности.
Вот несколько примеров, когда автоматизация ради автоматизации идет не так:
- недостатки самообслуживания увеличивают задержки, которые оно должно было устранить;
- чатботы, которые не могут ответить на вопросы и задерживают доступ к реальному человеку, усиливают разочарование клиентов;
- дискриминационные эффекты, такие как отказ людям в работе или кредитах, могут быть результатом предвзятости алгоритмов;
- автоматизация может даже привести к смертельным случаям в авариях с участием автономных транспортных средств и машин.
Автоматизация, которая упускает суть
Одним из наименее сильных раздражителей, возникающих при автоматизации, является распространение маркетинговых сообщений, которым мы все подвергаемся в Интернете. Бренды, использующие эту тактику, бомбардируют своих клиентов электронными письмами и текстами, призванными использовать синдром упущенной выгоды (FOMO) для стимулирования продаж.
Однако чрезмерное использование автоматизации снижает воздействие FOMO, поскольку клиенты усвоили, что за сегодняшним предложением последует другое — завтра, послезавтра и послепослезавтра. Поэтому маркетологи пытаются привлечь их внимание с помощью попыток персонализации, которые противоречат автоматизации.
Непродуманные автоматические сообщения могут демонстрировать отсутствие чуткости и внимания. Так произошло с некоторыми получателями уведомлений об увольнении от Alphabet, материнской компании Google. Ряд сотрудников, уволенных из технологического гиганта, обратились в социальные сети, чтобы пожаловаться на черствость компании. «Для меня токсичная позитивность, с которой я столкнулась, почти невыносима. В этот момент я не могу испытывать благодарность к компании, которой я отдала так много себя, но которая посчитала нужным расстаться, заблокировав меня (и 12 000 моих коллег) в 4 часа утра», — написала рекрутер Google Блэр Болик.
Другой рекрутер компании, Дэн Ланиган-Райан, обнаружил, что потерял работу, после того, как телефонный разговор с одним из его соискателей внезапно прервался. Сначала он и его менеджер предположили, что в этом виноваты технические проблемы. Однако спустя некоторое время его электронная почта была отключена, и он понял, что что-то случилось. Это подтвердилось, когда он увидел новость о 12 000 увольнений.
Другие бывшие сотрудники также чувствуют себя преданными, поскольку их абсолютно не предупредили об увольнении: электронные письма и сообщения приходили, когда они еще спали, без каких-либо последующих действий или контекста. Когда увольнения в масштабах компании отданы на откуп автоматике, единственной заботой является получение быстрого и немедленного эффекта. Человеческие чувства в такие расчеты не входят.
Вовлечение человека
Вполне вероятно, что Alphabet использовала некоторые из своих собственных передовых технологий ИИ для организации процесса увольнения. В связи с этим возникает вопрос: должны ли люди позволять ИИ принимать решения?
Однозначно нет, отвечают некоторые эксперты; «ИИ еще не готов принимать решения без контроля», — предупреждали авторы статьи несколько месяцев назад. В ней отмечалось, что за последние несколько лет ИИ значительно продвинулся вперед и стал более точным, однако на него все еще нельзя полностью полагаться. Авторы объясняли, что алгоритм способен воспринимать только «модели и данные», что не позволяет учесть «общую картину и в большинстве случаев проанализировать решение с обоснованием его причин». Следовательно, люди должны быть уполномочены принимать окончательное решение, используя «дополненный интеллект вместо чистого искусственного интеллекта».
Это действительно кажется более мудрым и гуманным подходом, особенно в тех случаях, когда речь идет о жизни и средствах к существованию людей.