При использовании систем ИИ необходимо учитывать, как они могут повлиять на справедливость, подотчетность и прозрачность на рабочем месте, пишет на портале ComputerWeekly Кэтрин Хокс, старший юрист в группе трудового права компании RWK Goodman.
Использование ИИ на рабочем месте становится все более распространенным явлением, а не является футуристической концепцией из области научной фантастики. Среди преимуществ часто упоминаются экономия времени и повышение производительности. Однако не следует недооценивать проблемы, связанные с внедрением ИИ в практику и процедуры управления персоналом.
Технологии ИИ уже применяются в широком спектре отраслей на всех этапах трудового цикла. Их использование имеет значительные последствия — от найма до увольнения. Так, в последние месяцы в заголовки новостей попали инциденты в ряде компаний, например, Estee Lauder и Xsolla, которые использовали ИИ при увольнении сотрудников.
Все они применяли алгоритмы как часть процесса оценки. В Xsolla алгоритмы анализировали работу сотрудников по ключевым показателям, чтобы выявить тех, кто был «не вовлечен и не продуктивен». Такие сотрудники впоследствии увольнялись.
Аналогичным образом, Estee Lauder при увольнении трех визажистов использовала алгоритм, который оценивал сотрудников во время видеоинтервью. ПО измеряло содержание ответов и выражение лиц женщин во время интервью и оценивало результаты в сравнении с другими данными об эффективности их работы. Это привело к их увольнению.
Когда алгоритмы используются вместо принятия решений человеком, они рискуют воспроизвести и отразить существующие в обществе предубеждения и неравенство.
Система ИИ создается различными участниками: теми, кто пишет код, вводит инструкции, теми, кто предоставляет набор данных, на которых обучается модель, и теми, кто управляет процессом. На каждом этапе существует значительная вероятность возникновения предвзятости.
Если, например, в набор данных включено предубеждение в отношении найма мужчин или женщины недостаточно представлены, это, скорее всего, будет воспроизведено в ИИ-решении. В результате система ИИ принимает решения, которые воспроизводят присущие ей предубеждения. Если не принять меры, эти предубеждения могут гипертрофироваться, поскольку ИИ учится, становясь более искусным в дифференциации с использованием этих предубеждений.
Чтобы снизить этот риск, HR-команды должны тестировать технологию, сравнивая решения ИИ и человека на предмет предвзятости. Но это будет эффективно в борьбе с неосознанной предвзятостью только в том случае, если рецензенты сами представляют собой разнообразную группу. Если предвзятость будет обнаружена, алгоритм можно и нужно изменить.
Системы ИИ все чаще рассматриваются работодателями как эффективный способ оценки работы персонала. Хотя ИИ может выявить лучших исполнителей на основе ключевых бизнес-показателей, ему не хватает личного опыта, эмоционального интеллекта и способности формировать мнение для принятия решений. Существует опасность, что малоэффективные сотрудники могут быть проигнорированы только на основании оценки показателей. А умные сотрудники, скорее всего, найдут способы манипулировать ИИ в своих интересах, что без технологии было бы не так просто.
Заманчиво довериться ИИ, чтобы ограничить юридические риски, используя его для принятия решений. На первый взгляд, это может быть правильным, но потенциальные непредвиденные последствия любой системы ИИ могут легко привести к отсутствию прозрачности и предвзятости, равнозначной той, что была у ее создателей-людей.
При использовании систем ИИ необходимо учитывать, как они могут повлиять на справедливость, подотчетность и прозрачность на рабочем месте. Существует также риск того, что работодатели могут подвергнуть себя дорогостоящим искам о дискриминации, особенно если политика использования ИИ ставит работника в невыгодное положение из-за защищенной характеристики (например, пола) и в результате принимаются дискриминационные решения.
До тех пор пока ИИ не превзойдет человека в обучении на ошибках или понимании закона, его использование вряд ли существенно снизит риски.