Naumen объявила о запуске лаборатории LLM для применения технологий генеративного искусственного интеллекта в экосистеме продуктов компании. Первым проектом станет модуль Naumen GPT для системы управления знаниями в клиентском сервисе.
Naumen начал тестирование больших языковых моделей (Large Language Models, LLM) в продуктах компании, чтобы найти способы применения технологии с понятной выгодой для бизнеса. Большие языковые модели позволяют обобщать, понимать и генерировать тексты на разных языках, а также поддерживают интерактивный диалог.
Первым реализованным проектом станет интеллектуальный ассистент Naumen GPT AssistTool, который встраивается в систему управления знаниями Naumen KMS. Задача ассистента — сделать работу сотрудников контактных центов проще и удобнее. В основе решения лежат open source модели, а в перспективе возможна интеграция с российскими вендорами LLM.
Naumen GPT анализирует статьи из базы знаний и генерирует человекоподобный ответ, который можно сразу использовать в диалоге с клиентом. Следуя политике распространения информации, он формирует ответы в рамках той зоны базы знаний, к которой у пользователя есть доступ. Каждый ответ снабжает ссылками на источники или дает сниппеты статей как подтверждение того, что ответ сгенерирован на основе реальных данных. Ответы можно оценить с точки зрения полезности для дальнейшего обучения и корректировки поведения системы.
Naumen готовится к тестированию решения на пилотных проектах с клиентами, которые уже используют систему управления знаниями Naumen.
«Использование больших языковых моделей в перспективе значительно поднимет уровень обработки и генерации текста во всех решениях продуктовой линейки Naumen. Благодаря этому наши заказчики получат еще больший прирост производительности труда по итогам использования наших технологий», — прокомментировал Игорь Кириченко, CEO Naumen.