Провайдер облачных и AI-технологий Cloud.ru представил Evolution ML Inference — первый в России готовый облачный сервис для инференса (вывода) больших языковых моделей (LLM) с возможностью разделения графических процессоров (GPU) и гибким подходом к утилизации вычислительных ресурсов. Помимо уже доступных в рамках сервиса Cloud.ru моделей GigaChat бизнес может запускать и развертывать собственные AI-модели и любые ML/DL open source модели из библиотеки Hugging Face на базе облачных GPU в несколько кликов. Сервис уже доступен для пользователей в режиме General availability и войдет в состав Cloud.ru Evolution AI Factory — готового набора инструментов для работы с AI в облаке, анонсированного на ежегодной конференции GoCloud.
Evolution ML Inference подойдет для компаний и пользователей, которые разрабатывают AI- и
Ключевые преимущества сервиса:
- Shared GPU — технология позволяет разделять GPU-ресурсы и потреблять то количество vRAM (видеопамяти), которое необходимо для эффективной работы самой модели без задержек, с возможностью динамически перераспределять ресурсы в зависимости от текущих потребностей клиентов. Это повышает утилизацию мощностей в AI-проектах от 15 до 45% в сравнении со сценарием, когда графические процессоры используется полностью;
- простота и гибкость управления сервисом дают возможность, как запускать модели без необходимости сборки образа напрямую из Hugging Face, так и запускать собственные образы со своим окружением;
- решение обеспечивает высокую степень адаптации и рациональное использование доступных ресурсов: на одной видеокарте можно одновременно запускать несколько моделей. Это делает технологию наиболее оптимальной для распределенных систем с разнородной вычислительной инфраструктурой и помогает эффективно масштабировать нагрузку;
- режим скайлирования (эффективного масштабирования) — тарификация за использование модели начинается только в момент обращения к ней.
Евгений Колбин, генеральный директор провайдера облачных и AI-технологий Cloud.ru, отметил: «По нашим оценкам около 70% пользователей загружают GPU-ресурсы, зарезервированные под инференс в процессе эксплуатации