Microsoft в этом году начала активное продвижение на рынок в виде отдельного продукта своей платформы искусственного интеллекта, которая раньше использовалась для внутренних разработок компании (например, в сервисах Cortana и в языковом переводчике Skype). Речь идет о наборе Microsoft Cognitive Toolkit (MCT), который до октября этого года назывался Computational Network Toolkit (CNTK), он предназначен для решения широкого спектра исследовательских задач с помощью методов нейронных сетей. Уже в ближайшее время компания намерена представить обновленный вариант MCT, и одним из важных его новшеств должна стать улучшенная поддержка графических процессоров (GPU) Nvidia. В частности, в состав пакета войдет оптимизированный под архитектуру Nvidia набор алгоритмов и библиотек, реализующих функционал глубинного обучения для решения таких задач, как распознавание образом и речи.
Как известно, машинное обучение для своей реализации требует серьезных вычислительных ресурсов в течение долгого времени, которое может измеряться днями. Для решения таких задач часто используются облачные мощности по требованию. Именно для подобных высоконагрузочных вычислений Microsoft предлагает свой сервис Azure N Series, рработающий на базе графических процессоров Nvidia архитектуры Kepler или Maxwell.
MCTможет также в полной мере использовать автономный (онпремис) вариант суперкомпьютера Nvidia DGX, в котором задействовано восемь Tesla P100 GPU, реализованных на базе самой последней архиректуры Pascal (стоимость такой аппаратной системы — 129 тыс. долл.). Как говорят представители Nvidia, новый вариант пакета будет работать на таком компьютере более чем в семь раз быстрее по сравнению с текущей его версией. Вполне возможно, речь может идти об интеграции в MCT алгоритмов и библиотек пакета CUDNN, развиваемого самой Nvidia и предназначенного для широкого класса задач параллельного программирования.
Отметим, что фреймворки для поддержки глубинного обучения сейчас предлагаются в виде открытых проектов, а также рядом ведущих ИТ-игроков, в том числе Google, IBM, Intel, которые в существенной мере ориентируются на применение собственных аппаратных средств. В частности, Google не так давно представила чип Tensor Processing Unit, предназначенный для повышения эффективности свое нейронного пакета Tensor. Но это решение слишком дорогое для небольших компаний, и вариант облачных сервисов, таких как Azure, может быть для них более подходящим.