Искусственный интеллект отличается от традиционного ПО в одном очень важном аспекте: для того, чтобы он мог выполнять свою работу, его нужно обучить, пишет портал Techopedia. И в этом состоит его ключевое преимущество в обеспечении жизненного цикла продукта: в отличие от классического софта, который разработчики дорабатывают вручную не чаще, чем один раз в год (или даже реже), ИИ-система может самостоятельно добавлять новые инструменты, создавать новые функции или иным образом изменять функционал продукта, чтобы удовлетворить требования пользователей.
Однако недостатком ИИ является то, что пока лишь немногие программы могут гарантировать достоверные результаты работы «из коробки». Для того, чтобы они могли это сделать, требуется их непрерывное применение и обучение при помощи данных. Нужно понимать, что ИИ-системы не предназначены для работы с хаотическими или случайными наборами данных — они должны быть качественными, т. е. должным образом подготовленными и содержать контекстную информацию, что позволит системам принимать обоснованные решения и соответственно им реагировать, тогда как набор случайных данных ожидаемо приведет к отрицательным результатам и неуклонному снижению производительности.
Например, данные свидетельствуют о возросшем интересе к конкретному товарному предложению в определенном регионе или в среде какой-то демографической группы. Однако если эти загруженные в ИИ-систему данные основаны на статистике просмотра веб-страниц или других неточных источников, а не на опросах пользователей, велика вероятность, что построенная на них маркетинговая стратегия приведет к провалу или отвлечет ресурсы от действительно значимых проектов.
Понимание значения данных
На сегодняшний день предприятия не смогли добиться значительных успехов в управлении данными, особенно это касается неструктурированных данных. По данным Corinium, 70% ИТ-отделов и отделов управления данными сталкиваются с трудностями при структурировании аналитической информации, почти 40% пожаловались на качество генерируемых данных, и это при том, что более 50% респондентов применяют для их хранения передовые гибридные и мультиоблачные архитектуры.
Тем не менее, аналитики отметили позитивный сдвиг в мышлении предприятий — многие из них начинают осознавать важность проблемы и предпринимают шаги по ее решению. Более 90% респондентов заявили, что в следующем году планируют вложить более 1 млн. долл. в новые аналитические инициативы, при этом 60% из них подготовили стратегии для объединения данных из внутренней и внешней инфраструктур в рамках гибридного облака или мультиоблака.
По словам CEO Informatica Амита Валиа, предприятиям предстоит преодолеть несколько ключевых проблем, отделяющих их от базового сбора и агрегации данных на пути к более перспективным контекстным и релевантным моделям сбора. Он говорит, что для того, чтобы подобрать ключ к пониманию данных, нужно проанализировать ключевые метаданные касательно технологий, бизнеса, операций и способов их применения в контексте отдельно взятого предприятия. Выборка метаданных является основой для получения «интеллектуальных данных», необходимых для обучения ИИ-алгоритмов.
Тем не менее, извлечение метаданных — задача не из простых, что связано с лавинообразным ростом информации. Примечательно, что многие решения для анализа и управления данными оснащаются алгоритмам ИИ и машинного обучения, поэтому обращаются к единой базе данных и метаданных одновременно с ИИ-системами. Это открывает возможности для автоматизации многих ручных функций по сбору и анализу информации, ответственность за которые несут высококлассные специалисты в области data science, и позволит сосредоточиться на решении более сложных задач.
Получение данных и метаданных отовсюду
Любая интеллектуальная система управления данными нуждается в механизме для связи с облаком, который позволяет получать и отправлять в него данные по упрощенной схеме. Несмотря на то, что широкополосные сети становятся более быстрыми, гибкими и программно управляемыми, им все еще недостает точечных инструментов управления для сбора, обработки и передачи данных на скоростях, которые требуются ИИ.
Например, NetApp и Nvidia пытаются решить эту проблему путем объединения фл’ш-платформы AFF A800 с суперкомпьютером DGX. В итоге на рынке появилась корпоративная платформа Ontap AI на базе архитектуры NetApp Data Fabric, которая распределяет данные по облакам и обеспечивает к ним быстрый доступ. Ontap AI предоставляет аналитическим движкам доступ ко всей экосистеме данных предприятия вне зависимости от их формата и местоположения, но это лишь первый шаг для извлечения понимаемой ИИ информации. Следующий — повышение эффективности обработки и интерпретации информации на уровне баз данных.
Генеральный директор разработчика распределенных БД Bluzelle Павел Бэйнс считает, что свою роль в этом может сыграть блокчейн, являющийся универсальным хранилищем как для структурированных, так и неструктурированные данных. Такой подход позволит ИТ-командам по управлению данными получать необходимую для ИИ глубокую контекстную информацию, в то же время гарантируя, что критически важные данные находятся не под контролем какого-либо одного поставщика облачных услуг. Технология распределенных одноранговых узлов хранения данных и открытость записей блокчейн гарантирует высокий уровень сохранности, а также доступ к ним практически из любого места на максимально возможной скорости.
ИИ нужно обучать
Обычно, когда упоминают ИИ, его наделяют едва ли не сверхъестественными возможностями, однако это не так. По своей сути он не различает где факт, а где вымысел, что хорошее, а что плохое, какой выбор правильный, а какой — нет. Все, на что он способен — это овладение огромными массивами данных и их сличением по изначально заложенным программируемым шаблонам. Если эти данные неточные или ИИ не может их интерпретировать — результаты обработки будут ошибочными.
Каким бы «умным» не был ИИ, ему не сравниться с реальным носителем интеллекта — человеческим мозгом. Именно от людей зависит, сможет ли ИИ внести свою лепту в набирающие обороты процессы цифровых услуг и операций, поэтому им нужно провести тщательную работу по сбору и подготовке данных, которые ИИ научится «переваривать» и преподносить ожидаемые результаты.