Очередная конференция IBM Edge 2013, прошедшая в середине июня в Лас-Вегасе, как и предыдущие, формально была посвящена аппаратным технологиям Голубого гиганта. Тем не менее в нынешнем году довольно часто обсуждение в конечном итоге сосредотачивалось на софтверных темах. И это не удивительно: за последнее время в фокусе внимания отрасли оказались технологии Software Defined Networking, Software Defined Storage, которые на данном форуме объединились под зонтиком Software Defined Environment (SDE).
Другая важная тенденция связана с широким распространением мобильных устройств, используемых людьми как в повседневной жизни, так и на работе. При этом потребляемые ими ИТ-сервисы должны быть всегда доступными и масштабируемыми. Попутно генерируются, накапливаются и потребляются огромные объемы информации. Эта информация может храниться в разных местах, но при этом иметь отношение к вполне определенному объекту или субъекту. Ее полноценное использование требует новых подходов к хранению данных и управлению ими.
Начав несколько лет назад с концепций разумных городов (Smarter Cities) и разумной планеты (Smarter Planet), в IBM вполне предсказуемо пришли к тому, что для их реализации потребуется и более разумные технологии вычислений (Smarter Computing). Не более мощные или масштабные, а те, что способны решать реальные проблемы наилучшим образом. Раскрывая эту довольно общую формулировку, генеральный директор подразделения IBM Systems & Technology Group по глобальным рынкам Стефан Леонард назвал три основные характеристики Smarter Computing: сфокусированность на данных (в том числе и больших), переход к программно-конфигурируемым ИТ-средам и опора исключительно на открытые стандарты. Важность последнего пункта спикер объяснил тем, что при столь стремительном развитии ИТ мы не можем предвидеть, что произойдет завтра, а использование открытых стандартов оставляет шанс справиться с грядущими проблемами в приемлемые сроки.
Усложнение ИС привело к тому, что на первый план сегодня выходит управление ими. По утверждению Стефана Леонарда, в 1996 г. в типичном вычислительном центре на эти цели уходило 29% затрат, а сегодня указанная цифра составляет 68%. Особенно это касается управления данными. По мнению директора департамента IBM Systems Storage & Networking Амбуи Гояла, в наши дни предприятию важно на просто хранить данные, а понимать, какие из них ему реально нужны, а от каких можно избавиться, что потребуется в случае аудита и т. д. Однако технологический фундамент для решения подобных задач у многих компаний до сих пор не построен. По информации IBM, 23% предприятий не ведут планирования емкостей хранения, 70% не применяют виртуализацию, 90% не документируют в должной степени процессы, столько же не используют дедупликацию. Амбуи Гоял убежден, что традиционные иерархические системы хранения отживают свое, а на смену им должны прийти программно-управляемые инфраструктуры, базирующиеся на OpenStack и других открытых стандартах. В них на первый план выходит логическая структура данных, а не физическое расположение устройств хранения. Примером таких решений Амбуи Гоял назвал третье поколение СХД StoreWize, которая стала полностью виртуализуемой.
Приобретя недавно компанию Texas Memory Systems, выпускавшую семейство продуктов RamSan, корпорация IBM пересмотрела свою стратегию в отношении использования флэш-накопителей и делает сегодня ставку на СХД IBM FlashSystem, полностью базирующиеся на SSD, обещая инвестировать в это направление 1 млрд. долл. Аргументируя этот шаг, Амбуи Гоял заявил, что по их оценкам отрасль проходит в настоящее время поворотную точку: SSD в терминах совокупной стоимости владения (TCO) становятся дешевле высокопроизводительных HDD, а через несколько лет превзойдут по этому показателю и стандартные SATA-диски. В приведенной модельной оценке было зафиксировано 30%-ное превосходство SSD в TCO, которое обеспечивалось, в частности, 14-кратным снижением стоимости одного IOPS, 50-кратным снижением энергопотребления, 180-кратным уменьшением занимаемого объема помещения. Благодаря увеличению быстродействия системы хранения, удается даже экономить на лицензиях СУБД, стоимость которых кратна числу процессорных ядер.
Тема больших данных — элемент “обязательной программы” на любых современных ИТ-форумах. Звучала она и здесь, в Лас-Вегасе. Тем не менее гораздо больше внимания было уделено технологии Watson, рождение которой связано с игрой (пусть не азартной), но дальнейшее развитие происходит на медицинской почве. О первых успехах в области лечения онкологических заболеваний, достигнутых с помощью Watson, рассказал вице-президент и Chief Medical Officer компании WellPoint Сэмюэл Ниссбаум. По его мнению, в здравоохранении нарастает вал проблем: оно становится менее эффективным, растут затраты, людям предлагаются ненужные им услуги и в то же время не используются все возможности для лечения. Для этого есть объективные предпосылки: объем медицинской информации удваивается каждые пять лет, следить за ней становится все труднее, поскольку врачи и так обследованиям и беседам с пациентами уделяют лишь 12% своего рабочего времени. Система на базе Watson анализирует результаты анализов, рентгеновские снимки, записи электронной истории болезни и, обращаясь к накопленной базе информационных источников, выдает ряд возможных диагнозов и методов лечения (с предполагаемой вероятностью их достоверности). Окончательное решение остается за врачом. Как утверждает Сэмюэл Ниссбаум, эффективность лечения выросла с 55 до 80%, и до конца года работать с Watson начнет уже половина врачебного персонала WellPoint. Хотелось бы отметить, что хотя Watson и не использует такие популярные технологии, как Hadoop или NoSQL, это решение по всем статьям подходит под определение Big Data.
Корпорацию IBM издавна отличает внимание к серьезным научным исследованиям. Поэтому неудивительно, что целых два пленарных доклада сделал ее вице-президент по инновациям Берни Мейерсон. Начал он с забавного мультфильма A Boy and his Atom, иллюстрирующего созданную IBM технологию точного размещения с помощью электронного сканирующего микроскопа отдельных атомов в нужных местах подложки. По сути это означает, что мы приблизились к физическому пределу миниатюризации, и недалек тот день, когда для дальнейшего прогресса в ИТ потребуются совершенно новые идеи. Сегодня в записи на магнитный диск одного бита задействуется около 1200 атомов, в то время как теоретический минимум — 12 атомов. Отсюда следует, что через 7—10 лет экстенсивный путь наращивания емкости жестких дисков будет закрыт. Для кремниевых чипов, как утверждает Берни Мейерсон, предельная проектная норма составляет 7 нм (35 атомов), и к ней мы тоже приближаемся довольно быстро. Что ждет ИТ-отрасль после этого? Вопрос вопросов!