ИССЛЕДОВАНИЯ
Непрерывное усложнение информационных систем и быстрый рост объема данных затрудняют жизнь и корпоративным, и академическим пользователям. Исследователи из обоих миров - коммерции и науки - направляют усилия на решение возникающих проблем. Они ищут новаторские подходы буквально для каждого уровня информационных систем, начиная с оборудования для хранения и обработки данных и заканчивая абстрактными моделями функционирования приложений и общения пользователей.
Суперкомпьютер IBM Blue Gene, включающий множество
процессоров, позволяет решать такие ресурсоемкие задачи, как
моделирование клеточных структур
Исследователи являются не только новаторами, но и квалифицированными потребителями ИТ. Поэтому они могут быстро осваивать новые направления и накапливать полезный для более консервативных организаций опыт. В данном обзоре eWeek Labs рассматриваются проблемы, для решения которых необходим широкий обмен идеями между исследователями и пользователями из промышленных и научных кругов.
Чтобы подготовить статью, мы встретились с учеными и менеджерами четырех исследовательских центров компаний IBM, Intel, Microsoft и Sun, а также двух известных научных организаций - Суперкомпьютерного центра в Сан-Диего (San Diego Supercomputer Center, SDSC) и Массачусетского технологического института (Massachusetts Institute of Technologies, MIT). Эти встречи позволили не только пролить свет на перспективы развития ИТ, но и узнать, что разработчики корпоративных систем должны делать уже сейчас, чтобы потом им было легче внедрять инновации, когда они будут реализовываться в коммерческие продукты.
Перспективы нижнего уровня
Можно уменьшить размеры памяти, но миниатюризировать аппаратную логику намного сложнее
В 1965 г. один из основателей Intel Гордон Мур вывел знаменитый закон, согласно которому плотность размещения электронных компонентов на кристалле растет по экспоненте. Этот прогноз соблюдался на протяжении всех прошедших 40 лет, но сейчас ученые все чаще задаются вопросом: а что произойдет, когда мы подойдем к естественной границе, которую определяет сама природа? "Сегодня во всей полупроводниковой индустрии ощущается беспокойство, связанное с замедлением темпов миниатюризации, - отмечает Томас Тейс, руководитель по физическим исследованиям научного центра IBM Research (г. Йорктаун). - Все острее встает проблема рассеяния мощности и отвода тепла, которое выделяется в результате квантово-механического туннелирования. Ведь при 90-нм технологии изоляционные прослойки имеют толщину чуть больше 1 нм - не слишком серьезная преграда для свободных электронов".
Пока речь идет о компьютерной памяти, эта проблема не так важна. "От кристаллов памяти требуется только одно: четко различать два состояния - включено и выключено, - поясняет он. - Однако в логической микросхеме обязательно присутствуют усилители. Именно они поддерживают уровень сигнала относительно опорного напряжения, нулевого потенциала или напряжения питания. Поэтому небольшие отклонения характеристик в одном кристалле не могут вывести из строя целую систему".
С учетом всего этого, считает Тейс, дальнейшее уплотнение транзисторов по закону Мура, даже если оно будет возможным, - не самое удачное решение. "Не только плотность электронных компонентов возрастает экспоненциально. С такой же скоростью растут и производственные затраты, - сказал он. - Когда-нибудь наступит момент, когда выпуск сложных микросхем окажется по плечу разве что целому государству или многонациональному консорциуму. Чем меньше проектные нормы, тем дороже приходится платить".
Таким образом, на первый план выходит поиск новых путей разработки и изготовления электронных приборов. "Взгляните на биологические системы, - призывает Тейс. - Они не требуют высокой точности. В биологии действует принцип саморегуляции, благодаря которому разные системы функционируют как одно целое. Мы исследуем способы обработки и передачи информации таким образом, чтобы даже при высокой частоте появления ошибок система в целом действовала достаточно надежно".
Джеймс Ларус из Microsoft поднимает разработку
программ на более высокий уровень
Наглядным примером такого подхода может служить Интернет. Вся пакетная связь здесь основана на протоколах подключения и передачи информации, таких, как TCP/IP и Ethernet, которые создавались не для идеального функционирования, а для достижения приемлемого уровня надежности.
Интерес к такому подходу мы отметили не только у IBM, но и у других производителей. Сегодня многие очень внимательно изучают возможность применения гибких и отказоустойчивых протоколов на всех уровнях, начиная с каналов связи между микросхемами и заканчивая магистральными линиями передачи. С учетом этого корпоративным пользователям следует уже сейчас готовиться к обсуждению допустимой частоты появления ошибок при обработке данных и колебаний в производительности систем. Надеяться на появление идеальных решений по меньшей мере наивно.
Создателям аппаратных средств есть что перенять и у биологов, и у биохимиков. Причем они могут заимствовать не только общие идеи, но и их реальные воплощения. "Наши инженеры сейчас работают над совершенно новой технологией производства нанотранзисторов, - сообщил Тейс. - Создав методами оптической литографии довольно грубый шаблон, мы хотим перевести дальнейший процесс прокладки транзисторных каналов на молекулярный уровень, воспользовавшись способностью полимеров самостоятельно формировать сложные структуры". Таким образом, существующие технологии будут применяться для прокладки только главных каналов, а затем в дело вступят свойственные молекулам базовые механизмы поиска и привязки себе подобных, которые завершат процесс с нанометровой точностью.
"Предполагается, что такой метод будет сравнительно недорогим", - заявил Тейс. Под его руководством уже создан экспериментальный прототип, хотя и довольно грубый. Однако, заверил нас ученый, это - шаг в правильном направлении. Он открывает новый путь к росту производительности без чрезмерного повышения стоимости производства.
Чарльз Палмер из IBM ищет способы изложить правила
безопасности на упрощенном английском языке
В наших беседах с представителями некоторых исследовательских центров всплыла и другая тенденция - поиск недорогой процессорной архитектуры, эффективной с точки зрения "производительности на один ватт потребляемой энергии". Недавно данный критерий взяла на вооружение Intel, хотя ее конкуренты, включая AMD и Sun, уже давно прогнозировали, что этот показатель станет главным для будущих процессоров. Электроэнергия, которую потребляет компьютер, не расходуется ни на поднятие тяжестей, ни на перекачку воды. Она вся превращается в тепло, которое затем для нормальной работы устройства нужно куда-то отводить. Как это сделать так, чтобы сохранить в тесном корпусе сервера более-менее приемлемую температуру? Именно эта проблема выходит сегодня на передний план.
Вместо того чтобы повышать производительность за счет усложнения отдельных компонентов, создатели систем теперь переходят на многоядерные архитектуры. Вот что рассказал нам Крис Рэтклифф, менеджер группы по разработке системы Solaris фирмы Sun Microsystems (Санта-Клара): "Количество ядер в процессоре очень быстро растет. Мы сейчас разрабатываем систему на базе 32-ядерного процессора, которая выглядит как обычная стоечная машина высотой 1U (4,5 см), но обладает огромной вычислительной мощью. Она одна способна обслуживать сотни тысяч разных приложений".
Грег Пападопулос, исполнительный вице-президент и главный инженер Sun, также считает путь увеличения количества ядер в процессоре более перспективным, чем усложнение архитектуры одного ядра. Sun уже идет по этому пути. Недавно она передала первым заказчикам восьмиядерные 32-потоковые процессоры, которые потребляют гораздо меньше энергии, чем традиционные процессоры такой же производительности. Следующим шагом в этом направлении как раз и станет описанная рзработка, о которой нам рассказал Рэтклифф.
Эффективность с точки зрения затрат послужила важным стимулом при разработке инновационной архитектуры Blue Gene компании IBM. Созданный на ее основе суперкомпьютер с 2400 процессорами недавно был установлен в центре SDSC. Размещенная в одной-единственной стойке система с оперативной памятью 512 Гб продемонстрировала скорость вычислений порядка 5,7 Тфлопс. Такие показатели директор подразделения производственных систем SDSC Ричард Мур назвал просто неслыханными.
"О смещении приоритетов говорит хотя бы то, что IBM понизила рабочую частоту процессоров до 700 МГц", - отметил он. И хотя одно это намного уменьшило выделение тепла, корпорация пошла еще дальше, разработав для Blue Gene совершенно новую схему компоновки. Странная форма этого суперкомпьютера со скошенными сторонами (см. фото на предыдущей странице) обеспечивает максимальные воздушные потоки между горизонтально расположенными модулями, способствуя снижению температуры внутри корпуса.
Внутри Blue Gene, отметил Мур, действует пять независимых высокоскоростных сетей, обеспечивающих максимальную производительность всей системы. "Роль такого подхода просто невозможно переоценить, - уверен он. - Система получилась очень рентабельной".
Подключившись через сеть к SDSC, исследователи из разных организаций смогут использовать мощь Blue Gene для решения сложнейших задач, таких, как моделирование химических и физических процессов. Пользователи SDSC из промышленных и коммерческих компаний получат возможность выполнять сложные инженерные расчеты и разрабатывать новые лекарства.
Для повышения производительности вычислительных систем сегодня предлагаются и другие методы, пусть не столь экзотичные, но также позволяющие более эффективно использовать доступные вычислительные ресурсы. Например, в университете "Висконсин-Мэдисон" разработана система Condor, предназначенная для использования простаивающих процессоров в компьютерах лаборатории ядерных исследований Массачусетского технологического института (г. Кеймбридж). Такой подход с удовольствием берут на вооружение и коммерческие фирмы. Так, в прошлом году аналогичную grid-систему с 200 серверами развернула у себя финансовая компания The Hartford Financial Services Group (г. Хартфорд).
Как пояснил заместитель директора лаборатории ядерных исследований MIT Пэт Дрехер, обычно компьютеры загружены работой далеко не полные сутки. В результате возникает парадоксальная ситуация: огромные вычислительные мощности пропадают зря, а организация тратит время и деньги на покупку или обновление кластеров для очередного проекта, хотя их мощность не идет ни в какое сравнение с простаивающей. И здесь на помощь приходит инструментарий типа Condor, который в корне меняет дело. По словам Дрехера, в Массачусетском технологическом институте Condor постоянно следит за всей системой, оперативно выявляет неактивные машины (на них не зарегистрирован пользователь или никто не работает с клавиатурой и мышью) и включает их в распределенный пул. После этого компьютер сразу же получает задание, а результаты его выполнения отправляются в центральное хранилище. Когда же пользователь снова садится за машину, задание прерывается, создается контрольная точка, мгновенный снимок его текущего состояния записывается на диск и хранится там до тех пор, пока процессор опять не освободится.
Что в хранилище?
Пользователи хотят от дисков скорости и надежности - и подешевле
Суперкомпьютерный центр в Сан-Диего обслуживает собственных пользователей из Калифорнийского университета и сотрудников других исследовательских центров. Подобно двуликому Янусу он играет две роли: с одной стороны, является исследовательским центром, а с другой - решает прикладные задачи. В результате такого "раздвоения" его система хранения данных стала весьма разнородной, и корпоративным пользователям, на взгляд eWeek Labs, есть что позаимствовать из опыта управления ею.
Исследовательские проекты Intel не ограничиваются повышением
быстродействия микросхем - они также охватывают отношения
между людьми. В этой области корпорация стремится помочь
коллективной работе многонациональных команд,
объединяющих жителей разных стран
Общая емкость жестких дисков центра приближается к 500 Тб. Рассказывая нам об этом, Мур говорил очень громко. Дело в том, что беседа сопровождалась шумом вентиляторов огромного машинного зала, где среди всевозможного оборудования размещаются такие гиганты, как DataStar - мощный компьютер IBM pSeries, в котором сейчас работает 2048 процессоров IBM Power4+.
Плотность данных в устройствах хранения центра SDSC растет вместе с вычислительной мощностью его ресурсов. "Мы только что купили жесткие диски Serial ATA общей емкостью 500 Тб, - сообщил Мур. - Такой тип устройств обходится намного дешевле в расчете на один байт, чем Fibre Channel".
Однако в суперкомпьютерном мире очень большое значение имеет производительность дисковой подсистемы. Ведь при расчете больших моделей для получения и анализа данных требуются скорости обмена, которые способна обеспечить только технология Fibre Channel. Поэтому библиотеки данных должны поддерживать самые разные процессы - и неторопливое архивирование, и интенсивную обработку информации. Например, в случае возникновения природных катаклизмов наподобие урагана Катрина резко возрастает спрос на метеорологическую информацию и данные о возможных последствиях. Это хорошо известно Анке Камрат - директору подразделения SDSC, которое отвечает за обслуживание потребителей и развитие системы.
По ее словам, потребность в скоростном доступе к суперкомпьютерам постоянно растет. Так, при моделировании землетрясения объем выходных данных вполне может превысить 50 Тб, а размеры мгновенных снимков системы, по оценке Камрат, вскоре дорастут до 200 Тб.
В результате возникает дилемма: чем больше данных, тем труднее ими пользоваться. "Чтобы переслать такие массивы по сети для восстановления после катастрофы, нужно 200 ч, это слишком долго, - считает Камрат. - Приходится подстраивать параметры протокола FTP под размер файлов. Мы можем передавать данные быстрее, чем кто-либо, но нужны воистину героические усилия, чтобы довести пропускную способность устройства передачи до обещанной производителем".
Камрат порой думает, не ошибаются ли компании, высоко оценивая важность своих огромных хранилищ данных. "Вы, наверное, слышали, что сеть супермаркетов Wal-Mart хранит в своих архивах информацию обо всех клиентах, - привела пример она. - Но воспользоваться всем этим богатством будет нелегко, нужно сначала решить немало сложнейших проблем".
Именно в этом состоит задача руководителя группы приложений Наташи Бейлак. Она работает с теми исследователями, которые хотят разместить свои данные на условиях хостинга в новом вычислительном центре SDSC. Построенный на средства Национального научного фонда, он открыл свои цифровые двери совсем недавно - в августе нынешнего года.
В научном центре IBM исследования охватывают самый широкий спектр
проблем - от нанотехнологий и методов производства наноустройств
до алгоритмов управления центрами обработки данных
Значительная часть данных, по словам Бейлак, хранится в виде плоских файлов, что сильно затрудняет использование накопленных сведений. Решение проблемы она видит в том, чтобы вместе с владельцами больших информационных массивов строить более совершенную архитектуру для повышения эффективности использования данных. Этим пора заняться и крупным корпорациям - ведь у них объем информационных потоков растет с невероятной быстротой.
Контроль - дело тонкое
Самоуправление систем - проблема не только техническая
В один прекрасный день абстрактные конструкции, описывающие структуру данных и архитектуру обработки, воплощаются в программное и аппаратное обеспечение, которое требует самого пристального внимания. "Кто хоть раз побывал в современном вычислительном центре, тот видел сотни устройств, каждое - с сотней настраиваемых параметров, - отметил Стив Уайт, старший менеджер по технологии автономных вычислений из исследовательского центра IBM (г. Хоуторн). - Запуск их в работу занимает дни напряженного труда, налаживание взаимодействия - недели, а на достижение безупречного функционирования может не хватить всей жизни".
Группа Уайта старается упростить решение такой задачи всеми средствами, начиная с базовых технологий низшего уровня и заканчивая организационными процессами высокого уровня. "Мы не хотим, чтобы взаимодействие с системой ограничивалось нажатием кнопок и считыванием показаний приборов", - пояснил он. Нужно, чтобы оператор думал в первую очередь о конечной цели, а не о средствах ее достижения. В идеале он должен дать базе данных примерно такую команду: "Ты должна работать как можно быстрее. Если для этого тебе понадобится увеличить буфер, сделай это сама".
По оценке Уайта, нынешние усовершенствования СУБД IBM DB2 вселяют надежду на достижение подобного идеала. eWeek Labs также отмечает заметный прогресс на пути к этой цели и в Oracle Database 10g.
Но техническая сторона - это еще не все. Как замечает Уайт, необходимо учитывать мнение тех, кто управляет системой. "Наша работа должна быть до предела прозрачной, - уверен он. - Очень важно, чтобы системный администратор сразу мог сказать нам: "Это работать не будет", а может быть, и почесать в затылке: "Да, об этом я как-то не подумал..."".
Рэтклифф из Sun трудится над многоядерными
системами с возможностями самовосстановления
Джим Сангстер, специалист в области ПО для управления корпоративными системами фирмы Sun (г. Менло-Парк), также считает, что автоматизация должна принимать во внимание запросы предприятий. "Автоматизированные вычислительные центры? Это не то направление, куда стоит идти, - уверен он. - Во-первых, они не очень-то нужны потребителю, а во-вторых, их вряд ли удастся реализовать".
В качестве примера Сангстер приводит реакцию клиентов на средства управления, предназначенные для самостоятельного устранения серьезных неполадок: "Мы собираемся выпустить ПО Sun Cluster Geographic Edition для восстановления после катастроф с помощью кластера, распределенного по нашему континенту или по всему миру. Вот только нужно найти заказчика, который бы согласился на полную автоматизацию этого процесса. Люди хотят сами контролировать ситуацию. Им нужно наверняка знать, что произошло, - то ли вышла из строя вся площадка, то ли просто прервалась с ней связь. Любой руководитель обязательно поинтересуется, что же именно случилось, постарается подсчитать потенциальный ущерб для бизнеса и оценить потерю данных. В любом случае окончательное решение должно оставаться за человеком".
В штаб-квартире Microsoft в Редмонде находится один из нескольких
центров корпорации, где исследуются проблемы повышения
производительности труда разработчиков, надежности
программных продуктов, организации совместной работы
сотрудников и интеграции корпоративных систем
Тем не менее Уайт уверен, что решение сложных задач будет постепенно автоматизироваться. "В какой-то момент людям надоест без конца щелкать по кнопке ОК, и они просто передоверят это автоматике", - предсказывает он. А в подтверждение своих слов напоминает, что еще не так давно пользователи тратили массу времени, пытаясь проследить, на какой сектор диска записывается файл.
Нечто подобное специалисты eWeek Labs услышали и в разговоре с Рэтклиффом из Sun. По его словам, тенденция к основанному на прогнозах самовосстановлению уже просматривается в ОС Sun Solaris 10. "Мы вполне можем автоматизировать устранение неполадок в работе ЦПУ и памяти, а потом передать пользователю сообщение о том, как система решила возникшую проблему и что нужно сделать дальше, - пояснил он. - Более того, если процессор, память или система ввода-вывода вызывают подозрения, мы способны передать задания другим подсистемам, не дожидаясь, пока произойдет сбой".
Тейс из IBM ждет большой отдачи от нанотехнологий
Но это лишь начало, считает заслуженный инженер Sun Кен Гросс, работающий в центре физических исследований (г. Сан-Диего). Два года назад по просьбе одного из европейских банков здесь было начато создание технологии постоянного телеметрического контроля за работой системы (Continuous System Telemetry Harness, CSTH), которая сегодня активно используется в других проектах фирмы. И результат не заставил себя ждать: машины Sun стали более производительными и надежными.
Программное обеспечение CSTH получает данные от многочисленных физических сенсоров, размещенных по всей аппаратной системе. "Каждый блейд-сервер оснащается более чем десятком датчиков, которые раньше устанавливались для защиты от очень серьезного отказа - чтобы выключить питание до возникновения пожара или поломки важных элементов машины, - рассказал Гросс. - Но теперь мы нашли им и другое применение. Впервые в отрасли наша фирма предусмотрела постоянный опрос таких сенсоров и обработку получаемой с них информации по алгоритму распознавания образцов".
Гросс ожидает, что примеру Sun последуют и другие производители. Если на оборудовании имеются датчики, вполне естественно применять их для заблаговременного выявления отклонений в работе и предупреждения о потенциальных отказах за несколько недель до того, как те произойдут. Впрочем, даже если таких датчиков нет, то их можно установить.
Однако есть одно "но": чтобы реализовать такой подход на практике, нужно прежде всего свести к минимуму вероятность ложной тревоги. Нельзя допустить, чтобы автоматика отключала устройство без достаточных причин. Решение этой задачи Гросс связывает с технологией оценки многовариантных состояний (Multivariate State Estimation Technique, MSET). Первоначально разработанная для атомных электростанций и других установок, где предъявляются повышенные требования к безопасности, эта система прошла серьезную проверку на практике, продемонстрировав удивительное сочетание чувствительности, надежности и эффективности.
Конечно, ИТ-специалисты компаний могут хоть сегодня пригласить высшее руководство фирмы на семинар по MSET. Но вопрос заключается в том, как убедить начальство в эффективности и рентабельности перехода на самовосстанавливающиеся системы.
Одним из главных аргументов в их пользу Уайт из IBM считает то, что системы будет гораздо легче контролировать. Другими словами, решится проблема, которая сегодня очень тревожит многих руководителей. "Зайдите в любой вычислительный центр и попросите рассказать, какое оборудование там есть и как оно взаимодействует. Вряд ли кто-то сразу ответит, - уверен Уайт. - Переход же на самоуправление закладывает основу для самопознания. Оператор всегда сможет спросить у системы, что она из себя представляет и с кем взаимодействует. Ведь для этого ей будет достаточно опросить датчики и оперативно выявить все доступные ресурсы".
Предприятия, возможно, поймут, что обещанная способность к самопроверке и перспектива повышения окупаемости систем за счет улучшения управляемости являются теми преимуществами, ради которых стоит выделить финансовые ресурсы и купить эти новаторские решения сразу как они поступят в продажу.
Коды без секретов
Разработчикам приложений нужны открытые платформы, инструменты и процессы
В этом разделе мы постараемся ответить на вопрос: можно ли сегодня резко повысить надежность систем простой переделкой ПО? Именно эту идею предложил eWeek Labs старший научный сотрудник Microsoft Джеймс Ларус, основавший группу инструментария для повышения производительности.
С момента появления Java, а то и раньше одним из общепризнанных направлений повышения надежности считается максимальное использование среды исполнения кода (run-time environment), способной выявлять и устранять программные ошибки самого разного типа. Хотя сначала многие разработчики скептически воспринимали технологию Microsoft .Net Framework, эта платформа в конце концов прочно утвердилась и теперь стала основной для следующей версии Windows, известной под кодовым названием Vista.
И это далеко не конец. "Вся система, кроме ядра и модуля, скрывающего особенности аппаратной платформы (Hardware Abstraction Layer, HAL), написана на языке C#, т. е. код стал совершенно безопасным, - рассказал Ларус. - Драйверы и все остальное также написано на диалекте C#, включающем средства защиты. Такой подход дает интересные результаты. Теперь невозможно направить указатель из одного процесса внутрь другого процесса или переместить указатель в пространство другого процесса. Создание изолированных процессов программными средствами обходится гораздо дешевле, чем аппаратными, да и переключаться между ними намного проще".
Грочоу из Массачусетского технологического
института избавляет людей от проводов
Ларус сравнил этот метод с нынешними ненадежными механизмами: "Чтобы добавить расширение в программу, написанную на C++, нужно загрузить модули, которые становятся расширениями вашего адресного пространства. В случае сбоя вы ничего не знаете о состоянии структуры своих данных, остается только прервать работу и уповать на их сохранность".
Другое дело - управляемый режим на базе технологии Singularity, над которой сейчас трудится группа Ларуса. "Когда какой-нибудь процесс прерывается, другие процессы проходят цикл восстановления, но при этом им известно собственное состояние на момент сбоя", - пояснил он.
Массачусетский технологический институт претворяет в жизнь
новейшие открытия физики, электроники и информатики, а его
сотрудники часто выступают инициаторами новых подходов к
международному сотрудничеству ученых и преподавателей в
самых разных областях знаний
Для повышения качества ПО очень важно наладить коллективную работу в команде программистов. Именно на это нацеливают свои усилия исследователи из IBM и Intel, а специалисты MIТ рассматривают данное направление через призму постоянно протекающих социальных изменений. "Важную роль здесь играет конвергенция коммуникационных технологий", - уверен Джон Висенте, директор Intel по исследованиям в области ИТ.
О культурных и социальных аспектах этой проблемы нам рассказала Синди Пикеринг, главный инженер Intel. "Те, для кого английский язык не родной, порой гораздо лучше выражают свои мысли письменно, чем устно, - отмечает она. - К тому же представителям некоторых наций присуща сдержанность, которая мешает им активно участвовать в обсуждении". По ее мнению, изменить данную ситуацию поможет интеграция различных коммуникационных методов в единой среде.
"При оценке хода проекта, - продолжает Пикеринг, - нужны не только средства общения в реальном времени, но и возможность обратиться к прошлым материалам, скажем, разместить электронные профили членов команды в разных подсистемах пространства общения, оставить в документе или исходном тексте место для замечаний и исправлений. Все это помогает людям, особенно когда они общаются асинхронно, ближе познакомиться и понять, что за человек внес ту или иную правку".
Сходный путь совершенствования средств коллективной работы избрала и корпорация IBM. "Мы начали с того, что заложили возможности сотрудничества в платформу разработки Eclipse, - рассказал Даниэль Йеллин, директор подразделения IBM Research по стратегии в области инструментальных средств. - Я всегда могу посмотреть, кто работает над данным проектом, кто сейчас подключен к сети, могу послать ему мгновенное сообщение. Более того, такие возможности нетрудно распространить на весь процесс создания приложения. Если не понимаешь какого-то фрагмента кода, пишешь об этом его автору, тот смотрит фрагмент через браузер и дает пояснения в чате. А тебе остается только сохранить результат обсуждения в удобном для себя виде".
На взгляд eWeek Labs, энергия приверженцев открытого кода, которые используют среду разработки Eclipse, должна ускорить практическую реализацию этих идей. И чем раньше это произойдет, тем лучше.
Что касается корпоративной среды, то здесь продвигать эти инновации должна сама IBM. "В этой области все зависит от масштаба разработки, - предупреждает Йеллин. - Как правильно организовать коллективную работу, когда в команде трудятся десятки или сотни специалистов? А если меняются требования, откуда я узнаю, кому сообщать об этом? Подобные задачи лучше всего автоматизировать, и чем больше - тем лучше".
Корпорациям следует учитывать приведенные выше вопросы при выборе новой технологии для коллективной работы. Особенно это актуально сейчас, когда изложенные в нашем обзоре идеи уже реализованы в средствах разработки Sun Java Studio Enterprise и Borland JBuilder.
Взглянуть на новые методы совместной работы с точки зрения пользователя лучше всего в студенческом городке Массачусетского технологического института и некоторых других учебных заведений.Палмер надеется, что достоинства SPARCLE вскоре смогут оценить корпоративные пользователи. "У нас уже есть экспериментальная модель и план создания реальной системы, - сказал он в заключение. - Не исключено, что вы сможете познакомиться с новинкой уже в следующем году".
Безопасность
Любые сложные правила должны быть понятными - это позволит избежать опасных ошибок
Чтобы исследователи могли заниматься своим делом, не тратя времени на вопросы безопасности, нужна надежная инфраструктура киберзащиты, считает Дрехер из Массачусетского технологического института. С ним полностью согласен Грочоу, по мнению которого ключом к успеху служит обеспечение единого входа в систему. Безопасность такого подхода намного выше, чем у разрозненных и зачастую довольно примитивных систем защиты отдельных приложений.
Суперкомпьютерный центр в Сан-Диего, выполняющий функции
научного учреждения и центра обработки данных, отмечает
увеличение неоднородности вычислительной нагрузки и
рост потребности в хранении информации
Претворить в жизнь идею единого входа помогает сервис-ориентированная архитектура (СОА), которая позволяют легко дополнить приложения готовыми сервисами безопасности. Особое значение это приобретает сейчас, когда в команду разработки включаются специалисты из разных стран мира, а ценность полученных результатов непрерывно растет.
Администраторам корпоративных ИС стоит воспользоваться советом Грочоу и при создании новых систем заранее предусмотреть в них поддержку СОА. Пора отходить от нынешних монолитных архитектур, которые избыточны уже сегодня, а в будущем грозят серьезно затруднить модернизацию всей системы.
Почву для проблем безопасности создает отсутствие перспективного мышления, уверены многие исследователи. “Нынешняя мешанина систем возникла из-за того, что с самого начала никто не думал о защите”, - уверен Чарльз Палмер из IBM. По его мнению, при проектировании корпоративных приложений необходимо ставить во главу угла два положения: безопасность и управляемость.
Стив Уайт из IBM считает, что людям нужны прозрачные ИТ
Вот только научить людей четко представлять себе проблемы безопасности и их взаимосвязи гораздо сложнее, чем научить машины описывать эти взаимосвязи простым языком или демонстрировать визуально. Поэтому IBM избрала второй путь и приступила к разработке архитектуры обеспечения защиты и производительности серверов (Server Privacy Architecture and Capability Enablement, SPARCLE). “Мы опросили много людей и выяснили, что правила защиты часто бывают непонятными, даже если они написаны по-английски, - рассказал Палмер, известный исследователь генетических алгоритмов, который возглавляет подразделение безопасности и сетевых решений в центре Thomas J. Watson Research Center корпорации IBM. - Получив информацию на английском языке, SPARCLE выделяет из нее описание действий, объекты и субъекты этих действий, определяет, кто и что должен выполнять, на протяжении какого времени и с какой целью. А затем выводит на экран небольшие таблички наподобие диалоговых окон с несколькими вариантами выбора, куда программа сводит все, что извлекла из правил безопасности, включая действующих лиц, условия и задачи”.
Исследовательский центр Sun в калифорнийском городе Менло-Парк
занимается совершенствованием самодиагностируемых и с
амовосстанавливающихся систем, чтобы избавить
корпоративные ИС от неприятных сюрпризов
Палмер надеется, что достоинства SPARCLE вскоре смогут оценить корпоративные пользователи. “У нас уже есть экспериментальная модель и план создания реальной системы, - сказал он в заключение. - Не исключено, что вы сможете познакомиться с новинкой уже в следующем году”.
С редактором eWeek Питером Коффи можно связаться по адресу: peter_coffee@ziffdavis.com.