В Дубне прошла конференция по системам хранения данных
3-4 июля компания “ТехноСерв А/С” (www.technoserv.ru) и Объединенный институт ядерных исследований (ОИЯИ, www.jinr.ru) провели в Дубне конференцию “Решения по управлению данными в научных исследованиях”, в которой участвовало более 70 человек, представлявших Российский федеральный ядерный центр - ВНИИ экспериментальной физики, Институт теоретической и экспериментальной физики, НИИ ядерной физики МГУ, НИВЦ МГУ, Институт физики высоких энергий, ЦНИИ “Атоминформ”, НИИ импульсной техники Минатома, Институт прикладной математики им. М. В. Келдыша, Российский национальный центр ядерных данных и ряд других ведущих научных учреждений страны.
Слева направо: Владимир Кореньков, Владимир Котов,
директор по развитию бизнеса “ТехноСерв А/С”, академик
Владимир Кадышевский (директор ОИЯИ), Алексей Ананьев,
председатель совета директоров “ТехноСерв А/С”, Майкл Ват
Компания “ТехноСерв А/С” является партнером фирм EMC (www.emc.com), производителя интегрированных дисковых массивов, и StorageTek (www.storagetek.com), разработчика роботизированных ленточных библиотек. Генеральный менеджер ЕМС Люк Брюне и вице-президент StorageTek по Европе, Африке и Ближнему Востоку Майкл Ват представили слушателям продукты своих фирм, а менеджеры “ТехноСерв А/С”, которая к настоящему времени выполнила более 250 проектов по созданию систем хранения на основе продуктов EMC и StorageTek, сообщили об опыте реализации комплексных решений по управлению данными для российских предприятий и организаций. На конференции также выступили представители Министерства путей сообщения РФ и ООО ”Русский алюминий”, рассказавшие о совместной работе с “ТехноСерв А/С” по созданию инфраструктуры хранения данных в своих организациях.
Владимир Кореньков, зам. директора Лаборатории информационных технологий ОИЯИ, в которой работает более 300 научных сотрудников, познакомил собравшихся с вычислительной инфраструктурой института и проблемами ее развития. Основная (backbone) сеть ОИЯИ с пропускной способностью 155 Мбит/с объединяет около 3000 вычислительных узлов. Канал с пропускной способностью 155 Мбит/с соединяет ОИЯИ с Москвой, однако через полтора года из-за участия во многих международных программах, и прежде всего в программах ЦЕРН, потребуется пропускная способность 1 Гбит/с. Большую часть вычислений выполняют серверы Convex, Hewlett-Packard, Sun и фермы (или кластеры) ПК, а для хранения данных используются системы Hewlett-Packard. Все это большое хозяйство надо развивать при весьма скромном уровне финансирования.
В. А. Ильин, зам. директора НИИ ядерной физики МГУ, представил на обозрение концепцию GRID (название по аналогии с электросетями - electric power grid), компьютерную инфраструктуру нового типа - набор стандартизированных служб, обеспечивающих надежный, совместимый, дешевый и повсеместный доступ к информационным и вычислительным ресурсам (отдельным компьютерам, кластерам, суперкомпьютерным центрам, хранилищам данных и т. д.) и тем самым их интеграцию на основе управляющего и оптимизирующего промежуточного ПО (middleware) нового поколения. Основы реализации GRID - резкое повышение мощности микропроцессоров массового производства, появление быстрых линий связи, глобализация обмена информации через Интернет, развитие метакомпьютинга - научной дисциплины по организации массовых и сложноструктурированных вычислительных процессов. Ныне GRID - это не только концепция, но и уже работающие технологии, применяемые прежде всего для решения потоков/наборов однотипных задач. Одним из примеров использования технологий GRID является проект DataGRID (www.eu-datagrid.org), организованный в ЦЕРН для обработки и анализа данных, получаемых с Большого андронного коллайдера (LHC). В этом проекте участвуют и ведущие российские физические институты, и, похоже, их представители на данной конференции пришли к некоторым согласованным решениям по поводу оптимизации своего участия в DataGRID. Что же касается GRID (www.gridforum.org, EnterTheGrid.com), то за этой концепцией надо следить, - вполне возможно, что некоторые ее технологии и стандарты могут найти применение и в корпоративных системах.
О развитии высокопроизводительного вычислительного комплекса МГУ рассказал зам. директора НИВЦ МГУ В. В. Воеводин. Этот комплекс в настоящее время состоит из двух кластеров ПК-серверов под Linux: 24-узлового (в каждом узле 2 ЦП Pentium) кластера SCI и 40-узлового кластера SKY (подробнее об этих и других российских кластерах см. parallel.ru). Общий объем памяти устройств хранения данных в вычислительном комплексе МГУ достиг 1 Тб.
Потребности научных учреждений в вычислительной мощности, объеме устройств хранения данных, пропускной способности каналов связи стремительно растут. Есть понимание этих потребностей, есть квалифицированные специалисты, и, пожалуй, единственное, что сдерживает применение современной вычислительной техники в российской науке, - это ситуация, когда финансы, как говорится, поют романсы. Напротив, во многих финансовых, коммерческих и промышленных организациях есть деньги, но нет понимания необходимости эффективных информационных систем с развитой инфраструктурой хранения данных. Такая вот история+
По мнению участников, конференция удалась, и было высказано пожелание, чтобы она стала ежегодной.
ОИЯИ: (221) 65-059.
“ТехноСерв А/С”: (095) 727-0989.