Благодаря распространению технологий, позволяющих, в частности, создавать инфраструктуру виртуальных рабочих столов (VDI), анализировать большие объемы данных и обеспечивать электронный поиск информации, растут потребности ЦОДов в системах хранения, и конца этому не видно. Сегодня операторы ЦОДов решают эту проблему с помощью традиционных технологий сетей хранений (storage area network, SAN). Однако затраты на выделение ресурсов, масштабирование и управление ими быстро растут. Это порождает еще большие проблемы для менеджеров ЦОДов, которым приходится удовлетворять растущие потребности в хранении при ограниченных бюджетах.
Компания Coraid надеется решить проблемы высоких затрат и сложности, предложив альтернативное решение в области SAN — EtherDrive SRX с интерфейсом AoE (ATA over Ethernet), которое, используя Layer 2, предоставляет серверам доступ к дисковым системам хранения через стандартную сеть Ethernet. Это гораздо более простой протокол по сравнению с iSCSI или Fibre Channel, использующими сложный набор команд SCSI.
Высокая производительность и малое время задержки EtherDrive SRX позволяют использовать устройство для VDI, где виртуальные машины должны создаваться по запросам пользователей. Здесь более высокая пропускная способность означает, что пользователи VDI быстрее получают доступ (при этом время загрузки системы сокращается) к своим виртуальным рабочим столам, а благодаря малой задержке ускоряется реакция на команды пользователей.
Тестовая инсталляция с целью проверки возможностей
У меня была возможность протестировать и оценить Coraid EtherDrive SRX в штаб-квартире Coraid во время тестовой инсталляции с целью проверки ее потенциала. Тестовая среда состояла из сети 10G Ethernet под управлением Windows Server и различных массивов хранения SRX. Среди них были 36-дисковый SRX4200 (общий объем 72 Тб), 24-дисковый SRX3500 (14 Тб) и 16-дисковый SRX2800 (16 Тб). Стойки с дисками Coraid именует полками.
Каждая полка работает под управлением Coraid CorOS — операционной системы SAN, обеспечивающей параллельную обработку. Она может иметь до четырех интерфейсов 10G Ethernet или 6G Ethernet и поддерживает технологии RAID 0, 1, 5, 6, 10 или JBOD с “горячей” заменой дисков.
SRX4200 представляет собой устройство высотой 4U, SRX3500 — 2U, а SRX2800 — 1U. Это показывает, что большие объемы хранения можно помещать в сравнительно компактные стойки. Все устройства имеют избыточные, подключаемые в “горячем” режиме источники питания и заменяемые в “горячем” режиме диски SSD либо с интерфейсами SAS или SATA. Они обеспечивают скорость доступа свыше 1800 Мбит/с.
Произведенные мною тесты производительности с использованием генератора нагрузки IOMETER Exchange 2007 показали, что SRX3500 (24 диска SAS с частотой вращения 15 000 об/мин) производит 2907 операций ввода-вывода в секунду (IOPS). При моделировании медиапотоков с помощью IOMETER пропускная способность превысила 1200 Мбит/с.
Прежде всего я отметил высокое качество конструкции полок. Дисковые отсеки были надежны и легко выдвигались. Запорные устройства выполнены из прочного пластика. Каждому порту на задней стенке дано обозначение. Имеется много светодиодных индикаторов.
Это важно, поскольку дает наглядное представление о состоянии каждого компонента, что весьма облегчает замену нужного диска или подключение к нужному порту. Хотя тут нет ничего уникального для устройств SAN, но в данном случае особенность заключается в том, что Coraid собирает полки из выпускаемых в массовых количествах компонентов. Таким образом компания удерживает низкие цены и ускоряет процесс производства.
Я пришел к выводу, что инсталляция устройств очень проста. Конфигурирование и назначение виртуальных разделов (LUN) было делом нескольких минут. После установки устройств в стойку инсталляция заключается всего лишь в подключении соответствующих кабелей и подаче электропитания.
Подключение кабелей весьма облегчается тем, что устройства Coraid используют технологию AoE, которая осуществляет весь трафик SAN через соединение Layer 2 Ethernet. Это означает, что для подключения EtherDrive SAN к стойке и к обслуживаемым серверам можно использовать массовые коммутаторы Layer 2 Ethernet. Как правило, их легче настраивать, чем коммутаторы или объединительные панели iSCSI либо Fibre Channel. Кроме того, обычно они существенно дешевле.
Базовая настройка осуществляется с помощью клиентской утилиты командной строки CEC (Coraid Ethernet Console), которая может обнаруживать любую активную полку Coraid через сеть Ethernet и подключаться к ней. Версия CEC для Windows требует, чтобы на управляющем ПК были установлены Microsoft .NET 4 и WinPcap (инструмент доступа на уровне соединений для среды Windows).
CEC очень проста в использовании. После запуска она производит “зондирование” — поиск активных полок EtherDrive — и выводит их список. Обнаружив полку, с которой намеревался работать, я просто нажал клавишу “Ввод”, и передо мной открылся интерфейс командной строки для управления устройством.
Хотя технология командной строки выглядит старомодной, текстовые команды просты и легко исполняются. А графический интерфейс мешал бы быстрой настройке.
Набор команд состоит всего из нескольких базовых. Команда list выводит список физических жестких дисков, а команда make используется для создания LUN, задания уровня RAID и т. д. Пользуясь всего тремя простыми командами, я менее чем за минуту сконфигурировал LUN и настроил EtherDrive для работы с Windows-сервером.
Однако в головоломке имеется еще несколько фрагментов — драйверы и адаптеры главной шины (HBA). Компания разработала драйверы AoE для Linux, Windows и VMware, предоставляет она и адаптеры HBA. Установка драйверов на компьютере под Windows производится очень просто и не требует перезагрузки, позволяя легко и быстро добавить к активной среде систему хранения на базе SAN.
Мне понравилось, как используются логические номера EtherDrive в Windows-среде. Windows Disk Manager отображает их в качестве локальных устройств хранения с интерфейсом SCSI. Это позволило мне управлять SAN так, словно это подключенное к серверу устройство.
EtherDrive SRX показало также хорошую устойчивость к сбоям. Я без проблем заменял диски в “горячем” режиме. Мне понравились возможности зеркалирования LUN на других полках для создания отказоустойчивой среды SAN, которая сохраняет работоспособность даже при выходе стойки из строя целиком.
Кроме того, метаданные, необходимые для мгновенной подгрузки с диска в ОЗУ, хранятся на самих дисках. Так что если произойдет отказ целой полки, вы можете извлечь из нее все диски и установить их в другую. Возможно, даже стоит иметь в стойке запасную пустую полку для быстрого возобновления работы. Coraid предлагает такой вариант в рамках технической поддержки типа “час X” (Zero Hour).