Подключение дисков sas к контроллеру. Контроллеры SAS от Adaptec. Быстрые и ловкие. Кол-во доступных пользователю секторов

Подключение дисков sas к контроллеру. Контроллеры SAS от Adaptec. Быстрые и ловкие. Кол-во доступных пользователю секторов

29.06.2020

В этой статье речь пойдет о том, что позволяет подключить жесткий диск к компьютеру, а именно, об интерфейсе жесткого диска. Точнее говорить, об интерфейсах жестких дисков, потому что технологий для подключения этих устройств за все время их существования было изобретено великое множество, и обилие стандартов в данной области может привести в замешательство неискушенного пользователя. Впрочем, обо все по порядку.

Интерфейсы жестких дисков (или строго говоря, интерфейсы внешних накопителей, поскольку в их качестве могут выступать не только , но и другие типы накопителей, например, приводы для оптических дисков) предназначены для обмена информацией между этими устройствами внешней памяти и материнской платой. Интерфейсы жестких дисков, не в меньшей степени, чем физические параметры накопителей, влияют на многие рабочие характеристики накопителей и на их производительность. В частности, интерфейсы накопителей определяют такие их параметры, как скорость обмена данными между жестким диском и материнской платой, количество устройств, которые можно подключить к компьютеру, возможность создания дисковых массивов, возможность горячего подключения, поддержка технологий NCQ и AHCI, и.т.д. Также от интерфейса жесткого диска зависит, какой кабель, шнур или переходник для его подключения к материнской плате вам потребуется.

SCSI - Small Computer System Interface

Интерфейс SCSI является одним из самых старых интерфейсов, разработанных для подключения накопителей в персональных компьютерах. Появился данный стандарт еще в начале 1980-х гг. Одним из его разработчиков был Алан Шугарт, также известный, как изобретатель дисководов для гибких дисков.

Внешний вид интерфейса SCSI на плате и кабеля подключения к нему

Стандарт SCSI (традиционно данная аббревиатура читается в русской транскрипции как «скази») первоначально предназначался для использования в персональных компьютерах, о чем свидетельствует даже само название формата – Small Computer System Interface, или системный интерфейс для небольших компьютеров. Однако так получилось, что накопители данного типа применялись в основном в персональных компьютерах топ-класса, а впоследствии и в серверах. Связано это было с тем, что, несмотря на удачную архитектуру и широкий набор команд, техническая реализация интерфейса была довольно сложна, и не подходила по стоимости для массовых ПК.

Тем не менее, данный стандарт обладал рядом возможностей, недоступных для прочих типов интерфейсов. Например, шнур для подключения устройств Small Computer System Interface может иметь максимальную длину в 12 м, а скорость передачи данных – 640 МБ/c.

Как и появившийся несколько позже интерфейс IDE, интерфейс SCSI является параллельным. Это означает, что в интерфейсе применяются шины, передающие информацию по нескольким проводникам. Данная особенность являлась одним из сдерживающих факторов для развития стандарта, и поэтому в качестве его замены был разработан более совершенный, последовательный стандарт SAS (от Serial Attached SCSI).

SAS - Serial Attached SCSI

Так выглядит интерфейс SAS серверного диска

Serial Attached SCSI разрабатывался в усовершенствования достаточно старого интерфейса подключения жестких дисков Small Computers System Interface. Несмотря на то, что Serial Attached SCSI использует основные достоинства своего предшественника, тем не менее, у него есть немало преимуществ. Среди них стоит отметить следующие:

  • Использование общей шины всеми устройствами.
  • Последовательный протокол передачи данных, используемый SAS, позволяет задействовать меньшее количество сигнальных линий.
  • Отсутствует необходимость в терминации шины.
  • Практически неограниченное число подключаемых устройств.
  • Более высокая пропускная способность (до 12 Гбит/c). В будущих реализациях протокола SAS предполагается поддерживать скорость обмена данными до 24 Гбит/c.
  • Возможность подключения к контроллеру SAS накопителей с интерфейсом Serial ATA.

Как правило, системы Serial Attached SCSI строятся на основе нескольких компонентов. В число основных компонентов входят:

  • Целевые устройства. В эту категорию включают собственно накопители или дисковые массивы.
  • Инициаторы – микросхемы, предназначенные для генерации запросов к целевым устройствам.
  • Система доставки данных – кабели, соединяющие целевые устройства и инициаторы

Разъемы Serial Attached SCSI могут иметь различную форму и размер, в зависимости от типа (внешний или внутренний) и от версий SAS. Ниже представлены внутренний разъем SFF-8482 и внешний разъем SFF-8644, разработанный для SAS-3:

Слева - внутренний разъём SAS SFF-8482; Справа - внешний разъём SAS SFF-8644 с кабелем.

Несколько примеров внешнего вида шнуров и переходников SAS: шнур HD-Mini SAS и шнур-переходник SAS-Serial ATA.

Слева - шнур HD Mini SAS; Справа - переходной шнур с SAS на Serial ATA

Firewire - IEEE 1394

Сегодня достаточно часто можно встретить жесткие диски с интерфейсом Firewire. Хотя через интерфейс Firewire к компьютеру можно подключить любые типы периферийных устройств, и его нельзя назвать специализированным интерфейсом, предназначенным для подключения исключительно жестких дисков, тем не менее, Firewire имеет ряд особенностей, которые делают его чрезвычайно удобным для этой цели.

FireWire - IEEE 1394 - вид на ноутбуке

Интерфейс Firewire был разработан в середине 1990-х гг. Начало разработке положила небезызвестная фирма Apple, нуждавшаяся в собственной, отличной от USB, шине для подключения периферийного оборудования, прежде всего мультимедийного. Спецификация, описывающая работу шины Firewire, получила название IEEE 1394.

На сегодняшний день Firewire представляет собой один из наиболее часто используемых форматов высокоскоростной последовательной внешней шины. К основным особенностям стандарта можно отнести:

  • Возможность горячего подключения устройств.
  • Открытая архитектура шины.
  • Гибкая топология подключения устройств.
  • Меняющаяся в широких пределах скорость передачи данных – от 100 до 3200 Мбит/c.
  • Возможность передачи данных между устройствами без участия компьютера.
  • Возможность организации локальных сетей при помощи шины.
  • Передача питания по шине.
  • Большое количество подключаемых устройств (до 63).

Для подключения винчестеров (обычно посредством внешних корпусов для жестких дисков) через шину Firewire, как правило, используется специальный стандарт SBP-2, использующий набор команд протокола Small Computers System Interface. Существует возможность подключения устройств Firewire к обычному разъему USB, но для этого требуется специальный переходник.

IDE - Integrated Drive Electronics

Аббревиатура IDE, несомненно, известна большинству пользователей персональных компьютеров. Стандарт интерфейса для подключения жестких дисков IDE был разработан известной фирмой, производящей жесткие диски – Western Digital. Преимуществом IDE по сравнению с другими существовавшими в то время интерфейсами, в частности, интерфейсом Small Computers System Interface, а также стандартом ST-506, было отсутствие необходимости устанавливать контроллер жесткого диска на материнскую плату. Стандарт IDE подразумевал установку контроллера привода на корпус самого накопителя, а на материнской плате оставался лишь хост-адаптер интерфейса для подключения приводов IDE.

Интерфейс IDE на материнской плате

Данное нововведение позволило улучшить параметры работы накопителя IDE благодаря тому, что сократилось расстояние между контроллером и самим накопителем. Кроме того, установка контроллера IDE внутрь корпуса жесткого диска позволила несколько упростить как материнские платы, так и производство самих винчестеров, поскольку технология давала свободу производителям в плане оптимальной организации логики работы накопителя.

Новая технология первоначально получила название Integrated Drive Electronics (Встроенная в накопитель электроника). Впоследствии был разработан описывающий ее стандарт, названный ATA. Это название происходит от последней части названия семейства компьютеров PC/AT посредством добавления слова Attachment.

Для подключения жесткого диска или другого устройства, например, накопителя для оптических дисков, поддерживающего технологию Integrated Drive Electronics, к материнской плате, используется специальный кабель IDE. Поскольку ATA относится к параллельным интерфейсам (поэтому его также называют Parallel ATA или PATA), то есть, интерфейсам, предусматривающим одновременную передачу данных по нескольким линиям, то его кабель данных имеет большое количество проводников (обычно 40, а в последних версиях протокола имелась возможность использовать 80-жильный кабель). Обычный кабель данных для данного стандарта имеет плоский и широкий вид, но встречаются и кабели круглого сечения. Кабель питания для накопителей Parallel ATA имеет 4-контактный разъем и подсоединен к блоку питания компьютера.

Ниже приведены примеры кабеля IDE и круглого шнура данных PATA:

Внешний вид интерфейсного кабеля: cлева - плоский, справа в круглой оплетке - PATA или IDE.

Благодаря сравнительной дешевизне накопителей Parallel ATA, простоте реализации интерфейса на материнской плате, а также простоте установки и конфигурации устройств PATA для пользователя, накопители типа Integrated Drive Electronics на длительное время вытеснили с рынка винчестеров для персональных компьютеров бюджетного уровня устройства других типов интерфейса.

Однако стандарт PATA имеет и ряд недостатков. Прежде всего, это ограничение по длине, которую может иметь кабель данных Parallel ATA – не более 0,5 м. Кроме того, параллельная организация интерфейса накладывает ряд ограничений на максимальную скорость передачи данных. Не поддерживает стандарт PATA и многие расширенные возможности, которые имеются у других типов интерфейсов, например, горячее подключение устройств.

SATA - Serial ATA

Вид интерфейса SATA на материнской плате

Интерфейс SATA (Serial ATA), как можно догадаться из названия, является усовершенствованием ATA. Заключается это усовершенствование, прежде всего, в переделке традиционного параллельного ATA (Parallel ATA) в последовательный интерфейс. Однако этим отличия стандарта Serial ATA от традиционного не ограничиваются. Помимо изменения типа передачи данных с параллельного на последовательный, изменились также разъемы для передачи данных и электропитания.

Ниже приведен шнур данных SATA:

Шнур передачи данных для SATA интерфейса

Это позволило использовать шнур значительно большей длины и увеличить скорость передачи данных. Однако минусом стало то обстоятельство, что устройства PATA, которые до появления SATA присутствовали на рынке в огромных количествах, стало невозможно напрямую подключить в новые разъемы. Правда, большинство новых материнских плат все же имеют старые разъемы и поддерживают подключение старых устройств. Однако обратная операция – подключение накопителя нового типа к старой материнской плате обычно вызывает куда больше проблем. Для этой операции пользователю обычно требуется переходник Serial ATA to PATA. Переходник для кабеля питания обычно имеет сравнительно простую конструкцию.

Переходник питания Serial ATA to PATA:

Слева общий вид кабеля; Cправа укрупнено внешний вид коннекторов PATA и Serial ATA

Сложнее, однако, дело обстоит с таким устройством, как переходник для подключения устройства последовательного интерфейса в разъем для параллельного интерфейса. Обычно переходник такого типа выполнен в виде небольшой микросхемы.

Внешний вид универсального двунаправленного переходника между интерфейсами SATA - IDE

В настоящее время интерфейс Serial ATA практически вытеснил Parallel ATA, и накопители PATA можно встретить теперь в основном лишь в достаточно старых компьютерах. Еще одной особенностью нового стандарта, обеспечившей его широкую популярность, стала поддержка .

Вид переходника с IDE на SATA

О технологии NCQ можно рассказать чуть подробнее. Основное преимущество NCQ состоит в том, что она позволяет использовать идеи, которые давно были реализованы в протоколе SCSI. В частности, NCQ поддерживает систему упорядочивания операций чтения/записи, поступающих к нескольким накопителям, установленным в системе. Таким образом, NCQ способна значительно повысить производительность работы накопителей, в особенности массивов жестких дисков.

Вид переходника с SATA на IDE

Для использования NCQ необходима поддержка технологии со стороны жесткого диска, а также хост-адаптера материнской платы. Практически все адаптеры, поддерживающие AHCI, поддерживают и NCQ. Кроме того, NCQ поддерживают и некоторые старые проприетарные адаптеры. Также для работы NCQ требуется ее поддержка со стороны операционной системы.

eSATA - External SATA

Отдельно стоит упомянуть о казавшемся многообещающим в свое время, но так и не получившем широкого распространения формате eSATA (External SATA). Как можно догадаться из названия, eSATA представляет собой разновидность Serial ATA, предназначенную для подключения исключительно внешних накопителей. Стандарт eSATA предлагает для внешних устройств большую часть возможностей стандартного, т.е. внутреннего Serial ATA, в частности, одинаковую систему сигналов и команд и столь же высокую скорость.

Разъем eSATA на ноутбуке

Тем не менее, у eSATA есть и некоторые отличия от породившего его стандарта внутренней шины. В частности, eSATA поддерживает более длинный кабель данных (до 2 м), а также имеет более высокие требования к питанию накопителей. Кроме того, разъемы eSATA несколько отличаются от стандартных разъемов Serial ATA.

По сравнению с другими внешними шинами, такими, как USB и Firewire, eSATA, однако, имеет один существенный недостаток. Если эти шины позволяют осуществлять электропитание устройства через сам кабель шины, то накопитель eSATA требует специальные разъемы для питания. Поэтому, несмотря на сравнительно высокую скорость передачи данных, eSATA в настоящее время не пользуется большой популярностью в качестве интерфейса для подключения внешних накопителей.

Заключение

Информация, хранящаяся на жестком диске, не может стать полезной для пользователя и доступной для прикладных программ до тех пор, пока к ней не получит доступ центральный процессор компьютера. Интерфейсы жестких дисков представляют собой средство для связи между этими накопителями и материнской платой. На сегодняшний день существует немало различных типов интерфейсов жестких дисков, каждый из которых имеет свои достоинства, недостатки и характерные особенности. Надеемся, что приведенная в данной статье информация во многом окажется полезной для читателя, ведь выбор современного жесткого диска во многом определяются не только его внутренними характеристиками, такими, как емкость, объем кэш-памяти, скорость доступа и вращения, но и тем интерфейсом, для которого он был разработан.

В современных компьютерных системах для подключения основных жестких дисков используются интерфейсы SATA и SAS. Как правило, первый вариант устраивает домашние рабочие станции, второй – серверные, поэтому технологии между собой не конкурируют, отвечая разным требованиям. Значительная разница в стоимости и объеме памяти заставляет пользователей задаваться вопросом, чем отличается SAS от SATA, и искать компромиссные варианты. Посмотрим, так ли это целесообразно.

SAS (Serial Attached SCSI) – последовательный интерфейс подключения устройств хранения данных, разработанный на основе параллельного SCSI для исполнения того же набора команд. Используется преимущественно в серверных системах.

SATA (Serial ATA) – последовательный интерфейс обмена данными, базирующийся на основе параллельного PATA (IDE). Применяется в домашних, офисных, мультимедийных ПК и ноутбуках.

Если говорить о HDD, то, несмотря на различающиеся технические характеристики и разъемы, кардинальных расхождений между устройствами нет. Обратная односторонняя совместимость дает возможность подключать к серверной плате диски и по одному, и по второму интерфейсу.

Стоит заметить, что оба варианта подключения реальны и для SSD, но весомое отличие SAS от SATA в этом случае будет в стоимости накопителя: первый может быть дороже в десятки раз при сопоставимом объеме. Поэтому сегодня такое решение если уже и не редкое, то в достаточной мере взвешенное, и предназначено для быстрых центров обработки данных корпоративного уровня.

Сравнение

Как мы уже знаем, SAS находит применение в серверах, SATA – в домашних системах. На практике это означает, что к первым одновременно обращается много пользователей и решается множество задач, со вторыми же имеет дело один человек. Соответственно, серверная нагрузка намного выше, поэтому диски должны быть достаточно отказоустойчивыми и быстрыми. Протоколы SCSI (SSP, SMP, STP), реализованные в SAS, позволяют обрабатывать больше операций ввода/вывода одновременно.

Непосредственно для HDD скорость обращения определяется в первую очередь скоростью вращения шпинделя. Для desktop-систем и ноутбуков необходимо и достаточно 5400 – 7200 RPM. Соответственно, найти SATA-диск с 10000 RPM почти невозможно (разве что посмотреть серию WD VelociRaptor, предназначенную, опять же, для рабочих станций), а все, что выше, – абсолютно недостижимо. SAS HDD раскручивает минимум 7200 RPM, стандартом можно считать 10000 RPM, а достаточным максимумом – 15000 RPM.

Считается, что диски с последовательным SCSI надежнее, у них выше показатели наработки на отказ. На практике стабильность достигается больше за счет функции проверки контрольных сумм. Накопители SATA же страдают от «тихих ошибок», когда данные записываются частично либо повреждены, что приводит к появлению bad-секторов.

На отказоустойчивость системы работает и главное достоинство SAS – два дуплексных порта, позволяющих подключить одно устройство по двум каналам. Обмен информацией в этом случае будет вестись одновременно в обоих направлениях, а надежность обеспечивается технологией Multipath I/O (два контроллера страхуют друг друга и разделяют нагрузку). Очередь помеченных команд выстраивается глубиной до 256. У большинства дисков SATA один полудуплексный порт, а глубина очереди по технологии NCQ – не более 32.

Интерфейс SAS предполагает использование кабелей длиной до 10 м. К одному порту через расширители можно подключить до 255 устройств. SATA ограничивается 1 м (2 м для eSATA), и поддерживает подключение только одного устройства по типу «точка – точка».

Перспективы дальнейшего развития – то, в чем разница между SAS и SATA тоже ощущается достаточно остро. Пропускная способность интерфейса SAS достигает 12 Гбит/с, а производители анонсируют поддержку скорости обмена данными 24 Гбит/с. Последняя ревизия SATA остановилась на 6 Гбит/с и эволюционировать в этом отношении не будет.

Накопители SATA в пересчете на стоимость 1 Гб обладают очень привлекательным ценником. В системах, где скорость доступа к данным не имеет решающего значения, а объем хранимой информации велик, целесообразно использовать именно их.

Таблица

SAS SATA
Для серверных систем Преимущественно для настольных и мобильных систем
Использует набор команд SCSI Использует набор команд ATA
Минимальная скорость вращения шпинделя HDD 7200 RPM, максимальная – 15000 RPM Минимум 5400 RPM, максимум 7200 RPM
Поддерживается технология проверки контрольных сумм при записи данных Большой процент ошибок и bad-секторов
Два дуплексных порта Один полудуплексный порт
Поддерживается Multipath I/O Подключение по типу «точка – точка»
Очередь команд до 256 Очередь команд до 32
Можно использовать кабели до 10 м Длина кабелей не более 1 м
Пропускная способность шины до 12 Гбит/с (в перспективе – 24 Гбит/с) Пропускная способность 6 Гбит/с (SATA III)
Стоимость накопителей выше, иногда значительно Дешевле в пересчете на цену за 1 Гб

За два года изменений накопилось немного:

  • Supermicro отказывается от проприетарного "перевернутого" форм-фактора UIO для контроллеров. Подробности будут ниже.
  • LSI 2108 (SAS2 RAID с 512МБ кэша) и LSI 2008 (SAS2 HBA с опциональной поддержкой RAID) по-прежнему в строю. Продукты на этих чипах, как производства LSI, так и от OEM партнеров, достаточно хорошо отлажены и по-прежнему актуальны.
  • Появились LSI 2208 (тот же SAS2 RAID со стеком LSI MegaRAID, только с двухъядерным процессором и 1024МБ кэша) и (усовершенствованная версия LSI 2008 с более быстрым процессором и поддержкой PCI-E 3.0).

Переход от UIO к WIO

Как вы помните, платы UIO - это обычные платы PCI-E x8, у которых вся элементная база находится с обратной стороны, т.е. при установке в левый райзер оказывается сверху. Понадобился такой форм-фактор для установки плат в самый нижний слот сервера, что позволяло разместить четыре платы в левом райзере. UIO - это не только форм-фактор плат расширения, это еще и корпуса, рассчитанные на установку райзеров, сами райзеры и материнские платы специального форм-фактора, с вырезом под нижний слот расширения и слотами для установки райзеров.
У подобного решения существовало две проблемы. Во-первых, нестандартный форм-фактор плат расширения ограничивал выбор клиента, т.к. под в UIO форм-факторе существует лишь несколько контроллеров SAS, InfiniBand и Ehternet. Во-вторых - недостаточное количество линий PCI-E в слотах под райзеры - всего 36, из них на левый райзер - всего 24 линии, что явно мало для четырех плат с PCI-E x8.
Что же такое WIO? Сначала оказалось, что существует возможность размещения четырех плат в левом райзере без необходимости "переворачивания бутерброда маслом вверх", и появились райзеры под обычные платы (RSC-R2UU-A4E8+). Затем была решена проблема нехватки линий (теперь их 80) путем использования слотов с большей плотностью контактов.
UIO райзер RSC-R2UU-UA3E8+
WIO райзер RSC-R2UW-4E8

Результаты:
  • Райзеры WIO нельзя установить в материнские платы, рассчитанные на UIO (например, X8DTU-F).
  • Райзеры UIO нельзя установить в новые платы, рассчитанные на WIO.
  • Существуют райзеры под WIO (на материнской плате), имеющие слот UIO для карточек. На тот случай, если у вас остались UIO контроллеры. Они используются в платформах под Socket B2 (6027B-URF, 1027B-URF, 6017B-URF).
  • Новых контроллеров в форм-факторе UIO появляться не будет. Например, контроллер USAS2LP-H8iR на чипе LSI 2108 будет последним, LSI 2208 под UIO не будет - только обычный MD2 с PCI-E x8.

Контроллеры PCI-E

В данный момент актуальными являются три разновидности: RAID контроллеры на базе LSI 2108/2208 и HBA на базе LSI 2308. Существует еще загадочный SAS2 HBA AOC-SAS2LP-MV8 на чипе Marvel 9480, но о нем писать из-за его экзотичности. Большинство случаев применения внутренних SAS HBA - это СХД с ZFS под FreeBSD и различными разновидностями Solaris. Благодаря отсутствию проблем с поддержкой в этих ОС выбор в 100% случаев падает на LSI 2008/2308.
LSI 2108
Помимо UIO"шного AOC-USAS2LP-H8iR , который упомянут в добавились еще два контроллера:

AOC-SAS2LP-H8iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512МБ кэш, 8 внутренних портов (2 разъема SFF-8087). Является аналогом контроллера LSI 9260-8i , но произведен Supermicro, есть мелкие различия в разводке платы, цена на $40-50 ниже LSI. Поддерживаются все дополнительные опции LSI : активация , FastPath и CacheCade 2.0, батарейная защита кэша - LSIiBBU07 и LSIiBBU08 (сейчас предпочтительнее использовать BBU08, у него расширен температурный диапазон и в комплекте идет кабель для удаленного монтажа).
Несмотря на появление более производительных контроллеров на базе LSI 2208, LSI 2108 все еще остается актуальным благодаря снижению цены. Производительности с обычными HDD хватает в любых сценариях, предел по IOPS для работы с SSD - 150000, что для большинства бюджетных решений более чем достаточно.

AOC-SAS2LP-H4iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512МБ кэш, 4 внутренних + 4 внешних порта. Является аналогом контроллера LSI 9280-4i4e . Удобен для использования в экспандерных корпусах, т.к. не придется выводить выход с экспандера наружу для подключения дополнительных JBOD"ов, или в 1U корпусах на 4 диска при необходимости обеспечить возможность наращивания числа дисков. Поддерживает те же BBU и ключи активации.
LSI 2208

AOC-S2208L-H8iR
LSI 2208, SAS2 RAID 0/1/5/6/10/50/60, 1024МБ кэш, 8 внутренних портов (2 разъема SFF-8087). Является аналогом контроллера LSI 9271-8i . LSI 2208 - это дальнейшее развитие LSI 2108. Процессор стал двухъядерным, что позволило поднять предел производительности по IOPS"ам аж до 465000. Добавилась поддержка PCI-E 3.0 и увеличился до 1ГБ кэш.
Контроллер поддерживает батарейную защиту кэша BBU09 и флеш-защиту CacheVault. Supermicro поставляет их под партномерами BTR-0022L-LSI00279 и BTR-0024L-LSI00297, но у нас проще приобрести через канал продаж LSI (вторая часть партномеров - это и есть родные партномера LSI). Ключи активации MegaRAID Advanced Software Options тоже поддерживаются, партномера: AOC-SAS2-FSPT-ESW (FastPath) и AOCCHCD-PRO2-KEY (CacheCade Pro 2.0).
LSI 2308 (HBA)

AOC-S2308L-L8i и AOC-S2308L-L8e
LSI 2308, SAS2 HBA (с IR прошивкой - RAID 0/1/1E), 8 внутренних портов (2 разъема SFF-8087). Это один и тот же контроллер, поставляется с разными прошивками. AOC-S2308L-L8e - IT firmware (чистый HBA), AOC-S2308L-L8i - IR firmware (с поддержкой RAID 0/1/1E). Разница в том, что L8i может работать с IR и IT прошивками, L8e - только с IT, прошивка в IR заблокирована. Является аналогом контроллера LSI 9207-8 i . Отличия от LSI 2008: побыстрее чип (800Мгц, как следствие - поднялся лимит по IOPS до 650тыс.), появилась поддержка PCI-E 3.0. Применение: программные RAID"ы (ZFS, например), бюджетные серверы.
На базе этого чипа не будет дешевых контроллеров с поддержкой RAID-5 (iMR стек, из готовых контроллеров - LSI 9240).

Набортные контроллеры

В последних продуктах (платах X9 и платформах с ними) Supermicro обозначает наличие SAS2 контроллера от LSI цифрой "7" в партномере, цифрой "3" - чипсетный SAS (Intel C600). Вот только не делается различий между LSI 2208 и 2308, так что будьте внимательны при выборе платы.
  • Распаянный на материнских платах контроллер на базе LSI 2208 имеет ограничение - максимум 16 дисков. При добавлении 17 он просто не определится, и в логе MSM вы увидите сообщение "PD is not supported". Компенсацией за это служит существенно более низкая цена. Например, связка "X9DRHi-F + внешний контроллер LSI 9271-8i" обойдется дороже примерно на $500, чем X9DRH-7F с LSI 2008 на борту. Обойти это ограничение перепрошивкой в LSI 9271 не получится - прошивка другого SBR блока, как в случае с LSI 2108 не помогает.
  • Еще одна особенность - отсутствие поддержки модулей CacheVault, на платах банально не хватает места под специальный разъем, так что поддерживается только BBU09. Возможность установки BBU09 зависит от используемого корпуса. Например, LSI 2208 используется в блейд-серверах 7127R-S6, разъем для подключения BBU там есть, но для монтажа самого модуля нужен дополнительный крепеж MCP-640-00068-0N Battery Holder Bracket.
  • Прошивку SAS HBA (LSI 2308) придется теперь , так как в DOS на любой из плат с LSI 2308 не запускается sas2flash.exe с ошибкой "Failed to initialize PAL".

Контроллеры в Twin и FatTwin платформах

Некоторые 2U Twin 2 платформы существуют в трех вариантах, с тремя видами контроллеров. Например:
  • 2027TR-HTRF+ - чипсетный SATA
  • 2027TR-H70RF+ - LSI 2008
  • 2027TR-H71RF+ - LSI 2108
  • 2027TR-H72RF+ - LSI 2208
Подобное многообразие обеспечивается за счет того, что контроллеры размещены на специальной объединительной плате, которая подключается в спецслот на материнской плате и в дисковый бэкплейн.
BPN-ADP-SAS2-H6IR (LSI 2108)


BPN-ADP-S2208L-H6iR (LSI 2208)

BPN-ADP-SAS2-L6i (LSI 2008)

Корпуса Supermicro xxxBE16/xxxBE26

Еще одна тема, имеющая прямое отношение к контроллерам - это модернизация корпусов с . Появились разновидности с дополнительной корзиной на два 2,5" диска, расположенной на задней панели корпуса. Назначение - выделенный диск (или зеркало) под загрузку системы. Конечно, систему можно грузить, выделив небольшой том от другой дисковой группы или с дополнительных дисков, закрепленных внутри корпуса (в 846-х корпусах можно установить дополнительный крепеж для одного 3,5" или двух 2,5" дисков), но обновленные модификации гораздо удобнее:




Причем эти дополнительные диски необязательно подключать именно к чипсетному SATA контроллеру. При помощи кабеля SFF8087->4xSATA можно подключиться к основному SAS контроллеру через выход SAS экспандера.
P.S. Надеюсь, что информация была полезной. Не забывайте, что наиболее полную информацию и техническую поддержку по продукции Supermicro, LSI, Adaptec by PMC и других вендоров вы можете получить в компании True System .

На протяжении более 20 лет параллельный шинный интерфейс был самым распространенным протоколом обмена данных для большинства систем хранения цифровых данных. Но с ростом потребности в пропускной способности и гибкости систем стали очевидными недостатки двух самых распространенных технологий параллельного интерфейса: SCSI и ATA. Отсутствие совместимости между параллельными интерфейсами SCSI и ATA - разные разъемы, кабели и используемые наборы команд - повышает стоимость содержания систем, научных исследований и разработок, обучения и квалификации новых продуктов.

На сегодняшний день параллельные технологии пока еще устраивают пользователей современных корпоративных систем с точки зрения производительности, но растущие потребности в более высоких скоростях, более высокой сохранности данных при передаче, уменьшении физических размеров, а также в более широкой стандартизации ставят под сомнение способность параллельного интерфейса без излишних затрат поспевать за быстро растущей производительностью ЦПУ и скоростью накопителей на жестких дисках. Кроме того, в условиях жесткой экономии, предприятиям становится все труднее изыскивать средства на разработку и содержание разнотипных разъемов задних панелей серверных корпусов и внешних дисковых массивов, проверку на совместимость разнородных интерфейсов и инвентаризацию разнородных соединений для выполнения операций «ввод/вывод».

Использование параллельных интерфейсов также связано с рядом других проблем. Параллельная передача данных по широкому шлейфовому кабелю подвержена перекрестным наводкам, которые могут создавать дополнительные помехи и приводить к ошибкам сигнала - чтобы не угодить в эту ловушку, приходится снижать скорость сигнала или ограничивать длину кабеля, или делать и то, и другое. Терминация параллельных сигналов также связана с определенными трудностями - приходится завершать каждую линию в отдельности, обычно эту операцию выполняет последний накопитель, чтобы не допустить отражения сигнала в конце кабеля. Наконец, большие кабели и разъемы, применяемые в параллельных интерфейсах, делают эти технологии малопригодными для новых компактных вычислительных систем.

Представляем SAS и SATA

Последовательные технологии, такие как Serial ATA (SATA) и Serial Attached SCSI (SAS), позволяют преодолеть архитектурные ограничения, присущие традиционным параллельным интерфейсам. Свое название эти новые технологии получили от способа передачи сигнала, когда вся информация передается последовательно (англ. serial), единым потоком, в отличие от множественных потоков, которые используются в параллельных технологиях. Главное преимущество последовательного интерфейса заключается в том, что, когда данные передаются единым потоком, они движутся гораздо быстрее, чем при использовании параллельного интерфейса.

Последовательные технологии объединяют многие биты данных в пакеты и затем передают их по кабелю со скоростью, в 30 раз превышающей скорость параллельных интерфейсов.

SATA расширяет возможности традиционной технологии ATA, обеспечивая передачу данных между дисковыми накопителями со скоростью 1,5 Гбайт в секунду и выше. Благодаря низкой стоимости в пересчете на гигабайт емкости диска SATA будет оставаться господствующим дисковым интерфейсом в настольных ПК, серверах начального уровня и сетевых системах хранения информации, где стоимость является одним из главных соображений.

Технология SAS, преемница параллельного интерфейса SCSI, опирается на проверенную временем высокую функциональность своего предшественника и обещает значительно расширить возможности современных систем хранения данных масштаба предприятия. SAS обладает целым рядом преимуществ, не доступных традиционным решениям в области хранения данных. В частности, SAS позволяет подключать к одному порту до 16 256 устройств и обеспечивает надёжное последовательное соединение «точка-точка» со скоростью до 3 Гб/с.

Кроме того, благодаря уменьшенному разъему SAS обеспечивает полное двухпортовое подключение как для 3,5-дюймовых, так и для 2,5-дюймовых дисковых накопителей (раньше эта функция была доступна только для 3,5-дюймовых дисковых накопителей с интерфейсом Fibre Channel). Это очень полезная функция в тех случаях, когда требуется разместить большое количество избыточных накопителей в компактной системе, например, в низкопрофильном блэйд-сервере.

SAS улучшает адресацию и подключение накопителей благодаря аппаратным расширителям, которые позволяют подключить большое количество накопителей к одному или нескольким хост контроллерам. Каждый расширитель обеспечивает подключение до 128 физических устройств, каковыми могут являться другие хост контроллеры, другие SAS расширители или дисковые накопители. Подобная схема хорошо масштабируется и позволяет создавать топологии масштаба предприятия, с лёгкостью поддерживающие многоузловую кластеризацию для автоматического восстановления системы в случае сбоя и для равномерного распределения нагрузки.

Одно из важнейших преимуществ новой последовательной технологии заключается в том, что интерфейс SAS будет также совместим с более экономичными накопителями SATA, что позволит проектировщикам систем использовать в одной системе накопители обоих типов, не тратя дополнительные средства на поддержку двух разных интерфейсов. Таким образом интерфейс SAS, представляя собой следующее поколение технологии SCSI, позволяет преодолеть существующие ограничения параллельных технологий в том, что касается производительности, масштабируемости и доступности данных.

Несколько уровней совместимости

Физическая совместимость

Разъем SAS является универсальным и по форм-фактору совместим с SATA. Это позволяет напрямую подключать к системе SAS как накопители SAS, так и накопители SATA и таким образом использовать систему либо для жизненно важных приложений, требующих высокой производительности и оперативного доступа к данным, либо для более экономичных приложений с более низкой стоимостью в пересчете на гигабайт.

Набор команд SATA является подмножеством набора команд SAS, что обеспечивает совместимость устройств SATA и контроллеров SAS. Однако SAS накопители не могут работать с контроллером SATA, поэтому они снабжены специальными ключами на разъёмах, чтобы исключить вероятность неверного подключения.

Кроме того, сходные физические параметры интерфейсов SAS и SATA позволяют использовать новую универсальную заднюю панель SAS, которая обеспечивает подключение как накопителей SAS, так и накопителей SATA. В результате отпадает необходимость в использовании двух разных задних панелей для накопителей SCSI и ATA. Подобная конструктивная совместимость выгодна как производителям задних панелей, так и конечным пользователям, ведь при этом снижаются затраты на оборудование и проектирование.

Совместимость на уровне протоколов

Технология SAS включает в себя три типа протоколов, каждый из которых используется для передачи данных разных типов по последовательному интерфейсу в зависимости от того, к какому устройству осуществляется доступ. Первый - это последовательный SCSI протокол (Serial SCSI Protocol SSP), передающий команды SCSI, второй - управляющий протокол SCSI (SCSI Management Protocol SMP), передающий управляющую информацию на расширители. Третий - туннельный протокол SATA (SATA Tunneled Protocol STP), устанавливает соединение, которое позволяет передавать команды SATA. Благодаря использованию этих трех протоколов интерфейс SAS полностью совместим с уже существующими SCSI приложениями, управляющим ПО и устройствами SATA.

Такая мультипротокольная архитектура, в сочетании с физической совместимостью разъемов SAS и SATA, делает технологию SAS универсальным связующим звеном между устройствами SAS и SATA.

Выгоды совместимости

Совместимость SAS и SATA дает целый ряд преимуществ проектировщикам систем, сборщикам и конечным пользователям.

Проектировщики систем могут благодаря совместимости SAS и SATA использовать одни и те же задние панели, разъемы и кабельные соединения. Модернизация системы с переходом от SATA к SAS фактически сводится замене дисковых накопителей. Напротив, для пользователей традиционных параллельных интерфейсов переход от ATA к SCSI означает замену задних панелей, разъемов, кабелей и накопителей. К числу других экономичных преимуществ совместимости последовательных технологий следует отнести упрощенную процедуру сертификации и управление материальной частью.

VAR реселлеры и сборщики систем получают возможность легко и быстро изменять конфигурацию заказных систем, просто устанавливая в систему соответствующий дисковый накопитель. Отпадает необходимость работать с несовместимыми технологиями и использовать специальные разъемы и разные кабельные соединения. Более того, дополнительная гибкость в том, что касается выбора оптимального соотношения цены и производительности, позволит VAR реселлерам и сборщикам систем лучше дифференцировать свои продукты.

Для конечных пользователей совместимость SATA и SAS означает новый уровень гибкости в том, что касается выбора оптимального соотношения цены и производительности. Накопители SATA станут наилучшим решением для недорогих серверов и систем хранения данных, в то время как накопители SAS обеспечат максимальную производительность, надежность и совместимость с управляющим ПО. Возможность модернизации с переходом от накопителей SATA к накопителям SAS без необходимости приобретать для этого новую систему значительно упрощает процесс принятия решения о покупке, защищает инвестиции в систему и снижает общую стоимость владения.

Совместная разработка протоколов SAS и SATA

20 января 2003 года Ассоциация производителей SCSI Trade Association (STA) и Рабочая группа Serial ATA (SATA) II Working Group объявили о сотрудничестве в целях обеспечения совместимости технологии SAS с дисковыми накопителями SATA на системном уровне.

Сотрудничество этих двух организаций, а также совместные усилия поставщиков систем хранения данных и комитетов по стандартам направлены на выработку еще более точных директив в области совместимости, что поможет проектировщикам систем, ИТ специалистам и конечным пользователям осуществлять еще более тонкую настройку своих систем с целью достижения оптимальной производительности и надёжности и снижения общей стоимости владения.

Спецификация SATA 1.0 была утверждена в 2001 году, и сегодня на рынке представлены продукты SATA от различных производителей. Спецификация SAS 1.0 была утверждена в начале 2003 года, а первые продукты должны появиться на рынке в первой половине 2004 года.

Коротко о современных RAID-контроллерах

В настоящее время RAID-контроллеры как отдельное решение ориентированы исключительно на специализированный серверный сегмент рынка. Действительно, все современные материнские платы для пользовательских ПК (не серверные платы) имеют интегрированные программно-аппаратные SATA RAID-контроллеры, возможностей которых с избытком хватает для пользователей ПК. Правда, нужно иметь в виду, что эти контроллеры ориентированы исключительно на использование операционной системы Windows. В операционных системах семейства Linux RAID-массивы создаются программным методом, и все расчеты переносятся с RAID-контроллера на центральный процессор.

В серверах традиционно применяются либо программно-аппаратные, либо чисто аппаратные RAID-контроллеры. Аппаратный RAID-контроллер позволяет создавать и обслуживать RAID-массив без участия операционной системы и центрального процессора. Такие RAID-массивы видятся операционной системой как один диск (SCSI-диск). При этом никакого специализированного драйвера не нужно - используется стандартный (входящий в состав операционной системы) драйвер SCSI-диска. В этом плане аппаратные контроллеры являются платформенно-независимыми, а настройка RAID-массива производится через BIOS контроллера. Аппаратный RAID-контроллер не задействует центральный процессор при расчете всех контрольных сумм и т.п., поскольку для расчетов применяет свой специализированный процессор и оперативную память.

Программно­аппаратные контроллеры требуют обязательного наличия специализированного драйвера, который подменяет собой стандартный драйвер SCSI-диска. Кроме того, программно-аппаратные контроллеры комплектуются утилитами управления. В этом плане программно-аппартные контроллеры привязаны к конкретной операционной системе. Все необходимые расчеты в этом случае также выполняются процессором самого RAID-контроллера, но использование программного драйвера и утилиты управления позволяет управлять контроллером через операционную систему, а не только через BIOS контроллера.

Учитывая тот факт, что на смену серверным SCSI-дискам уже пришли SAS-диски, все современные серверные RAID-контроллеры ориентированы на поддержку либо SAS-, либо SATA-дисков, которые также применяются в серверах.

В прошлом году на рынке начали появляться диски с новым интерфейсом SATA 3 (SATA 6 Гбит/с), который стал постепенно вытеснять интерфейс SATA 2 (SATA 3Гбит/с). Ну а на смену дискам с интерфейсом SAS (3 Гбит/с) пришли диски с интерфейсом SAS 2.0 (6 Гбит/с). Естественно, новый стандарт SAS 2.0 полностью совместим со старым стандартом.

Соответственно появились RAID-контроллеры с поддержкой стандарта SAS 2.0. Казалось бы, какой смысл переходить к стандарту SAS 2.0, если даже самые скоростные SAS-диски имеют скорость чтения и записи данных не выше 200 Мбайт/с и для них вполне достаточно пропускной способности протокола SAS (3 Гбит/с или 300 Мбайт/с)?

Действительно, когда каждый диск подключается к отдельному порту на RAID-контроллере, пропускной способности 3 Гбит/с (что в теории составляет 300 Мбайт/с) вполне достаточно. Однако к каждому порту RAID-контроллера могут подключаться не только отдельные диски, но и дисковые массивы (дисковые корзины). В этом случае один SAS-канал делят между собой сразу несколько накопителей, и пропускной способности в 3 Гбит/с будет уже недостаточно. Ну и, кроме того, нужно учитывать наличие SSD-дисков, скорость чтения и записи которых уже преодолела планку в 300 Мбайт/с. К примеру, в новом диске Intel SSD 510 скорость последовательного чтения составляет до 500 Мбайт/с, а скорость последовательной записи - до 315 Мбайт/с.

После краткого знакомства с текущей ситуацией на рынке серверных RAID-контроллеров давайте рассмотрим характеристики контроллера LSI 3ware SAS 9750-8i.

Характеристики RAID-контроллера 3ware SAS 9750-8i

Данный RAID-контроллер выполнен на базе специализированного XOR-процессора LSI SAS2108 с тактовой частотой 800 МГц и архитектурой PowerPC. Этот процессор использует 512 Мбайт оперативной памяти DDRII 800 МГц с коррекцией ошибок (ECC).

Контроллер LSI 3ware SAS 9750-8i совместим с SATA- и SAS-дисками (поддерживаются как HDD-, так и SSD-диски) и позволяет подключать до 96 устройств с помощью SAS-экспандеров. Немаловажно, что данный контроллер поддерживает диски с интерфейсом SATA 600 Мбайт/с (SATA III) и SAS 2.

Для подключения дисков на контроллере предусмотрено восемь портов, которые физически объединены в два разъема Mini-SAS SFF-8087 (по четыре порта в каждом разъеме). То есть если диски подключать напрямую к портам, то всего можно подключить к контроллеру восемь дисков, а при подключении к каждому порту дисковых корзин общий объем дисков может быть увеличен до 96. Каждый из восьми портов контроллера имеет пропускную способность 6 Гбит/с, что соответствует стандартам SAS 2 и SATA III.

Естественно, при подключении дисков или дисковых корзин к этому контроллеру потребуются специализированные кабели, которые c одного конца имеют внутренний разъем Mini-SAS SFF-8087, а на другом конце - разъем, который зависит от того, что именно подключается к контроллеру. К примеру, при подключении к контроллеру напрямую SAS-дисков необходимо использовать кабель, у которого с одной стороны разъем Mini-SAS SFF-8087, а с другой - четыре разъема SFF 8484, которые позволяют непосредственно подключать SAS-диски. Отметим, что сами кабели не входят в комплект поставки и приобретаются отдельно.

У контроллера LSI 3ware SAS 9750-8i есть интерфейс PCI Express 2.0 x8, что обеспечивает пропускную способность 64 Гбит/с (по 32 Гбит/с в каждом направлении). Понятно, что такой пропускной способности вполне достаточно для полностью загруженных восьми портов SAS с пропускной способностью 6 Гбит/с каждый. Также отметим, что на контроллере имеется специальный разъем, в который опционально можно подключить батарею резервного питания LSIiBBU07.

Немаловажно, что данный контроллер требует инсталляции драйвера, то есть является программно-аппаратным RAID-контроллером. При этом поддерживаются такие операционные системы, как Windows Vista, Windows Server 2008, Windows Server 2003 x64, Windows 7, Windows 2003 Server, MAC OS X, LinuxFedora Core 11, Red Hat Enterprise Linux 5.4, OpenSuSE 11.1, SuSE Linux Enterprise Server (SLES) 11, OpenSolaris 2009.06, VMware ESX/ESXi 4.0/4.0 update-1 и другие системы семейства Linux. В комплект поставки также входит программное обеспечение 3ware Disk Manager 2, которое позволяет управлять RAID-массивами через операционную систему.

Контроллер LSI 3ware SAS 9750-8i поддерживает стандартные типы RAID-массивов: RAID 0, 1, 5, 6, 10 и 50. Пожалуй, единственный тип массива, который не поддерживается, - RAID 60. Это связано с тем, что данный контроллер способен создать массив RAID 6 только на пяти дисках, подключаемых напрямую к каждому порту контроллера (теоретически RAID 6 может быть создан на четырех дисках). Соответственно для массива RAID 60 данному контроллеру требуется минимум десять дисков, которых просто нет.

Понятно, что поддержка массива RAID 1 неактуальна для такого контроллера, поскольку данный тип массива создается только на двух дисках, а использовать такой контроллер только для двух дисков нелогично и крайне расточительно. А вот поддержка массивов RAID 0, 5, 6, 10 и 50 весьма актуальна. Хотя, возможно, с массивом RAID 0 мы и поторопились. Всё же этот массив не обладает избыточностью, а соответственно не обеспечивает надежности хранения данных, поэтому в серверах он используется крайне редко. Однако теоретически этот массив является самым быстрым по скорости чтения и записи данных. Впрочем, давайте вспомним, чем разные типы RAID-массивов отличаются друг от друга и что они собой представляют.

Уровни RAID-массивов

Термин «RAID-массив» появился в 1987 году, когда американские исследователи Паттерсон, Гибсон и Катц из Калифорнийского университета в Беркли в своей статье «Избыточный массив недорогих дисков» (“A case for redundant arrays of inexpensive discs, RAID”) описали, каким образом можно объединить несколько дешевых жестких дисков в одно логическое устройство так, чтобы в результате повышались емкость и быстродействие системы, а отказ отдельных дисков не приводил к отказу всей системы. С момента выхода этой статьи прошло уже почти 25 лет, но технология построения RAID-массивов не утратила актуальности и сегодня. Единственное, что изменилось с тех пор, - это расшифровка аббревиатуры RAID. Дело в том, что первоначально RAID-массивы строились вовсе не на дешевых дисках, поэтому слово Inexpensive («недорогие») поменяли на Independent («независимые»), что больше соответствовало действительности.

Отказоустойчивость в RAID-массивах достигается за счет избыточности, то есть часть емкости дискового пространства отводится для служебных целей, становясь недоступной для пользователя.

Повышение производительности дисковой подсистемы обеспечивается одновременной работой нескольких дисков, и в этом смысле чем больше дисков в массиве (до определенного предела), тем лучше.

Совместную работу дисков в массиве можно организовать с помощью либо параллельного, либо независимого доступа. При параллельном доступе дисковое пространство разбивается на блоки (полоски) для записи данных. Аналогично информация, подлежащая записи на диск, разбивается на такие же блоки. При записи отдельные блоки записываются на разные диски, причем запись нескольких блоков на различные диски происходит одновременно, что приводит к увеличению производительности в операциях записи. Нужная информация также считывается отдельными блоками одновременно с нескольких дисков, что тоже способствует росту производительности пропорционально количеству дисков в массиве.

Следует отметить, что модель с параллельным доступом реализуется только при условии, что размер запроса на запись данных больше размера самого блока. В противном случае осуществлять параллельную запись нескольких блоков практически невозможно. Представим ситуацию, когда размер отдельного блока составляет 8 Кбайт, а размер запроса на запись данных - 64 Кбайт. В этом случае исходная информация нарезается на восемь блоков по 8 Кбайт каждый. Если имеется массив из четырех дисков, то одновременно можно записать четыре блока, или 32 Кбайт, за один раз. Очевидно, что в рассмотренном примере скорость записи и скорость считывания окажутся в четыре раза выше, чем при использовании одного диска. Это справедливо лишь для идеальной ситуации, однако размер запроса далеко не всегда кратен размеру блока и количеству дисков в массиве.

Если же размер записываемых данных меньше размера блока, то реализуется принципиально иная модель - независимый доступ. Более того, эта модель может использоваться и в том случае, когда размер записываемых данных больше размера одного блока. При независимом доступе все данные отдельного запроса записываются на отдельный диск, то есть ситуация идентична работе с одним диском. Преимущество модели с независимым доступом в том, что при одновременном поступлении нескольких запросов на запись (чтение) все они будут выполняться на отдельных дисках независимо друг от друга. Подобная ситуация типична, например, для серверов.

В соответствии с различными типами доступа существуют и разные типы RAID-массивов, которые принято характеризовать уровнями RAID. Кроме типа доступа, уровни RAID различаются способом размещения и формирования избыточной информации. Избыточная информация может либо размещаться на специально выделенном диске, либо распределяться между всеми дисками.

В настоящее время существует несколько RAID-уровней, которые широко используются, - это RAID 0, RAID 1, RAID 5, RAID 6, RAID 10, RAID 50 и RAID 60. Ранее также применялись уровни RAID 2, RAID 3 и RAID 4, однако в настоящее время эти уровни RAID не используются и современные RAID-контроллеры их не поддерживают. Отметим, что все современные RAID-контроллеры поддерживают также функцию JBOD (Just a Bench Of Disks). В данном случае речь идет не о RAID-массиве, а просто о подключении отдельных дисков к RAID-контроллеру.

RAID 0

RAID 0, или страйпинг (striping), - это, строго говоря, не RAID-массив, поскольку такой массив не имеет избыточности и не обеспечивает надежности хранения данных. Однако исторически его тоже называют RAID-массивом. Массив RAID 0 (рис. 1) может строиться на двух и более дисках и используется в том случае, когда необходимо обеспечить высокую производительность дисковой подсистемы, а надежность хранения данных некритична. При создании массива RAID 0 информация разбивается на блоки (эти блоки называют страйпами (stripe)), которые одновременно записываются на отдельные диски, то есть создается система с параллельным доступом (если, конечно, позволяет размер блока). Благодаря возможности одновременного ввода­вывода с нескольких дисков, RAID 0 обеспечивает максимальную скорость передачи данных и максимальную эффективность использования дискового пространства, поскольку не требуется места для хранения контрольных сумм. Реализация этого уровня очень проста. В основном RAID 0 применяется в тех областях, где требуется быстрая передача большого объема данных.

Рис. 1. Массив RAID 0

Теоретически прирост скорости чтения и записи должен быть кратен количеству дисков в массиве.

Надежность массива RAID 0 заведомо ниже надежности любого из дисков в отдельности и снижается с увеличением количества входящих в массив дисков, так как отказ любого из них приводит к неработоспособности всего массива. Если время наработки на отказ каждого диска составляет MTTF disk , то время наработки на отказ массива RAID 0, состоящего из n дисков, равно:

MTTF RAID0 = MTTD disk /n.

Если обозначить вероятность выхода из строя за определенный промежуток времени одного диска через p , то для массива RAID 0 из n дисков вероятность того, что хотя бы один диск выйдет из строя (вероятность падения массива), составит:

Р (падение массива) = 1 – (1 – р) n .

К примеру, если вероятность выхода из строя одного диска в течение трех лет эксплуатации составляет 5%, то вероятность падения массива RAID 0 из двух дисков равна уже 9,75%, а из восьми дисков - 33,7%.

RAID 1

Массив RAID 1 (рис. 2), который также называют зеркалом (mirror), - это массив из двух дисков со 100-процентной избыточностью. То есть данные полностью дублируются (зеркалируются), за счет чего достигается очень высокий уровень надежности (как, впрочем, и стоимости). Отметим, что для реализации RAID 1 не требуется предварительно разбивать диски и данные на блоки. В простейшем случае два диска содержат одинаковую информацию и являются одним логическим диском. При выходе из строя одного диска его функции выполняет другой (что абсолютно прозрачно для пользователя). Восстановление массива выполняется простым копированием. Кроме того, теоретически в массиве RAID 1 должна удваиваться скорость считывания информации, так как эта операция может выполняться одновременно с двух дисков. Подобная схема хранения информации используется в основном в тех случаях, когда цена безопасности данных гораздо выше стоимости реализации системы хранения.

Рис. 2. Массив RAID 1

Если, как в предыдущем случае, обозначить вероятность выхода из строя за определенный промежуток времени одного диска через p , то для массива RAID 1 вероятность того, что оба диска выйдут из строя одновременно (вероятность падения массива), составит:

Р (падение массива) = р 2 .

К примеру, если вероятность выхода из строя одного диска в течение трех лет эксплуатации составляет 5%, то вероятность одновременного выхода из строя двух дисков равна уже 0,25%.

RAID 5

Массив RAID 5 (рис. 3) - это отказоустойчивый дисковый массив с распределенным хранением контрольных сумм. При записи поток данных разбивается на блоки (страйпы) на уровне байтов, которые одновременно записываются на все диски массива в циклическом порядке.

Рис. 3. Массив RAID 5

Предположим, что массив содержит n дисков, а размер страйпа - d . Для каждой порции из n –1 страйпов рассчитывается контрольная сумма p .

Cтрайп d 1 записывается на первый диск, страйп d 2 - на второй и так далее вплоть до страйпа d n –1, который записывается на (n–1)-й диск. Далее на n-й диск записывается контрольная сумма p n , и процесс циклически повторяется с первого диска, на который записывается страйп d n .

Процесс записи (n –1) страйпов и их контрольной суммы производится одновременно на все n дисков.

Для вычисления контрольной суммы используется поразрядная операция «исключающего ИЛИ» (XOR), применяемая к записываемым блокам данных. Так, если имеется n жестких дисков и d - блок данных (страйп), то контрольная сумма рассчитывается по следующей формуле:

p n = d 1 d 2 ⊕ ... d n–1 .

В случае выхода из строя любого диска данные на нем можно восстановить по контрольным данным и по данным, оставшимся на исправных дисках. Действительно, воспользовавшись тождествами (a b) A b = a и a a = 0 , получим, что:

p n ⊕ (d k p n) = d l d n ⊕ ...⊕ ...⊕ d n–l ⊕ (d k p n).

d k = d 1 d n ⊕ ...⊕ d k–1 d k+1 ⊕ ...⊕ p n .

Таким образом, если из строя вышел диск с блоком d k , то его можно восстановить по значению остальных блоков и контрольной суммы.

В случае RAID 5 все диски массива должны иметь одинаковый размер, однако общая емкость дисковой подсистемы, доступной для записи, становится меньше ровно на один диск. Например, если пять дисков имеют размер 100 Гбайт, то фактический размер массива составляет 400 Гбайт, поскольку 100 Гбайт отводится на контрольную информацию.

Массив RAID 5 может быть построен на трех и более жестких дисках. С увеличением количества жестких дисков в массиве его избыточность уменьшается. Отметим также, что массив RAID 5 может быть восстановлен при выходе из строя только одного диска. Если же одновременно выходят из строя два диска (или если второй диск выходит из строя в процессе восстановления массива), то массив не подлежит восстановлению.

RAID 6

Массив RAID 5, как было показано, может быть восстановлен при выходе из строя одного диска. Однако иногда требуется обеспечить более высокий уровень надежности, чем в массиве RAID 5. В этом случае можно использовать массив RAID 6 (рис. 4), который позволяет восстановить массив даже при выходе из строя одновременно двух дисков.

Рис. 4. Массив RAID 6

Массив RAID 6 похож на RAID 5, но в нем применяется не одна, а две контрольные суммы, которые циклически распределяются по дискам. Первая контрольная сумма p рассчитывается по тому же алгоритму, что и в массиве RAID 5, то есть это операция XOR между блоками данных, записываемыми на разные диски:

p n = d 1 d2 ⊕ ...⊕ d n–1 .

Вторая контрольная сумма рассчитывается уже по другому алгоритму. Не вдаваясь в математические подробности, скажем, что это также операция XOR между блоками данных, но каждый блок данных предварительно умножается на полиномиальный коэффициент:

q n = g 1 d 1 g 2 d 2 ⊕ ...⊕ g n–1 d n–1 .

Соответственно под контрольные суммы выделяется емкость двух дисков в массиве. Теоретически массив RAID 6 может быть создан на четырех и более дисках, однако во многих контроллерах он может быть создан минимум на пяти дисках.

Нужно иметь в виду, что производительность массива RAID 6, как правило, на 10-15% ниже производительности массива RAID 5 (при равном количестве дисков), что вызвано большим объемом расчетов, выполняемых контроллером (необходимо рассчитывать вторую контрольную сумму, а также считывать и перезаписывать больше дисковых блоков при записи каждого блока).

RAID 10

Массив RAID 10 (рис. 5) представляет собой сочетание уровней 0 и 1. Минимально для этого уровня требуются четыре диска. В массиве RAID 10 из четырех дисков они попарно объединяются в массивы RAID 1, а оба эти массива как логические диски объединяются в массив RAID 0. Возможен и другой подход: первоначально диски объединяются в массивы RAID 0, а затем логические диски на основе этих массивов - в массив RAID 1.

Рис. 5. Массив RAID 10

RAID 50

Массив RAID 50 представляет собой сочетание уровней 0 и 5 (рис. 6). Минимально для этого уровня требуется шесть дисков. В массиве RAID 50 сначала создаются два массива RAID 5 (минимум по три диска в каждом), которые потом как логические диски объединяются в массив RAID 0.

Рис. 6. Массив RAID 50

Методика тестирования контроллера LSI 3ware SAS 9750-8i

Для тестирования RAID-контроллера LSI 3ware SAS 9750-8i мы использовали специализированный тестовый пакет IOmeter 1.1.0 (версия от 2010.12.02). Тестовый стенд имел следующую конфигурацию:

  • процессор - Intel Core i7-990 (Gulftown);
  • системная плата - GIGABYTE GA-EX58-UD4;
  • память - DDR3-1066 (3 Гбайт, трехканальный режим работы);
  • системный диск - WD Caviar SE16 WD3200AAKS;
  • видеокарта - GIGABYTE GeForce GTX480 SOC;
  • RAID-контроллер - LSI 3ware SAS 9750-8i;
  • SAS-диски, подключаемые к RAID-контроллеру, - Seagate Cheetah 15K.7 ST3300657SS.

Тестирование проводилось под управлением операционной системы Microsoft Windows 7 Ultimate (32-bit).

Мы использовали Windows-драйвер RAID-контроллера версии 5.12.00.007, а также обновили прошивку контроллера до версии 5.12.00.007.

Системный диск подключался к SATA, реализованному через контроллер, интегрированный в южный мост чипсета Intel X58, a SAS-диски подключались напрямую к портам RAID-контроллера с использованием двух кабелей Mini-SAS SFF-8087 ->4 SAS.

RAID-контроллер устанавливался в разъем PCI Express x8 на системной плате.

Контроллер тестировался со следующими RAID-массивами: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10 и RAID 50. Количество дисков, объединяемых в RAID-массив, варьировалось для каждого типа массива от минимального значения до восьми.

Размер страйпа на всех RAID-массивах не изменялся и составлял 256 Кбайт.

Напомним, что пакет IOmeter позволяет работать как с дисками, на которых создан логический раздел, так и с дисками без логического раздела. В случае если проводится тестирование диска без созданного на нем логического раздела, то IOmeter работает на уровне логических блоков данных, то есть вместо операционной системы передает команды контроллеру на запись или чтение LBA-блоков.

Если на диске создан логический раздел, то первоначально утилита IOmeter создает на диске файл, который по умолчанию занимает весь логический раздел (в принципе, размер этого файла можно изменять, указав его в количестве 512 байтных секторов), и далее уже работает с этим файлом, то есть считывает или записывает (перезаписывает) отдельные LBA-блоки в пределах этого файла. Но опять-таки IOmeter работает в обход операционной системы, то есть непосредственно посылает запросы контроллеру на чтение/запись данных.

Вообще, при тестировании HDD-дисков, как показывает практика, разницы между результатами тестирования диска с созданным логическим разделом и без него практически нет. В то же время мы считаем, что более корректно проводить тестирование без созданного логического раздела, поскольку в таком случае результаты тестов не зависят от используемой файловой системы (NTFA, FAT, ext и т.д.). Именно поэтому мы выполняли тестирование без создания логических разделов.

Кроме того, утилита IOmeter позволяет задавать размер блока запроса (Transfer Request Size) на запись/чтение данных, а тест можно проводить как для последовательных (Sequential) чтения и записи, когда LBA-блоки считываются и записываются последовательно друг за другом, так и для случайных (Random), когда LBA-блоки считываются и записываются в произвольном порядке. При формировании сценария нагрузки можно задавать время теста, процентное соотношение между последовательными и случайными операциями (Percent Random/Sequential Distribution), а также процентное соотношение между операциями чтения и записи (Percent Read/Write Distribution). Кроме того, утилита IOmeter позволяет автоматизировать весь процесс тестирования и сохраняет все результаты в CSV-файл, который затем легко экспортируется в таблицу Excel.

Еще одна настройка, которую позволяет делать утилита IOmeter, - это так называемое выравнивание блоков запросов на передачу данных (Align I/Os on) по границам секторов жесткого диска. По умолчанию IOmeter выравнивает блоки запросов по границам 512-байтных секторов диска, однако можно задать и произвольное выравнивание. Собственно, большинство жестких дисков имеют размер сектора 512 байт и только в последнее время стали появляться диски с размером сектора 4 Кбайт. Напомним, что в HDD-дисках сектор - это минимальный адресуемый размер данных, который можно записать или считать с диска.

При проведении тестирования необходимо устанавливать выравнивание блоков запросов на передачу данных по размеру сектора диска. Поскольку в дисках Seagate Cheetah 15K.7 ST3300657SS размер сектора составляет 512 байт, мы использовали выравнивание по границам 512-байтных секторов.

С помощью тестового пакета IOmeter мы измеряли скорость последовательного чтения и записи, а также скорость случайного чтения и записи созданного RAID-массива. Размеры блоков передаваемых данных составляли 512 байт, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 и 1024 Кбайт.

В перечисленных сценариях нагрузки время теста с каждым запросом на передачу блока данных составляло 5 мин. Также отметим, что во всех перечисленных тестах мы задавали в настройках IOmeter глубину очереди задачи (# of Outstanding I/Os) равной 4, что типично для пользовательских приложений.

Результаты тестирования

Проанализировав результаты тестирования, мы были удивлены работой RAID-контроллера LSI 3ware SAS 9750-8i. Причем настолько, что стали просматривать наши скрипты на предмет выявления в них ошибки, а потом многократно повторили тестирование с другими настройками RAID-контроллера. Мы меняли размер страйпа и режим работы кэша RAID-контроллера. Это, конечно же, отражалось на результатах, однако не меняло общего характера зависимости скорости передачи данных от размера блока данных. А эту зависимость мы как раз и не смогли объяснить. Работа данного контроллера представляется нам совершенно нелогичной. Во­первых, результаты нестабильны, то есть при каждом фиксированном размере блока данных скорость периодически изменяется и усредненный результат имеет большую погрешность. Отметим, что обычно результаты тестирования дисков и контроллеров с использованием утилиты IOmeter стабильны и различаются весьма незначительно.

Во­вторых, при увеличении размера блока скорость передачи данных должна возрастать или оставаться неизменной в режиме насыщения (когда скорость достигает своего максимального значения). Однако в случае контроллера LSI 3ware SAS 9750-8i при некоторых размерах блоков наблюдается резкое падение скорости передачи данных. Кроме того, для нас так и осталось загадкой, почему при одном и том же количестве дисков для массивов RAID 5 и RAID 6 скорость записи выше скорости чтения. Одним словом, объяснить работу контроллера LSI 3ware SAS 9750-8i мы не можем - остается лишь констатировать факты.

Результаты тестирования можно классифицировать по-разному. К примеру, по сценариям загрузки, когда для каждого типа загрузки приводятся результаты для всех возможных RAID-массивов с разным количеством подключенных дисков, или по типам RAID-массивов, когда для каждого типа RAID-массива указываются результаты с различным количеством дисков в сценариях последовательного чтения, последовательной записи, случайного чтения и случайной записи. Также можно классифицировать результаты по количеству дисков в массиве, когда для каждого количества подключенных к контроллеру дисков приводятся результаты для всех возможных (при данном количестве дисков) RAID-массивов в сценариях последовательного чтения и последовательной записи, случайного чтения и случайной записи.

Мы решили классифицировать результаты по типам массивов, поскольку, на наш взгляд, несмотря на довольно большое количество графиков, такое их представление более наглядно.

RAID 0

Массив RAID 0 можно создать с количеством дисков от двух до восьми. Результаты тестирования для массива RAID 0 представлены на рис. 7-15.

Рис. 7. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 0

Рис. 8. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 0

Рис. 9. Скорость последовательного чтения
и записи при шести дисках в массиве RAID 0

Рис. 10. Скорость последовательного чтения и записи
при пяти дисках в массиве RAID 0

Рис. 11. Скорость последовательного чтения и записи
при четырех дисках в массиве RAID 0

Рис. 12. Скорость последовательного чтения и записи
при трех дисках в массиве RAID 0

Рис. 13. Скорость последовательного чтения и записи
при двух дисках в массиве RAID 0

Рис. 14. Скорость случайного чтения
в массиве RAID 0

Рис. 15. Скорость случайной записи в массиве RAID 0

Понятно, что наиболее высокая скорость последовательного чтения и записи в массиве RAID 0 достигается при восьми дисках. Стоит обратить внимание на то, что при восьми и семи дисках в массиве RAID 0 скорости последовательного чтения и записи практически совпадают друг с другом и при меньшем количестве дисков скорость последовательной записи становится выше скорости чтения.

Нельзя не отметить и характерные провалы в скорости последовательного чтения и записи при определенных размерах блоков. К примеру, при восьми и шести дисках в массиве такие провалы наблюдаются при размере блоков данных 1 и 64 Кбайт, а при семи дисках - при размере 1, 2 и 128 Кбайт. Аналогичные провалы, но при других размерах блоков данных имеются и при четырех, трех и двух дисках в массиве.

По скорости последовательного чтения и записи (как усредненной по всем размерам блоков характеристике) массив RAID 0 превосходит все остальные возможные массивы в конфигурации с восемью, семью, шестью, пятью, четырьмя, тремя и двумя дисками.

Случайный доступ в массиве RAID 0 тоже довольно интересен. Скорость случайного чтения при каждом размере блока данных пропорциональна количеству дисков в массиве, что вполне логично. Причем при размере блока 512 Кбайт при любом количестве дисков в массиве наблюдается характерный провал по скорости случайного чтения.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. В то же время нужно отметить, что наибольшая скорость в этом случае достигается не при восьми, а при семи дисках в массиве. Следом по скорости случайной записи идет массив из шести дисков, затем из пяти и только потом из восьми дисков. Причем по скорости случайной записи массив из восьми дисков практически идентичен массиву из четырех дисков.

По скорости случайной записи массив RAID 0 превосходит все остальные возможные массивы в конфигурациях с восемью, семью, шестью, пятью, четырьмя, тремя и двумя дисками. А вот по скорости случайного чтения в конфигурации с восемью дисками массив RAID 0 уступает массивам RAID 10 и RAID 50, но в конфигурации с меньшим количеством дисков массив RAID 0 лидирует по скорости случайного чтения.

RAID 5

Массив RAID 5 можно создать с количеством дисков от трех до восьми. Результаты тестирования для массива RAID 5 представлены на рис. 16-23.

Рис. 16. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 5

Рис. 17. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 5

Рис. 18. Скорость последовательного чтения и записи
при шести дисках в массиве RAID 5

Рис. 19. Скорость последовательного чтения и записи
при пяти дисках в массиве RAID 5

Рис. 20. Скорость последовательного чтения и записи
при четырех дисках в массиве RAID 5

Рис. 21. Скорость последовательного чтения и записи
при трех дисках в массиве RAID 5

Рис. 22. Скорость случайного чтения
в массиве RAID 5

Рис. 23. Скорость случайной записи
в массиве RAID 5

Понятно, что наиболее высокая скорость чтения и записи достигается при восьми дисках. Стоит обратить внимание на то, что для массива RAID 5 скорость последовательной записи в среднем выше, чем скорость чтения. Однако при определенном размере запроса скорость последовательного чтения может превышать скорость последовательной записи.

Нельзя не отметить и характерные провалы по скорости последовательного чтения и записи при определенных размерах блоков при любом количестве дисков в массиве.

По скорости последовательного чтения и записи в конфигурации с восемью дисками массив RAID 5 уступает массивам RAID 0 и RAID 50, но превосходит массивы RAID 10 и RAID 6. В конфигурациях с семью дисками массив RAID 5 по скорости последовательного чтения и записи уступает массиву RAID 0 и превосходит массив RAID 6 (остальные типы массивов невозможны при данном количестве дисков).

В конфигурациях с шестью дисками массив RAID 5 по скорости последовательного чтения уступает массивам RAID 0 и RAID 50, а по скорости последовательной записи - только массиву RAID 0.

В конфигурациях с пятью, четырьмя и тремя дисками массив RAID 5 по скорости последовательного чтения и записи уступает лишь массиву RAID 0.

Случайный доступ в массиве RAID 5 подобен случайному доступу в массиве RAID 0. Так, скорость случайного чтения при каждом размере блока данных пропорциональна количеству дисков в массиве, а при размере блока 512 Кбайт при любом количестве дисков в массиве наблюдается характерный провал по скорости случайного чтения. Причем нужно отметить, что скорость случайного чтения слабо зависит от количества дисков в массиве, то есть для любого количества дисков она примерно одинакова.

По скорости случайного чтения массив RAID 5 в конфигурации с восемью, семью, шестью, четырьмя и тремя дисками уступает всем остальным массивам. И только в конфигурации с пятью дисками он незначительно опережает массив RAID 6.

По скорости случайной записи массив RAID 5 в конфигурации с восемью дисками уступает лишь массивам RAID 0 и RAID 50, а в конфигурации с семью и пятью, четырьмя и тремя дисками - только массиву RAID 0.

В конфигурации с шестью дисками массив RAID 5 уступает по скорости случайной записи массивам RAID 0, RAID 50 и RAID 10.

RAID 6

Контроллер LSI 3ware SAS 9750-8i позволяет создать массив RAID 6 с количеством дисков от пяти до восьми. Результаты тестирования для массива RAID 6 представлены на рис. 24-29.

Рис. 24. Скорость последовательного чтения и записи
при восьми дисках в массиве RAID 6

Рис. 25. Скорость последовательного чтения и записи
при семи дисках в массиве RAID 6

Также отметим и характерные провалы по скорости последовательного чтения и записи при определенных размерах блоков при любом количестве дисков в массиве.

По скорости последовательного чтения массив RAID 6 уступает всем остальным массивам в конфигурациях с любым (от восьми до пяти) количеством дисков.

По скорости последовательной записи ситуация несколько лучше. В конфигурации с восемью дисками RAID 6 опережает массив RAID 10, а в конфигурации с шестью дисками - и массивы RAID 10 и RAID 50. Правда, в конфигурациях с семью и пятью дисками, когда создание массивов RAID 10 и RAID 50 невозможно, этот массив оказывается на последнем месте по скорости последовательной записи.

Случайный доступ в массиве RAID 6 подобен случайному доступу в массивах RAID 0 и RAID 5. Так, скорость случайного чтения при размере блока 512 Кбайт при любом количестве дисков в массиве имеет характерный провал по скорости случайного чтения. Отметим, что максимальная скорость случайного чтения достигается при шести дисках в массиве. Ну а при семи и восьми дисках скорость случайного чтения практически одинакова.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи хотя и пропорциональна количеству дисков в массиве, но разница по скорости незначительная.

По скорости случайного чтения массив RAID 6 в конфигурации с восемью и семью дисками опережает лишь массив RAID 5 и уступает всем остальным возможным массивам.

В конфигурации с шестью дисками массив RAID 6 уступает массивам RAID 10 и RAID 50 по скорости случайного чтения, а в конфигурации с пятью дисками - массивам RAID 0 и RAID 5.

По скорости случайной записи массив RAID 6 при любом количестве подключенных дисков уступает всем остальным возможным массивам.

В целом можно констатировать, что массив RAID 6 уступает по производительности и массивам RAID 0, RAID 5, RAID 50 и RAID 10. То есть по производительности этот тип массива оказался на последнем месте.

Рис. 33. Скорость случайного чтения
в массиве RAID 10

Рис. 34. Скорость случайной записи в массиве RAID 10

Характерно, что в массивах из восьми и шести дисков скорость последовательного чтения выше скорости записи, а в массиве из четырех дисков эти скорости практически совпадают при любом размере блока данных.

Для массива RAID 10, так же как и для всех остальных рассмотренных массивов, характерно падение скорости последовательного чтения и записи при определенных размерах блоков данных при любом количестве дисков в массиве.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи пропорциональна количеству дисков в массиве.

По скорости последовательного чтения массив RAID 10 идет вслед за массивами RAID 0, RAID 50 и RAID 5 в конфигурации с восемью, шестью и четырьмя дисками, а по скорости последовательной записи он уступает даже массиву RAID 6, то есть идет вслед за массивами RAID 0, RAID 50, RAID 5 и RAID 6.

Зато по скорости случайного чтения массив RAID 10 опережает все остальные массивы в конфигурации с восемью, шестью и четырьмя дисками. А вот по скорости случайной записи этот массив проигрывает массивам RAID 0, RAID 50 и RAID 5 в конфигурации с восемью дисками, массивам RAID 0 и RAID 50 в конфигурации с шестью дисками и массивам RAID 0 и RAID 5 в конфигурации с четырьмя дисками.

RAID 50

Массив RAID 50 можно построить на шести или восьми дисках. Результаты тестирования для массива RAID 50 представлены на рис. 35-38.

В сценарии случайного чтения, как и для всех остальных рассмотренных массивов, наблюдается характерный провал производительности при размере блока 512 Кбайт.

При случайной записи при любом количестве дисков в массиве скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет. Кроме того, скорость случайной записи пропорциональна количеству дисков в массиве, однако разница по скорости незначительная и наблюдается только при большом (более 256 Кбайт) размере блока данных.

По скорости последовательного чтения массив RAID 50 уступает лишь массиву RAID 0 (в конфигурации с восемью и шестью дисками). По скорости последовательной записи массив RAID 50 также уступает лишь массиву RAID 0 в конфигурации с восемью дисками, а в конфигурации с шестью дисками он проигрывает массивам RAID 0, RAID 5 и RAID 6.

Зато по скорости случайного чтения и записи массив RAID 50 уступает лишь массиву RAID 0 и опережает все остальные возможные при восьми и шести дисках массивы.

RAID 1

Как мы уже отмечали, массив RAID 1, который может быть построен только на двух дисках, использовать на таком контроллере нецелесо-образно. Однако для полноты картины мы приводим результаты и для массива RAID 1 на двух дисках. Результаты тестирования для массива RAID 1 представлены на рис. 39 и 40.

Рис. 39. Скорость последовательной записи и чтения в массиве RAID 1

Рис. 40. Скорость случайной записи и чтения в массиве RAID 1

Для массива RAID 10, так же как и для всех остальных рассмотренных массивов, характерно падение скорости последовательного чтения и записи при определенных размерах блоков данных.

В сценарии случайного чтения, как и для прочих массивов, наблюдается характерный провал производительности при размере блока 512 Кбайт.

При случайной записи скорость возрастает с увеличением размера блока данных и никаких провалов в скорости нет.

Массив RAID 1 можно сопоставить только с массивом RAID 0 (поскольку в случае двух дисков никакие больше массивы невозможны). Нужно отметить, что массив RAID 1 проигрывает по производительности массиву RAID 0 с двумя дисками во всех сценариях нагрузки, кроме случайного чтения.

Выводы

Впечатление от тестирования контроллера LSI 3ware SAS 9750-8i в сочетании с SAS-дисками Seagate Cheetah 15K.7 ST3300657SS у нас сложилось довольно неоднозначное. С одной стороны, у него прекрасные функциональные возможности, с другой - настораживают провалы по скорости при определенных размерах блоков данных, что, безусловно, отражается на скоростных показателях RAID-массивов при их функционировании в реальной среде.



© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows