Як влаштовані системи зберігання даних. Системи зберігання даних — короткий огляд. Що таке CEPH і як він працює

Яке призначення систем зберігання даних (СЗД)?

Системи зберігання даних призначені для безпечного і отказоустойчивого зберігання оброблюваних даних з можливостями швидкого відновлення доступу до даних у разі збою в роботі системи.

Які основні різновиди СГД?

За типом реалізації СГД діляться на апаратні і програмні. По області застосування СГД діляться на індивідуальні, для малих робочих груп, для робочих груп, для підприємств, корпоративні. За типом підключення СГД діляться на:

1. DAS (Direct Attached Storage — системи з прямим підключенням)

Особливістю даного типу систем є те, що контроль за доступом до даних для пристроїв, підключених до мережі, здійснюється сервером або робочою станцією, до якої підключено сховище.

2. NAS (Network Attached Storage — системи, що підключаються до ЛВС)

В даному типі систем доступ до інформації, розміщеної в сховище, контролюється програмним забезпеченням, яке працює в самому сховищі.

3. SAN (Storage Attached Network — системи, що представляють собою мережу між серверами, які обробляють дані і, власне, СГД);

При такому способі побудови системи зберігання даних контроль за доступом до інформації здійснюється програмним забезпеченням, що працює на серверах СГД. Через комутатори SAN проводиться підключення сховища до серверів по високопродуктивним протоколам доступу (Fibre channel, iSCSI, ATA over ethernet, і т.п.)

Які особливості програмної і апаратної реалізації СГД?

Апаратна реалізація СГД являє собою єдиний апаратний комплекс, що складається з пристрою зберігання (що представляє собою диск або масив дисків, на яких дані фізично зберігаються), і пристрої управління (контролер, що займається розподілом даних між елементами сховища).

Програмна реалізація СГД є розподілену систему, В якій дані зберігаються без прив’язки до якогось конкретного сховища або сервера, і доступ до даних здійснюється за допомогою спеціалізованого ПЗ, яке відповідає за збереження і безпеку збережених даних).

Саме інформація є рушійною силою сучасного бізнесу і зараз вважається найбільш цінним стратегічним активом будь-якого підприємства. Обсяг інформації зростає в геометричній прогресії разом із зростанням глобальних мереж і розвитком електронної комерції. Для досягнення успіху в інформаційній війні необхідно володіти ефективною стратегією зберігання, захисту, спільного доступу і управління найважливішим цифровим майном — даними — як сьогодні, так і в найближчому майбутньому.

Управління ресурсами зберігання даних стало однією із найбільш наболілих стратегічних проблем, що стоять перед співробітниками відділів інформаційних технологій. Внаслідок розвитку Інтернету і корінних змін в процесах бізнесу інформація накопичується з небаченою швидкістю. Крім нагальної проблеми забезпечення можливості постійного збільшення обсягу інформації, що зберігається, не менше гостро на порядку денному стоїть і проблема забезпечення надійності зберігання даних і постійного доступу до інформації. Для багатьох компаній формула доступу до даних «24 години на добу, 7 днів на тиждень, 365 днів в році» стала нормою життя.

У разі окремого ПК під системою зберігання даних (СЗД) можна розуміти окремий внутрішній жорсткий диск або систему дисків. Якщо ж мова заходить про корпоративну СГД, то традиційно можна виділити три технології організації зберігання даних: Direct Attached Storage (DAS), Network Attach Storage (NAS) і Storage Area Network (SAN).

Direct Attached Storage (DAS)

Технологія DAS має на увазі пряме (безпосереднє) підключення накопичувачів до сервера або до ПК. При цьому накопичувачі ( жорсткі диски, Стрічкові накопичувачі) можуть бути як внутрішніми, так і зовнішніми. Найпростіший випадок DAS-системи — це один диск всередині сервера або ПК. Крім того, до DAS-системі можна віднести і організацію внутрішнього RAID-масиву дисків з використанням RAID-контролера.

Варто відзначити, що, незважаючи на формальну можливість використання терміна DAS-системи по відношенню до одиночного диску або до внутрішнього масиву дисків, під DAS-системою прийнято розуміти зовнішню стійку або кошик з дисками, яку можна розглядати як автономну СГД (рис. 1). Крім незалежного харчування, такі автономні DAS-системи мають спеціалізований контролер (процесор) для управління масивом накопичувачів. Наприклад, в якості такого контролера може виступати RAID-контролер з можливістю організації RAID-масивів різних рівнів.

Мал. 1. Приклад DAS-системи зберігання даних

Слід зазначити, що автономні DAS-системи можуть мати кілька зовнішніх каналів введення-виведення, що забезпечує можливість підключення до DAS-системі декількох комп’ютерів одночасно.

Як інтерфейсів для підключення накопичувачів (внутрішніх або зовнішніх) в технології DAS можуть виступати інтерфейси SCSI (Small Computer Systems Interface), SATA, PATA і Fibre Channel. Якщо інтерфейси SCSI, SATA і PATA використовуються переважно для підключення внутрішніх накопичувачів, то інтерфейс Fibre Channel застосовується виключно для підключення зовнішніх накопичувачів і автономних СГД. Перевага інтерфейсу Fibre Channel полягає в даному разі в тому, що він не має жорсткого обмеження по довжині і може використовуватися в тому випадку, коли сервер або ПК, що підключається до DAS-системі, знаходиться на значній відстані від неї. Інтерфейси SCSI та SATA також можуть використовуватися для підключення зовнішніх СГД (в цьому випадку інтерфейс SATA називають eSATA), проте дані інтерфейси мають суворе обмеження по максимальній довжині кабелю, що з’єднує DAS-систему і підключається сервер.

До основних переваг DAS-систем можна віднести їх низьку вартість (в порівнянні з іншими рішеннями СГД), простоту розгортання і адміністрування, а також високу швидкість обміну даними між системою зберігання і сервером. Власне, саме завдяки цьому вони завоювали велику популярність в сегменті малих офісів і невеликих корпоративних мереж. У той же час DAS-системи мають і свої недоліки, до яких можна віднести слабку керованість і неоптимальну утилізацію ресурсів, оскільки кожна DAS-система вимагає підключення виділеного сервера.

В даний час DAS-системи займають лідируюче положення, однак частка продажів цих систем постійно зменшується. На зміну DAS-системам поступово приходять або універсальні рішення з можливістю плавної міграції з NAS-систем, або системи, що передбачають можливість їх використання як в якості DAS-, так і NAS- і навіть SAN-систем.

Системи DAS слід використовувати при необхідності збільшення дискового простору одного сервера і винесення його за корпус. Також DAS-системи можна рекомендувати до застосування для робочих станцій, обробних великі обсяги інформації (наприклад, для станцій нелінійного відеомонтажу).

Network Attached Storage (NAS)

NAS-системи — це мережеві системи зберігання даних, що підключаються безпосередньо до мережі точно так же, як і мережевий принт-сервер, маршрутизатор або будь-яке інше мережеве пристрій (рис. 2). Фактично NAS-системи являють собою еволюцію файл-серверів: різниця між традиційним файл-сервером і NAS-пристроєм приблизно така ж, як між апаратним мережевим маршрутизатором і програмним маршрутизатором на основі виділеного сервера.

Мал. 2. Приклад NAS-системи зберігання даних

Для того щоб зрозуміти різницю між традиційним файл-сервером і NAS-пристроєм, давайте згадаємо, що традиційний файл-сервер являє собою виділений комп’ютер (сервер), на якому зберігається інформація, доступна користувачам мережі. Для зберігання інформації можуть використовуватися жорсткі диски, що встановлюються в сервер (як правило, вони встановлюються в спеціальні кошики), або до сервера можуть підключатися DAS-пристрої. Адміністрування файл-сервера виробляється з використанням серверної операційної системи. Такий підхід до організації систем зберігання даних в даний час є найбільш популярним в сегменті невеликих локальних мереж, однак він має один істотний недолік. Справа в тому, що універсальний сервер (та ще в поєднанні з серверної операційної системою) — це аж ніяк не дешеве рішення. У той же час більшість функціональних можливостей, Властивих універсального сервера, в файл-сервері просто не використовується. Ідея полягає в тому, щоб створити оптимізований файл-сервер з оптимізованої операційною системою і збалансованої конфігурацією. Саме цю концепцію і втілює в собі NAS-пристрій. У цьому сенсі NAS-пристрої можна розглядати як «тонкі» файл-сервери, або, як їх інакше називають, файлери (filers).

Крім оптимізованої ОС, звільненої від всіх функцій, не пов’язаних з обслуговуванням файлової системи і реалізацією введення-виведення даних, NAS-системи мають оптимізовану по швидкості доступу файлову систему. NAS-системи проектуються таким способом, що вся їх обчислювальна потужність фокусується виключно на операціях обслуговування і зберігання файлів. Сама операційна система розташовується у флеш-пам’яті та встановлюється фірмою-виробником. Природно, що з виходом нової версії ОС користувач може самостійно «перепрошити» систему. Підключення NAS-пристроїв до мережі і їх конфігурація є досить просту задачу і під силу будь-якому досвідченому користувачеві, не кажучи вже про системний адміністратора.

Таким чином, в порівнянні з традиційними файловими серверами NAS-пристрої є більш продуктивними і менш дорогими. В даний час практично всі NAS-пристрої орієнтовані на використання в мережах Ethernet (Fast Ethernet, Gigabit Ethernet) На основі протоколів TCP / IP. Доступ до пристроїв NAS проводиться за допомогою спеціальних протоколів доступу до файлів. Найбільш поширеними протоколами файлового доступу є протоколи CIFS, NFS і DAFS.

CIFS(Common Internet File System System — загальна файлова система Інтернету) — це протокол, який забезпечує доступ до файлів і сервісів на віддалених комп’ютерах (в тому числі і в Інтернет) і використовує клієнт-серверну модель взаємодії. Клієнт створює запит до сервера на доступ до файлів, сервер виконує запит клієнта і повертає результат своєї роботи. Протокол CIFS традиційно використовується в локальних мережах з ОС Windows для доступу до файлів. Для транспортування даних CIFS використовує TCP / IP-протокол. CIFS забезпечує функціональність, схожу на FTP (File Transfer Protocol), але надає клієнтам покращений контроль над файлами. Він також дозволяє розділяти доступ до файлів між клієнтами, використовуючи блокування і автоматичне відновлення зв’язку з сервером в разі збою мережі.

протокол NFS (Network File System — мережева файлова система) традиційно застосовується на платформах UNIX і являє собою сукупність розподіленої файлової системи і мережевого протоколу. У протоколі NFS також використовується клієнт-серверна модель взаємодії. Протокол NFS забезпечує доступ до файлів на віддаленому хості (сервері) так, як якщо б вони перебували на комп’ютері користувача. Для транспортування даних NFS використовує протокол TCP / IP. Для роботи NFS в Інтернeте був розроблений протокол WebNFS.

протокол DAFS(Direct Access File System — прямий доступ до файлової системи) — це стандартний протокол файлового доступу, який заснований на NFS. Даний протокол дозволяє прикладним завданням передавати дані в обхід операційної системи і її буферного простору безпосередньо до транспортних ресурсів. Протокол DAFS забезпечує високі швидкості файлового введення-виведення і знижує завантаження процесора завдяки значному зменшенню кількості операцій і переривань, які зазвичай необхідні при обробці мережевих протоколів.

DAFS проектувався з орієнтацією на використання в кластерному і серверному оточенні для баз даних і різноманітних Інтернет-додатків, орієнтованих на безперервну роботу. Він забезпечує найменші затримки доступу до загальних файлових ресурсів і даними, а також підтримує інтелектуальні механізми відновлення працездатності системи і даних, що робить його привабливим для використання в NAS-системах.

Резюмуючи вищевикладене, NAS-системи можна рекомендувати для використання в мультиплатформових мережах в разі, коли потрібно мережевий доступ до файлів і досить важливими факторами є простота установки адміністрування системи зберігання даних. Прекрасним прикладом є застосування NAS як файл-сервера в офісі невеликої компанії.

Storage Area Network (SAN)

Власне, SAN — це вже не окремий пристрій, а комплексне рішення, що представляє собою спеціалізовану мережеву інфраструктуру для зберігання даних. Мережі зберігання даних інтегруються в вигляді окремих спеціалізованих підмереж до складу локальної (LAN) або глобальної (WAN) мережі.

По суті, SAN-мережі пов’язують один або кілька серверів (SAN-серверів) з одним або декількома пристроями зберігання даних. SAN-мережі дозволяють будь-якому SAN-серверу отримувати доступ до будь-якого пристрою зберігання даних, не завантажуючи при цьому ні інші сервери, ні локальну мережу. Крім того, можливий обмін даними між пристроями зберігання даних без участі серверів. Фактично SAN-мережі дозволяють дуже великому числу користувачів зберігати інформацію в одному місці (з швидким централізованим доступом) і спільно використовувати її. Як пристрої зберігання даних можуть використовуватися RAID-масиви, різні бібліотеки (стрічкові, магнітооптичні і ін.), А також JBOD-системи (масиви дисків, не об’єднані в RAID).

Мережі зберігання даних почали інтенсивно розвиватися і впроваджуватися лише з 1999 року.

Подібно до того як локальні мережі в принципі можуть будуватися на основі різних технологій і стандартів, для побудови мереж SAN також можуть застосовуватися різні технології. Але точно так само, як стандарт Ethernet (Fast Ethernet, Gigabit Ethernet) став стандартом де-факто для локальний мереж, в мережах зберігання даних домінує стандарт Fibre Channel (FC). Власне, саме розвиток стандарту Fibre Channel призвело до розвитку самої концепції SAN. У той же час необхідно відзначити, що все більшої популярності набуває стандарт iSCSI, на основі якого теж можлива побудова SAN-мереж.

Поряд зі швидкісними параметрами одним з найважливіших переваг Fibre Channel є можливість роботи на великих відстанях і гнучкість топології. Концепція побудови топології мережі зберігання даних базується на тих же принципах, що і традиційні локальні мережі на основі комутаторів і маршрутизаторів, що значно спрощує побудову багатовузлових конфігурацій систем.

Варто зазначити, що для передачі даних в стандарті Fibre Channel використовуються як оптоволоконні, так і мідні кабелі. При організації доступу до територіально віддалених вузлів на відстані до 10 км використовується стандартна апаратура і одномодовое оптоволокно для передачі сигналу. Якщо ж вузли рознесені на більшу відстань (десятки або навіть сотні кілометрів), застосовуються спеціальні підсилювачі.

Топологія SAN-мережі

Типовий варіант SAN-мережі на основі стандарту Fibre Channel показаний на рис. 3. Інфраструктуру такий SAN-мережі становлять пристрої зберігання даних з інтерфейсом Fibre Channel, SAN-сервери (сервери, що підключаються як до локальної мережі по інтерфейсу Ethernet, так і до SAN-мережі по інтерфейсу Fiber Channel) і комутаційна фабрика (Fibre Channel Fabric) , яка будується на основі Fibre Channel-комутаторів (концентраторів) і оптимізована для передачі великих блоків даних. Доступ мережевих користувачів до системи зберігання даних реалізується через SAN-сервери. При цьому важливо, що трафік усередині SAN-мережі відділений від IP-трафіку локальної мережі, що, безумовно, дозволяє знизити завантаження локальної мережі.

Мал. 3. Типова схема SAN-мережі

Переваги SAN-мереж

До основних переваг технології SAN можна віднести високу продуктивність, високий рівень доступності даних, відмінну масштабованість і керованість, можливість консолідації та віртуалізації даних.

Комутаційні фабрики Fiber Channel з неблокірующіх архітектурою дозволяють реалізувати одночасний доступ безлічі SAN-серверів до пристроїв зберігання даних.

В архітектурі SAN дані можуть легко переміщатися з одного пристрою зберігання даних на інше, що дозволяє оптимізувати розміщення даних. Це особливо важливо в тому випадку, коли декільком SAN-серверів потрібно одночасний доступ до одних і тих же пристроїв зберігання даних. Відзначимо, що процес консолідації даних неможливий в разі використання інших технологій, як, наприклад, при застосуванні DAS-пристроїв, тобто пристроїв зберігання даних, безпосередньо приєднуються до серверів.

Інша можливість, яку надає архітектурою SAN, — це віртуалізація даних. Ідея віртуалізації полягає в тому, щоб забезпечити SAN-серверам доступ не до окремих пристроїв зберігання даних, а до ресурсів. Тобто сервери повинні «бачити» не пристрої зберігання даних, а віртуальні ресурси. Для практичної реалізації віртуалізації між SAN-серверами і дисковими пристроями може розміщуватися спеціальний пристрій віртуалізації, до якого з одного боку підключаються пристрої зберігання даних, а з іншого — SAN-сервери. Крім того, багато сучасних FC-комутатори і HBA-адаптери надають можливість реалізації віртуалізації.

Наступна можливість, яку надає SAN-мережами, — це реалізація віддаленого віддзеркалення даних. Принцип віддзеркалення даних полягає в дублюванні інформації на кілька носіїв, що підвищує надійність зберігання інформації. Прикладом найпростішого випадку віддзеркалення даних може служити об’єднання двох дисків в RAID-масив рівня 1. У даному випадку одна і та ж інформація записується одночасно на два диска. Недоліком такого способу можна вважати локальне розташування обох дисків (як правило, диски знаходяться в одній і тій же кошику або стійці). Мережі зберігання даних дозволяють подолати цей недолік і надають можливість організації зеркалирования не просто окремих пристроїв зберігання даних, а самих SAN-мереж, які можуть бути віддалені один від одного на сотні кілометрів.

Ще одна перевага SAN-мереж полягає в простоті організації резервного копіювання даних. Традиційна технологія резервного копіювання, яка використовується в більшості локальних мереж, вимагає виділеного Backup-сервера і, що особливо важливо, виділеної смуги пропускання мережі. Фактично під час операції резервного копіювання сам сервер стає недоступним для користувачів локальної мережі. Власне, саме тому резервне копіювання проводиться, як правило, в нічний час.

Архітектура мереж зберігання даних дозволяє принципово по-іншому підійти до проблеми резервного копіювання. В цьому випадку Backup-сервер є складовою частиною SAN-мережі і підключається безпосередньо до комутаційної фабриці. В цьому випадку Backup-трафік виявляється ізольованим від трафіку локальної мережі.

Обладнання, що використовується для створення SAN-мереж

Як уже зазначалося, для розгортання SAN-мережі потрібні пристрої зберігання даних, SAN-сервери і обладнання для побудови комутаційної фабрики. Комутаційні фабрики включають як пристрої фізичного рівня (кабелі, коннектори), так і пристрої підключення (Interconnect Device) для зв’язку вузлів SAN один з одним, пристрої трансляції (Translation devices), що виконують функції перетворення протоколу Fibre Channel (FC) в інші протоколи, наприклад SCSI, FCP, FICON, Ethernet, ATM або SONET.

кабелі

Як уже зазначалося, для з’єднання SAN-пристроїв стандарт Fibre Channel допускає використання як волоконно-оптичних, так і мідних кабелів. При цьому в одній SAN-мережі можуть застосовуватися різні типи кабелів. Мідний кабель використовується для коротких відстаней (до 30 м), а волоконно-оптичний — як для коротких, так і для відстаней до 10 км і більше. Застосовують як багатомодовий (Multimode), так і одномодовий (Singlemode) волоконно-оптичні кабелі, причому багатомодовий використовується для відстаней до 2 км, а одномодовий — для великих відстаней.

Співіснування різних типів кабелів в межах однієї SAN-мережі забезпечується за допомогою спеціальних конверторів інтерфейсів GBIC (Gigabit Interface Converter) і MIA (Media Interface Adapter).

У стандарті Fibre Channel передбачено кілька можливих швидкостей передачі (див. Таблицю). Відзначимо, що в даний час найбільш поширені FC-пристрої стандартів 1, 2 і 4 GFC. При цьому забезпечується зворотний сумісність більш швидкісних пристроїв з менш швидкісними, тобто пристрій стандарту 4 GFC автоматично підтримує підключення пристроїв стандартів 1 і 2 GFC.

Пристрої підключення (Interconnect Device)

У стандарті Fibre Channel допускається використання різних мережевих топологій підключення пристроїв, таких як «точка-точка» (Point-to-Point), кільце з розділяються доступом (Arbitrated Loop, FC-AL) і коммутируемая зв’язкова архітектура (switched fabric).

Топологія «точка-точка» може застосовуватися для підключення сервера до виділеної системі зберігання даних. У цьому випадку дані не використовуються спільно з серверами SAN-мережі. Фактично дана топологія є варіантом DAS-системи.

Для реалізації топології «точка-точка», як мінімум, необхідний сервер, оснащений адаптером Fibre Channel, і пристрій зберігання даних з інтерфейсом Fibre Channel.

Топологія кільця з розділеним доступом (FC-AL) має на увазі схему підключення пристроїв, при якому дані передаються по логічно замкнутому контуру. При топології кільця FC-AL в якості пристроїв підключення можуть виступати концентратори або комутатори Fibre Channel. При використанні концентраторів смуга пропускання ділиться між усіма вузлами кільця, в той час як кожен порт комутатора надає протокольну смугу пропускання для кожного вузла.

На рис. 4 показаний приклад кільця Fibre Channel з поділом доступу.

Мал. 4. Приклад кільця Fibre Channel з поділом доступу

Конфігурація аналогічна фізичної зірці і логічному кільцю, використовуваним в локальних мережах на базі технології Token Ring. Крім того, як і в мережах Token Ring, дані переміщаються по кільцю в одному напрямку, але, на відміну від мереж Token Ring, пристрій може запросити право на передачу даних, а не чекати отримання порожнього маркера від комутатора. Кільця Fibre Channel з поділом доступу можуть адресувати до 127 портів, однак, як показує практика, типові кільця FC-AL містять до 12 вузлів, а після підключення 50 вузлів продуктивність катастрофічно знижується.

Топологія комутованою зв’язковий архітектури (Fibre Channel switched-fabric) реалізується на базі Fibre Channel-комутаторів. У даній топології кожен пристрій має логічне підключення до будь-якого іншого пристрою. Фактично Fibre Channel-комутатори зв’язковий архітектури виконують ті ж функції, що і традиційні Ethernet-комутатори. Нагадаємо, що, на відміну від концентратора, комутатор — це високошвидкісне пристрій, який забезпечує підключення по схемі «кожен з кожним» і обробляє кілька одночасних підключень. Будь-вузол, підключений до Fibre Channel-комутатора, отримує протокольну смугу пропускання.

У більшості випадків при створенні великих SAN-мереж використовується змішана топологія. На нижньому рівні застосовуються FC-AL-кільця, підключені до малопродуктивним комутаторів, які, в свою чергу, підключаються до високошвидкісних комутаторів, що забезпечує максимально можливу пропускну здатність. Кілька комутаторів можуть бути з’єднані один з одним.

пристрої трансляції

Пристрої трансляції є проміжними пристроями, які виконують перетворення протоколу Fibre Channel в протоколи більш високих рівнів. Ці пристрої призначені для з’єднання Fibre Channel-мережі з зовнішньої WAN-мережею, локальною мережею, а також для приєднання до Fibre Channel-мережі різних пристроїв і серверів. До таких пристроїв відносяться мости (Bridge), Fibre Channel-адаптери (Host Bus Adapters (HBA), маршрутизатори, шлюзи і мережеві адаптери. Класифікація пристроїв трансляції показана на рис. 5.

Мал. 5. Класифікація пристроїв трансляції

Найбільш поширеними пристроями трансляції є HBA-адаптери з інтерфейсом PCI, які застосовуються для підключення серверів до мережі Fibre Channel. Мережеві адаптери дозволяють підключати локальні Ethernet-мережі до мереж Fibre Channel. Мости використовуються для підключення пристроїв зберігання даних з SCSI інтерфейсом до мережі на базі Fibre Channel. Cлід відзначити, що останнім часом практично всі пристрої зберігання даних, які призначені для застосування в SAN, мають вбудований Fibre Channel і не вимагають використання мостів.

Пристрої зберігання даних

Як пристрої зберігання даних в SAN-мережах можуть використовуватися як жорсткі диски, так і стрічкові накопичувачі. Якщо говорити про можливі конфігурації застосування жорстких дисків в якості пристроїв зберігання даних в SAN-мережах, то це можуть бути як масиви JBOD, так і RAID-масиви дисків. Традиційно пристрої зберігання даних для SAN-мереж випускаються у вигляді зовнішніх стійок або кошиків, оснащених спеціалізованим RAID-контролером. На відміну від NAS- або DAS-пристроїв, пристрої для SAN-систем оснащуються Fibre Channel-інтерфейсом. При цьому самі диски можуть мати як SCSI-, так і SATA-інтерфейс.

Крім пристроїв зберігання на основі жорстких дисків, в SAN-мережах широке застосування знаходять стрічкові накопичувачі та бібліотеки.

SAN-сервери

Сервери для мереж SAN відрізняються від звичайних серверів додатків тільки однією деталлю. Крім мережевого Ethernet-адаптера, для взаємодії сервера з локальною мережею вони оснащуються HBA-адаптером, що дозволяє підключати їх до SAN-мереж на основі Fibre Channel.

Системи зберігання даних компанії Intel

Далі ми розглянемо кілька конкретних прикладів пристроїв зберігання даних компанії Intel. Строго кажучи, компанія Intel не випускає закінчених рішень і займається розробкою і виробництвом платформ і окремих компонентів для побудови систем зберігання даних. На основі даних платформ багато компаній (в тому числі і цілий ряд російських компаній) виробляють вже закінчені рішення і продають їх під своїми логотипами.

Intel Entry Storage System SS4000-E

Система зберігання даних Intel Entry Storage System SS4000-E являє собою NAS-пристрій, призначений для застосування в невеликих і середніх офісах і багатоплатформених локальних мережах. При використанні системи Intel Entry Storage System SS4000-E розділяється мережевий доступ до даних отримують клієнти на основі Windows-, Linux- і Macintosh-платформ. Крім того, Intel Entry Storage System SS4000-E може виступати як в ролі DHCP-сервера, так і DHCP-клієнта.

Система зберігання даних Intel Entry Storage System SS4000-E являє собою компактну зовнішню стійку з можливістю установки до чотирьох дисків з інтерфейсом SATA (рис. 6). Таким чином, максимальна ємність системи може становити 2 Тбайт при використанні дисків ємністю 500 Гбайт.

Мал. 6. Система зберігання даних Intel Entry Storage System SS4000-E

В системі Intel Entry Storage System SS4000-E застосовується SATA RAID-контролер з підтримкою рівнів RAID-масивів 1, 5 і 10. Оскільки дана система є NAS-пристроєм, тобто фактично «тонким» файл-сервером, система зберігання даних повинна мати спеціалізований процесор, пам’ять і прошиту операційну систему. Як процесор в системі Intel Entry Storage System SS4000-E застосовується Intel 80219 з тактовою частотою 400 МГц. Крім того, система оснащена 256 Мбайт пам’яті DDR і 32 Мбайт флеш-пам’яті для зберігання операційної системи. В якості операційної системи використовується Linux Kernel 2.6.

Для підключення до локальної мережі в системі передбачений двоканальний гігабітний мережевий контролер. Крім того, є також два порти USB.

Пристрій зберігання даних Intel Entry Storage System SS4000-E підтримує протоколи CIFS / SMB, NFS і FTP, а настройка пристрою реалізується з використанням web-інтерфейсу.

У разі застосування Windows-клієнтів (підтримуються ОС Windows 2000/2003 / XP) додатково є можливість реалізації резервного копіювання та відновлення даних.

Intel Storage System SSR212CC

Система Intel Storage System SSR212CC являє собою універсальну платформу для створення систем зберігання даних типу DAS, NAS і SAN. Ця система виконана в корпусі висотою 2 U і призначена для монтажу в стандартну 19-дюймову стійку (рис. 7). Система Intel Storage System SSR212CC підтримує установку до 12 дисків з інтерфейсом SATA або SATA II (підтримується функція гарячої заміни), що дозволяє нарощувати місткість системи до 6 Тбайт при використанні дисків ємністю по 550 Гбайт.

Мал. 7. Система зберігання даних Intel Storage System SSR212CC

Фактично система Intel Storage System SSR212CC є повноцінним високопродуктивний сервер, що функціонує під управлінням операційних систем Red Hat Enterprise Linux 4.0, Microsoft Windows Storage Server 2003 Microsoft Windows Server 2003 Enterprise Edition і Microsoft Windows Server 2003 Standard Edition.

Основу сервера становить процесор Intel Xeon з тактовою частотою 2,8 ГГц (частота FSB 800 МГц, розмір L2-кеша 1 Мбайт). Система підтримує використання пам’яті SDRAM DDR2-400 з ECC максимальним об’ємом до 12 Гбайт (для установки модулів пам’яті передбачено шість DIMM-слотів).

Система Intel Storage System SSR212CC оснащена двома RAID-контролерами Intel RAID Controller SRCS28Xs з можливістю створення RAID-масивів рівнів 0, 1, 10, 5 і 50. Крім того, система Intel Storage System SSR212CC має двоканальний гігабітний мережевий контролер.

Intel Storage System SSR212MA

Система Intel Storage System SSR212MA представляє собою платформу для створення систем зберігання даних в IP SAN-мережах на основі iSCSI.

Дана система виконана в корпусі висотою 2 U і призначена для монтажу в стандартну 19-дюймову стійку. Система Intel Storage System SSR212MA підтримує установку до 12 дисків з інтерфейсом SATA (підтримується функція гарячої заміни), що дозволяє нарощувати місткість системи до 6 Тбайт при використанні дисків ємністю по 550 Гбайт.

За своєю апаратної конфігурації система Intel Storage System SSR212MA не відрізняється від системи Intel Storage System SSR212CC.

У цій статті мова піде про системи зберігання даних початкового і середнього рівня, а також ті тенденції, які сьогодні яскраво виділяються в цій галузі. Для зручності будемо називати системи зберігання даних накопичувачами.

Спочатку ми трохи зупинимося на термінології і технологічних засадах автономних накопичувачів, а потім перейдемо до новинок і обговоренню сучасних досягнень в різних технологічних і маркетингових групах. Ми також обов’язково розповімо про те, навіщо потрібні системи того чи іншого виду і наскільки ефективним є їх використання в різних ситуаціях.

Автономні дискові підсистеми

Для того, щоб краще зрозуміти особливості автономних накопичувачів, зупинимося трохи на одній з простіших технологій побудови систем зберігання даних — шинно-орієнтованої технології. Вона передбачає використання корпусу для дискових накопичувачів і контролера PCI RAID.

Малюнок 1. Шинно-орієнтована технологія постоенія систем зберігання даних

Таким чином, між дисками і PCI-шиною хоста (від англ. Host — в даному випадку автономний комп’ютер, наприклад сервер або робоча станція) є тільки один контролер, який в значній мірі і задає швидкодію системи. Накопичувачі, побудовані за цим принципом, є найбільш продуктивними. Але в зв’язку з архітектурними особливостями практичне їх використання, за винятком рідкісних випадків, обмежується конфігураціями з одним хостом.

До недоліків шинно-орієнтованої архітектури накопичувачів слід віднести:

  • ефективне використання тільки в конфігураціях з одним хостом;
  • залежність від операційної системи і платформи;
  • обмежену масштабованість;
  • обмежені можливості по організації відмовостійких систем.

Природно, все це не має значення, якщо дані потрібні для одного сервера або робочої станції. Навпаки, в такій конфігурації ви отримаєте максимальну швидкодію за мінімальні гроші. Але якщо вам потрібна система зберігання даних для великого обчислювального центру або навіть для двох серверів, яким потрібні одні і ті ж дані, шинно-орієнтована архітектура зовсім не підходить. Недоліків цієї архітектури дозволяє уникнути архітектура автономних дискових підсистем. Основний принцип її побудови досить простий. Контролер, який керує системою, переноситься з хост-комп’ютера в корпус накопичувача, забезпечуючи незалежне від хост-систем функціонування. Слід зазначити, що така система може мати велику кількість зовнішніх каналів введення / виводу, що забезпечує можливість підключення до системи декількох, або навіть багатьох комп’ютерів.


Малюнок 2. Автономна система зберігання даних

Будь-яка інтелектуальна система зберігання даних складається з апаратної частини і програмного коду. В автономній системі завжди є пам’ять, в якій зберігається програма алгоритмів роботи самої системи та процесорні елементи, які цей код обробляють. Така система функціонує незалежно від того, з якими хост-системами вона пов’язана. Завдяки своїй інтелектуальності автономні накопичувачі найчастіше самостійно реалізують безліч функцій щодо забезпечення збереження та управління даними. Одна з найважливіших базових і практично повсюдно використовуваних функцій — це RAID (Redundant Array of Independent Disks). Інша, що належить вже системам середнього і високого рівня — це віртуалізація. Вона забезпечує такі можливості як миттєва копія або віддалене резервування, а також інші, досить витончені алгоритми.

Коротко про SAS, NAS, SAN

В рамках розгляду автономних систем зберігання даних обов’язково слід зупинитися на тому, яким чином здійснюється доступ хост-систем до накопичувачів. Це в значній мірі визначає сфери їх використання і внутрішню архітектуру.

Розрізняють три основні варіанти організації доступу до накопичувачів:

  • SAS (Server Attached Storage) — накопичувач, приєднаний до сервера [друга назва DAS (Direct Attached Storage) — безпосередньо приєднаний накопичувач];
  • NAS (Network Attached Storage) — накопичувач, приєднаний до мережі;
  • SAN (Storage Area Network) — мережа зберігання даних.

Ми вже писали про технології SAS / DAS, NAS і SAN в статті присвяченій SAN, якщо кого ця інформація зацікавить, рекомендуємо звернутися до сторінок iXBT. Але все ж дозволимо собі трошки освіжити матеріал з акцентом на практичне використання.

SAS / DAS — це досить простий традиційний спосіб підключення, який має на увазі пряме (звідси і DAS) під’єднання системи зберігання до однієї або декількох хост-системам через високошвидкісний канальний інтерфейс. Часто в таких системах, для під’єднання накопичувача до хосту використовується такий же інтерфейс, який використовується для доступу до внутрішніх дискам хост-системи, що в загальному випадку забезпечує високу швидкодію і просте підключення.

SAS-систему можна рекомендувати до використання в разі, якщо є потреба в високошвидкісній обробці даних великих обсягів на одній або декількох хост-системах. Це, наприклад, може бути файл-сервер, графічна станція або відмовостійка кластерна система, що складається з двох вузлів.


Малюнок 3. Кластерна система із загальним накопичувачем

NAS — накопичувач, який приєднаний до мережі і забезпечує файловий (зверніть увагу — файловий, а не блоковий) доступ до даних для хост-систем в мережі LAN / WAN. Клієнти, які працює з NAS, для доступу до даних зазвичай використовують протоколи NSF (Network File System) або CIFS (Common Internet File System). NAS інтерпретує команди файлових протоколів і виконує запит до дискових накопичувачів відповідно до використовуваним в ньому канальним протоколом. Фактично, архітектура NAS — це еволюція файлових серверів. Головною перевагою такого рішення є швидкість розгортання і якість організації доступу до файлів, завдяки спеціалізації і вузької спрямованості.

Виходячи зі сказаного, NAS можна рекомендувати для використання в разі, якщо потрібний мережний доступ до файлів і досить важливими факторами є: простота рішення (що зазвичай є певним гарантом якості) і простота його супроводу і установки. Прекрасним прикладом є використання NAS як файл-сервера в офісі невеликої компанії, для якої важлива простота установки і адміністрування. Але в той же час, якщо вам потрібен доступ до файлів з великої кількості хост-систем, потужний NAS-накопичувач, завдяки отточенному спеціалізованому рішенням, здатний забезпечити інтенсивний обмін трафіком з величезним пулом серверів і робочих станцій при досить низькій вартості використовуваної комунікаційної інфраструктури (наприклад , комутаторів Gigabit Ethernet і мідної кручений пари).

SAN — мережа зберігання даних. Зазвичай в SAN використовується блоковий доступ до даних, хоча можливе підключення до мереж зберігання даних пристроїв, що надають файлові сервіси, наприклад NAS. В сучасних реалізаціях мережі зберігання даних найчастіше використовують протокол Fibre Channel, але в загальному випадку це не є обов’язковим, в зв’язку з чим, прийнято виділяти окремий клас Fibre Channel SAN (мережі зберігання даних на основі Fibre Channel).

Основою SAN є окрема від LAN / WAN мережу, яка служить для організації доступу до даних серверів і робочих станцій, які безпосередньо займаються обробкою. Така структура робить побудову систем з високою готовністю і високою інтенсивністю запитів відносно простим завданням. Незважаючи на те, що SAN сьогодні залишається дорогим задоволенням, TCO (загальна вартість володіння) для середніх і великих систем, побудованих з використанням технології мереж зберігання даних, є досить низькою. Опис способів зниження TCO корпоративних систем зберігання даних завдяки SAN можна знайти на сторінках ресурсу techTarget: http://searchstorage.techtarget.com.

Сьогодні вартість дискових накопичувачів з підтримкою Fibre Channel, як найбільш поширеного інтерфейсу для побудови SAN, близька до вартості систем з традиційними недорогими канальними інтерфейсами (такими як паралельний SCSI). Головними вартісними складовими в SAN залишається комунікаційна інфраструктура, а також вартість її розгортання і супроводу. У зв’язку з чим, в рамках SNIA і багатьох комерційних організаціях ведеться активна робота над технологіями IP Storage, що дозволяє використовувати значно більше недорогу апаратуру і інфраструктуру IP-мереж, а також колосальний досвід фахівців в цій сфері.

Прикладів з ефективного використання SAN можна навести досить багато. Практично скрізь, де є необхідність використання декількох серверів зі спільною системою зберігання даних, можна використовувати SAN. Наприклад, для організації колективної роботи над відеоданими або попередньої обробки друкованої продукції. У такій мережі кожен учасник процесу обробки цифрового контенту отримує можливість практично одночасно працювати над терабайт даних. Або, наприклад, організація резервування великих обсягів даних, якими користується безліч серверів. При побудові SAN і використанні незалежного від LAN / WAN алгоритму резервування даних і технологій «моментальної копії», можна резервувати майже будь-які обсяги інформації без шкоди функціональності і продуктивності всього інформаційного комплексу.

Fibre Channel в мережах зберігання даних

Безумовним фактом є те, що сьогодні саме FC (Fibre Channel) домінує в мережах зберігання даних. І саме розвиток цього інтерфейсу призвело до розвитку самої концепції SAN.

У проектуванні FC брали участь фахівці зі значним досвідом у розробці як канальних, так і мережевих інтерфейсів, і їм вдалося об’єднати всі важливі позитивні риси обох напрямків. Одним з найважливіших переваг Fibre Channel поряд зі швидкісними параметрами (які, до речі, не завжди є головними для користувачів SAN, і можуть бути реалізовані за допомогою інших технологій) є можливість роботи на великих відстанях і гнучкість топології, яка прийшла в новий стандарт з мережевих технологій . Таким чином, концепція побудови топології мережі зберігання даних базується на тих же принципах, що і традиційні локальні мережі, на основі концентраторів, комутаторів і маршрутизаторів, що значно спрощує побудову багатовузлових конфігурацій систем, в тому числі без єдиної точки відмов.

Варто також відзначити, що в рамках Fibre Channel для передачі даних використовуються як оптоволоконні, так і мідні середовища. При організації доступу до територіально віддалених вузлів на відстані до 10 километрів використовується стандартна апаратура і одномодовое оптоволокно для передачі сигналу. Якщо ж вузли рознесені на 10-ки або навіть 100-ні кілометрів використовуються спеціальні підсилювачі. При побудові таких SAN враховуються досить нетрадиційні для систем зберігання даних параметри, наприклад, швидкість поширення сигналу в оптоволокне.

Тенденції розвитку систем зберігання даних

Світ систем зберігання даних надзвичайно різноманітний. Можливості систем зберігання даних, так і вартість рішень досить диференційована. Існують рішення, які б поєднували в собі можливості обслуговування сотень тисяч запитів в секунду до десятків і навіть сотень Терабайт даних, а також рішення для одного комп’ютера з недорогими дисками з IDE-інтерфейсом.

IDE RAID

Останнім часом максимальний обсяг дисків з IDE-інтерфейсом колосально збільшився і випереджає SCSI-диски приблизно в два рази, а якщо говорити про співвідношення ціна на одиницю об’єму, то IDE-диски лідирують з розривом більш ніж в 6 разів. Це, на жаль, не вплинуло позитивно на надійність IDE-дисків, але все ж сфера їх застосування в автономних системах зберігання даних невблаганно збільшується. Головним фактором в цьому процесі є те, що потреба у великих обсягах даних зростає швидше, ніж обсяг одиночних дисків.

Ще кілька років тому рідкісні виробники вирішувалися випускати автономні підсистеми, орієнтовані на використання IDE-дисків. Сьогодні їх випускає практично кожен виробник, орієнтований на ринок систем початкового рівня. Найбільшого поширення в класі автономних підсистем з IDE-дисками спостерігається в NAS-системах початкового рівня. Адже якщо ви використовуєте NAS як файловий сервер з інтерфейсом Fast Ethernet або навіть Gigabit Ethernet, то в більшості випадків швидкодії таких дисків є більш ніж достатнім, а їхня низька надійність компенсується використанням технології RAID.

Там, де є потреба у блоковий доступ до даних при мінімальній ціні за одиницю інформації, що зберігається, сьогодні активно використовуються системи з IDE-дисками всередині і з зовнішнім SCSI-інтерфейсом. Наприклад, на системі JetStor IDE виробництва американської компанії AC & NC для побудови отказоустойчивого архіву з обсягом даних, що зберігаються в 10 Терабайт і можливістю швидкого блочного доступу до даних вартість зберігання одного Мегабайта становитиме менше 0,3 цента.

Ще однією цікавою і досить оригінальною технологією, з якою довелося познайомитися зовсім недавно, була система Raidsonic SR-2000 із зовнішнім паралельним IDE-інтерфейсом.


Малюнок 4. Автономний IDE RAID початкового рівня

Це автономна дискова система, розрахована на використання двох IDE дисків і орієнтована на монтаж усередині корпусу хост-системи. Вона абсолютно незалежна від операційної системи на хост-машині. Система дозволяє організувати RAID 1 (дзеркало) або просто копіювання даних з одного диска на інший з можливістю гарячої заміни дисків, без будь-якої шкоди або незручності з боку користувача комп’ютера, чого не скажеш про шинно-орієнтованих підсистемах, побудованих на контролерах PCI IDE RAID .

Слід зауважити, що провідні виробники IDE-дисків анонсували випуск дисків середнього класу з інтерфейсом Serial ATA, в яких будуть використовуватися високорівневі технології. Це повинно сприятливо вплинути на їх надійність і збільшити частку ATA-рішень в системах зберігання даних.

Що нам принесе Serial ATA

Перше і найприємніше, що можна знайти в Serial ATA — це кабель. У зв’язку з тим, що інтерфейс ATA став послідовним, кабель став круглим, а коннектор — вузьким. Якщо вам доводилося укладати кабелі паралельного IDE-інтерфейсу в системі на вісім IDE-каналів, я впевнений, що вам сподобається ця особливість. Звичайно, вже давно існували круглі IDE-кабелі, але коннектор у них все ж залишався широким і плоским, так і максимально допустима довжина паралельного ATA-кабелю не радує. При побудові систем з великою кількістю дисків, наявність стандартного кабелю взагалі не сильно допомагає, так як кабелі доводиться робити самостійно, і при цьому їх укладання стає чи не головною за часом завданням при складанні.

Крім особливості кабельної системи, в Serial ATA є інші нововведення, які для паралельної версії інтерфейсу реалізувати самостійно за допомогою канцелярського ножа і іншого підручного інструменту не вдасться. У дисках з новим інтерфейсом скоро повинна з’явитися підтримка набору інструкцій Native Command Queuing (конвейеризации команд). При використанні Native Command Queuing, контролер Serial ATA аналізує запити вводу-виводу і оптимізує черговість їх виконання таким чином, щоб мінімізувати час пошуку. Досить очевидна схожість ідеї Serial ATA Native Command Queuing з організацією черги команд в SCSI, правда, для Serial ATA буде підтримуватися чергу до 32 команд, а не традиційних для SCSI — 256. З’явилася також рідна підтримка гарячої заміни пристроїв. Звичайно, така можливість існувала і раніше, але її реалізація була за рамками стандарту і, відповідно, не могла набути широкого поширення. Говорячи про нові швидкісні можливості Serial ATA, слід зауважити, що зараз від них радості поки великий немає, але головне тут те, що на майбутнє є хороший Roadmap, реалізувати який в рамках паралельного ATA було б дуже не просто.

З огляду на сказане, можна не сумніватися, що частка ATA-рішень в системах зберігання початкового рівня повинна збільшитися саме за рахунок нових дисків Serial ATA і систем зберігання даних, орієнтованих на використання таких пристроїв.

Куди йде паралельний SCSI

Всі, хто працює з системами зберігання даних, навіть початкового рівня, навряд чи можуть сказати, що їм подобаються системи з IDE-дисками. Головна перевага ATA дисків — їх низька ціна, в порівнянні з SCSI-пристроями ну і ще, напевно, більш низький рівень шуму. І відбувається все це з простої причини, так як SCSI-інтерфейс краще підходить для використання в системах зберігання даних і поки значно дешевше, ніж ще більш функціональний інтерфейс — Fibre Channel, то і диски з SCSI-інтерфейсом виробляються якісніші, надійні і швидкі, ніж з дешевим IDE-інтерфейсом.

Сьогодні багато виробників при проектуванні систем зберігання з паралельним SCSI використовують Ultra 320 SCSI, найновіший інтерфейс в сімействі. Колись у багатьох Roadmap були плани по випуску пристроїв з інтерфейсом Ultra 640 і навіть Ultra 1280 SCSI, але все йшло до того, що в інтерфейсі потрібно щось міняти кардинальним чином. Паралельний SCSI вже зараз, на етапі використання Ultra 320, багатьох не влаштовує, головним чином через незручності використання класичних кабелів.

На щастя, нещодавно з’явився новий інтерфейс Serial Attached SCSI (SAS). У нового стандарту будуть цікаві особливості. Він об’єднує в собі деякі можливості Serial ATA і Fibre Channel. Незважаючи на цю дивину, слід сказати, що в такому переплетенні є якийсь здоровий глузд. Стандарт виник на основі фізичних і електричних специфікацій послідовного ATA з такими вдосконаленнями, як збільшення рівня сигналу для відповідного збільшення довжини кабелю, збільшення максимальної адресованих пристроїв. А найцікавіше те, що технологи обіцяють забезпечити сумісність пристроїв Serial ATA і SAS, але тільки в наступних версіях стандартів.

До найбільш важливих особливостей SAS можна віднести:

  • інтерфейс точка-точка;
  • двоканальний інтерфейс;
  • підтримка 4096 пристроїв в домені;
  • стандартний набір команд SCSI;
  • кабель довжиною до 10 метрів;
  • кабель 4-жильний;
  • повний дуплекс.

Завдяки тому, що новий інтерфейс пропонує використовувати такий же мініатюрний коннектор, як і Serial ATA, у розробників з’являється нова можливість з побудови більш компактних пристроїв з високою продуктивністю. Стандарт SAS також передбачає використання розширювачів. Кожен розширювач буде підтримувати адресацію 64-х пристроїв з можливістю каскадування до 4096 пристроїв в рамках домену. Це звичайно значно менше, ніж можливості Fibre Channel, але в рамках систем зберігання початкового і середнього рівнів, з накопичувачами, безпосередньо приєднаними до сервера, цього цілком достатньо.

Незважаючи на всю красу, інтерфейс Serial Attached SCSI навряд чи швидко буде замість звичайний паралельний інтерфейс. У світі рішень для підприємств розробки зазвичай ведуться більш ретельно і, природно, протягом більшого часу, ніж для настільних систем. Та й ідуть старі технології не дуже швидко, так як період, за який вони відпрацьовують себе, теж немаленький. Але все ж, в році 2004 пристрою з інтерфейсом SAS повинні вийти на ринок. Природно, спочатку це будуть в основному диски і PCI-контролери, але ще через рік підтягнуться і системи зберігання даних.

Для кращого узагальнення інформації пропонуємо ознайомитися з порівнянням сучасних і нових інтерфейсів для систем зберігання даних у вигляді таблиці.

1 — Стандарт регламентує відстань до 10 км для одномодового оптоволокна, існують реалізації пристроїв для передачі даних на відстань більше ніж, 105 м.

2 — В рамках внутрішньої віртуальної топології кільця працюють концентратори і деякі комутатори FC, також існує багато реалізацій комутаторів, які забезпечують з’єднання точка-точка будь-яких пристроїв, приєднаних до них.

3 — Існують реалізації пристроїв зі SCSI, FICON, ESCON, TCP / I, HIPPI, VI протоколами.

4 — Справа в тому, що пристрої будуть взаємно сумісні (так обіцяють зробити в найближчому майбутньому виробники). Тобто SATA-контролери будуть підтримувати SAS-диски, а SAS-контролери — диски SATA.

Масове захоплення NAS

Останнім часом за кордоном відзначається просто-таки масове захоплення NAS-накопичувачами. Справа в тому, що зі збільшенням актуальності орієнтованого на дані підходу до побудови інформаційних систем збільшилася привабливість спеціалізації класичних файл-серверів і формування нової маркетингової одиниці — NAS. При цьому досвід в побудові подібних систем був достатнім для швидкого старту технології накопичувачів, підключених до мережі, а вартість їх апаратної реалізації була гранично низькою. Сьогодні NAS-накопичувачі виробляють практично всі виробники систем зберігання даних, серед них і системи початкового рівня за дуже маленькі гроші, і середнього, і навіть системи, що відповідають за зберігання десятків Терабайт інформації, здатні обробити колосальну кількість запитів. У кожному класі NAS-систем є свої цікаві оригінальні рішення.

NAS на основі PC за 30 хвилин

Ми хочемо трохи описати одне оригінальне рішення початкового рівня. Про практичну цінність його реалізації можна сперечатися, але в оригінальності йому не відмовиш.

По суті справи, NAS-накопичувач початкового рівня, та й не тільки початкової, є досить простим персональним комп’ютером з деякою кількістю дисків і програмною частиною, яка забезпечує доступ інших учасників мережі до даних на файловому рівні. Таким чином, для побудови NAS пристрої досить взяти зазначені компоненти і з’єднати їх між собою. Вся справа в тому, наскільки якісно ви це зробите, настільки ж надійний і якісний доступ до даних отримає робоча група, яка працює з даними, доступ до яких забезпечує ваш пристрій. Саме з огляду на ці фактори, а також час розгортання рішення, плюс деякі дизайнерські вишукування будується NAS-накопичувач початкового рівня.

Різниця між хорошим NAS-рішенням початкового рівня з самостійно зібраної і налаштованої в рамках обраної ОС персоналкой, якщо знову-таки опустити конструктивне виконання, буде в тому:

  • наскільки швидко ви це зробите;
  • наскільки просто зможе обслуговуватися ця система не мають відповідної кваліфікації персоналом;
  • наскільки якісно це рішення буде працювати і підтримуватися.

Іншими словами, в разі професійного підбору комплектуючих і існування якогось спочатку налаштованого набору програмного забезпечення, можна досягти хорошого результату. Істина на кшталт банальна, це ж можна сказати про будь-якого завдання, яка вирішується за схемою готових компонентних рішень: «hardware» плюс «software».

Що пропонує зробити компанія «X»? Формується досить обмежена список сумісних комплектуючих: материнських плат з усім інтегрованим господарством, потрібних NAS-сервера початкового рівня жорстких дисків. Ви купуєте встановлюється в IDE-роз’єм на материнській платі FLASH диск із записаним програмним забезпеченням і отримуєте готовий NAS накопичувач. Операційна система і утиліти, записані на цей диск, завантажуючись, конфігурують потрібні модулі адекватним чином. І в результаті користувач отримує пристрій, який може управлятися як локально, так і віддалено через HTML-інтерфейс і надавати доступ до дискових накопичувачів, підключеним до нього.

Файлові протоколи в сучасних NAS

CIFS (Common Internet File System) — це стандартний протокол, який забезпечує доступ до файлів і сервісів на віддалених комп’ютерах (в тому числі і в Інтернет). Протокол використовує клієнт-серверну модель взаємодії. Клієнт створює запит до сервера на доступ до файлів або надіслати повідомлення програмі, яка знаходиться на сервері. Сервер виконує запит клієнта і повертає результат своєї роботи. CIFS — це відкритий стандарт, який виник на основі SMB-протоколу (Server Message Block Protocol), розробленого Microsoft, але, на відміну від останнього, CIFS враховує можливість виникнення великих таймаутів, тому що орієнтований на використання в тому числі і в розподілених мережах. SMB-протокол традиційно використовувався в локальних мережах з ОС Windows для доступу до файлів і друку. Для транспортування даних CIFS використовує TCP / IP протокол. CIFS забезпечує функціональність схожу на FTP (File Transfer Protocol), але надає клієнтам покращений (схожий на прямий) контроль над файлами. Він також дозволяє розділяти доступ до файлів між клієнтами, використовуючи блокування і автоматичне відновлення зв’язку з сервером в разі збою мережі.

NFS (Network File System) — це стандарт IETF, який включає в себе розподілену файлову систему і мережевий протокол. NFS був розроблений компанією Sun Microsystem Computer Corporation. Він спочатку використовувався тільки в UNIX-системах, пізніше реалізації клієнтської і серверної чатей стали поширеними і в інших системах.

NFS, як і CIFS, використовує клієнт-серверну модель взаємодії. Він забезпечує доступ до файлів на віддаленому комп’ютері (сервері) для запису і зчитування так, як якщо б вони перебували на комп’ютері користувача. У ранніх версіях NFS для транспортування даних використовувався UDP-протокол, в сучасних — використовується TCP / IP. Для роботи NFS в інтерент компанією Sun був розроблений протокол WebNFS, який використовує розширення функціональності NFS для його коректної роботи у всесвітній мережі.

DAFS (Direct Access File System) — це стандартний протокол файлового доступу, який базується на NFSv4. Він дозволяє прикладним завданням передавати дані в обхід операційної системи і її буферного простору безпосередньо до транспортних ресурсів, зберігаючи семантику, властиву файловим системам. DAFS використовує переваги новітніх технологій передачі даних по схемі пам’ять-пам’ять. Його використання забезпечує високі швидкості файлового введення-виведення, мінімальну завантаження CPU і всієї системи, завдяки значному зменшенню кількості операцій і переривань, які зазвичай необхідні при обробці мережевих протоколів. Особливо ефективним є використання апаратних засобів підтримки VI (Virtual Interface).

DAFS проектувався з орієнтацією на використання в кластерному і серверному оточенні для баз даних і різноманітних інтернет-додатків, орієнтованих на безперервну роботу. Він забезпечує найменші затримки доступу до загальних файлових ресурсів і даними, а також підтримує інтелектуальні механізми відновлення працездатності системи і даних, що робить його дуже привабливим для використання в High-End NAS-накопичувачах.

Всі дороги ведуть до IP Storage

У системах зберігання даних високого і середнього рівня за останні кілька років з’явилося дуже багато нових цікавих технологій.

Fibre Channel мережі зберігання даних сьогодні вже досить відома і популярна технологія. У той же час, їх масове поширення сьогодні є проблематичним через низку особливостей. До них можна віднести високу вартість реалізації і складність побудови географічно розподілених систем. З одного боку — це всього лише особливості технології рівня підприємства, але з іншого, якщо SAN стане дешевше, і побудова розподілених систем спроститься, це повинно дати просто-таки колосальний прорив у розвитку мереж зберігання даних.

В рамках роботи над мережевими технологіями зберігання даних в Internet Engineering Task Force (IETF) була створена робоча група і форум IP Storage (IPS) за напрямками:

FCIP — Fibre Channel over TCP / IP, створений на базі TCP / IP тунельний протокол, функцією якого є поєднання географічно віддалених FC SAN без будь-якого впливу на FC і IP протоколи.

iFCP — Internet Fibre Channel Protocol, створений на базі TCP / IP протокол для з’єднання FC систем зберігання даних чи FC мереж зберігання даних, використовуючи IP інфраструктуру спільно або замість FC комутаційних і маршрутизирующих елементів.

iSNS — Internet Storage Name Service, протокол підтримки імен накопичувачів в мережі Інтернет.

iSCSI — Internet Small Computer Systems Interface, це протокол, який базується на TCP / IP і розроблений для встановлення взаємодії і управління системами зберігання даних, серверами і клієнтами (Визначення SNIA — IP Storage Forum:).

Самим бурхливо розвиваються і найцікавішим з перерахованих напрямків є iSCSI.

iSCSI — новий стандарт

11 лютого 2003 року iSCSI став офіційним стандартом. Ратифікація iSCSI обов’язково вплине на більш широкий інтерес до стандарту, який вже розвивається досить активно. Швидше за все розвиток iSCSI послужить поштовхом до поширення SAN в малому і середньому бізнесі, так як використання відповідного стандарту обладнання і підходу до обслуговування (в тому числі поширеного в рамках стандартних Ethernet мереж) дозволить зробити мережі зберігання даних значно дешевше. Що ж стосується використання iSCSI в Інтернет, то сьогодні тут вже непогано прижився FCIP, і конкуренція з ним буде важкою.

Новий стандарт охоче підтримали відомі IT-компанії. Є, звичайно, і противники, але все ж, практично всі компанії, які активно беруть участь в ринку систем початкового і середнього рівня, вже працюють над пристроями з підтримкою iSCSI. У Windows і Linux iSCSI драйвери вже включені, системи зберігання даних iSCSI виробляє IBM, адаптери — Intel, найближчим часом підключитися до процесу освоєння нового стандарту обіцяють HP, Dell, EMC.

Однією з дуже цікавих особливостей iSCSI є те, що для передачі даних на накопичувачі з інтерфейсом iSCSI можна використовувати не тільки носії, комутатори і маршрутизатори існуючих мереж LAN / WAN, а й звичайні мережеві адаптери Fast Ethernet або Gigabit Ethernet на стороні клієнта. Правда, при цьому виникають значні накладні витрати процесорної потужності ПК, який використовує такий адаптер. За твердженням розробників, програмна реалізація iSCSI може досягти швидкостей середовища передачі даних Gigabit Ethernet при значній, до 100% завантаженні сучасних CPU. У зв’язку з чим рекомендується використання спеціальних мережевих карток, які будуть підтримувати механізми розвантаження CPU від обробки стека TCP.

Віртуалізація в мережах зберігання даних

YOщё однією важливою технологією в побудові сучасних накопичувачів і мереж зберігання даних є віртуалізація.

Віртуалізація систем зберігання даних — це уявлення фізичних ресурсів в якомусь логічному, більш зручному вигляді. Ця технологія дозволяє гнучко розподіляти ресурси між користувачами і ефективно ними управляти. В рамках віртуалізації успішно реалізується віддалене копіювання, моментальна копія, розподіл запитів вводу-виводу на найбільш підходящі за характером обслуговування накопичувачі і безліч інших алгоритмів. Реалізація алгоритмів віртуалізації може здійснюватися як засобами самого накопичувача, так і за допомогою зовнішніх пристроїв віртуалізації або ж за допомогою керуючих серверів, на яких працює спеціалізоване програмне забезпечення під стандартними ОС.

Це, звичайно, дуже мала частина того, що можна сказати про віртуалізації. Ця тема дуже цікава і обширна, тому ми вирішили присвятити їй окрему публікацію.

Надіслати питання за рішенням
По буднях відповідаємо
протягом години

Андрій Оловянніков,[Email protected]сайт

Давайте домовимося….

Метою цієї статті є не докладне вивчення різних систем зберігання даних (СЗД). Ми не будемо аналізувати всілякі інтерфейси — програмні і апаратні — які використовуються при створенні різних способів зберігання даних. Не будемо розглядати «вузькі місця» тих чи інших різновидів організації СГД. Тут ви не побачите докладного розгляду протоколів iSCSI і їх реалізації у вигляді FC (Fibre Channel), SCSI і т.д.

Наше завдання куди скромніше — просто «Домовитися про термінологію» з нашим потенційним покупцем. Так два фізика перед початком обговорення будь-якої проблеми, приходять до угоди про те, який процес або явище вони будуть позначати тими чи іншими словами. Це необхідно для того, щоб заощадити і час і нервові клітини один одного, і проводити бесіду більш продуктивно і до взаємного задоволення.

СГД або … СГД?

Почнемо, як то кажуть, з початку.

Під СГД ми будемо розуміти все ж Системи Зберігання Даних як сукупність програмно-апаратних засобів, що служать для надійного, максимально швидкісного і простого способу зберігання і доступу до даних для організацій різного рівня як фінансових, так і структурних особливостей. Відразу хочемо звернути вашу увагу, що у різних фірм різні потреби в зберіганні інформації в тому чи іншому вигляді і різні фінансові можливості для їх втілення. Але в будь-якому випадку, хочемо зазначити, що скільки б не було грошей або фахівців того чи іншого рівня в розпорядженні покупця, ми наполягаємо, що всі їхні потреби укладаються в наше визначення СГД — будь то звичайний набір дисків великого обсягу, або складна багаторівнева структура PCS (Parallels Cloud Storage). Це визначення, на нашу думку, включає в себе і іншу широко що застосовується абревіатуру, перекладену на англійська мова — СГД як мережа зберігання даних (Storage Area Network) — SAN. SAN ми трохи проілюструємо нижче, коли будемо розповідати про типові способи реалізації СГД.

Найбільш типовий і зрозумілий спосіб виконання СГД це DAS — Direct Attached Storages — накопичувачі, що підключаються безпосередньо до Компьтер, який керує роботою цих накопичувачів.

Найпростіший приклад DAS — звичайний комп’ютер з встановленим в ньому жорстким диском або DVD (CD) приводом з даними. Приклад складніше (див. Рис) — зовнішній пристрій-накопичувач (зовнішній жорсткий диск, дискова полку, стрічковий накопичувач і т.д.), які спілкуються з комп’ютером безпосередньо за допомогою того чи іншого протоколу і інтерфейсу (SCSI, eSATA, FC і т. д.). Ми пропонуємо в якості пристроїв СГД DAS дискові полки або Сервера Зберігання Даних (ще одна абревіатура СГД).

Сервер зберігання даних в даному випадку мається на увазі якийсь комп’ютер з власним процесором, ОС і достатньою кількістю пам’яті для обробки великих масивів даних, що зберігаються на численних дисках всередині сервера.

Потрібно відзначити, що при такому втіленні СГД дані безпосередньо бачить тільки комп’ютер з DAS, всі інші користувачі мають доступ до даних тільки «з дозволу» цього комп’ютера.

Базові конфігурації СГД DAS ви можете подивитися в

системи зберіганняNAS

Ще одна досить проста реалізація СГД — NAS (Network Attached Storage) — Мережеве Сховище Даних (знову та ж абревіатура СГД).

Як стає зрозуміло, доступ до даних здійснюється за допомогою мережевих протоколів, як правило, через звичну нам комп’ютерну локальну мережу (хоча зараз вже набули поширення і більш складні доступи до даних, що зберігаються на мережевих ресурсах). Самий зрозумілий і простий приклад СГД NAS — побутове сховище музики і фільмів, до якого мають доступ відразу кілька користувачів домашньої мережі.

NAS зберігає дані у вигляді файлової системи і, відповідно, надає доступ до ресурсів за допомогою мережевих файлових протоколів (NFS, SMB, AFP …).

Простий приклад реалізації СГД NAS см. На рис. 2.

Відразу хочемо відзначити, що NAS в принципі, може вважатися будь-який інтелектуальний пристрій, що має власний процесор, Пам’ять і досить швидкі мережеві інтерфейси для передачі даних по мережі різним користувачам. Також особливу увагу необхідно приділити схорості дискової підсистеми. Найбільш типові конфігурації пристроїв NAS ви можете подивитися в

Storage Area Network — один із способів реалізації СГД як Системи Зберігання Даних — див. Вище.

Це програмно — апаратне, а також архітектурне рішення для підключення різних пристроїв зберігання даних таким чином, що операційна система «бачить» ці пристрої як локальні. Це досягається за допомогою підключення цих пристроїв до відповідних серверів. Самі пристрої можуть бути різними — дискові масиви, стрічкові бібліотеки, масиви оптичних накопичувачів.

З розвитком технологій зберігання даних відмінність між системами SAN і NAS стало вельми умовним. Умовно їх можна розрізнити за способом зберігання даних: SAN — блокові пристрої, NAS — файлова система даних.

Протоколи реалізації систем SAN можуть бути різні — Fibre Channel, iSCSI, AoE.

Один з архітектурних способів реалізації SAN представлений на рис. 3.

Типові приклади СГД SAN можна подивитися в

На закінчення, висловимо надію, що нам вдалося «домовитися про термінологію» з вами і залишилося тільки обговорити варіанти створення СГД для вашого бізнесу і підібрати рішення, які підходять вам за надійності, простоті і бюджету.