NetApp FAS

Każdy model systemu pamięci masowej jest dostarczany z ustaloną konfiguracją procesora, pamięci RAM i pamięci nieulotnej, której użytkownicy nie mogą rozszerzyć po zakupie. Z wyjątkiem niektórych podstawowych kontrolerów pamięci masowej, systemy NetApp FAS, ASA i AFF mają zazwyczaj co najmniej jedno gniazdo PCIe do podłączenia dodatkowej sieci, taśmy i/lub dysku. W czerwcu 2008 r. NetApp wprowadził moduł PAM (Performance Acceleration Module) w celu optymalizacji wydajności obciążeń, które wykonują intensywne odczyty losowe. Ta opcjonalna karta wchodzi do gniazda PCIe i zapewnia dodatkową pamięć (lub pamięć podręczną) między dyskiem a pamięcią podręczną i systemową systemu pamięci masowej, poprawiając w ten sposób wydajność.

AFFEdit

All-Flash FAS, znany również jako AFF serii A. Zazwyczaj systemy AFF oparte na tym samym sprzęcie co FAS, ale pierwszy z nich jest zoptymalizowany i działa tylko z dyskami SSD na zapleczu, podczas gdy drugi może używać dysków HDD i SSD jako pamięci podręcznej: na przykład AFF A700 & FAS9000, A300 & FAS8200, A200 & FAS2600, A220 & FAS2700 używają tego samego sprzętu, ale systemy AFF nie zawierają kart Flash Cache. Systemy AFF nie obsługują również funkcji wirtualizacji macierzy FlexArray z macierzami pamięci masowej innych firm. AFF jest systemem zunifikowanym i może zapewnić łączność z protokołem danych SAN & NAS, a oprócz tradycyjnych protokołów SAN & NAS w systemach FAS, AFF ma oparty na blokach protokół NVMe/FC dla systemów z portami FC 32Gbit/s. AFF & FAS używają tego samego obrazu firmware, a prawie cała zauważalna funkcjonalność dla użytkownika końcowego jest taka sama dla obu systemów pamięci masowej. Jednak dane wewnętrzne są przetwarzane i obsługiwane w ONTAP w inny sposób. Systemy AFF, na przykład, używają innych algorytmów alokacji zapisu w porównaniu z systemami FAS. Ponieważ systemy AFF mają szybsze podstawowe dyski SSD, deduplikacja danych Inline w systemach ONTAP jest prawie niezauważalna (~2% wpływu na wydajność w systemach low-end).

ASAEdit

Wszystkie macierze SAN działające na platformie ONTAP i oparte na platformie AFF dziedziczą jej cechy & funkcjonalności, a dane wewnętrznie są przetwarzane i obsługiwane tak samo jak w systemach AFF. Wszystkie inne platformy sprzętowe i programowe oparte na ONTAP można określić jako Unified ONTAP, co oznacza, że mogą one zapewnić zunifikowany dostęp z protokołami danych SAN & NAS. Architektura ONTAP w systemach ASA jest taka sama jak w systemach FAS & AFF, bez żadnych zmian. Systemy ASA wykorzystujące ten sam obraz firmware, co systemy AFF & FAS. ASA jest taka sama jak AFF, a jedyna różnica polega na dostępie do pamięci masowej przez sieć za pomocą protokołów SAN: ASA zapewnia symetryczny aktywny/aktywny dostęp do urządzeń blokowych (przestrzeni nazw LUN lub NVMe), podczas gdy systemy Unified ONTAP nadal używają ALUA i ANA dla protokołów blokowych.

StorageEdit

NetApp używa dysków SATA, Fibre Channel, SAS lub SSD, które grupuje w RAID (Redundant Array of Inexpensive Disks lub Redundant Array of Independent Disks) grupy do 28 (26 dysków danych plus 2 dyski parzystości). Systemy pamięci masowej NetApp FAS zawierające wyłącznie dyski SSD z zainstalowanym systemem ONTAP OS zoptymalizowanym pod kątem dysków SSD, nazywane All-Flash FAS (AFF).

DyskiEdit

Systemy FAS, ASA i AFF wykorzystują dyski HDD i SSD (tj. NVMe SSD) klasy korporacyjnej z dwoma portami, z których każdy jest podłączony do każdego kontrolera w parze HA. Dyski HDD i SSD można kupić tylko od NetApp i zainstalować w półkach dyskowych NetApp dla platformy FAS/AFF. Fizyczne dyski HDD i SSD, znajdujące się na nich partycje oraz jednostki LUN importowane z macierzy innych firm z funkcjonalnością FlexArray traktowane w ONTAP jako Disk. W systemach SDS, takich jak ONTAP Select & ONTAP Cloud, logiczna pamięć blokowa, taka jak dysk wirtualny lub RDM wewnątrz ONTAP jest również uważana za dysk. Nie należy mylić ogólnego terminu „dysk” i „termin dysk używany w systemie ONTAP”, ponieważ w ONTAP może to być cały fizyczny dysk HDD lub SSD, jednostka LUN lub partycja na fizycznym dysku HDD lub SSD. Jednostki LUN zaimportowane z macierzy innych firm z funkcją FlexArray w konfiguracji pary HA muszą być dostępne z obu węzłów pary HA. Każdy dysk ma przypisaną własność, aby wskazać, który kontroler jest właścicielem i obsługuje dany dysk. Agregat może zawierać tylko dyski należące do jednego węzła, dlatego każdy agregat należący do węzła i wszelkie obiekty na nim, jak wolumeny FlexVol, LUNy, File Shares są obsługiwane przez jeden kontroler. Każdy kontroler może posiadać własne dyski i agregować je, gdzie oba węzły mogą być wykorzystywane jednocześnie, nawet jeśli nie obsługują tych samych danych.

ADPEdit

Advanced Drive Partitioning (ADP) może być używany w systemach opartych na ONTAP w zależności od platformy i przypadku użycia. ADP może być używane tylko z dyskami natywnymi z półek dyskowych NetApp, technologia FlexArray nie obsługuje ADP. ADP jest również wspierane z dyskami innych producentów w ONTAP Select. Technika ta stosowana jest głównie w celu przezwyciężenia pewnych wymagań architektonicznych i zmniejszenia liczby napędów dyskowych w systemach opartych na ONTAP. Istnieją trzy rodzaje ADP: Root-Data partitioning; Root-Data-Data partitioning (RD2 znany również jako ADPv2); Storage Pool.Root-Data partitioning może być stosowany w systemach FAS & AFF do tworzenia małych partycji root na dyskach, aby wykorzystać je do tworzenia agregatów root systemu i dzięki temu nie wydawać na ten cel całych trzech dysków. Natomiast większa część dysku zostanie wykorzystana do agregacji danych. Partycjonowanie Root-Data-Data jest stosowane w systemach AFF z tego samego powodu co partycjonowanie Root-Data, z tą różnicą, że większa część dysku pozostała po partycjonowaniu root jest dzielona równo przez dwie dodatkowe partycje, zazwyczaj każda partycja jest przypisana do jednego z dwóch kontrolerów, dzięki czemu zmniejsza się minimalna liczba dysków wymaganych w systemie AFF i zmniejsza marnotrawstwo drogiego miejsca na SSD. Storage Pool technologia partycjonowania stosowana w systemach FAS do równego podziału każdego dysku SSD na cztery części, które później mogą być wykorzystane do akceleracji pamięci podręcznej FlashPool, dzięki Storage Pool tylko kilka dysków SSD może być podzielonych na maksymalnie 4 agregaty danych, które skorzystają z technologii buforowania FlashCache zmniejszając minimalnie wymagane dyski SSD dla tej technologii.

NetApp RAID w ONTAPEdit

ONTAP Układ pamięci masowej: Aggregate, Plex, RAID

W systemach NetApp ONTAP, RAID i WAFL są ściśle zintegrowane. W systemach opartych na ONTAP dostępnych jest kilka typów RAID:

  • RAID-4 z 1 dedykowanym dyskiem parzystości pozwalającym na jednoczesną awarię dowolnego 1 dysku w grupie RAID.
  • RAID-DP z 2 dedykowanymi dyskami parzystości pozwalającym na jednoczesną awarię dowolnych 2 dysków w grupie RAID.
  • RAID-TEC patent USA 7640484 z 3 dedykowanymi dyskami parzystości, umożliwiający jednoczesną awarię dowolnych 3 dysków w grupie RAID.

Podwójna parzystość w RAID-DP prowadzi do odporności na utratę dysku podobnej do tej w RAID-6. NetApp przezwycięża problem wydajności zapisu tradycyjnych dysków parzystości w stylu RAID-4 dzięki WAFL i nowatorskiemu wykorzystaniu nieulotnej pamięci (NVRAM) w każdym systemie pamięci masowej. Każdy agregat składa się z jednego lub dwóch plexów, a plex składa się z jednej lub więcej grup RAID. Typowy system pamięci masowej oparty na ONTAP ma tylko 1 plex w każdym agregacie, dwa plexy są używane w lokalnych konfiguracjach SyncMirror lub MetroCluster. Każda grupa RAID składa się zazwyczaj z dysków tego samego typu, o tej samej prędkości, geometrii i pojemności. Wsparcie NetApp może jednak pozwolić użytkownikowi na tymczasowe zainstalowanie w grupie RAID dysku o tym samym lub większym rozmiarze, ale innego typu, prędkości i geometrii. Zwykłe agregaty danych zawierające więcej niż jedną grupę RAID muszą posiadać takie same grupy RAID w całym agregacie, zalecana jest taka sama wielkość grupy RAID, jednak NetApp dopuszcza wyjątek w postaci ostatniej grupy RAID i skonfigurowanie jej w wielkości połowy wielkości grupy RAID w całym agregacie. Przykładowo, taki agregat może składać się z 3 grup RAID: RG0:16+2, RG1:16+2, RG2:7+2. W ramach agregatów ONTAP ustawia wolumeny elastyczne (FlexVol) do przechowywania danych, do których użytkownicy mają dostęp.

Agregaty włączone jako FlshPool i posiadające zarówno dyski HDD jak i SSD nazywane są agregatami hybrydowymi. W agregatach hybrydowych Flash Pool obowiązują te same zasady co w zwykłych agregatach, ale oddzielnie dla dysków HDD i SSD, dlatego w jednym agregacie hybrydowym można mieć dwa różne typy RAID: tylko jeden typ RAID dla wszystkich dysków HDD i tylko jeden typ RAID dla wszystkich dysków SSD. Na przykład, dysk twardy SAS z RAID-TEC (RG0:18+3, RG1:18+3) i dysk SSD z RAID-DP (RG3:6+2). Systemy pamięci masowej NetApp z ONTAP łączą podstawowe grupy RAID podobnie jak RAID-0. Również w systemach NetApp FAS z funkcją FlexArray, jednostki LUN innych firm mogą być łączone w Plex podobnie jak RAID-0. Systemy pamięci masowych NetApp z ONTAP mogą być wdrażane w konfiguracjach MetroCluster i SyncMirror, które wykorzystują technikę porównywalną do RAID-1 z mirroringiem danych pomiędzy dwoma plexami w agregacie.

.

.

RAID Group Size (in number of drives) for Data Aggregates in AFF & FAS systems
Drive Type Minimum Default Maximum Minimum Default Maximum Minimum Default Maximum
RAID-4 RAID-DP RAID-TEC
NVMe SSD 3 8 14 5 24 28 7 25 29
SSD
SAS 16 24
SATA lub NL-.SAS < 6TB 7 14 20 21
SATA lub NL-SAS (6TB, 8TB) 14
MSATA (6TB, 8TB) Nie możliwe
MSATA < 6TB 20
MSATA >= 10TB Nie możliwe
SATA lub NL-SAS >= 10TB

Flash PoolEdit

NetApp Flash Pool to funkcja w hybrydowych systemach NetApp FAS, która umożliwia tworzenie hybrydowych agregatów z dyskami HDD i dyskami SSD w jednym agregacie danych. Zarówno dyski HDD jak i SSD tworzą oddzielne grupy RAID. Ponieważ SSD służy również do operacji zapisu, wymaga redundancji RAID, w przeciwieństwie do Flash Cache, ale pozwala na użycie różnych typów RAID dla HDD i SSD; na przykład, możliwe jest posiadanie 20 HDD 8TB w RAID-TEC i 4 SSD w RAID-DP 960GB w jednym agregacie. SSD RAID używany jako pamięć podręczna i poprawia wydajność operacji odczytu/zapisu dla woluminów FlexVol na agregacie, gdzie SSD jest dodany jako pamięć podręczna. Pamięć podręczna Flash Pool podobnie jak Flash Cache ma zasady dla operacji odczytu, ale obejmuje również operacje zapisu, które mogą być stosowane oddzielnie dla każdego woluminu FlexVol znajdującego się na agregacie; dlatego można ją wyłączyć na niektórych woluminach, podczas gdy inne mogą korzystać z pamięci podręcznej SSD. Oba rozwiązania FlashCache & FlashPool mogą być używane jednocześnie do buforowania danych z pojedynczego woluminu FlexVol, aby umożliwić agregat z technologią Flash Pool Wymagane minimum 4 dyski SSD (2 dane, 1 parzystość i 1 hot spare), możliwe jest również wykorzystanie technologii ADP do partycjonowania SSD na 4 części (Storage Pool) i rozdzielenia tych części między dwa kontrolery, dzięki czemu każdy kontroler skorzysta z pamięci podręcznej SSD przy niewielkiej ilości SSD. Flash Pool nie jest dostępny z FlexArray i jest możliwy tylko z dyskami natywnymi NetApp FAS w półkach dyskowych NetApp.

FlexArrayEdit

FlexArray to funkcjonalność NetApp FAS pozwala na wizualizację systemów pamięci masowej firm trzecich i innych systemów pamięci masowej NetApp poprzez protokoły SAN i wykorzystanie ich zamiast półek dyskowych NetApp. W przypadku funkcji FlexArray ochrona RAID musi być realizowana przez macierze innych firm, dlatego też RAID-4, RAID-DP i RAID-TEC firmy NetApp nie są wykorzystywane w takich konfiguracjach. Jedna lub wiele jednostek LUN z macierzy innych firm może być dodana do pojedynczego agregatu podobnie jak w przypadku RAID-0. Funkcja FlexArray jest licencjonowana.

NetApp Storage EncryptionEdit

NetApp Storage Encryption (NSE) wykorzystuje wyspecjalizowane dyski z niskim poziomem sprzętowego pełnego szyfrowania dysków (FDE/SED), a także obsługuje samoszyfrujące dyski z certyfikatem FIPS, jest kompatybilna z prawie wszystkimi funkcjami i protokołami NetApp ONTAP, ale nie oferuje funkcji MetroCluster. Funkcja NSE ma ogólnie niemal zerowy wpływ na wydajność systemu pamięci masowej. Funkcja NSE podobnie jak NetApp Volume Encryption (NVE) w systemach pamięci masowej z ONTAP może przechowywać klucz szyfrujący lokalnie w Onboard Key Manager lub w dedykowanych systemach zarządzających kluczami za pomocą protokołu KMIP, takich jak IBM Security Key Lifecycle Manager i SafeNet KeySecure. NSE to szyfrowanie danych w stanie spoczynku, co oznacza, że chroni jedynie przed kradzieżą dysków fizycznych i nie zapewnia dodatkowego poziomu bezpieczeństwa danych w normalnie działającym systemie. NetApp przeszedł program NIST Cryptographic Module Validation Program dla swojego NetApp CryptoMod (TPM) z ONTAP 9.2.

MetroClusterEdit

Replikacja SyncMirror z wykorzystaniem plexów

MetroCluster (MC) to bezpłatna funkcjonalność dla systemów FAS i AFF dla metropolitalnej wysokiej dostępności z replikacją synchroniczną pomiędzy dwoma lokalizacjami, konfiguracja ta wymaga dodatkowego sprzętu. Dostępna w obu trybach: 7-mode (stary OS) i Cluster-Mode (lub cDOT – nowsza wersja ONTAP OS). MetroCluster w trybie Cluster-Mode znany jako MCC. MetroCluster wykorzystuje technikę RAID SyncMirror (RSM) i plex, gdzie na jednej stronie liczba dysków tworzy jedną lub więcej grup RAID zagregowanych w plex, podczas gdy na drugiej stronie jest taka sama liczba dysków z tym samym typem i konfiguracją RAID wraz z Configuration Replication Service (CRS) i replikacją NVLog. Jeden plex replikuje synchronicznie do drugiego w kompleksie z pamięcią nieulotną. Dwa plexy tworzą agregat, w którym są przechowywane dane i w przypadku awarii na jednej stronie druga strona zapewnia dostęp do danych w trybie read-write. MetroCluster wspiera technologię FlexArray. Konfiguracje MetroCluster są możliwe tylko w modelach klasy średniej i wyższej, które zapewniają możliwość instalacji dodatkowych kart sieciowych wymaganych do funkcjonowania MC.

MCCEdit

MetroCluster lokalna i DR replikacja pamięci pare w systemach NetApp FAS/AFF skonfigurowanych jako MCC

Dzięki MetroCluster możliwe jest posiadanie jednego lub więcej węzłów pamięci masowej w każdej witrynie w celu utworzenia klastra lub Clustered MetroCluster (MCC). Zdalny i lokalny węzeł perter HA muszą być tego samego modelu. MCC składa się z dwóch klastrów, z których każdy znajduje się w jednej z dwóch lokalizacji. Mogą być tylko dwie lokalizacje. W konfiguracji MCC każdy jeden zdalny i jeden lokalny węzeł magazynowy tworzą Metro HA lub Disaster Recovery Pare (DR Pare) w dwóch lokalizacjach, natomiast dwa węzły lokalne (jeśli jest partner) tworzą lokalny HA pare, dzięki czemu każdy węzeł synchronicznie replikuje dane w pamięci nieulotnej dwóch węzłów: jednego zdalnego i jednego lokalnego (jeśli jest jeden). Możliwe jest wykorzystanie tylko jednego węzła storage’owego w każdej lokalizacji (dwa klastry jednowęzłowe) skonfigurowanego jako MCC. 8-węzłowy MCC składa się z dwóch klastrów – 4 węzły każdy (2 pary HA), każdy węzeł magazynowy ma tylko jednego zdalnego partnera i tylko jednego lokalnego partnera HA, w takiej konfiguracji każdy klaster witryny może składać się z dwóch różnych modeli węzłów magazynowych. Przy małych odległościach MetroCluster wymaga co najmniej jednej karty FC-VI lub nowszej iWARP na węzeł. Systemy FAS i AFF z oprogramowaniem ONTAP w wersji 9.2 i starszej wykorzystują karty FC-VI i przy dużych odległościach wymagają 4 dedykowanych przełączników Fibre Channel (2 w każdej witrynie) i 2 mostów FC-SAS na każdy stos półek dyskowych, a więc minimum 4 łącznie dla 2 witryn i minimum 2 ciemnowłóknowych łączy ISL z opcjonalnymi DWDM przy dużych odległościach. Wolumeny danych, jednostki LUN i LIF mogą być migrowane online między węzłami pamięci masowej w klastrze tylko w obrębie jednej lokalizacji, z której pochodzą dane: nie jest możliwa migracja pojedynczych wolumenów, jednostek LUN lub LIF z wykorzystaniem możliwości klastra między lokalizacjami, chyba że zostanie zastosowana operacja przełączenia MetroCluster, która wyłączy całą połowę klastra w lokalizacji i w sposób przezroczysty dla jej klientów i aplikacji przełączy dostęp do wszystkich danych do innej lokalizacji.

MCC-IPEdit

NetApp MetroCluster over IP z konfiguracją ADPv2

Począwszy od ONTAP 9.3 MetroCluster over IP (MCC-IP) został wprowadzony bez potrzeby dedykowanych przełączników Fibre Channel, mostów FC-SAS i dedykowanych ciemnych włókien ISL, które wcześniej były potrzebne do konfiguracji MetroCluster. Początkowo tylko systemy A700 & FAS9000 obsługiwały MCC-IP. MCC-IP dostępne tylko w konfiguracjach 4-węzłowych: 2-węzłowy system Highly Available w każdej witrynie z dwoma witrynami łącznie. Z ONTAP 9.4, MCC-IP obsługuje system A800 i Advanced Drive Partitioning w postaci partycjonowania Rood-Data-Data (RD2), znanego również jako ADPv2. ADPv2 jest obsługiwane tylko w systemach all-flash. Konfiguracje MCC-IP wspierają pojedynczą półkę dyskową, gdzie dyski SSD partycjonowane są w ADPv2. MetroCluster over IP wymagają przełączników klastrowych Ethernet z zainstalowanym ISL i wykorzystują karty iWARP w każdym kontrolerze pamięci masowej do replikacji synchronicznej. Począwszy od ONTAP 9.5 MCC-IP obsługuje odległość do 700 km i zaczyna wspierać funkcję SVM-DR, AFF A300 i systemy FAS8200.

.