Hver model af lagringssystem leveres med en fast konfiguration af processor, RAM og ikke-flygtig hukommelse, som brugerne ikke kan udvide efter købet. Med undtagelse af nogle af entry point-lagringscontrollerne har NetApp FAS-, ASA- og AFF-systemerne normalt mindst ét PCIe-baseret slot til rådighed til yderligere netværks-, bånd- og/eller diskforbindelser. I juni 2008 annoncerede NetApp Performance Acceleration Module (eller PAM) for at optimere ydeevnen for arbejdsbelastninger, der udfører intensive tilfældige læsninger. Dette valgfrie kort indsættes i et PCIe-slot og giver ekstra hukommelse (eller cache) mellem disken og lagringssystemets cache og systemhukommelse, hvilket forbedrer ydeevnen.
AFFEdit
All-Flash FAS, også kendt som AFF A-serien. Normalt er AFF-systemer baseret på den samme hardware som FAS, men den første er optimeret og fungerer kun med SSD-drev på bagsiden, mens den anden kan bruge HDD og SSD som cache: f.eks. bruger AFF A700 & FAS9000, A300 & FAS8200, A200 & FAS2600, A220 & FAS2700 den samme hardware, men AFF-systemer omfatter ikke Flash Cache-kort. AFF-systemer understøtter heller ikke FlexArray med virtualiseringsfunktionalitet for storage array fra tredjepart. AFF er et Unified-system og kan levere SAN & NAS-dataprotokollforbindelse, og ud over de traditionelle SAN & NAS-protokoller i FAS-systemer har AFF en blokbaseret NVMe/FC-protokol til systemer med 32 Gbit/s FC-porte. AFF & FAS bruger det samme firmware-image, og næsten al mærkbar funktionalitet for slutbrugeren er den samme for begge lagringssystemer. Internt behandles og håndteres data dog anderledes i ONTAP. AFF-systemer anvender f.eks. forskellige skrivetildelingsalgoritmer sammenlignet med FAS-systemer. Da AFF-systemer har hurtigere underliggende SSD-drev, er Inline-datadeduplikering i ONTAP-systemer næsten ikke mærkbar (~2 % påvirkning af ydeevnen på low-end-systemer).
ASAEdit
Alle SAN Array, der kører ONTAP, og som er baseret på AFF-platformen, arver således dens funktioner & funktionaliteter, og data behandles og håndteres internt på samme måde som i AFF-systemer. Alle andre ONTAP-baserede hardware- og softwareplatforme kan omtales som Unified ONTAP, hvilket betyder, at de kan give forenet adgang med SAN & NAS-dataprotokoller. ONTAP-arkitekturen i ASA-systemer er den samme som i FAS & AFF-systemer, uden ændringer. ASA-systemer bruger det samme firmware-image som AFF & FAS-systemer. ASA er den samme som AFF, og den eneste forskel er i adgangen til lageret via netværket med SAN-protokoller: ASA giver symmetrisk aktiv/aktiv adgang til blok-enhederne (LUN- eller NVMe-namespaces), mens Unified ONTAP-systemer fortsat bruger ALUA og ANA til blokprotokollerne.
StorageEdit
NetApp bruger enten SATA-, Fibre Channel-, SAS- eller SSD-diske, som den grupperer i RAID-grupper (Redundant Array of Inexpensive Disks eller Redundant Array of Independent Disks) på op til 28 (26 data-diske plus 2 paritetsdiske). NetApp FAS-lagringssystemer, som kun indeholder SSD-diske med installeret SSD-optimeret ONTAP OS kaldet All-Flash FAS (AFF).
DisksEdit
FAS-, ASA- og AFF-systemer bruger HDD- og SSD-diske (dvs. NVMe SSD) på virksomhedsniveau med to porte, hvor hver port er forbundet til hver controller i et HA-par. HDD- og SSD-drev kan kun købes hos NetApp og installeres i NetApp’s diskhylder til FAS/AFF-platformen. Fysiske HDD- og SSD-drev, partitioner på dem og LUN’er, der importeres fra tredjeparts arrays med FlexArray-funktionalitet, betragtes i ONTAP som en disk. I SDS-systemer som ONTAP Select & ONTAP Cloud betragtes logisk bloklagring som f.eks. virtuel disk eller RDM i ONTAP også som en disk. Du må ikke forveksle det generelle udtryk “diskdrev” og “diskdrevsudtryk anvendt i ONTAP-systemet”, da det i ONTAP kan være en hel fysisk HDD- eller SSD-disk, et LUN eller en partition på en fysisk HDD- eller SSD-disk. LUN’er, der importeres fra tredjeparts arrays med FlexArray-funktionalitet i en HA-parkonfiguration, skal være tilgængelige fra begge knudepunkter i HA-parret. Hver disk har ejerskab på den for at vise, hvilken controller der ejer og betjener disken. Et aggregat kan kun omfatte diske, der ejes af en enkelt knude, og derfor betjenes hvert aggregat, der ejes af en knude, og alle objekter oven på det, som FlexVol-volumener, LUN’er og filfællesskaber, med en enkelt controller. Hver controller kan have sine egne diske og aggregerer dem, hvor begge knudepunkter kan udnyttes samtidigt, selvom de ikke betjener de samme data.
ADPEdit
Advanced Drive Partitioning (ADP) kan bruges i ONTAP-baserede systemer afhængigt af platformen og brugssagen. ADP kan kun bruges med native diskdrev fra NetApp Disk Shelves, FlexArray-teknologi understøtter ikke ADP. ADP understøttes også med drev fra tredjeparter i ONTAP Select. Denne teknik bruges primært til at overvinde nogle arkitektoniske krav og reducere antallet af diskdrev i ONTAP-baserede systemer. Der findes tre typer af ADP: Root-Data-partitionering; Root-Data-Data-partitionering (RD2 også kendt som ADPv2); Storage Pool Root-Data-partitionering kan bruges i FAS & AFF-systemer til at oprette små rodpartitioner på drev for at bruge dem til at oprette systemrotaggregater og derfor ikke at bruge hele tre diskdrev til dette formål. I modsætning hertil vil den større del af diskdrevet blive brugt til dataaggregat. Root-Data-Data-partitionering anvendes i AFF-systemer udelukkende af samme grund som Root-Data-partitionering med den eneste forskel, at den større del af drevet, der er tilbage efter root-partitionering, fordeles ligeligt på to yderligere partitioner, normalt hver partition tilknyttet en af de to controllere, hvilket reducerer det mindste antal drev, der kræves til et AFF-system, og mindsker spild af dyr SSD-plads. Storage Pool-partitioneringsteknologi, der anvendes i FAS-systemer til at opdele hvert SSD-drev ligeligt i fire stykker, som senere kan bruges til FlashPool-cacheacceleration, med Storage Pool kan kun få SSD-drev opdeles i op til 4 dataaggregater, som vil drage fordel af FlashCache-cachelagringsteknologien, hvilket reducerer de minimalt krævede SSD-drev til denne teknologi.
NetApp RAID i ONTAPEdit
ONTAP Storage layout: Aggregat, Plex, RAID
I NetApp ONTAP-systemer er RAID og WAFL tæt integreret. Der er flere RAID-typer tilgængelige i ONTAP-baserede systemer:
- RAID-4 med 1 dedikeret paritetsdisk, der gør det muligt for 1 drev at fejle i en RAID-gruppe.
- RAID-DP med 2 dedikerede paritetsdiske, der gør det muligt for 2 drev at fejle samtidigt i en RAID-gruppe.
- RAID-TEC US-patent 7640484 med 3 dedikerede paritetsdiske, der gør det muligt for alle 3 drev at fejle samtidigt i en RAID-gruppe.
RAID-DP’s dobbelte paritet fører til en modstandsdygtighed over for disktab, der svarer til RAID-6. NetApp overvinder skriveydelsesforringelsen ved traditionelle RAID-4-stil dedikerede paritetsdiske via WAFL og en ny brug af den ikke-flygtige hukommelse (NVRAM) i hvert lagringssystem.Hvert aggregat består af et eller to plexer, og et plex består af en eller flere RAID-grupper. Typiske ONTAP-baserede lagringssystemer har kun 1 plex i hvert aggregat, mens to plexer anvendes i lokale SyncMirror- eller MetroCluster-konfigurationer. Hver RAID-gruppe består normalt af diskdrev af samme type, hastighed, geometri og kapacitet. NetApp Support kan dog tillade en bruger at installere en disk til en RAID-gruppe med samme eller større størrelse og anden type, hastighed og geometri til midlertidig brug. Almindelige dataaggregater, der indeholder mere end én RAID-gruppe, skal have samme RAID-grupper på tværs af aggregatet, og det anbefales at have samme RAID-gruppestørrelse, men NetApp tillader en undtagelse i den sidste RAID-gruppe og konfigurerer den så lille som halvdelen af RAID-gruppestørrelsen på tværs af aggregatet. Et sådant aggregat kan f.eks. bestå af 3 RAID-grupper: RG0:16+2, RG1:16+2, RG2:7+2. Inden for aggregater opretter ONTAP fleksible volumener (FlexVol) til lagring af data, som brugerne kan få adgang til.
Aggregater, der er aktiveret som FlshPool og med både HDD- og SSD-drev, kaldes hybridaggregater. I Flash Pool-hybridaggregater gælder de samme regler for hybridaggregater som for almindelige aggregater, men separat for HDD- og SSD-drev, og det er således tilladt at have to forskellige RAID-typer: kun én RAID-type for alle HDD-drev og kun én RAID-type for alle SSD-drev i et enkelt hybridaggregat. F.eks. SAS-harddiske med RAID-TEC (RG0:18+3, RG1:18+3) og SSD-diske med RAID-DP (RG3:6+2). NetApp-lagringssystemer, der kører ONTAP, kombinerer underliggende RAID-grupper på samme måde som RAID-0. I NetApp FAS-systemer med FlexArray-funktionen kan tredjeparts-LUN’er også kombineres i et Plex på samme måde som RAID-0. NetApp-lagringssystemer med ONTAP kan implementeres i MetroCluster- og SyncMirror-konfigurationer, som anvender en teknik, der svarer til RAID-1 med spejling af data mellem to plexer i et aggregat.
RAID-gruppestørrelse (i antal drev) for dataaggregater i AFF & FAS-systemer | |||||||||
---|---|---|---|---|---|---|---|---|---|
Drevtype | Minimum | Default | Maximum | Minimum | Default | Maximum | Minimum | Default | Maximum |
RAID-4 | RAID-DP | RAID-TEC | |||||||
NVMe SSD | 3 | 8 | 14 | 5 | 24 | 28 | 7 | 25 | 29 |
SSD | |||||||||
SAS | 16 | 24 | |||||||
SATA eller NL-SAS < 6TB | 7 | 7 | 14 | 20 | 21 | ||||
SATA eller NL-SAS (6TB, 8TB) | 14 | ||||||||
MSATA (6TB, 8TB) | ikke muligt | ||||||||
MSATA < 6TB | 20 | ||||||||
MSATA >= 10TB | ikke muligt | ||||||||
SATA eller NL-SAS >= 10 TB |
Flash PoolEdit
NetApp Flash Pool er en funktion på hybride NetApp FAS-systemer, der gør det muligt at oprette hybridaggregat med HDD-drev og SSD-drev i et enkelt dataaggregat. Både HDD- og SSD-drev danner separate RAID-grupper. Da SSD også anvendes til skriveoperationer, kræver det RAID-redundans i modsætning til Flash Cache, men det giver mulighed for at anvende forskellige RAID-typer for HDD og SSD; det er f.eks. muligt at have 20 HDD 8 TB i RAID-TEC og 4 SSD i RAID-DP 960 GB i et enkelt aggregat. SSD RAID anvendes som cache og forbedrer ydeevnen for læse- og skriveoperationer for FlexVol-volumener på aggregatet, hvor SSD tilføjes som cache. Flash Pool-cache har ligesom Flash Cache politikker for læseoperationer, men omfatter også skriveoperationer, der kan anvendes separat for hvert FlexVol-volumen på aggregatet; derfor kan den deaktiveres på nogle volumener, mens andre kan drage fordel af SSD-cache. Både FlashCache & FlashPool kan bruges samtidig til at cache data fra en enkelt FlexVol for at muliggøre et aggregat med Flash Pool-teknologi minimum 4 SSD-diske kræves (2 data, 1 paritet og 1 hot spare), det er også muligt at bruge ADP-teknologi til at partitionere SSD i 4 stykker (Storage Pool) og fordele disse stykker mellem to controllere, så hver controller vil drage fordel af SSD-cache, når der er en lille mængde SSD. Flash Pool er ikke tilgængelig med FlexArray og er kun mulig med NetApp FAS native diskdrev i NetApp’s diskhylder.
FlexArrayEdit
FlexArray er NetApp FAS-funktionalitet gør det muligt at visualisere tredjeparts storage-systemer og andre NetApp storage-systemer via SAN-protokoller og bruge dem i stedet for NetApp’s diskhylder. Med FlexArray-funktionaliteten skal RAID-beskyttelse udføres med tredjeparts storage array, således at NetApp’s RAID-4, RAID-DP og RAID-TEC ikke anvendes i sådanne konfigurationer. En eller mange LUN’er fra tredjeparts arrays kan tilføjes til et enkelt aggregat på samme måde som RAID-0. FlexArray er en licenseret funktion.
NetApp Storage EncryptionRediger
NetApp Storage Encryption (NSE) anvender specialbyggede diske til specielle formål med lavt niveau Hardware-baseret fuld disk-kryptering (FDE/SED) og understøtter også FIPS-certificerede selvkrypterede drev, er kompatibel med næsten alle NetApp ONTAP-funktioner og -protokoller, men tilbyder ikke MetroCluster. NSE-funktionen har generelt næsten ingen indvirkning på storage-systemet. NSE-funktionen svarer til NetApp Volume Encryption (NVE) i lagringssystemer, der kører ONTAP, og kan gemme krypteringsnøglen lokalt i Onboard Key Manager eller på dedikerede nøglehåndteringssystemer ved hjælp af KMIP-protokollen, f.eks. IBM Security Key Lifecycle Manager og SafeNet KeySecure. NVE er en kryptering af data i hvile, hvilket betyder, at den kun beskytter mod tyveri af fysiske diske og ikke giver et ekstra niveau af datasikkerhedsbeskyttelse i et normalt operationelt og kørende system. NetApp har bestået NIST Cryptographic Module Validation Program for sin NetApp CryptoMod (TPM) med ONTAP 9.2.
MetroClusterEdit
SyncMirror-replikering ved hjælp af plexes
MetroCluster (MC) er gratis funktionalitet til FAS- og AFF-systemer til metro-høj tilgængelighed med synkron replikering mellem to steder, denne konfiguration kræver yderligere udstyr. Fås i begge tilstande: 7-mode (gammelt OS) og Cluster-Mode (eller cDOT – en nyere version af ONTAP OS). MetroCluster i Cluster-Mode kendt som MCC. MetroCluster anvender RAID SyncMirror (RSM) og plex-teknik, hvor et antal diske på ét sted danner en eller flere RAID-grupper, der er samlet i et plex, mens det andet sted har det samme antal diske med samme type og RAID-konfiguration sammen med Configuration Replication Service (CRS) og NVLog-replikering. Et plex replikerer synkront til et andet plex i en sammensat enhed med ikke-flygtig hukommelse. To plexer udgør et aggregat, hvor data lagres, og i tilfælde af en katastrofe på det ene sted giver det andet sted læse- og skriveadgang til data. MetroCluster understøtter FlexArray-teknologi. MetroCluster-konfigurationer er kun mulige med mellemklasse- og high-end-modeller, som giver mulighed for at installere yderligere netværkskort, der er nødvendige for at MC kan fungere.
MCCEdit
MetroCluster lokal og DR pare hukommelsesreplikation i NetApp FAS/AFF-systemer, der er konfigureret som MCC
Med MetroCluster er det muligt at have en eller flere storage node pr. sted for at danne en klynge eller Clustered MetroCluster (MCC). Fjern- og lokal HA perter node skal være af samme model. MCC består af to klynger, der hver er placeret på et af to steder. Der må kun være to steder. I MCC-konfigurationen udgør hver en fjern- og en lokal lagringsnode Metro HA eller Disaster Recovery Pare (DR Pare) på tværs af to steder, mens to lokale noder (hvis der er en partner) udgør lokal HA pare, således at hver node synkront replikerer data i ikke-flygtig hukommelse to noder: en fjern- og en lokal (hvis der er en). Det er muligt at anvende kun én lagringsnode på hvert sted (to enkeltknudeklynger), der er konfigureret som MCC. MCC med 8 knuder består af to klynger – 4 knuder hver (2 HA-par), hver lagringsnode har kun én fjernpartner og kun én lokal HA-partner, i en sådan konfiguration kan hver enkelt stedsklynge bestå af to forskellige modeller af lagringsnoder. Ved små afstande kræver MetroCluster mindst ét FC-VI- eller nyere iWARP-kort pr. knude. FAS- og AFF-systemer med ONTAP-softwareversioner 9.2 og ældre anvender FC-VI-kort og kræver ved lange afstande 4 dedikerede Fibre Channel-switche (2 på hvert sted) og 2 FC-SAS-broer pr. diskhylde stack, dvs. mindst 4 i alt for 2 steder og mindst 2 mørke fiber-ISL-forbindelser med valgfri DWDM’er ved lange afstande. Datamængder, LUN’er og LIF’er kan kun migrere online på tværs af lagringsnoder i klyngen inden for et enkelt sted, hvor dataene stammer fra: det er ikke muligt at migrere individuelle mængder, LUN’er eller LIF’er ved hjælp af klyngefunktioner på tværs af steder, medmindre der anvendes MetroCluster switchover-operation, som deaktiverer hele halvdelen af klyngen på et sted og gennemsigtigt for dets klienter og applikationer skifter adgang til alle dataene til et andet sted.
MCC-IPEdit
NetApp MetroCluster over IP med ADPv2-konfiguration
Med ONTAP 9.3 blev MetroCluster over IP (MCC-IP) indført uden behov for en dedikeret back-end Fibre Channel-switche, FC-SAS-broer og dedikeret dark fiber ISL, som tidligere var nødvendige for en MetroCluster-konfiguration. I første omgang var det kun A700 & FAS9000-systemer, der blev understøttet med MCC-IP. MCC-IP er kun tilgængelig i konfigurationer med 4 knudepunkter: 2-node Highly Available system på hvert site med to sites i alt. Med ONTAP 9.4 understøtter MCC-IP A800-systemer og Advanced Drive Partitioning i form af Rood-Data-Data (RD2)-partitionering, også kendt som ADPv2. ADPv2 understøttes kun på all-flash-systemer. MCC-IP-konfigurationer understøtter enkelt diskhylde, hvor SSD-drev er partitioneret i ADPv2. MetroCluster over IP kræver Ethernet-klyngeswitche med installeret ISL og anvender iWARP-kort i hver lagercontroller til synkron replikering. Fra ONTAP 9.5 understøtter MCC-IP en afstand på op til 700 km og begynder at understøtte SVM-DR-funktionen, AFF A300 og FAS8200-systemer.