NetApp FAS

Jedes Storage-Systemmodell wird mit einer festen Konfiguration von Prozessor, RAM und nichtflüchtigem Speicher geliefert, die der Benutzer nach dem Kauf nicht mehr erweitern kann. Mit Ausnahme einiger Einstiegs-Storage-Controller verfügen die NetApp FAS-, ASA- und AFF-Systeme in der Regel über mindestens einen PCIe-basierten Steckplatz für zusätzliche Netzwerk-, Tape- und/oder Disk-Verbindungen. Im Juni 2008 kündigte NetApp das Performance Acceleration Module (PAM) an, um die Performance von Workloads zu optimieren, die intensive Random-Reads durchführen. Diese optionale Karte wird in einen PCIe-Steckplatz eingesetzt und stellt zusätzlichen Speicher (oder Cache) zwischen der Festplatte und dem Cache und Systemspeicher des Storage-Systems bereit, wodurch die Performance verbessert wird.

AFFEdit

All-Flash FAS, auch bekannt als AFF A-Serie. Normalerweise basieren AFF-Systeme auf der gleichen Hardware wie FAS, aber das erste ist optimiert und arbeitet nur mit SSD-Laufwerken im Backend, während das zweite HDD und SSD als Cache verwenden kann: zum Beispiel verwenden AFF A700 & FAS9000, A300 & FAS8200, A200 & FAS2600, A220 & FAS2700 die gleiche Hardware, aber AFF-Systeme enthalten keine Flash-Cache-Karten. Außerdem unterstützen AFF-Systeme kein FlexArray mit Storage-Array-Virtualisierungsfunktionen von Drittanbietern. AFF ist ein Unified-System und kann SAN & NAS-Datenprotokollkonnektivität bieten. Zusätzlich zu den traditionellen SAN & NAS-Protokollen in FAS-Systemen verfügt AFF über ein blockbasiertes NVMe/FC-Protokoll für Systeme mit 32Gbit/s FC-Ports. AFF & FAS verwenden das gleiche Firmware-Image, und fast alle für den Endbenutzer erkennbaren Funktionen sind bei beiden Speichersystemen gleich. Intern werden die Daten in ONTAP jedoch anders verarbeitet und gehandhabt. AFF-Systeme verwenden beispielsweise im Vergleich zu FAS-Systemen andere Algorithmen für die Schreibzuweisung. Da AFF-Systeme über schnellere zugrunde liegende SSD-Laufwerke verfügen, ist die Inline-Datendeduplizierung in ONTAP-Systemen kaum spürbar (~2 % Leistungseinfluss auf Low-End-Systemen).

ASAEdit

Alle SAN-Arrays, die unter ONTAP laufen und auf der AFF-Plattform basieren, erben somit deren & Funktionalitäten, und die Daten werden intern genauso verarbeitet und gehandhabt wie in AFF-Systemen. Alle anderen ONTAP-basierten Hardware- und Softwareplattformen können als Unified ONTAP bezeichnet werden, was bedeutet, dass sie einen einheitlichen Zugriff mit SAN & NAS-Datenprotokollen bieten können. Die ONTAP-Architektur in ASA-Systemen ist die gleiche wie in FAS & AFF, ohne Änderungen. ASA-Systeme verwenden das gleiche Firmware-Image wie AFF & FAS-Systeme. ASA ist identisch mit AFF, der einzige Unterschied besteht im Zugriff auf den Speicher über das Netzwerk mit SAN-Protokollen: ASA bietet symmetrischen Aktiv/Aktiv-Zugriff auf die Blockgeräte (LUN- oder NVMe-Namespaces), während Unified ONTAP-Systeme weiterhin ALUA und ANA für die Blockprotokolle verwenden.

StorageEdit

NetApp verwendet entweder SATA-, Fibre Channel-, SAS- oder SSD-Laufwerke, die in RAID-Gruppen (Redundant Array of Inexpensive Disks oder Redundant Array of Independent Disks) von bis zu 28 Festplatten (26 Datenfestplatten plus 2 Paritätsfestplatten) zusammengefasst werden. NetApp FAS-Speichersysteme, die nur SSD-Laufwerke mit installiertem SSD-optimiertem ONTAP-Betriebssystem enthalten, werden als All-Flash FAS (AFF) bezeichnet.

DisksEdit

FAS-, ASA- und AFF-Systeme verwenden HDD- und SSD-Laufwerke (d. h. NVMe SSD) der Enterprise-Klasse mit zwei Ports, wobei jeder Port mit jedem Controller in einem HA-Paar verbunden ist. HDD- und SSD-Laufwerke können nur von NetApp erworben und in die NetApp Disk Shelves für die FAS/AFF-Plattform eingebaut werden. Physische HDD- und SSD-Laufwerke, Partitionen darauf und LUNs, die aus Arrays von Drittanbietern mit FlexArray-Funktionalität importiert wurden, werden in ONTAP als Disk betrachtet. In SDS-Systemen wie ONTAP Select & ONTAP Cloud werden logische Blockspeicher wie virtuelle Festplatten oder RDM innerhalb von ONTAP ebenfalls als Datenträger betrachtet. Verwechseln Sie nicht den allgemeinen Begriff „Laufwerk“ mit dem Begriff „Laufwerk im ONTAP-System“, da es sich bei ONTAP um ein ganzes physisches HDD- oder SSD-Laufwerk, eine LUN oder eine Partition auf einem physischen HDD- oder SSD-Laufwerk handeln kann. LUNs, die von Arrays von Drittanbietern mit FlexArray-Funktionalität in einer HA-Paar-Konfiguration importiert werden, müssen von beiden Knoten des HA-Paars aus zugänglich sein. Jeder Datenträger ist mit einer Eigentümerschaft versehen, um anzuzeigen, welcher Controller den Datenträger besitzt und bedient. Ein Aggregat kann nur Festplatten enthalten, die einem einzelnen Knoten gehören, daher wird jedes Aggregat, das einem Knoten gehört, und alle darauf befindlichen Objekte, wie FlexVol-Volumes, LUNs, Dateifreigaben, von einem einzigen Controller bedient. Jeder Controller kann seine eigenen Festplatten haben und sie aggregieren, wobei beide Knoten gleichzeitig genutzt werden können, auch wenn sie nicht dieselben Daten bedienen.

ADPEdit

Advanced Drive Partitioning (ADP) kann in ONTAP-basierten Systemen je nach Plattform und Anwendungsfall verwendet werden. ADP kann nur mit nativen Laufwerken aus NetApp Disk Shelves verwendet werden, die FlexArray-Technologie unterstützt ADP nicht. ADP wird auch mit Laufwerken von Drittanbietern in ONTAP Select unterstützt. Diese Technik wird hauptsächlich verwendet, um einige architektonische Anforderungen zu erfüllen und die Anzahl der Festplattenlaufwerke in ONTAP-basierten Systemen zu reduzieren. Es gibt drei Arten von ADP: Root-Data-Partitionierung; Root-Data-Data-Partitionierung (RD2, auch bekannt als ADPv2); Storage Pool.Root-Data-Partitionierung kann in FAS & AFF-Systemen verwendet werden, um kleine Root-Partitionen auf Laufwerken zu erstellen, um sie zur Erstellung von System-Root-Aggregaten zu verwenden und somit nicht ganze drei Festplattenlaufwerke für diesen Zweck zu verwenden. Im Gegensatz dazu wird der größere Teil des Laufwerks für Datenaggregate verwendet. Die Root-Data-Data-Partitionierung wird in AFF-Systemen nur aus demselben Grund wie die Root-Data-Partitionierung verwendet, mit dem einzigen Unterschied, dass der größere Teil des Laufwerks, der nach der Root-Partitionierung übrig bleibt, gleichmäßig auf zwei zusätzliche Partitionen aufgeteilt wird, wobei jede Partition in der Regel einem der beiden Controller zugewiesen wird. Dadurch wird die Mindestanzahl der für ein AFF-System erforderlichen Laufwerke reduziert und die Verschwendung von teurem SSD-Speicherplatz verringert. Storage Pool Partitionierungstechnologie, die in FAS-Systemen verwendet wird, um jedes SSD-Laufwerk gleichmäßig in vier Teile aufzuteilen, die später für die FlashPool-Cache-Beschleunigung verwendet werden können. Mit Storage Pool können nur wenige SSD-Laufwerke in bis zu 4 Datenaggregate aufgeteilt werden, die von der FlashCache-Caching-Technologie profitieren, wodurch die minimal erforderliche Anzahl von SSD-Laufwerken für diese Technologie reduziert wird.

NetApp RAID in ONTAPEdit

ONTAP Storage-Layout: Aggregate, Plex, RAID

In NetApp ONTAP Systemen sind RAID und WAFL eng integriert. In ONTAP-basierten Systemen sind mehrere RAID-Typen verfügbar:

  • RAID-4 mit einer dedizierten Paritätsfestplatte, die den Ausfall eines beliebigen Laufwerks in einer RAID-Gruppe ermöglicht.
  • RAID-DP mit zwei dedizierten Paritätsfestplatten, die den gleichzeitigen Ausfall von zwei beliebigen Laufwerken in einer RAID-Gruppe ermöglichen.
  • RAID-TEC US-Patent 7640484 mit 3 dedizierten Paritätsfestplatten, die den gleichzeitigen Ausfall von 3 Festplatten in einem RAID-Verbund ermöglichen.

RAID-DP’s doppelte Parität führt zu einer Festplattenverlust-Resilienz, die der von RAID-6 ähnlich ist. NetApp überwindet den Nachteil bei der Schreibleistung herkömmlicher RAID-4-Platten mit dedizierter Parität durch WAFL und eine neuartige Nutzung des nichtflüchtigen Speichers (NVRAM) in jedem Storage-System.Jedes Aggregat besteht aus einem oder zwei Plexus, ein Plexus besteht aus einer oder mehreren RAID-Gruppen. Typische ONTAP-basierte Speichersysteme haben nur einen Plexus in jedem Aggregat, zwei Plexus werden in lokalen SyncMirror- oder MetroCluster-Konfigurationen verwendet. Jede RAID-Gruppe besteht in der Regel aus Laufwerken desselben Typs, derselben Geschwindigkeit, Geometrie und Kapazität. Der NetApp Support kann einem Benutzer jedoch gestatten, vorübergehend ein Laufwerk mit derselben oder einer größeren Größe und einem anderen Typ, einer anderen Geschwindigkeit und Geometrie in einer RAID-Gruppe zu installieren. Gewöhnliche Datenaggregate, die mehr als eine RAID-Gruppe enthalten, müssen dieselben RAID-Gruppen im gesamten Aggregat haben. Es wird dieselbe RAID-Gruppengröße empfohlen, aber NetApp erlaubt eine Ausnahme für die letzte RAID-Gruppe und konfiguriert sie so klein wie die Hälfte der RAID-Gruppengröße im gesamten Aggregat. Ein solches Aggregat könnte zum Beispiel aus 3 RAID-Gruppen bestehen: RG0:16+2, RG1:16+2, RG2:7+2. Innerhalb von Aggregaten richtet ONTAP flexible Volumes (FlexVol) ein, um Daten zu speichern, auf die Benutzer zugreifen können.

Aggregate, die als FlshPool aktiviert sind und sowohl HDD- als auch SSD-Laufwerke enthalten, werden als Hybridaggregate bezeichnet. In Flash Pool-Hybridaggregaten gelten für das Hybridaggregat dieselben Regeln wie für normale Aggregate, jedoch getrennt für HDD- und SSD-Laufwerke, so dass zwei verschiedene RAID-Typen zulässig sind: nur ein RAID-Typ für alle HDD-Laufwerke und nur ein RAID-Typ für alle SSD-Laufwerke in einem einzigen Hybridaggregat. Zum Beispiel: SAS HDD mit RAID-TEC (RG0:18+3, RG1:18+3) und SSD mit RAID-DP (RG3:6+2). NetApp Storage-Systeme mit ONTAP kombinieren die zugrunde liegenden RAID-Gruppen ähnlich wie RAID-0. Bei NetApp FAS-Systemen mit FlexArray-Funktion können die LUNs von Drittanbietern ähnlich wie bei RAID-0 in einem Plex kombiniert werden. NetApp Storage-Systeme mit ONTAP können in MetroCluster- und SyncMirror-Konfigurationen eingesetzt werden, die eine mit RAID-1 vergleichbare Technik verwenden, bei der Daten zwischen zwei Plexen in einem Aggregat gespiegelt werden.

RAID-Gruppengröße (in Anzahl der Laufwerke) für Datenaggregate in AFF & FAS-Systemen
Laufwerkstyp Minimum Standard Maximum Minimum Standard Maximum Minimum Standard Maximum
RAID-4 RAID-DP RAID-TEC
NVMe SSD 3 8 14 5 24 28 7 25 29
SSD
SAS 16 24
SATA oder NL-SAS < 6TB 7 14 20 21
SATA oder NL-SAS (6TB, 8TB) 14
MSATA (6TB, 8TB) Nicht möglich
MSATA < 6TB 20
MSATA >= 10TB Nicht möglich
SATA oder NL-SAS >= 10TB

Flash PoolEdit

NetApp Flash Pool ist eine Funktion auf hybriden NetApp FAS Systemen, die es ermöglicht, hybride Aggregate mit HDD- und SSD-Laufwerken in einem einzigen Datenaggregat zu erstellen. Sowohl HDD- als auch SSD-Laufwerke bilden separate RAID-Gruppen. Da SSD auch für Schreibvorgänge verwendet wird, ist im Gegensatz zu Flash Cache RAID-Redundanz erforderlich, aber es können unterschiedliche RAID-Typen für HDD und SSD verwendet werden. So ist es beispielsweise möglich, 20 HDD 8 TB in RAID-TEC und 4 SSD in RAID-DP 960 GB in einem einzigen Aggregat zu verwenden. SSD-RAID wird als Cache verwendet und verbessert die Leistung bei Lese- und Schreibvorgängen für FlexVol-Volumes auf dem Aggregat, bei dem SSD als Cache hinzugefügt wird. Der Flash-Pool-Cache verfügt ähnlich wie der Flash-Cache über Richtlinien für Lesevorgänge, umfasst aber auch Schreibvorgänge, die für jedes FlexVol-Volume auf dem Aggregat separat gelten können; daher kann er für einige Volumes deaktiviert werden, während andere vom SSD-Cache profitieren. Sowohl FlashCache & als auch FlashPool können gleichzeitig verwendet werden, um Daten von einem einzelnen FlexVol zu cachen, um ein Aggregat mit Flash-Pool-Technologie zu ermöglichen. Es sind mindestens 4 SSD-Platten erforderlich (2 Daten, 1 Parität und 1 Hot Spare), es ist auch möglich, die ADP-Technologie zu verwenden, um SSD in 4 Teile zu partitionieren (Storage Pool) und diese Teile auf zwei Controller zu verteilen, so dass jeder Controller vom SSD-Cache profitiert, wenn eine kleine Menge SSD vorhanden ist. Flash Pool ist mit FlexArray nicht verfügbar und ist nur mit NetApp FAS nativen Festplattenlaufwerken in NetApp Disk Shelves möglich.

FlexArrayEdit

FlexArray ist eine NetApp FAS-Funktionalität, die es ermöglicht, Storage-Systeme von Drittanbietern und andere NetApp Storage-Systeme über SAN-Protokolle zu visualisieren und anstelle von NetApp Disk Shelves zu verwenden. Mit der FlexArray-Funktionalität muss der RAID-Schutz mit einem Storage-Array eines Drittanbieters erfolgen, so dass RAID-4, RAID-DP und RAID-TEC von NetApp in solchen Konfigurationen nicht verwendet werden. Ein oder mehrere LUNs aus Arrays von Drittanbietern können ähnlich wie bei RAID-0 zu einem einzigen Aggregat hinzugefügt werden. FlexArray ist eine lizenzierte Funktion.

NetApp Storage EncryptionEdit

NetApp Storage Encryption (NSE) verwendet speziell für diesen Zweck entwickelte Festplatten mit Hardware-basierter Vollverschlüsselung (FDE/SED) und unterstützt auch FIPS-zertifizierte selbstverschlüsselte Laufwerke. Die NSE-Funktion wirkt sich insgesamt kaum auf die Performance des Storage-Systems aus. Ähnlich wie bei NetApp Volume Encryption (NVE) können Storage-Systeme mit ONTAP den Verschlüsselungsschlüssel lokal im Onboard Key Manager oder auf dedizierten Key Manager-Systemen mit KMIP-Protokoll wie IBM Security Key Lifecycle Manager und SafeNet KeySecure speichern. Bei NSE handelt es sich um eine Data-at-Rest-Verschlüsselung, d. h. sie schützt nur vor dem Diebstahl physischer Datenträger und bietet keinen zusätzlichen Schutz für die Datensicherheit in einem normalen, in Betrieb befindlichen System. NetApp hat das NIST Cryptographic Module Validation Program für sein NetApp CryptoMod (TPM) mit ONTAP 9.2 bestanden.

MetroClusterEdit

SyncMirror-Replikation mit Plexus

MetroCluster (MC) ist eine kostenlose Funktionalität für FAS- und AFF-Systeme für Metro-Hochverfügbarkeit mit synchroner Replikation zwischen zwei Standorten, diese Konfiguration erfordert zusätzliche Geräte. Verfügbar in beiden Modi: 7-Mode (altes OS) und Cluster-Mode (oder cDOT – eine neuere Version des ONTAP OS). MetroCluster im Cluster-Modus, bekannt als MCC. MetroCluster verwendet RAID SyncMirror (RSM) und die Plexus-Technik, bei der an einem Standort eine Anzahl von Festplatten eine oder mehrere RAID-Gruppen bilden, die in einem Plexus zusammengefasst sind, während am zweiten Standort die gleiche Anzahl von Festplatten mit dem gleichen Typ und der gleichen RAID-Konfiguration zusammen mit dem Configuration Replication Service (CRS) und der NVLog-Replikation vorhanden ist. Ein Plexus repliziert synchron zu einem anderen in einem Verbund mit nichtflüchtigem Speicher. Zwei Plexes bilden einen Verbund, in dem die Daten gespeichert werden und im Falle einer Katastrophe an einem Standort bietet der zweite Standort Lese- und Schreibzugriff auf die Daten. MetroCluster unterstützt die FlexArray-Technologie. MetroCluster-Konfigurationen sind nur mit Midrange- und Highend-Modellen möglich, die die Möglichkeit bieten, zusätzliche Netzwerkkarten zu installieren, die für MC erforderlich sind, um zu funktionieren.

MCCEdit

MetroCluster lokale und DR pare Speicherreplikation in NetApp FAS/AFF Systemen, die als MCC konfiguriert sind

Mit MetroCluster ist es möglich, einen oder mehrere Storage-Knoten pro Standort zu haben, um einen Cluster oder Clustered MetroCluster (MCC) zu bilden. Der entfernte und der lokale HA-Knoten müssen dasselbe Modell sein. MCC besteht aus zwei Clustern, die sich jeweils an einem von zwei Standorten befinden. Es darf nur zwei Standorte geben. In der MCC-Konfiguration bilden jeweils ein entfernter und ein lokaler Speicherknoten ein Metro-HA- oder Disaster-Recovery-Pare (DR-Pare) über zwei Standorte hinweg, während zwei lokale Knoten (falls es einen Partner gibt) ein lokales HA-Pare bilden, d. h. jeder Knoten repliziert die Daten synchron im nichtflüchtigen Speicher zweier Knoten: eines entfernten und eines lokalen (falls es einen gibt). Es ist möglich, nur einen Speicherknoten an jedem Standort zu verwenden (zwei Einzelknoten-Cluster), die als MCC konfiguriert sind. MCC mit 8 Knoten besteht aus zwei Clustern mit je 4 Knoten (2 HA-Paare), wobei jeder Speicherknoten nur einen entfernten und einen lokalen HA-Partner hat. In einer solchen Konfiguration kann jeder Standort-Cluster aus zwei verschiedenen Speicherknotenmodellen bestehen. Für kleine Entfernungen benötigt MetroCluster mindestens eine FC-VI oder neuere iWARP-Karte pro Knoten. FAS- und AFF-Systeme mit ONTAP-Softwareversionen 9.2 und älter verwenden FC-VI-Karten und benötigen für große Entfernungen vier dedizierte Fibre-Channel-Switches (zwei an jedem Standort) und zwei FC-SAS-Brücken für jeden Plattenstapel, also insgesamt mindestens vier für zwei Standorte und mindestens zwei Dark-Fiber-ISL-Links mit optionalen DWDMs für große Entfernungen. Daten-Volumes, LUNs und LIFs können nur innerhalb eines einzelnen Standorts, von dem die Daten stammen, online über Speicherknoten im Cluster migriert werden: es ist nicht möglich, einzelne Volumes, LUNs oder LIFs mithilfe von Cluster-Funktionen über Standorte hinweg zu migrieren, es sei denn, es wird ein MetroCluster-Switchover-Vorgang verwendet, bei dem die gesamte Hälfte des Clusters an einem Standort deaktiviert und der Zugriff auf alle Daten für die Clients und Anwendungen transparent auf einen anderen Standort umgestellt wird.

MCC-IPEdit

NetApp MetroCluster over IP mit ADPv2-Konfiguration

Beginnend mit ONTAP 9.3 wurde MetroCluster over IP (MCC-IP) eingeführt, so dass keine dedizierten Back-End-Fibre-Channel-Switches, FC-SAS-Brücken und dedizierte Dark-Fiber-ISL mehr erforderlich sind, die zuvor für eine MetroCluster-Konfiguration benötigt wurden. Anfänglich wurden nur A700 & FAS9000 Systeme mit MCC-IP unterstützt. MCC-IP ist nur in 4-Knoten-Konfigurationen verfügbar: Hochverfügbares 2-Knoten-System an jedem Standort mit insgesamt zwei Standorten. Mit ONTAP 9.4 unterstützt MCC-IP das A800-System und Advanced Drive Partitioning in Form von Rood-Data-Data (RD2) Partitioning, auch bekannt als ADPv2. ADPv2 wird nur auf All-Flash-Systemen unterstützt. MCC-IP-Konfigurationen unterstützen Single-Disk-Shelf, bei denen SSD-Laufwerke in ADPv2 partitioniert sind. MetroCluster over IP erfordern Ethernet-Cluster-Switches mit installiertem ISL und nutzen iWARP-Karten in jedem Speicher-Controller für synchrone Replikation. Ab ONTAP 9.5 unterstützt MCC-IP Entfernungen von bis zu 700 km und beginnt mit der Unterstützung der SVM-DR-Funktion, AFF A300 und FAS8200-Systemen.