NetApp FAS

各ストレージシステムのモデルには、プロセッサ、RAM、不揮発性メモリの構成が設定されており、ユーザーが購入後に拡張することはできません。 一部のエントリポイント ストレージ コントローラを除き、NetApp FAS、ASA、AFF システムには通常、ネットワーク、テープ、ディスクの追加接続用に、少なくとも1つのPCIeベース スロットが用意されています。 2008年6月、ネットアップは、集中的なランダム読み取りを行うワークロードのパフォーマンスを最適化するパフォーマンス・アクセラレーション・モジュール(またはPAM)を発表しました。 このオプションのカードはPCIeスロットに装着し、ディスクとストレージシステムのキャッシュおよびシステムメモリの間に追加のメモリ(またはキャッシュ)を提供し、パフォーマンスを向上させます。 通常、AFF システムは FAS と同じハードウェアをベースにしていますが、最初のものは最適化され、バックエンドの SSD ドライブのみで動作し、2番目のものは HDD と SSD をキャッシュとして使用できます。たとえば、AFF A700 & FAS9000、A300 & FAS8200、A200 & FAS2600、A220 & FAS2700 では同じハードウェアを使用していますが、AFF システムにはフラッシュ キャッシュ カードが含まれません。 また、AFFシステムは、サードパーティ製ストレージアレイ仮想化機能付きFlexArrayをサポートしていません。 AFFはUnifiedシステムであり、SAN & NASデータ・プロトコル接続を提供でき、FASシステムの従来のSAN & NASプロトコルに加え、AFFは32Gbit/s FCポート搭載システム向けにブロック・ベースのNVMe/FCプロトコルを搭載しています。 AFF & FASは同じファームウェア・イメージを使用しており、エンドユーザーにとって目立つ機能はほぼすべて両ストレージ・システムで同じです。 しかし、内部的にはONTAPで処理され、扱われるデータは異なる。 たとえば、AFFシステムでは、FASシステムと比較して、異なる書き込み割り当てアルゴリズムが使用されます。 AFF システムには高速な SSD ドライブがあるため、ONTAP システムのインライン データ重複排除はほとんど目立ちません (ローエンド システムで ~2% のパフォーマンス影響)。

ASAEdit

ONTAP が動作し、AFF プラットフォームに基づくすべての SAN アレイは、その機能 & を継承し、データは AFF システムと同様に内部処理されて扱われます。 その他のすべてのONTAPベースのハードウェアおよびソフトウェア・プラットフォームは、SAN & NASデータ・プロトコルによる統一アクセスを提供できることを意味するUnified ONTAPと呼ばれることがあります。 ASAシステムのONTAPアーキテクチャは、FAS & AFFと同じであり、変更はありません。 AFF & FASシステムと同じファームウェア・イメージを使用するASAシステム。 ASAはAFFと同じであり、唯一の違いはSANプロトコルによるネットワーク上のストレージへのアクセスです。 ASA はブロックデバイス (LUN または NVMe 名前空間) への対称的なアクティブ/アクティブアクセスを提供し、Unified ONTAP システムはブロックプロトコルに ALUA と ANA を引き続き使用します。

StorageEdit

NetApp は SATA、Fibre Channel、SAS または SSD ディスクドライブを使用し、最大 28 (26 データディスクと 2 パリティディスク) の RAID (Redundant Array of Inexpensive Disks または Redundant Array of Independent Disks) グループにグループ化されます。 SSDに最適化されたONTAP OSがインストールされたSSDドライブのみを搭載したNetApp FASストレージシステムは、AFF(All-Flash FAS)と呼ばれます。

DisksEdit

FAS, ASA, AFFシステムは、エンタープライズレベルのHDDとSSD(NVMe SSDなど)ドライブで2ポート使用し、各ポートはHAペアでそれぞれのコントローラーに接続されています。 HDDとSSDのドライブは、ネットアップから購入し、ネットアップのディスクシェルフ for FAS/AFFプラットフォームにインストールすることのみが可能です。 物理的なHDDやSSDドライブ、その上のパーティション、FlexArray機能を持つサードパーティアレイから取り込んだLUNは、ONTAPではDiskとして扱われます。 ONTAP Select & ONTAP CloudなどのSDSシステムでは、ONTAP内の仮想ディスクやRDMなどの論理ブロックストレージもDiskとして扱われます。 ONTAPでは、物理的なHDDやSSDのドライブ全体、LUN、物理的なHDDやSSDのドライブ上のパーティションなどが考えられるため、一般的な「ディスクドライブ」と「ONTAPシステムで使用するディスクドライブ用語」を混同しないようにしてください。 FlexArray機能を持つサードパーティアレイからHAペア構成でインポートしたLUNは、HAペアの両ノードからアクセス可能である必要があります。 各ディスクには、どのコントローラーがそのディスクを所有し、サービスを提供しているかを示すために、所有権が設定されています。 アグリゲートには、1つのノードが所有するディスクのみを含めることができるため、ノードが所有する各アグリゲートとその上のオブジェクト(FlexVolボリューム、LUN、ファイルシェアなど)は、1つのコントローラーで提供されます。

ADPEdit

Advanced Drive Partitioning (ADP) は、プラットフォームと使用状況に応じて、ONTAP ベースのシステムで使用することが可能です。 ADPはNetApp Disk shelvesのネイティブディスクドライブでのみ使用でき、FlexArrayテクノロジーはADPをサポートしません。 ADPは、ONTAP Selectのサードパーティ製ドライブでもサポートされています。 この技術は主に、アーキテクチャ上の要件を克服し、ONTAPベースのシステムでディスクドライブの数を減らすために使用されます。 ADPには3つのタイプがあります。 ルート・データ・パーティションは、FAS & AFFシステムで使用でき、ドライブ上に小さなルート・パーティションを作成して、システム・ルート集合体を作成するために使用するため、その目的のために3台のディスク・ドライブ全体を使用する必要はありません。 これに対して、ディスク・ドライブの大きな部分はデータ・アグリゲートに使用されます。 ルート-データ-データパーティショニングは、ルート-データパーティショニングと同じ理由でAFFシステムで使用されます。唯一の違いは、ルートパーティショニング後に残ったドライブの大きな部分は、2つの追加パーティションで均等に分割され、通常、各パーティションは2つのコントローラのいずれかに割り当てられているので、AFFシステムの必要最小数のドライブと高価なSSD空間の無駄が少なくなっていることです。 ストレージ プール パーティショニング テクノロジーは、FAS システムで使用され、各 SSD ドライブを均等に 4 分割し、後で FlashPool キャッシュ アクセラレーションに使用することができ、ストレージ プールでは、わずかな SSD ドライブを最大 4 つのデータ アグリゲートで分割でき、FlashCache キャッシュ テクノロジーの恩恵を受け、そのテクノロジーに必要な SSD ドライブ数を最小にできます。 Aggregate、Plex、RAID

NetApp ONTAP システムでは、RAID と WAFL は緊密に統合されています。 ONTAPベースのシステム内では、いくつかのRAIDタイプを利用できます。

  • RAID-4 は、1 つの専用パリティ ディスクで、RAID グループ内の任意の 1 つのドライブに障害が発生するようにします。
  • RAID-DP は、2 つの専用パリティ ディスクで、RAID グループ内の任意の 2 つのドライブに同時に障害が発生するようにします。
  • RAID-TEC 米国特許 7640484 専用パリティ・ディスク3台で、RAID グループ内で任意の3台のドライブが同時に故障することを可能にします。

RAID-DP のダブルパリティは、RAID-6 と同様のディスク損失回復力を実現します。 ネットアップは、WAFLと各ストレージシステム内の不揮発性メモリ(NVRAM)の新しい使用により、従来のRAID-4スタイルの専用パリティディスクの書き込みパフォーマンス低下を克服します。各アグリゲートは、1または2のプレックス、プレックスは、1または複数のRAIDグループで構成されます。 一般的なONTAPベースのストレージシステムは、各アグリゲートに1プレックスしかなく、ローカルのSyncMirrorまたはMetroCluster構成では2プレックスが使用されます。 各RAIDグループは、通常、同じタイプ、スピード、ジオメトリ、容量のディスクドライブで構成されています。 ただし、ネットアップのサポートでは、一時的に、同じまたはより大きなサイズで、タイプ、速度、ジオメトリが異なるドライブをRAIDグループにインストールすることを許可する場合があります。 通常のデータアグリゲートでは、複数のRAIDグループを含む場合、アグリゲート全体で同じRAIDグループを使用する必要があり、同じRAIDグループサイズを推奨しますが、ネットアップでは最後のRAIDグループに例外を設け、アグリゲート全体でRAIDグループサイズの半分まで小さく構成することができます。 例えば、このようなアグリゲートは3つのRAIDグループで構成されているとします。 RG0:16+2、RG1:16+2、RG2:7+2。 756>

FlshPool として有効で、HDD および SSD ドライブの両方を持つアグリゲートは、ハイブリッドアグリゲートと呼ばれます。 Flash Pool のハイブリッド アグリゲートでは、通常のアグリゲートと同じルールが適用されますが、HDD と SSD ドライブには別々に適用されます。したがって、1 つのハイブリッド アグリゲートで、すべての HDD ドライブに対して 1 つの RAID タイプのみを、すべての SSD ドライブに対して 1 つの RAID タイプのみを持つことが許可されます。 たとえば、SAS HDDにRAID-TEC(RG0:18+3、RG1:18+3)、SSDにRAID-DP(RG3:6+2)を使用する場合です。 ONTAPを実行するネットアップストレージシステムは、RAID-0と同様に基礎となるRAIDグループを組み合わせます。 また、FlexArray機能を持つNetApp FASシステムでは、サードパーティ製LUNをRAID-0と同様にPlexで組み合わせることができます。 ONTAPを実行するNetAppストレージシステムは、MetroClusterおよびSyncMirror構成で展開できます。これらは、アグリゲート内の2つのプレックス間でデータをミラーリングするRAID-1と同等の技術を使用しています。

SATA または NL- (8222)。SAS < 6TB

AFF & FAS システムにおけるデータアグリゲートの RAID グループサイズ (ドライブ数)
Drive Type Minimum Default Maximum Minimum Default Maximum
RAID-…4 RAD-DP RAD-…TEC
NVMe SSD 3 8 14 5 24 28 7 25 29
SSD
SAS 16 24
7 14 20 21
SATA または NL-SAS(6TB, 8TB) 14
msata(6TB, 8TB) 不可
MSATA < 6TB 20
MSATA >= 10TB 不可
SATA または NL-…SAS >= 10TB

Flash PoolEdit

NetApp Flash Poolは、HDDドライブとSSDドライブで単一のデータアグリゲートを作成できる、NetApp FASハイブリッドシステム上の機能です。 HDDドライブとSSDドライブの両方が別々のRAIDグループを形成します。 SSDは書き込みにも使用されるため、Flash Cacheとは逆にRAIDによる冗長化が必要ですが、HDDとSSDで異なるRAIDタイプを使用できます。例えば、1つのアグリゲートでHDD 8TBを20台、SSD 4台をRAID-DP 960GBで構成することが可能です。 SSD RAIDをキャッシュとして使用し、SSDをキャッシュとして追加したアグリゲート上のFlexVolボリュームのリードライト操作のパフォーマンスを向上させた。 フラッシュプールキャッシュは、フラッシュキャッシュと同様に読み込み操作のポリシーを持っていますが、書き込み操作も含まれ、アグリゲート上の各FlexVolボリュームに個別に適用することができます。 FlashCache & FlashPool の両方を同時に使用して、単一の FlexVol からデータをキャッシュし、Flash Pool テクノロジーによるアグリゲートを有効にするには、最小 4 SSD ディスク(2 データ、1 パリティ、1 ホットスペア)が必要ですが、ADP テクノロジーで SSD を 4 分割(ストレージプール)して、これらの部分を 2 つのコントローラに分配し、SSD の量が少ない場合に各コントローラに SSD キャッシュの恩恵を受けられるようにもすることが可能です。 FlexArrayEdit

FlexArray は NetApp FAS の機能で、サードパーティのストレージ システムや他の NetApp ストレージ システムを SAN プロトコル上で視覚化し、NetApp のディスク シェルフの代わりに使用することが可能です。 FlexArray機能では、RAID保護はサードパーティーのストレージアレイで行う必要があるため、ネットアップのRAID-4、RAID-DP、RAID-TECはこの構成で使用できません。 サードパーティアレイからの1つまたは複数のLUNは、RAID-0と同様に1つのアグリゲートに追加することができます。 FlexArrayはライセンス機能です。

NetApp Storage EncryptionEdit

NetApp Storage Encryption(NSE)は、低レベルのハードウェアベースのフルディスク暗号化(FDE/SED)機能付きの専用ディスクを使用しており、FIPS認定自己暗号ドライブもサポートされており、ほぼすべてのNetApp ONTAP機能およびプロトコルに対応していますが、メトロクラスタは提供されません。 NSE機能は、全体としてストレージ・システムのパフォーマンスにほとんど影響を与えません。 NSE機能は、NetApp Volume Encryption(NVE)と同様に、ONTAPを実行しているストレージシステムで、暗号化キーをOnboard Key Managerにローカルに保存するか、IBM Security Key Lifecycle ManagerやSafeNet KeySecureなどのKMIPプロトコルを使用して専用のキーマネージャー・システムで保存することが可能です。 NSEはdata at rest encryptionであり、物理ディスクの盗難からのみ保護し、通常の運用システムにおいて追加のデータセキュリティ保護レベルを与えるものではありません。 ネットアップは、ONTAP 9.2でNetApp CryptoMod(TPM)のNIST Cryptographic Module Validation Programに合格しています。

MetroClusterEdit

プレックスを使用した同期ミラーレプリケーション

MetroCluster (MC) は、2サイト間の同期レプリケーションによるメトロ高可用性のためのFASおよびAFFシステム用の無償機能です、この構成には追加設備が必要です。 7-mode(旧OS)とCluster-Mode(またはcDOT – ONTAP OSの新バージョン)の両方のモードで利用可能です。 MCCとして知られているCluster-ModeのMetroCluster。 MetroClusterは、RAID SyncMirror(RSM)とプレックス技術を使用しており、1つのサイトではディスクの数がプレックスに集約された1つまたは複数のRAIDグループを形成し、2番目のサイトでは同じ種類とRAID構成のディスクの数がCRS(構成レプリケーションサービス)とNVLogレプリケーションと一緒に用意されている。 1つのプレックスは、不揮発性メモリを持つコンパウンドで別のプレックスに同期してレプリケーションを行います。 2つのプレックスは、データが保存されている集合体を形成し、1つのサイトで災害が発生した場合、2番目のサイトがデータへの読み書きアクセスを提供します。 MetroClusterはFlexArray技術をサポートしています。 MetroCluster構成は、MCが機能するために必要な追加のネットワークカードをインストールする機能を提供するミッドレンジおよびハイエンドモデルでのみ可能です。

MCCEdit

MCCとして構成されたNetApp FAS/AFF システムのMetroClusterローカルおよびDRペアメモリレプリケーション

MetroClusterでは、サイトごとに1台または複数のストレージノードで、クラスターまたはClustered MetroCluster(MCC)を構築することが可能です。 リモートとローカルのHAパーターノードは、同じモデルである必要があります。 MCCは、2つのサイトのいずれかにそれぞれ配置された2つのクラスターで構成されます。 サイトは2つしかない場合もあります。 MCC構成では、リモートとローカルのストレージノードがそれぞれ2サイトにわたるメトロHAまたはディザスターリカバリーパレ(DRパレ)を形成し、2つのローカルノード(パートナーがいる場合)がローカルHAパレを形成するため、各ノードは、リモートとローカル(1つある場合)の2ノードで同期的に不揮発メモリにデータをレプリケートすることになります。 MCCとして構成された各サイトのストレージノード(2つのシングルノードクラスター)を1つだけ使用することも可能です。 8ノードMCCは、4ノードずつの2つのクラスタ(2 HAペア)で構成され、各ストレージノードにはリモートパートナーが1つ、ローカルHAパートナーが1つだけあり、この構成では各サイトクラスタを2種類のストレージノードモデルで構成することが可能です。 距離が短い場合、MetroClusterではノードごとに少なくとも1枚のFC-VIまたは新しいiWARPカードが必要です。 ONTAPソフトウェア・バージョン9.2以前のFASおよびAFFシステムではFC-VIカードを使用し、長距離の場合は各ディスク・シェルフ・スタックごとに4台の専用ファイバー・チャネル・スイッチ(各サイトに2台)と2台のFC-SASブリッジが必要で、2サイトで合計4台以上、長距離では最低2台のダークファイバーISLリンク(DWDMオプション)を使用する必要があります。 データ・ボリューム、LUN、およびLIFは、データが発生した単一サイト内においてのみ、クラスタのストレージ・ノード間でオンライン移行できます。クラスタ機能を使用して個々のボリューム、LUN、またはLIFをサイト間で移行することは、サイトのクラスタの半分全体を無効化し、クライアントとアプリケーションに対して透過的にすべてのデータへのアクセスを別のサイトに切り換えるメトロクラスタのスイッチオーバー操作が使用されている場合、不可能になります。

MCC-IPEdit

NetApp MetroCluster over IP with ADPv2 configuration

ONTAP 9.3 MetroCluster over IP (MCC-IP) は、これまで MetroCluster 構成に必要だった専用バックエンド Fibre Channel スイッチ、 FC-SAS ブリッジおよび専用ダークファイバ ISL を必要としないようにするために導入されました。 当初は、A700 & FAS9000システムのみがMCC-IPに対応していました。 MCC-IPは、4ノード構成でのみ利用可能です。 各サイトに2ノードのHighly Availableシステム、合計2サイト。 ONTAP 9.4では、MCC-IPはA800システムと、ADPv2としても知られるRood-Data-Data(RD2)パーティショニングの形式によるAdvanced Drive Partitioningをサポートしています。 ADPv2はオールフラッシュシステムでのみサポートされます。 MCC-IP構成は、ADPv2でパーティショニングされたSSDドライブを搭載したシングルディスクシェルフをサポートします。 MetroCluster over IPでは、ISLがインストールされたEthernetクラスタースイッチが必要で、同期レプリケーションには各ストレージコントローラーのiWARPカードが使用されます。 ONTAP 9.5以降、MCC-IPは700kmまでの距離をサポートし、SVM-DR機能、AFF A300、およびFAS8200システムのサポートを開始しました。