SSDを仮想環境のストレージキャッシュとして使うプロダクト(IBM,Fusion-IO,ProximalData,PernixData)

2021/04/07追記

Fusion IO → 2014年にSanDiskに買収。SanDisk Flashsoft(終了済)
ProximalData AutoCache → 2014年11月頃にSamsungに買収? Samsung ProximalData(終了済)
PernixData FVP→ 2016年にNutanixに買収された(2019年EoL)
OCZ → 2013年に東芝に買収されたあと、2019年に東芝メモリがKIOXIAになったが、移管されなかった?

また、VMware vSphere純正として登場したvFlash Read Cache。なんと、2019年にvSphere 6.7 Update 2で終息してしまった。vSANで分散ストレージ作ればいいでしょ、ということになったようだ。

では、2021年現在で提供されているESXiサーバ側でストレージキャッシュを持つような似たようなプロダクトとして何があるのか?

Virtunet Systems社「VirtuCache」で、ESXi 7.0U2のコンパチにも掲載されている

ぐらいしかないらしい。


サーバ本体に入れたPCIe接続のSSD(Fusion-IOなど)や、普通のSSDなどを、ストレージキャッシュとして使おうというソフトウェアをIBMが出してきた。

IBMプレスリリース:「仮想化環境の高速な処理を実現するFlashCache Storage Accelerator
クラウドWatchでの紹介記事:「日本IBM、フラッシュメモリを用いて仮想環境での処理を高速化するキャッシュソフト

これと類似のソフトウェアというのは、すでにいくつか製品がある。

Fusion-IO ioTurbine
 これはFusion-IO専用
 高速化をはかれるストレージは「Designed for all major SAN and NAS storage systems」とあるので
 FC/SAS/iSCSI/NFSなのかな?と思われる。
 vSphere ESXi用にインストールして使う

ProximalData AutoCache
 Fusion-IO,LSI Nytro WarpDriveなどのPCIe系や、普通のSSDに対応
 高速化をはかれるストレージは、FC/SAS/iSCSIハードウェアイニシエータ/iSCSIソフトウェアイニシエータ
 そして、NFS、と多岐に渡る。
 評価中だけど、特に問題はなさげ。
 vSphere ESXi用にインストールして使う

PernixData FVP
 Fusion-IO,LSI Nytro WarpDriveなどのPCIe系や、普通のSSDに対応
 高速化をはかれるストレージは、FC/SAS/iSCSIとある。
 評価してみようと手配中・・・
 vSphere ESXi用にインストールして使う

今回のIBM FlashCache Storage Acceleratorの特異な点は「FlashCache Storage Acceleratorは、VMware ESXi 5.0/5,1および、Windows Server 2008/2012、Red Hat Enterprise Linux 5/6に対応しています。」という点かも?
これが、Hyper-VとKVMの仮想化環境にも対応しているという意味であれば、他ではない特徴と言えますね。

・・・ほんとにそうなのかな????
FlashCache Storage Acceleratorの製品ページは日米ともにないので、詳細がよくわかりません。


2013/08/21追記

 

IBM FlashCache Storage Acceleratorは、Fusion-ioのioTurbineをベースとし、Fusion-IO以外の製品にも対応させたもの、だそうです。

IBM US側で製品ページ「IBM FlashCache Storage Accelerator」も公開されました。
ただ、ここに掲載されているデータシートの対応システムには、「VMware ESXi 5.0, ESXi 5.1」という記載のみ。
ほんとに、Hyper-VやKVMに対応するの???


2013/10/22 追記

 

SANRAD VXL SoftwareおよびOCZ VXL VMware Acceleration
 SANRAD社が開発したものを、FlashストレージベンダのOCZが買収してるもの
 この製品はESXi向け
 SANRAD社の方の資料を見ると、FC/SAS/iSCSI/NFS全般に使用できるようだ。
日本だとASK社取扱で、そのページには「VMware ESX、Citrix Xen、Microsoft Hyper-V対応」って書かれているのが謎。
 OCZ社のページだと、「VMware ESX」としか書かれてない。

会社向けでNAS OS単品で入手しようとしたらどこから?(2023/11/14修正)

会社で使うためのサポートありでNAS OS単品で入手できそうなところを調べてみた。

なお、WindowsStorageServerは除外しています。

2023/11/14: 微修正
2023/03/20: StarWind Virtual HCI Appliance (vHCI)を追加
2021/05/07: XigmaNAS追加
2020/12/02: 再調査し、結果を反映
2013/08/02: 初版作成

 iXsystems社 TrueNAS / FreeNAS

以前は別ラインだったTrueNASFreeNASは2020年3月に統合が発表され、TrueNAS CORE(旧FreeNAS)とTrueNAS Enterpriseになっていくことになりました。

商用向けは、TrueNAS Enterpriseになる。

ベースOS: FreeBSD?
ベースファイルシステム: zfs
対応ブロックストレージプロトコル: iSCSI
対応ファイルアクセスプロトコル: NFS,CIFS,AFS

なお、TrueNAS SCALEというLinuxベースのものもgithubにて開発中。OpenZFSとGlusterを組み合わせたスケールアウトとなっている。まだ全体を置き換える感じではない模様。

ドキュメント類
TrueNAS CORE 13.0
TrueNAS SCALE 22.12(Bluefin), TrueNAS SCALE 23.10 (Cobia)

TrueNASのリリーススケジュール を見ると、TrueNAS COREの商用版がTrueNAS CORE Enterprise、TrueNAS SCALEの商用版がTrueNAS SCALE Enterpriseという扱いになるようだ。

DDN社 NexentaStor / NexentaStor VSA

いつの間にかストレージベンダのDDN社がNexentaを買収していた(2019年5月 DDN to Acquire Nexenta)。DDNは別のストレージベンダTintri社も買収しており、NexentaStor VSA for Tintriというコラボ商品もリリースしていた。

ソフトウェア商品としては「NexentaStor」で、仮想環境上に載せるアプライアンスが「NexentaStor Virtual Appliance(VSA)」という商品名になっている。

ベースOS:OpenSolaris
ベースファイルシステム: zfs
対応ブロックストレージプロトコル: iSCSI,FC
対応ファイルアクセスプロトコル: NFS,CIFS,AFS,WebDAV

NexentaStorの技術情報は「https://nexenta.github.io/」で確認できる。

NexentaStor 5.5 and NexentaFusion 2.0 でリリースノートを見てみると、Tintri のロゴで始まっているので、Tinrti扱い?

NexentaStor 5.5は2022年12月リリースで、5.5FP2が2023年7月リリース、という形になっているようだ。

Open-E社 Open-E JovianDSS / Open-E DSS V7

相変わらずNAS OSの単品販売メインのOpen-E2020年2023年も健在。1998年創業なので25周年記念、とWebでうたっている。

旧来のOpen-E DSS V7に加えて、ファイルシステムにzfsを採用したOpen-E JovianDSSが登場した。

ベースOS: Linuxベース
ベースファイルシステム: DSSV7はxfs, JovianDSSはzfs
対応ブロックストレージプロトコル: iSCSI
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
NAS OS単品提供のみ

2023/11/14現在、OPEN-E DSS V7ページにはあと約1年で製品終了、と記載されるようになり、Open-E JovianDSSのみが継続しているようだ。

Open-E JovianDSSは標準価格が明記されていて分かりやすい。

StarWind社 StarWind Virtual SAN(VSAN)

StarWind社がStarWind Virtual SANというのを公開している。

日本のclimbが取り扱っており「StarWind技術ブログ」も公開している。

StarWind Virtual HCI Appliance (vHCI)という形でHyper-Vサーバ/ESXiサーバと組み合わせて使うタイプの製品も出ている

ベースOS: Linuxベース
対応ブロックストレージプロトコル: iSCSI
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
NAS OS単品提供のみ

OSNEXUS社 QuantaStor

OSNEXUSという会社が開発しているもの。

Community Editionは”1サーバあたり物理40TB”を4サーバまでで、2年間使えるライセンスが発行されるようだ。

ベースOS: Linux Ubuntu Serverベース
対応ブロックストレージプロトコル: iSCSI,FC
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
NAS OS単品提供のみ

ドキュメント

XigmaNAS(NAS4Free)

元々2005年にFreeNASという名前で始まって、2011年にiXsystems社がFreeNASの商用を買収したことによりNAS4Freeに改名し、2018年から現状のXigmaNASになっている。

価格をつけて販売しているわけではないので載せるか悩んだが、サーバ筐体などを売っているAspen Systemsというところとjet streamでインストールしたサーバを販売しているようなので掲載。

資料サイト

ベースOS: FreeBSD
ファイルシステム: OpenZFS
対応ブロックストレージプロトコル: iSCSI
対応ファイルアクセスプロトコル: NFS,CIFS,AFS

XigmaNAS 13.1.0.5 = FreeBSD 13.1
XigmaNAS 13.0.0.5 = FreeBSD 13.0
XigmaNAS 12.3.0.4 = FreeBSD 12.3
XigmaNAS 12.2.0.4 = FreeBSD 12.2
XigmaNAS 11.4.0.4 = FreeBSD 11.4

その他

CloudByte社 ElastiStorは、MayaData社(https://mayadata.io/)に移管後はプロダクトが見当たらないので消えた模様。githubアカウントはmayadataのやつcloudbyteのがある。cloudbytesの方は最終更新が2018年1月。2023/11/04現在mayadata.io にアクセスできなくなっていた。

RisingTide Systems RT OS はドメイン毎消滅。もともと情報が少なかったけど、その後は不明。


下記は2013年8月2日時点の情報を記録のため残しておく

iXsystem TrueNAS Unified Storage

ベースOS: FreeBSD8
ベースファイルシステム: zfs
対応ブロックストレージプロトコル: iSCSI
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
Fusion-IOによるパフォーマンスアップ策あり
FreeNASの開発主体

Nexenta NexentaStor
ベースOS:OpenSolaris
ベースファイルシステム: zfs
対応ブロックストレージプロトコル: iSCSI,FC
対応ファイルアクセスプロトコル: NFS,CIFS,AFS,WebDAV
NAS OS単品提供あり
SSDによるパフォーマンスアップ策あり

RisingTide Systems RT OS
ベースOS: Linux kernel 3.0.38ベース,OpenSUSE 11.2?
対応ブロックストレージプロトコル: iSCSI,FC
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
NAS OS単品提供のみ
InfiniBandサポート
Linux-iscsi.orgの「RTS_OSを見ると、いろいろ詳細がある。
パッケージ管理がYaST2および11.2という単語がいろいろあるので、OpenSUSE 11.2ベースの模様。
Web管理画面が用意されていない?
マニュアル

Open-E DSS V7
日本のページもある。
ベースOS: Linuxベース
対応ブロックストレージプロトコル: iSCSI
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
NAS OS単品提供のみ

StarWind iSCSI SAN & NAS V6
ベースOS: Linuxベース
対応ブロックストレージプロトコル: iSCSI
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
NAS OS単品提供のみ

OS NEXUS QUANTASTOR STORAGE APPLIANCE SOFTWARE
ベースOS: Linux Ubuntu Serverベース
対応ブロックストレージプロトコル: iSCSI,FC
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
NAS OS単品提供のみ
マニュアル

CloudByte ElastiStor
ベースOS: OpenSolarisベース?
対応ブロックストレージプロトコル: iSCSI,FC
対応ファイルアクセスプロトコル: NFS,CIFS,AFS
NAS OS単品提供のみ
QoSにすぐれている、と自称。

Amazon S3をLinuxファイルシステムにする

Windowsでのオフラインファイル、Linuxでのstub fileについて調査していたら、Amazon S3を使ったストレージの話を見つけた。
本題には関係なかったんだけど、興味深かったのでメモ書き。

s3fs
Linux FUSEを使ったファイルシステム。
1ファイルの最大サイズは64GBまで。
ローカルディスクにキャッシュフォルダを指定できる(use_cache)
Amazon Reduced Redundancy Storage に対応

S3QL
Amazon S3以外にも、Google StorageやOpenStackに対応しているファイルシステム。
Linux, FreeBSD, MacOS Xに対応している。
1ファイルの最大サイズは2TBまで。
内部でPython APSWを利用しているため、別途インストールが必要。

ローカルディスクにキャッシュフォルダを指定できる(–cachedir)
Amazon Reduced Redundancy Storage は非対応

S3QL User’s Guideを見る限り、必要な情報はちゃんと揃っている感じ

Opendedupという重複排除機能搭載のLinux/Windows向けファイルシステム

2024/04/23追記

2024年4月現在、Opendedupのサイト自体は存続している。

githubでの開発状況を見ると2022年8月の修正が最後で、またまとめた形でのリリースは2016年8月のver 3.2.1が最後となっているようだが、メインサイトの”Changes“には「ver 3.5.7」、”Download“では「The most current version is 3.10.8.0」という記述があるので、開発は続いている模様。

とはいえ、サイト上の対応OS記述がUbuntu 14.04やWindows Server 2012だったりするあたりでちょっと怪しい・・・


Opendedupという重複排除機能搭載のファイルシステムを発見した。

ファイルシステム層はCで作られているが、そこより下層の重複排除処理やデータ書き込み処理部分についてはJavaで作られているとのこと。

重複排除以外にも、レプリケーション機能もあるようだ。
(SDFS Volume Replication)

Cloud Based Deduplication Quick Start Guideを見ると、Amazon S3や、Windows Azureのストレージを、Opendedupeで直接利用できるようだ。

Linux環境では、FUSEを使ってマウントする。

Windows環境では、Dokan(以前は http://dokan-dev.net/ だったが2021年時点では消滅)というWindows版FUSEみたいなのを使うが、Opendedup配布パッケージに組み込み済みなので別途インストールする必要はない。
なお、Dokanは「土管」が語源のようです。(Dokanライブラリの説明 http://dokan-dev.net/about/ )

OpenDedup Deduplication NAS ApplianceというOVFテンプレートの仮想マシンも用意されている。

こっちにはSDFS Manager というWeb GUIプログラムが同梱されているようなのだが、スクリーンショットを見る限りでは、かなりちゃんとしている雰囲気が・・・

SSD+SATAのハイブリッドストレージ Nimble Storageについて調べてみた

Nimble Storageというストレージプロダクトがあるらしい。
それについて調べたことを書いてみる。
うたい文句をみるとTintri VMstoreと似てる感じがするなぁ・・・と思いつつ内容を調査した。

なお、これは以前書いた「Nimble Storage」という記事についてのアップデートです。
簡単に言えば、書いた記事には誤りがあったための更新ついでに、競合との比較です。

Tintri VMstoreと大きく違う点

・Nimble StorageはiSCSIストレージ
 汎用的に使えるiSCSIストレージ
 VMware/Hyper-V/通常のWindows/Citrixで使える
 TintriはNFSストレージで、さらにVMware以外は公式にサポートしない

・SSDはRead Cacheとして使用
 実体は全てSATA HDD上に置かれている
 Tintriは、SSDとSATA HDDのどちらかに置かれており、必要に応じて自動的に移動する

・Web GUI以外の管理手法が完備されている
 SNMP MIB、CLI操作が使える
 Tintriは、Web GUI以外に無い

・vSphere関連のプラグインが一通り揃っている
 VAAI, vSphere Client plugin, SRM pluginがある。
 2013年5月現在TintriはVAAIのみ

・VSS連携も可
 WindowsのVolume Shadowcopy Serviceとの連携も可能

・レプリケーション機能を初期リリースからサポート
 Tintriは、最新のver2.0でサポートのはずだが、2013年5月現在入手できず。

・容量拡張手法がいくつかある
 容量が足らない→Shelf増加(パフォーマンス低下は無い)
 パフォーマンスが足らない1→SSDの容量アップ(オンラインで実施可能)
 パフォーマンスが足らない2→システム追加+クラスタ化
 Tintriの場合、「システム追加」しかない

・複数システムをクラスタ化できる
 複数のNimble Storageを1システムの様に取り扱うことができる
 ユーザはNimbleを使い分ける、ということを意識する必要は無い
 Tintriの場合、明示的に使い分ける必要がある。

・Web GUIからシステムアップデートができる
 Web GUIからシステムアップデートができる、というのは良くあるが
 アップデートするバージョンを複数から選択できる、というのは珍しい。
 最新は嫌、とか、導入済みのものと合わせたい、という場合に便利。
 Tintriは、本体にキーボードとUSBメモリを取り付けて、コンソール操作でのアップデート。

細かな話

・実データをHDDに書くけど遅いんじゃないの?
もちろん、まともに書くと遅いので、うまくごまかしています。

書き込まれたデータはある一定サイズになるまで、メモリ(NVRAM)上にため込まれます。
既定サイズを超えたら、データ圧縮をおこない、HDDに書き込みます。
ここで既定されているサイズは、SATA HDD 11本で構成されたRAID6に書き込む際に、最速シーケンシャルwriteになるように設定されている。(以降「writing block」と呼びます。なおこの表記はオフィシャルではありません)
つまり、速度が落ちるランダムwriteを排除している、ということになる。

・データ書き換え時ってどうしてるの?
データが書き換えられた時は、書き換え後のデータは通常のwriteデータと共にメモリ上にため込まれます。
そして、通常の書き込みプロセスと同様にwriting block単位で圧縮書き込みされます。
書き換え前のデータは不要になりますが、これはひとまず、メタデータ上のみで無効化されます。
その後、システム負荷を見計らいつつ、データ再配置処理がおこなわれ、空き領域が回収されます。

・え?データは圧縮されてるのに、再配置ってどうやるの?
はい、データが圧縮書き込みされているので、単純な再配置処理ではありません。
再配置は、不要になったデータが含まれているwriting block単位でおこなわれます。
まず、writing block内にある有効なデータをメモリ上に読み込みます。
この読み込んだデータと、通常のwriteデータを合わせて、新規のwriting blockとして、ディスクに書き込みをおこないます。
その後に、元々のwriting blockを無効化し、再利用可能状態にします。

・SSDを冗長化してないけどいいの?
キャッシュでしかないので問題ない。
壊れたらそのSSDを使わなくなるだけで、他のSSDを使って改めてキャッシュされる。
SSDを交換したら、改めて使用される。

・いろいろモデルがあるけどどういう違い?
CS2xxとCS4xxは、CPUの違い
CS220/240/260およびCS420/440/460は、それぞれSATA HDDの容量の違い。
Baseモデルとx2 Flashモデル、x4 Flashモデルの違いは、4本入っているSSDの容量の違い。
例えば、CS220のBaseモデルだったら80GB SSDが4本で320GB、という感じ。

・複数Shelfとかクラスタを組んだ時とかってデータ配置どうなるの?
初期配置としては、均等になるようばらばらに割り振る。
使っていくうちにデータ使用量の偏りが出てくる。
そのような場合は、Re-balance処理が実施され、均等になるように再配置される。
Re-balance処理は低プライオリティで実行されるためパフォーマンス影響は少ない。

・いい資料が見付からないんだけど
Nimble storage Communityを探すといろいろ出てくるよ。

モバイルバージョンを終了