SSD/HDDのハイブリッド型RAIDのNimble StorageがFibre Channelにも対応+ここ1年の動向

このblogで何回か話題にしている、SSD/HDDのハイブリッド型RAIDの「Nimble Storage」ですが、いままでiSCSIのみの対応だったものが、Fibre Channelにも対応しました。

公式リリース:Nimble Storage Advances Adaptive Flash Platform: Releases Fibre Channel Storage Arrays(2014/11/18)


まず、最近のNimble Storageの状況について解説。


・日本での取り扱い状況
現在、日本でのNimble Storageの取り扱いは、東芝が主体となり、製品販売および保守サポートが行われています。
東芝クラウド&ソリューション Nimble Storage」に日本語製品ページを用意し、本家のInfosight(サポートページ)で公開されている英語文書を日本語訳した文書など、いろいろ公開してくれています。

販売代理店もぼちぼちと増えていっています。
一部、Tintri VMstorと重なっていたりするとことが興味深かったりも・・・


Nimble Storageの性能は、ぶっちゃけて言えば、CPUとメモリを使ってぶん回し、SSDとHDDをうまいこと使っていく、という力業で解決する方向性です。
なので、新しいCPUが出て、それで劇的な改善が見込まれそうだな、となると、新機種になるわけです。

ということで登場したのが、以下のシリーズ。
Fibre Channelをサポートするのもこの機種群からになります。

・CS215
最低ラインのモデルで、パフォーマンス基準モデル。
SSD 80GB*4,HDD 1TB*12、という構成。SSDのサイズを変えることはできる。
CS210という、HDD/SSD容量をさらに減らしたモデルもあるがパフォーマンスは悪くなるので注意。
拡張筐体は1台までしか接続できない。
CS210/CS215のみ、iSCSIのみで、Fibre Channelをサポートしない。
上位モデルへアップグレードできない、というあたりを鑑みると、旧シリーズの流用かな、と推測される。

・CS300
CS215の1.6倍IOPSを提供できるモデル。
SSD 160GB*4,HDD 1TB*12構成から始まり、HDD/SSD容量を増やした構成も可能(最大SSD 800GB*4/HDD 4TB*12)。
拡張筐体を6台まで接続できる。
All Flash構成にすることも可能。

・CS500
CS215の5倍のIOPSを提供できるモデル。
SSD 300GB*4,HDD 1TB*12構成から始まり、HDD/SSD容量を増やした構成も可能(最大SSD 1.6TB*4/HDD 4TB*12)。
拡張筐体を6台まで接続できる。
All Flash構成にすることも可能。

・CS700
CS215の7倍のIOPSを提供できるモデル。
SSD 300GB*4,HDD 1TB*12構成から始まり、HDD/SSD容量を増やした構成も可能(最大SSD 1.6TB*4/HDD 4TB*12)。
拡張筐体を6台まで接続できる。
All Flash構成にすることも可能。

・4xCS700
CS700を4台組み合わせたセット販売
4台あっても、Nimble Storageの機能で1台のように管理利用できる。

なお、CS300/CS500/CS700の筐体は同一であり、コントローラ部分が違うだけなので、コントローラ交換によるアップグレードが可能になっています。


で・・・次に、Nimble StorageのOS基本機能の更新について。

まず、日本に入ってきたのは、Nimble OS 1.4.7ぐらいの段階です。
そこから最近までの更新内容と言えば・・・

・Nimble OS 2.0
複数台のNimble Storageを1台のように取り扱えるGroup機能と、Groupの中でストレージ容量管理を行う為のStorage Pool(Multi Array Group/Pool)機能の導入。
Windowsでの若干面倒なiSCSIマルチパスの設定をやってくれるWindowsToolKit(Nimble Connection Manager)の提供。

・Nimble OS 2.1
tag VLANサポート。
All Flash構成のサポート。
HDD部分のRAID構成変更。「ソフトウェアRAID6(パリティ2本)+スペア1本」から「ソフトウェアRAID(パリティ3本)+スペア無し」へ。
おそらくInfosightで収集したHDD故障率と故障時の対応状況からのリスク、と、ディスク本数を増やすことによるアクセススピードの向上を比較した上で、この結果になったのだと思われる。
管理用ユーザアカウントの導入。2.0まではadminしかなかった。

・Nimble OS 2.2
Fibre Channelをサポート
Microsoft SCVMMへの統合機能サポート。

こんな感じで進化していっています。
上記には書いていませんが、VMwareとの連携については、Nimble OS 1.4時代からサポートしています。


ようやく、本題。
Nimble OS 2.2でのFibre Channelサポートについてです。

仕組み上は既存モデルでもできるとは思うのですが、製品戦略上・・・というか、そもそも、PCIeスロットが空いていないので、既存モデルは対象外となっています。

iSCSIストレージとして可能であったことでも、Fibre Channelストレージになると実現不可能、ということがあるため、「iSCSIストレージとして使う場合」と「Fibre Channelストレージとして使う場合」でサポートされている機能が若干違います。
基本的にはiSCSIストレージの方がいろいろできます。

Fibre Channelストレージとして使用する場合に利用できない機能としては、以下があります。
・FibreChannelでのMulti Array Group/Poolは非サポート
  複数のNimbleStorageを組み合わせ1つのストレージとして使う機能は
  FibreChannelでは使用できません。

・1つのボリュームをiSCSIとFCで共有することは非サポート
  1つのボリューム(LUN)に対して、iSCSIアクセスと、FCアクセスを同時に有効にすることはできません。
  ボリュームの設定として、「iSCSI」か「FC」のどちらか1つを選択する必要があります。
  2014/11/25修正:なお、一度設定したあとに、切り替えることは可能です。現状、販売時に「iSCSIモデル」か「Fibre Channelモデル」かを選択する必要があり、購入後に変更はできない、とのこと。今後については不明です。

この組み合わせはサポートされている、と書いてあって意外だったのは、レプリケーションについてです。

・レプリケーションの送りと受けでのプロトコル違いをサポート
  送り側: iSCSI、受け側:FibreChannel、というのをサポート。
  なお、レプリケーションの伝送には、従来通り、TCP/IPを使用します。

まぁ、FibreChannelについては、機能がついて間もないので、パフォーマンス事例見当たらないので、情報が出てきてから本番かな・・・といったところですね。

IPFireでパッケージのインストールやアップデートができない

ESXiの上で、ネットワークを2つ作り、それぞれをVPN接続する、というテスト環境を作ろうとした。

VPNルータをどうするか悩んだのだが、Linuxベースの「IPFire」というので構築することにした。
(Endian FirewallのComminity Editionだとうまく構成が作れなかった)

決め手の1つに、vmware-toolsを容易にインストールすることができる、ということがあった。
が、「手順」の通りにやろうとしても、エラーとなる。

状況としては、「pakfire update problem」と全く同じモノ。
(上記のURLよりエラーを引用)

Sep  7 21:15:34 serwer1 pakfire: PAKFIRE INFO: IPFire Pakfire 2.15 started!
Sep  7 21:15:34 serwer1 pakfire: CRYPTO INFO: Checking GnuPG Database
Sep  7 21:15:34 serwer1 pakfire: CRYPTO WARN: The GnuPG isn't configured corectly. Trying now to fix this.
Sep  7 21:15:34 serwer1 pakfire: CRYPTO WARN: It's normal to see this on first execution.
Sep  7 21:17:34 serwer1 pakfire: Sending my uuid: 168d3c61-ae2a-454f-81a1-48a817470c37
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD STARTED: counter.py?ver=2.15&uuid=168d3c61-ae2a-454f-81a1-48a817470c37
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD INFO: Host: pakfire.ipfire.org (HTTP) - File: counter.py?ver=2.15&uuid=168d3c61-ae2a-454f-81a1-48a817470c37
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD INFO: HTTP-Status-Code: 200 - 200 OK
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD STARTED: 2.15/lists/server-list.db
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD INFO: Host: pakfire.ipfire.org (HTTP) - File: 2.15/lists/server-list.db
Sep  7 21:17:35 serwer1 pakfire: DOWNLOAD INFO: 2.15/lists/server-list.db has size of 907 bytes
Sep  7 21:17:35 serwer1 pakfire: DOWNLOAD INFO: HTTP-Status-Code: 200 - 200 OK
Sep  7 21:17:35 serwer1 pakfire: DOWNLOAD INFO: File received. Start checking signature...
Sep  7 21:17:35 serwer1 pakfire: DOWNLOAD ERROR: The downloaded file (2.15/lists/server-list.db) wasn't verified by IPFire.org. Sorry - Exiting...
Sep  7 21:18:06 serwer1 pakfire: TIME INFO: Time Server 217.153.128.243 has 0.010834 sec offset to localtime.

解決方法として、外部の11371ポートに対する通信を許可すること、と書かれている。
PakfireのAdditional Note

IPFireの設定をいじってみても解決しない。
なぜ?と考えて見ると、今回作成したテスト環境は、別のFirewallの中にある、というのがポイントだった。
つまり、別のFirewall側に設定を追加する必要があったということ。

そちらの設定変更権限はないので、別の方策がないか捜索したところ、発見。

Pakfire wont update on new install The GnuPG isn’t configured corectly. solved!

「/opt/pakfire/lib/functions.pl」内で
「my $command = “gpg –keyserver pgp.ipfire.org –always-trust –status-fd 2”;」
と書かれているところ、下記のようにポート80でアクセスできるサーバに書き直す。
「my $command = “gpg –keyserver hkp://keyserver.ubuntu.com:80 –always-trust –status-fd 2”;」
というもの。

これを実施したところ、正常に動作するようになった。

ちなみに、上記URLだと、「Core 82で直った」とか書かれてますが、Core82で試して同じ現象でした。

vSphere Flash Read Cache(vFRC)でSSDが見付からない

vSphere Flash Read Cache(vFRC)を使ってみようとセットアップしようとした。
しかし、「SSD」として認識されているものの「仮想フラッシュリソース管理」で該当デバイスが出てこない。

どういうことか調査した。

1. esxcfg-scsidevsコマンドでの認識状況

下記の様になっている。

~ # esxcfg-scsidevs -l
naa.600508b1001c3c4aacc8c33d825d7ff4
   Device Type: Direct-Access
   Size: 114439 MB
   Display Name: HP Serial Attached SCSI Disk (naa.600508b1001c3c4aacc8c33d825d7ff4)
   Multipath Plugin: NMP
   Console Device: /vmfs/devices/disks/naa.600508b1001c3c4aacc8c33d825d7ff4
   Devfs Path: /vmfs/devices/disks/naa.600508b1001c3c4aacc8c33d825d7ff4
   Vendor: HP        Model: LOGICAL VOLUME    Revis: 5.42
   SCSI Level: 5  Is Pseudo: false Status: degraded
   Is RDM Capable: true  Is Removable: false
   Is Local: false Is SSD: true
   Other Names:
      vml.0200030000600508b1001c3c4aacc8c33d825d7ff44c4f47494341
   VAAI Status: unknown
<略>
~ #

ここでの注目ポイントは
「Is Local:」と「Is SSD:」の値。

「Is Local: false Is SSD: true」とは、「Localではなくが、SSDである」と認識されていることになる。

2. esxcli storage vflash device listでの認識状況

vFRCの旧名である「vflash」という名前を持つコマンドを使って、SSDデバイスの認識状況を確認する。

~ # esxcli storage vflash device list
Name                                    Size  Is Local  Is Used in vflash  Eligibility
------------------------------------  ------  --------  -----------------  ----------------------------
naa.600508b1001c3c4aacc8c33d825d7ff4  114439     false              false  Detected as a remote SAS SSD
~ #

「Detected as a remote SAS SSD」と認識されていることが何かのキーになっている、ということもうかがえる。

では、どのようにすれば使える様になるのか?

「Detected as a remote SAS SSD」というメッセージを手がかりに探したところ、VMwareのcommunityに「” Detected as a remote SAS SSD” vFlash」というのを発見。

the solution. thanks for the pointer vfrank.org

esxcli storage nmp satp rule add –satp VMW_SATP_LOCAL –device naa.XXXXXX 0 –option enable_local

esxcli storage core claiming reclaim -d naa.XXXXXXX

該当デバイスの「Is local」認識を強制的に変更する、というもの。
上記コマンド例では「–device naa.XXXXXX 0 –option enable_local」とあるが「0」がなぜ入っているのかよく分からない。
エラーになったので、実行したのは「esxcli storage nmp satp rule add –satp VMW_SATP_LOCAL –device naa.XXXXXX –option enable_local」と「esxcli storage core claiming reclaim -d naa.XXXXXXX」となる。

~ # esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device naa.600508b1001c3c4aacc8c33d825d7ff4 --option enable_local
~ #  esxcli storage vflash device list
Name                                    Size  Is Local  Is Used in vflash  Eligibility
------------------------------------  ------  --------  -----------------  ----------------------------
naa.600508b1001c3c4aacc8c33d825d7ff4  114439     false              false  Detected as a remote SAS SSD
~ # esxcli storage core claiming reclaim -d naa.600508b1001c3c4aacc8c33d825d7ff4
~ # esxcli storage vflash device list
Name                                    Size  Is Local  Is Used in vflash  Eligibility                            
------------------------------------  ------  --------  -----------------  -------------------------------------------
naa.600508b1001c3c4aacc8c33d825d7ff4  114439      true              false  Yes, there are valid partitions for vflash
~ #

これにより「Is Local true」となった。

esxcfg-scsidevsでも、「Is Local: true Is SSD: true」となった。

~ # esxcfg-scsidevs -l
naa.600508b1001c3c4aacc8c33d825d7ff4
   Device Type: Direct-Access
   Size: 114439 MB
   Display Name: HP Serial Attached SCSI Disk (naa.600508b1001c3c4aacc8c33d825d7ff4)
   Multipath Plugin: NMP
   Console Device: /vmfs/devices/disks/naa.600508b1001c3c4aacc8c33d825d7ff4
   Devfs Path: /vmfs/devices/disks/naa.600508b1001c3c4aacc8c33d825d7ff4
   Vendor: HP        Model: LOGICAL VOLUME    Revis: 5.42
   SCSI Level: 5  Is Pseudo: false Status: on
   Is RDM Capable: false Is Removable: false
   Is Local: true  Is SSD: true
   Other Names:
      vml.0200030000600508b1001c3c4aacc8c33d825d7ff44c4f47494341
   VAAI Status: unknown
<略>
~ #

この状態となったら、GUIからvFRCの設定が行えるようになった。

該当SSDに対してvFRCの設定を行ったあとの「esxcli storage vflash device list」の結果は以下の様になった。

~ # esxcli storage vflash device list
Name                                    Size  Is Local  Is Used in vflash  Eligibility
------------------------------------  ------  --------  -----------------  ---------------------------------
naa.600508b1001c3c4aacc8c33d825d7ff4  114439      true               true  It has been configured for vflash
~ #

VMware toolsの配布場所:Windows&Linux&Solaris 2025/04/09版

2025/04/09修正 ドキュメントURLを修正
2024/05/21修正 Broadcom移管に伴うURL修正など反映
2022/11/15修正 最近のVMware Toolsのサポート状況についてまとめ直した

Windows編

Windows Server 2008R2 SP1~Windows Server 2025 / Windows 7 SP1~Windows 11 12.5.1(随時更新中,最新ESXi同梱版?)
 ReleaseNote:
 https://customerconnect.vmware.com/ja/downloads/details?downloadGroup=VMTOOLS1240&productId=742 ← Broadcom移行に伴い代替URLが不明
 https://packages.vmware.com/tools/releases/12.5.1/windows/

Windows Server 2008 SP2 / Vista SP2用 11.0.6(最終)
 ReleaseNote:
 https://customerconnect.vmware.com/ja/downloads/details?downloadGroup=VMTOOLS1106&productId=742 ← Broadcom移行に伴い代替URLが不明
 https://packages.vmware.com/tools/releases/11.0.6/windows/

Linux編

RHEL7以降はopen-vm-toolsを使う
 VMware support for open-vm-tools (VMware KB:2073803)(Broadcom KB:313456)

RHEL6/CentOS6用 10.3.26(随時更新中,最新ESXi同梱版?)
 ReleaseNote https://docs.vmware.com/en/VMware-Tools/10.3/rn/vmware-tools-10326-release-notes/index.html ← Broadcom移管後ドキュメント見当たらず
 https://customerconnect.vmware.com/ja/downloads/details?downloadGroup=VMTOOLS10326&productId=974 ← Broadcom移行に伴い代替URLが不明
 https://packages.vmware.com/tools/releases/10.3.26/rhel6/

RHEL5/CentOS5用 10.3.22(最終)
 ReleaseNote https://docs.vmware.com/en/VMware-Tools/10.3/rn/VMware-Tools-10322-Release-Notes.html ← Broadcom移管後ドキュメント見当たらず
 https://customerconnect.vmware.com/en/downloads/details?downloadGroup=VMTOOLS10322&productId=1072 ← Broadcom移行に伴い代替URLが不明
 https://packages.vmware.com/tools/releases/10.3.22/rhel5/
 なお、RHEL5はSSL1.2に非対応のため、2022年11月現在RHEL5サーバ上からhttpsアクセスがほぼ不可能になっていることに注意

Ubuntu 14.04以降はopen-vm-toolsを使う
 VMware support for open-vm-tools (VMware KB:2073803)(Broadcom KB:313456)

Ubuntu 10.04/11.04/11.10/12.04用 10.3.26(随時更新中)
 ReleaseNote https://docs.vmware.com/en/VMware-Tools/10.3/rn/vmware-tools-10326-release-notes/index.html ← Broadcom移管後ドキュメント見当たらず
 https://customerconnect.vmware.com/ja/downloads/details?downloadGroup=VMTOOLS10326&productId=974 ← Broadcom移行に伴い代替URLが不明
 https://packages.vmware.com/tools/releases/10.3.26/ubuntu/dists/
 なお、SSL1.2に非対応であるなら2022年11月現在サーバ上からhttpsアクセスがほぼ不可能になっていることに注意
 (Ubuntuの対応について調べていない)

Solaris x86編

Solaris 10 x86用 10.3.10(最終)
 ReleaseNote https://docs.vmware.com/jp/VMware-Tools/10.3/rn/vmware-tools-10310-release-notes.html ← Broadcom移管後ドキュメント見当たらず
 https://customerconnect.vmware.com/ja/downloads/details?downloadGroup=VMTOOLS10310&productId=742 ← Broadcom移行に伴い代替URLが不明
 https://packages.vmware.com/tools/frozen/solaris/


↓は参考用の過去の記録

古いOSだとSSL1.2非対応のため、httpsアクセスができなくなっていることに注意のこと


VMware toolsのダウンロードURLを調べていたら、Linuxディストリビューションの一部では、yumコマンドでダウンロードできるようなレポジトリファイルも配布されているのを発見したのでメモ書き。

バージョンごとの配布場所:
 https://packages.vmware.com/tools/releases

VMwareにあるvmware-tools配布場所:「https://packages.vmware.com/tools/esx/latest/index.html

Linux向けvmware-toolsについて

Linux向けレポジトリのファイル置き場:

vSpehre 6.7向け: https://packages.vmware.com/tools/esx/6.7latest/repos/
vSphere 7.0向け: https://packages.vmware.com/tools/esx/7.0/repos

レポジトリファイルは、上記4つの他に、SLES11.0, SLES11.1, SLES11.2, SLES11.3, Ubuntu10.04, Ubuntu11.10, Ubuntu12.04が公開されている。

RHEL/CentOSのyumコマンドでインストールする場合、
必要なドライバを一通りインストールする「yum install vmware-tools-esx-nox 」でインストールされるパッケージ

vmware-tools-esx-nox         
vmware-tools-core            
vmware-tools-foundation      
vmware-tools-guestlib        
vmware-tools-libraries-nox   
vmware-tools-plugins-autoUpgrade
vmware-tools-plugins-deployPkg
vmware-tools-plugins-guestInfo
vmware-tools-plugins-hgfsServer
vmware-tools-plugins-powerOps
vmware-tools-plugins-timeSync
vmware-tools-plugins-vix     
vmware-tools-plugins-vmbackup
vmware-tools-services

最小限ってことで「yum install vmware-tools-thinprint」でインストールされるパッケージ

vmware-tools-thinprint
vmware-tools-core
vmware-tools-foundation
vmware-tools-guestlib
vmware-tools-libraries-nox
vmware-tools-services

+追加でOSパッケージがいくつか
vmxnet3,vmw_pvscsi,vmware_balloonがインストールされるけど、vmware-tools-esx-noxでインストールした方がいい。

X-Windowsドライバを含めたインストールを行う「yum install vmware-tools-esx」でインストールされるパッケージ

vmware-tools-esx
vmware-tools-core         
vmware-tools-esx-nox      
vmware-tools-foundation   
vmware-tools-guestlib     
vmware-tools-libraries-nox
vmware-tools-libraries-x  
vmware-tools-plugins-autoUpgrade
vmware-tools-plugins-deployPkg
vmware-tools-plugins-desktopEvents
vmware-tools-plugins-guestInfo
vmware-tools-plugins-hgfsServer
vmware-tools-plugins-powerOps
vmware-tools-plugins-resolutionSet
vmware-tools-plugins-timeSync
vmware-tools-plugins-unity
vmware-tools-plugins-vix
vmware-tools-plugins-vmbackup
vmware-tools-services
vmware-tools-user

+追加でOSパッケージがいくつか

RHEL7/CentOS7など最近のLinuxでは、open-vm-toolsでのサポートになっているため、上記のモノは使用しない。

open-vm-tools に対する VMware のサポートについて (2074713)(英語の原文:VMware support of open-vm-tools (2073803))

具体的には以下のOSが対象となる。
・Fedora 19 and later releases
・Debian 7.x and later releases
・openSUSE 11.x and later releases
・Recent Ubuntu releases (12.04 LTS, 13.10 and later)
・Red Hat Enterprise Linux 7.0 and later releases
・SUSE Linux Enterprise 12 – available Q4 2014

RHEL5向けのvmware toolsの最終版は VMware Tools 10.3.22
また、RHEL5/CentOS5はTLS1.2に対応していない(TLS1.0/1.1のみ)ため、最近のWebサイトからwget/curlおよびyumコマンドでのアクセスができないことに注意
ISOファイルは Download Product:VMware Tools 10.3.22 から入手できる


Windows向けvmware-toolsについて

Windows版vmware-tools配布場所:https://packages.vmware.com/tools/esx/latest/windows/index.html

Windows Server 2008 SP2 / Windows Vista SP2の最終サポート: VMware Tools 11.0.6 (ダウンロードURL VMware Tools 11.0.6)

VMware tools 12.0.0以降からネットワークアダプタ VMXNet2(拡張)が使えなくなりました。いまだに使っている場合はVMXNet3に変更する必要がある(VMwware Tools 12.0.5リリースノートより)


Solaris x86向けvmware-toolsについて

Solaris x86をインストールした時に、VMware-toolsを探したのでメモ書きとして追加

公式文書としては「Installing and upgrading the latest version of VMware Tools on existing hosts (2129825)」が出てくるんだけど、Solaris用のVMware-toolsがどこから入手できるのかMy VMwareからダウンロードできるよ、しか書いてない。

[Product Download]-[VMware vSphere]で「Drivers&Tools」を選択し、「VMware Tools」のツリーを開く

いろいろ表示されている中の「VMware Tools 11.0.6」か「VMware Tools 11.1.0」を選択

するとリンク先には「Solaris用はVMware Tools 10.3.10が最後」と誘導されているので、そのリンクを飛ぶと、「VMware Tools packages for Solaris and OS X」がダウンロードできる。

これを展開して、ESXiの /usr/lib/vmware/isoimages に配置する。

といってもこれは /productLocker/vmtools/ へのシンボリックリンクになっている。

この「/productLocker」をさす先は、ESXiの設定でUserVars.ProductLockerLocation を使って指定する。

指定したディレクトリ内に「vmtools」というディレクトリを作成し、その中にisoイメージなどを展開しておくと、これを使ってVMware toolsのインストールをすることができるようになる。

vSphere 6で搭載予定のvSphere API for IO Filteringとは?

VMworld 2014に合わせてSanDiskからVDI分野向けにフラッシュ製品(Fusion ioとULLtraDIMM)を使った製品を提供するといった発表がありました。
SanDisk Introduces New Solutions for VMware Horizon 6 and Virtual SAN at VMworld 2014

関連情報を調べていると、VMwareとSanDiskが組んで、vSphereのディスクI/Oの仕組みにフィルター機構(vSphere API for IO Filtering)をつけた、という記事を見つけました。
SanDisk Partners with VMware to Design APIs for IO Filtering for Server-side Solid-state Caching

vSphere API for IO Filteringは、ESXiのディスクI/O部分に対して、追加処理を加えるためのフィルタ機能をつけることができる、というものだと思われます。

以下は、上記の記事および最近の周辺状況を加味して、記載した内容になります。
記事の正当性については保証しませんのでご注意ください。


vSphere API for IO Filteringの主な用途としては、ディスクI/Oをキャッシュするための処理、という感じになります。

そう、SanDiskが得意としている、フラッシュメモリ/SSD、そして、昨年発表されたもののIBM eXFLASH以外に採用事例が出てこないULLtraDIMMを有効活用するための仕組みです。

このディスクI/Oに対してキャッシュ機能を追加するという製品はすでにいくつかあります。

・VMware純正のVMware Flash Read Cache (vFRC)
・PernixData FVP
・Proximal Data AutoCache
・ちょっと系統が違うけど、Infinio (メモリのみでI/Oキャッシュ)

vFRCはどうなっているのかわかりませんが、それ以外の3つはディスクI/Oを司る部分のうち、PSP/Path Selection Pluginsと呼ばれるディスクI/O経路制御に使われる部分を置き換えています。

根幹部分を置き換えているので、プロトコルへの対応や、構成によって何ができる、できない、などがあったりします。

今回発表になったvSphere API for IO Filteringでは、そういった部分は置き換えず、そのままにしておき、比較的容易に追加できる機能として実装できるようにしたものとなります。
このため、おそらくは構成をあまり選ばずに、利用できるようになるのかと思われます。

2015年予定のvSphere 6に向けて、vSphere API for IO Filtering対応に向けて既存製品もアップデートしていくでしょうし、それ以外にもいろいろ出てくるのではないかと思います。

そして、おそらくは、このレイヤーを使ったバックアップ/DR製品とかも出てきそうです。

なかなか楽しみな機能になりそうです。