vSphere 6で搭載予定のvSphere API for IO Filteringとは?


VMworld 2014に合わせてSanDiskからVDI分野向けにフラッシュ製品(Fusion ioとULLtraDIMM)を使った製品を提供するといった発表がありました。
SanDisk Introduces New Solutions for VMware Horizon 6 and Virtual SAN at VMworld 2014

関連情報を調べていると、VMwareとSanDiskが組んで、vSphereのディスクI/Oの仕組みにフィルター機構(vSphere API for IO Filtering)をつけた、という記事を見つけました。
SanDisk Partners with VMware to Design APIs for IO Filtering for Server-side Solid-state Caching

vSphere API for IO Filteringは、ESXiのディスクI/O部分に対して、追加処理を加えるためのフィルタ機能をつけることができる、というものだと思われます。

以下は、上記の記事および最近の周辺状況を加味して、記載した内容になります。
記事の正当性については保証しませんのでご注意ください。


vSphere API for IO Filteringの主な用途としては、ディスクI/Oをキャッシュするための処理、という感じになります。

そう、SanDiskが得意としている、フラッシュメモリ/SSD、そして、昨年発表されたもののIBM eXFLASH以外に採用事例が出てこないULLtraDIMMを有効活用するための仕組みです。

このディスクI/Oに対してキャッシュ機能を追加するという製品はすでにいくつかあります。

・VMware純正のVMware Flash Read Cache (vFRC)
・PernixData FVP
・Proximal Data AutoCache
・ちょっと系統が違うけど、Infinio (メモリのみでI/Oキャッシュ)

vFRCはどうなっているのかわかりませんが、それ以外の3つはディスクI/Oを司る部分のうち、PSP/Path Selection Pluginsと呼ばれるディスクI/O経路制御に使われる部分を置き換えています。

根幹部分を置き換えているので、プロトコルへの対応や、構成によって何ができる、できない、などがあったりします。

今回発表になったvSphere API for IO Filteringでは、そういった部分は置き換えず、そのままにしておき、比較的容易に追加できる機能として実装できるようにしたものとなります。
このため、おそらくは構成をあまり選ばずに、利用できるようになるのかと思われます。

2015年予定のvSphere 6に向けて、vSphere API for IO Filtering対応に向けて既存製品もアップデートしていくでしょうし、それ以外にもいろいろ出てくるのではないかと思います。

そして、おそらくは、このレイヤーを使ったバックアップ/DR製品とかも出てきそうです。

なかなか楽しみな機能になりそうです。

ESXi5.5でSoftware iSCSIを使う時の設定


VMware vSphere ESXiで、普通のNICを使ってiSCSIストレージに接続する場合(Software iSCSI)、ESXi 5.0までであれば、VMwareの公式文書「Multipathing Configuration for Software iSCSI Using Port Binding」に記載がある。

この文書の記述が、ESXi5.5でも適用できるのか?ということを調べた。

vSphere 5.5のマニュアル:「ESXi and vCenter Server 5.5 Documentation > vSphere Storage > Configuring iSCSI Adapters and Storage
VMwareのKnowledge Base:「Considerations for using software iSCSI port binding in ESX/ESXi

結果、ESXi5.0とESXi5.5では、設定手法について差が無い、ということがわかった。

おまけ

iSCSI設定で大切なこと
・各NICに個別のIPアドレスを指定する
・iSCSI用としては、Bonding/Etherchannel/Trunking/Teamingは使用しない

・iSCSI用ネットワークが含まれる1つのvSwitchに対し複数のNICを登録し
 NICチーミング設定をしている場合、
 iSCSI用vmkはNICの枚数分作成し、それぞれにIPアドレスを割り当てる
 また各vmkのNICチーミング設定で有効なアダプタを1つのみにすること
 (iSCSI用だけNICチーミングをしない、という感じにする)

vCenter Server 5.5のOS対応リストが見つけられない


vCenter Server 5.5は、Windows Server 2012 R2で動くのか?
というのを調べようとしたら、非常に難航したのでメモ書き。

ESXi および vCenter Server 5.5 のドキュメント → vSphere のアップグレード → システム要件 → vCenter Server のソフトウェア要件」には以下の記述が・・・

サポートされているオペレーティング システムについては、http://www.vmware.com/resources/compatibility の 『VMware 互換性ガイド』 を参照してください。

で、リンク先を見ても、うまく発見できないわけです。

どこにあったかといいますと
compati

上記の赤枠部分をクリックすると、ずらずら~っと、メニューがでてきます。
compati2

そのなかから「Host OS Compatibility Guide」の「Download Full Host OS Guide」を開きます。
具体的には、「コレ」です。

ぱっと開いた感じだと、全然関係ないように見えますが、半分ぐらいのところからWindows OS上で動作するVMwareプロダクトについての記載があります。

Windows Server 2012/2012R2に関する記述は以下の通り。

・Windows Server 2012
Workstation9.0, 10.0
vCenter Server5.5, 5.1 U2, 5.1 U1, 5.0 U3, 5.0 U2
vSphere Client (Windows)5.5, 5.1 update2, 5.1 Update1, 5.0 Update 3, 5.0 Update 2
vCenter Orchestrator5.5, 5.1 Update2, 5.1 Update1, 4.1 Update 2
vCenter Update Manager5.5, 5.1 Update2, 5.1 Update1, 5.0 Update 3, 5.0 Update 2

・Windows Server 2012 R2
Workstation10.0
vCenter Server5.1 U2
vSphere Client (Windows)5.1 update2
vCenter Orchestrator5.1 Update2
vCenter Update Manager5.1 Update2

・・・Windows Server 2012 R2の対応について、若干悩むようなところです。
なぜ古いバージョンのみ対応なのだ・・・

Nimble Storageにsshでログインしてみた


Nimble Storageにsshでログインしてみた。
ユーザは「admin」(標準で作成されている管理者ユーザ)。
パスワードは初期セットアップ時に指定したものを使う。

# ssh admin@IPアドレス
Password:
/ $ su
bash: su: command not found
/ $

一般ユーザっぽい雰囲気だったので、権限をかえられるのか?と「su」を実行してみたがコマンドがないらしい。

とりあえずディレクトリ構成確認。

/ $ ls -al
drwxr-xr-x   13 0        0            1024 Nov  8 04:24 .
drwxr-xr-x   13 0        0            1024 Nov  8 04:24 ..
drwxr-xr-x    2 0        0            1024 Nov  8 04:24 bin
drwxr-xr-x    3 0        0            1024 Nov  8 04:24 dev
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 diags
drwxr-xr-x    5 0        0            1024 Nov  8 04:24 etc
drwxr-xr-x    3 0        0            4096 Jan  4 11:11 home
drwxr-xr-x    2 0        0            1024 Nov  8 04:24 lib64
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 mnt
drwxr-xr-x    3 0        0            1024 Nov  8 04:19 nimble
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 sbin
drwxr-xr-x    6 0        0            1024 Nov  8 04:23 usr
drwxr-xr-x    3 0        0            4096 Jan  4 11:08 var
/ $ df
bash: df: command not found
/ $ cat /proc/mounts
cat: can't open '/proc/mounts': No such file or directory
/ $

dfコマンドや/proc/mountsを使って、パーテーション構成を確認する、といったことはできないようだ。

設定ファイルはどんなものがあるのかな?と/etc配下を見てみる。

/ $ ls -al /etc
drwxr-xr-x    5 0        0            1024 Nov  8 04:24 .
drwxr-xr-x   13 0        0            1024 Nov  8 04:24 ..
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 acpi
drwxr-xr-x    3 0        0            1024 Nov  8 04:23 diag
lrwxrwxrwx    1 0        0              14 Nov  8 04:24 group -> /var/etc/group
-rw-r--r--    1 0        0              48 Aug 16  2012 hosts
lrwxrwxrwx    1 0        0              18 Nov  8 04:24 localtime -> /var/etc/localtime
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 nimpart
-rw-r--r--    1 0        0              56 Aug 16  2012 nsswitch.conf
lrwxrwxrwx    1 0        0              15 Nov  8 04:24 passwd -> /var/etc/passwd
-rw-r--r--    1 0        0             291 Aug 16  2012 profile
lrwxrwxrwx    1 0        0              20 Nov  8 04:24 resolv.conf -> /var/etc/resolv.conf
/ $ ls -l /var/etc
-rw-r--r--    1 0        0              14 Jan  4 11:08 group
-rw-r--r--    1 0        0             331 Jan 29 16:25 localtime
-rw-r--r--    1 0        0              44 Jan  4 11:08 passwd
-rw-rw-rw-    1 0        0              42 Jan 29 16:26 resolv.conf
/ $

/etcの中はreadonlyのようで、ユーザがカスタマイズするファイルについては/var/etc/に置かれる、という形を取っているようだ。

登録済みのユーザとグループはこんな感じ。

/ $ cat /etc/passwd
admin:x:1000:1000:CLI user:/home:/bin/clish
/ $ cat /etc/group
admin:x:1000:
/ $

adminユーザしか載ってない、というもの。

次に、実行できそうなコマンドは何があるのか確認してみる。

/ $ ls /bin
ash       dd        getopt    man       pwd       stat      vi
bash      echo      grep      mkdir     rm        stty      watch
cat       ed        hostname  mktemp    rmdir     sync      zcat
chmod     egrep     ln        more      sed       touch
cp        false     ls        mv        sh        true
cut       fgrep     lsattr    printenv  sleep     usleep
/ $ ls /sbin
arp      busybox
/ $ ls /usr/bin
[           du          id          readlink    tail        uptime
[[          env         install     realpath    tee         wc
awk         expand      length      reset       telnet      wget
basename    expr        less        resize      test        which
cksum       find        md5sum      script      tftp        whoami
clear       fold        mkfifo      seq         time        xargs
cmp         ftpget      nohup       sha1sum     tr          yes
comm        ftpput      nslookup    sort        traceroute
dc          hd          od          split       ttysize
diff        head        patch       strings     unexpand
dirname     hexdump     ping        sum         uniq
dos2unix    hostid      printf      tac         unix2dos
/ $ ls /usr/sbin
/ $

busyboxでいろいろ代用している模様。

/ $ busybox
BusyBox v1.13.0 (2013-11-07 11:23:31 PST) multi-call binary
Copyright (C) 1998-2008 Erik Andersen, Rob Landley, Denys Vlasenko
and others. Licensed under GPLv2.
See source distribution for full notice.

Usage: busybox [function] [arguments]...
   or: function [arguments]...

        BusyBox is a multi-call binary that combines many common Unix
        utilities into a single executable.  Most people will create a
        link to busybox for each function they wish to use and BusyBox
        will act like whatever it was invoked as!

Currently defined functions:
        [, [[, arp, ash, awk, basename, cat, chmod, cksum, clear, cmp, comm,
        cp, dc, dd, diff, dirname, dos2unix, du, echo, ed, egrep, env, expand,
        expr, false, fgrep, find, fold, ftpget, ftpput, getopt, grep, hd,
        head, hexdump, hostid, hostname, id, install, length, ln, ls, lsattr,
        md5sum, mkdir, mkfifo, mktemp, more, mv, nohup, nslookup, od, patch,
        printenv, printf, pwd, readlink, realpath, reset, resize, rm, rmdir,
        script, sed, seq, sh, sha1sum, sleep, sort, split, stat, strings,
        stty, sum, sync, tac, tail, tee, telnet, test, tftp, time, touch,
        tr, true, ttysize, unexpand, uniq, unix2dos, uptime, usleep, watch,
        wc, wget, which, whoami, xargs, yes

/ $

Nimble独自の管理プログラム系はどこにあるのかな?と$PATHを確認してみると、/nimble/usr/binというディレクトリが・・・

/ $ echo $PATH
/bin:/usr/bin:/sbin:/usr/sbin:/nimble/usr/bin
/ $ ls /nimble/usr/bin
?             failover      perfpolicy    snapcoll      version
alert         halt          prottmpl      software      vmwplugin
array         help          reboot        sshkey        vol
chapuser      initiatorgrp  route         stats         volcoll
ctrlr         ip            setup         subnet
date          nic           shelf         timezone
disk          partner       snap          useradmin
/ $

コマンド名を見る限りでは、Nimble StorageのWeb GUIで操作することができることが、CLIでも実装されている、というような感じに見受けられる・・・というか、おそらく、Web GUIのバックエンドでは、これらのCLIが実行されているだけ、という気がする。

とりあえず、「array」というコマンドを実行してみる。

/ $ array
ERROR: One of following options must be specified: --info, --edit, --resetup, --create_throttle, --delete_throttle, --edit_throttle, --autosupport_validate, --autosupport_initiate, --unset_http_proxy
INFO: Use --help option to view usage information.
/ $ array --info
Model: CS220G
Serial: AF-******
Version: 1.4.8.0-54807-opt
Array name: **************
Array IP address: xxx.xxx.xxx.xx1
Array IP netmask: 255.255.0.0
Discovery IP address: xxx.xxx.xxx.xx1
Discovery IP netmask: 255.255.0.0
Domain name: **************
DNS server(s): **************
NTP server: **************
Timezone: Asia/Tokyo
SMTP server: **************
SMTP port: 25
Minimum alert email severity level: WARNING
Alert email recipient address(es): *******@***********
Alert email from address: *******@***********
Copy alert email to Nimble Storage support: Yes
Send event data to Nimble Storage support: Yes
Allow Nimble Storage support to establish secure connection to array: No
HTTP proxy server:
HTTP proxy server port:
HTTP proxy server username:
HTTP proxy server password: (on file if set)
Default volume reserve (% of volume size): 0
Default volume quota (% of volume size): 100
Default volume warn level (% of volume size): 80
Default snapshot reserve (% of volume size): 0
Default snapshot quota (% of volume size): unlimited
Default snapshot warn level (% of volume size): 0
Total capacity (MB): 7740973
Volume usage (MB): 71797
Volume compression: 1.46X
Volume space saved (MB): 33001
Snapshot usage (MB): 2143
Snapshot compression: 1.59X
Snapshot space reduction: 324.41X
Snapshot space saved (MB): 693238
Unused reserve (MB): 0
Free space (MB): 7667032
Last login: admin @
Throttled replication bandwidth: unlimited
Replication throttles: N/A
iSNS enabled: No
iSNS hostname:
iSNS port: 3205
SNMP trap enabled: No
SNMP trap hostname: N/A
SNMP trap port: N/A
SNMP get enabled: No
SNMP community: N/A
SNMP get port: N/A
SNMP system location: N/A
SNMP system contact: N/A
Array time: Thu Jan ** **:**:** 2014

/ $

Web GUI上では「Manage」→「Array」に相当する操作になるようだ。

「ctrlr」コマンドは何なのか?

/ $  ctrlr --info
ERROR: required parameter is missing in 'info'
INFO: Use --help option to view usage information.
/ $  ctrlr --list
----+----------+--------------------+----------------+--------+-------+--------
Name State      Hostname             Support IP       Power    Fans    Temper-
                                                      Supplies Status  -ature
                                                      Status           Status
----+----------+--------------------+----------------+--------+-------+--------
A    active                          xxx.xxx.xxx.xx3    OK       OK      OK
B    standby                         xxx.xxx.xxx.xx4    OK       OK      OK
/ $  ctrlr --info A
Name: A
Serial number: AF-xxxxxx-C1
State: active
Hostname:
Support IP address: xxx.xxx.xxx.xx3
Support IP netmask: 255.255.0.0
Support IP nic: eth1
Hostname:
Power supply: OK
        power-supply1 at left rear: ok
        power-supply2 at right rear: ok
Cooling fans: OK
        fan1 at lower front of controller A: ok, speed: 11730rpm
        fan2 at lower left rear of controller A: ok, speed: 10608rpm
        fan3 at lower right rear of controller A: ok, speed: 10608rpm
        fan4 at upper right front of controller A: ok, speed: 10410rpm
        fan5 at upper left front of controller A: ok, speed: 10245rpm
        fan6 at upper left rear of controller A: ok, speed: 10560rpm
Temperature sensors: OK
        motherboard at motherboard: ok, temperature: 28C
        bp-temp1 at left-side backplane: ok, temperature: 37C
System partition status: OK
Last AutoSupport contact: Jan 30 2014 00:50:39
/ $  ctrlr --info B
Name: B
Serial number: AF-xxxxxx-C2
State: standby
Hostname:
Support IP address: xxx.xxx.xxx.xx4
Support IP netmask: 255.255.0.0
Support IP nic: eth1
Hostname:
Power supply: OK
        power-supply1 at left rear: ok
        power-supply2 at right rear: ok
Cooling fans: OK
        fan1 at lower front of controller B: ok, speed: 10608rpm
        fan2 at lower left rear of controller B: ok, speed: 10608rpm
        fan3 at lower right rear of controller B: ok, speed: 10608rpm
        fan4 at upper right front of controller B: ok, speed: 10410rpm
        fan5 at upper left front of controller B: ok, speed: 10275rpm
        fan6 at upper left rear of controller B: ok, speed: 10365rpm
Temperature sensors: OK
        motherboard at motherboard: ok, temperature: 28C
        bp-temp2 at right-side backplane: ok, temperature: 38C
System partition status: OK
Last AutoSupport contact: N/A
/ $

各コントローラ(マザーボード)の状態を取得するコマンドであったようだ。

システム停止するための操作は、Web GUI上だと「Administrator」→「shutdown」だったので、shutdownコマンドを探したんですが、rebootしかないなー、と思ってしまったのですが、こちらは「halt」コマンドでした。

/ $ halt
ERROR: One of following options must be specified: --array, --controller
INFO: Use --help option to view usage information.
/ $ halt --array
The array is shutting down and the head shelf will power off. You will not be able to use the user interface.
Once the array head shelf is powered down, it is safe to manually turn off any expansion shelves attached to this array.
To re-establish the user interface, you must first power any expansion shelves back on, power the array back on and log in again.
INFO: Initiated array shutdown.
/ $

「halt –array」にてシステム停止ができました。
いまのところ、Nimble Storage側に、UPS連携の仕組みが用意されていないですが、sshでログインして「halt –array」コマンドを実行することで停止ができるので、そういうUPSを用意すれば問題がないですね。

UPSソリューションズのAdvanced NWボード対応のUPSシリーズ(UPSS-SP,UPSS-HP,UPSS-HS)とかが使えるでしょうね。(Nimble StorageはSSH v2対応で、SSH v1のみ対応のSNMP/Webボードは使えません)

まぁ、コマンドを全部紹介していってもきりがないので、これくらいで・・・

各コマンドの詳細については、「man コマンド名」でちゃんと表示されます。
しっかりとCLI管理の場合も考えられている良い作りになっています。

・・・どこぞのWeb GUIがほぼ全てのTintri VMstoreとは全然違う・・・と感じましたね。

Nimble Storageについていろいろ調べたこと 2013/11/08


vForum2013 TOKYOにNimble Storageが出てたので、いろいろ確認してみた。
あと、マニュアルも入手したので、そこで調べた疑問点も列挙してある。


・海外事例を見るとパフォーマンス増強のために
 コントローラアップグレードがあるようだが
 日本でも提供するのか?

日本でも提供する予定だが、提供方法に関して詳細が決まっていない。

なお、アップグレードには2種類ある。
・Scale performance
・Scale cache

「Scale performance」はコントローラのアップグレードで、これは、マザーボードを丸ごと上位機種のものに入れ替えることになる。
Nimble Storageは「CS2x0用CPUを1つ積んだマザー」と「CS4x0用CPUを2つ積んだマザー」がある。
このため、「Scale performance」が適用できるものはCS2x0シリーズのみとなり、アップグレード後は「CS4x0」になる。
片コントローラずつ交換することでオンライン交換が可能。

「Scale cache」はSSDの容量増加である。
Nimble Storageでは、SSDを4本使用している。
この4本のSSDを交換し、容量を増加させることでパフォーマンスを上げる。
交換し、一時的にReadパフォーマンスが劣化するが、オンラインのままで行うことができる。
ちなみにSSDはslot7~10にあるが、slot7から順に交換する必要があるらしい。


・「Scale performance」の効能は?
CPUリソースや搭載メモリ(DRAM)が増加することにより、ランダムI/O・シーケンシャルI/Oのスループット増加が見込める。
いろんなボトルネック要素に対して効果がある。

・「Scale cache」の効能は?
Nimble Storageでは、SSDはRead cache目的で利用している。
このため、SSD容量の増加は、よく使われるデータが多い場合に有用である。
逆にSSDの利用率が低い場合は、効果が薄い。


・Firmwareってどんな感じなのか?

一般向けGAリリースの最新は2013/07/29リリースのv1.4.7.0。
(その1つ前は2013/04/12リリースのv1.4.6.0)
次期バージョンとして、v2.0系列の開発が進んでおり、2013/11/04にv2.0.5.0がリリースされているが、まだβ扱いとなっている。


・複数のNimble Storageを1つのように使うのってどんな感じなの?
実はv2.0からの新機能で「Group」という名称のクラスタ機能です。

1つのNimble Storageをマスターとして、その配下に他のNimble Storageをおく、というようなイメージになる。
システムの停止は必要となるが、運用中の「複数のNimble Storage」または「複数のGroup」を、ディスクの中身はそのままに統合することもできる。

ちなみに管理画面上は下記の様になる。
nimble


・ボリュームの最大数は?
255個作成可能。

・snapshotの最大数は?
ボリューム毎で最大1000、システム全体で10000まで作成できる


・実現できるレプリケーションの種類は?
基本的には、1volume→1volumeの内容丸ごとコピーのレプリケーション。
帯域制限をかけることもできる。
同期/非同期/スケジュール同期、といった設定はなく、「非同期」相当のみ。

・指定できる帯域制限の種類は?
月,火,水,木,金の8:00~19:00は、1Mbpsに制限
といった「曜日」と「時間帯」を指定した、帯域制限をかけることができる。
この指定は複数おこなうことができる。


・シリアルコンソールがある
アクティブ側のコントローラにのみシリアルコンソールログインができる。
初期設定やfirmwareアップデートをシリアルコンソールから行うことも可能。