Nimble Storageの総代理店権を東芝が持ってった


2018/02/21 追記
このページ、いまも時々アクセスされているので、その後のことを書いておきます。

東芝が日本の総代理店ではなくなってやりやすくなった!
と思った矢先にHPE買収、なんて事態になりました。
HPEのプロダクトとしてやっていますが、果たして、今度、どうなることやら?


いままで何度か紹介しているSSD/HDDハイブリッド型のストレージNimble Storage。
10月にアセンテックが日本での取扱を開始した。

で、1月から本格的にいろいろ動き出すはずだったのが、いろいろスローダウン・・・

その原因が一昨日発表に・・・
東芝「米・ニンブルストレージ社と日本における総代理店契約を締結

えぇ、東芝が日本国内の総代理店権を持っていったのです。

まぁ、夏頃から、東芝ITが保守やるのかなぁ?という感じのアクセスログがあったりしたので、保守レベルが上がるんじゃないかと想定される、というのはいいんですけど、
早いところ、いろいろ済ませて欲しいところです。

うちの過去記事リスト
2012/08/06:Nimble Storage
2013/05/21:SSD+SATAのハイブリッドストレージ Nimble Storageについて調べてみた
2013/10/30:Nimble Storageの日本代理店が発表になったようで
2013/11/08:Nimble Storageについていろいろ調べたこと 2013/11/08

さて、これだけしかないのもなんなので写真でも入れときますね

外観1

裏面はこんな感じ
裏面1

Citrix XenAppでXenReceiverが接続できない?


Citrix XenAppをとりあえず試しているところ。
一通り設定を済ませてクライアントから http://サーバ名/Citrix/StoreWeb/ にアクセスし、アプリケーションを選択してみると、アプリの起動に失敗する。

具体的には、アプリを選択すると、以下のようにXen Receiverが起動する。
logonfailed-001
しかし、しばらくステータスバーが進まないまま、時間が経過し、以下のエラーとなる。
logonfailed-002

最初は、DNSの名前解決の問題かと考えたけれども、どうやら違いそう。
Wiresharkでパケットキャプチャしてみたところ原因判明。
logonfailed-003

サーバのIPアドレスとして「192.168.x.x」が渡されている!
そっちは、管理用のネットワークIPアドレスなので、クライアントからはアクセスできないのは当然のことだった。

Citrixのサービスが見るネットワークインタフェースから192.168.x.xを除外すればいいんだろう、と設定を探してみる・・・

が・・・XenDesktop 7.1でのやり方が分からない。
XenApp 6.5でのやり方は「Application Launch Requests Might Fail on a Provisioned XenApp Version 6.0 or 6.5 Multihomed Server」とかに書いてあるんだけど、ここで紹介されている設定項目がXenDesktop 7.1では見当たらない・・・

とりあえず、仕方がないので、ネットワーク構成を変更して、192.168.x.xを使わないようにする、という後ろ向きな対応をしてみたり

Nimble Storageについていろいろ調べたこと 2013/11/08


vForum2013 TOKYOにNimble Storageが出てたので、いろいろ確認してみた。
あと、マニュアルも入手したので、そこで調べた疑問点も列挙してある。


・海外事例を見るとパフォーマンス増強のために
 コントローラアップグレードがあるようだが
 日本でも提供するのか?

日本でも提供する予定だが、提供方法に関して詳細が決まっていない。

なお、アップグレードには2種類ある。
・Scale performance
・Scale cache

「Scale performance」はコントローラのアップグレードで、これは、マザーボードを丸ごと上位機種のものに入れ替えることになる。
Nimble Storageは「CS2x0用CPUを1つ積んだマザー」と「CS4x0用CPUを2つ積んだマザー」がある。
このため、「Scale performance」が適用できるものはCS2x0シリーズのみとなり、アップグレード後は「CS4x0」になる。
片コントローラずつ交換することでオンライン交換が可能。

「Scale cache」はSSDの容量増加である。
Nimble Storageでは、SSDを4本使用している。
この4本のSSDを交換し、容量を増加させることでパフォーマンスを上げる。
交換し、一時的にReadパフォーマンスが劣化するが、オンラインのままで行うことができる。
ちなみにSSDはslot7~10にあるが、slot7から順に交換する必要があるらしい。


・「Scale performance」の効能は?
CPUリソースや搭載メモリ(DRAM)が増加することにより、ランダムI/O・シーケンシャルI/Oのスループット増加が見込める。
いろんなボトルネック要素に対して効果がある。

・「Scale cache」の効能は?
Nimble Storageでは、SSDはRead cache目的で利用している。
このため、SSD容量の増加は、よく使われるデータが多い場合に有用である。
逆にSSDの利用率が低い場合は、効果が薄い。


・Firmwareってどんな感じなのか?

一般向けGAリリースの最新は2013/07/29リリースのv1.4.7.0。
(その1つ前は2013/04/12リリースのv1.4.6.0)
次期バージョンとして、v2.0系列の開発が進んでおり、2013/11/04にv2.0.5.0がリリースされているが、まだβ扱いとなっている。


・複数のNimble Storageを1つのように使うのってどんな感じなの?
実はv2.0からの新機能で「Group」という名称のクラスタ機能です。

1つのNimble Storageをマスターとして、その配下に他のNimble Storageをおく、というようなイメージになる。
システムの停止は必要となるが、運用中の「複数のNimble Storage」または「複数のGroup」を、ディスクの中身はそのままに統合することもできる。

ちなみに管理画面上は下記の様になる。
nimble


・ボリュームの最大数は?
255個作成可能。

・snapshotの最大数は?
ボリューム毎で最大1000、システム全体で10000まで作成できる


・実現できるレプリケーションの種類は?
基本的には、1volume→1volumeの内容丸ごとコピーのレプリケーション。
帯域制限をかけることもできる。
同期/非同期/スケジュール同期、といった設定はなく、「非同期」相当のみ。

・指定できる帯域制限の種類は?
月,火,水,木,金の8:00~19:00は、1Mbpsに制限
といった「曜日」と「時間帯」を指定した、帯域制限をかけることができる。
この指定は複数おこなうことができる。


・シリアルコンソールがある
アクティブ側のコントローラにのみシリアルコンソールログインができる。
初期設定やfirmwareアップデートをシリアルコンソールから行うことも可能。

Nimble Storageの日本代理店が発表になったようで


2012年8月に紹介したNimble Storageですが、このたび、アセンテックが国内総代理店として取り扱うことが決まったようです。

・プレスリリース:アセンテック、ハイブリッド型ストレージシステム 「Nimble Storage」の国内販売開始
アセンテック Nimble Storage製品ページ

春ぐらいからNimble Storageの日本上陸に関する話がちらほらあり、うちの記事がNimble Storageに関する唯一の日本語記事ということもあって、サポートとかを担当しそうないろんなベンダさんのIPアドレスから、アクセスがいろいろあったのがなかなかおもしろかったですね。
(もちろん、アセンテックさんからのアクセスも結構ありました。というか、参考にしたんだから謝礼くださいw)

過去記事の紹介
Nimble Storage(2012/08/06)
SSD+SATAのハイブリッドストレージ Nimble Storageについて調べてみた(2013/05/21)
ネットワークストレージ業界の標準ハードウェアSupermicro 6036ST-6LR(2013/05/15)

Nimble Storageについて知りたい人は、2番目の記事(SSD+SATAのハイブリッドストレージ Nimble Storageについて調べてみた)。

要約
・汎用的に使えるiSCSIストレージ
・SSDはReadキャッシュとして使用する
・書き込みの高速化は「データの圧縮」と「バッファ蓄積による書き込みのシーケンシャルWrite化」などで実現
・SSDは壊れても大丈夫な構成(実データは全てHDD上にある)
・VSS(Microsoft)やSRM/VAAI(VMware)などの連携プラグインも提供済み
・筐体間レプリケーションもサポート
・Nimble Storageの筐体はSupermicro 6036ST-6LRを採用

VMware HA有効時に仮想マシンの自動起動をしたい


2023/03/06追記

警告2

vSphere 7.0 Update1以降、VMware HAを有効にするとvCLSという仮想マシンが起動するようになるという仕様変更があり、おとなしくUPS連動でシャットダウンをさせてくれなくなっています。

詳細は「vSphere 7.0 Update 1以降 vCLSという仮想マシンが勝手に起動してUPS連動シャットダウンに失敗する」を見てください。

2019/06/26追記

警告

UPSによる自動停止と自動起動が目的である場合、このページに書かれている手法は、どこにも担保されていない手法となり推奨できません。

保証がある、という方向性で考えると、UPSソリューションズの「シャットダウンボックス UPSS-SDB02」など、外部機器を用意し、そちらからコントロールする手法をお薦めします。

また、2019年現在では、UPSメーカ公式の対応手法がいくつか出てきています。

基本的には、シャットダウン時にVMware HAを無効化して、起動時はVMware HAが無効化されているのでvCSAと起動用VMが自動起動できるので、それらをまず起動してから、VMware HAを有効化し、それ以外の仮想マシンも起動する、という手法をとっています。

APC UPS「PowerChute Network Shutdown for Virtualization v4.x VMware HA環境でのサポート構成

Eaton UPS「シャットダウン for vCSA on vSphere HA by IPM 1.62」「自動起動 for vCSA on vSphere HA by IPM 1.62

よっぽどのことが無い限り、これらの手段を使うべきだと思います。

また、シャットダウンを行う仮想マシンとしてvMA(vSphere Management Assistant)を使用するといった手順が紹介されている場合がありますが、vMAはvSphere 6.5までの対応(2016年11月リリースが最終版)となっており、最新のvSphere 6.7環境ではサポートされないことに注意してください。

vMAというアプライアンスの代替は公式にはありません。
別途、Windows/Linuxをインストールした仮想マシンに対して「vSphere CLI」をインストールするか、もしくはPowerShellがインストールされたWindows/Linux/MacOSXで動作する「VMware PowerCLI」モジュールを組み込むかを行う必要があります。

追記終わり


VMware HA利用時って、ESXiの仮想マシン自動起動設定が使えません。
そんなわけで、いままではvCenter ServerとしてWindowsサーバを別途ハードウェアを用意し、そこから、スクリプトを使って仮想マシンを起動させていたりました。

しかし、いまは、vCenter Server Appliance(vCSA)。
仮想マシンでたてちゃえば、Windowsライセンスもいらないのでお気軽・・・ってことになっています。
(vCSAは、SuSE Linux+Linux版vCenter Serverです)

が・・・VMware HA有効時は、仮想マシンの自動起動が使えない→vCSAも起動しない。
さて、どうしよう?

正規な解決手法は無い模様。

ハードウェアを追加で購入して対応する、というのであれば、UPSソリューションズの「シャットダウンボックス UPSS-SDB02」というアプライアンスを使って解決する、という手があります。

ESXiサーバだけでなんとか解決する手法はないものか、いろいろ捜索してみた結果、ESXiの起動時に実行される/etc/rc.local.d/local.shを利用して起動させる、というあたりが最適かな、という結論に。
(rc.localに関するVMwareのKB:Modifying the rc.local or local.sh file in ESX/ESXi to execute commands while booting)

警告!!!以下の手順はVMware公式の手順ではありません。

ESXi5.1の場合、ESXi Shellを有効にしてログイン、もしくはsshを有効にしてログインしたあと、/etc/rc.local.d/local.shを編集します。

元々のlocal.shはこんな感じ。

~ # cat /etc/rc.local.d/local.sh
#!/bin/sh

# local configuration options

# Note: modify at your own risk!  If you do/use anything in this
# script that is not part of a stable API (relying on files to be in
# specific places, specific tools, specific output, etc) there is a
# possibility you will end up with a broken system after patching or
# upgrading.  Changes are not supported unless under direction of
# VMware support.

exit 0

ここに仮想マシン起動のコマンドを入れ込みます。

いろいろ実験した結果、すぐに実行すると仮想マシンファイルのロック問題が発生し、vMotionができない状況が発生したりしたので、若干スリープを入れて処理を遅延させます。
・・・時間調整が面倒だったので、切りよく5分(300秒)で設定しちゃってますけどね。

#!/bin/sh

# local configuration options

# Note: modify at your own risk!  If you do/use anything in this
# script that is not part of a stable API (relying on files to be in
# specific places, specific tools, specific output, etc) there is a
# possibility you will end up with a broken system after patching or
# upgrading.  Changes are not supported unless under direction of
# VMware support.

LOGS=/vmfs/volumes/sharedstore/tmp/`hostname`.txt
date >> $LOGS
vim-cmd vmsvc/getallvms >> $LOGS
sleep 300
date >> $LOGS
vim-cmd vmsvc/getallvms >> $LOGS

for vmid in `vim-cmd vmsvc/getallvms | grep "sharedstore" | awk '{ print $1 }'`
do
        vim-cmd vmsvc/power.on $vmid
        sleep 5
done

date >> $LOGS
echo "boot finished" >> $LOGS
exit 0

書き換えた後は「auto-backup.sh」を実行します。
これを忘れると、再起動を行うとlocal.shは初期状態に戻ってしまいます。

~ # auto-backup.sh
Files /etc/vmware/dvsdata.db and /tmp/auto-backup.5979//etc/vmware/dvsdata.db differ
Saving current state in /bootbank
Clock updated.
Time: 00:37:06   Date: 09/20/2013   UTC
~ #

もしかすると、下記の様な感じの出力になるかもしれません。

~ # auto-backup.sh
--- /etc/vmware/hostd/hostsvc.xml
+++ /tmp/auto-backup.5631//etc/vmware/hostd/hostsvc.xml
@@ -8,6 +8,5 @@
   <mode>normal</mode>
   <service>
     <TSM-SSH>on</TSM-SSH>
-    <ntpd>automatic</ntpd>
   </service>
 </ConfigRoot>
\ No newline at end of file
Saving current state in /bootbank
Clock updated.
Time: 00:26:37   Date: 09/20/2013   UTC
~ #

これは、vSphere Clientから行った設定と、いまauto-backup.shで保存した設定に差異があり、vSphere Clientで行った設定が無効になったような場合に表示されます。

その場合は、もう1回、vSphere Clientから設定をやり直します。
上記の場合は、「automatic」が無くなった、ということになりますので、NTPに関する設定をやり直します。


解説

#!/bin/sh

# local configuration options

# Note: modify at your own risk!  If you do/use anything in this
# script that is not part of a stable API (relying on files to be in
# specific places, specific tools, specific output, etc) there is a
# possibility you will end up with a broken system after patching or
# upgrading.  Changes are not supported unless under direction of
# VMware support.

LOGS=/vmfs/volumes/sharedstore/tmp/`hostname`.txt

LOGS=でログファイルの出力先を指定。
「/sharedstore/tmp/」は適宜環境に応じて調整のこと。

date >> $LOGS
vim-cmd vmsvc/getallvms >> $LOGS

この段階での、このESXiホストが管理している仮想マシン一覧を取得。

sleep 300
date >> $LOGS
vim-cmd vmsvc/getallvms >> $LOGS

300秒待ったあと、再度、仮想マシン一覧を取得。

ここでウェイトを入れなかった場合、ESXi間での共有ファイルロックがおかしくなったようで、vMotionがうまくできなくなったという事例が発生した。
どれくらい待てばいいのかという最適値は不明。とりあえず切りよく300秒としただけ。

for vmid in `vim-cmd vmsvc/getallvms | grep "sharedstore" | awk '{ print $1 }'`
do
        vim-cmd vmsvc/power.on $vmid
        sleep 5
done

仮想マシン一覧を「vim-cmd vmsvc/getallvms」で取得し、そのなかから、起動したい仮想マシンだけをうまいこと選択できるキーワードを使ってgrepで抜き出し、その最初の数字を抜き出す。
その数字の仮想マシンをpower.onする。
という感じ。

仮想マシンの台数が多いときは、この部分を2つに分けて、最初のforループでは、vCSAの起動を。
そこから2分(sleep 120)ぐらい間を置き、
次のforループでは、それ以外の仮想マシンを起動するようにした方がいいと思う。

今回は「sharedstore」という文字列が入っているものを起動させている。
ここら辺は、うまいことやる必要がある。

date >> $LOGS
echo "boot finished" >> $LOGS
exit 0