Nimble Storageにsshでログインしてみた

Nimble Storageにsshでログインしてみた。
ユーザは「admin」(標準で作成されている管理者ユーザ)。
パスワードは初期セットアップ時に指定したものを使う。

# ssh admin@IPアドレス
Password:
/ $ su
bash: su: command not found
/ $

一般ユーザっぽい雰囲気だったので、権限をかえられるのか?と「su」を実行してみたがコマンドがないらしい。

とりあえずディレクトリ構成確認。

/ $ ls -al
drwxr-xr-x   13 0        0            1024 Nov  8 04:24 .
drwxr-xr-x   13 0        0            1024 Nov  8 04:24 ..
drwxr-xr-x    2 0        0            1024 Nov  8 04:24 bin
drwxr-xr-x    3 0        0            1024 Nov  8 04:24 dev
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 diags
drwxr-xr-x    5 0        0            1024 Nov  8 04:24 etc
drwxr-xr-x    3 0        0            4096 Jan  4 11:11 home
drwxr-xr-x    2 0        0            1024 Nov  8 04:24 lib64
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 mnt
drwxr-xr-x    3 0        0            1024 Nov  8 04:19 nimble
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 sbin
drwxr-xr-x    6 0        0            1024 Nov  8 04:23 usr
drwxr-xr-x    3 0        0            4096 Jan  4 11:08 var
/ $ df
bash: df: command not found
/ $ cat /proc/mounts
cat: can't open '/proc/mounts': No such file or directory
/ $

dfコマンドや/proc/mountsを使って、パーテーション構成を確認する、といったことはできないようだ。

設定ファイルはどんなものがあるのかな?と/etc配下を見てみる。

/ $ ls -al /etc
drwxr-xr-x    5 0        0            1024 Nov  8 04:24 .
drwxr-xr-x   13 0        0            1024 Nov  8 04:24 ..
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 acpi
drwxr-xr-x    3 0        0            1024 Nov  8 04:23 diag
lrwxrwxrwx    1 0        0              14 Nov  8 04:24 group -> /var/etc/group
-rw-r--r--    1 0        0              48 Aug 16  2012 hosts
lrwxrwxrwx    1 0        0              18 Nov  8 04:24 localtime -> /var/etc/localtime
drwxr-xr-x    2 0        0            1024 Nov  8 04:23 nimpart
-rw-r--r--    1 0        0              56 Aug 16  2012 nsswitch.conf
lrwxrwxrwx    1 0        0              15 Nov  8 04:24 passwd -> /var/etc/passwd
-rw-r--r--    1 0        0             291 Aug 16  2012 profile
lrwxrwxrwx    1 0        0              20 Nov  8 04:24 resolv.conf -> /var/etc/resolv.conf
/ $ ls -l /var/etc
-rw-r--r--    1 0        0              14 Jan  4 11:08 group
-rw-r--r--    1 0        0             331 Jan 29 16:25 localtime
-rw-r--r--    1 0        0              44 Jan  4 11:08 passwd
-rw-rw-rw-    1 0        0              42 Jan 29 16:26 resolv.conf
/ $

/etcの中はreadonlyのようで、ユーザがカスタマイズするファイルについては/var/etc/に置かれる、という形を取っているようだ。

登録済みのユーザとグループはこんな感じ。

/ $ cat /etc/passwd
admin:x:1000:1000:CLI user:/home:/bin/clish
/ $ cat /etc/group
admin:x:1000:
/ $

adminユーザしか載ってない、というもの。

次に、実行できそうなコマンドは何があるのか確認してみる。

/ $ ls /bin
ash       dd        getopt    man       pwd       stat      vi
bash      echo      grep      mkdir     rm        stty      watch
cat       ed        hostname  mktemp    rmdir     sync      zcat
chmod     egrep     ln        more      sed       touch
cp        false     ls        mv        sh        true
cut       fgrep     lsattr    printenv  sleep     usleep
/ $ ls /sbin
arp      busybox
/ $ ls /usr/bin
[           du          id          readlink    tail        uptime
[[          env         install     realpath    tee         wc
awk         expand      length      reset       telnet      wget
basename    expr        less        resize      test        which
cksum       find        md5sum      script      tftp        whoami
clear       fold        mkfifo      seq         time        xargs
cmp         ftpget      nohup       sha1sum     tr          yes
comm        ftpput      nslookup    sort        traceroute
dc          hd          od          split       ttysize
diff        head        patch       strings     unexpand
dirname     hexdump     ping        sum         uniq
dos2unix    hostid      printf      tac         unix2dos
/ $ ls /usr/sbin
/ $

busyboxでいろいろ代用している模様。

/ $ busybox
BusyBox v1.13.0 (2013-11-07 11:23:31 PST) multi-call binary
Copyright (C) 1998-2008 Erik Andersen, Rob Landley, Denys Vlasenko
and others. Licensed under GPLv2.
See source distribution for full notice.

Usage: busybox [function] [arguments]...
   or: function [arguments]...

        BusyBox is a multi-call binary that combines many common Unix
        utilities into a single executable.  Most people will create a
        link to busybox for each function they wish to use and BusyBox
        will act like whatever it was invoked as!

Currently defined functions:
        [, [[, arp, ash, awk, basename, cat, chmod, cksum, clear, cmp, comm,
        cp, dc, dd, diff, dirname, dos2unix, du, echo, ed, egrep, env, expand,
        expr, false, fgrep, find, fold, ftpget, ftpput, getopt, grep, hd,
        head, hexdump, hostid, hostname, id, install, length, ln, ls, lsattr,
        md5sum, mkdir, mkfifo, mktemp, more, mv, nohup, nslookup, od, patch,
        printenv, printf, pwd, readlink, realpath, reset, resize, rm, rmdir,
        script, sed, seq, sh, sha1sum, sleep, sort, split, stat, strings,
        stty, sum, sync, tac, tail, tee, telnet, test, tftp, time, touch,
        tr, true, ttysize, unexpand, uniq, unix2dos, uptime, usleep, watch,
        wc, wget, which, whoami, xargs, yes

/ $

Nimble独自の管理プログラム系はどこにあるのかな?と$PATHを確認してみると、/nimble/usr/binというディレクトリが・・・

/ $ echo $PATH
/bin:/usr/bin:/sbin:/usr/sbin:/nimble/usr/bin
/ $ ls /nimble/usr/bin
?             failover      perfpolicy    snapcoll      version
alert         halt          prottmpl      software      vmwplugin
array         help          reboot        sshkey        vol
chapuser      initiatorgrp  route         stats         volcoll
ctrlr         ip            setup         subnet
date          nic           shelf         timezone
disk          partner       snap          useradmin
/ $

コマンド名を見る限りでは、Nimble StorageのWeb GUIで操作することができることが、CLIでも実装されている、というような感じに見受けられる・・・というか、おそらく、Web GUIのバックエンドでは、これらのCLIが実行されているだけ、という気がする。

とりあえず、「array」というコマンドを実行してみる。

/ $ array
ERROR: One of following options must be specified: --info, --edit, --resetup, --create_throttle, --delete_throttle, --edit_throttle, --autosupport_validate, --autosupport_initiate, --unset_http_proxy
INFO: Use --help option to view usage information.
/ $ array --info
Model: CS220G
Serial: AF-******
Version: 1.4.8.0-54807-opt
Array name: **************
Array IP address: xxx.xxx.xxx.xx1
Array IP netmask: 255.255.0.0
Discovery IP address: xxx.xxx.xxx.xx1
Discovery IP netmask: 255.255.0.0
Domain name: **************
DNS server(s): **************
NTP server: **************
Timezone: Asia/Tokyo
SMTP server: **************
SMTP port: 25
Minimum alert email severity level: WARNING
Alert email recipient address(es): *******@***********
Alert email from address: *******@***********
Copy alert email to Nimble Storage support: Yes
Send event data to Nimble Storage support: Yes
Allow Nimble Storage support to establish secure connection to array: No
HTTP proxy server:
HTTP proxy server port:
HTTP proxy server username:
HTTP proxy server password: (on file if set)
Default volume reserve (% of volume size): 0
Default volume quota (% of volume size): 100
Default volume warn level (% of volume size): 80
Default snapshot reserve (% of volume size): 0
Default snapshot quota (% of volume size): unlimited
Default snapshot warn level (% of volume size): 0
Total capacity (MB): 7740973
Volume usage (MB): 71797
Volume compression: 1.46X
Volume space saved (MB): 33001
Snapshot usage (MB): 2143
Snapshot compression: 1.59X
Snapshot space reduction: 324.41X
Snapshot space saved (MB): 693238
Unused reserve (MB): 0
Free space (MB): 7667032
Last login: admin @
Throttled replication bandwidth: unlimited
Replication throttles: N/A
iSNS enabled: No
iSNS hostname:
iSNS port: 3205
SNMP trap enabled: No
SNMP trap hostname: N/A
SNMP trap port: N/A
SNMP get enabled: No
SNMP community: N/A
SNMP get port: N/A
SNMP system location: N/A
SNMP system contact: N/A
Array time: Thu Jan ** **:**:** 2014

/ $

Web GUI上では「Manage」→「Array」に相当する操作になるようだ。

「ctrlr」コマンドは何なのか?

/ $  ctrlr --info
ERROR: required parameter is missing in 'info'
INFO: Use --help option to view usage information.
/ $  ctrlr --list
----+----------+--------------------+----------------+--------+-------+--------
Name State      Hostname             Support IP       Power    Fans    Temper-
                                                      Supplies Status  -ature
                                                      Status           Status
----+----------+--------------------+----------------+--------+-------+--------
A    active                          xxx.xxx.xxx.xx3    OK       OK      OK
B    standby                         xxx.xxx.xxx.xx4    OK       OK      OK
/ $  ctrlr --info A
Name: A
Serial number: AF-xxxxxx-C1
State: active
Hostname:
Support IP address: xxx.xxx.xxx.xx3
Support IP netmask: 255.255.0.0
Support IP nic: eth1
Hostname:
Power supply: OK
        power-supply1 at left rear: ok
        power-supply2 at right rear: ok
Cooling fans: OK
        fan1 at lower front of controller A: ok, speed: 11730rpm
        fan2 at lower left rear of controller A: ok, speed: 10608rpm
        fan3 at lower right rear of controller A: ok, speed: 10608rpm
        fan4 at upper right front of controller A: ok, speed: 10410rpm
        fan5 at upper left front of controller A: ok, speed: 10245rpm
        fan6 at upper left rear of controller A: ok, speed: 10560rpm
Temperature sensors: OK
        motherboard at motherboard: ok, temperature: 28C
        bp-temp1 at left-side backplane: ok, temperature: 37C
System partition status: OK
Last AutoSupport contact: Jan 30 2014 00:50:39
/ $  ctrlr --info B
Name: B
Serial number: AF-xxxxxx-C2
State: standby
Hostname:
Support IP address: xxx.xxx.xxx.xx4
Support IP netmask: 255.255.0.0
Support IP nic: eth1
Hostname:
Power supply: OK
        power-supply1 at left rear: ok
        power-supply2 at right rear: ok
Cooling fans: OK
        fan1 at lower front of controller B: ok, speed: 10608rpm
        fan2 at lower left rear of controller B: ok, speed: 10608rpm
        fan3 at lower right rear of controller B: ok, speed: 10608rpm
        fan4 at upper right front of controller B: ok, speed: 10410rpm
        fan5 at upper left front of controller B: ok, speed: 10275rpm
        fan6 at upper left rear of controller B: ok, speed: 10365rpm
Temperature sensors: OK
        motherboard at motherboard: ok, temperature: 28C
        bp-temp2 at right-side backplane: ok, temperature: 38C
System partition status: OK
Last AutoSupport contact: N/A
/ $

各コントローラ(マザーボード)の状態を取得するコマンドであったようだ。

システム停止するための操作は、Web GUI上だと「Administrator」→「shutdown」だったので、shutdownコマンドを探したんですが、rebootしかないなー、と思ってしまったのですが、こちらは「halt」コマンドでした。

/ $ halt
ERROR: One of following options must be specified: --array, --controller
INFO: Use --help option to view usage information.
/ $ halt --array
The array is shutting down and the head shelf will power off. You will not be able to use the user interface.
Once the array head shelf is powered down, it is safe to manually turn off any expansion shelves attached to this array.
To re-establish the user interface, you must first power any expansion shelves back on, power the array back on and log in again.
INFO: Initiated array shutdown.
/ $

「halt –array」にてシステム停止ができました。
いまのところ、Nimble Storage側に、UPS連携の仕組みが用意されていないですが、sshでログインして「halt –array」コマンドを実行することで停止ができるので、そういうUPSを用意すれば問題がないですね。

UPSソリューションズのAdvanced NWボード対応のUPSシリーズ(UPSS-SP,UPSS-HP,UPSS-HS)とかが使えるでしょうね。(Nimble StorageはSSH v2対応で、SSH v1のみ対応のSNMP/Webボードは使えません)

まぁ、コマンドを全部紹介していってもきりがないので、これくらいで・・・

各コマンドの詳細については、「man コマンド名」でちゃんと表示されます。
しっかりとCLI管理の場合も考えられている良い作りになっています。

・・・どこぞのWeb GUIがほぼ全てのTintri VMstoreとは全然違う・・・と感じましたね。

Nimble Storageについていろいろ調べたこと 2013/11/08

vForum2013 TOKYOにNimble Storageが出てたので、いろいろ確認してみた。
あと、マニュアルも入手したので、そこで調べた疑問点も列挙してある。


・海外事例を見るとパフォーマンス増強のために
 コントローラアップグレードがあるようだが
 日本でも提供するのか?

日本でも提供する予定だが、提供方法に関して詳細が決まっていない。

なお、アップグレードには2種類ある。
・Scale performance
・Scale cache

「Scale performance」はコントローラのアップグレードで、これは、マザーボードを丸ごと上位機種のものに入れ替えることになる。
Nimble Storageは「CS2x0用CPUを1つ積んだマザー」と「CS4x0用CPUを2つ積んだマザー」がある。
このため、「Scale performance」が適用できるものはCS2x0シリーズのみとなり、アップグレード後は「CS4x0」になる。
片コントローラずつ交換することでオンライン交換が可能。

「Scale cache」はSSDの容量増加である。
Nimble Storageでは、SSDを4本使用している。
この4本のSSDを交換し、容量を増加させることでパフォーマンスを上げる。
交換し、一時的にReadパフォーマンスが劣化するが、オンラインのままで行うことができる。
ちなみにSSDはslot7~10にあるが、slot7から順に交換する必要があるらしい。


・「Scale performance」の効能は?
CPUリソースや搭載メモリ(DRAM)が増加することにより、ランダムI/O・シーケンシャルI/Oのスループット増加が見込める。
いろんなボトルネック要素に対して効果がある。

・「Scale cache」の効能は?
Nimble Storageでは、SSDはRead cache目的で利用している。
このため、SSD容量の増加は、よく使われるデータが多い場合に有用である。
逆にSSDの利用率が低い場合は、効果が薄い。


・Firmwareってどんな感じなのか?

一般向けGAリリースの最新は2013/07/29リリースのv1.4.7.0。
(その1つ前は2013/04/12リリースのv1.4.6.0)
次期バージョンとして、v2.0系列の開発が進んでおり、2013/11/04にv2.0.5.0がリリースされているが、まだβ扱いとなっている。


・複数のNimble Storageを1つのように使うのってどんな感じなの?
実はv2.0からの新機能で「Group」という名称のクラスタ機能です。

1つのNimble Storageをマスターとして、その配下に他のNimble Storageをおく、というようなイメージになる。
システムの停止は必要となるが、運用中の「複数のNimble Storage」または「複数のGroup」を、ディスクの中身はそのままに統合することもできる。

ちなみに管理画面上は下記の様になる。
nimble


・ボリュームの最大数は?
255個作成可能。

・snapshotの最大数は?
ボリューム毎で最大1000、システム全体で10000まで作成できる


・実現できるレプリケーションの種類は?
基本的には、1volume→1volumeの内容丸ごとコピーのレプリケーション。
帯域制限をかけることもできる。
同期/非同期/スケジュール同期、といった設定はなく、「非同期」相当のみ。

・指定できる帯域制限の種類は?
月,火,水,木,金の8:00~19:00は、1Mbpsに制限
といった「曜日」と「時間帯」を指定した、帯域制限をかけることができる。
この指定は複数おこなうことができる。


・シリアルコンソールがある
アクティブ側のコントローラにのみシリアルコンソールログインができる。
初期設定やfirmwareアップデートをシリアルコンソールから行うことも可能。

Nimble Storageの日本代理店が発表になったようで

2012年8月に紹介したNimble Storageですが、このたび、アセンテックが国内総代理店として取り扱うことが決まったようです。

・プレスリリース:アセンテック、ハイブリッド型ストレージシステム 「Nimble Storage」の国内販売開始
アセンテック Nimble Storage製品ページ

春ぐらいからNimble Storageの日本上陸に関する話がちらほらあり、うちの記事がNimble Storageに関する唯一の日本語記事ということもあって、サポートとかを担当しそうないろんなベンダさんのIPアドレスから、アクセスがいろいろあったのがなかなかおもしろかったですね。
(もちろん、アセンテックさんからのアクセスも結構ありました。というか、参考にしたんだから謝礼くださいw)

過去記事の紹介
Nimble Storage(2012/08/06)
SSD+SATAのハイブリッドストレージ Nimble Storageについて調べてみた(2013/05/21)
ネットワークストレージ業界の標準ハードウェアSupermicro 6036ST-6LR(2013/05/15)

Nimble Storageについて知りたい人は、2番目の記事(SSD+SATAのハイブリッドストレージ Nimble Storageについて調べてみた)。

要約
・汎用的に使えるiSCSIストレージ
・SSDはReadキャッシュとして使用する
・書き込みの高速化は「データの圧縮」と「バッファ蓄積による書き込みのシーケンシャルWrite化」などで実現
・SSDは壊れても大丈夫な構成(実データは全てHDD上にある)
・VSS(Microsoft)やSRM/VAAI(VMware)などの連携プラグインも提供済み
・筐体間レプリケーションもサポート
・Nimble Storageの筐体はSupermicro 6036ST-6LRを採用

VMware HA有効時に仮想マシンの自動起動をしたい

2023/03/06追記

警告2

vSphere 7.0 Update1以降、VMware HAを有効にするとvCLSという仮想マシンが起動するようになるという仕様変更があり、おとなしくUPS連動でシャットダウンをさせてくれなくなっています。

詳細は「vSphere 7.0 Update 1以降 vCLSという仮想マシンが勝手に起動してUPS連動シャットダウンに失敗する」を見てください。

2019/06/26追記

警告

UPSによる自動停止と自動起動が目的である場合、このページに書かれている手法は、どこにも担保されていない手法となり推奨できません。

保証がある、という方向性で考えると、UPSソリューションズの「シャットダウンボックス UPSS-SDB02」など、外部機器を用意し、そちらからコントロールする手法をお薦めします。

また、2019年現在では、UPSメーカ公式の対応手法がいくつか出てきています。

基本的には、シャットダウン時にVMware HAを無効化して、起動時はVMware HAが無効化されているのでvCSAと起動用VMが自動起動できるので、それらをまず起動してから、VMware HAを有効化し、それ以外の仮想マシンも起動する、という手法をとっています。

APC UPS「PowerChute Network Shutdown for Virtualization v4.x VMware HA環境でのサポート構成

Eaton UPS「シャットダウン for vCSA on vSphere HA by IPM 1.62」「自動起動 for vCSA on vSphere HA by IPM 1.62

よっぽどのことが無い限り、これらの手段を使うべきだと思います。

また、シャットダウンを行う仮想マシンとしてvMA(vSphere Management Assistant)を使用するといった手順が紹介されている場合がありますが、vMAはvSphere 6.5までの対応(2016年11月リリースが最終版)となっており、最新のvSphere 6.7環境ではサポートされないことに注意してください。

vMAというアプライアンスの代替は公式にはありません。
別途、Windows/Linuxをインストールした仮想マシンに対して「vSphere CLI」をインストールするか、もしくはPowerShellがインストールされたWindows/Linux/MacOSXで動作する「VMware PowerCLI」モジュールを組み込むかを行う必要があります。

追記終わり


VMware HA利用時って、ESXiの仮想マシン自動起動設定が使えません。
そんなわけで、いままではvCenter ServerとしてWindowsサーバを別途ハードウェアを用意し、そこから、スクリプトを使って仮想マシンを起動させていたりました。

しかし、いまは、vCenter Server Appliance(vCSA)。
仮想マシンでたてちゃえば、Windowsライセンスもいらないのでお気軽・・・ってことになっています。
(vCSAは、SuSE Linux+Linux版vCenter Serverです)

が・・・VMware HA有効時は、仮想マシンの自動起動が使えない→vCSAも起動しない。
さて、どうしよう?

正規な解決手法は無い模様。

ハードウェアを追加で購入して対応する、というのであれば、UPSソリューションズの「シャットダウンボックス UPSS-SDB02」というアプライアンスを使って解決する、という手があります。

ESXiサーバだけでなんとか解決する手法はないものか、いろいろ捜索してみた結果、ESXiの起動時に実行される/etc/rc.local.d/local.shを利用して起動させる、というあたりが最適かな、という結論に。
(rc.localに関するVMwareのKB:Modifying the rc.local or local.sh file in ESX/ESXi to execute commands while booting)

警告!!!以下の手順はVMware公式の手順ではありません。

ESXi5.1の場合、ESXi Shellを有効にしてログイン、もしくはsshを有効にしてログインしたあと、/etc/rc.local.d/local.shを編集します。

元々のlocal.shはこんな感じ。

~ # cat /etc/rc.local.d/local.sh
#!/bin/sh

# local configuration options

# Note: modify at your own risk!  If you do/use anything in this
# script that is not part of a stable API (relying on files to be in
# specific places, specific tools, specific output, etc) there is a
# possibility you will end up with a broken system after patching or
# upgrading.  Changes are not supported unless under direction of
# VMware support.

exit 0

ここに仮想マシン起動のコマンドを入れ込みます。

いろいろ実験した結果、すぐに実行すると仮想マシンファイルのロック問題が発生し、vMotionができない状況が発生したりしたので、若干スリープを入れて処理を遅延させます。
・・・時間調整が面倒だったので、切りよく5分(300秒)で設定しちゃってますけどね。

#!/bin/sh

# local configuration options

# Note: modify at your own risk!  If you do/use anything in this
# script that is not part of a stable API (relying on files to be in
# specific places, specific tools, specific output, etc) there is a
# possibility you will end up with a broken system after patching or
# upgrading.  Changes are not supported unless under direction of
# VMware support.

LOGS=/vmfs/volumes/sharedstore/tmp/`hostname`.txt
date >> $LOGS
vim-cmd vmsvc/getallvms >> $LOGS
sleep 300
date >> $LOGS
vim-cmd vmsvc/getallvms >> $LOGS

for vmid in `vim-cmd vmsvc/getallvms | grep "sharedstore" | awk '{ print $1 }'`
do
        vim-cmd vmsvc/power.on $vmid
        sleep 5
done

date >> $LOGS
echo "boot finished" >> $LOGS
exit 0

書き換えた後は「auto-backup.sh」を実行します。
これを忘れると、再起動を行うとlocal.shは初期状態に戻ってしまいます。

~ # auto-backup.sh
Files /etc/vmware/dvsdata.db and /tmp/auto-backup.5979//etc/vmware/dvsdata.db differ
Saving current state in /bootbank
Clock updated.
Time: 00:37:06   Date: 09/20/2013   UTC
~ #

もしかすると、下記の様な感じの出力になるかもしれません。

~ # auto-backup.sh
--- /etc/vmware/hostd/hostsvc.xml
+++ /tmp/auto-backup.5631//etc/vmware/hostd/hostsvc.xml
@@ -8,6 +8,5 @@
   <mode>normal</mode>
   <service>
     <TSM-SSH>on</TSM-SSH>
-    <ntpd>automatic</ntpd>
   </service>
 </ConfigRoot>
\ No newline at end of file
Saving current state in /bootbank
Clock updated.
Time: 00:26:37   Date: 09/20/2013   UTC
~ #

これは、vSphere Clientから行った設定と、いまauto-backup.shで保存した設定に差異があり、vSphere Clientで行った設定が無効になったような場合に表示されます。

その場合は、もう1回、vSphere Clientから設定をやり直します。
上記の場合は、「automatic」が無くなった、ということになりますので、NTPに関する設定をやり直します。


解説

#!/bin/sh

# local configuration options

# Note: modify at your own risk!  If you do/use anything in this
# script that is not part of a stable API (relying on files to be in
# specific places, specific tools, specific output, etc) there is a
# possibility you will end up with a broken system after patching or
# upgrading.  Changes are not supported unless under direction of
# VMware support.

LOGS=/vmfs/volumes/sharedstore/tmp/`hostname`.txt

LOGS=でログファイルの出力先を指定。
「/sharedstore/tmp/」は適宜環境に応じて調整のこと。

date >> $LOGS
vim-cmd vmsvc/getallvms >> $LOGS

この段階での、このESXiホストが管理している仮想マシン一覧を取得。

sleep 300
date >> $LOGS
vim-cmd vmsvc/getallvms >> $LOGS

300秒待ったあと、再度、仮想マシン一覧を取得。

ここでウェイトを入れなかった場合、ESXi間での共有ファイルロックがおかしくなったようで、vMotionがうまくできなくなったという事例が発生した。
どれくらい待てばいいのかという最適値は不明。とりあえず切りよく300秒としただけ。

for vmid in `vim-cmd vmsvc/getallvms | grep "sharedstore" | awk '{ print $1 }'`
do
        vim-cmd vmsvc/power.on $vmid
        sleep 5
done

仮想マシン一覧を「vim-cmd vmsvc/getallvms」で取得し、そのなかから、起動したい仮想マシンだけをうまいこと選択できるキーワードを使ってgrepで抜き出し、その最初の数字を抜き出す。
その数字の仮想マシンをpower.onする。
という感じ。

仮想マシンの台数が多いときは、この部分を2つに分けて、最初のforループでは、vCSAの起動を。
そこから2分(sleep 120)ぐらい間を置き、
次のforループでは、それ以外の仮想マシンを起動するようにした方がいいと思う。

今回は「sharedstore」という文字列が入っているものを起動させている。
ここら辺は、うまいことやる必要がある。

date >> $LOGS
echo "boot finished" >> $LOGS
exit 0

vSphere 5.5リリース

現在、VMware world 2013が開催中。
毎年、ここで新バージョンのvSphereが発表されています。

今年も当然、新しいものが発表されました。
仮想化の基本基盤としてのVMware vSphere 5.5です。

それでは早速What’s Newを見てみましょう。
What’s New in VMware vSphere 5.5 Platform

いろいろありますが、個人的に気になる点は以下の2つ。

・無償のvSphere Hypervisorにあったメモリ32GB制限が無くなった
ライセンスを買わなくても使えるvSphere Hypervisorに存在していた物理メモリ32GB制限が撤廃、というのは驚きました。
ちょっと緩和しすぎなんじゃ?とか思わなくもないです。

・「vSphere Flash Read Cache」というSSDを使ったリードキャッシュ機能
vFlashという名称で開発されていたものが「vSphere Flash Read Cache」という名前で標準搭載。
Enterprise Edition以上じゃないと使えないのかな?というところがありますが、ストレージアプライアンスみたいに、3rdパーティーでそういうのが登場してがんばろうとした矢先に、標準搭載してくる、という図式は相変わらずですね。
Proximal DataおよびPernix Dataとの相違点はどう出てくるのかな?と。

その他、いろいろな変更点が・・・

・いろんな新機能に関する操作はvSphere Web Client必須
昔ながらのvSphere Clientアプリケーションでは新機能が使えない。

・ESXiが暇な時にCPUをC-stateという省電力モードに移行させる機能をサポート

・サーバの物理メモリ最大量が4TBに(いままでは2TB)

・VMDKファイル(ディスクイメージ)が2TBを突破し、最大62TBに

・仮想マシンハードウェアバージョンが10に

・PCIe接続のSSDディスクに対するhot-add, hot-removeサポート
要は壊れても無停止交換ができるよ、と。

・vGPU機能拡充
vSphere 5.1からvGPUという仮想マシンに直接GPUデバイスを割り当てる機能がnVidia向けに提供されていたが、5.5からはIntelおよびAMD Radeonもサポート
モードが3つあり、Software,Hardware,Automatic。
制約事項がいろいろあるが条件がそろえばvMotionも可能

・Linux VMでのグラフィックアクセラレータ機能
いままでWindows VMでしか有効にならなかったグラフィックアクセラレータ機能がLinuxでも有効に
ただし、Ubuntu 12.04, Fedora 17, RHEL7以降のみ

・vSphere App HAという、簡単なアプリケーション監視を含めたHA機能サポート

・WindowsServer 2012 VM上でのMSCSサポート

・vSphere Replicationというソフトウェアでストレージのレプリケーションを行う機能の拡張実施

他にもいろいろあるようですね。