vRealize Configuration Managerで401 Unauthorizedのエラーがでる


vRealize Configuration Manager v5.7.3.211(旧vCenter Configuration Manager)を設定中、以下のメッセージが表示される場面がいくつかあった。

vcm-001

An error has occurred during report processing.

HTTP ステータス 401: Unauthorized で要求が失敗しました。

エラーの内容としては「SSRS authentication must be configured in two-tier and three-tier installation environments that use Basic authentication (2000082)」にあるものと同じ。

「rsreportserver.config内の認証設定を書き換えろ」とあるけど、既に書き換えてるし、そもそも、うちの環境one-Tier構成だしなぁ・・・と悩む。
あとで分かるんだけど、実は、ここに誤りがありました・・・

で、いろいろ試していった結果、次のblogを発見。

Adventures in a Virtual World:「vCenter Configuration Manager – First Run
同じようにone-tier構成で現象が発生していて、IEの設定を変更して直った、とのこと。

なるほど、と[インターネットオプション]-[セキュリティタブ]にて、「信頼済みサイト」のレベルをカスタマイズ。
「Display mixed contentをEnableにする」というのは日本語だと「混在したコンテンツを表示する、を、有効にする」になる。
vcm-004

が・・・設定しても変わらない。

で・・・もう1度、インストールガイドを読み直したところ、自分が実施した手順に誤りを発見。
one-Tier構成の場合、rsreportserver.configの認証設定の変更は不要、ということ。

・・・最初うまく動かなかったところがあったから、設定したはずなんだけど、と思いつつ、rsreportserver.configの設定を元に戻すと・・・
vcm-005
表示できた・・・

初期設定通りの

<Authentication>
    <AuthenticationTypes>
        <RSWindowsNegotiate/>
        <RSWindowsNTLM/>
    </AuthenticationTypes>

であれば問題なかったという・・・

なぜ、最初はうまく動かなかったんだろうか・・・・

hp ProLiant Gen8サーバのiLOをESXiからアップデートする


VMware ESXiサーバとして動作しているhp ProLiant DL380p Gen8サーバのiLOをアップデートした。

まず、ESXi上から、iLOのバージョンと、iLOに割り当てられているIPアドレスを確認するため「hponcfg」コマンドを実行

/tmp # /opt/hp/tools/hponcfg -g
HP Lights-Out Online Configuration utility

Version 4.4-0 (c) Hewlett-Packard Company, 2014
Firmware Revision = 1.40 Device type = iLO 4 Driver name = hpilo
iLO IP Address: 172.17.15.99
Host Information:
                        Server Name: esxi1.osakana.local
                        Server Serial Number: SGH421XXXX
/tmp #

iLOのアップデータファイル CP025110.scexe を、/tmpに配置し、実行権限を与え、実行。

/tmp # chmod a+x CP025110.scexe
/tmp # ./CP025110.scexe
OS Version found  [5.5.0]
sh: 6.0=./ESXi_5.5: unknown operand
./CP025110.scexe: Okay process the path [./ESXi_5.5 6.0]
sh: 6.0: unknown operand
./CP025110.scexe:  Update flash engine from ./ESXi_5.5 6.0
sh: 6.0/clean_target_location.sh: unknown operand
sh: 6.0/copy_FE_to_target_location.sh: unknown operand
Copy Flash Engine files from [./ESXi_5.5 6.0] to [/tmp/sctmpdir4924713]
cp: './ESXi_5.5' and './ESXi_5.5' are the same file
cp: can't stat '6.0/*': No such file or directory

iLO Flasher v1.0.2-2 for VMware ESXi (Jan  7 2014)
(C) Copyright 2002-2014 Hewlett-Packard Development Company, L.P.
Firmware image: ./ilo4_203.bin
Current iLO 4 firmware version  1.40; Serial number ILOSGH421XXXX

Component XML file: ./CP025110.xml
./CP025110.xml reports firmware version 2.03
This operation will update the firmware on the
iLO 4 in this server with version 2.03.
Continue (y/N)?y
Current firmware is  1.40 (Jan 14 2014 00:00:00)
Firmware image is 0x1001b1c(16784156) bytes
Committing to flash part...
******** DO NOT INTERRUPT! ********
Flashing is underway... 100 percent programmed. \
Succeeded.
***** iLO 4 reboot in progress (may take up to 60 seconds.)
***** Please ignore console messages, if any.
iLO 4 still rebooting. Try again...
iLO 4 reboot completed.
/tmp #

firmwareのバージョンが上がっていることを確認。

/tmp #  /opt/hp/tools/hponcfg -g
HP Lights-Out Online Configuration utility

Version 4.4-0 (c) Hewlett-Packard Company, 2014
Firmware Revision = 2.03 Device type = iLO 4 Driver name = hpilo
iLO IP Address: 0.0.0.0
Host Information:
                        Server Name: esxi1.osakana.local
                        Server Serial Number: SGH421XXXX
/tmp #

・・・と、実行が早すぎたようで、DHCPで割り当てているIPアドレスが「0.0.0.0」となっている。
時間をおいて再実施

/tmp #  /opt/hp/tools/hponcfg -g
HP Lights-Out Online Configuration utility

Version 4.4-0 (c) Hewlett-Packard Company, 2014
Firmware Revision = 2.03 Device type = iLO 4 Driver name = hpilo
iLO IP Address: 172.17.15.99
Host Information:
                        Server Name: esxi1.osakana.local
                        Server Serial Number: SGH421XXXX
/tmp #

これで、問題なしですね。

SSD/HDDのハイブリッド型RAIDのNimble StorageがFibre Channelにも対応+ここ1年の動向



このblogで何回か話題にしている、SSD/HDDのハイブリッド型RAIDの「Nimble Storage」ですが、いままでiSCSIのみの対応だったものが、Fibre Channelにも対応しました。

公式リリース:Nimble Storage Advances Adaptive Flash Platform: Releases Fibre Channel Storage Arrays(2014/11/18)


まず、最近のNimble Storageの状況について解説。


・日本での取り扱い状況
現在、日本でのNimble Storageの取り扱いは、東芝が主体となり、製品販売および保守サポートが行われています。
東芝クラウド&ソリューション Nimble Storage」に日本語製品ページを用意し、本家のInfosight(サポートページ)で公開されている英語文書を日本語訳した文書など、いろいろ公開してくれています。

販売代理店もぼちぼちと増えていっています。
一部、Tintri VMstorと重なっていたりするとことが興味深かったりも・・・


Nimble Storageの性能は、ぶっちゃけて言えば、CPUとメモリを使ってぶん回し、SSDとHDDをうまいこと使っていく、という力業で解決する方向性です。
なので、新しいCPUが出て、それで劇的な改善が見込まれそうだな、となると、新機種になるわけです。

ということで登場したのが、以下のシリーズ。
Fibre Channelをサポートするのもこの機種群からになります。

・CS215
最低ラインのモデルで、パフォーマンス基準モデル。
SSD 80GB*4,HDD 1TB*12、という構成。SSDのサイズを変えることはできる。
CS210という、HDD/SSD容量をさらに減らしたモデルもあるがパフォーマンスは悪くなるので注意。
拡張筐体は1台までしか接続できない。
CS210/CS215のみ、iSCSIのみで、Fibre Channelをサポートしない。
上位モデルへアップグレードできない、というあたりを鑑みると、旧シリーズの流用かな、と推測される。

・CS300
CS215の1.6倍IOPSを提供できるモデル。
SSD 160GB*4,HDD 1TB*12構成から始まり、HDD/SSD容量を増やした構成も可能(最大SSD 800GB*4/HDD 4TB*12)。
拡張筐体を6台まで接続できる。
All Flash構成にすることも可能。

・CS500
CS215の5倍のIOPSを提供できるモデル。
SSD 300GB*4,HDD 1TB*12構成から始まり、HDD/SSD容量を増やした構成も可能(最大SSD 1.6TB*4/HDD 4TB*12)。
拡張筐体を6台まで接続できる。
All Flash構成にすることも可能。

・CS700
CS215の7倍のIOPSを提供できるモデル。
SSD 300GB*4,HDD 1TB*12構成から始まり、HDD/SSD容量を増やした構成も可能(最大SSD 1.6TB*4/HDD 4TB*12)。
拡張筐体を6台まで接続できる。
All Flash構成にすることも可能。

・4xCS700
CS700を4台組み合わせたセット販売
4台あっても、Nimble Storageの機能で1台のように管理利用できる。

なお、CS300/CS500/CS700の筐体は同一であり、コントローラ部分が違うだけなので、コントローラ交換によるアップグレードが可能になっています。


で・・・次に、Nimble StorageのOS基本機能の更新について。

まず、日本に入ってきたのは、Nimble OS 1.4.7ぐらいの段階です。
そこから最近までの更新内容と言えば・・・

・Nimble OS 2.0
複数台のNimble Storageを1台のように取り扱えるGroup機能と、Groupの中でストレージ容量管理を行う為のStorage Pool(Multi Array Group/Pool)機能の導入。
Windowsでの若干面倒なiSCSIマルチパスの設定をやってくれるWindowsToolKit(Nimble Connection Manager)の提供。

・Nimble OS 2.1
tag VLANサポート。
All Flash構成のサポート。
HDD部分のRAID構成変更。「ソフトウェアRAID6(パリティ2本)+スペア1本」から「ソフトウェアRAID(パリティ3本)+スペア無し」へ。
おそらくInfosightで収集したHDD故障率と故障時の対応状況からのリスク、と、ディスク本数を増やすことによるアクセススピードの向上を比較した上で、この結果になったのだと思われる。
管理用ユーザアカウントの導入。2.0まではadminしかなかった。

・Nimble OS 2.2
Fibre Channelをサポート
Microsoft SCVMMへの統合機能サポート。

こんな感じで進化していっています。
上記には書いていませんが、VMwareとの連携については、Nimble OS 1.4時代からサポートしています。


ようやく、本題。
Nimble OS 2.2でのFibre Channelサポートについてです。

仕組み上は既存モデルでもできるとは思うのですが、製品戦略上・・・というか、そもそも、PCIeスロットが空いていないので、既存モデルは対象外となっています。

iSCSIストレージとして可能であったことでも、Fibre Channelストレージになると実現不可能、ということがあるため、「iSCSIストレージとして使う場合」と「Fibre Channelストレージとして使う場合」でサポートされている機能が若干違います。
基本的にはiSCSIストレージの方がいろいろできます。

Fibre Channelストレージとして使用する場合に利用できない機能としては、以下があります。
・FibreChannelでのMulti Array Group/Poolは非サポート
  複数のNimbleStorageを組み合わせ1つのストレージとして使う機能は
  FibreChannelでは使用できません。

・1つのボリュームをiSCSIとFCで共有することは非サポート
  1つのボリューム(LUN)に対して、iSCSIアクセスと、FCアクセスを同時に有効にすることはできません。
  ボリュームの設定として、「iSCSI」か「FC」のどちらか1つを選択する必要があります。
  2014/11/25修正:なお、一度設定したあとに、切り替えることは可能です。現状、販売時に「iSCSIモデル」か「Fibre Channelモデル」かを選択する必要があり、購入後に変更はできない、とのこと。今後については不明です。

この組み合わせはサポートされている、と書いてあって意外だったのは、レプリケーションについてです。

・レプリケーションの送りと受けでのプロトコル違いをサポート
  送り側: iSCSI、受け側:FibreChannel、というのをサポート。
  なお、レプリケーションの伝送には、従来通り、TCP/IPを使用します。

まぁ、FibreChannelについては、機能がついて間もないので、パフォーマンス事例見当たらないので、情報が出てきてから本番かな・・・といったところですね。

IPFireでパッケージのインストールやアップデートができない



ESXiの上で、ネットワークを2つ作り、それぞれをVPN接続する、というテスト環境を作ろうとした。

VPNルータをどうするか悩んだのだが、Linuxベースの「IPFire」というので構築することにした。
(Endian FirewallのComminity Editionだとうまく構成が作れなかった)

決め手の1つに、vmware-toolsを容易にインストールすることができる、ということがあった。
が、「手順」の通りにやろうとしても、エラーとなる。

状況としては、「pakfire update problem」と全く同じモノ。
(上記のURLよりエラーを引用)

Sep  7 21:15:34 serwer1 pakfire: PAKFIRE INFO: IPFire Pakfire 2.15 started!
Sep  7 21:15:34 serwer1 pakfire: CRYPTO INFO: Checking GnuPG Database
Sep  7 21:15:34 serwer1 pakfire: CRYPTO WARN: The GnuPG isn't configured corectly. Trying now to fix this.
Sep  7 21:15:34 serwer1 pakfire: CRYPTO WARN: It's normal to see this on first execution.
Sep  7 21:17:34 serwer1 pakfire: Sending my uuid: 168d3c61-ae2a-454f-81a1-48a817470c37
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD STARTED: counter.py?ver=2.15&uuid=168d3c61-ae2a-454f-81a1-48a817470c37
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD INFO: Host: pakfire.ipfire.org (HTTP) - File: counter.py?ver=2.15&uuid=168d3c61-ae2a-454f-81a1-48a817470c37
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD INFO: HTTP-Status-Code: 200 - 200 OK
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD STARTED: 2.15/lists/server-list.db
Sep  7 21:17:34 serwer1 pakfire: DOWNLOAD INFO: Host: pakfire.ipfire.org (HTTP) - File: 2.15/lists/server-list.db
Sep  7 21:17:35 serwer1 pakfire: DOWNLOAD INFO: 2.15/lists/server-list.db has size of 907 bytes
Sep  7 21:17:35 serwer1 pakfire: DOWNLOAD INFO: HTTP-Status-Code: 200 - 200 OK
Sep  7 21:17:35 serwer1 pakfire: DOWNLOAD INFO: File received. Start checking signature...
Sep  7 21:17:35 serwer1 pakfire: DOWNLOAD ERROR: The downloaded file (2.15/lists/server-list.db) wasn't verified by IPFire.org. Sorry - Exiting...
Sep  7 21:18:06 serwer1 pakfire: TIME INFO: Time Server 217.153.128.243 has 0.010834 sec offset to localtime.

解決方法として、外部の11371ポートに対する通信を許可すること、と書かれている。
PakfireのAdditional Note

IPFireの設定をいじってみても解決しない。
なぜ?と考えて見ると、今回作成したテスト環境は、別のFirewallの中にある、というのがポイントだった。
つまり、別のFirewall側に設定を追加する必要があったということ。

そちらの設定変更権限はないので、別の方策がないか捜索したところ、発見。

Pakfire wont update on new install The GnuPG isn’t configured corectly. solved!

「/opt/pakfire/lib/functions.pl」内で
「my $command = “gpg –keyserver pgp.ipfire.org –always-trust –status-fd 2”;」
と書かれているところ、下記のようにポート80でアクセスできるサーバに書き直す。
「my $command = “gpg –keyserver hkp://keyserver.ubuntu.com:80 –always-trust –status-fd 2”;」
というもの。

これを実施したところ、正常に動作するようになった。

ちなみに、上記URLだと、「Core 82で直った」とか書かれてますが、Core82で試して同じ現象でした。

vSphere Flash Read Cache(vFRC)でSSDが見付からない



vSphere Flash Read Cache(vFRC)を使ってみようとセットアップしようとした。
しかし、「SSD」として認識されているものの「仮想フラッシュリソース管理」で該当デバイスが出てこない。

どういうことか調査した。

1. esxcfg-scsidevsコマンドでの認識状況

下記の様になっている。

~ # esxcfg-scsidevs -l
naa.600508b1001c3c4aacc8c33d825d7ff4
   Device Type: Direct-Access
   Size: 114439 MB
   Display Name: HP Serial Attached SCSI Disk (naa.600508b1001c3c4aacc8c33d825d7ff4)
   Multipath Plugin: NMP
   Console Device: /vmfs/devices/disks/naa.600508b1001c3c4aacc8c33d825d7ff4
   Devfs Path: /vmfs/devices/disks/naa.600508b1001c3c4aacc8c33d825d7ff4
   Vendor: HP        Model: LOGICAL VOLUME    Revis: 5.42
   SCSI Level: 5  Is Pseudo: false Status: degraded
   Is RDM Capable: true  Is Removable: false
   Is Local: false Is SSD: true
   Other Names:
      vml.0200030000600508b1001c3c4aacc8c33d825d7ff44c4f47494341
   VAAI Status: unknown
<略>
~ #

ここでの注目ポイントは
「Is Local:」と「Is SSD:」の値。

「Is Local: false Is SSD: true」とは、「Localではなくが、SSDである」と認識されていることになる。

2. esxcli storage vflash device listでの認識状況

vFRCの旧名である「vflash」という名前を持つコマンドを使って、SSDデバイスの認識状況を確認する。

~ # esxcli storage vflash device list
Name                                    Size  Is Local  Is Used in vflash  Eligibility
------------------------------------  ------  --------  -----------------  ----------------------------
naa.600508b1001c3c4aacc8c33d825d7ff4  114439     false              false  Detected as a remote SAS SSD
~ #

「Detected as a remote SAS SSD」と認識されていることが何かのキーになっている、ということもうかがえる。

では、どのようにすれば使える様になるのか?

「Detected as a remote SAS SSD」というメッセージを手がかりに探したところ、VMwareのcommunityに「” Detected as a remote SAS SSD” vFlash」というのを発見。

the solution. thanks for the pointer vfrank.org

esxcli storage nmp satp rule add –satp VMW_SATP_LOCAL –device naa.XXXXXX 0 –option enable_local

esxcli storage core claiming reclaim -d naa.XXXXXXX

該当デバイスの「Is local」認識を強制的に変更する、というもの。
上記コマンド例では「–device naa.XXXXXX 0 –option enable_local」とあるが「0」がなぜ入っているのかよく分からない。
エラーになったので、実行したのは「esxcli storage nmp satp rule add –satp VMW_SATP_LOCAL –device naa.XXXXXX –option enable_local」と「esxcli storage core claiming reclaim -d naa.XXXXXXX」となる。

~ # esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device naa.600508b1001c3c4aacc8c33d825d7ff4 --option enable_local
~ #  esxcli storage vflash device list
Name                                    Size  Is Local  Is Used in vflash  Eligibility
------------------------------------  ------  --------  -----------------  ----------------------------
naa.600508b1001c3c4aacc8c33d825d7ff4  114439     false              false  Detected as a remote SAS SSD
~ # esxcli storage core claiming reclaim -d naa.600508b1001c3c4aacc8c33d825d7ff4
~ # esxcli storage vflash device list
Name                                    Size  Is Local  Is Used in vflash  Eligibility                            
------------------------------------  ------  --------  -----------------  -------------------------------------------
naa.600508b1001c3c4aacc8c33d825d7ff4  114439      true              false  Yes, there are valid partitions for vflash
~ #

これにより「Is Local true」となった。

esxcfg-scsidevsでも、「Is Local: true Is SSD: true」となった。

~ # esxcfg-scsidevs -l
naa.600508b1001c3c4aacc8c33d825d7ff4
   Device Type: Direct-Access
   Size: 114439 MB
   Display Name: HP Serial Attached SCSI Disk (naa.600508b1001c3c4aacc8c33d825d7ff4)
   Multipath Plugin: NMP
   Console Device: /vmfs/devices/disks/naa.600508b1001c3c4aacc8c33d825d7ff4
   Devfs Path: /vmfs/devices/disks/naa.600508b1001c3c4aacc8c33d825d7ff4
   Vendor: HP        Model: LOGICAL VOLUME    Revis: 5.42
   SCSI Level: 5  Is Pseudo: false Status: on
   Is RDM Capable: false Is Removable: false
   Is Local: true  Is SSD: true
   Other Names:
      vml.0200030000600508b1001c3c4aacc8c33d825d7ff44c4f47494341
   VAAI Status: unknown
<略>
~ #

この状態となったら、GUIからvFRCの設定が行えるようになった。

該当SSDに対してvFRCの設定を行ったあとの「esxcli storage vflash device list」の結果は以下の様になった。

~ # esxcli storage vflash device list
Name                                    Size  Is Local  Is Used in vflash  Eligibility
------------------------------------  ------  --------  -----------------  ---------------------------------
naa.600508b1001c3c4aacc8c33d825d7ff4  114439      true               true  It has been configured for vflash
~ #