mouseのLUV MACHINES mini LM-mini74B-W8を手に入れた


秋葉原のコンフルに行ったら、こんな感じで仕分け中のPCがあった。

画像

聞いて見ると、HDD500GBモデルは1700円、SSD32GBはもうちょっと高い値段(忘れた)というではないですか。

2.5インチHDD500GBってジャンク1000円以上なのに、そこにDDR3 SO-DIMM4GBにパソコン本体がついて1700円とはお買い得すぎじゃね?ということで1台購入。

買ったのはLUV MACHINES mini LM-mini74B-W8というモデル。

画像

電源はなかったが、東芝/富士通のノートパソコンでよく使われる19Vのものが使えた。うちではType-Cから20Vを取り出す変換アダプタで代用している。

何かの裏側に貼り付けて使っていたようで、マジックテープが貼られていた。(全部はられていたけど、貼り方に差異があった)

画像

ちなみに、このマジックテープがあるせいで、絨毯の上に置くと面倒なことになるので注意が必要です。

シールが貼ってありますし、Windows8がプレインストールだったんだろう、ということで、Windows10のインストールを実施してみたところ、Windows10 Homeエディションが自動的に選択されてインストールされました。

画像

使用したWindows10インストールディスクのベースが1803だったせいか、いくつかのデバイスが△マークつきでした。

画像

まぁ、△マークのデバイスについて手動でドライバの更新かけるとちゃんと認識されましたけどね。

画像

BluetoothとWiFi(RTL8723BE)もちゃんと動作しました。

試しにドラクエXベンチマークを動かしてみたところ、スコアはやや重いの2876でした。

画像

WiFiは2.4GHzまでしか対応していないようなので交換できるのか中を開けてみます。

画像

シリアルシールが貼られている4箇所のネジをはずして

画像

VGAコネクタの両脇のネジと、LANコネクタの横のネジをはずし

画像

徐々に上に押し上げていくと

画像

蓋が外れます。

画像
画像

メモリとディスクは取り外ししやすい場所にありますが、WiFi/Bluetoothについては裏面にあるようで見えません。

マザーボード上に「BDW-P1」という文字が見えるので検索してみるとGeekbenchのサイトに「MouseComputer/81Pro BDW-P1」というCore i3-5010U(2.10GHz)モデルのベンチマーク結果が出てきます。

今回手に入れたLM-mini74B-W8のCPUは「インテル® Celeron® プロセッサー 3205U 2M キャッシュ、1.50 GHz」、Geekbench上のモデルのCPUは「インテル® Core™ i3-5010U プロセッサー 3M キャッシュ、2.10 GHz」で、どちらもBroadwell世代なので、CPU以外は同じということでしょうね。(Intel公式のCPU機能比較表)

クロック1.5GHz→2.4GHz、CPUキャッシュ2MB→3MB、ハイパースレッドなし→あり、GPU機能のクロック100~800MHz→300~900MHz、拡張命令セットSSE4.1/4.2→SSE4.1/4.2,AVX2、AESなし→あり、VTx/VTdはどちらもあり

まぁ、速度を追わなければ問題なさそうですね

楽天モバイルの無料サポータープログラムをWindowsタブレットDELL Venue 10 Pro 5055で使って見た


楽天モバイルの無料サポータープログラムのSIMをmicroSIMスロットがついているDELL Venue 10 Pro 5055にさしてみた。

SIMをさしてみると「Rakuten」と認識はしているものの通信が出来る状態にならない。

自宅だとバンド3の入りが悪いので安定してバンド3で受信できる環境で試してみると、アンテナピクトが増減しているので受信できているものの通信はできない。

DELL Venue 10 Proで使用されている通信カードは Dell wireless 5810e で、現状のfirmwareは FIH7160_V1.2_WW_01.1528.31 だった。

新しいバージョンってあるのか?と探してみたところ「Dell Wireless 5810e LTE Mobile Broadband Driver」に「汎用ファームウェアv1616.01」という記載が・・・

そういえば、Windows10をインストールした際にWindows標準ドライバで認識したのでこれをインストールしてなかったな、ということでインストール。

インストール後に再起動し、初回ログインをすると、firmwareアップデートが実行されました。

その結果、firmwareは「FIH7160_V1.2_WW_01.1616.01」になり、アンテナ認識は「Rakuten(LTE)」表記に変化。

APN設定は、以下でOKでした。

APN名:rakuten.jp
ユーザ名/パスワード:空欄
サインイン情報:なし
IPの種類:既定

なお、動作状況からみると Dell wireless 5810e はバンド18には非対応である模様

FIH7160で検索すると「インテル® XMM™ 7160 スリムモデム」が出てくる。どうやらこれを利用しているようだが、対応バンドとしては「15-band LTE, 8-band HSPA, 4-band EDGE, MSC33」としか記載されていないので実際にどこで使えるのかが分からない。

DELL PowerEdgeサーバにLinuxを入れる際の追加ソフト


DELL PowerEdgeサーバにRedHat Enterprise Linux (RHEL)やCentOSをインストールする場合、OSインストール後に、DELL用の管理ソフトウェア OMSAとシステムアップデートツール DSUをインストールする。

「Dell EMC System Update (DSU)」用のYUMレポジトリを登録し、その後、「OpenManage Server Administrator」をインストールする形となるので、以下の様な流れとなる。

  1. レポジトリ登録
  2. DSUインストール
  3. OSMAインストール
  4. DTKをインストール
  5. dsuを使ってfirmware類をアップデート

実行するコマンドは以下の様な形となる。

# curl -s http://linux.dell.com/repo/hardware/dsu/bootstrap.cgi | bash
#  yum install dell-system-update 
# yum install srvadmin-all
# yum install syscfg raidcfg
# dsu --apply-upgrades --non-interactive

上記はオンラインで行う場合の手順。

オフラインで行いたい場合は「tarballをダウンロードしてインストール」「rsyncでミラーレポジトリを作る」と「ISOを作る」から選択する。

tarballは「Dell EMC OpenManage Server Administrator 9.1.0」から入手することができる・・・ただ、2019/01/09時点ではDSUレポジトリからインストールすると9.2.0になるので若干遅れている。

rsyncの場合は「rsync -avHz linux.dell.com::repo/hardware .」でコピーしてくる。

ISOをつくる場合は「dsucreateiso」をダウンロードして実行する。事前に「yum install mkisofs」でmkisofsをインストールしておく必要はある。

また、標準状態だと/tmpにダウンロードしてきたファイル群を置いた上で、そこで展開も行うので十分な容量を確保しておく必要がある。もしくは「–workspace=/ディレクトリ」で作業領域を指定する

[root@rhelserver7 dsu]# mkdir tmp
[root@rhelserver7 dsu]# ./dsucreateiso  --workspace=`pwd`/tmp
Log file:/var/log/dsucreateiso.log
Downloading: ftp://ftp.dell.com/sysman/DSUPlugins.tar
Invalid dellbootplugin location: ftp://downloads.dell.com/FOLDER05328537M/1/dellbootplugin.tar.gz
Downloading: https://downloads.dell.com/FOLDER05328537M/1/dellbootplugin.tar.gz
Extracting dellbootplugin: dellbootplugin.tar.gz
Downloading: https://downloads.dell.com/catalog/Catalog.gz
Extracting catalog: Catalog.gz
Parsing Catalog File...

ESXi上のNutanix CE AHVの中でPrism Centralを立ち上げようとしたらKernel Panicで何もできない



ESXi6.0上に3ノードのNutanix CE AHVクラスタを組み、Prism Centralをインストールしようとしたら失敗した。

コンソールを開いてみるとKernel Panicしている。

Nutanix CE ce-2017.07.20-stableにおけるPrism Centralの1-Clickデプロイがコケる場合のバッドノウハウ的なワークアラウンド」をみてbootとhomeを入れ替えてみたが、何も状況は変わらなかった。
結果的にはこのbootとhomeの入れ替えはやる必要は無かった。

解決につながる情報は「Run Nutanix CE nested on VMware ESXi 6.5 – solving some of the challenges you will face」で引用されている「Prism Central not booting」にあった。

原文は下記

1/ deploy PrismCE using ce-pc-2017.07.20-metadata.json and ce-pc-2017.07.20.tar

2/ grab /var/lib/libvirt/NTNX-CVM/svmboot.iso from an AHV host using SCP/SFTP

3/ upload it as an ISO image in a PrismCE container with name boot_PRISMCE

4/ edit PrismCE VM settings:
delete DISK scsi.0
delete CDROM ide.0
add new disk type CDROM / Clone from Image service / Bus type=IDE / Image=boot_PRISMCE
select CDROM as Boot Device

5/ power on PrismCE VM
blank screen during 20 sec and then everything works

Nutanix CE AHVホストの/var/lib/libvirt/NTNX-CVM/svmboot.iso をscpで手元にダウンロードし、
Nutanix上のISOイメージとして登録
その後、Prism Central VMのCD-ROMドライブの割り当てを上記のsvmboot.isoにして起動

そうすることで、ログイン画面にたどり着きました。
ここからの手順は「INSTALLING THE PRISM CENTRAL VM (AHV)」の7番から参考にします。
ログインは「nutanix」「nutanix/4u」

初期プロセスがいろいろ動いてるようなのでログイン可能状態であっても、10分ぐらい待ちます
なお、キーボード配列を調整していない場合は「]む」で「|」を入力出来ます。
で、待ってると1回再起動すると思います。

再起動後「sudo tail -f /tmp/config_home_dir.log」を実行して、プロセスが一段落するのを待ちます。

この段階ではDHCPでIPアドレスを取得していると思われるので、/etc/sysconfig/network-scripts/ifcfg-eth0 を編集し、固定IPアドレスを設定
/etc/hostsに「127.0.0.1 NTNX-10-3-190-99-A-CVM」といった行がある場合は削除
/etc/resolv.conf にDNSサーバのエントリを登録
で、再起動。
IPアドレスが変わった場合は、起動後、即再起動がかかる。

その後、再度ログインしてから「ps -ef|grep rc.local」を実行して、rc.localの実行が終わることを確認。
rc.lcoal内に「sleep 120」があるので、最低2分かかる。

再起動して、またnutanixユーザでログイン
「cluster –cluster_function_list=”multicluster” -s IPアドレス create」を実行
ここら辺からは「Nutanix CE ce-2017.07.20-stableにおけるPrism Centralの1-Clickデプロイがコケる場合のバッドノウハウ的なワークアラウンド」の8番以降の手順を行うこととなる。

で、「REGISTER (UNREGISTER) WITH PRISM CENTRAL」でNutanixのクラスタにPrism Centralを接続する。

・・・というのをやろうとしたが、結局、cluster setupで延々とリトライを繰り返し、成功することはなかった・・・
Prism Centralを使わなくてもやりたかったことはできるというのがわかって、セットアップは諦めました。

なお、セットアップ途中のPrism Centrl仮想マシンはWeb GUIから削除できなかったので
Nutanix CVMにsshでログインしたあと
「acli vm.list」で仮想マシン名を確認し
「acli vm.delete 仮想マシン名」で削除を実行しました。

ESXi上にNutanix CE AHVをインストールした


2019/11/12追記

ce-2019.02.11-stable.img.gzを使って環境を構築したところ、インストーラーにキーボード選択が用意されたので、初期ログインから「install」を実行するだけで良くなった。

インストール後に行う作業もNutanix CE仮想マシン上での「/var/cache/libvirt/qemu/capabilities/3c76bc41d59c0c7314b1ae8e63f4f765d2cf16abaeea081b3ca1f5d8732f7bb1.xml」 のalias=’pc’をpc-i440fx-rhel7.2.0に変更する作業のみで済んだ


ESXi 6.0基盤上で、Nutanix CEをインストールした。

インストール手順は下記の2つを参考にした
・ネットワールド Nutanix CE を Nested ESXiへインストールする9つのTips
・NTNX ESXi で Nested Nutanix CE を構成してみる。(ce-2018.01.31-stable 対応版)

今回の環境では iSCSIストレージのVMFS上に仮想ディスクをおいたところ、 /sys/block/sd?/queue/rotationalの値は1だけど、Nutanix CE環境起動後に確認してみると、全部SSD認識となっていたので、ここの値変更は実施していない。

また、NTNXのページの方に書かれている「/home/install/phx_iso/phoenix/svm_template/kvm/default.xml」のmachineタイプ変更はやらなくても動いたので実施していない。
pmuの追加も「仮想 CPU のパフォーマンス カウンタの有効化」のチェックをオンにできる環境なので実施していない。

クラスタ作成は、インストーラ上の「Create single-node cluster?」にチェックを入れる手法は使わず、インストール後に手動でclusterコマンドを実行する手法をとった。
ただし、「cluster -s 192.168.1.191 create」というやり方では無く「cluster –dns_servers=192.168.1.100 –ntp_servers=192.168.1.101 -s 192.168.1.191 create」という形でDNSサーバとNTPサーバを指定する手法をとっている。

ただし、この手法の場合、DNSサーバとして追加で「8.8.8.8, 8.8.4.4」、NTPサーバとして「0.pool.ntp.org, 1.pool.ntp.org」も登録されているので、セットアップ完了後必要に応じ削除する必要がある。

詳細については→ Create & Configure Nutanix Cluster via command line を参照

インストール完了後、Nutanix CE仮想マシンにログインし、「/var/cache/libvirt/qemu/capabilities/3c76bc41d59c0c7314b1ae8e63f4f765d2cf16abaeea081b3ca1f5d8732f7bb1.xml」の値を変更しないと、仮想マシンが正常に起動しません。

通常、仮想マシンを作成すると「machine=’pc’」と設定されています。
NUTANIX AHV 20180425.199環境では、この「pc」というのは「pc-i440fx-rhel7.3.0」のエイリアスになっています。
ESXi上の仮想マシンの場合「pc-i440fx-rhel7.2.0」でないと起動しないので、エイリアスの設定先を変更します。

変更前

<machine name='pc-i440fx-rhel7.3.0' alias='pc' hotplugCpus='yes' maxCpus='240'/>
<machine name='pc-i440fx-rhel7.2.0' hotplugCpus='yes' maxCpus='240'/>

変更後

<machine name='pc-i440fx-rhel7.3.0' hotplugCpus='yes' maxCpus='240'/>
<machine name='pc-i440fx-rhel7.2.0' alias='pc' hotplugCpus='yes' maxCpus='240'/

設定変更後は、全体の再起動を行います。

Hypervisorのホスト名を変える場合は、/etc/hostname と /etc/sysconfig/network のホスト名記載を書き換えます。
参考:CHANGING THE ACROPOLIS HOST NAME

CVMのホスト名を変える場合は、clusterを作った後にCVM上でrootになって「change_cvm_hostname 新ホスト名」を実行します
参考:Change CVM name
change_cvm_hostnameで変えたらPrismで「Rename CVM back to what it was originally. The CVM name is nonconfigurable by the end user.」という警告が・・・
どうやら、いまのバージョンではお薦めではないらしい