CentOS7からOracle Linux9へWebサーバを置き換えたメモ 2024年4月


Solaris 2.5.1時代に原型を作ったperl CGIも存在してるWebサーバは時代を経てCentOS4→CentOS7→Oracle Autonomous Linux 7(OCI上)と移転しつつ運用していた。ただ、それもいい加減置き換えるかとOracle Linux9(OCI上)へ移行した時のメモ書き

個人ユーザディレクトリに置いたファイルのWeb公開

各ユーザのホームディレクトリにwebとかpublic_htmlとかのディレクトリを作ってファイルを置いたけど見れない場合

/var/log/httpd/access_log での出力例

xxx.xxx.xxx.xxx - - [25/Apr/2024:13:24:45 +0900] "GET / HTTP/1.1" 403 3539 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/124.0.0.0 Safari/537.36"

/var/log/httpd/error_log での出力例

[Thu Apr 25 13:24:45.157549 2024] [core:error] [pid 6267:tid 6455] (13)Permission denied: [client 118.238.215.174:55006] AH00035: access to /index.html denied (filesystem path '/home/todoroki/web/index.html') because search permissions are missing on a component of the path

/var/log/audit/audit.logでの出力内容

time->Thu Apr 25 13:24:45 2024
type=PROCTITLE msg=audit(1714019085.156:779): proctitle=2F7573722F7362696E2F6874747064002D44464F524547524F554E44
type=SYSCALL msg=audit(1714019085.156:779): arch=c000003e syscall=262 success=no exit=-13 a0=ffffff9c a1=7fe6a4017568 a2=7fe6b6ffc7c0 a3=100 items=0 ppid=6263 pid=6267 auid=4294967295 uid=48 gid=48 euid=48 suid=48 fsuid=48 egid=48 sgid=48 fsgid=48 tty=(none) ses=4294967295 comm="httpd" exe="/usr/sbin/httpd" subj=system_u:system_r:httpd_t:s0 key=(null)
type=AVC msg=audit(1714019085.156:779): avc:  denied  { getattr } for  pid=6267 comm="httpd" path="/home/osakanataro/web/index.html" dev="dm-0" ino=17989882 scontext=system_u:system_r:httpd_t:s0 tcontext=unconfined_u:object_r:httpd_user_content_t:s0 tclass=file permissive=0

この時の対処としては該当ディレクトリに対してSELinuxのhttpd_sys_rw_content_tラベルを書いてあげる、というものとした

# chcon -t httpd_sys_rw_content_t -R /home/osakanataro/web/
#

SSLUseStapling onだとうまく動かない?

Oracle Cloud上にサーバを立てて、Mozilla SSL Configuration Generator で作った設定ファイルを/etc/httpd/conf.d/ssl-mozilla.conf で設定したところ、/var/log/httpd/error_log に下記のような出力があり、うまく動かなかった。

[Thu Apr 25 11:53:34.401905 2024] [core:notice] [pid 4789:tid 4789] SELinux policy enabled; httpd running as context system_u:system_r:httpd_t:s0
[Thu Apr 25 11:53:34.406356 2024] [suexec:notice] [pid 4789:tid 4789] AH01232: suEXEC mechanism enabled (wrapper: /usr/sbin/suexec)
[Thu Apr 25 11:53:34.415259 2024] [ssl:warn] [pid 4789:tid 4789] AH01909: xxxxxxx.subnet.vcn.oraclevcn.com:443:0 server certificate does NOT include an ID which matches the server name
[Thu Apr 25 11:53:34.415362 2024] [ssl:error] [pid 4789:tid 4789] AH02217: ssl_stapling_init_cert: can't retrieve issuer certificate! [subje
ct: CN=ドメイン名 / issuer: CN=R3,O=Let's Encrypt,C=US / serial:040D1B85397F73xxxxxxxxxxxx / notbefore: Apr 25 01:32:39 2024
 GMT / notafter: Jul 24 01:32:38 2024 GMT]
[Thu Apr 25 11:53:34.415367 2024] [ssl:error] [pid 4789:tid 4789] AH02604: Unable to configure certificate xxxxxxx.subnet.vcn.oracl
evcn.com:443:0 for stapling
[Thu Apr 25 11:53:34.415875 2024] [ssl:emerg] [pid 4789:tid 4789] AH02311: Fatal error initialising mod_ssl, exiting. See /var/log/httpd/pbm
.osakana.net-error_log for more information
AH00016: Configuration Failed

すぐに解決できそうにないなぁ、とエラー内に「ssl_stapling_init_cert」とあるので”SSLUseStapling on”設定が問題に違いない、と、該当設定をコメントアウトしたところ、とりあえず動くようになった。

ただ、ひとしきり設定調整したあと、改めてSSLUseStapling on設定を入れてみたところ、今度は動作した・・・なぜ?

SSLCertificateFileに指定するファイルは何が適切か?

前述の Mozilla SSL Configuration Generator で出力した設定では “curl https://ssl-config.mozilla.org/ffdhe2048.txt” でダウンロードしたファイルを保存して SSLCertificateFile で指定しろ、とある。

でも、SSLCertificateFile って、SSL証明書で発行したやつを指定するんじゃないの?と思って調べると Apache Module mod_sslマニュアルの”SSLCertificateFile Directive”に書いてあった。

特に「DH parameter interoperability with primes > 1024 bit」の時の取り扱いとして、FAQ「Why do I get handshake failures with Java-based clients when using a certificate with more than 1024 bits?」にもあるような形で「DH PARAMETERS」としての指定が認められているようだった。

なるほど

s3fsでエラーが出てた

s3fs-fuse をインストールして /etc/passwd-s3fs に設定書いて/etc/fstabで自動マウントを設定してみたところエラーが・・・

# mount -a
s3fs: There is no enough disk space for used as cache(or temporary) directory by s3fs. Requires 3061.600 MB, already has 2580.949 MB.
# df -h
Filesystem                  Size  Used Avail Use% Mounted on
devtmpfs                    4.0M     0  4.0M   0% /dev
tmpfs                       475M     0  475M   0% /dev/shm
tmpfs                       190M  5.4M  185M   3% /run
/dev/mapper/ocivolume-root   30G   27G  2.6G  92% /
/dev/mapper/ocivolume-oled   15G  329M   15G   3% /var/oled
/dev/sda2                   2.0G  342M  1.7G  18% /boot
/dev/sda1                   100M  6.2M   94M   7% /boot/efi
tmpfs                        95M  4.0K   95M   1% /run/user/982
tmpfs                        95M  4.0K   95M   1% /run/user/1000
#

/var/oled を使うように設定できないかな。もしくはキャッシュ無効にするか?

FAQを見ると「-o use_cache=/tmp」でキャッシュディレクトリを指定できる。「-o use_cache=””」でキャッシュ無効化となるようだ.。

が、「use_cache=””」「use_cache=disable」「use_cache」を試してみたが、相変わらず容量警告となる。

「use_cache=/var/oled/s3fs/」とするとキャッシュディレクトリ指定はきちんと反映されていたので、とりあえずこちらをキャッシュとして設定することで回避とした。

perl CGIを動かす

[Thu Apr 25 19:06:57.798078 2024] [cgid:error] [pid 2555:tid 2693] [client 118.238.215.174:52675] AH01241: error spawning CGI child: exec of '/home/user/web/chat/comchatq.cgi' failed (Permission denied): /home/user/web/chat/comchatq.cgi
[Thu Apr 25 19:06:57.798743 2024] [cgid:error] [pid 2555:tid 2693] [client 118.238.215.174:52675] End of script output before headers: comchatq.cgi

以下を実行

chcon -t httpd_sys_script_exec_t *.cgi

エラーは下記に変わる

[Thu Apr 25 19:10:21.631944 2024] [cgid:error] [pid 4785:tid 4836] [client 118.238.215.174:53013] Can't open perl script "/home/user/web/chat/comchatq.cgi": Permission denied: /home/user/web/chat/comchatq.cgi
[Thu Apr 25 19:10:21.631989 2024] [cgid:error] [pid 4785:tid 4836] [client 118.238.215.174:53013] End of script output before headers: comchatq.cgi

/var/log/audit/audit.logの出力

type=SYSCALL msg=audit(1714040034.887:220): arch=c000003e syscall=257 success=no exit=-13 a0=ffffff9c a1=55b4c3978cc0 a2=80000 a3=0 items=0 ppid=2551 pid=7775 auid=4294967295 uid=48 gid=48 euid=48 suid=48 fsuid=48 egid=48 sgid=48 fsgid=48 tty=(none) ses=4294967295 comm="comchatq.cgi" exe="/usr/bin/perl" subj=system_u:system_r:httpd_sys_script_t:s0 key=(null)ARCH=x86_64 SYSCALL=openat AUID="unset" UID="apache" GID="apache" EUID="apache" SUID="apache" FSUID="apache" EGID="apache" SGID="apache" FSGID="apache"

type=AVC msg=audit(1714044210.729:383): avc:  denied  { search } for  pid=9361 comm="comchatq.cgi" name="ユーザ名" dev="dm-0" ino=16778313 scontext=system_u:system_r:httpd_sys_script_t:s0 tcontext=unconfined_u:object_r:user_home_dir_t:s0 tclass=dir permissive=0
type=SYSCALL msg=audit(1714044210.729:383): arch=c000003e syscall=257 success=no exit=-13 a0=ffffff9c a1=5601baca2c00 a2=80000 a3=0 items=0 ppid=2551 pid=9361 auid=4294967295 uid=48 gid=48 euid=48 suid=48 fsuid=48 egid=48 sgid=48 fsgid=48 tty=(none) ses=4294967295 comm="comchatq.cgi" exe="/usr/bin/perl" subj=system_u:system_r:httpd_sys_script_t:s0 key=(null)ARCH=x86_64 SYSCALL=openat AUID="unset" UID="apache" GID="apache" EUID="apache" SUID="apache" FSUID="apache" EGID="apache" SGID="apache" FSGID="apache"

このときの「ausearch -m AVC|grep denied|grep comchat」の結果

type=AVC msg=audit(1714044410.481:392): avc:  denied  { search } for  pid=9803 comm="comchatq.cgi" name="ユーザ名" dev="dm-0" ino=16778313 scontext=system_u:system_r:httpd_sys_script_t:s0 tcontext=unconfined_u:object_r:user_home_dir_t:s0 tclass=dir permissive=0

めんどくさくなってきたので「setenforce Permissive」で一時的にSELinux緩和

# getenforce
Enforcing
# setenforce Permissive
# getenforce
Permissive
#

そしてモジュール化するため「ausearch -m AVC|grep denied|grep cgi | audit2allow -M comchatq」を実行

# ausearch -m AVC|grep denied|grep cgi | audit2allow -M comchatq
******************** IMPORTANT ***********************
To make this policy package active, execute:

semodule -i comchatq.pp

# ls -l comchatq*
-rw-r--r--. 1 root root 1329 Apr 26 15:23 comchatq.pp
-rw-r--r--. 1 root root  586 Apr 26 15:23 comchatq.te
# cat comchatq.te

module comchatq 1.0;

require {
        type user_home_dir_t;
        type httpd_sys_rw_content_t;
        type httpd_t;
        type httpd_sys_script_t;
        class file { execute execute_no_trans };
        class dir search;
}

#============= httpd_sys_script_t ==============

#!!!! This avc can be allowed using one of the these booleans:
#     httpd_enable_homedirs, httpd_read_user_content
allow httpd_sys_script_t user_home_dir_t:dir search;

#============= httpd_t ==============

#!!!! This avc can be allowed using the boolean 'httpd_unified'
allow httpd_t httpd_sys_rw_content_t:file { execute execute_no_trans };
#

そして、SELinuxモジュールの読み込み「semodule -i comchatq.pp」を実行(前後でsemodule -l|grep chatを実行して、読み込み済みSELinuxモジュールの出力の変化を確認)

# semodule -l|grep chat
# semodule -i|grep chat
# semodule -l|grep chat
comchatq
#

で、「setenforce Enforcing」を実行して元に戻して、念のため再起動もしておく

# setenforce Enforcing
# getenforce
Enforcing
#

jcode.plを使うperl CGIを動かせない?

自分で作ったCGIはjcode.pmを使うように仕様変更してたけど、イベントをやるにあたってほかから持ってきたCGIにはjcode.plを使ってるものがあった。

そんなjcode.plを使ってるperl CGIをperl v5.32.1で動かそうとしたら、以下のエラー

$ ./joyful.cgi
Can't use 'defined(%hash)' (Maybe you should just omit the defined()?) at ./jcode.pl line 684.
Compilation failed in require at ./joyful.cgi line 44.
$

たぶん昔ながらの外部ファイル読み込みが廃止されたんだろうなぁ、と調べてみると「Perl Hackers Hub 第46回 Perl 5.26で変わること(1)」に記載があった。

が・・・ここだと「require “./jcode.pl”;」と指定すれば大丈夫、とあるが、今回エラー出てるCGIはもともとその指定となっていた。

よく読むとdefinedがhashに使えなくなった、というjcode.pl内部の作りの問題を指摘されていた。

で・・・探すとそこらへんが修正されているjacode.pl というjcode.plを置き換えられるように作られたものがあったので、それを使って対処した。

$ curl -O https://cpan.metacpan.org/authors/id/I/IN/INA/Jacode/Jacode-2.13.4.31.tar.gz
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100 5408k  100 5408k    0     0  5803k      0 --:--:-- --:--:-- --:--:-- 5797k
$ tar xfz Jacode-2.13.4.31.tar.gz
$ cd Jacode-2.13.4.31/lib
$ ls -l
total 220
-rwxr-xr-x. 1 todoroki todoroki 217584 Mar 21  2023 jacode.pl
-rw-r--r--. 1 todoroki todoroki   2432 Mar 21  2023 Jacode.pm
$

で、このjacode.plをjcode.plにファイル名変更して置き換えたところ、特に問題なく動作した。

(SELinuxに関する問題はおそらく↑のSELinuxモジュールで一緒に対処できているっぽい)

lv viewerがない

Solaris時代からless/moreだと ShiftJIS/EUC-JP/UTF-8 の自動変換をしてくれないけど、 lv というコマンドならできる、というのでずっと使ってきた。(なぜlvを知ったかというと、 MS-DOS時代にアマチュア無線のBBS(RBBS)ソフト dNet にお世話になってたから。作者の人に浦和の宇宙科学館であったりしてた)

いつのまにかFedora EPELに収録されていて使いやすくなってたんだけど、EPEL8から収録されなくなった。

Fedora側では現在も続いているので、メンテナーがいないからEPEL8での提供が終わったのかな、といった感じ・・・

# curl -O https://kojipkgs.fedoraproject.org//packages/lv/4.51/52.fc40/src/lv-4.51-52.fc40.src.rpm
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100  629k  100  629k    0     0  46005      0  0:00:14  0:00:14 --:--:-- 36245
# rpmbuild --rebuild lv-4.51-52.fc40.src.rpm
lv-4.51-52.fc40.src.rpm をインストール中です。
setting SOURCE_DATE_EPOCH=1706140800
エラー: ビルド依存性の失敗:
        ncurses-devel は lv-4.51-52.el9.x86_64 に必要とされています
#

というわけで「dnf install ncurses-devel」を実行した後に、再度「rpmbuild –rebuild lv-4.51-52.fc40.src.rpm」を実行して ~/rpmbuild/RPMS/x86_64/lv-4.51-52.el9.x86_64.rpm を出力

これをインストールして対処

PowerShellでレポジトリ powershellgallaery v2が見つかりません、が出力されるのはPowerShellGetが古いせい(TLS1.2問題ではない)


Windows11環境のPowerShellで「Update-Module」を実行してみたところ、エラーになった。

PS C:\> update-module
PackageManagement\Install-Package : リポジトリ 'https://www.powershellgallery.com/api/v2/' が見つかりません。利用できる
すべてのリポジトリを確認するには、Get-PSRepository を使用してください。
発生場所 C:\Program Files\WindowsPowerShell\Modules\PowerShellGet\1.0.0.1\PSModule.psm1:2089 文字:20
+ ...           $sid = PackageManagement\Install-Package @PSBoundParameters
+                      ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
    + CategoryInfo          : ObjectNotFound: (Microsoft.Power....InstallPackage:InstallPackage) [Install-Package], Ex
   ception
    + FullyQualifiedErrorId : SourceNotFound,Microsoft.PowerShell.PackageManagement.Cmdlets.InstallPackage

PS C:\> Get-PSRepository

Name                      InstallationPolicy   SourceLocation
----                      ------------------   --------------
PSGallery                 Untrusted            https://www.powershellgallery.com/api/v2


PS C:\> $PSVersionTable

Name                           Value
----                           -----
PSVersion                      5.1.22621.2506
PSEdition                      Desktop
PSCompatibleVersions           {1.0, 2.0, 3.0, 4.0...}
BuildVersion                   10.0.22621.2506
CLRVersion                     4.0.30319.42000
WSManStackVersion              3.0
PSRemotingProtocolVersion      2.3
SerializationVersion           1.1.0.1


PS C:\>

TLS1.2を使用する設定になってるのかどうかについては、なっていそう

PS C:\> [Net.ServicePointManager]::SecurityProtocol
Tls12
PS C:\>

事例を調べるとPowerShell Gallaryが止まっている場合もあるらしく「PowerShell Gallery Status」にお知らせが出てないか確認する、というのもあったが、現状は稼働中。

PowerShellGet,PackageManagementはアップデートされているか、については、PackageManagementについては更新されている模様

PS C:\> Get-Module PowerShellGet,PackageManagement -ListAvailable


    ディレクトリ: C:\Users\ユーザー名\Documents\WindowsPowerShell\Modules


ModuleType Version    Name                                ExportedCommands
---------- -------    ----                                ----------------
Script     1.4.7      PackageManagement                   {Find-Package, Get-Package, Get-PackageProvider, Get-Packa...


    ディレクトリ: C:\Program Files\WindowsPowerShell\Modules


ModuleType Version    Name                                ExportedCommands
---------- -------    ----                                ----------------
Binary     1.0.0.1    PackageManagement                   {Find-Package, Get-Package, Get-PackageProvider, Get-Packa...
Script     1.0.0.1    PowerShellGet                       {Install-Module, Find-Module, Save-Module, Update-Module...}


PS C:\>

次に、詳細エラーを見てみる

PS C:\> Update-Module -Verbose
詳細: モジュール 'Mailozaurr' の更新プログラムを確認しています。
詳細: リポジトリの詳細、Name = 'PSGallery'、Location = 'https://www.powershellgallery.com/api/v2'、IsTrusted =
'False'、IsRegistered = 'True'。
詳細: Using the provider 'PowerShellGet' for searching packages.
詳細: 指定されたリソース名を使用しています: 'PSGallery'。
詳細: PackageManagement プロバイダー 'NuGet' のプロバイダー オブジェクトを取得しています。
詳細: 指定された Location は 'https://www.powershellgallery.com/api/v2'、PackageManagementProvider は 'NuGet' です。
詳細: Searching repository 'https://www.powershellgallery.com/api/v2/FindPackagesById()?id='Mailozaurr'' for ''.
詳細: Total package yield:'1' for the specified package 'Mailozaurr'.
詳細: Skipping installed module Mailozaurr 1.0.2.
詳細: モジュール 'PackageManagement' の更新プログラムを確認しています。
PackageManagement\Install-Package : リポジトリ 'https://www.powershellgallery.com/api/v2/' が見つかりません。利用できる
すべてのリポジトリを確認するには、Get-PSRepository を使用してください。
発生場所 C:\Program Files\WindowsPowerShell\Modules\PowerShellGet\1.0.0.1\PSModule.psm1:2089 文字:20
+ ...           $sid = PackageManagement\Install-Package @PSBoundParameters
+                      ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
    + CategoryInfo          : ObjectNotFound: (Microsoft.Power....InstallPackage:InstallPackage) [Install-Package], Ex
   ception
    + FullyQualifiedErrorId : SourceNotFound,Microsoft.PowerShell.PackageManagement.Cmdlets.InstallPackage

PS C:\> Get-PSRepository

Name                      InstallationPolicy   SourceLocation
----                      ------------------   --------------
PSGallery                 Untrusted            https://www.powershellgallery.com/api/v2


PS C:\> Get-PSRepository|select *


Name                      : PSGallery
SourceLocation            : https://www.powershellgallery.com/api/v2
Trusted                   : False
Registered                : True
InstallationPolicy        : Untrusted
PackageManagementProvider : NuGet
PublishLocation           : https://www.powershellgallery.com/api/v2/package/
ScriptSourceLocation      : https://www.powershellgallery.com/api/v2/items/psscript
ScriptPublishLocation     : https://www.powershellgallery.com/api/v2/package/
ProviderOptions           : {}



PS C:\>

PSGallaeryレポジトリにアクセスしようとした時点でエラーになっていそうな感じである。

PowerShell Gallary上のPowerShellGetとPackageManagementの最新バージョンは何か確認してみると、PowerShellGetの方は最新ではないことが判明

PS C:\> Find-Module -Repository PSGallery -Verbose -Name PowerShellGet
詳細: リポジトリの詳細、Name = 'PSGallery'、Location = 'https://www.powershellgallery.com/api/v2'、IsTrusted =
'False'、IsRegistered = 'True'。
詳細: Using the provider 'PowerShellGet' for searching packages.
詳細: 指定されたリソース名を使用しています: 'PSGallery'。
詳細: PackageManagement プロバイダー 'NuGet' のプロバイダー オブジェクトを取得しています。
詳細: 指定された Location は 'https://www.powershellgallery.com/api/v2'、PackageManagementProvider は 'NuGet' です。
詳細: Searching repository 'https://www.powershellgallery.com/api/v2/FindPackagesById()?id='PowerShellGet'' for ''.
詳細: Total package yield:'1' for the specified package 'PowerShellGet'.

Version    Name                                Repository           Description
-------    ----                                ----------           -----------
2.2.5      PowerShellGet                       PSGallery            PowerShell module with commands for discovering,...


PS C:\> Find-Module -Repository PSGallery -Verbose -Name PackageManagement
詳細: リポジトリの詳細、Name = 'PSGallery'、Location = 'https://www.powershellgallery.com/api/v2'、IsTrusted =
'False'、IsRegistered = 'True'。
詳細: Using the provider 'PowerShellGet' for searching packages.
詳細: 指定されたリソース名を使用しています: 'PSGallery'。
詳細: PackageManagement プロバイダー 'NuGet' のプロバイダー オブジェクトを取得しています。
詳細: 指定された Location は 'https://www.powershellgallery.com/api/v2'、PackageManagementProvider は 'NuGet' です。
詳細: Searching repository 'https://www.powershellgallery.com/api/v2/FindPackagesById()?id='PackageManagement'' for ''.
詳細: Total package yield:'1' for the specified package 'PackageManagement'.

Version    Name                                Repository           Description
-------    ----                                ----------           -----------
1.4.8.1    PackageManagement                   PSGallery            PackageManagement (a.k.a. OneGet) is a new way t...


PS C:\>

最新版のPowerShellGetをインストールする手法については「PowerShellGet と PSResourceGet をインストールする方法」に記載がある「Install-Module PowerShellGet -Force -AllowClobber」を実行した。

PS C:\> Install-Module PowerShellGet -Force -AllowClobber
PS C:\>

(注:上記ログに出ていないが、別表示としてprogress表示があります)

ちなみにallowclobberオプションを付けない場合、下記のようなエラーになった。

PS C:\> Install-Module PowerShellGet -force
PackageManagement\Install-Package : 以下のコマンドは、このシステムで既に使用可能になっています: 'Find-Package,Install-P
ackage,Uninstall-Package'。このモジュール 'PackageManagement' では既存のコマンドが上書きされる可能性があります。このモ
ジュール 'PackageManagement' をインストールする場合は、-AllowClobber パラメーターを使用してください。
発生場所 C:\Program Files\WindowsPowerShell\Modules\PowerShellGet\1.0.0.1\PSModule.psm1:1809 文字:21
+ ...          $null = PackageManagement\Install-Package @PSBoundParameters
+                      ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
    + CategoryInfo          : InvalidOperation: (Microsoft.Power....InstallPackage:InstallPackage) [Install-Package]、E
    xception
    + FullyQualifiedErrorId : CommandAlreadyAvailable,Validate-ModuleCommandAlreadyAvailable,Microsoft.PowerShell.Pack
   ageManagement.Cmdlets.InstallPackage

PS C:\>

PowerShellGet更新後は「Update-Module」を実行してもエラーとはならなくなった。

PS C:\> Update-Module
PS C:\>

Windowsで使用しているドライバを確認&まとめる方法


Windows / Windows Serverでそのマシンが使っているデバイスドライバーがなんであるのか確認する方法がある。

driverquery」コマンドを実行すると、そのWindowsのOS上に組み込まれているデバイスドライバの一覧を出力する。これは組み込まれているけど使われていないものも含む結果となっている。

C:\Windows\System32>driverquery

モジュール名 表示名                 ドライバーの  リンク日時
============ ====================== ============= ======================
1394ohci     1394 OHCI Compliant Ho Kernel
3ware        3ware                  Kernel        2015/05/19 7:28:03
ACPI         Microsoft ACPI Driver  Kernel
AcpiDev      ACPI デバイス ドライバ Kernel
acpiex       Microsoft ACPIEx Drive Kernel
acpipagr     ACPI プロセッサ アグリ Kernel
AcpiPmi      ACPI 電源メーター ドラ Kernel
acpitime     ACPI ウェイク アラーム Kernel
Acx01000     Acx01000               Kernel
AcxHdAudio   ACX HD Audio Driver    Kernel
ADP80XX      ADP80XX                Kernel        2015/04/10 5:49:48
<略>
Wof          Windows Overlay File S File System
WpdUpFltr    WPD Upper Class Filter Kernel
ws2ifsl      Winsock IFS Driver     Kernel
wtd          wtd                    Kernel
WudfPf       User Mode Driver Frame Kernel
WUDFRd       Windows Driver Foundat Kernel
xboxgip      Xbox ゲーム入力プロト  Kernel
xinputhid    XINPUT HID フィルター  Kernel

C:\Windows\System32>

上記出力ではドライバ表示名が長いものは省略されてしまうし、検索しにくい。「driverquery /fo csv」だとCSV形式で出力されるので、扱いやすくなる。

C:\Windows\System32>driverquery /fo csv
"モジュール名","表示名","ドライバーの種類","リンク日時"
"1394ohci","1394 OHCI Compliant Host Controller","Kernel ",""
"3ware","3ware","Kernel ","2015/05/19 7:28:03"
"ACPI","Microsoft ACPI Driver","Kernel ",""
"AcpiDev","ACPI デバイス ドライバー","Kernel ",""
"acpiex","Microsoft ACPIEx Driver","Kernel ",""
"acpipagr","ACPI プロセッサ アグリゲーター ドライバー","Kernel ",""
"AcpiPmi","ACPI 電源メーター ドライバー","Kernel ",""
"acpitime","ACPI ウェイク アラーム ドライバー","Kernel ",""
"Acx01000","Acx01000","Kernel ",""
"AcxHdAudio","ACX HD Audio Driver","Kernel ",""
"ADP80XX","ADP80XX","Kernel ","2015/04/10 5:49:48"
<略>
"Wof","Windows Overlay File System Filter Driver","File System ",""
"WpdUpFltr","WPD Upper Class Filter Driver","Kernel ",""
"ws2ifsl","Winsock IFS Driver","Kernel ",""
"wtd","wtd","Kernel ",""
"WudfPf","User Mode Driver Frameworks Platform Driver","Kernel ",""
"WUDFRd","Windows Driver Foundation - User-mode Driver Framework Reflector","Kernel ",""
"xboxgip","Xbox ゲーム入力プロトコル ドライバー","Kernel ",""
"xinputhid","XINPUT HID フィルター ドライバー","Kernel ",""

C:\Windows\System32>

ドライバが動作しているかどうかを確認するには /v オプションを追加して実行します。

「driverquery /fo csv /v」で実行した場合”状態”の項目が「Running」となっているものが動作中です。(使われていないものは Stopped です)

C:\Windows\System32>driverquery /fo csv /v
"モジュール名","表示名","説明","ドライバーの種類","開始モード","状態","ステータス","停止の受理","一時停止の受理","ページ プール(バイト)","コード(バイト)","BSS(バイト)","リンク日時","パス","Init(バイト)"
"1394ohci","1394 OHCI Compliant Host Controller","1394 OHCI Compliant Host Controller","Kernel ","Manual","Stopped","OK","FALSE","FALSE","4,096","233,472","0","","C:\Windows\system32\drivers\1394ohci.sys","4,096"
"3ware","3ware","3ware","Kernel ","Manual","Stopped","OK","FALSE","FALSE","0","81,920","0","2015/05/19 7:28:03","C:\Windows\system32\drivers\3ware.sys","4,096"
"ACPI","Microsoft ACPI Driver","Microsoft ACPI Driver","Kernel ","Boot","Running","OK","TRUE","FALSE","176,128","393,216","0","","C:\Windows\system32\drivers\ACPI.sys","24,576"
"AcpiDev","ACPI デバイス ドライバー","ACPI デバイス ドライバー","Kernel ","Manual","Stopped","OK","FALSE","FALSE","8,192","12,288","0","","C:\Windows\system32\drivers\AcpiDev.sys","4,096"
"acpiex","Microsoft ACPIEx Driver","Microsoft ACPIEx Driver","Kernel ","Boot","Running","OK","TRUE","FALSE","40,960","69,632","0","","C:\Windows\system32\Drivers\acpiex.sys","4,096"
"acpipagr","ACPI プロセッサ アグリゲーター ドライバー","ACPI プロセッサ アグリゲーター ドライバー","Kernel ","Manual","Running","OK","TRUE","FALSE","4,096","8,192","0","","C:\Windows\system32\drivers\acpipagr.sys","4,096"
"AcpiPmi","ACPI 電源メーター ドライバー","ACPI 電源メーター ドライバー","Kernel ","Manual","Stopped","OK","FALSE","FALSE","8,192","8,192","0","","C:\Windows\system32\drivers\acpipmi.sys","4,096"
"acpitime","ACPI ウェイク アラーム ドライバー","ACPI ウェイク アラーム ドライバー","Kernel ","Manual","Running","OK","TRUE","FALSE","8,192","12,288","0","","C:\Windows\system32\drivers\acpitime.sys","4,096"
"Acx01000","Acx01000","Acx01000","Kernel ","Manual","Stopped","OK","FALSE","FALSE","499,712","135,168","0","","C:\Windows\system32\drivers\Acx01000.sys","4,096"
"AcxHdAudio","ACX HD Audio Driver","ACX HD Audio Driver","Kernel ","Manual","Stopped","OK","FALSE","FALSE","364,544","86,016","0","","C:\Windows\system32\drivers\AcxHdAudio.sys","4,096"
"ADP80XX","ADP80XX","ADP80XX","Kernel ","Manual","Stopped","OK","FALSE","FALSE","0","1,101,824","0","2015/04/10 5:49:48","C:\Windows\system32\drivers\ADP80XX.SYS","4,096"
<略>
"Wof","Windows Overlay File System Filter Driver","Windows Overlay File System Filter Driver","File System ","Boot","Running","OK","TRUE","FALSE","114,688","73,728","0","","C:\Windows\system32\drivers\Wof.sys","8,192"
"WpdUpFltr","WPD Upper Class Filter Driver","WPD Upper Class Filter Driver","Kernel ","Manual","Stopped","OK","FALSE","FALSE","8,192","16,384","0","","C:\Windows\system32\drivers\WpdUpFltr.sys","4,096"
"ws2ifsl","Winsock IFS Driver","Winsock IFS Driver","Kernel ","Disabled","Stopped","OK","FALSE","FALSE","12,288","8,192","0","","C:\Windows\system32\drivers\ws2ifsl.sys","4,096"
"wtd","wtd","wtd","Kernel ","Auto","Running","OK","TRUE","FALSE","28,672","28,672","0","","C:\Windows\system32\drivers\wtd.sys","4,096"
"WudfPf","User Mode Driver Frameworks Platform Driver","User Mode Driver Frameworks Platform Driver","Kernel ","Manual","Stopped","OK","FALSE","FALSE","12,288","94,208","0","","C:\Windows\system32\drivers\WudfPf.sys","4,096"
"WUDFRd","Windows Driver Foundation - User-mode Driver Framework Reflector","Windows Driver Foundation - User-mode Driver Framework Reflector","Kernel ","Manual","Running","OK","TRUE","FALSE","12,288","253,952","0","","C:\Windows\system32\drivers\WUDFRd.sys","4,096"
"xboxgip","Xbox ゲーム入力プロトコル ドライバー","Xbox ゲーム入力プロトコル ドライバー","Kernel ","Manual","Stopped","OK","FALSE","FALSE","16,384","299,008","0","","C:\Windows\system32\drivers\xboxgip.sys","4,096"
"xinputhid","XINPUT HID フィルター ドライバー","XINPUT HID フィルター ドライバー","Kernel ","Manual","Stopped","OK","FALSE","FALSE","4,096","45,056","0","","C:\Windows\system32\drivers\xinputhid.sys","4,096"

C:\Windows\System32>

Windows OSの再インストール用などでドライバをまとめておきたい場合、dismコマンドの関連オプション「DISM ドライバー サービス (.inf) コマンドライン オプション」で出力することができます。

まず「dism /online /get-drivers」を実行すると、ドライバの一覧が確認できます。

C:\Windows\System32>dism /online /get-drivers

展開イメージのサービスと管理ツール
バージョン: 10.0.22621.2792

イメージのバージョン: 10.0.22631.3296

ドライバー ストアからサード パーティのドライバーの一覧を取得しています...

ドライバー パッケージの一覧:

公開名 : oem0.inf
元のファイル名 : gna.inf
インボックス : いいえ
クラス名 : System
プロバイダー名 : Intel Corporation
日付 : 2021/11/26
バージョン : 3.0.0.1457

公開名 : oem1.inf
元のファイル名 : alexadellconfig.inf
インボックス : いいえ
クラス名 : Extension
プロバイダー名 : Realtek
日付 : 2023/05/23
バージョン : 1.0.9520.1
<略>
クラス名 : System
プロバイダー名 : INTEL
日付 : 1968/07/18
バージョン : 10.1.29.4

公開名 : oem99.inf
元のファイル名 : jasperlake+systemnorthpeak.inf
インボックス : いいえ
クラス名 : System
プロバイダー名 : INTEL
日付 : 1968/07/18
バージョン : 10.1.29.4

操作は正常に完了しました。

C:\Windows\System32>

これらのドライバをまとめて指定したディレクトリに出力するためには「dism /online /export-driver /destination:”出力先ディレクトリ”」を実行します。

このとき、出力先ディレクトリは存在している必要があります。

C:\Windows\System32>dism /online /export-driver /destination:"c:\tmp\drivers"

展開イメージのサービスと管理ツール
バージョン: 10.0.22621.2792

イメージのバージョン: 10.0.22631.3296


エラー: 87

エクスポート先のパス c:\tmp\drivers が存在しません。

DISM ログ ファイルは C:\Windows\Logs\DISM\dism.log にあります

C:\Windows\System32>mkdir c:\tmp\drivers

C:\Windows\System32>dism /online /export-driver /destination:"c:\tmp\drivers"

展開イメージのサービスと管理ツール
バージョン: 10.0.22621.2792

イメージのバージョン: 10.0.22631.3296

1 / 181 をエクスポートしています - oem0.inf: ドライバー パッケージが正常にエクスポートされました。
2 / 181 をエクスポートしています - oem1.inf: ドライバー パッケージが正常にエクスポートされました。
3 / 181 をエクスポートしています - oem100.inf: ドライバー パッケージが正常にエクスポートされました。
4 / 181 をエクスポートしています - oem101.inf: ドライバー パッケージが正常にエクスポートされました。
5 / 181 をエクスポートしています - oem102.inf: ドライバー パッケージが正常にエクスポートされました。
6 / 181 をエクスポートしています - oem103.inf: ドライバー パッケージが正常にエクスポートされました。
7 / 181 をエクスポートしています - oem104.inf: ドライバー パッケージが正常にエクスポートされました。
8 / 181 をエクスポートしています - oem105.inf: ドライバー パッケージが正常にエクスポートされました。
9 / 181 をエクスポートしています - oem106.inf: ドライバー パッケージが正常にエクスポートされました。
10 / 181 をエクスポートしています - oem107.inf: ドライバー パッケージが正常にエクスポートされました。
11 / 181 をエクスポートしています - oem108.inf: ドライバー パッケージが正常にエクスポートされました。
12 / 181 をエクスポートしています - oem109.inf: ドライバー パッケージが正常にエクスポートされました。
13 / 181 をエクスポートしています - oem110.inf: ドライバー パッケージが正常にエクスポートされました。
14 / 181 をエクスポートしています - oem111.inf: ドライバー パッケージが正常にエクスポートされました。
15 / 181 をエクスポートしています - oem112.inf: ドライバー パッケージが正常にエクスポートされました。
16 / 181 をエクスポートしています - oem113.inf: ドライバー パッケージが正常にエクスポートされました。
17 / 181 をエクスポートしています - oem114.inf: ドライバー パッケージが正常にエクスポートされました。
18 / 181 をエクスポートしています - oem115.inf: ドライバー パッケージが正常にエクスポートされました。
19 / 181 をエクスポートしています - oem116.inf: ドライバー パッケージが正常にエクスポートされました。
20 / 181 をエクスポートしています - oem117.inf: ドライバー パッケージが正常にエクスポートされました。
21 / 181 をエクスポートしています - oem118.inf: ドライバー パッケージが正常にエクスポートされました。
22 / 181 をエクスポートしています - oem119.inf: ドライバー パッケージが正常にエクスポートされました。
23 / 181 をエクスポートしています - oem120.inf: ドライバー パッケージが正常にエクスポートされました。
24 / 181 をエクスポートしています - oem121.inf: ドライバー パッケージが正常にエクスポートされました。
25 / 181 をエクスポートしています - oem122.inf: ドライバー パッケージが正常にエクスポートされました。
26 / 181 をエクスポートしています - oem123.inf: ドライバー パッケージが正常にエクスポートされました。
27 / 181 をエクスポートしています - oem124.inf: ドライバー パッケージが正常にエクスポートされました。
28 / 181 をエクスポートしています - oem125.inf: ドライバー パッケージが正常にエクスポートされました。
29 / 181 をエクスポートしています - oem126.inf: ドライバー パッケージが正常にエクスポートされました。
30 / 181 をエクスポートしています - oem127.inf: ドライバー パッケージが正常にエクスポートされました。
31 / 181 をエクスポートしています - oem128.inf: ドライバー パッケージが正常にエクスポートされました。
32 / 181 をエクスポートしています - oem129.inf: ドライバー パッケージが正常にエクスポートされました。
33 / 181 をエクスポートしています - oem13.inf: ドライバー パッケージが正常にエクスポートされました。
34 / 181 をエクスポートしています - oem130.inf: ドライバー パッケージが正常にエクスポートされました。
35 / 181 をエクスポートしています - oem131.inf: ドライバー パッケージが正常にエクスポートされました。
36 / 181 をエクスポートしています - oem132.inf: ドライバー パッケージが正常にエクスポートされました。
37 / 181 をエクスポートしています - oem133.inf: ドライバー パッケージが正常にエクスポートされました。
38 / 181 をエクスポートしています - oem134.inf: ドライバー パッケージが正常にエクスポートされました。
39 / 181 をエクスポートしています - oem135.inf: ドライバー パッケージが正常にエクスポートされました。
40 / 181 をエクスポートしています - oem136.inf: ドライバー パッケージが正常にエクスポートされました。
41 / 181 をエクスポートしています - oem137.inf: ドライバー パッケージが正常にエクスポートされました。
42 / 181 をエクスポートしています - oem138.inf: ドライバー パッケージが正常にエクスポートされました。
43 / 181 をエクスポートしています - oem139.inf: ドライバー パッケージが正常にエクスポートされました。
44 / 181 をエクスポートしています - oem14.inf: ドライバー パッケージが正常にエクスポートされました。
45 / 181 をエクスポートしています - oem140.inf: ドライバー パッケージが正常にエクスポートされました。
46 / 181 をエクスポートしています - oem141.inf: ドライバー パッケージが正常にエクスポートされました。
47 / 181 をエクスポートしています - oem142.inf: ドライバー パッケージが正常にエクスポートされました。
48 / 181 をエクスポートしています - oem143.inf: ドライバー パッケージが正常にエクスポートされました。
49 / 181 をエクスポートしています - oem145.inf: ドライバー パッケージが正常にエクスポートされました。
50 / 181 をエクスポートしています - oem146.inf: ドライバー パッケージが正常にエクスポートされました。
51 / 181 をエクスポートしています - oem147.inf: ドライバー パッケージが正常にエクスポートされました。
52 / 181 をエクスポートしています - oem149.inf: ドライバー パッケージが正常にエクスポートされました。
53 / 181 をエクスポートしています - oem150.inf: ドライバー パッケージが正常にエクスポートされました。
54 / 181 をエクスポートしています - oem152.inf: ドライバー パッケージが正常にエクスポートされました。
55 / 181 をエクスポートしています - oem153.inf: ドライバー パッケージが正常にエクスポートされました。
56 / 181 をエクスポートしています - oem154.inf: ドライバー パッケージが正常にエクスポートされました。
57 / 181 をエクスポートしています - oem155.inf: ドライバー パッケージが正常にエクスポートされました。
58 / 181 をエクスポートしています - oem156.inf: ドライバー パッケージが正常にエクスポートされました。
59 / 181 をエクスポートしています - oem157.inf: ドライバー パッケージが正常にエクスポートされました。
60 / 181 をエクスポートしています - oem158.inf: ドライバー パッケージが正常にエクスポートされました。
61 / 181 をエクスポートしています - oem159.inf: ドライバー パッケージが正常にエクスポートされました。
62 / 181 をエクスポートしています - oem16.inf: ドライバー パッケージが正常にエクスポートされました。
63 / 181 をエクスポートしています - oem160.inf: ドライバー パッケージが正常にエクスポートされました。
64 / 181 をエクスポートしています - oem161.inf: ドライバー パッケージが正常にエクスポートされました。
65 / 181 をエクスポートしています - oem162.inf: ドライバー パッケージが正常にエクスポートされました。
66 / 181 をエクスポートしています - oem163.inf: ドライバー パッケージが正常にエクスポートされました。
67 / 181 をエクスポートしています - oem164.inf: ドライバー パッケージが正常にエクスポートされました。
68 / 181 をエクスポートしています - oem165.inf: ドライバー パッケージが正常にエクスポートされました。
69 / 181 をエクスポートしています - oem166.inf: ドライバー パッケージが正常にエクスポートされました。
70 / 181 をエクスポートしています - oem167.inf: ドライバー パッケージが正常にエクスポートされました。
71 / 181 をエクスポートしています - oem168.inf: ドライバー パッケージが正常にエクスポートされました。
72 / 181 をエクスポートしています - oem169.inf: ドライバー パッケージが正常にエクスポートされました。
73 / 181 をエクスポートしています - oem170.inf: ドライバー パッケージが正常にエクスポートされました。
74 / 181 をエクスポートしています - oem171.inf: ドライバー パッケージが正常にエクスポートされました。
75 / 181 をエクスポートしています - oem172.inf: ドライバー パッケージが正常にエクスポートされました。
76 / 181 をエクスポートしています - oem173.inf: ドライバー パッケージが正常にエクスポートされました。
77 / 181 をエクスポートしています - oem174.inf: ドライバー パッケージが正常にエクスポートされました。
78 / 181 をエクスポートしています - oem176.inf: ドライバー パッケージが正常にエクスポートされました。
79 / 181 をエクスポートしています - oem178.inf: ドライバー パッケージが正常にエクスポートされました。
80 / 181 をエクスポートしています - oem179.inf: ドライバー パッケージが正常にエクスポートされました。
81 / 181 をエクスポートしています - oem18.inf: ドライバー パッケージが正常にエクスポートされました。
82 / 181 をエクスポートしています - oem180.inf: ドライバー パッケージが正常にエクスポートされました。
83 / 181 をエクスポートしています - oem181.inf: ドライバー パッケージが正常にエクスポートされました。
84 / 181 をエクスポートしています - oem182.inf: ドライバー パッケージが正常にエクスポートされました。
85 / 181 をエクスポートしています - oem183.inf: ドライバー パッケージが正常にエクスポートされました。
86 / 181 をエクスポートしています - oem184.inf: ドライバー パッケージが正常にエクスポートされました。
87 / 181 をエクスポートしています - oem185.inf: ドライバー パッケージが正常にエクスポートされました。
88 / 181 をエクスポートしています - oem186.inf: ドライバー パッケージが正常にエクスポートされました。
89 / 181 をエクスポートしています - oem187.inf: ドライバー パッケージが正常にエクスポートされました。
90 / 181 をエクスポートしています - oem188.inf: ドライバー パッケージが正常にエクスポートされました。
91 / 181 をエクスポートしています - oem189.inf: ドライバー パッケージが正常にエクスポートされました。
92 / 181 をエクスポートしています - oem19.inf: ドライバー パッケージが正常にエクスポートされました。
93 / 181 をエクスポートしています - oem190.inf: ドライバー パッケージが正常にエクスポートされました。
94 / 181 をエクスポートしています - oem191.inf: ドライバー パッケージが正常にエクスポートされました。
95 / 181 をエクスポートしています - oem192.inf: ドライバー パッケージが正常にエクスポートされました。
96 / 181 をエクスポートしています - oem193.inf: ドライバー パッケージが正常にエクスポートされました。
97 / 181 をエクスポートしています - oem194.inf: ドライバー パッケージが正常にエクスポートされました。
98 / 181 をエクスポートしています - oem195.inf: ドライバー パッケージが正常にエクスポートされました。
99 / 181 をエクスポートしています - oem196.inf: ドライバー パッケージが正常にエクスポートされました。
100 / 181 をエクスポートしています - oem197.inf: ドライバー パッケージが正常にエクスポートされました。
101 / 181 をエクスポートしています - oem198.inf: ドライバー パッケージが正常にエクスポートされました。
102 / 181 をエクスポートしています - oem199.inf: ドライバー パッケージが正常にエクスポートされました。
103 / 181 をエクスポートしています - oem2.inf: ドライバー パッケージが正常にエクスポートされました。
104 / 181 をエクスポートしています - oem20.inf: ドライバー パッケージが正常にエクスポートされました。
105 / 181 をエクスポートしています - oem200.inf: ドライバー パッケージが正常にエクスポートされました。
106 / 181 をエクスポートしています - oem201.inf: ドライバー パッケージが正常にエクスポートされました。
107 / 181 をエクスポートしています - oem21.inf: ドライバー パッケージが正常にエクスポートされました。
108 / 181 をエクスポートしています - oem23.inf: ドライバー パッケージが正常にエクスポートされました。
109 / 181 をエクスポートしています - oem24.inf: ドライバー パッケージが正常にエクスポートされました。
110 / 181 をエクスポートしています - oem25.inf: ドライバー パッケージが正常にエクスポートされました。
111 / 181 をエクスポートしています - oem26.inf: ドライバー パッケージが正常にエクスポートされました。
112 / 181 をエクスポートしています - oem27.inf: ドライバー パッケージが正常にエクスポートされました。
113 / 181 をエクスポートしています - oem28.inf: ドライバー パッケージが正常にエクスポートされました。
114 / 181 をエクスポートしています - oem29.inf: ドライバー パッケージが正常にエクスポートされました。
115 / 181 をエクスポートしています - oem3.inf: ドライバー パッケージが正常にエクスポートされました。
116 / 181 をエクスポートしています - oem30.inf: ドライバー パッケージが正常にエクスポートされました。
117 / 181 をエクスポートしています - oem31.inf: ドライバー パッケージが正常にエクスポートされました。
118 / 181 をエクスポートしています - oem32.inf: ドライバー パッケージが正常にエクスポートされました。
119 / 181 をエクスポートしています - oem33.inf: ドライバー パッケージが正常にエクスポートされました。
120 / 181 をエクスポートしています - oem38.inf: ドライバー パッケージが正常にエクスポートされました。
121 / 181 をエクスポートしています - oem4.inf: ドライバー パッケージが正常にエクスポートされました。
122 / 181 をエクスポートしています - oem40.inf: ドライバー パッケージが正常にエクスポートされました。
123 / 181 をエクスポートしています - oem41.inf: ドライバー パッケージが正常にエクスポートされました。
124 / 181 をエクスポートしています - oem42.inf: ドライバー パッケージが正常にエクスポートされました。
125 / 181 をエクスポートしています - oem43.inf: ドライバー パッケージが正常にエクスポートされました。
126 / 181 をエクスポートしています - oem44.inf: ドライバー パッケージが正常にエクスポートされました。
127 / 181 をエクスポートしています - oem45.inf: ドライバー パッケージが正常にエクスポートされました。
128 / 181 をエクスポートしています - oem46.inf: ドライバー パッケージが正常にエクスポートされました。
129 / 181 をエクスポートしています - oem47.inf: ドライバー パッケージが正常にエクスポートされました。
130 / 181 をエクスポートしています - oem48.inf: ドライバー パッケージが正常にエクスポートされました。
131 / 181 をエクスポートしています - oem49.inf: ドライバー パッケージが正常にエクスポートされました。
132 / 181 をエクスポートしています - oem5.inf: ドライバー パッケージが正常にエクスポートされました。
133 / 181 をエクスポートしています - oem50.inf: ドライバー パッケージが正常にエクスポートされました。
134 / 181 をエクスポートしています - oem51.inf: ドライバー パッケージが正常にエクスポートされました。
135 / 181 をエクスポートしています - oem53.inf: ドライバー パッケージが正常にエクスポートされました。
136 / 181 をエクスポートしています - oem54.inf: ドライバー パッケージが正常にエクスポートされました。
137 / 181 をエクスポートしています - oem55.inf: ドライバー パッケージが正常にエクスポートされました。
138 / 181 をエクスポートしています - oem56.inf: ドライバー パッケージが正常にエクスポートされました。
139 / 181 をエクスポートしています - oem57.inf: ドライバー パッケージが正常にエクスポートされました。
140 / 181 をエクスポートしています - oem58.inf: ドライバー パッケージが正常にエクスポートされました。
141 / 181 をエクスポートしています - oem59.inf: ドライバー パッケージが正常にエクスポートされました。
142 / 181 をエクスポートしています - oem6.inf: ドライバー パッケージが正常にエクスポートされました。
143 / 181 をエクスポートしています - oem60.inf: ドライバー パッケージが正常にエクスポートされました。
144 / 181 をエクスポートしています - oem61.inf: ドライバー パッケージが正常にエクスポートされました。
145 / 181 をエクスポートしています - oem62.inf: ドライバー パッケージが正常にエクスポートされました。
146 / 181 をエクスポートしています - oem63.inf: ドライバー パッケージが正常にエクスポートされました。
147 / 181 をエクスポートしています - oem64.inf: ドライバー パッケージが正常にエクスポートされました。
148 / 181 をエクスポートしています - oem65.inf: ドライバー パッケージが正常にエクスポートされました。
149 / 181 をエクスポートしています - oem66.inf: ドライバー パッケージが正常にエクスポートされました。
150 / 181 をエクスポートしています - oem67.inf: ドライバー パッケージが正常にエクスポートされました。
151 / 181 をエクスポートしています - oem68.inf: ドライバー パッケージが正常にエクスポートされました。
152 / 181 をエクスポートしています - oem69.inf: ドライバー パッケージが正常にエクスポートされました。
153 / 181 をエクスポートしています - oem7.inf: ドライバー パッケージが正常にエクスポートされました。
154 / 181 をエクスポートしています - oem70.inf: ドライバー パッケージが正常にエクスポートされました。
155 / 181 をエクスポートしています - oem71.inf: ドライバー パッケージが正常にエクスポートされました。
156 / 181 をエクスポートしています - oem72.inf: ドライバー パッケージが正常にエクスポートされました。
157 / 181 をエクスポートしています - oem73.inf: ドライバー パッケージが正常にエクスポートされました。
158 / 181 をエクスポートしています - oem74.inf: ドライバー パッケージが正常にエクスポートされました。
159 / 181 をエクスポートしています - oem75.inf: ドライバー パッケージが正常にエクスポートされました。
160 / 181 をエクスポートしています - oem76.inf: ドライバー パッケージが正常にエクスポートされました。
161 / 181 をエクスポートしています - oem77.inf: ドライバー パッケージが正常にエクスポートされました。
162 / 181 をエクスポートしています - oem78.inf: ドライバー パッケージが正常にエクスポートされました。
163 / 181 をエクスポートしています - oem79.inf: ドライバー パッケージが正常にエクスポートされました。
164 / 181 をエクスポートしています - oem80.inf: ドライバー パッケージが正常にエクスポートされました。
165 / 181 をエクスポートしています - oem81.inf: ドライバー パッケージが正常にエクスポートされました。
166 / 181 をエクスポートしています - oem82.inf: ドライバー パッケージが正常にエクスポートされました。
167 / 181 をエクスポートしています - oem84.inf: ドライバー パッケージが正常にエクスポートされました。
168 / 181 をエクスポートしています - oem85.inf: ドライバー パッケージが正常にエクスポートされました。
169 / 181 をエクスポートしています - oem86.inf: ドライバー パッケージが正常にエクスポートされました。
170 / 181 をエクスポートしています - oem87.inf: ドライバー パッケージが正常にエクスポートされました。
171 / 181 をエクスポートしています - oem89.inf: ドライバー パッケージが正常にエクスポートされました。
172 / 181 をエクスポートしています - oem90.inf: ドライバー パッケージが正常にエクスポートされました。
173 / 181 をエクスポートしています - oem91.inf: ドライバー パッケージが正常にエクスポートされました。
174 / 181 をエクスポートしています - oem92.inf: ドライバー パッケージが正常にエクスポートされました。
175 / 181 をエクスポートしています - oem93.inf: ドライバー パッケージが正常にエクスポートされました。
176 / 181 をエクスポートしています - oem94.inf: ドライバー パッケージが正常にエクスポートされました。
177 / 181 をエクスポートしています - oem95.inf: ドライバー パッケージが正常にエクスポートされました。
178 / 181 をエクスポートしています - oem96.inf: ドライバー パッケージが正常にエクスポートされました。
179 / 181 をエクスポートしています - oem97.inf: ドライバー パッケージが正常にエクスポートされました。
180 / 181 をエクスポートしています - oem98.inf: ドライバー パッケージが正常にエクスポートされました。
181 / 181 をエクスポートしています - oem99.inf: ドライバー パッケージが正常にエクスポートされました。
操作は正常に完了しました。

C:\Windows\System32>

出力されたディレクトリ群をどこかに待避しておきましょう。

C:\Windows\System32>dir c:\tmp\drivers
 ドライブ C のボリューム ラベルは OS です
 ボリューム シリアル番号は C465-5800 です

 c:\tmp\drivers のディレクトリ

2024/04/16  09:04    <DIR>          .
2024/04/16  09:03    <DIR>          ..
2024/04/16  09:04    <DIR>          alderlakedmasecextension.inf_amd64_f0d7eea44ed4e421
2024/04/16  09:04    <DIR>          alderlakepch-ndmasecextension.inf_amd64_c1a7e34728e428a8
2024/04/16  09:04    <DIR>          alderlakepch-nsystem.inf_amd64_23100d9890c77cd8
2024/04/16  09:04    <DIR>          alderlakepch-nsystemnorthpeak.inf_amd64_5300f2fe1668d958
2024/04/16  09:04    <DIR>          alderlakepch-pdmasecextension.inf_amd64_c26ba4a8cd64b537
2024/04/16  09:04    <DIR>          alderlakepch-psystem.inf_amd64_c27bc8858e991c72
2024/04/16  09:04    <DIR>          alderlakepch-psystemnorthpeak.inf_amd64_b199b2eb5b8a3f6d
2024/04/16  09:04    <DIR>          alderlakepch-ssystem.inf_amd64_2d3c87d4553e8e1f
2024/04/16  09:04    <DIR>          alderlakepch-ssystemlpss.inf_amd64_83277bd8dd9068fb
2024/04/16  09:04    <DIR>          alderlakepch-ssystemnorthpeak.inf_amd64_28ea92119865f1be
2024/04/16  09:04    <DIR>          alderlakesystem.inf_amd64_0565e3956cec3231
2024/04/16  09:04    <DIR>          alderlakesystemnorthpeak.inf_amd64_97aaa5270d91ce72
2024/04/16  09:03    <DIR>          alexadellconfig.inf_amd64_0362a26b37844d90
2024/04/16  09:04    <DIR>          cannonlake-hsdhost.inf_amd64_7585e757930877d7
2024/04/16  09:04    <DIR>          cannonlake-hsystem.inf_amd64_22f53879fd35d50f
2024/04/16  09:04    <DIR>          cannonlake-hsystemlpss.inf_amd64_07c09eb709f05559
2024/04/16  09:04    <DIR>          cannonlake-hsystemnorthpeak.inf_amd64_e601295a7f1f64fe
2024/04/16  09:04    <DIR>          cannonlake-hsystemthermal.inf_amd64_0df2612d09b904c3
2024/04/16  09:04    <DIR>          cannonlake-lpsdhost.inf_amd64_c7474213ded08985
2024/04/16  09:04    <DIR>          cannonlake-lpsystem.inf_amd64_f33d0569bd2fa287
2024/04/16  09:04    <DIR>          cannonlake-lpsystemlpss.inf_amd64_148f50a05e5bc234
2024/04/16  09:04    <DIR>          cannonlake-lpsystemnorthpeak.inf_amd64_ee66a8d322716f1a
2024/04/16  09:04    <DIR>          cannonlake-lpsystemthermal.inf_amd64_b937931c2f8af6b7
2024/04/16  09:04    <DIR>          coffeelakesystem.inf_amd64_e332dbefa69fd95b
2024/04/16  09:04    <DIR>          cometlakepch-hsystem.inf_amd64_cec2641df6169032
2024/04/16  09:04    <DIR>          cometlakepch-hsystemlpss.inf_amd64_22d06c9c84227dd3
2024/04/16  09:04    <DIR>          cometlakepch-hsystemthermal.inf_amd64_4edfab76b66317e0
2024/04/16  09:04    <DIR>          cometlakepch-lpdmasecextension.inf_amd64_37a8fb3645946f29
2024/04/16  09:04    <DIR>          cometlakepch-lpsystem.inf_amd64_fc3171efa1c345e6
2024/04/16  09:04    <DIR>          cometlakepch-lpsystemnorthpeak.inf_amd64_d6b316e40892791d
2024/04/16  09:04    <DIR>          cometlakepch-lpsystemthermal.inf_amd64_90626726aa4e768b
2024/04/16  09:04    <DIR>          cometlakepch-vsystem.inf_amd64_5ed9e5716d6db7f6
2024/04/16  09:04    <DIR>          cometlakepch-vsystemlpss.inf_amd64_15c157a24ffabf7c
2024/04/16  09:04    <DIR>          cometlakepch-vsystemnorthpeak.inf_amd64_b8b09c2ab4a312e5
2024/04/16  09:04    <DIR>          cometlakepch-vsystemthermal.inf_amd64_9d323373d250b836
2024/04/16  09:04    <DIR>          cometlakesystem.inf_amd64_2336b5cf6c2e78cc
2024/04/16  09:03    <DIR>          ctachilddriver.inf_amd64_5c4d5fb9a985c740
2024/04/16  09:03    <DIR>          cui_dch.inf_amd64_6673c5322430fc8a
2024/04/16  09:04    <DIR>          dal.inf_amd64_64d7fcfcde9b9c10
2024/04/16  09:03    <DIR>          dal.inf_amd64_af50fdb80983f7bc
2024/04/16  09:04    <DIR>          dcdbas64.inf_amd64_a841ee86c9054002
2024/04/16  09:03    <DIR>          dellaudioextwaves.inf_amd64_0d16d525c3ae27f4
2024/04/16  09:04    <DIR>          dellinstrumentation.inf_amd64_4e7f6b2eda5f3215
2024/04/16  09:03    <DIR>          dellinstrumentation.inf_amd64_8a3b984d3b4bb833
2024/04/16  09:03    <DIR>          dpmdriver.inf_amd64_0e117d979e219553
2024/04/16  09:04    <DIR>          e1d.inf_amd64_7e337195b92a35b6
2024/04/16  09:04    <DIR>          e1d.inf_amd64_f3c6513565231a23
2024/04/16  09:04    <DIR>          elkhartlakesystem.inf_amd64_53f94e0d263859df
2024/04/16  09:04    <DIR>          elkhartlakesystemlpss.inf_amd64_9d6547e3255e2d2e
2024/04/16  09:04    <DIR>          emmitsburgsystem.inf_amd64_1866b540328ccff1
2024/04/16  09:04    <DIR>          emmitsburgsystemlpss.inf_amd64_38745ad18dc67044
2024/04/16  09:03    <DIR>          firmware.inf_amd64_2c72fc97936f0d0a
2024/04/16  09:03    <DIR>          firmware.inf_amd64_3063dab4eb756318
2024/04/16  09:03    <DIR>          firmware.inf_amd64_dd3ca4b4c96281b8
2024/04/16  09:03    <DIR>          fortifilter.inf_amd64_283aeda6f10114be
2024/04/16  09:03    <DIR>          ftsvnic.inf_amd64_482ad0fdbf359d9e
2024/04/16  09:03    <DIR>          ft_vnic.inf_amd64_e26f6c9d821ce5a4
2024/04/16  09:04    <DIR>          geminilakesystem.inf_amd64_f6688c404f17eb9a
2024/04/16  09:04    <DIR>          geminilakesystemlpss.inf_amd64_9e12f4606841614d
2024/04/16  09:04    <DIR>          geminilakesystemnorthpeak.inf_amd64_be194fc67212a56b
2024/04/16  09:03    <DIR>          gna.inf_amd64_04d4eecc5838a558
2024/04/16  09:03    <DIR>          gscauxdriver.inf_amd64_7b4832bbb86eb120
2024/04/16  09:03    <DIR>          gscheci.inf_amd64_1b5eb9e70857c0c6
2024/04/16  09:03    <DIR>          hdbusext.inf_amd64_6c3771940bf0201d
2024/04/16  09:04    <DIR>          hdxacpdellcsmb.inf_amd64_51e6c4ad13f49fab
2024/04/16  09:04    <DIR>          hdxdellbc2018.inf_amd64_0bb955f39a78c212
2024/04/16  09:03    <DIR>          hdxdellbcsst2018.inf_amd64_1f9141b82053197a
2024/04/16  09:03    <DIR>          hdxdellbcsst2018.inf_amd64_5775e991fe00da7c
2024/04/16  09:04    <DIR>          hdxdellcsmb2018.inf_amd64_c5818c61a6b2560a
2024/04/16  09:04    <DIR>          hdxdellsstcsmb2018.inf_amd64_88432c7d84d0da46
2024/04/16  09:04    <DIR>          hdxhapdellcsmb.inf_amd64_4f81e0579f245803
2024/04/16  09:04    <DIR>          hdx_dellbcext_dsp.inf_amd64_087801054084b259
2024/04/16  09:03    <DIR>          hdx_dellbcext_waves_ma11.inf_amd64_a12a5c600f082a98
2024/04/16  09:03    <DIR>          heci.inf_amd64_b6bf4e82efc8dcc1
2024/04/16  09:04    <DIR>          hideventfilter.inf_amd64_11ad2b4276308b53
2024/04/16  09:04    <DIR>          ialpss2_gpio2_adl.inf_amd64_302e75596cffa74a
2024/04/16  09:04    <DIR>          ialpss2_i2c_adl.inf_amd64_e736c048ca307ed2
2024/04/16  09:04    <DIR>          ialpss2_spi_adl.inf_amd64_334c460fea9b11a4
2024/04/16  09:04    <DIR>          ialpss2_uart2_adl.inf_amd64_43d5df63d19fde70
2024/04/16  09:04    <DIR>          iastorhsacomponent.inf_amd64_ad67ce57a54e2b5f
2024/04/16  09:04    <DIR>          iastorhsa_ext.inf_amd64_975ff131e9302607
2024/04/16  09:04    <DIR>          iastorvd.inf_amd64_346bd04e375689ec
2024/04/16  09:04    <DIR>          icelakepch-lpsystem.inf_amd64_b6f393c97caba67a
2024/04/16  09:04    <DIR>          icelakepch-lpsystemlpss.inf_amd64_897bf32b9e72ceb4
2024/04/16  09:04    <DIR>          icelakepch-lpsystemnorthpeak.inf_amd64_0135728da74899dc
2024/04/16  09:04    <DIR>          icelakepch-nsystem.inf_amd64_a59d6e4b42b8fd70
2024/04/16  09:04    <DIR>          icelakepch-nsystemlpss.inf_amd64_cc1f67cc5eda1f96
2024/04/16  09:04    <DIR>          icelakesystemthermal.inf_amd64_a26965b441d75fc9
2024/04/16  09:04    <DIR>          icelakeusbfunctioncontroller.inf_amd64_7818299326fe34ff
2024/04/16  09:04    <DIR>          iclsclient.inf_amd64_367008a610747d24
2024/04/16  09:03    <DIR>          iclsclient.inf_amd64_fc84dfa25a6a7727
2024/04/16  09:03    <DIR>          icst_extension.inf_amd64_95d2280e89dd127f
2024/04/16  09:03    <DIR>          icst_service.inf_amd64_11f09e2b209c665a
2024/04/16  09:03    <DIR>          igcc_dch.inf_amd64_a687edda40db3316
2024/04/16  09:03    <DIR>          igcc_dch.inf_amd64_a99b22aa15fa509a
2024/04/16  09:03    <DIR>          iigd_dch.inf_amd64_ad227274fc449b38
2024/04/16  09:03    <DIR>          iigd_ext.inf_amd64_1ac7dcfe65f84cee
2024/04/16  09:03    <DIR>          iigd_ext.inf_amd64_7bf37481a3b75755
2024/04/16  09:03    <DIR>          iigd_ext.inf_amd64_871c25ddc8e3f75b
2024/04/16  09:03    <DIR>          intcdaud.inf_amd64_2bc3bdfb89548e1f
2024/04/16  09:03    <DIR>          intcdaud.inf_amd64_bec3f32c56c5cb4e
2024/04/16  09:03    <DIR>          intel_nf_i2c_child.inf_amd64_6be89e3e2d61757f
2024/04/16  09:04    <DIR>          ipf_acpi.inf_amd64_cf69bf74fab8a0f5
2024/04/16  09:04    <DIR>          ipf_cpu.inf_amd64_cf5beef3831571d4
2024/04/16  09:04    <DIR>          jasperlake+system.inf_amd64_f6bb21ea42d19e1d
2024/04/16  09:04    <DIR>          jasperlake+systemnorthpeak.inf_amd64_1d24a34355f848b3
2024/04/16  09:03    <DIR>          jasperlakepch-nsystem.inf_amd64_6ee776b78730ccd8
2024/04/16  09:03    <DIR>          jasperlakepch-nsystemlpss.inf_amd64_1d924260f4b5b20f
2024/04/16  09:03    <DIR>          jasperlakepch-nsystemnorthpeak.inf_amd64_adf7c9508124570b
2024/04/16  09:03    <DIR>          jnprva.inf_amd64_9bc58efc17ed8744
2024/04/16  09:03    <DIR>          jnprvamgr.inf_amd64_2eebf157b1c4a5b2
2024/04/16  09:03    <DIR>          kabylakepch-hsystem.inf_amd64_a5046aab4ba27930
2024/04/16  09:03    <DIR>          kabylakepch-hsystemlpss.inf_amd64_497e553fa45d3580
2024/04/16  09:03    <DIR>          kabylakepch-hsystemnorthpeak.inf_amd64_9dcb1959b5ba7423
2024/04/16  09:03    <DIR>          kabylakepch-hsystemthermal.inf_amd64_a803ec86c2bc12bb
2024/04/16  09:03    <DIR>          kabylakesystem.inf_amd64_42856509e73752bb
2024/04/16  09:03    <DIR>          kabylakesystemgmm.inf_amd64_d0cfa8fb52eef542
2024/04/16  09:03    <DIR>          lakefieldsystem.inf_amd64_038da6a27794f8f7
2024/04/16  09:03    <DIR>          lakefieldsystemlpss.inf_amd64_db9abb34abd81c23
2024/04/16  09:03    <DIR>          lakefieldsystemnorthpeak.inf_amd64_0f2a322c2e28f9a4
2024/04/16  09:04    <DIR>          lms.inf_amd64_999414b9372a2b7f
2024/04/16  09:03    <DIR>          memcntrl.inf_amd64_2838d67bd54d4461
2024/04/16  09:04    <DIR>          mesrl.inf_amd64_fa86dc6409a1f761
2024/04/16  09:03    <DIR>          mewmiprov.inf_amd64_ab7d4ea1d12c01d4
2024/04/16  09:04    <DIR>          mewmiprov.inf_amd64_f3c201b4c28c14d0
2024/04/16  09:03    <DIR>          minictadriver.inf_amd64_4721d814b86d6265
2024/04/16  09:03    <DIR>          mshdadac.inf_amd64_573b964714659a10
2024/04/16  09:03    <DIR>          mshdadac.inf_amd64_c61f017b82eef26f
2024/04/16  09:03    <DIR>          netaapl64.inf_amd64_56f23639c9617984
2024/04/16  09:03    <DIR>          prnms006.inf_amd64_c3bdcb6fc975b614
2024/04/16  09:03    <DIR>          prnms009.inf_amd64_3107874c7db0aa5a
2024/04/16  09:03    <DIR>          raptorlakepch-ssystem.inf_amd64_8155b85580014d4f
2024/04/16  09:03    <DIR>          raptorlakepch-ssystemlpss.inf_amd64_9dec7e65a237382a
2024/04/16  09:03    <DIR>          raptorlakesystem.inf_amd64_d7202be55e42c570
2024/04/16  09:03    <DIR>          realtekapo.inf_amd64_86fc0b0b9eccc8ac
2024/04/16  09:03    <DIR>          realtekapo.inf_amd64_b399b00f688b53a0
2024/04/16  09:03    <DIR>          realtekasio.inf_amd64_de8abf16594e82ca
2024/04/16  09:03    <DIR>          realtekservice.inf_amd64_04ff63d068f8c626
2024/04/16  09:03    <DIR>          realtekservice.inf_amd64_aadd853bf8841644
2024/04/16  09:03    <DIR>          realteksstppdll.inf_amd64_73a1915eb26f0349
2024/04/16  09:03    <DIR>          rocketlakesystem.inf_amd64_72203900995a90b2
2024/04/16  09:03    <DIR>          sapphirerapidssystem.inf_amd64_d7bcc66a5e473f8b
2024/04/16  09:03    <DIR>          server_commonsystem.inf_amd64_a241081d3e26f35d
2024/04/16  09:03    <DIR>          server_commonsystemnorthpeak.inf_amd64_8ba4880b25a6e4cd
2024/04/16  09:03    <DIR>          skylakesystem.inf_amd64_08fa7b2b687c2cdf
2024/04/16  09:03    <DIR>          skylakesystemgmm.inf_amd64_6bb566673a722c38
2024/04/16  09:03    <DIR>          skylakesystemthermal.inf_amd64_a691a6509ef43a01
2024/04/16  09:04    <DIR>          sollmsextension.inf_amd64_d2f685b212b4b7f8
2024/04/16  09:03    <DIR>          splitdnsfilter.inf_amd64_a391823d7694e90a
2024/04/16  09:03    <DIR>          sunrisepoint-hsystem.inf_amd64_faabe6f8021d363e
2024/04/16  09:03    <DIR>          sunrisepoint-hsystemlpss.inf_amd64_c9d037bd4e88d627
2024/04/16  09:03    <DIR>          sunrisepoint-hsystemthermal.inf_amd64_68cbe289aa2b5014
2024/04/16  09:03    <DIR>          sunrisepoint-lpsdhost.inf_amd64_f63816e76bc5b503
2024/04/16  09:03    <DIR>          sunrisepoint-lpsystem.inf_amd64_3f329cdb9ca0ee45
2024/04/16  09:03    <DIR>          sunrisepoint-lpsystemlpss.inf_amd64_d740dd5821107592
2024/04/16  09:03    <DIR>          sunrisepoint-lpsystemnorthpeak.inf_amd64_e8abb62db32c7e7c
2024/04/16  09:03    <DIR>          sunrisepoint-lpsystemthermal.inf_amd64_69d67dea5b7151f8
2024/04/16  09:04    <DIR>          teppr790p.inf_amd64_e93ee02db1c338ee
2024/04/16  09:03    <DIR>          tigerlakedmasecextension.inf_amd64_39b34b96675a690e
2024/04/16  09:03    <DIR>          tigerlakepch-hdmasecextension.inf_amd64_b1898451bf82f465
2024/04/16  09:03    <DIR>          tigerlakepch-hsystem.inf_amd64_cef306a739575d10
2024/04/16  09:03    <DIR>          tigerlakepch-hsystemish.inf_amd64_7635a2d81b755ab7
2024/04/16  09:03    <DIR>          tigerlakepch-hsystemlpss.inf_amd64_db5e392e0b761338
2024/04/16  09:03    <DIR>          tigerlakepch-hsystemnorthpeak.inf_amd64_00f1a51683f1c7c3
2024/04/16  09:03    <DIR>          tigerlakepch-hsystemthermal.inf_amd64_9d9759712fc0e43b
2024/04/16  09:03    <DIR>          tigerlakepch-lpdmasecextension.inf_amd64_fb3a470c5bbb59b6
2024/04/16  09:03    <DIR>          tigerlakepch-lpsystem.inf_amd64_4dee61c27bbc67d2
2024/04/16  09:03    <DIR>          tigerlakepch-lpsystemlpss.inf_amd64_f9b8005a3b5524d8
2024/04/16  09:03    <DIR>          tigerlakepch-lpusbfunctioncontroller.inf_amd64_41298b28061f99f2
2024/04/16  09:03    <DIR>          tigerlakesystem.inf_amd64_745c67c4f68dfd5a
2024/04/16  09:03    <DIR>          usbaapl64.inf_amd64_c0e4d8c2aef471b7
2024/04/16  09:04    <DIR>          vmusb.inf_amd64_c603306f7f2b335a
2024/04/16  09:03    <DIR>          wachidrouterisdf.inf_amd64_336cf9a6e7672238
2024/04/16  09:03    <DIR>          wachidrouterisdu.inf_amd64_27a444bb328a7509
2024/04/16  09:03    <DIR>          wavesapo12de.inf_amd64_c92e3664032c61e7
2024/04/16  09:03    <DIR>          wavesapo12de.inf_amd64_f4d6230909497f9a
2024/04/16  09:03    <DIR>          wavesdmic_agc.inf_amd64_59a3637ecdee9f64
2024/04/16  09:03    <DIR>          wiman.inf_amd64_e8edc74538613ea4
2024/04/16  09:04    <DIR>          wiman.inf_amd64_f8dbb140e86553d1
2024/04/16  09:03    <DIR>          wiman_wlan_extension.inf_amd64_02775e9954796991
2024/04/16  09:03    <DIR>          wtabletserviceisd.inf_amd64_83617289dbaeff89
               0 個のファイル                   0 バイト
             183 個のディレクトリ  50,846,601,216 バイトの空き領域

C:\Windows\System32>

なお、dismコマンドではなく、PowerShell側で「Get-WindowsDriver」「Export-WindowsDriver」を実行する、という手法もあります。

ドライバ一覧は「Get-WindowsDriver -online -all」で取得します。ただ、こちらはWindows OS標準ドライバも含めての出力となります。(InboxがTrueのものがソレ)

PS C:\> Get-WindowsDriver -online -all


Driver           : 1394.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\1394.inf_amd64_c9db87f4e89577c9\1394.inf
Inbox            : True
ClassName        : 1394
BootCritical     : True
ProviderName     : Microsoft
Date             : 2006/06/21 0:00:00
Version          : 10.0.22621.2506

Driver           : 3ware.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\3ware.inf_amd64_408ceed6ec8ab6cd\3ware.inf
Inbox            : True
ClassName        : SCSIAdapter
BootCritical     : True
ProviderName     : LSI
Date             : 2013/04/11 0:00:00
Version          : 5.1.0.51
<略>

Driver           : xusb22.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\xusb22.inf_amd64_18e044b4e6fb84a1\xusb22.inf
Inbox            : True
ClassName        : XnaComposite
BootCritical     : False
ProviderName     : Microsoft
Date             : 2024/01/21 0:00:00
Version          : 10.0.22621.3085

Driver           : ykinx64.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\ykinx64.inf_amd64_0bbd8466b526ef26\ykinx64.inf
Inbox            : True
ClassName        : Net
BootCritical     : False
ProviderName     : Microsoft
Date             : 2013/04/11 0:00:00
Version          : 12.10.17.0



PS C:\>

PowerShellコマンドレットなので、「Get-WindowsDriver -online -all |Where-Object {$_.Inbox -eq $false }」と実行すると、Windows OS標準ドライバ以外の一覧を出力することができます。

PS C:\> Get-WindowsDriver -online -all |Where-Object {$_.Inbox -eq $false }


Driver           : oem0.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\gna.inf_amd64_04d4eecc5838a558\gna.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : Intel Corporation
Date             : 2021/11/26 0:00:00
Version          : 3.0.0.1457

Driver           : oem1.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\alexadellconfig.inf_amd64_0362a26b37844d90\alexadellc
                   onfig.inf
Inbox            : False
ClassName        : Extension
BootCritical     : False
ProviderName     : Realtek
Date             : 2023/05/23 0:00:00
Version          : 1.0.9520.1
<略>
Driver           : oem98.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\jasperlake+system.inf_amd64_f6bb21ea42d19e1d\jasperla
                   ke+system.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : INTEL
Date             : 1968/07/18 0:00:00
Version          : 10.1.29.4

Driver           : oem99.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\jasperlake+systemnorthpeak.inf_amd64_1d24a34355f848b3
                   \jasperlake+systemnorthpeak.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : INTEL
Date             : 1968/07/18 0:00:00
Version          : 10.1.29.4



PS C:\>

「Export-WindowsDriver -Online -Destination 出力先ディレクトリ」ですが、ディレクトリが存在しない場合は自動作成してくれました。

PS C:\> Export-WindowsDriver -Online -Destination c:\tmp\drivers2


Driver           : oem0.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\gna.inf_amd64_04d4eecc5838a558\gna.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : Intel Corporation
Date             : 2021/11/26 0:00:00
Version          : 3.0.0.1457

Driver           : oem1.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\alexadellconfig.inf_amd64_0362a26b37844d90\alexadellc
                   onfig.inf
Inbox            : False
ClassName        : Extension
BootCritical     : False
ProviderName     : Realtek
Date             : 2023/05/23 0:00:00
Version          : 1.0.9520.1
<略>
Driver           : oem98.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\jasperlake+system.inf_amd64_f6bb21ea42d19e1d\jasperla
                   ke+system.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : INTEL
Date             : 1968/07/18 0:00:00
Version          : 10.1.29.4

Driver           : oem99.inf
OriginalFileName : C:\Windows\System32\DriverStore\FileRepository\jasperlake+systemnorthpeak.inf_amd64_1d24a34355f848b3
                   \jasperlake+systemnorthpeak.inf
Inbox            : False
ClassName        : System
BootCritical     : True
ProviderName     : INTEL
Date             : 1968/07/18 0:00:00
Version          : 10.1.29.4



PS C:\>

CVE-2022-38023対応後のsamba ADサーバに古いONTAPを参加させる


2023年7月のCVE-2022-38023関連対応後、古いONTAPシミュレーターは sambaで作ったActive Directory環境に参加できなくなった。

samba側の設定を変更し、セキュリティ的に問題がある接続でも受け付けるようにすればいいのかな、と試してみた。

sambaのCVE-2022-38023対応に関して書かれている「RC4/HMAC-MD5 NetLogon Secure Channel is weak and should be avoided」に、これまでのdefaultから変更した点がかかれているので、これの逆をやればいいのか、と以下を設定した。

[global]
        <略>
        allow nt4 crypto = yes
        reject md5 clients = no
        server reject md5 schannel = no
        server schannel = yes
        server schannel require seal = no
 <略>

拒否しない(rejectをno)のと、必須を解除(requireをno)にすればいいか、というレベルでの対応となる。

ドキュメントの「Cryptographic configuration」を見た感じだとこれで良さそう。

もちろんこれは過去のバージョンを動かす必要があって行うものであり、本来の運用で使用するものではない設定となる。

この設定を行い、sambaの再起動

NetAppのCIFS稼働のSVMでは、vserver cifs securityの項目にて「-smb2-enabled-for-dc-connections true」と「-is-aes-encryption-enabled true」の設定を行っている


エラーメッセージコレクション

ONTAP 9.1 シミュレーター(パッチ無し)

このバージョンではオプションの -smb2-enabled-for-dc-connections と -is-aes-encryption-enabled が存在していないので、エラー内容が結構違う。

ontap91::> vserver cifs create -cifs-server svm91 -domain ADOSAKANA.LOCAL

In order to create an Active Directory machine account for the CIFS server, you
must supply the name and password of a Windows account with sufficient
privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Warning: An account by this name already exists in Active Directory at
         CN=SVM91,CN=Computers,DC=adosakana,DC=local.
         If there is an existing DNS entry for the name SVM91, it must be
         removed. Data ONTAP cannot remove such an entry.
         Use an external tool to remove it after this command completes.
         Ok to reuse this account? {y|n}: y

Error: command failed: Failed to create CIFS server SVM91. Reason:
       create_with_lug: RPC: Unable to receive; errno = Connection reset by
       peer; netid=tcp fd=17 TO=600.0s TT=0.119s O=224b I=0b CN=113/3 VSID=-3
       127.0.0.1:766.

ontap91::>

ONTAP 9.1P22 シミュレーター

ontap91::> vserver cifs create -cifs-server svm91 -domain ADOSAKANA.LOCAL

In order to create an Active Directory machine account for the CIFS server, you
must supply the name and password of a Windows account with sufficient
privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Error: Machine account creation procedure failed
  [    56] Loaded the preliminary configuration.
  [    92] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   107] Successfully connected to ip 172.17.44.49, port 389 using
           TCP
  [   110] Unable to start TLS: Connect error
  [   110]   Additional info:
  [   110] Unable to connect to LDAP (Active Directory) service on
           sambaad.ADOSAKANA.LOCAL
**[   110] FAILURE: Unable to make a connection (LDAP (Active
**         Directory):ADOSAKANA.LOCAL), result: 7652

Error: command failed: Failed to create the Active Directory machine account
       "SVM91". Reason: LDAP Error: Cannot establish a connection to the
       server.

ontap91::>
ontap91::> vserver cifs create -cifs-server svm91 -domain ADOSAKANA.LOCAL

In order to create an Active Directory machine account for the CIFS server, you
must supply the name and password of a Windows account with sufficient
privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Error: Machine account creation procedure failed
  [    61] Loaded the preliminary configuration.
  [    99] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   168] Successfully connected to ip 172.17.44.49, port 389 using
           TCP
  [   168] Entry for host-address: 172.17.44.49 not found in the
           current source: FILES. Ignoring and trying next available
           source
  [   172] Source: DNS unavailable. Entry for
           host-address:172.17.44.49 not found in any of the
           available sources
**[   181] FAILURE: Unable to SASL bind to LDAP server using GSSAPI:
**         Local error
  [   181] Additional info: SASL(-1): generic failure: GSSAPI Error:
           Unspecified GSS failure.  Minor code may provide more
           information (Cannot determine realm for numeric host
           address)
  [   181] Unable to connect to LDAP (Active Directory) service on
           sambaad.ADOSAKANA.LOCAL (Error: Local error)
  [   181] Unable to make a connection (LDAP (Active
           Directory):ADOSAKANA.LOCAL), result: 7643

Error: command failed: Failed to create the Active Directory machine account
       "SVM91". Reason: LDAP Error: Local error occurred.

ontap91::>
ontap91::> vserver cifs create -cifs-server svm91 -domain ADOSAKANA.LOCAL

In order to create an Active Directory machine account for the CIFS server, you
must supply the name and password of a Windows account with sufficient
privileges to add computers to the "CN=Computers" container within the
"ADOSAKANA.LOCAL" domain.

Enter the user name: administrator

Enter the password:

Warning: An account by this name already exists in Active Directory at
         CN=SVM91,CN=Computers,DC=adosakana,DC=local.
         If there is an existing DNS entry for the name SVM91, it must be
         removed. Data ONTAP cannot remove such an entry.
         Use an external tool to remove it after this command completes.
         Ok to reuse this account? {y|n}: y

Error: Machine account creation procedure failed
  [    13] Loaded the preliminary configuration.
  [    92] Created a machine account in the domain
  [    93] SID to name translations of Domain Users and Admins
           completed successfully
  [   100] Modified account 'cn=SVM91,CN=Computers,dc=VM2,dc=ADOSAKANA
           dc=LOCAL'
  [   101] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   113] Successfully connected to ip 172.17.44.49, port 464 using
           TCP
  [   242] Kerberos password set for 'SVM91$@ADOSAKANA.LOCAL' succeeded
  [   242] Set initial account password
  [   277] Successfully connected to ip 172.17.44.49, port 445 using
           TCP
  [   312] Successfully connected to ip 172.17.44.49, port 88 using
           TCP
  [   346] Successfully authenticated with DC
           sambaad.ADOSAKANA.LOCAL
  [   366] Unable to connect to NetLogon service on
           sambaad.ADOSAKANA.LOCAL (Error:
           RESULT_ERROR_GENERAL_FAILURE)
**[   366] FAILURE: Unable to make a connection
**         (NetLogon:ADOSAKANA.LOCAL), result: 3
  [   366] Unable to make a NetLogon connection to
           sambaad.ADOSAKANA.LOCAL using the new machine account

Error: command failed: Failed to create the Active Directory machine account
       "SVM91". Reason: general failure.

ontap91::>

proxmox 8.1.4で適当にcephストレージ作ったらWARNINGが出た件の対処


proxmox 8.1.4でサーバを3台インストールして、cpehストレージ作ってみるかー、と適当に設定した。

基本は「Deploy Hyper-Converged Ceph Cluster」を見ながらやったんだけど、CephFSを作成するときに、手順だと「pveceph fs create –pg_num 128 –add-storage」と書いてあったんだけど、「pveceph fs create」だけで実行したらどうなるんだろ?と思ってやってみたところ、警告が出た

注:なお、結局のところ、指定しない場合のデフォルト値も128だった。

HEALTH_WARN: 1 pools have too many placement groups
Pool storagepool has 128 placement groups, should have 32

調べてみるとproxmoxのフォーラムに「CEPH pools have too many placement groups」という若干古め(2020年のpoxmox 6.3時代)のものが見つかった。

「pveceph pool ls」で現在の設定を確認

root@zstack137:~# ceph -v
ceph version 18.2.2 (e9fe820e7fffd1b7cde143a9f77653b73fcec748) reef (stable)
root@zstack137:~# pveversion
pve-manager/8.1.4/ec5affc9e41f1d79 (running kernel: 6.5.11-8-pve)
root@zstack137:~# pveceph pool ls
lqqqqqqqqqqqqqqqqqwqqqqqqwqqqqqqqqqqwqqqqqqqqwqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqk
x Name            x Size x Min Size x PG Num x min. PG Num x Optimal PG Num x PG Autoscale Mode x PG Autoscale Target Size x PG Autoscale Target Ratio x Crush Rule Name x               %-Used x       Used x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x .mgr            x    3 x        2 x      1 x           1 x              1 x on                x                          x                           x replicated_rule x 3.08950029648258e-06 x    1388544 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_data     x    3 x        2 x     32 x             x             32 x on                x                          x                           x replicated_rule x                    0 x          0 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_metadata x    3 x        2 x     32 x          16 x             16 x on                x                          x                           x replicated_rule x 4.41906962578287e-07 x     198610 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x storagepool     x    3 x        2 x    128 x             x             32 x warn              x                          x                           x replicated_rule x   0.0184257291257381 x 8436679796 x
mqqqqqqqqqqqqqqqqqvqqqqqqvqqqqqqqqqqvqqqqqqqqvqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqj
root@zstack137:~#

「ceph osd pool autoscale-status」

root@zstack137:~# ceph osd pool autoscale-status
POOL               SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  BULK
.mgr             452.0k                3.0        449.9G  0.0000                                  1.0       1              on         False
cephfs_data          0                 3.0        449.9G  0.0000                                  1.0      32              on         False
cephfs_metadata  66203                 3.0        449.9G  0.0000                                  4.0      32              on         False
storagepool       2681M                3.0        449.9G  0.0175                                  1.0     128              warn       False
root@zstack137:~#

そういえば、むかし、cephをテスト構築した時もなんかあったな、と思い出して確認してみると2018年に「CephのOSD毎のPlacement Groupの数を確認する」というメモを残していた。

「ceph health」を実行してみると状況は違うようだった。

root@zstack137:~# ceph health
HEALTH_WARN 1 pools have too many placement groups

root@zstack137:~# ceph health detail
HEALTH_WARN 1 pools have too many placement groups
[WRN] POOL_TOO_MANY_PGS: 1 pools have too many placement groups
    Pool storagepool has 128 placement groups, should have 32
root@zstack137:~#
root@zstack137:~# ceph -s
  cluster:
    id:     9e085d6a-77f3-41f1-8f6d-71fadc9c011b
    health: HEALTH_WARN
            1 pools have too many placement groups

  services:
    mon: 3 daemons, quorum zstack136,zstack135,zstack137 (age 3h)
    mgr: zstack136(active, since 3h), standbys: zstack135
    mds: 1/1 daemons up, 1 standby
    osd: 9 osds: 9 up (since 3h), 9 in (since 3d)

  data:
    volumes: 1/1 healthy
    pools:   4 pools, 193 pgs
    objects: 716 objects, 2.7 GiB
    usage:   8.3 GiB used, 442 GiB / 450 GiB avail
    pgs:     193 active+clean

root@zstack137:~#

とはいえ、「ceph pg dump」の出力結果を整形して表示する下記コマンドが実行できるか確認してみる。

ceph pg dump | awk '
BEGIN { IGNORECASE = 1 }
 /^PG_STAT/ { col=1; while($col!="UP") {col++}; col++ }
 /^[0-9a-f]+\.[0-9a-f]+/ { match($0,/^[0-9a-f]+/); pool=substr($0, RSTART, RLENGTH); poollist[pool]=0;
 up=$col; i=0; RSTART=0; RLENGTH=0; delete osds; while(match(up,/[0-9]+/)>0) { osds[++i]=substr(up,RSTART,RLENGTH); up = substr(up, RSTART+RLENGTH) }
 for(i in osds) {array[osds[i],pool]++; osdlist[osds[i]];}
}
END {
 printf("\n");
 printf("pool :\t"); for (i in poollist) printf("%s\t",i); printf("| SUM \n");
 for (i in poollist) printf("--------"); printf("----------------\n");
 for (i in osdlist) { printf("osd.%i\t", i); sum=0;
   for (j in poollist) { printf("%i\t", array[i,j]); sum+=array[i,j]; sumpool[j]+=array[i,j] }; printf("| %i\n",sum) }
 for (i in poollist) printf("--------"); printf("----------------\n");
 printf("SUM :\t"); for (i in poollist) printf("%s\t",sumpool[i]); printf("|\n");
}'

無事実行できた。

root@zstack137:~# ceph pg dump | awk '
BEGIN { IGNORECASE = 1 }
 /^PG_STAT/ { col=1; while($col!="UP") {col++}; col++ }
 /^[0-9a-f]+\.[0-9a-f]+/ { match($0,/^[0-9a-f]+/); pool=substr($0, RSTART, RLENGTH); poollist[pool]=0;
 up=$col; i=0; RSTART=0; RLENGTH=0; delete osds; while(match(up,/[0-9]+/)>0) { osds[++i]=substr(up,RSTART,RLENGTH); up = substr(up, RSTART+RLENGTH) }
 for(i in osds) {array[osds[i],pool]++; osdlist[osds[i]];}
}
END {
 printf("\n");
 printf("pool :\t"); for (i in poollist) printf("%s\t",i); printf("| SUM \n");
 for (i in poollist) printf("--------"); printf("----------------\n");
 for (i in osdlist) { printf("osd.%i\t", i); sum=0;
   for (j in poollist) { printf("%i\t", array[i,j]); sum+=array[i,j]; sumpool[j]+=array[i,j] }; printf("| %i\n",sum) }
 for (i in poollist) printf("--------"); printf("----------------\n");
 printf("SUM :\t"); for (i in poollist) printf("%s\t",sumpool[i]); printf("|\n");
}'
dumped all

pool :  3       2       1       4       | SUM
------------------------------------------------
osd.3   4       5       1       13      | 23
osd.8   4       6       0       12      | 22
osd.6   2       4       0       15      | 21
osd.5   6       4       0       16      | 26
osd.2   3       3       0       15      | 21
osd.1   4       3       0       10      | 17
osd.4   1       1       0       16      | 18
osd.0   5       2       0       10      | 17
osd.7   3       4       0       21      | 28
------------------------------------------------
SUM :   32      32      1       128     |
root@zstack137:~#

poolによって差がありすぎている?

中国語のページで「ceph使用问题积累」というところがあって「HEALTH_WARN:pools have too many placement groups」と「HEALTH_WARN: mons are allowing insecure global_id reclaim」についての対処方法が載っている。

前者については↑で出てきたproxmoxフォーラム記事を参照元として「ceph mgr module disable pg_autoscaler」を実行してauto scale機能を無効化する、とある

後者については「ceph config set mon auth_allow_insecure_global_id_reclaim false」となっていた。

module設定変える前に「ceph mgr module ls」で状態確認

root@zstack137:~# ceph mgr module ls
MODULE
balancer           on (always on)
crash              on (always on)
devicehealth       on (always on)
orchestrator       on (always on)
pg_autoscaler      on (always on)
progress           on (always on)
rbd_support        on (always on)
status             on (always on)
telemetry          on (always on)
volumes            on (always on)
iostat             on
nfs                on
restful            on
alerts             -
influx             -
insights           -
localpool          -
mirroring          -
osd_perf_query     -
osd_support        -
prometheus         -
selftest           -
snap_schedule      -
stats              -
telegraf           -
test_orchestrator  -
zabbix             -
root@zstack137:~#

SUSEのページにあるSUSE Enterprise Storage 7 DocumentationのAdministration and Operations Guide「12 Determine the cluster state」を見るといろいろな状態確認コマンドがあった。

root@zstack137:~# ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    450 GiB  442 GiB  8.3 GiB   8.3 GiB       1.85
TOTAL  450 GiB  442 GiB  8.3 GiB   8.3 GiB       1.85

--- POOLS ---
POOL             ID  PGS   STORED  OBJECTS     USED  %USED  MAX AVAIL
.mgr              1    1  449 KiB        2  1.3 MiB      0    140 GiB
cephfs_data       2   32      0 B        0      0 B      0    140 GiB
cephfs_metadata   3   32   35 KiB       22  194 KiB      0    140 GiB
storagepool       4  128  2.6 GiB      692  7.9 GiB   1.84    140 GiB
root@zstack137:~#  ceph df detail
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    450 GiB  442 GiB  8.3 GiB   8.3 GiB       1.85
TOTAL  450 GiB  442 GiB  8.3 GiB   8.3 GiB       1.85

--- POOLS ---
POOL             ID  PGS   STORED   (DATA)   (OMAP)  OBJECTS     USED   (DATA)   (OMAP)  %USED  MAX AVAIL  QUOTA OBJECTS  QUOTA BYTES  DIRTY  USED COMPR  UNDER COMPR
.mgr              1    1  449 KiB  449 KiB      0 B        2  1.3 MiB  1.3 MiB      0 B      0    140 GiB            N/A          N/A    N/A         0 B          0 B
cephfs_data       2   32      0 B      0 B      0 B        0      0 B      0 B      0 B      0    140 GiB            N/A          N/A    N/A         0 B          0 B
cephfs_metadata   3   32   35 KiB   18 KiB   17 KiB       22  194 KiB  144 KiB   50 KiB      0    140 GiB            N/A          N/A    N/A         0 B          0 B
storagepool       4  128  2.6 GiB  2.6 GiB  3.0 KiB      692  7.9 GiB  7.9 GiB  9.1 KiB   1.84    140 GiB            N/A          N/A    N/A         0 B          0 B
root@zstack137:~# 

TOO_MANY_PGSの時の対処としていかが書かれている

TOO_MANY_PGS
The number of PGs in use is above the configurable threshold of mon_pg_warn_max_per_osd PGs per OSD. This can lead to higher memory usage for OSD daemons, slower peering after cluster state changes (for example OSD restarts, additions, or removals), and higher load on the Ceph Managers and Ceph Monitors.

While the pg_num value for existing pools cannot be reduced, the pgp_num value can. This effectively co-locates some PGs on the same sets of OSDs, mitigating some of the negative impacts described above. The pgp_num value can be adjusted with:

proxmox「Deploy Hyper-Converged Ceph Cluster」のあたりをみると PG Autoscale Modeはwarnで設定されるのが標準であるようだ。

cephのautomated scalingを見ると「ceph config set global mon_target_pg_per_osd 100」で値を設定することが書かれているが、現在値の確認方法が書いてない。

ceph config get <who> <key>というのはわかったのだが、whoの部分がなんなのかがわからなかった。(globalではなかった)

「ceph config dump」を実行したところ、いま標準値から変更されているところであろう設定が出てきて、whoに該当するものとしてmonがあった。であればmon_target_pg_per_osdのwhoはmonだろうと試すと現在値らしきものが確認できた。

root@zstack137:~# ceph config dump
WHO  MASK  LEVEL     OPTION                                 VALUE  RO
mon        advanced  auth_allow_insecure_global_id_reclaim  false
root@zstack137:~# ceph config get mon  mon_target_pg_per_osd
100
root@zstack137:~#

とりあえず、「ceph mgr module disable pg_autoscaler」を実行してみたのだが、変更不可だった

root@zstack137:~# ceph mgr module disable pg_autoscaler
Error EINVAL: module 'pg_autoscaler' cannot be disabled (always-on)
root@zstack137:~#

じゃあ、「ceph osd pool set storagepool pgp_num 32」を実行してpgp_numを128から32に変更してみる

root@zstack137:~# ceph osd pool stats
pool .mgr id 1
  nothing is going on

pool cephfs_data id 2
  nothing is going on

pool cephfs_metadata id 3
  nothing is going on

pool storagepool id 4
  nothing is going on

root@zstack137:~# ceph osd pool get storagepool pgp_num
pgp_num: 128
root@zstack137:~# ceph osd pool set storagepool pgp_num 32
set pool 4 pgp_num to 32
root@zstack137:~# ceph osd pool get storagepool pgp_num
pgp_num: 125
root@zstack137:~# ceph osd pool get storagepool pgp_num
pgp_num: 119
root@zstack137:~#

徐々に変更されていく模様

root@zstack137:~# ceph -s
  cluster:
    id:     9e085d6a-77f3-41f1-8f6d-71fadc9c011b
    health: HEALTH_WARN
            Reduced data availability: 1 pg peering
            1 pools have too many placement groups
            1 pools have pg_num > pgp_num

  services:
    mon: 3 daemons, quorum zstack136,zstack135,zstack137 (age 5h)
    mgr: zstack136(active, since 5h), standbys: zstack135
    mds: 1/1 daemons up, 1 standby
    osd: 9 osds: 9 up (since 5h), 9 in (since 3d); 2 remapped pgs

  data:
    volumes: 1/1 healthy
    pools:   4 pools, 193 pgs
    objects: 716 objects, 2.7 GiB
    usage:   8.4 GiB used, 442 GiB / 450 GiB avail
    pgs:     0.518% pgs not active
             16/2148 objects misplaced (0.745%)
             190 active+clean
             2   active+recovering
             1   remapped+peering

  io:
    recovery: 2.0 MiB/s, 0 objects/s

root@zstack137:~# ceph health
HEALTH_WARN Reduced data availability: 1 pg peering; 1 pools have too many placement groups; 1 pools have pg_num > pgp_num
root@zstack137:~# ceph health detail
HEALTH_WARN 1 pools have too many placement groups; 1 pools have pg_num > pgp_num
[WRN] POOL_TOO_MANY_PGS: 1 pools have too many placement groups
    Pool storagepool has 128 placement groups, should have 32
[WRN] SMALLER_PGP_NUM: 1 pools have pg_num > pgp_num
    pool storagepool pg_num 128 > pgp_num 32
root@zstack137:~#

ある程度時間が経過したあと

root@zstack137:~# ceph health detail
HEALTH_WARN 1 pools have too many placement groups; 1 pools have pg_num > pgp_num
[WRN] POOL_TOO_MANY_PGS: 1 pools have too many placement groups
    Pool storagepool has 128 placement groups, should have 32
[WRN] SMALLER_PGP_NUM: 1 pools have pg_num > pgp_num
    pool storagepool pg_num 128 > pgp_num 32
root@zstack137:~# ceph pg dump | awk '
BEGIN { IGNORECASE = 1 }
 /^PG_STAT/ { col=1; while($col!="UP") {col++}; col++ }
 /^[0-9a-f]+\.[0-9a-f]+/ { match($0,/^[0-9a-f]+/); pool=substr($0, RSTART, RLENGTH); poollist[pool]=0;
 up=$col; i=0; RSTART=0; RLENGTH=0; delete osds; while(match(up,/[0-9]+/)>0) { osds[++i]=substr(up,RSTART,RLENGTH); up = substr(up, RSTART+RLENGTH) }
 for(i in osds) {array[osds[i],pool]++; osdlist[osds[i]];}
}
END {
 printf("\n");
 printf("pool :\t"); for (i in poollist) printf("%s\t",i); printf("| SUM \n");
 for (i in poollist) printf("--------"); printf("----------------\n");
 for (i in osdlist) { printf("osd.%i\t", i); sum=0;
   for (j in poollist) { printf("%i\t", array[i,j]); sum+=array[i,j]; sumpool[j]+=array[i,j] }; printf("| %i\n",sum) }
 for (i in poollist) printf("--------"); printf("----------------\n");
 printf("SUM :\t"); for (i in poollist) printf("%s\t",sumpool[i]); printf("|\n");
}'
dumped all

pool :  3       2       1       4       | SUM
------------------------------------------------
osd.3   4       5       1       15      | 25
osd.8   4       6       0       16      | 26
osd.6   2       4       0       16      | 22
osd.5   6       4       0       4       | 14
osd.2   3       3       0       11      | 17
osd.1   4       3       0       13      | 20
osd.4   1       1       0       17      | 19
osd.0   5       2       0       20      | 27
osd.7   3       4       0       16      | 23
------------------------------------------------
SUM :   32      32      1       128     |
root@zstack137:~# ceph osd pool autoscale-status
POOL               SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  BULK
.mgr             452.0k                3.0        449.9G  0.0000                                  1.0       1              on         False
cephfs_data          0                 3.0        449.9G  0.0000                                  1.0      32              on         False
cephfs_metadata  66203                 3.0        449.9G  0.0000                                  4.0      32              on         False
storagepool       2681M                3.0        449.9G  0.0175                                  1.0     128              warn       False
root@zstack137:~# pveceph pool ls
lqqqqqqqqqqqqqqqqqwqqqqqqwqqqqqqqqqqwqqqqqqqqwqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqk
x Name            x Size x Min Size x PG Num x min. PG Num x Optimal PG Num x PG Autoscale Mode x PG Autoscale Target Size x PG Autoscale Target Ratio x Crush Rule Name x               %-Used x       Used x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x .mgr            x    3 x        2 x      1 x           1 x              1 x on                x                          x                           x replicated_rule x 3.09735719383752e-06 x    1388544 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_data     x    3 x        2 x     32 x             x             32 x on                x                          x                           x replicated_rule x                    0 x          0 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_metadata x    3 x        2 x     32 x          16 x             16 x on                x                          x                           x replicated_rule x 4.43030785390874e-07 x     198610 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x storagepool     x    3 x        2 x    128 x             x             32 x warn              x                          x                           x replicated_rule x    0.018471721559763 x 8436679796 x
mqqqqqqqqqqqqqqqqqvqqqqqqvqqqqqqqqqqvqqqqqqqqvqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqj
root@zstack137:~#

pg_numを減らせる?

root@zstack137:~# ceph osd pool get storagepool pg_num
pg_num: 128
root@zstack137:~# ceph osd pool set storagepool pg_num 32
set pool 4 pg_num to 32
root@zstack137:~# ceph osd pool get storagepool pg_num
pg_num: 128
root@zstack137:~# ceph osd pool get storagepool pg_num
pg_num: 124
root@zstack137:~#

徐々に減ってる

ステータスはHEALTH_OLに変わった

root@zstack137:~# ceph osd pool get storagepool pg_num
pg_num: 119
root@zstack137:~# ceph health detail
HEALTH_OK
root@zstack137:~# pveceph pool ls
lqqqqqqqqqqqqqqqqqwqqqqqqwqqqqqqqqqqwqqqqqqqqwqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqk
x Name            x Size x Min Size x PG Num x min. PG Num x Optimal PG Num x PG Autoscale Mode x PG Autoscale Target Size x PG Autoscale Target Ratio x Crush Rule Name x               %-Used x       Used x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x .mgr            x    3 x        2 x      1 x           1 x              1 x on                x                          x                           x replicated_rule x 3.10063592223742e-06 x    1388544 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_data     x    3 x        2 x     32 x             x             32 x on                x                          x                           x replicated_rule x                    0 x          0 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_metadata x    3 x        2 x     32 x          16 x             16 x on                x                          x                           x replicated_rule x 4.43499772018185e-07 x     198610 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x storagepool     x    3 x        2 x    117 x             x             32 x warn              x                          x                           x replicated_rule x   0.0184909123927355 x 8436679796 x
mqqqqqqqqqqqqqqqqqvqqqqqqvqqqqqqqqqqvqqqqqqqqvqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqj
root@zstack137:~#

「ceph osd pool autoscale-status」の方のPG_NUMは即反映

root@zstack137:~# ceph osd pool autoscale-status
POOL               SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  BULK
.mgr             452.0k                3.0        449.9G  0.0000                                  1.0       1              on         False
cephfs_data          0                 3.0        449.9G  0.0000                                  1.0      32              on         False
cephfs_metadata  66203                 3.0        449.9G  0.0000                                  4.0      32              on         False
storagepool       2705M                3.0        449.9G  0.0176                                  1.0      32              warn       False
root@zstack137:~#

しばらく実行したらHEALTH_WARNになったときもあったが、比較的すぐにHEALTH_OKに戻ったりした。

root@zstack137:~# ceph health detail
HEALTH_WARN Reduced data availability: 2 pgs inactive, 2 pgs peering
[WRN] PG_AVAILABILITY: Reduced data availability: 2 pgs inactive, 2 pgs peering
    pg 4.22 is stuck peering for 2d, current state peering, last acting [6,5,2]
    pg 4.62 is stuck peering for 6h, current state peering, last acting [6,5,2]
root@zstack137:~#

しばらく時間がたって変更が終わったあとに状態をとってみた

root@zstack137:~# ceph health detail
HEALTH_OK
root@zstack137:~# pveceph pool ls
lqqqqqqqqqqqqqqqqqwqqqqqqwqqqqqqqqqqwqqqqqqqqwqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqqqqqqqqqqqwqqqqqqqqqqqqk
x Name            x Size x Min Size x PG Num x min. PG Num x Optimal PG Num x PG Autoscale Mode x PG Autoscale Target Size x PG Autoscale Target Ratio x Crush Rule Name x               %-Used x       Used x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x .mgr            x    3 x        2 x      1 x           1 x              1 x on                x                          x                           x replicated_rule x 3.13595910483855e-06 x    1388544 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_data     x    3 x        2 x     32 x             x             32 x on                x                          x                           x replicated_rule x                    0 x          0 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x cephfs_metadata x    3 x        2 x     32 x          16 x             16 x on                x                          x                           x replicated_rule x  4.4855224246021e-07 x     198610 x
tqqqqqqqqqqqqqqqqqnqqqqqqnqqqqqqqqqqnqqqqqqqqnqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqqqqqqqqqqqnqqqqqqqqqqqqu
x storagepool     x    3 x        2 x     32 x             x             32 x warn              x                          x                           x replicated_rule x   0.0186976287513971 x 8436679796 x
mqqqqqqqqqqqqqqqqqvqqqqqqvqqqqqqqqqqvqqqqqqqqvqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqqqqqqqqqqqvqqqqqqqqqqqqj
root@zstack137:~# ceph -s
  cluster:
    id:     9e085d6a-77f3-41f1-8f6d-71fadc9c011b
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum zstack136,zstack135,zstack137 (age 6h)
    mgr: zstack136(active, since 6h), standbys: zstack135
    mds: 1/1 daemons up, 1 standby
    osd: 9 osds: 9 up (since 6h), 9 in (since 3d)

  data:
    volumes: 1/1 healthy
    pools:   4 pools, 97 pgs
    objects: 716 objects, 2.7 GiB
    usage:   8.6 GiB used, 441 GiB / 450 GiB avail
    pgs:     97 active+clean

root@zstack137:~# ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    450 GiB  441 GiB  8.7 GiB   8.7 GiB       1.94
TOTAL  450 GiB  441 GiB  8.7 GiB   8.7 GiB       1.94

--- POOLS ---
POOL             ID  PGS   STORED  OBJECTS     USED  %USED  MAX AVAIL
.mgr              1    1  449 KiB        2  1.3 MiB      0    137 GiB
cephfs_data       2   32      0 B        0      0 B      0    137 GiB
cephfs_metadata   3   32   35 KiB       22  194 KiB      0    137 GiB
storagepool       4   32  2.7 GiB      692  8.0 GiB   1.89    137 GiB
root@zstack137:~#

とりあえず対処できた模様?