NetApp ONTAP8 7-modeで使用中のボリュームがあり、それをNetApp ONTAP9.5環境に対してtransitionのsnapmirrorを行った。
が・・・元ボリュームがqtree snapmirror中であったため、最後の処理で失敗した。(event log showの結果より)
1/14/2020 05:52:49 netapp95 ERROR smc.snapmir.init.fail: Initialize from source volume 'netapp7mode:vol211' to destination volume 'netapp95svm:vol211' failed with error 'Transfer failed.'. Relationship UUID 'a3555a83-3360-11ea-a0b6-00a098f844df'.
1/14/2020 05:52:49 netapp95 ERROR replication.dst.err: SnapMirror: destination transfer from netapp7mode:vol211 to vol211 : replication transfer failed to complete.
1/14/2020 05:52:49 netapp95 ERROR snapmirror.dst.OnlineErr: SnapMirror not able to bring destination volume vol211 online, CR_TRANS_QTREE_REPLICA.
1/14/2020 05:52:46 netapp95 ERROR wafl.voltrans.qtree.replica: The source of volume vol211 is a qtree replica. It cannot be transitioned to clustered Data ONTAP.
これについては、元のボリューム(netapp7mode:vol211)が受け側となっているqtree snapmirror全てに対して、「snapmirror quiesce netapp7mode:/vol/vol211/~」 と「snapmirror break netapp7mode:/vol/vol211/~」 を実行し、snapmirrorのステータスが「Broken-off」であれば7mode→ONTAP9へのtransition snapmirrorが成功することを確認。
で、snapmirrorの初期化(snapmirror initialize)にした場合、受け側のボリューム(今回はnetapp95svm:vol211)を削除して、再作成する必要がある。
netapp95上で「snapmirror delete -destination-path netapp95svm:vol211」でsnapmirror登録を消した後、ボリュームを「volume offline -vserver netapp95svm -volume vol211」でオフラインにしてから「volume delete -vserver netapp95svm -volume vol211」 で削除。
そして、「volume create -vserver netapp95svm -volume vol211 -aggregate aggr名 -size 22t -state online -type DP」で作成!
netapp95::> volume create -vserver netapp95svm -volume vol211 -aggregate aggr名 -size 22t -state online -type DP
[Job 351] Job is queued: Create vol211.
Error: command failed: [Job 351] Job failed: Failed to create the volume on
node "netapp95svm". Reason: Request to create volume "vol211" failed
because there is not enough space in aggregate "aggr名". Either
create 10.9TB of free space in the aggregate or select a size of at most
11.2TB for the new volume.
netapp95::>
おや?
netapp95::> storage aggregate show
Aggregate Size Available Used% State #Vols Nodes RAID Status
--------- -------- --------- ----- ------- ------ ---------------- ------------
<略>
aggr名
29.41TB 11.29TB 62% online 2 netapp95svm raid_dp,
normal
<略>
netapp95::>
まだ使用中という認識になっている???
いろいろ調べた結果、ONTAP 8.3より導入されたVolume Recovery Queueにより、削除したボリュームは12時間残しておく、という機能によるものだった。
・How to use the Volume Recovery Queue feature in clustered Data ONTAP 8.3
・How to enable the volume recovery queue in clustered Data ONTAP 8.3
・After deleting a volume, the volume is brought offline with type DEL
強制的に削除するにはdiagモードにあるvolume recovery-queue purgeを使用する。
netapp95::> set diag
Warning: These diagnostic commands are for use by NetApp personnel only.
Do you want to continue? {y|n}: y
netapp95::*> volume recovery-queue show
Vserver Volume Deletion Request Time Retention Hours
--------- ----------- ------------------------ ---------------
netapp95svm vol211_1032_1032
Thu Jan 16 14:33:18 2020 12
netapp95::*>
上記の「volume recovery-queue show」で現在保持している削除したボリュームを確認できる。
削除は「volume recovery-queue purge -vserver netapp95svm -volume vol211_1032_1032」というような感じで実行する。
netapp95::*> volume recovery-queue purge -vserver netapp95svm -volume vol211_1032_1032
Queued private job: 251
netapp95::*> volume recovery-queue show
This table is currently empty.
netapp95::*>
消えたのでaggregateは復活したはず!!!
netapp95::*> df -A -h
Aggregate total used avail capacity
<略>
aggr名 29TB 18TB 11TB 61%
aggr名/.snapshot 0B 0B 0B 0%
<略>
netapp95::*>
あれ????
なぜだろー??
なぜだろー???としばらく検索してから、再度実行
netapp95::*> df -A -h
Aggregate total used avail capacity
<略>
aggr名 29TB 16TB 12TB 57%
aggr名/.snapshot 0B 0B 0B 0%
<略>
netapp95::*>
おや?空き容量が少し増えてる?
「df -A」の実行に切り替えてみると、徐々に空き容量が増えていっていることが判明。
どうやら内部処理に時間がかかっているだけのようでした。
ちなみに別件でトラブった時にサポートに聞いたら、この徐々に空き容量が増える、という内部処理を無くすことはできない、とのことでした。