本ページはプロモーションが含まれています。
  
 

【DM-SMR】久々NAS4Freeが壊れる DM-SMRドライブを検証だ

 

スポンサーリンク

 
【DM-SMR】久々NAS4Freeが壊れる DM-SMRドライブを検証だ
   

Nas4Free(Xigma NAS)で構築したファイルサーバのHDDが3か月ぶりに壊れた。
さあ今回はうまく交換できるかなと思ったら、やっぱりはまったのだ。
NAS4Free/Xigma NASについてのまとめはこちら。

  
このストレージの記事もチェック!
  

故障の発見

いつものように週1回バックアップしている。
今回も自作メインPCのJisaku7でEaseUS Todo Backupを使ってバックアップファイルを作り、
NAS4Freeを起動してバックアップファイルをコピーした。

世代管理しているので、バックアップを続けると当然だが容量がなくなる。このためたまにバックアップ用(重複排除なし)からアーカイブ用(重複排除あり)に移動して、バックアップ用の領域、3TB×5台のRAID-Zの容量をあけている。
この移動がZFSの重複排除のためか、あるいは増設したHDDにつないでいるSATAカードがマザーボードではなくPCI/e x4接続のためなのか、非常に遅い。

まあ、重複排除の計算をするのであれば相当CPUパワーを使うはずなので、簡単にコピーできないのだろう。今回も数TBの容量を移動するために1週間くらいつけっぱなしで移動させた。
前回もこういうタイミングでHDDが壊れたと思うが、案の定、今回も壊れた。またDEGRADEDになっていた。

DEGRADED

DEGRADED

HDDドライブを交換してReplce開始

前回の宿題で、6TBのDM-SMRドライブを使ったReplaceができなかったので、壊れた(と判断した)3TBドライブを再度RAIDに組み込んで、使ってきた。壊れるべくして壊れた。

このため、今回こそDM-SMRドライブでZFSのRAIDを復旧できるかの実験をするわけだ。
DM-SMRであるとわかっている、WDのBlueライン、WD60EZAZで今回もReplaceしてみた。

以前にも書いた手順で、故障ドライブを新品に交換する。つまり、

  1. 故障したドライブのシリアル番号を記録
  2. 電源オフの状態で、故障したドライブを新品に交換
    在庫の6TBデスクトップモデルを使用する。
    【在庫限り!ファイナルセール!】 Western Digital HDD 6TB WD Blue PC 3.5インチ 内蔵HDD 【国内正規代理店品】 WD60EZAZ-RT

    アフィリエイト広告  ここから購入いただきますと当ブログに報酬が支払われ、運営資金になります。

  3. ZFSのメニューからReplaceを実施
    REPLACE実施

    REPLACE実施

    REPLACE実施

    REPLACE実施

    REPLACE実施

    REPLACE実施

これで以前はうまくいったが、DM-SMRの影響なのか、6TBのドライブに交換するようになってから必ず失敗するようになった。CMRの4TBまでは問題なかったのだが。

今回も結局一晩を経て状況を確認したが、Replace中のエラーがあるわけでもないのに成功していない。
なぜか新しいドライブはREMOVEDとなっており、正常に完了せずRAIDから外された、と見える

REPLACEでエラー

REPLACEでエラー

Replace2回目

ダメと思うがもう一度Replaceを同じドライブで実施。

REPLACE実施(2回目)

REPLACE実施(2回目)

REPLACE実施(2回目)

REPLACE実施(2回目)

2回やってもダメだった。んーー。こりゃだめだな。
これでDM-SMRのドライブはZFSでは使えないことがはっきりした。春先の話しの通りだ。

まずは、CMRの旧型番の4TBドライブを発注。これならReplaceできるだろう。
CMRは旧型番のWD40EZRZだ。EZAZはDM-SMRなのでZFSには使えない。

4TBと6TBのHDD

4TBと6TBのHDD

ミニ知識だが、エラーになったあとでそのままドライブを抜いて差し替えてもうまく認識しない。

プール認識しない

プール認識しない

必ず下記コマンドを実行して、6TBのドライブをプールから解放して、手順通りReplaceを実行する。
エラーのまま4TBドライブに換えたらプールが認識されなくなって焦った。

zpool detach <プール名> <デバイス名>
例えばこのように記述する。

zpool detach pool_200405 ada0

認識しなくなったプールを認識させるには、下記コマンドを実行する。

zpool import -f <プール名>
例えばこのように記述する。

zpool import -f pool_200405

これでダメな時は若干のファイル破損覚悟で下記を行う。
zpool import -F <プール名>
例えばこのように記述する。

zpool import -F pool_200405

今後の対応方針

今後壊れたらどうしようか。

いつかはCMRのドライブはなくなるだろう。そうなる前に対策を考えないといけないな。

  • ZFSにこだわるなら、高価なCMRドライブを買う。
  • 安価なDM-SMRでいくなら、ZFSは諦める。

ZFSでみたかったことはやったので、未練はない。
ただバックアップは必要なので、6TBのドライブでRAID1かRAID5で構成したい。
RAID1なら、それこそ地デジ用のHDL2-AAシリーズでもいい。性能さえ出れば。
とりあえずは、確保できるドライブで使いつづけ、その間に次を考えるか。

故障したドライブの確認

念のため故障したドライブのSMARTを確認する。警告は出ていない。
3600時間か。ぶっ通しなら150日だ。SATAのデスクトップ用HDDを24時間通電用途に
使ってはいけないってよくわかる。

3TBのHDD

3TBのHDD

3TBのSMART

3TBのSMART

Replaceが失敗した6TBも見た。警告は出ていない。ほかの用途に使うか。地デジ用とか。
代替処理済みのセクタ数が多いことが気になる。

6TBのSMART

6TBのSMART

そういえば、地デジ用NASにも同じWD60EZAZを使っているが、こっちではエラーは出ていない。

1週間ぶっ通しで通電したことはないし。
同じ動作条件ではないが、やはりZFSとDM-SMRの組合せは全くだめということだな。
書き込みタイマ延長を探したけど見つからなかったし、海外の対応事例も見たが有効な話はなく、
結局CMRの高価なHDDを買うしかないとわかった。

今後の妄想

DM-SMRでもソフトRAID1なら使えると思われるので、ATX基盤なら6つあるSATAポートをフルに使って
3組のRAID1を構成できる。仮に20TBのドライブを使えば60TBものストレージをオンボードで
作ることができる。(ZFSはもちろん使えないので、重複排除は無理だが)

ただ、20TBもあるとReplace中に故障してデータロストになる確率が高くなるだろう。
RAID1とはいいつつ、2冗長ではなく3冗長にして、2組40TBに抑えたほうがよさそうだ。
って、20TBっていったいいくらするのだろう。

created by Rinker
¥61,430 (2024/03/28 09:04:21時点 楽天市場調べ-詳細)

アフィリエイト広告  ここから購入いただきますと当ブログに報酬が支払われ、運営資金になります。

18TBが9万円くらいなので、11万円としたら66万円か! まだ無理だな。


2023年4月25日追記
その後しばらくはDM-SMRのドライブしかなく、仕方なくCMRを購入できた3TB、4TBのドライブだけをNASに使っていた。
しかし状況が変わって、8TBでもCMRのドライブがWDから出た。WD80EAZZだ。
詳細はこちら。

(Visited 1,344 times, 1 visits today)

PR

   
著者プロフィール
irvine
 ソフトウェア設計、ストレージ設計を経てクラウドにかかわる仕事をしている、東京郊外在住のエンジニア。
 仕事でUS,UK,SGなどの国とかかわる。
 自作PC、スマホ、タブレット、AV機器好き。ドラクエウォークはルーチンワーク。Linuxやストレージ、IT業界の動向は興味を持っている。
 新しい機器、サービスに興味あり。年数回のレビュー(自腹購入、ご依頼)と発表されて興味があるものの新製品机上レビューをやっている。
 2022年はJAPANNEXT様のアンバサダーを務めました。
 

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です