スポンサーリンク
HDD製造メーカの一つ、シーゲートが次世代HDDのインタフェースとして、なんとNVMe接続を提唱している。
どういう背景があるのか見ていこう。
ストレージに関するニュースのまとめはこちら。
HDDのインタフェースは現状はSATAかSASだ。その前はIDEなんてものだった。
古い規格からくる転送速度の遅さはいかんともしがたいが、HDDという記録媒体の読み書きの遅さからあまり問題になっていない。
だからSSDがSATAからNVMeに移って主戦場が速さを競うものになっているのに、HDDはずっとSATAやSASのままだ。
ここにきて別の観点からHDDのインタフェースを換える話が出てきた。
シーゲート NVMe HDD 2503 出典:シーゲート
本文は英語なので翻訳した情報で紹介する。
シーゲートによれば、
機械学習データセットにはペタバイト規模のストレージが必要。AI を支えるストレージ インフラストラクチャは、もはや IT の問題ではなく、AI イノベーションそのものの核となる要素となっている。
従来のストレージアーキテクチャでは、AIの活用を遅らせる要因が3つあるという。
1 SSD ベースのアーキテクチャは高速パフォーマンスを実現するが導入コストが高いため、AI トレーニング ワークロードの大規模なストレージ ニーズには実用的ではない。
2 SAS/SATA インターフェイスは、AI ワークロードの高スループット、低レイテンシのニーズに合わせて設計されていない。AI の導入が拡大するにつれて、これらの要因によって複雑さとレイテンシが増加し、AI モデルが大量のデータセットにすばやくアクセスすることが難しくなる。
3 クラウドベースのストレージに依存する AI ワークロードでは、WAN データ転送コストが高く、レイテンシが増加する。これらの非効率性により、AI モデルの応答性が制限される。
これらを解決するためNVMeインタフェースのHDDを開発中という。
記事にメリットが書かれている。
1 プロセッサとインターフェイスするためのハードウェア アダプターがなくなるため、NVMe HDDは AI ストレージの導入を簡素化し、大規模な AI ストレージ環境を構築できるようになる。
2 単一の NVMe ドライバーと OS スタックにより、これらのドライブはハード ドライブと SSD が効率的に連携して動作することを保証し、個別のソフトウェア レイヤーの必要性を排除する。
3 CPU のボトルネックを回避し、DPU を介して GPU からストレージへのデータ アクセスを直接実行できる。
なんと、NVMeにすればGPUが直接ストレージにアクセスできる?SSDでもできるのかな。
NVMe ハードドライブを SSD と併用することで、組織はパフォーマンスを維持しながらコストを最適化し、アクティブなデータセット用に SSD を予約し、長期的な AI トレーニング データの保持にハードドライブを使用できるようになります。
NVMeというインタフェースを共通化することで、ティアリングをストレージ側で賄うことができるようになるのかな?
従来はティアリングはCPUが介在してSSDとHDDの間でデータ配置を指示しなければならなかった。SSDがHDDのキャッシュとして扱われるようになれば、(今もDRAMがキャッシュとしてHDDに載っているはずだが)大容量高速ストレージとしてAI向けに使えそうだ。
SSDとHDDのいいところを選んで1つで提供する。古くて新しい要望に対応したものといえよう。
開発は30TB超の新世代のHDDアーキテクチャを使って進められているようだ。
このことからもわかるが、製品が出たとしても自作PCで使うわけではなく、データセンタのサーバに実装される用途だ。
おそらく高いし、とてつもない大容量だろう。
ただここで培われた技術は自作PC用にも降りてくると思う。SATA,SASの天下は案外短いのかもしれない。
PR