生成AI(GenAI)および大規模言語モデル(LLM)が引き起こしたパラダイムシフトにより、世界のテクノロジー産業は「計算資源こそが新たなビジネスの源泉である」という真理に直面しています。最先端モデルのパラメータ数が数千億から数兆規模へと指数関数的に膨張し、さらにマルチモーダル対応やMoE(Mixture of Experts)アーキテクチャの導入が標準化する現代において、圧倒的な計算リソースの確保と効率的な運用は、もはや一部のテックジャイアントだけでなく、あらゆるエンタープライズ企業の生存戦略そのものに直結しています。
単一の強力なサーバーでAI開発が完結した時代はとうに終わりを告げました。現在では数百から数万基のGPUを、テラビット級の超広帯域ネットワークで相互接続し、システム全体を単一の巨大なスーパーコンピュータとして機能させる「GPUクラスタ」がAI開発・運用の主戦場となっています。しかし、数千万ドル、あるいは数十億ドル規模の巨額投資を要するこのインフラ領域は、単に最新のハードウェアを買い集めて並べれば解決するほど単純ではありません。数百kWに達するラック電力密度の限界、ノード間通信のマイクロ秒単位のレイテンシ、データ・グラビティの呪縛、そして極めて複雑な分散学習のオーケストレーションなど、無数の技術的落とし穴が口を開けています。
本稿では、テクノロジー専門メディア「TechShift」の視点から、GPUクラスタを構成する最先端のコンピュート、ネットワーク、ストレージの深層アーキテクチャを徹底的に解剖します。さらに、NVIDIA一強体制への挑戦となるAMDの台頭、クラウドとオンプレミスのハイブリッド戦略、そして2030年を見据えた次世代データセンターの物理的課題に至るまで、CTOやインフラエンジニアが直面するあらゆる課題に対する包括的な技術解説と、実務に即した投資ロードマップを提供します。
- GPUクラスタとは?LLM・HPC時代に不可欠な計算基盤の全貌
- 単体GPUとの違いと「マルチノード学習」がもたらす圧倒的メリット
- クラスタを構成する3大コア要素(コンピュート・ネットワーク・ストレージ)
- 技術的落とし穴:MFUの低下とチェックポイント・ストーム
- 分散学習のボトルネックを打破する「高速ネットワーク」の必須知識
- 通信遅延を極限まで削るRDMAとGPUDirectの仕組み
- InfiniBand vs RoCEv2:クラスタ規模に応じた最適な選択基準
- 2026年以降のネットワーク予測:UECの台頭とスケールアップ/アウトの分離
- 【NVIDIA vs AMD】最新GPUの選定とデータセンターが直面する物理的課題
- Blackwellの進化と不可避となる「液冷」・電力密度問題
- NVIDIA一強への挑戦:AMD MI300Xとオープンエコシステムの真価
- データセンターの「メガワットの壁」と次世代ファシリティ戦略
- オンプレミス vs クラウド:自社に最適なクラスタ構築・運用戦略
- OCI GPUなどを活用したクラウドでの俊敏な環境構築(IaC)
- オンプレミスの大規模事例から学ぶ、Slurmを活用した高効率なジョブ管理
- ハイブリッド環境におけるデータ転送コスト(Egress)とFinOpsの罠
- TechShift流:次世代AIインフラを制する技術選定と投資のロードマップ
- 学習から「推論特化型クラスタ」への需要シフトとROIの最大化
- 設備投資のサイロ化を防ぐ、スケーラブルなインフラ設計の鉄則
- 2030年のシナリオ:シリコンフォトニクスとAIファクトリーの完成
GPUクラスタとは?LLM・HPC時代に不可欠な計算基盤の全貌
現代のAI開発において、GPUクラスタ構築を単なる「強力なサーバーの集合体」と捉えるのは致命的な誤りです。最新鋭のアクセラレータをただ調達して並べるだけでは、性能は決して線形にスケールしません。いかにハードウェアのアイドルタイムを極限まで削り、効率的な分散学習を実現するかが、インフラ設計における最大の焦点となります。
単体GPUとの違いと「マルチノード学習」がもたらす圧倒的メリット
単一のGPUサーバー(一般的に1ノードあたり最大8基のGPUを搭載、例えばNVIDIA HGXベースのシステムなど)で対応できるのは、せいぜい数十億パラメータ規模の小規模なモデルのファインチューニングや、バッチサイズの小さい限定的な推論タスクに限られます。最先端の基盤モデル(例えばGPT-4やLlama 3レベル)をゼロから事前学習(プレトレーニング)する場合、必要な演算量は数百ZettaFLOPSに達し、単一サーバーでは処理完了までに数十年という非現実的な時間を要します。ここで不可欠となるのが、複数のサーバー(ノード)を束ねて計算を並列化するマルチノード学習です。
マルチノード学習では、単にデータを分割して処理する「データ並列(Data Parallelism)」だけではVRAM(ビデオメモリ)が枯渇するため、巨大なモデルそのものを複数のGPUメモリに分割配置する「テンソル並列(Tensor Parallelism)」や、ニューラルネットワークの層をノードごとに分割する「パイプライン並列(Pipeline Parallelism)」を組み合わせた高度な「3D並列化技術」が駆使されます。さらに近年では、MicrosoftのDeepSpeedライブラリが提供する「ZeRO(Zero Redundancy Optimizer)」アーキテクチャや、Sequence Parallelismといった先進的なメモリ最適化手法が導入されており、限られたVRAMの中でより長大なコンテキスト長(トークン数)の学習が可能になっています。
数千GPUを跨ぐ膨大な計算ジョブのスケジューリングには、SlurmやKubernetes(Volcanoスケジューラ等)といったHPC向けワークロードマネージャーが標準的に採用されます。これらは、障害発生時のフェイルオーバーやジョブの再実行を自動化し、途方もない規模のクラスタを単一の統合環境として制御するための「脳」として機能します。
クラスタを構成する3大コア要素(コンピュート・ネットワーク・ストレージ)
圧倒的なパフォーマンスを発揮するGPUクラスタは、主に以下の3つのコア要素が緻密に連携することで成立しています。どれか一つでもボトルネックになれば、システム全体の稼働率は著しく低下します。
- コンピュート(計算資源):クラスタの心臓部です。現在はAI市場を牽引するNVIDIAのH100や次世代のBlackwellアーキテクチャがデファクトスタンダードとして君臨していますが、広帯域なHBM3メモリ容量に優位性を持つAMDのMI300Xを強力なオルタナティブとして本格導入するメガクラウドや研究機関が急増しています。
- ネットワーク(通信基盤):分散学習の効率は「GPU間の通信遅延」に完全に依存します。ノード間でモデルの重みや勾配データを毎秒同期する際、従来のTCP/IP通信ではCPUのオーバーヘッドが致命傷になります。そのため、CPUを介さずにメモリ間を直接通信するRDMA(Remote Direct Memory Access)技術と、ロスレス・ファブリックが事実上の必須要件となります。
- ストレージ(データ基盤):クラスタ運用において最も見落とされがちなのがI/O性能です。数万基のGPUが同時にペタバイト級のデータセットにアクセスするための並列分散ファイルシステム(Lustre, WEKA, VAST Dataなど)が不可欠です。
技術的落とし穴:MFUの低下とチェックポイント・ストーム
クラスタ構築における最大の技術的指標の一つにMFU(Model Flops Utilization:モデル・フロップス利用率)があります。これは、GPUの理論上の最大演算性能に対して、実際のモデル学習時にどれだけの演算性能を引き出せているかを示す指標です。優れたクラスタ設計であっても、巨大LLMの学習時のMFUは40%〜60%にとどまることが多く、残りの時間は「データのロード待ち」や「他ノードからの通信待ち」によるアイドルタイム(待機時間)として浪費されています。
特に深刻な落とし穴となるのが「チェックポイント・ストーム」です。数時間ごとにテラバイト級の「学習の途中経過(チェックポイント)」を一斉にストレージへ書き込む際、ネットワーク帯域がストレージI/Oによって完全に飽和し、計算処理が長時間停止する現象です。これを防ぐため、NVIDIAのGPUDirect Storage (GDS)を利用してGPUメモリからNVMeストレージへCPUをバイパスして直接データを書き込む技術や、非同期での階層型チェックポイント保存手法の導入が、実務上の必須テクニックとなっています。
分散学習のボトルネックを打破する「高速ネットワーク」の必須知識
前セクションで解説したように、強力なコンピュートノードを並べただけでは理想的なGPUクラスタは完成しません。数千億パラメータを誇るモデルの学習では、All-ReduceやAll-Gatherといった集団通信操作を通じて、GPU間で膨大な勾配データや重みを同期し続ける必要があり、ネットワークのわずかな遅延がクラスタ全体のMFUを劇的に引き下げます。
通信遅延を極限まで削るRDMAとGPUDirectの仕組み
100Gbpsや400Gbpsを超える帯域幅で汎用的なTCP/IP通信を行うと、データ受信のたびにOSのカーネル空間とユーザー空間を行き来する「コンテキストスイッチ」と、それに伴うメモリコピーの連鎖が発生し、パケット処理だけでCPUコアが完全に占有されてしまいます。この根本的な欠陥を回避する技術がRDMA(Remote Direct Memory Access)です。RDMAはOSカーネルの介入を完全にバイパスし、NIC(ネットワークインターフェースカード)が直接相手先ノードのメモリに対してデータの読み書きを行います。
さらに、現代のクラスタで必須となっているのが、NVIDIAが提唱する「GPUDirect RDMA」です。通常のRDMAではシステム(CPU)メモリを一度経由する無駄な経路を辿りますが、GPUDirect RDMAを利用すれば、PCIeスイッチを介してGPUメモリとNICが直接データを送受信できます。これにより、ノード間の通信オーバーヘッドは数マイクロ秒レベルにまで圧縮され、GPUは純粋な行列演算のみにリソースを集中させることが可能になります。
InfiniBand vs RoCEv2:クラスタ規模に応じた最適な選択基準
RDMAを実装するための物理ネットワークとして、インフラエンジニアは現在「InfiniBand」と「RoCEv2(RDMA over Converged Ethernet)」の二者択一という悩ましい課題に直面しています。
| 比較項目 | InfiniBand (NDR / XDR) | RoCEv2 (Ethernet) |
|---|---|---|
| アーキテクチャ | ハードウェアレベルのロスレス(クレジットベースのフロー制御) | イーサネットベース(PFC/ECN等の高度なQoSチューニング必須) |
| 通信遅延(レイテンシ) | 超低遅延(安定して1〜2マイクロ秒)、SHARPによる計算オフロード | 低遅延(数マイクロ秒〜、ネットワークの輻輳状態に強く依存) |
| コストと調達難易度 | 非常に高価、スイッチや光トランシーバの調達リードタイムが長い | 比較的安価、マルチベンダー構成が可能で既存インフラ技術を流用しやすい |
| 最適なクラスタ規模 | 1,024 GPU以上の超大規模LLM事前学習 | 数十〜数百 GPU程度の中規模学習、または推論特化型クラスタ |
InfiniBandの圧倒的優位性:
InfiniBandはクレジットベースのフロー制御を採用しており、極限の負荷がかかる数千ノード規模の同期通信においてパケットロスを物理的に防ぐ設計になっています。また、ネットワークスイッチ上でデータ集約(All-Reduce等)の演算を実行してしまう「SHARP(Scalable Hierarchical Aggregation and Reduction Protocol)」機能により、GPU間の通信トラフィックを半減させる魔法のような効果をもたらします。大規模事前学習においては、事実上InfiniBand一択という状況が続いています。
RoCEv2の台頭とクラウドでの成功例:
一方で、特定のベンダーへの依存を避けたいハイパースケーラーを中心に、イーサネット上でRDMAをカプセル化するRoCEv2の採用が進んでいます。従来はパケットロス時の性能低下(PFCストームなどの輻輳問題)が課題でしたが、高度なトラフィック制御やスマートNIC(DPU)の進化により、状況は改善されています。例えば、OCI GPUクラスタ(Oracle Cloud Infrastructure)などは、極限までチューニングされたRoCEv2ベースのノンブロッキング・ネットワークを採用し、InfiniBandに匹敵するスループットを低コストで実現しています。
2026年以降のネットワーク予測:UECの台頭とスケールアップ/アウトの分離
ネットワーク技術は現在、過渡期にあります。2026年以降の予測シナリオとして、RoCEv2の課題を根本から解決するために結成された「Ultra Ethernet Consortium (UEC)」の規格が本格的に市場へ投入される見込みです。UECは、パケットスプレー(複数経路へのデータの細分化送信)や柔軟な順序制御をプロトコルレベルで実装し、AIワークロードに特化した次世代のロスレス・イーサネットを標準化しようとしています。
また、アーキテクチャの観点では「スケールアップ」と「スケールアウト」の明確な分離が進んでいます。NVIDIAの次世代システムでは、ラック内のGPU間通信は独自の銅線バックプレーンとNVLink / NVSwitchを用いて最大1.8TB/sの「スケールアップ(一つの巨大なGPUとしての統合)」を行い、ラック間の通信にのみInfiniBandやEthernetを用いる「スケールアウト」の二段構えが主流となります。これにより、インフラ設計のパラダイムは「ノード単位」から「ラック単位」へと劇的に変化しつつあります。
【NVIDIA vs AMD】最新GPUの選定とデータセンターが直面する物理的課題
クラスタの「神経系」であるネットワーク環境が整備されても、それを駆動する「心臓部」であるGPUチップ本体と、それを収容するデータセンターのファシリティが、かつてない物理的限界に直面しています。
Blackwellの進化と不可避となる「液冷」・電力密度問題
NVIDIAのH100や、続く次世代のBlackwell (B200 / GB200)アーキテクチャは、FP8やFP4といった低精度演算を活用することで、LLM学習・推論において桁違いのスループットを叩き出します。しかし、その圧倒的パフォーマンスの代償として、インフラエンジニアは「電力密度と冷却の限界」という物理的ハードルを越えなければなりません。
H100のTDP(熱設計電力)は単体で700Wでしたが、Blackwellでは1,000Wを超過します。これを搭載したHGXサーバーを数台マウントするだけで、標準的な42Uラックの消費電力は40kW〜60kWを容易に突破します。さらに前述のGB200 NVL72(ラック単位での統合システム)に至っては、1ラックあたり120kWという狂気的な電力を要求します。従来型の空冷データセンター(ラックあたり10〜15kW設計)では稼働すら不可能です。これをクリアするためには、以下のような抜本的なファシリティ投資が不可避となります。
- Direct-to-Chip(D2C)液冷の導入:高熱源となるGPUダイに直接コールドプレートを密着させ、CDU(冷却水分配ユニット)を通じて液体を循環させるシステムの標準化。
- 床荷重と配管設備の改修:液冷設備の導入と高密度化によるラック重量の増大(1.5トン超)に対応するフロア補強。
NVIDIA一強への挑戦:AMD MI300Xとオープンエコシステムの真価
NVIDIA製GPUはCUDAという強固なソフトウェアの堀によりデファクトスタンダードとなっていますが、深刻な調達難と1基あたり数百万円に及ぶコスト高は、AIプロジェクトにおける最大の懸念です。ここでNVIDIA一強市場への強力なチャレンジャーとして台頭しているのが、AMDの「Instinct MI300X」です。
MI300Xの最大の武器は、192GBという広大なHBM3メモリと、5.3TB/sの圧倒的なメモリ帯域幅です。LLMが巨大化する中、メモリ容量の多さはGPUノードをまたぐテンソルデータの転送頻度を物理的に下げ、結果としてネットワークへの依存度を低減させます。特に、コンテキスト長の長い推論タスクや、複数の専門家モデルをロードしておく必要があるMoE(Mixture of Experts)アーキテクチャにおいては、広大なVRAMが決定的な優位性をもたらします。
これまでAMDの弱点とされてきたソフトウェアスタックも、オープンソース環境「ROCm」の進化により劇的に改善されています。PyTorch 2.x系において、開発者はコードをほぼ書き換えることなく、マルチノード学習やvLLMを用いた高速推論をMI300X上で実行可能になっています。さらにAMDは、Intel等と共同で「UALink(Ultra Accelerator Link)」というオープンなチップ間通信規格を策定しており、NVIDIAの独自規格(NVLink)への包囲網を急速に狭めています。
データセンターの「メガワットの壁」と次世代ファシリティ戦略
数万基のGPUクラスタを構築する場合、データセンター全体で数十メガワット(MW)、場合によっては100MWを超える電力を要求されます。これは地方都市一つ分の消費電力に匹敵します。2026年以降の実用化課題として、単なるハードウェアの調達だけでなく、「いかにしてクリーンかつ大容量の電力を確保するか」がAI覇権の鍵を握ります。米国では、メガクラウド事業者が原子力発電所(SMR:小型モジュール炉を含む)の隣接地に専用のAIデータセンターを建設し、電力を直接買い取る契約を結ぶといった、国家インフラレベルの戦略的投資が現実のものとなっています。
オンプレミス vs クラウド:自社に最適なクラスタ構築・運用戦略
どれほど優秀なハードウェアとネットワークを揃えても、ビジネスのフェーズや予算に合致した「構築・運用戦略」が欠如していれば、莫大なインフラ投資はクラウドのランニングコストの暴走や、オンプレミス環境の陳腐化によってあっという間に食いつぶされてしまいます。ここでは、実務に直結するROI(投資対効果)を最大化するハイブリッド戦略を紐解きます。
OCI GPUなどを活用したクラウドでの俊敏な環境構築(IaC)
AI開発の初期フェーズ、あるいは突発的な実験需要に対しては、クラウドの俊敏性が圧倒的な威力を発揮します。特に近年エンタープライズの支持を集めているのが、OCI GPUをはじめとする「ベアメタル」を提供するクラウドサービスです。仮想化のオーバーヘッドを極限まで削ぎ落とし、H100やMI300Xを低遅延なRDMAクラスタ・ネットワークで直結できる点で高く評価されています。
クラウド運用において、GUIコンソールから手動でリソースを立ち上げるのはもはやアンチパターンです。TerraformやAnsibleといったIaC(Infrastructure as Code)ツールを活用し、数十ノードに及ぶ分散学習環境をAPI経由で数分でデプロイし、ジョブ完了と同時に自動破棄するスクリプトをCI/CDパイプラインに組み込むことで、秒単位での課金最適化を実現します。
オンプレミスの大規模事例から学ぶ、Slurmを活用した高効率なジョブ管理
一方で、自社の基盤モデルを継続的に事前学習するフェーズに入ると、クラウドの従量課金は「青天井」のコストリスクへと豹変します。数億円の初期投資を行ってでも、自社専用のGPUクラスタ(オンプレミス)を構築した方が、3〜5年スパンのTCO(総所有コスト)では劇的に有利になるケースが多々あります。
オンプレミス環境における最大の至上命題は、「高価なGPUの稼働率(Utilization)をいかに100%に近づけるか」です。ここで活躍するのがSlurm(Simple Linux Utility for Resource Management)です。Slurmは、複数チームからのジョブ要求に対して、過去のリソース消費量や優先度に基づくフェアシェアリング(公平な割り当て)を実行し、計算資源のサイロ化を防止します。また、InfiniBandのトポロジを意識し、同一スイッチ配下にあるノード群を優先的に割り当てる「トポロジ・アウェア」なスケジューリングにより、通信遅延を最小化する高度な運用が日常的に行われます。
ハイブリッド環境におけるデータ転送コスト(Egress)とFinOpsの罠
CTOが取るべき現実的な最適解は、オンプレミスとクラウドを組み合わせた「ハイブリッド・アーキテクチャ」です。ベースロードをオンプレミスで処理し、突発的なバーストトラフィックをクラウドへ逃がす設計です。しかし、ここで陥りがちなのが「データ・グラビティ(データの重力)」と「Egress(データ下り転送)料金」の罠です。
ペタバイト級の学習データやテラバイト級のモデルチェックポイントをクラウドとオンプレミス間で頻繁に移動させると、クラウド事業者から莫大なネットワーク転送料金を請求されることになります。FinOps(クラウドコストの最適化)の観点からは、計算リソースを動かすのではなく、「データが保存されている場所の近くに計算リソースを配置する」設計思想が不可欠です。近年では、プライバシーとセキュリティを担保する「ソブリンAI(データ主権を保ったAI)」の観点からも、機密性の高い中核データの処理はオンプレミスに留め、公開データによる追加学習をクラウドで行うといったデータの階層化管理が求められています。
TechShift流:次世代AIインフラを制する技術選定と投資のロードマップ
企業がAIインフラを長期的な競争力の源泉とするためには、現場の技術的な構築論を「経営・戦略レベルの投資ロードマップ」へと昇華させる必要があります。数億円〜数十億円規模の設備投資を無駄にせず、長期的なROIを最大化するためのTechShift独自の戦略を提示します。
学習から「推論特化型クラスタ」への需要シフトとROIの最大化
現在、多くのエンタープライズにおいて、基盤モデルを一から鍛え上げるフェーズは一巡しつつあります。今後の主戦場は、RAG(Retrieval-Augmented Generation)やエージェントAIを活用し、自社の独自データを組み合わせて価値を創出する「推論(Inference)」へと急速にシフトしています。
学習フェーズの最重要KPIが「Time-to-Train(学習完了までの時間)」であったのに対し、推論フェーズでは「TTFT(Time To First Token:最初のトークンが出力されるまでの時間)」と「TPOT(Time Per Output Token:1トークンあたりの生成時間)」、そしてバッチ処理による全体のスループットが極めて重要になります。
推論特化型クラスタにおいては、極限の低遅延を追求するInfiniBandの必要性は薄れ、広帯域メモリによるバッチサイズの最大化がROIに直結します。ここで、vLLMなどの推論最適化エンジンと、その中核技術であるPagedAttention(OSの仮想メモリのページングのようにKVキャッシュを効率的に管理する技術)を活用することで、AMD MI300XやNVIDIA L40S、H200といったメモリ容量に優れたGPUのポテンシャルを極限まで引き出すことが可能です。
設備投資のサイロ化を防ぐ、スケーラブルなインフラ設計の鉄則
AIインフラ投資において最も避けるべき罠が「設備投資のサイロ化」です。研究開発部門がオンプレミスに学習環境を構築し、事業部門がクラウド上で別個に推論APIを展開するといった分断が起きると、GPUのアイドルタイムが増大します。
これを防ぐ鉄則は、KubernetesやSlurmを用いた全社横断的なオーケストレーション基盤の導入です。日中は推論APIとしてGPUリソースをフル稼働させ、トラフィックが落ち着く夜間には、自動的にバッチ処理的なマルチノード学習やデータ前処理ジョブへとリソースを再割り当てする「動的プロビジョニング」を実現することで、TCOを劇的に改善できます。また、Triton Inference Serverのような抽象化レイヤーを挟むことで、NVIDIAとAMDのマルチベンダー環境をシームレスに統合し、特定のハードウェアへのロックインを回避する戦略が不可欠です。
2030年のシナリオ:シリコンフォトニクスとAIファクトリーの完成
最後に、2026年から2030年に向けた中長期的な展望に触れておきましょう。現在、GPU間の通信は基板上の銅線配線や光トランシーバの限界に直面していますが、将来的には「シリコンフォトニクス(オプティカルI/O)」技術により、GPUチップから直接光信号を出力し、ラックやデータセンター全体を遅延ゼロで結合するアーキテクチャが実用化されます。これにより、物理的なサーバー筐体の概念は消失し、データセンター全体が一つの巨大なGPUとして振る舞う「AIファクトリー」が完成します。
次世代のAIインフラを制する企業は、単に「最速のハードウェアを大量に調達する」企業ではありません。ビジネスのフェーズに合わせて学習と推論のコンピュートリソースを動的に組み替え、オンプレミスとクラウドの境界線を意識させない、強固かつ柔軟な統合基盤を持つ企業です。この技術的知見とロードマップを指針として、変化の激しいAIハードウェア市場において、自社に最適な投資戦略とインフラ設計を描き出してください。
よくある質問(FAQ)
Q. GPUクラスタとは何ですか?
A. 数百から数万基のGPUをテラビット級の超広帯域ネットワークで相互接続し、単一の巨大なスーパーコンピュータとして機能させるシステムです。単一の強力なサーバーでは対応できない、大規模言語モデル(LLM)や生成AIの開発・運用に不可欠な計算基盤となっています。
Q. 単体GPUとGPUクラスタの違いは何ですか?
A. 単体GPUは1台のサーバー内で完結するため、計算能力やメモリ容量に限界があります。一方、GPUクラスタは「マルチノード学習」により複数台のサーバーを連携させるため、数千億から数兆パラメータ規模の最先端AIモデルであっても、圧倒的なスピードで学習できる点が異なります。
Q. GPUクラスタ構築の課題や落とし穴は何ですか?
A. 単にハードウェアを並べるだけでは機能せず、数百kWに達する電力密度の限界やノード間通信の通信遅延が課題となります。さらに、分散学習の制御による計算効率(MFU)の低下や、データ保存時に発生するチェックポイント・ストームなどの技術的落とし穴も存在します。