データ処理ユニット (DPU) とは何ですか?

データ処理ユニット (DPU) は、データ中心のタスクをオフロードして高速化し、中央処理装置 (CPU) を解放してアプリケーション固有のワークロードを処理できるように設計された特殊なプロセッサです。 DPU は高速ネットワーク、ストレージ要求、セキュリティ処理を処理するように設計されており、最新の高密度データ センターや高性能コンピューティング (HPC) の要求に適しています。

DPU を深く理解する

DPU とその同等物であるインフラストラクチャ処理ユニット (IPU) は、CPU から一般的なタスクとスループット集約型のタスクをオフロードするという要件に応えます。 暗号化タスク、ストレージ I/O 操作、高帯域幅ネットワーク パケット処理を削減することで、CPU は、コンテナベースのapplications、クラウドまたはハイパーバイザーのパーティショニング、人工知能(AI) の計算集約型タスクに必要な、より高密度のapplicationタスクをターゲットにできるようになります。

主な機能は次のとおりです。

  • ネットワーキング: DPU はスマート ネットワーク インターフェイス カード (SmartNIC) の機能に基づいて構築されており、ライン レートに近い速度で大量のパケット フローを処理し、VXLAN を含むネットワーク オーバーレイ オフロードを提供し、ファイアウォール サポート、TLS オフロード、負荷分散、トラフィック ルーティングなどのセキュリティおよびapplication配信コントローラ サービスを提供します。 さらに、DPU は、暗号的に安全な疑似乱数ジェネレーター (CSPRNG) にエントロピー ソースを提供できます。
  • ストレージ: DPU は、ホストとストレージ間のデータ転送を高速化し、NVMe (Non-Volatile Memory Express) over Fabrics (oF) プロトコルなどの高度なストレージ プロトコルをサポートし、ソリッド ステート ストレージやハイパーコンバージド インフラストラクチャ (HCI) に必要な速度を向上させます。 DPU は暗号化/復号化のサポート、圧縮、重複排除処理も提供し、CPU の負荷をさらに軽減します。
  • 仮想化: ハイパーバイザーとコンテナベースのネットワーク タスクをオフロードすると、HCI インフラストラクチャをパーティション分割およびテナント化する機能が向上し、ワークロード密度が向上し、インフラストラクチャの ROI が向上します。

DPU を使用するメリット

コンピューティング密度と電力使用量がインフラストラクチャのコストメリットの新たな指標となるにつれ、HCI および HPC 環境におけるアプリケーション固有のタスクの CPU パフォーマンスを最適化することがますます重要になっています。 ネットワーク速度とレイテンシの短縮、ストレージ パフォーマンスの向上、およびより多くのユーザーにコンピューティング リソースを提供する必要性により、CPU に要求されるアプリケーション固有ではないタスクにさらなる負担がかかります。 現在受け入れられている成功の尺度は、HPC 業界から採用されたもので、CPU の密度とパフォーマンスによって定義されます。

処理能力データポイントの比率には、以下のものが含まれますが、これらに限定されません。

  • CPU コア数(ラック、ノード、またはユーザーが使用できる合計数)
  • 1秒あたりの浮動小数点演算回数(FLOPS)1
  • 消費電力(平均およびピークキロワットで測定)
  • 物理的なスペースの測定(平方フィートまたはメートルで測定)

こうした測定は、HPC によって起動時および時間の経過とともにスーパーコンピュータのパフォーマンスを測定するために長い間使用されており、2 つの業界間のテクノロジの融合が進むにつれて、従来のデータ センターにもますます適用されるようになっています。

DPU は、CPU が低レベルの非計算タスクを処理する必要がある場合にボトルネックになる可能性がある、applicationおよび計算集約型のパイプラインの CPU 可用性を高める方法を提供します。 密度とapplicationタスクが増加するとこれらのタスクは複雑になるため、DPU はこのボトルネックを軽減する方法を提供します。 データセンター インフラストラクチャに DPU を追加することで、CPU が解放され、コアあたりのパフォーマンスが向上します。 あるいは、コンピューティング リソースをパーティション分割してテナント化し、より多くのユーザーがシステム リソースにアクセスできるようにすることもできます。

F5 は DPU とどのように連携しますか?

F5 は、SmartNIC、ASIC、FPGA テクノロジの活用における成功を基に、コンピューティング インフラストラクチャ内の DPU の処理とインライン トラフィックの配置を活用して、HCI/HPC インフラストラクチャのワークロード容量、パフォーマンス、セキュリティを向上します。

F5 は、NVIDIA Bluefield-3 DPU を活用して、コンピューティング リソースを最大限に活用しながら大規模なコンピューティング リソースを構築しようとしているサービス プロバイダーや大企業にさまざまなメリットを提供します。 これらには以下が含まれますが、これらに限定されません。

  • 簡素化された統合: F5 は、ネットワーク、セキュリティ、トラフィック管理、負荷分散を、DPU 統合に重点を置いた統合サービス スイートに統合します。 HCI/HPC インフラストラクチャ全体にわたるこれらのサービスの統合ビューと、コンピューティング集約型ワークロードの最適化に必要な可観測性ときめ細かな制御を提供します。
  • 強化されたセキュリティ: F5 は、ファイアウォール、分散型サービス拒否 (DDoS) 緩和、API 保護、暗号化、証明書管理などの重要なセキュリティ機能を DPU にオフロードすることでサポートします。
  • パフォーマンスの向上: F5 は、クラウド規模でapplicationsを配信するための高密度インフラストラクチャに求められる要求を満たすために重要な、ネットワークとセキュリティを高速化します。
  • マルチテナントサポート: F5 はスケーラブルなマルチテナント アーキテクチャを実現し、サービス プロバイダがワークロードとデータを分離して安全に保ちながら、同じインフラストラクチャ上で多数のテナントを安全にホストできるようにします。

DPU と F5 の統合ソリューションの詳細については、右側のリソースをクリックしてください。


1科学ベースの HPC 測定の標準測定は、従来、単精度または倍精度の浮動小数点精度 (FP32 および FP64) で構成されていました。 現在の AI のトレンドでは、パフォーマンスを半分以下 (FP16) で測定するようになりました。 より精度の高いメモリ アドレス指定 (浮動小数点および整数データ型) を使用すると、言語モデルのトレーニングが高速化され、メモリ フットプリントが小さくなります。