データ処理ユニット (DPU) は、データ中心のタスクをオフロードして高速化し、中央処理装置 (CPU) を解放してアプリケーション固有のワークロードを処理できるように設計された特殊なプロセッサです。 DPU は高速ネットワーク、ストレージ要求、セキュリティ処理を処理するように設計されており、最新の高密度データ センターや高性能コンピューティング (HPC) の要求に適しています。
DPU とその同等物であるインフラストラクチャ処理ユニット (IPU) は、CPU から一般的なタスクとスループット集約型のタスクをオフロードするという要件に応えます。 暗号化タスク、ストレージ I/O 操作、高帯域幅ネットワーク パケット処理を削減することで、CPU は、コンテナベースのapplications、クラウドまたはハイパーバイザーのパーティショニング、人工知能(AI) の計算集約型タスクに必要な、より高密度のapplicationタスクをターゲットにできるようになります。
主な機能は次のとおりです。
コンピューティング密度と電力使用量がインフラストラクチャのコストメリットの新たな指標となるにつれ、HCI および HPC 環境におけるアプリケーション固有のタスクの CPU パフォーマンスを最適化することがますます重要になっています。 ネットワーク速度とレイテンシの短縮、ストレージ パフォーマンスの向上、およびより多くのユーザーにコンピューティング リソースを提供する必要性により、CPU に要求されるアプリケーション固有ではないタスクにさらなる負担がかかります。 現在受け入れられている成功の尺度は、HPC 業界から採用されたもので、CPU の密度とパフォーマンスによって定義されます。
処理能力データポイントの比率には、以下のものが含まれますが、これらに限定されません。
こうした測定は、HPC によって起動時および時間の経過とともにスーパーコンピュータのパフォーマンスを測定するために長い間使用されており、2 つの業界間のテクノロジの融合が進むにつれて、従来のデータ センターにもますます適用されるようになっています。
DPU は、CPU が低レベルの非計算タスクを処理する必要がある場合にボトルネックになる可能性がある、applicationおよび計算集約型のパイプラインの CPU 可用性を高める方法を提供します。 密度とapplicationタスクが増加するとこれらのタスクは複雑になるため、DPU はこのボトルネックを軽減する方法を提供します。 データセンター インフラストラクチャに DPU を追加することで、CPU が解放され、コアあたりのパフォーマンスが向上します。 あるいは、コンピューティング リソースをパーティション分割してテナント化し、より多くのユーザーがシステム リソースにアクセスできるようにすることもできます。
F5 は、SmartNIC、ASIC、FPGA テクノロジの活用における成功を基に、コンピューティング インフラストラクチャ内の DPU の処理とインライン トラフィックの配置を活用して、HCI/HPC インフラストラクチャのワークロード容量、パフォーマンス、セキュリティを向上します。
F5 は、NVIDIA Bluefield-3 DPU を活用して、コンピューティング リソースを最大限に活用しながら大規模なコンピューティング リソースを構築しようとしているサービス プロバイダーや大企業にさまざまなメリットを提供します。 これらには以下が含まれますが、これらに限定されません。
DPU と F5 の統合ソリューションの詳細については、右側のリソースをクリックしてください。
1科学ベースの HPC 測定の標準測定は、従来、単精度または倍精度の浮動小数点精度 (FP32 および FP64) で構成されていました。 現在の AI のトレンドでは、パフォーマンスを半分以下 (FP16) で測定するようになりました。 より精度の高いメモリ アドレス指定 (浮動小数点および整数データ型) を使用すると、言語モデルのトレーニングが高速化され、メモリ フットプリントが小さくなります。