組織は AI を活用した新しいアプリやワークフローの構築を目指しています。しかし、それらをうまく運用するのは難しい場合があります。 複数の AI フレームワークとアプリ環境により、開発者とセキュリティ チームにとって複雑さが生じます。 迅速な推論をより簡単に構築、実行、保護できるソリューションが必要です。
Intel の OpenVINO™ ツールキットは、AI 推論を高速化すると同時に、フットプリントが小さく、一度書けばどこにでも展開できるアプローチを提供するオープンソース ツールキットです。 これにより、開発者は比較的少ないコード行数でスケーラブルかつ効率的な AI ソリューションを作成できます。 開発者は、TensorFlow、PyTorch、ONNX などの一般的なフレームワークを使用してトレーニングされた AI モデルを使用できます。 OpenVINO を使用すると、開発者はまず変換を行い、さらにモデルを最適化および圧縮して応答を高速化できます。 これで、OpenVINO ランタイムをアプリケーションに埋め込んで AI 対応にすることで、AI モデルを展開する準備が整いました。 開発者は、データセンター、クラウド、またはさまざまなハードウェア アーキテクチャのエッジにある軽量コンテナーを介して、AI を組み込んだアプリケーションを展開できます。
開発者は、モデルをアプリケーションと一緒にホストしたり、アプリケーションに埋め込んだりすることを望まない場合があります。 アプリケーションのモデルは随時更新する必要がある場合があり、アプリケーションが提供する機能を提供するために複数のモデルを実行する必要がある場合もあります。 OpenVINO には、クライアント サーバー アーキテクチャでモデルを提供するためのソフトウェア定義の高性能システムである OpenVINO モデル サーバーによるソリューションがあります。 OpenVINO モデル サーバーの利点は次のとおりです。
OpenVINO は AI モデルの最適化、展開、拡張を簡素化しますが、実稼働環境で実行するにはセキュリティも必要です。 F5 NGINX Plus はリバース プロキシとして機能し、AI モデル サーバーのトラフィック管理と保護を提供します。 高可用性構成とアクティブなヘルスチェックにより、NGINX Plus はアプリ、ワークフロー、またはユーザーからのリクエストが稼働中の OpenVINO モデル サーバーに確実に到達できるようにします。 また、HTTPS および mTLS 証明書を使用して、パフォーマンスを低下させることなく、ユーザー アプリケーションとモデル サーバー間の通信を暗号化することもできます。
同じホスト サーバーまたは仮想マシンにデプロイされると、NGINX Plus は受信トラフィックをフィルタリングし、アップストリーム コンテナーの健全性を監視します。 また、パフォーマンスを高速化し、モデル サーバーの作業を軽減するコンテンツ キャッシュも提供します。 この組み合わせにより効率的なセキュリティが実現しますが、NGINX Plus と OpenVINO モデル サーバーを単一の CPU に展開すると、リソースを競合する必要がある場合があります。 これにより、速度低下やパフォーマンス低下が発生する可能性があります。
仮想スイッチング、セキュリティ、ストレージなどのインフラストラクチャ サービスは CPU サイクルを大量に消費する可能性があるため、Intel は CPU コアを解放してアプリケーション パフォーマンスを向上させる Intel® Infrastructure Processing Unit (Intel® IPU) を開発しました。 Intel IPU は、データセンター内のネットワークおよびストレージ インフラストラクチャ機能を安全に高速化することで、システム レベルのリソースをインテリジェントに管理するプログラム可能なネットワーク デバイスです。 これらは、Intel® Xeon® プロセッサーを搭載した Dell PowerEdge R760 サーバーと互換性があり、計算集約型のワークロードに対応するパフォーマンスと汎用性を実現します。 Dell iDRAC 統合管理コントローラとの統合により、IPU の閉ループ熱制御が可能になります。
Dell PowerEdge R760 ラック サーバーで Intel IPU を使用すると、OpenVINO モデル サーバーと F5 NGINX Plus の両方のパフォーマンスが向上します。 Intel IPU 上で NGINX Plus を実行すると、Intel IPU のハードウェア アクセラレータによりパフォーマンスとスケーラビリティが向上します。 この組み合わせにより、AI モデル サーバーで使用可能な CPU リソースも確保されます。
Intel IPU を NGINX Plus と統合すると、NGINX Plus と OpenVINO モデル サーバーの間にセキュリティ エアギャップが作成されます。 この追加のセキュリティ層は、潜在的な共有脆弱性から保護し、AI モデル内の機密データを保護します。
F5、Intel、Dell の統合ソリューションにより、エッジでの AI 推論のサポートが容易になります。 Intel IPU 上の NGINX Plus を使用すると、ビデオ分析や IoT などのエッジ アプリケーションのサポートにおいて、応答がより高速になり、信頼性が向上します。
このソリューションは、最適化されたキャッシュとコンテンツ配信を備えたコンテンツ配信ネットワークにも機能し、環境全体で信頼性を必要とする分散型マイクロサービス展開のサポートも提供します。
ハードウェアとソフトウェアを組み合わせたソリューションにより、どこでも安全かつ一貫して高性能な AI 推論を実現します。 可用性とパフォーマンスを維持しながら、ユーザーと AI 搭載アプリをサポートする AI 推論をデータ センター、クラウド、エッジ サイトに簡単に展開できます。
F5 と Intel のパートナーシップの詳細については、 f5.com/intelをご覧ください。