レイテンシを最小限に抑え、セキュリティを強化し、チームが Kubernetes やその他の環境でモデル推論を高速化できるようにします。 超高速で信頼性が高く、安全な AI 導入を実現します。
AI と機械学習 (AI/ML) のワークロードは、企業の運営とイノベーションの方法に革命をもたらしています。 クベネフィットは、コンテナオーケストレーションと管理の事実上の標準であり、 スケーラブルなAI/MLワークロード および推論モデル。 F5 NGINX は、複雑さと運用コストを削減しながら、ハイブリッド、マルチクラウド Kubernetes 環境全体の AI/ML ワークロードの稼働時間、保護、可視性を大規模に向上させます。
適応型負荷分散、中断のない再構成、A/B テスト、カナリア デプロイメントにより、AI/ML ワークロードを簡単かつ確実に運用化します。 環境間の一貫性を保つことで複雑さを軽減します。
リアルタイムおよび履歴データを使用した広範かつ詳細なメトリックとダッシュボードを使用してアプリの接続の問題を迅速に解決することで、モデルの提供効率、稼働時間、SLA を向上させます。
分散環境全体にわたる強力なセキュリティ制御により、AI/ML ワークロードを保護します。これにより、複雑さやオーバーヘッドが増大したり、リリース速度やパフォーマンスが低下したりすることはありません。
NGINX は、中断することなく新しいモデルの実験と展開を容易にします。 これにより、モデルの健全性とパフォーマンスのメトリックを収集、監視、分析して、モデルの有効性と精度を向上させながら、強力で一貫したセキュリティ制御を通じて総合的な保護を確保できます。
NGINX は、WAF 機能やTLS 暗号化などの強力なセキュリティ機能で Kubernetes 環境を強化し、速度や俊敏性を犠牲にすることなく機密性の高い AI 推論プロセスを保護します。
NGINX の動的スケーリング機能を活用することで、大規模なアーキテクチャの見直しを必要とせずにパフォーマンスとユーザー エクスペリエンスを維持しながら、増加する AI ワークロードを簡単に処理できます。
Ingress コントローラと F5 NGINX Connectivity Stack for Kubernetes が、AI/ML ワークロードのモデルの提供、実験、監視、セキュリティを簡素化および合理化するためにどのように役立つかを説明します。