ブログ

通信事業者がジェネレーティブ AI を次のレベルに引き上げる方法

アリックス・ルコンテ サムネイル
アリックス・ルコント
2024年2月20日公開

過去 18 か月間、生成 AI (GenAI) は世界を席巻してきました。 

ChatGPT や DALL-E などの新しいサービスは、ユーザーからの自然言語プロンプトに応じてテキスト、画像、ソフトウェア コードを生成できます。  

生産性の新たなレベルが実現可能となり、ブルームバーグ・インテリジェンスの最近の調査によると、GenAI 市場は 2032 年までに 1.3 兆米ドルにも達する可能性があります。

このテクノロジーの価値がはっきりと明らかになったことで、コンピューターが信頼性の高いテキストやその他のコンテンツを生成できるようにする大規模言語モデル (LLM) の業界および地域固有のバージョンを作成する動きが高まり始めています。 

LLM は、膨大な量のデータでトレーニングされた統計言語モデルです。 テキストやその他のコンテンツを生成および翻訳したり、自然言語処理タスクを実行したりするために使用できます。 LLM は通常、ディープラーニング アーキテクチャに基づいています。 

世界中で、先駆的な通信事業者はすでに、これらの専門的な LLM の提供とセキュリティにおいて主要な役割を果たす準備を整えています。特に、必要なコンピューティング インフラストラクチャを自前で構築する余裕のない企業、新興企業、大学、行政機関からのエンドツーエンドの GenAI ソリューションに対する強い需要を予想しています。

これは注目に値するトレンドであり、適切なセキュリティ保護手段を講じれば、LLM-as-a-Service ソリューションは、医療、教育、輸送、その他の主要分野 (通信を含む) 向けの特定の GenAI アプリケーションの開発にすぐに使用される可能性があります。

課題

では、これらすべてを実現するための次のステップは何でしょうか。また、今後待ち受ける主な課題は何でしょうか。

LLM は応答性が高く、信頼性が高く、常に利用可能である必要があるため、多くの LLM は複数のクラウドとネットワーク エッジの場所に分散される可能性があります。

実際、適切なレイテンシがあれば、ユーザーはリアルタイムの「会話型」応答を必要とするため、GenAI は通信事業者のエッジ提案に不可欠なものとなるでしょう。

収益の拡大に苦戦している通信事業者にとって、専門的な GenAI システムをサポートするエッジ インフラストラクチャを提供することは、新たな大きな市場となる可能性があります。 ブルームバーグ インテリジェンスは、GenAI のインフラストラクチャ サービス市場 (LLM のトレーニングに使用) は 2032 年までに 2,470 億米ドルの価値に達すると予測しています。

それでも、GenAI で大儲けしたい人は慎重に行動する必要があります。

潜在的な攻撃対象領域が拡大する可能性がある分散アーキテクチャでは、AI のトレーニング段階と推論段階の両方でデータや個人を特定できる情報の漏洩を防ぐための堅牢でスケーラブルなセキュリティ ソリューションが必要です。 

悪意のある行為者が複数の相互接続されたシステムにまたがってラテラルムーブメント技術を利用するケースが増えているため、通信事業者はサードパーティが LLM-as-a-Service にアクセスするために使用するアプリAPI の両方を保護することが重要です。 この点についての認識を高めるために、Open Source Foundation for Application Security (OWASP) は最近、開発者、設計者、アーキテクト、管理者、組織を対象に、LLM の導入と管理時に潜在的なセキュリティ リスクがあることを教育する新しいプロジェクトを開始しました。 

一つ確かなことは、GenAI システムは個人情報や商業上の機密データを処理する必要があることが多いため、通信事業者はこの市場で信頼できるプレーヤーになるために必要な顧客の信頼を維持する必要があるということです。 そのため、多くの政府や規制当局は、これらのシステムが管轄区域内にあるコンピューティング能力で実行されることを強く望んでいます。 一方、企業は知的財産を脅かす可能性のある機密データを共有することに消極的であるため、プライベート LLM オファーの利用を好みます。

注目すべきその他の問題としては、AI クラスターが仮想ユーザー コミュニティとして機能する方法が挙げられます。これには、国や企業のプライベート リポジトリにあるデータにアクセスするための高性能なデータ パスが必要です。

さらに、AI がネットワーク トラフィックとインフラストラクチャに与える影響は、国と企業の両方が AI アプリを自己ホストする計画によってますます影響を受けるようになります。 幻覚、著作権、セキュリティ、そして AI の環境への影響に関する懸念から、多くの人がデータのセキュリティと制御をさらに強化しようとしています。 さらに、GPU にかかる予想される負荷を軽減するための新しい方法も必要になります。 これらすべての考慮事項は、AI インフラストラクチャの全体的な TCO に影響します。

通信事業者の登場: 複数の環境にわたる柔軟でスケーラブルな保護 

通信事業者は AI 革命において重要な役割を果たすことができます。 彼らは国家レベルのインフラを所有し、既存の B2B サービスを提供しており、AI-as-a-Service のプロバイダーになるための自然な選択肢です。    

一例として、F5 はすでにヨーロッパの通信会社が新しい GenAI 提案を確実に実現できるよう支援しています。 この例では、当社の顧客は、Nvidia DGX Super POD と Nvidia AI Enterprise テクノロジーを使用して、現地の言語でネイティブにトレーニングされた最初の LLM を開発しています。 目標は、言語のニュアンスだけでなく、文法、文脈、文化的アイデンティティの詳細も捉えることです。

複数のエッジ サイトにわたるソリューションのセキュリティを確保するため、通信会社はクラウドベースのサービスとして提供されるF5 分散クラウド Web アプリケーションおよび API 保護 (WAAP)を活用します。 また、F5 の ADC クラスターを活用して、エッジ インフラストラクチャ全体で新しい AI プラットフォームの負荷分散を実行しています。

重要なのは、F5 のソリューションは、パブリック クラウドマルチテナント データ センターだけでなく、社内やエッジ インフラストラクチャにも使用できることです。 

さらに、F5 Distributed Cloud WAAP および関連する API セキュリティ ソリューションは、トラフィックの増加に応じて急速に拡張できるため、LLM をサービスとして提供するための全体的なコストを削減できます。 F5 は、通信事業者やその他のマネージド サービス プロバイダーがエンタープライズ顧客にサービス レベル契約を提供するために必要なトラフィック フロー、遅延、応答時間の可視性も提供します。

F5 が役立つもう 1 つの方法は、LLM 推論と AI タスクが大量のリソースを必要とすることで有名であるという事実に対処することです。 これらのワークロードでは広範なデータ交換が必要となり、大規模な安全なデータ交換の必要性によりボトルネックが発生することがよくあります。 その結果、貴重なリソースの利用率が低下し、運用コストが増加し、望ましい結果が遅れる可能性があります。 

通信事業者が適切な戦略を練り、拡張可能で堅牢なセキュリティ ソリューションを賢く活用できれば、業界や国に特化した LLM の信頼できるプロバイダーになるために必要なものはすべて揃います。成功した事業者は、間違いなく今後数年間で大きな競争上の優位性を獲得するでしょう。

もっと詳しく知りたいですか? ミーティングを予約する 2月26日~29日にバルセロナで開催されるモバイルワールドコングレスにF5と共に出展(ホール5、スタンド5C60)