In den letzten 18 Monaten hat die generative KI (GenAI) die Welt im Sturm erobert.
Neue Dienste wie ChatGPT und DALL-E können als Reaktion auf natürliche Spracheingaben der Benutzer Text, Bilder und Softwarecode generieren.
Jetzt sind neue Produktivitätsniveaus möglich und einer aktuellen Studie von Bloomberg Intelligence zufolge könnte der GenAI-Markt bis 2032 einen Wert von bis zu 1,3 Billionen US-Dollar erreichen.
Da der Wert dieser Technologie mittlerweile klar ersichtlich ist, beobachten wir einen wachsenden Drang, branchen- und regionsspezifische Versionen der Large Language Models (LLMs) zu erstellen, die es Computern ermöglichen, glaubwürdige Texte und andere Inhalte zu generieren.
LLMs sind statistische Sprachmodelle, die anhand einer riesigen Datenmenge trainiert werden. Sie können zum Erstellen und Übersetzen von Texten und anderen Inhalten sowie zur Durchführung von Aufgaben der natürlichen Sprachverarbeitung verwendet werden. LLMs basieren typischerweise auf Deep-Learning-Architekturen.
Weltweit bereiten sich führende Telekommunikationsanbieter bereits darauf vor, bei der Bereitstellung und Sicherheit dieser spezialisierten LLMs eine wichtige Rolle zu spielen. Insbesondere erwarten sie eine starke Nachfrage nach End-to-End-GenAI-Lösungen von Unternehmen, Start-ups, Universitäten und öffentlichen Verwaltungen, die es sich nicht leisten können, die erforderliche Computerinfrastruktur selbst aufzubauen.
Es handelt sich um einen auffälligen Trend und mit entsprechenden Sicherheitsvorkehrungen könnten LLM-as-a-Service-Lösungen schon bald dazu genutzt werden, spezifische GenAI-Anwendungen für das Gesundheitswesen, das Bildungswesen, den Transportbereich und andere wichtige Sektoren (einschließlich Telekommunikation) zu entwickeln.
Herausforderungen
Was sind also die nächsten Schritte, damit alles funktioniert, und welche wesentlichen Herausforderungen liegen vor uns?
Da sie sehr reaktionsschnell, höchst zuverlässig und immer verfügbar sein müssen, werden viele LLMs wahrscheinlich auf mehrere Clouds und Netzwerk-Randstandorte verteilt.
Tatsächlich wird GenAI mit der entsprechenden Latenz ein integraler Bestandteil der Edge-Angebote der Telekommunikationsunternehmen sein, da die Benutzer „konversationsähnliche“ Antworten in Echtzeit benötigen.
Für Telekommunikationsunternehmen, die Schwierigkeiten haben, ihren Umsatz zu steigern, könnte die Bereitstellung einer Edge-Infrastruktur zur Unterstützung spezialisierter GenAI-Systeme ein wichtiger neuer Markt sein. Bloomberg Intelligence schätzt, dass der GenAI Infrastructure-as-a-Service-Markt (zur Ausbildung von LLMs verwendet) bis 2032 einen Wert von 247 Milliarden US-Dollar haben wird.
Wer hofft, den GenAI-Jackpot zu knacken, muss dennoch vorsichtig sein.
Verteilte Architekturen, die die potenzielle Angriffsfläche vergrößern können, erfordern robuste und skalierbare Sicherheitslösungen, um das Durchsickern von Daten und personenbezogenen Informationen zu verhindern – sowohl in der Trainings- als auch in der Inferenzphase der KI.
Da böswillige Akteure zunehmend Lateral-Movement-Techniken einsetzen, um mehrere miteinander verbundene Systeme zu überbrücken, ist es für die Telekommunikationsunternehmen von entscheidender Bedeutung, sowohl die Apps als auch die APIs zu sichern, die Dritte für den Zugriff auf LLM-as-a-Service verwenden. Um das Bewusstsein in diesem Bereich zu schärfen, hat die Open Source Foundation for Application Security (OWASP) vor Kurzem ein neues Projekt gestartet, um Entwickler, Designer, Architekten, Manager und Organisationen über die potenziellen Sicherheitsrisiken bei der Bereitstellung und Verwaltung von LLMs aufzuklären.
Eines ist sicher: Telekommunikationsunternehmen müssen das erforderliche Kundenvertrauen aufrechterhalten, um auf diesem Markt als glaubwürdige Akteure bestehen zu können, da GenAI-Systeme häufig persönlich oder geschäftlich sensible Daten verarbeiten müssen. Aus diesem Grund legen viele Regierungen und Regulierungsbehörden großen Wert darauf, dass diese Systeme auf Rechenkapazitäten innerhalb ihres Zuständigkeitsbereichs laufen. Gleichzeitig zögern Unternehmen jedoch auch, sensible Daten weiterzugeben, die ihr geistiges Eigentum gefährden könnten, und nutzen daher lieber private LLM-Angebote.
Zu den weiteren wichtigen Aspekten gehört die Art und Weise, wie KI-Cluster als virtuelle Benutzergemeinschaften agieren. Dafür sind Hochleistungsdatenpfade erforderlich, um auf Daten zuzugreifen, die in den privaten Speicherorten von Ländern und Unternehmen gespeichert sind.
Darüber hinaus werden die Auswirkungen der KI auf den Netzwerkverkehr und die Infrastruktur zunehmend durch Pläne von Ländern und Unternehmen beeinflusst, KI-Apps selbst zu hosten. Bedenken hinsichtlich Halluzinationen, Urheberrecht, Sicherheit sowie den Umweltauswirkungen der KI veranlassen viele dazu, mehr Sicherheit und Kontrolle über ihre Daten zu fordern. Darüber hinaus benötigen sie neue Möglichkeiten, um die erwartete Belastung der GPUs zu verringern. All diese Überlegungen wirken sich auf die Gesamtbetriebskosten von KI-Infrastrukturen aus.
Hier kommen Telekommunikationsunternehmen ins Spiel: flexibler und skalierbarer Schutz für mehrere Umgebungen
Telekommunikationsunternehmen können in der KI-Revolution eine wichtige Rolle spielen. Sie besitzen nationale Infrastrukturen, verfügen über ein bestehendes B2B-Angebot und sind eine natürliche Option, Anbieter von KI als Service zu werden.
Ein typisches Beispiel: F5 unterstützt bereits ein Telekommunikationsunternehmen in Europa dabei, sein neues GenAI-Angebot abzusichern. In diesem Fall verwendet unser Kunde die Technologien Nvidia DGX Super POD und Nvidia AI Enterprise, um das erste LLM zu entwickeln, das nativ in einer lokalen Sprache trainiert wurde. Das Ziel besteht darin, die Nuancen der Sprache sowie die Besonderheiten ihrer Grammatik, ihres Kontexts und ihrer kulturellen Identität zu erfassen.
Um die Lösung über mehrere Edge-Sites hinweg zu sichern, nutzt das Telekommunikationsunternehmen F5 Distributed Cloud Web Application and API Protection (WAAP) , das als Cloud-basierter Dienst bereitgestellt wird. Sie nutzen außerdem die ADC-Cluster von F5, um den Lastenausgleich für die neue KI-Plattform über die gesamte Edge-Infrastruktur hinweg durchzuführen.
Entscheidend ist, dass die Lösungen von F5 in öffentlichen Clouds und Multi-Tenancy-Rechenzentren sowie intern und für deren Edge-Infrastruktur eingesetzt werden können.
Darüber hinaus können F5 Distributed Cloud WAAP und die zugehörigen API-Sicherheitslösungen bei zunehmendem Datenverkehr schnell skaliert werden, wodurch die Gesamtkosten für die Bereitstellung von LLM als Service gesenkt werden. F5 bietet außerdem Einblick in den Verkehrsfluss, die Latenz und die Reaktionszeiten, die Telekommunikationsunternehmen und andere Managed Service Provider ihren Unternehmenskunden mit Service Level Agreements bereitstellen müssen.
F5 kann außerdem dabei helfen, die Tatsache zu berücksichtigen, dass LLM-Inferenz- und KI-Aufgaben dafür bekannt sind, viele Ressourcen zu benötigen. Diese Arbeitslasten erfordern einen umfangreichen Datenaustausch und führen aufgrund der Notwendigkeit eines sicheren Datenaustauschs im großen Maßstab häufig zu Engpässen. Dies kann zu einer geringeren Auslastung wertvoller Ressourcen führen, was wiederum höhere Betriebskosten und Verzögerungen bei der Erreichung der gewünschten Ergebnisse zur Folge hat.
Wenn sie ihre Karten richtig ausspielen und skalierbare und robuste Sicherheitslösungen intelligent einsetzen können, haben Telekommunikationsunternehmen alles, was sie brauchen, um zu vertrauenswürdigen Anbietern branchen- und länderspezifischer LLMs zu werden. Diejenigen, die erfolgreich sind, werden in den kommenden Jahren zweifellos einen großen Wettbewerbsvorteil erlangen.
Möchten Sie mehr erfahren? Buchen Sie ein Treffen mit F5 auf dem Mobile World Congress in Barcelona vom 26. bis 29. Februar (Halle 5, Stand 5C60)