BLOG

Mit F5 und Intel KI-Modelle für intelligente Apps bereitstellen, sichern und optimieren

Sanjay Shitole Miniaturbild
Sanjay Shitole
Veröffentlicht am 06. Mai 2024

KI-gestützte Apps kommen immer häufiger zum Einsatz und verzeichnen einen deutlichen Anstieg der Nutzerzahlen. Eine Analyse der Daten aus dem Jahr 2023 ergab, dass die Downloads neuer mobiler Apps im Vergleich zum Vorjahr zwar nur um 1 % gestiegen sind, die Top-20-Apps, die KI in ihren Funktionsumfang integriert hatten, jedoch ein durchschnittliches Wachstum von 11 % verzeichneten.1 Allerdings kann die einfache Bereitstellung und Sicherung der KI-Modelle zum Betrieb dieser Apps für Entwickler und IT-Teams eine Hürde darstellen.

Intelligentere Apps mit KI

Die neue Generation intelligenter Apps nutzt KI-Automatisierung auf Grundlage von Dateneingaben – beispielsweise eine Versicherungs-App, die Unwetter überwacht – oder sie könnte maschinelles Lernen nutzen, um das Benutzererlebnis anzupassen und zu verbessern. Gartner schätzt, dass bis 2026 30 % der neuen Anwendungen KI nutzen werden, um personalisierte, adaptive Benutzeroberflächen zu entwickeln; heute sind es weniger als 5 %.2 

Vielen Organisationen fehlt es jedoch an den Fähigkeiten, die erforderlichen KI-Modelle zu erstellen oder zu nutzen. Einer Umfrage des Weltwirtschaftsforums zufolge gehen Führungskräfte davon aus, dass bis zu 40 % ihrer gesamten Belegschaft eine Umschulung benötigen, um effektiv mit KI zusammenarbeiten zu können.3 Als Reaktion darauf entstehen neue Lösungen, die es Entwicklern ermöglichen, KI-Modelle mit minimalem Code zu nutzen.

Darüber hinaus erfordern KI-Modelle erhebliche Rechenleistung, was zu Einschränkungen führen kann. Durch die Platzierung von KI-Modellen in der Nähe der Eingabequelle lässt sich zwar die Latenzzeit für Schlussfolgerungen verringern, doch an Randstandorten fehlen häufig die Ressourcen, die für eine akzeptable KI-Leistung erforderlich sind.

KI zugänglicher machen

Um die Benutzerfreundlichkeit für Entwickler und die Ressourcenoptimierung zu verbessern, hat Intel OpenVINO entwickelt, ein Open-Source-Toolkit, das die KI-Inferenz beschleunigt und gleichzeitig einen geringeren Platzbedarf und einen „Einmal schreiben, überall einsetzen“-Ansatz bietet. Es ermöglicht Programmierern, mit relativ wenigen Codezeilen skalierbare und effiziente KI-Lösungen zu entwickeln. OpenVINO kann KI-Modelle auch konvertieren und optimieren, um sie in Rechenzentren, in der Cloud oder am Edge auszuführen.

Während OpenVINO KI für reale Szenarien, wie etwa KI-Inferenz, zugänglicher macht, benötigt es, ähnlich wie Anwendungen, Sicherheits- und Bereitstellungsfunktionen. Eine OpenVINO-Bereitstellung kann aus Hunderten oder Tausenden von containerbasierten Modellservern bestehen. Um Benutzern oder Anwendungen zuverlässig Inferenzergebnisse bereitzustellen, benötigen Sie eine Möglichkeit, die Serverintegrität zu überwachen und den Datenverkehr zu verwalten. F5 NGINX Plus kann OpenVINO-Modellserver sichern.

KI-Modelle mit F5 NGINX Plus sichern

Während es möglich ist, die Open-Source-Version von NGINX mit OpenVINO zu verwenden, fügt die Verwendung von NGINX Plus wertvolle Funktionen wie hohe Verfügbarkeit, aktive Integritätsprüfungen und preisgekrönten Support hinzu. NGINX Plus bietet außerdem Lastausgleich und SSL-Terminierung, sodass Apps und Benutzer eine zuverlässige und sichere Verbindung mit Ihren OpenVINO-Modellservern herstellen können.

Zur Verbesserung der Verfügbarkeit kann NGINX Plus als Aktiv-Passiv-Paar eingesetzt werden. Dadurch entsteht eine Hochverfügbarkeitslösung, bei der der primäre Server den Datenverkehr aktiv verarbeitet, während der Backup-Server den Zustand überwacht und im Falle eines Problems übernimmt. Inhaltscaching und SSL-Terminierung verbessern die Leistung, indem sie die Belastung Ihrer OpenVINO-Modellserver reduzieren.

Aktive Integritätsprüfungen in NGINX Plus überwachen Ihre Modellserver, um sicherzustellen, dass Datenverkehr nur an verfügbare Server gesendet wird. Sichern und validieren Sie eingehenden verschlüsselten Datenverkehr mit mTLS-Zertifikaten und verwenden Sie Analysen und Dashboards, um Probleme mit Ihren Servern vorherzusehen oder zu beheben. Die leichte Bauweise von NGINX Plus sowie der erstklassige Support für Installation, Bereitstellung und Debugging erleichtern die Anpassung an Ihre KI-gestützten Anwendungsanforderungen.

Zuversichtlich KI-gestützte Apps entwickeln

Die Kombination aus NGINX Plus und OpenVINO erleichtert das sichere und konsistente Hinzufügen von KI zu Apps überall. Einfache Bereitstellung in Rechenzentren, Clouds oder an Edge-Sites unter Beibehaltung von Verfügbarkeit und Leistung.

Die Verwendung von NGINX Plus mit OpenVINO ist nur ein Teil einer laufenden Zusammenarbeit zwischen F5 und Intel. Erfahren Sie mehr über die Partnerschaft unter f5.com/intel .