BLOG | BÜRO DES CTO

Mit F5, Intel und Dell wird KI-Inferenz einfacher, sicherer und leistungsfähiger

Kunal Anand Miniaturbild
Kunal Anand
Veröffentlicht am 21. Mai 2024

Unternehmen möchten neue Apps und Workflows auf Basis künstlicher Intelligenz entwickeln. Doch deren erfolgreicher Betrieb kann schwierig sein. Mehrere KI-Frameworks und App-Umgebungen schaffen Komplexität für Entwickler und Sicherheitsteams. Sie benötigen eine Lösung, die den Aufbau, die Ausführung und Sicherung schneller Inferenzen vereinfacht.

Vereinfachen Sie die KI-Entwicklung und -Sicherheit

Das OpenVINO™-Toolkit von Intel ist ein Open-Source-Toolkit, das die KI-Inferenz beschleunigt und gleichzeitig einen geringeren Platzbedarf und einen Ansatz zum einmaligen Schreiben und Überall-Einsetzen bietet. Es hilft Entwicklern, skalierbare und effiziente KI-Lösungen mit relativ wenigen Codezeilen zu erstellen. Entwickler können KI-Modelle verwenden, die mit gängigen Frameworks wie TensorFlow, PyTorch, ONNX und anderen trainiert wurden. Mit OpenVINO konvertieren Entwickler zunächst Modelle und können diese für schnellere Reaktionen weiter optimieren und komprimieren. Jetzt kann das KI-Modell bereitgestellt werden, indem die OpenVINO-Laufzeit in die Anwendung eingebettet wird, um sie KI-fähig zu machen. Entwickler können ihre KI-gestützte Anwendung über einen leichten Container in einem Rechenzentrum, in der Cloud oder am Rand auf einer Vielzahl von Hardwarearchitekturen bereitstellen.

Ein Entwickler möchte das Modell möglicherweise nicht mit der Anwendung hosten oder in die Anwendung einbetten. Das Modell der Anwendung muss möglicherweise von Zeit zu Zeit aktualisiert werden und die Anwendung muss möglicherweise mehrere Modelle ausführen, um die von der Anwendung bereitgestellten Funktionen bereitzustellen. OpenVINO bietet eine Lösung mit dem OpenVINO-Modellserver, einem softwaredefinierten Hochleistungssystem zum Bereitstellen von Modellen in einer Client-Server-Architektur. Zu den Vorteilen des OpenVINO-Modellservers gehören:

  1. Einfache Bereitstellung: Dank der containerisierten Architektur mit Docker wird die Bereitstellung von Modellen mit dem OpenVINO-Modellserver einfacher und skalierbarer. Es abstrahiert die Komplexität der Hardwarekonfiguration und -abhängigkeiten.
  2. Skalierbarkeit: Der OpenVINO-Modellserver kann in einer Clusterumgebung eingesetzt werden, um hohe Inferenzlasten zu verarbeiten und bei Bedarf horizontal zu skalieren. Diese Skalierbarkeit stellt sicher, dass die Inferenzleistung auch bei hoher Arbeitslast konstant bleibt.
  3. Ferninferenz: Der OpenVINO-Modellserver unterstützt Remote-Inferenz, sodass Clients Inferenzen auf Modellen durchführen können, die auf Remote-Servern bereitgestellt sind. Diese Funktion ist nützlich für verteilte Anwendungen oder Szenarien, in denen Inferenzen auf leistungsstarken Servern ausgeführt werden müssen, während das Clientgerät über begrenzte Ressourcen verfügt.
  4. Überwachung und Verwaltung: Der OpenVINO-Modellserver bietet Überwachungs- und Verwaltungsfunktionen, mit denen Administratoren die Inferenzleistung und Ressourcennutzung verfolgen und bereitgestellte Modelle effektiv verwalten können.

OpenVINO vereinfacht die Optimierung, Bereitstellung und Skalierung von KI-Modellen, für den produktiven Einsatz benötigen sie jedoch auch Sicherheit. F5 NGINX Plus fungiert als Reverse-Proxy und bietet Verkehrsmanagement und Schutz für KI-Modellserver. Mit Hochverfügbarkeitskonfigurationen und aktiven Integritätsprüfungen kann NGINX Plus sicherstellen, dass Anfragen von Apps, Workflows oder Benutzern einen betriebsbereiten OpenVINO-Modellserver erreichen. Darüber hinaus ermöglicht es die Verwendung von HTTPS- und mTLS-Zertifikaten, um die Kommunikation zwischen der Benutzeranwendung und dem Modellserver zu verschlüsseln, ohne die Leistung zu beeinträchtigen.

Bei Bereitstellung auf demselben Hostserver oder derselben virtuellen Maschine filtert NGINX Plus den eingehenden Datenverkehr und überwacht die Integrität der Upstream-Container. Es bietet außerdem eine Inhaltszwischenspeicherung, um die Leistung zu steigern und den Arbeitsaufwand für den Modellserver zu reduzieren. Diese Kombination bietet effiziente Sicherheit, aber die NGINX Plus- und OpenVINO-Modellserver müssen möglicherweise um Ressourcen konkurrieren, wenn sie auf einer einzelnen CPU bereitgestellt werden. Dies kann zu Verlangsamungen oder Leistungseinbußen führen.

Leistung von KI-Modellen beschleunigen

Da Infrastrukturdienste wie virtuelles Switching, Sicherheit und Speicherung eine erhebliche Anzahl von CPU-Zyklen verbrauchen können, hat Intel die Intel® Infrastructure Processing Unit (Intel® IPU) entwickelt, die CPU-Kerne für eine verbesserte Anwendungsleistung freigibt. Intel IPUs sind programmierbare Netzwerkgeräte, die Ressourcen auf Systemebene intelligent verwalten, indem sie Netzwerk- und Speicherinfrastrukturfunktionen in einem Rechenzentrum sicher beschleunigen. Sie sind mit dem Dell PowerEdge R760-Server mit Intel® Xeon®-Prozessoren kompatibel und bieten Leistung und Vielseitigkeit für rechenintensive Workloads. Durch die Integration mit dem integrierten Management-Controller Dell iDRAC wird eine geschlossene Wärmeregelung der IPU ermöglicht.

Die Verwendung einer Intel IPU mit einem Dell PowerEdge R760-Rack-Server kann die Leistung sowohl für OpenVINO-Modellserver als auch für F5 NGINX Plus steigern. Das Ausführen von NGINX Plus auf der Intel IPU bietet dank der Hardwarebeschleuniger der Intel IPU Leistung und Skalierbarkeit. Durch diese Kombination bleiben auch CPU-Ressourcen für die KI-Modellserver verfügbar.

Durch die Integration einer Intel IPU mit NGINX Plus entsteht eine Sicherheitslücke zwischen NGINX Plus und den OpenVINO-Modellservern. Diese zusätzliche Sicherheitsebene schützt vor potenziellen gemeinsamen Schwachstellen und trägt zum Schutz vertraulicher Daten im KI-Modell bei.

Leistungsstarke KI am Rand

Die kombinierte Lösung von F5, Intel und Dell erleichtert die Unterstützung von KI-Inferenz am Edge. Mit NGINX Plus auf der Intel IPU sind die Reaktionen bei der Unterstützung von Edge-Anwendungen wie Videoanalyse und IoT schneller und zuverlässiger.

Die Lösung funktioniert auch für Content-Delivery-Netzwerke mit optimiertem Caching und Content-Delivery und bietet Unterstützung für die verteilte Bereitstellung von Microservices, die umgebungsübergreifende Zuverlässigkeit erfordern.

Beschleunigen Sie KI-Sicherheit und -Leistung mit F5, Intel und Dell

Mit einer kombinierten Hardware- und Softwarelösung können Sie leistungsstarke KI-Inferenzen überall sicher und konsistent nutzen. Stellen Sie KI-Inferenz problemlos in Rechenzentren, Clouds oder an Edge-Sites bereit, während Sie gleichzeitig Verfügbarkeit und Leistung aufrechterhalten, um Benutzer und KI-gestützte Apps zu unterstützen.

Erfahren Sie mehr über die Partnerschaft zwischen F5 und Intel unter f5.com/intel .