Les entreprises cherchent à créer de nouvelles applications et de nouveaux flux de travail basés sur l'IA. Mais les exploiter avec succès peut s'avérer délicat. Plusieurs cadres d’IA et environnements d’application créent de la complexité pour les développeurs et les équipes de sécurité. Ils ont besoin d’une solution qui facilite la création, l’exécution et la sécurisation d’une inférence rapide.
La boîte à outils OpenVINO™ d’Intel est une boîte à outils open source qui accélère l’inférence de l’IA tout en offrant une empreinte plus petite et une approche d’écriture unique et de déploiement n’importe où. Il aide les développeurs à créer des solutions d’IA évolutives et efficaces avec relativement peu de lignes de code. Les développeurs peuvent utiliser des modèles d'IA formés à l'aide de frameworks populaires tels que TensorFlow, PyTorch, ONNX, etc. Avec OpenVINO, les développeurs convertissent d’abord et peuvent ensuite optimiser et compresser les modèles pour des réponses plus rapides. Désormais, le modèle d’IA est prêt à être déployé en intégrant l’environnement d’exécution OpenVINO dans leur application pour le rendre compatible avec l’IA. Les développeurs peuvent déployer leur application infusée d'IA via un conteneur léger dans un centre de données, dans le cloud ou en périphérie sur une variété d'architectures matérielles.
Un développeur peut ne pas vouloir héberger le modèle avec l’application ou l’intégrer dans l’application. Le modèle de l’application peut nécessiter d’être mis à jour de temps à autre et l’application peut avoir besoin d’exécuter plusieurs modèles pour fournir les fonctionnalités fournies par l’application. OpenVINO propose une solution avec le serveur de modèles OpenVINO, un système hautes performances défini par logiciel pour servir des modèles dans une architecture client-serveur. Les avantages du serveur de modèles OpenVINO incluent :
OpenVINO simplifie l'optimisation, le déploiement et la mise à l'échelle des modèles d'IA, mais pour fonctionner en production, ils ont également besoin de sécurité. F5 NGINX Plus fonctionne comme un proxy inverse, offrant une gestion du trafic et une protection pour les serveurs de modèles d'IA. Grâce à des configurations à haute disponibilité et à des contrôles de santé actifs, NGINX Plus peut garantir que les demandes des applications, des flux de travail ou des utilisateurs atteignent un serveur modèle OpenVINO opérationnel. Il permet également l’utilisation de certificats HTTPS et mTLS pour crypter les communications entre l’application utilisateur et le serveur modèle sans ralentir les performances.
Lorsqu'il est déployé sur le même serveur hôte ou machine virtuelle, NGINX Plus filtre le trafic entrant et surveille l'état des conteneurs en amont. Il offre également la mise en cache de contenu pour accélérer les performances et réduire le travail du serveur modèle. Cette combinaison offre une sécurité efficace, mais les serveurs du modèle NGINX Plus et OpenVINO peuvent avoir besoin d'entrer en compétition pour les ressources lorsqu'ils sont déployés sur un seul processeur. Cela peut entraîner des ralentissements ou une dégradation des performances.
Étant donné que les services d’infrastructure tels que la commutation virtuelle, la sécurité et le stockage peuvent consommer un nombre important de cycles de processeur, Intel a développé l’unité de traitement d’infrastructure Intel® (Intel® IPU) qui libère les cœurs de processeur pour améliorer les performances des applications. Les IPU Intel sont des périphériques réseau programmables qui gèrent intelligemment les ressources au niveau du système en accélérant de manière sécurisée les fonctions d'infrastructure réseau et de stockage dans un centre de données. Ils sont compatibles avec le serveur Dell PowerEdge R760 équipé de processeurs Intel® Xeon® pour des performances et une polyvalence optimales pour les charges de travail gourmandes en calcul. L’intégration avec le contrôleur de gestion intégré Dell iDRAC fournit un contrôle thermique en boucle fermée de l’IPU.
L'utilisation d'une IPU Intel avec un serveur rack Dell PowerEdge R760 peut augmenter les performances des serveurs modèles OpenVINO et F5 NGINX Plus. L’exécution de NGINX Plus sur l’IPU Intel offre des performances et une évolutivité grâce aux accélérateurs matériels de l’IPU Intel. Cette combinaison laisse également des ressources CPU disponibles pour les serveurs de modèles d’IA.
L'intégration d'une IPU Intel avec NGINX Plus crée un espace d'air de sécurité entre NGINX Plus et les serveurs du modèle OpenVINO. Cette couche de sécurité supplémentaire protège contre les vulnérabilités partagées potentielles pour aider à protéger les données sensibles dans le modèle d'IA.
La solution combinée de F5, Intel et Dell facilite la prise en charge de l’inférence de l’IA en périphérie. Avec NGINX Plus sur l'IPU Intel, les réponses sont plus rapides et plus fiables dans la prise en charge des applications de pointe telles que l'analyse vidéo et l'IoT.
La solution fonctionne également pour les réseaux de diffusion de contenu avec une mise en cache et une diffusion de contenu optimisées, tout en fournissant un support pour les déploiements de microservices distribués qui nécessitent une fiabilité dans tous les environnements.
Réalisez des inférences d'IA hautes performances n'importe où, de manière sécurisée et cohérente, grâce à une solution matérielle et logicielle combinée. Déployez facilement l'inférence de l'IA dans les centres de données, les clouds ou les sites périphériques tout en maintenant la disponibilité et les performances pour prendre en charge les utilisateurs et les applications alimentées par l'IA.
Apprenez-en plus sur le partenariat F5 et Intel sur f5.com/intel .