Jenna Becker
F5
(415) 857-2864
j.becker@f5.com
Holly Lancaster
WE Comunicaciones
(415) 547-7054
hluka@we-worldwide.com
Las funciones de red nativas de la nube F5 BIG-IP Next implementadas en las DPU NVIDIA BlueField-3 potencian la gestión y la seguridad de los datos, lo que permite nuevas innovaciones en inteligencia artificial de borde e impulsa el futuro de la AI-RAN.
CONGRESO MUNDIAL DE MÓVILES, BARCELONA – F5 (NASDAQ: FFIV) anunció hoy las funciones de red nativas de la nube (CNF) BIG-IP Next implementadas en las DPU NVIDIA BlueField-3, lo que profundiza la colaboración tecnológica de las empresas. Esta solución ofrece las probadas capacidades de infraestructura de red de F5, como firewall de borde, DNS y protección DDoS, como funciones nativas de la nube livianas aceleradas con DPU NVIDIA BlueField-3 para brindar un rendimiento optimizado en entornos de Kubernetes y respaldar casos de uso de IA de borde emergentes.
La plataforma de seguridad y entrega de aplicação F5 impulsa la mayoría de las redes de telecomunicaciones fijas, móviles y 5G de nivel 1 del mundo. Los proveedores de servicios reconocen los desafíos de escalar aplicações de IA en entornos distribuidos, en particular porque las infraestructuras heredadas en el núcleo de la red a menudo carecen de la potencia de procesamiento necesaria para que la inferencia de IA sea práctica.
Los CNF F5 que se ejecutan en DPU NVIDIA ahora se pueden integrar en infraestructuras de borde y de borde lejano para optimizar los recursos informáticos, reducir drásticamente el consumo de energía por Gbps y limitar los gastos operativos generales. El uso adicional de entornos perimetrales para agregar funcionalidad y capacidades de IA a los servicios de suscriptores también implica requisitos de seguridad adicionales, que las tecnologías F5 y NVIDIA BlueField brindan junto con una gestión de tráfico avanzada y al mismo tiempo minimizan la latencia.
La implementación de CNF en el borde acerca las aplicações a los usuarios y sus datos, lo que promueve la soberanía de los datos, mejora la experiencia del usuario y reduce los costos relacionados con la energía, el espacio y la refrigeración. Permitir una baja latencia sigue siendo esencial para las aplicações y capacidades de IA como:
La inclusión de CNF en las DPU BlueField-3 amplía el BIG-IP Next previamente presentado por F5 para Kubernetes implementado en las DPU NVIDIA. F5 continúa aprovechando el marco de software NVIDIA DOCA para integrar perfectamente sus soluciones con las DPU NVIDIA BlueField. Este marco de desarrollo integral proporciona a F5 un conjunto sólido de API, bibliotecas y herramientas para aprovechar las capacidades de aceleración de hardware de las DPU NVIDIA BlueField. Al utilizar DOCA, F5 logra una rápida integración y un alto rendimiento en diversas descargas de redes y seguridad, manteniendo al mismo tiempo la compatibilidad con versiones anteriores y posteriores entre generaciones de DPU BlueField. Además, acelerar los CNF F5 con NVIDIA BlueField-3 libera recursos de la CPU que pueden usarse para ejecutar otras aplicações.
Las implementaciones de borde abren oportunidades clave para los proveedores de servicios, incluidas capacidades N6-LAN distribuidas para UPF y servicios de seguridad de borde para respaldar la arquitectura de acceso distribuido (DAA) y 5G privado. Además, AI-RAN está ganando impulso y SoftBank presentó recientemente su entorno de producción con NVIDIA.
Desbloqueando el potencial de AI-RAN con NVIDIA y F5
AI-RAN busca transformar las redes móviles en infraestructuras multipropósito que maximicen la utilización de recursos, creen nuevas fuentes de ingresos a través de servicios de IA alojados y mejoren la rentabilidad. Al permitir que los proveedores de telefonía móvil respalden la computación de IA distribuida con una conectividad confiable, segura y optimizada, AI-RAN fortalece las capacidades de la infraestructura de borde al aprovechar la potencia de procesamiento que de otro modo estaría inactiva. En conjunto, los CNF BIG-IP Next en las DPU NVIDIA BlueField-3 acelerarán las implementaciones de AI-RAN con una gestión de tráfico optimizada para las cargas de trabajo de AI y RAN, además de brindar protecciones mejoradas contra firewall y DDoS. La multitenencia y el aislamiento de inquilinos para cargas de trabajo vinculadas a capacidades esenciales se integrarán de forma nativa en la solución. Con F5 y NVIDIA, los proveedores móviles pueden aprovechar de forma inteligente la misma infraestructura computacional RAN para potenciar las ofertas de IA junto con los servicios RAN existentes, lo que genera importantes ahorros de costos y potencial de ingresos a través de ofertas mejoradas para los usuarios.
Citas de apoyo
“Los clientes buscan formas rentables de llevar los beneficios de la entrega unificada de aplicação y la seguridad a las infraestructuras de IA emergentes, lo que impulsa la colaboración continua entre F5 y NVIDIA”, afirmó Ahmed Guetari, vicepresidente y gerente general de proveedores de servicios de F5. En particular, los proveedores de servicios consideran el edge como un área de creciente interés, ya que la ingesta y la inferencia de datos ya no deben realizarse en una ubicación centralizada o en un entorno de nube, lo que abre innumerables opciones para agregar inteligencia y capacidades de automatización a las redes, a la vez que se mejora el rendimiento para los usuarios.
“A medida que la demanda de inferencia de IA en el borde cobra protagonismo, construir una infraestructura distribuida preparada para IA es una oportunidad clave para que los proveedores de telecomunicaciones creen valor para sus clientes”, afirmó Ash Bhalgat, director sénior de Soluciones de Redes y Seguridad de IA, Ecosistema y Marketing de NVIDIA. “Las funciones nativas de la nube de F5, aceleradas con las DPU BlueField-3 de NVIDIA, crean una solución poderosa para acercar la IA a los usuarios al tiempo que ofrecen rendimiento, seguridad y eficiencia incomparables para los proveedores de servicios. No solo satisfacemos las demandas de inteligencia artificial de vanguardia; también capacitamos a las empresas para aprovechar la inteligencia artificial para mantener una ventaja competitiva en nuestro mundo conectado”.
Disponibilidad
Se prevé que la disponibilidad general de las funciones de red nativas de la nube F5 BIG-IP Next implementadas en las DPU NVIDIA BlueField-3 sea para junio de 2025. Para obtener información adicional, visite F5 en el evento NVIDIA GTC que se llevará a cabo del 17 al 21 de marzo en San José, California, lea el blog complementario y comuníquese con F5 .
F5 es una empresa de entrega y seguridad de aplicaciones multicloud comprometida con hacer realidad un mundo digital mejor. F5 se asocia con las organizaciones más grandes y avanzadas del mundo para proteger todas las aplicaciones, ya sea en las instalaciones, en la nube o en el perímetro. F5 permite a las empresas adelantarse continuamente a las amenazas al tiempo que ofrecen experiencias digitales excepcionales y seguras a sus clientes. Para más información, visite f5.com. (NASDAQ: FFIV)
También puedes seguir a @F5 en X o visitarnos en LinkedIn y Facebook para obtener más información sobre F5, sus socios y tecnologías. F5, BIG-IP y BIG-IP Next son marcas comerciales, marcas de servicio o nombres comerciales de F5, Inc., en los EE. UU. y otros países. Todos los demás nombres de productos y empresas aquí mencionados pueden ser marcas comerciales de sus respectivos propietarios. El uso de los términos “socio”, “socios”, “asociación” o “asociación” en este comunicado de prensa no implica que exista una empresa conjunta entre F5 y cualquier otra empresa.
# # #
Este comunicado de prensa contiene declaraciones prospectivas que incluyen, entre otras cosas, declaraciones sobre los posibles beneficios y la disponibilidad de las funciones de red nativas de la nube F5 BIG-IP Next que se ejecutan en las DPU NVIDIA BlueField-3. El entorno, los objetivos y las limitaciones únicos de cada cliente podrían afectar los beneficios potenciales, mientras que los factores circundantes podrían afectar los tiempos de disponibilidad.