¿Qué es la IA de borde? Navegar por la inteligencia artificial en el borde

La IA en el borde representa la implementación de algoritmos y modelos de inteligencia artificial en un entorno de Edge computing, que acerca la potencia de cálculo y la inteligencia al lugar donde se toman las decisiones, en parte para compensar un flujo continuo de comunicación entre los sitios periféricos y la nube. La IA en el borde permite a los dispositivos situados en la periferia de la red procesar datos localmente, lo que permite tomar decisiones en tiempo real sin depender de conexiones a Internet o servidores centralizados en la nube para el procesamiento, aumentando la velocidad de cálculo y mejorando la privacidad y seguridad de los datos.

Descripción de la IA en el borde

La IA en el borde es la convergencia de múltiples tecnologías, como la inteligencia artificial, Internet de las cosas (IoT), edge computing y los sistemas integrados, cada una de las cuales desempeña un papel crucial a la hora de permitir el procesamiento inteligente y la toma de decisiones en la periferia de la red. La IA en el borde implica el uso de algoritmos integrados para supervisar la actividad de un sistema remoto, así como el procesamiento de los datos recogidos por dispositivos como sensores y otros rastreadores de datos no estructurados, como la temperatura, el lenguaje, las caras, el movimiento, las imágenes, la proximidad y otras entradas analógicas.

Estos sistemas remotos pueden adoptar muchas formas, incluidos sensores, teléfonos inteligentes, dispositivos IoT, drones, cámaras e incluso vehículos y electrodomésticos inteligentes. Los datos recopilados de estos sistemas sirven como entrada para los algoritmos de IA de borde, proporcionando información valiosa sobre el estado del sistema o sus alrededores, lo que permite a los sistemas de IA de borde responder rápidamente a los cambios o anomalías y comprender el entorno en el que operan. Estas aplicaciones de IA de borde serían poco prácticas o incluso imposibles en un entorno de nube centralizada o centro de datos empresarial debido a problemas relacionados con el coste, la latencia, el ancho de banda, la seguridad y la privacidad.

IA en el borde abarca una amplia gama de casos de uso, entre los que se incluyen:

  • Vehículos autónomos. La IA en el borde permite a los vehículos analizar los datos de los sensores en tiempo real y tomar decisiones en fracciones de segundo en tareas como la detección de objetos, el seguimiento de carriles y la evitación de colisiones, sin depender de manera continua de la conectividad a la nube.
  • Ciudades inteligentes. Los datos de los sensores y cámaras implementados en una zona urbana pueden alimentar diversas aplicaciones de las ciudades inteligentes, como la gestión del tráfico, el control de la seguridad pública, la gestión de residuos y la optimización energética.
  • Supervisión agrícola. La IA en el borde apoya la agricultura de precisión al analizar datos de sensores, drones e imágenes satelitales para supervisa la salud de los cultivos, optimizar el riego, detectar infestaciones de plagas y realizar análisis en tiempo real de las condiciones ambientales.
  • IoT industrial: Mediante la implementación de algoritmos de IA directamente en los equipos y sensores de fabricación, los dispositivos periféricos pueden supervisar el estado de la maquinaria, detectar defectos y optimizar los procesos de producción sin depender de servidores centralizados.
  • Supervisión de la atención sanitaria. La IA en el borde facilita la supervisión remota de pacientes y la atención sanitaria personalizada mediante el análisis de datos de dispositivos portátiles, sensores médicos y equipos de diagnóstico por imagen para realizar análisis en tiempo real de datos médicos y alertar a los profesionales sanitarios de posibles problemas de salud.

IA en el borde frente a IA en la nube

Existen dos paradigmas principales para la implementación de algoritmos y modelos de IA: en el borde o en la nube. Las estrategias para integrar sistemas que abarcan ambos entornos se conocen como «cloud-in» o «edge-out», y cada una tiene implicaciones específicas para el rendimiento, la seguridad y las operaciones.

La IA en el borde consiste en implementar la IA en dispositivos remotos para permitir el procesamiento en tiempo real y la toma de decisiones en el borde de la red o en entornos descentralizados. Estos sistemas pueden analizar en gran medida los datos localmente, sin depender de la conectividad de la red o de la transmisión de datos a servidores centralizados, lo que se traduce en una menor latencia y tiempos de respuesta más rápidos. Los sistemas de IA en el borde también mantienen los datos sensibles localmente, reduciendo el riesgo de violaciones de la privacidad o los riesgos de seguridad asociados con la transmisión de datos a la nube.

Entre los ejemplos de IA en el borde se encuentran los vehículos autónomos que utilizan IA implementada localmente para analizar los datos de los sensores y tomar decisiones de conducción en tiempo real y los dispositivos domésticos inteligentes que utilizan IA en el borde para procesar órdenes de voz o vigilar las instalaciones en busca de intrusos.

Por otro lado, la IA en la nube se caracteriza por desplegar algoritmos y modelos de IA en servidores centralizados en la nube, lo que permite el procesamiento de datos, el entrenamiento y la inferencia a gran escala. Los recursos en la nube aportan importantes capacidades informáticas, lo que permite realizar tareas complejas de IA, como el entrenamiento de aprendizaje profundo o el análisis de macrodatos, que requieren una potencia computacional masiva. Las soluciones de IA en la nube pueden escalarse fácilmente para dar cabida a grandes volúmenes de datos y usuarios, lo que las hace adecuadas para aplicaciones con un alto rendimiento o requisitos de uso intensivo de recursos.

Los motores de recomendación, como los empleados por Amazon o Netflix para sugerir productos o contenidos basados en datos exhaustivos de los usuarios, son ejemplos de sistemas de IA en la nube a gran escala que dependen de recursos informáticos significativos para operar de manera eficiente.

Otros casos de uso de la IA combinan la IA en el borde y en la nube para satisfacer las necesidades específicas de los clientes. Un ejemplo destacado de la vida real es Sentient.io, un proveedor de plataformas de IA y datos con sede en Singapur, que ha desarrollado Sentient Marketplace, un centro de servicios de IA innovadores que facilita a las empresas integrar la IA fácilmente en sus flujos de trabajo existentes. No obstante, el rápido éxito de su mercado trajo consigo retos significativos, como la dificultad de operar e implementar servicios de IA en entornos distribuidos, como instalaciones locales, nubes públicas, nubes privadas y entornos en el borde.

Operar a través de múltiples proveedores en los sitios de los clientes puede ser un desafío, ya que las soluciones de cada proveedor de nube suelen ofrecer distribuciones exclusivas de Kubernetes. Esto puede resultar complicado para las organizaciones que necesitan integrar estas plataformas en sus entornos de nube. Además, el proceso de implementación de los modelos de IA de Sentient en los sitios de los clientes era particularmente laborioso, ya que requería configurar entornos Kubernetes locales para cada sitio de borde, además de gestionar manualmente las actualizaciones y la sincronización de nuevos modelos. Esta situación incrementó la complejidad operativa y derivó en políticas de orquestación y seguridad de flujo de trabajo inconsistentes.

Sentient.io se unió a F5 para proporcionar soluciones de IA empresariales «como servicio» llave en mano a clientes de diversos sectores, aprovechando F5 Distributed Cloud App Stack. Esta plataforma Kubernetes, diseñada para entornos empresariales, simplifica las implementaciones en ubicaciones locales, en la nube y en el borde. La colaboración permitió a Sentient.io agilizar sus operaciones, reducir la latencia y habilitar el procesamiento de IA en tiempo real directamente en el borde. La capacidad de realizar inferencias en el borde eliminó las limitaciones relacionadas con la red y el ancho de banda debido a la ubicación geográfica, garantizando respuestas inmediatas para aplicaciones en tiempo real. Este modelo de implementación transformado permitió a Sentient.io entregar aplicaciones de IA de alto rendimiento con tiempos de creación de valor más cortos, optimizar recursos, disminuir los costes operativos generales e integrar de forma nativa la seguridad en aplicaciones y API.

La colaboración también supuso un importante ahorro de costes con respecto al proceso anterior de gestión manual de varias plataformas en la nube, que requería equipos dedicados e incurría en importantes costes de recursos. Con F5 Distributed Cloud Services, Sentient simplificó las operaciones, reduciendo costes al optimizar los recursos y simplificar la gestión de aplicaciones, y liberando recursos para otras iniciativas estratégicas.

Acceso a IA en el borde

El acceso a la IA en el borde de la red implica la implementación de una combinación de dispositivos, tecnologías, componentes de infraestructura e integraciones que permitan un acceso y una utilización eficientes de las capacidades de IA en el borde de la red, entre las que se incluyen:

  • Dispositivos periféricos: Equipados con sensores y microcontroladores, los dispositivos periféricos recopilan datos del entorno físico y son capaces de alojar modelos de IA para su procesamiento local. Ejemplos de dispositivos IoT incluyen termostatos inteligentes, cámaras de vigilancia, monitores de humedad del suelo y sensores industriales. Además, dispositivos como smartphones y tabletas también se consideran periféricos, ya que no solo captan información de su entorno, sino que aprovechan su capacidad de procesamiento y conectividad para ejecutar tareas de IA en el borde.
  • Tecnologías. El funcionamiento de sistemas de IA en el borde de la red requiere el uso de tecnologías especializadas, como algoritmos entrenados y modelos de IA optimizados para su implementación en dispositivos con recursos limitados. Además, existen marcos y plataformas de IA en el borde que ofrecen herramientas y bibliotecas diseñadas para simplificar el desarrollo y la implementación de estos sistemas.
  • Infraestructura: Se requiere una conectividad de red confiable, ya sea por cable o inalámbrica, para que los dispositivos de IA en el borde se comuniquen entre sí y con los servidores centralizados cuando sea necesario, incluyendo componentes de hardware como servidores de borde, puertas de enlace y enrutadores. Además, las API son clave en las arquitecturas de IA, ya que facilitan la comunicación entre los distintos componentes y servicios y permiten el intercambio de datos e instrucciones de manera eficiente.
  • Integraciones. Los sistemas IA en el borde deben poder integrarse en las redes e infraestructuras existentes para garantizar la accesibilidad de los datos, permitir la escalabilidad y la compatibilidad con otros componentes del sistema, y reducir la complejidad operativa.

Además, tenga en cuenta los siguientes retos y limitaciones a la hora de implementar la IA en el borde y acceder a ella.

  • Potencia de cálculo y conectividad limitadas. La mayoría de los dispositivos periféricos cuentan con recursos limitados en términos de procesamiento, memoria y almacenamiento, lo que restringe la complejidad y el tamaño de los modelos de IA que pueden ejecutarse en el borde. Además, estos dispositivos suelen operar en entornos con opciones de conectividad de red limitadas, lo que afecta a la capacidad de respuesta, el rendimiento y la fiabilidad de los sistemas de IA en el borde.
  • Coste y disponibilidad. Muchos modelos de IA se benefician de aceleradores de carga de trabajo como las unidades de procesamiento gráfico (GPU) y las unidades de procesamiento de datos (DPU) para un procesamiento más rápido, pero las GPU, en particular, son costosas y, debido a restricciones físicas, pueden ser demasiado grandes para su uso en factores de forma miniaturizados. Esto puede limitar los tipos de algoritmos de IA que pueden implementarse en dispositivos de borde y puede requerir técnicas de optimización alternativas.
  • Privacidad de los datos. Algunos sistemas de IA de borde generan y procesan datos sensibles o protegidos a nivel local, lo que plantea preocupaciones sobre la privacidad de los datos y el cumplimiento de normativas como HIPAA o el RGPD. Garantizar la privacidad de los datos y el cumplimiento de los requisitos legales puede requerir la implementación de medidas adecuadas de anonimización de datos, cifrado y control de acceso.
  • Gestión de dispositivos: La implementación, la supervisión, la actualización y el mantenimiento de sistemas de inteligencia artificial distribuidos en ubicaciones geográficamente dispersas puede resultar complicado y requiere herramientas y plataformas de gestión eficaces.

 

Medidas de seguridad de IA en el borde

La protección de los datos y la mitigación de los riesgos de seguridad en las implementaciones de IA en el borde requieren un enfoque integral que se centre en una seguridad de múltiples capas. Aunque la IA en el borde presenta diferencias con respecto a las cargas de trabajo informáticas tradicionales, especialmente en su capacidad para aprender de los datos y hacer evolucionar el comportamiento a partir de la experiencia, en términos de requisitos de seguridad, la IA en el borde comparte muchas similitudes con los sistemas IoT convencionales y enfrenta los mismos riesgos, entre los cuales se incluyen:

  • Malware y ciberataques. Los dispositivos IA en el borde son susceptibles a infecciones de malware, ciberataques y explotación remota si no están debidamente protegidos. La implementación de software antivirus, sistemas de detección de intrusiones y actualizaciones periódicas de software debe formar parte de toda estrategia de seguridad IA en el borde.
  • Seguridad de la red. Los dispositivos de IA de borde suelen comunicarse entre sí y con servidores centralizados a través de redes, lo que los convierte en objetivos potenciales de ataques basados en la red. Proteja las comunicaciones de red con mecanismos de cifrado, autenticación y control de acceso para proteger los datos en tránsito y evitar el acceso no autorizado a los recursos de la red.
  • Integridad de los datos. Para mantener la precisión y fiabilidad de los modelos de IA y de los procesos de toma de decisiones es necesario proteger la integridad de los datos procesados por los dispositivos de IA. Para detectar y mitigar la alteración, manipulación o corrupción de los datos es necesario aplicar la validación de datos, las sumas de comprobación y las comprobaciones de integridad para verificar la autenticidad y coherencia de los datos introducidos.
  • Seguridad física. Los dispositivos de IA en el borde suelen instalarse en entornos remotos u hostiles, lo que los hace vulnerables a daños, manipulación física, robo o vandalismo. Las protecciones físicas, como las carcasas a prueba de manipulaciones o las cámaras de vigilancia, ayudan a proteger los dispositivos de daños, manipulación o acceso no autorizado.
  • API Security. Los ecosistemas de IA, incluidos los complementos, se facilitan a través de API, que pueden estar expuestas a vulnerabilidades, abusos, errores de configuración y ataques que eluden controles de autenticación y autorización deficientes.
  • Seguridad de los grandes modelos lingüísticos (LLM). Los LLM y los correspondientes procesos de entrenamiento e inferencia asociados a la toma de decisiones en aplicaciones basadas en IA generativa están sujetos a numerosos riesgos, como la inyección de entradas, el envenenamiento de datos, las alucinaciones y los sesgos.

Para un examen en profundidad de los riesgos de seguridad que conlleva la implementación y la gestión de sistemas de IA basados en LLM, incluidas las aplicaciones de IA periférica, revise el documento OWASP Top 10 for Large Language Model Applications (Top 10 de OWASP para grandes aplicaciones de modelos lingüísticos), que promueve la concienciación sobre sus vulnerabilidades, sugiere estrategias de corrección y trata de mejorar la postura de seguridad de las aplicaciones de LLM.

Estrategias de optimización para IA en el borde

Debido a su ubicación en el borde de la red o en otras ubicaciones remotas, es importante optimizar la infraestructura de IA en el borde en cuanto a rendimiento, utilización de recursos, seguridad y otras consideraciones. Sin embargo, optimizar la eficiencia y el rendimiento de los dispositivos con recursos limitados puede resultar complicado, ya que minimizar los requisitos de proceso, memoria y energía manteniendo un rendimiento aceptable suele implicar concesiones.

Mejora del rendimiento de la IA en el borde

Existen diversas estrategias para optimizar el rendimiento computacional en el borde mientras se limita el consumo de energía. El uso de técnicas de ahorro energético, como los modos de bajo consumo, los estados de reposo o el escalado dinámico de voltaje y frecuencia (DVFS), puede contribuir a reducir el consumo energético. Los aceleradores de hardware, como las GPU y las DPU, pueden descargar tareas de cálculo intensivo de la CPU, mejorando la velocidad de inferencia. Además, técnicas como la dosificación dinámica, la inferencia adaptativa o la dispersión de modelos pueden optimizar la utilización de recursos sin comprometer el rendimiento. Las tareas menos intensivas pueden ser gestionadas por los recursos de la CPU, lo que subraya la importancia de la agrupación de recursos en arquitecturas con mucha distribución.

Adaptación de modelos para edge computing

Los dispositivos periféricos de IA suelen tener recursos informáticos limitados, por lo que es necesario implantar modelos de IA ligeros y optimizados para estos dispositivos. Esto puede implicar encontrar un equilibrio entre la complejidad del modelo, la precisión y la velocidad de inferencia a la hora de seleccionar el modelo más adecuado para los recursos del dispositivo y los requisitos de la aplicación. Técnicas como la cuantización, la poda y la destilación de conocimientos del modelo pueden ayudar a reducir el tamaño de los modelos de IA sin una pérdida significativa de rendimiento.

Seguridad de las aplicaciones en el borde

El «perímetro en disolución» se refiere a cómo los límites tradicionales de la red se están volviendo menos definidos debido a factores como los dispositivos móviles, la computación en la nube y la edge computing. En el contexto de la IA en el borde, el perímetro en disolución significa que los dispositivos de IA en los bordes suelen implementarse en entornos de red remotos y dinámicos en los bordes de la red y operan fuera de los entornos de centros de datos o en la nube y más allá de las medidas de seguridad tradicionales basadas en el perímetro, como los cortafuegos o los sistemas de detección de intrusiones. Como resultado, la seguridad de la IA en los bordes tiene requisitos especiales y debe optimizarse para proteger contra amenazas como el acceso no autorizado en ubicaciones aisladas y a través de entornos complejos y distribuidos que hacen que la gestión y la visibilidad de la seguridad sean un desafío.

Además, las API proporcionan el tejido conectivo que permite a múltiples partes de las aplicaciones de IA intercambiar datos e instrucciones. La protección de estas conexiones API y de los datos que se ejecutan a través de ellas es un reto de seguridad crítico al que deben enfrentarse las empresas a medida que implementan aplicaciones habilitadas para IA, lo que requiere la implementación de servicios de protección de aplicaciones web y API que detecten dinámicamente los puntos de conexión y los protejan automáticamente frente a una variedad de riesgos.

Seguridad para grandes modelos lingüísticos

Los LMM son modelos de inteligencia artificial basados en grandes cantidades de datos textuales y entrenados para comprender y generar resultados en lenguaje natural con una fluidez y coherencia notables, similares a las humanas. Los LLM, que son el núcleo de las aplicaciones de IA generativa, suelen entrenarse a partir de datos de entrada y contenidos extraídos sistemáticamente de Internet, como libros, entradas, sitios web y artículos. Sin embargo, estos datos de entrada son objeto de ataques por parte de agentes malintencionados que manipulan intencionadamente los datos de entrada para engañar o comprometer el rendimiento de los modelos de IA generativa, lo que provoca vulnerabilidades, sesgos, resultados poco fiables, violaciones de la privacidad y la ejecución de código no autorizado.

Entre los principales riesgos de seguridad para los LLM se encuentran:

  • Inyección de mensajes: Los atacantes pueden manipular los mensajes de entrada del LMM para influir en los resultados generados y socavar la confianza y fiabilidad de los resultados generados por el LLM mediante la generación de contenidos sesgados, ofensivos o inexactos.
  • Envenenamiento de modelos. Estos ataques consisten en inyectar datos malintencionados durante la fase de entrenamiento de los LLM para manipular su comportamiento o comprometer su rendimiento. Al introducir muestras de datos envenenados en el conjunto de datos de entrenamiento, los atacantes pueden insertar sesgos, vulnerabilidades o puertas traseras en el modelo LLM entrenado.
  • Denegación de servicio de modelos (DoS): Estos ataques están dirigidos a la disponibilidad y el rendimiento de los LLM, saturándolos con solicitudes o entradas malintencionadas que pueden superar los umbrales de tokenización de solicitudes y las ventanas de contexto de los modelos. Esto puede ocasionar ralentizaciones, interrupciones o incluso cortes del servicio. Los ataques de agotamiento de recursos provocan una degradación del rendimiento e inestabilidad en el sistema, lo que afecta directamente a la disponibilidad y fiabilidad del sistema de IA. Además, comprometen la capacidad del modelo para aprender de los datos y responder adecuadamente a las peticiones de los usuarios.

Para hacer frente a estos retos de seguridad se requiere un enfoque polifacético que evite las inyecciones de comandos y emplee técnicas como la depuración de comandos, la validación de entradas y el filtrado de comandos para garantizar que el modelo no sea manipulado por entradas malintencionadas. Para contrarrestar los ataques DoS, cree una estrategia de defensa por capas que incluya la limitación de velocidad, la detección de anomalías y el análisis de comportamiento para detectar e identificar actividades de red sospechosas o malintencionadas. La industria sigue evolucionando para gestionar eficazmente estos riesgos, lo que lleva al rápido desarrollo de proxies LLM, cortafuegos, puertas de enlace y middleware seguro dentro de las pilas de aplicaciones.

El futuro de la IA en el borde

La IA en el borde forma parte de un conjunto de tecnologías en rápida evolución en el perímetro de la red, que está dando paso a una nueva era de entornos informáticos inteligentes, con capacidad de respuesta y más eficientes. Estas tecnologías, en la confluencia de los avances en procesadores, redes, software y seguridad, están abriendo nuevas posibilidades de innovación y transformación en todos los sectores. Estos casos de uso de la informática en el perímetro aprovechan el análisis en tiempo real y la toma de decisiones en el borde de la red, lo que permite a las organizaciones procesar y analizar los datos más cerca de su origen y mejorar los tiempos de respuesta de las aplicaciones sensibles a la latencia o garantizar la entrega de contenido en tiempo real.

La distribución de los recursos informáticos en el borde de la red también permite a las organizaciones adaptarse rápidamente a las cambiantes demandas de carga de trabajo y optimizar la utilización de los recursos para mejorar el rendimiento y la eficiencia general del sistema. Estas posibilidades se deben en parte a la evolución de los componentes creados específicamente para la infraestructura de edge computing, como los servidores de borde, las plataformas y bibliotecas de computación de borde y los procesadores AI-on-chip que proporcionan los recursos informáticos, de almacenamiento y de red necesarios para dar soporte a las aplicaciones de AI de borde.

La IA en el borde ha desempeñado un papel fundamental en el renacimiento de la infraestructura en el perímetro de la red, y la integración de la IA con el IoT sigue impulsando la toma de decisiones inteligentes en el perímetro, impulsando aplicaciones revolucionarias en sanidad, automatización industrial, robótica, infraestructuras inteligentes y mucho más.

TinyML es una aproximación al aprendizaje automático y la IA que se centra en parte en la creación de modelos y algoritmos ligeros de aprendizaje automático por software, optimizados para su implementación en dispositivos periféricos con recursos limitados, como microcontroladores y dispositivos de IA de borde. Los algoritmos basados en TinyML están diseñados para ser energéticamente eficientes y capaces de ejecutar tareas de inferencia localmente sin depender de recursos en la nube.

Además, los procesadores compactos y potentes como las DPU, que son componentes de hardware especializados diseñados para descargar y acelerar las tareas de procesamiento de datos de la CPU, se utilizan cada vez más en la edge computing y las cargas de trabajo de IA/aprendizaje automático, donde el procesamiento eficiente de grandes cantidades de datos es crucial para el rendimiento y la escalabilidad. Esta eficiencia es especialmente valiosa en entornos de edge computing donde las restricciones de potencia pueden limitar el uso de soluciones de GPU de alto consumo energético.

La conexión de estas innovaciones en un continuo de borde a nube y centro de datos representa una nueva generación de soluciones de red que permite el procesamiento de datos, análisis y observabilidad sin fisuras a través de arquitecturas distribuidas, que incluyen recursos híbridos, multinube y de edge computing. Estas redes se basarán cada vez más en las API, que son componentes esenciales de las plataformas de edge computing, ya que facilitan la comunicación, integración y automatización para permitir el intercambio de datos y la sincronización dentro de entornos informáticos distribuidos. Las API también permiten la interoperabilidad entre diversos dispositivos de borde, sistemas y servicios, proporcionando interfaces estandarizadas que facilitan el aprovisionamiento dinámico, la gestión y el control de los recursos y servicios de borde.

En estas arquitecturas distribuidas de amplio alcance, los datos pueden procesarse y analizarse de forma segura en múltiples puntos a lo largo del continuo, desde dispositivos periféricos situados cerca de las fuentes de datos hasta servidores en la nube centralizados —o dispersos— ubicados en centros de datos. Este continuo «del borde a todas partes» permite a las organizaciones aprovechar de forma segura los puntos fuertes de múltiples entornos informáticos e integrar cargas de trabajo tradicionales y de IA para satisfacer los diversos requisitos de las aplicaciones modernas.

Cómo puede ayudar F5

F5 es el único proveedor de soluciones que protege, ofrece y optimiza cualquier aplicación y API, en cualquier lugar, a lo largo de toda la gama de entornos distribuidos, incluidas las aplicaciones de IA en el borde de la red. Las aplicaciones basadas en IA representan lo más avanzado de las aplicaciones modernas y, aunque existen consideraciones específicas para los sistemas que emplean IA generativa, como los riesgos asociados con los LLM y la inferencia distribuida, estas aplicaciones también están expuestas a desafíos comunes como la latencia, la denegación de servicio, las vulnerabilidades de software y el abuso por parte de agentes malintencionados que emplean bots y automatización para fines maliciosos.

Las nuevas experiencias digitales impulsadas por la IA están altamente distribuidas, con una combinación de fuentes de datos, modelos y servicios que se extienden a través de entornos locales, en la nube y en los bordes, todos interconectados por una red en expansión de API, lo que presenta importantes desafíos de seguridad. La protección de estas conexiones API y de los datos que circulan a través de ellas es el desafío crítico de seguridad que las empresas deben abordar a medida que implementan más servicios habilitados para IA.

F5 Distributed Cloud Services ofrece la solución de seguridad de API preparada para IA más completa del sector, con pruebas de código de API y análisis de telemetría para ayudar a proteger frente a las sofisticadas amenazas impulsadas por IA, a la vez que facilita la seguridad y la gestión de entornos de aplicaciones de borde y multinube. Las soluciones F5 Multi-Cloud Networking ofrecen redes basadas en SaaS con optimización de tráfico y servicios de seguridad para nubes públicas y privadas e implementaciones de borde a través de una única consola, lo que alivia la carga de gestión de servicios dependientes de la nube y múltiples proveedores externos. Con las soluciones de red de F5, se obtienen implementaciones de IA aceleradas, gestión de políticas de extremo a extremo y observabilidad para una infraestructura totalmente automatizable y fiable.

Además, el nuevo F5 AI Data Fabric es la base para crear soluciones innovadoras que ayuden a los clientes a tomar decisiones más informadas y a emprender acciones más rápidas. La telemetría de Distributed Cloud Services, BIG-IP y NGINX se combina para ofrecer perspectivas sin precedentes, producir informes en tiempo real, automatizar acciones y potenciar agentes de IA.

F5 también está lanzando un asistente de IA que transformará la forma en que los clientes interactúan y gestionan las soluciones F5 mediante una interfaz de lenguaje natural. Impulsado por el F5 AI Data Fabric, el asistente de IA generará visualizaciones de datos, identificará anomalías, consultará y generará configuraciones de políticas, y aplicará pasos de remediación. Además, funcionará como un gestor de soporte al cliente integrado, permitiendo a los clientes realizar preguntas y recibir recomendaciones basadas en el entrenamiento de modelos de conocimiento de productos completos.

Al potenciar y proteger sus aplicaciones basadas en IA, desde el centro de datos hasta el perímetro, las soluciones de F5 proporcionan potentes herramientas que ofrecen un rendimiento y una seguridad predecibles para que pueda obtener el máximo valor de sus inversiones en IA.

Recursos

FICHA TÉCNICA

SOLUCIONES
Power and Protect Your AI Journey › (Potencie y proteja su viaje con la IA)

BLOG

BLOG
How F5 Is Unlocking the Power of AI › (Cómo F5 está desbloqueando el poder de la IA)

FICHA TÉCNICA

WEBINAR
Generative AI in Cyber Security: A Double-Edged Sword › (IA Generativa en ciberseguridad: un arma de doble filo)