La IA en el borde representa la implementación de algoritmos y modelos de inteligencia artificial en un entorno de Edge computing, que acerca la potencia de cálculo y la inteligencia al lugar donde se toman las decisiones, en parte para compensar un flujo continuo de comunicación entre los sitios periféricos y la nube. La IA en el borde permite a los dispositivos situados en la periferia de la red procesar datos localmente, lo que permite tomar decisiones en tiempo real sin depender de conexiones a Internet o servidores centralizados en la nube para el procesamiento, aumentando la velocidad de cálculo y mejorando la privacidad y seguridad de los datos.
La IA en el borde es la convergencia de múltiples tecnologías, como la inteligencia artificial, Internet de las cosas (IoT), edge computing y los sistemas integrados, cada una de las cuales desempeña un papel crucial a la hora de permitir el procesamiento inteligente y la toma de decisiones en la periferia de la red. La IA en el borde implica el uso de algoritmos integrados para supervisar la actividad de un sistema remoto, así como el procesamiento de los datos recogidos por dispositivos como sensores y otros rastreadores de datos no estructurados, como la temperatura, el lenguaje, las caras, el movimiento, las imágenes, la proximidad y otras entradas analógicas.
Estos sistemas remotos pueden adoptar muchas formas, incluidos sensores, teléfonos inteligentes, dispositivos IoT, drones, cámaras e incluso vehículos y electrodomésticos inteligentes. Los datos recopilados de estos sistemas sirven como entrada para los algoritmos de IA de borde, proporcionando información valiosa sobre el estado del sistema o sus alrededores, lo que permite a los sistemas de IA de borde responder rápidamente a los cambios o anomalías y comprender el entorno en el que operan. Estas aplicaciones de IA de borde serían poco prácticas o incluso imposibles en un entorno de nube centralizada o centro de datos empresarial debido a problemas relacionados con el coste, la latencia, el ancho de banda, la seguridad y la privacidad.
IA en el borde abarca una amplia gama de casos de uso, entre los que se incluyen:
Existen dos paradigmas principales para la implementación de algoritmos y modelos de IA: en el borde o en la nube. Las estrategias para integrar sistemas que abarcan ambos entornos se conocen como «cloud-in» o «edge-out», y cada una tiene implicaciones específicas para el rendimiento, la seguridad y las operaciones.
La IA en el borde consiste en implementar la IA en dispositivos remotos para permitir el procesamiento en tiempo real y la toma de decisiones en el borde de la red o en entornos descentralizados. Estos sistemas pueden analizar en gran medida los datos localmente, sin depender de la conectividad de la red o de la transmisión de datos a servidores centralizados, lo que se traduce en una menor latencia y tiempos de respuesta más rápidos. Los sistemas de IA en el borde también mantienen los datos sensibles localmente, reduciendo el riesgo de violaciones de la privacidad o los riesgos de seguridad asociados con la transmisión de datos a la nube.
Entre los ejemplos de IA en el borde se encuentran los vehículos autónomos que utilizan IA implementada localmente para analizar los datos de los sensores y tomar decisiones de conducción en tiempo real y los dispositivos domésticos inteligentes que utilizan IA en el borde para procesar órdenes de voz o vigilar las instalaciones en busca de intrusos.
Por otro lado, la IA en la nube se caracteriza por desplegar algoritmos y modelos de IA en servidores centralizados en la nube, lo que permite el procesamiento de datos, el entrenamiento y la inferencia a gran escala. Los recursos en la nube aportan importantes capacidades informáticas, lo que permite realizar tareas complejas de IA, como el entrenamiento de aprendizaje profundo o el análisis de macrodatos, que requieren una potencia computacional masiva. Las soluciones de IA en la nube pueden escalarse fácilmente para dar cabida a grandes volúmenes de datos y usuarios, lo que las hace adecuadas para aplicaciones con un alto rendimiento o requisitos de uso intensivo de recursos.
Los motores de recomendación, como los empleados por Amazon o Netflix para sugerir productos o contenidos basados en datos exhaustivos de los usuarios, son ejemplos de sistemas de IA en la nube a gran escala que dependen de recursos informáticos significativos para operar de manera eficiente.
Otros casos de uso de la IA combinan la IA en el borde y en la nube para satisfacer las necesidades específicas de los clientes. Un ejemplo destacado de la vida real es Sentient.io, un proveedor de plataformas de IA y datos con sede en Singapur, que ha desarrollado Sentient Marketplace, un centro de servicios de IA innovadores que facilita a las empresas integrar la IA fácilmente en sus flujos de trabajo existentes. No obstante, el rápido éxito de su mercado trajo consigo retos significativos, como la dificultad de operar e implementar servicios de IA en entornos distribuidos, como instalaciones locales, nubes públicas, nubes privadas y entornos en el borde.
Operar a través de múltiples proveedores en los sitios de los clientes puede ser un desafío, ya que las soluciones de cada proveedor de nube suelen ofrecer distribuciones exclusivas de Kubernetes. Esto puede resultar complicado para las organizaciones que necesitan integrar estas plataformas en sus entornos de nube. Además, el proceso de implementación de los modelos de IA de Sentient en los sitios de los clientes era particularmente laborioso, ya que requería configurar entornos Kubernetes locales para cada sitio de borde, además de gestionar manualmente las actualizaciones y la sincronización de nuevos modelos. Esta situación incrementó la complejidad operativa y derivó en políticas de orquestación y seguridad de flujo de trabajo inconsistentes.
Sentient.io se unió a F5 para proporcionar soluciones de IA empresariales «como servicio» llave en mano a clientes de diversos sectores, aprovechando F5 Distributed Cloud App Stack. Esta plataforma Kubernetes, diseñada para entornos empresariales, simplifica las implementaciones en ubicaciones locales, en la nube y en el borde. La colaboración permitió a Sentient.io agilizar sus operaciones, reducir la latencia y habilitar el procesamiento de IA en tiempo real directamente en el borde. La capacidad de realizar inferencias en el borde eliminó las limitaciones relacionadas con la red y el ancho de banda debido a la ubicación geográfica, garantizando respuestas inmediatas para aplicaciones en tiempo real. Este modelo de implementación transformado permitió a Sentient.io entregar aplicaciones de IA de alto rendimiento con tiempos de creación de valor más cortos, optimizar recursos, disminuir los costes operativos generales e integrar de forma nativa la seguridad en aplicaciones y API.
La colaboración también supuso un importante ahorro de costes con respecto al proceso anterior de gestión manual de varias plataformas en la nube, que requería equipos dedicados e incurría en importantes costes de recursos. Con F5 Distributed Cloud Services, Sentient simplificó las operaciones, reduciendo costes al optimizar los recursos y simplificar la gestión de aplicaciones, y liberando recursos para otras iniciativas estratégicas.
El acceso a la IA en el borde de la red implica la implementación de una combinación de dispositivos, tecnologías, componentes de infraestructura e integraciones que permitan un acceso y una utilización eficientes de las capacidades de IA en el borde de la red, entre las que se incluyen:
Además, tenga en cuenta los siguientes retos y limitaciones a la hora de implementar la IA en el borde y acceder a ella.
La protección de los datos y la mitigación de los riesgos de seguridad en las implementaciones de IA en el borde requieren un enfoque integral que se centre en una seguridad de múltiples capas. Aunque la IA en el borde presenta diferencias con respecto a las cargas de trabajo informáticas tradicionales, especialmente en su capacidad para aprender de los datos y hacer evolucionar el comportamiento a partir de la experiencia, en términos de requisitos de seguridad, la IA en el borde comparte muchas similitudes con los sistemas IoT convencionales y enfrenta los mismos riesgos, entre los cuales se incluyen:
Para un examen en profundidad de los riesgos de seguridad que conlleva la implementación y la gestión de sistemas de IA basados en LLM, incluidas las aplicaciones de IA periférica, revise el documento OWASP Top 10 for Large Language Model Applications (Top 10 de OWASP para grandes aplicaciones de modelos lingüísticos), que promueve la concienciación sobre sus vulnerabilidades, sugiere estrategias de corrección y trata de mejorar la postura de seguridad de las aplicaciones de LLM.
Debido a su ubicación en el borde de la red o en otras ubicaciones remotas, es importante optimizar la infraestructura de IA en el borde en cuanto a rendimiento, utilización de recursos, seguridad y otras consideraciones. Sin embargo, optimizar la eficiencia y el rendimiento de los dispositivos con recursos limitados puede resultar complicado, ya que minimizar los requisitos de proceso, memoria y energía manteniendo un rendimiento aceptable suele implicar concesiones.
Existen diversas estrategias para optimizar el rendimiento computacional en el borde mientras se limita el consumo de energía. El uso de técnicas de ahorro energético, como los modos de bajo consumo, los estados de reposo o el escalado dinámico de voltaje y frecuencia (DVFS), puede contribuir a reducir el consumo energético. Los aceleradores de hardware, como las GPU y las DPU, pueden descargar tareas de cálculo intensivo de la CPU, mejorando la velocidad de inferencia. Además, técnicas como la dosificación dinámica, la inferencia adaptativa o la dispersión de modelos pueden optimizar la utilización de recursos sin comprometer el rendimiento. Las tareas menos intensivas pueden ser gestionadas por los recursos de la CPU, lo que subraya la importancia de la agrupación de recursos en arquitecturas con mucha distribución.
Los dispositivos periféricos de IA suelen tener recursos informáticos limitados, por lo que es necesario implantar modelos de IA ligeros y optimizados para estos dispositivos. Esto puede implicar encontrar un equilibrio entre la complejidad del modelo, la precisión y la velocidad de inferencia a la hora de seleccionar el modelo más adecuado para los recursos del dispositivo y los requisitos de la aplicación. Técnicas como la cuantización, la poda y la destilación de conocimientos del modelo pueden ayudar a reducir el tamaño de los modelos de IA sin una pérdida significativa de rendimiento.
El «perímetro en disolución» se refiere a cómo los límites tradicionales de la red se están volviendo menos definidos debido a factores como los dispositivos móviles, la computación en la nube y la edge computing. En el contexto de la IA en el borde, el perímetro en disolución significa que los dispositivos de IA en los bordes suelen implementarse en entornos de red remotos y dinámicos en los bordes de la red y operan fuera de los entornos de centros de datos o en la nube y más allá de las medidas de seguridad tradicionales basadas en el perímetro, como los cortafuegos o los sistemas de detección de intrusiones. Como resultado, la seguridad de la IA en los bordes tiene requisitos especiales y debe optimizarse para proteger contra amenazas como el acceso no autorizado en ubicaciones aisladas y a través de entornos complejos y distribuidos que hacen que la gestión y la visibilidad de la seguridad sean un desafío.
Además, las API proporcionan el tejido conectivo que permite a múltiples partes de las aplicaciones de IA intercambiar datos e instrucciones. La protección de estas conexiones API y de los datos que se ejecutan a través de ellas es un reto de seguridad crítico al que deben enfrentarse las empresas a medida que implementan aplicaciones habilitadas para IA, lo que requiere la implementación de servicios de protección de aplicaciones web y API que detecten dinámicamente los puntos de conexión y los protejan automáticamente frente a una variedad de riesgos.
Los LMM son modelos de inteligencia artificial basados en grandes cantidades de datos textuales y entrenados para comprender y generar resultados en lenguaje natural con una fluidez y coherencia notables, similares a las humanas. Los LLM, que son el núcleo de las aplicaciones de IA generativa, suelen entrenarse a partir de datos de entrada y contenidos extraídos sistemáticamente de Internet, como libros, entradas, sitios web y artículos. Sin embargo, estos datos de entrada son objeto de ataques por parte de agentes malintencionados que manipulan intencionadamente los datos de entrada para engañar o comprometer el rendimiento de los modelos de IA generativa, lo que provoca vulnerabilidades, sesgos, resultados poco fiables, violaciones de la privacidad y la ejecución de código no autorizado.
Entre los principales riesgos de seguridad para los LLM se encuentran:
Para hacer frente a estos retos de seguridad se requiere un enfoque polifacético que evite las inyecciones de comandos y emplee técnicas como la depuración de comandos, la validación de entradas y el filtrado de comandos para garantizar que el modelo no sea manipulado por entradas malintencionadas. Para contrarrestar los ataques DoS, cree una estrategia de defensa por capas que incluya la limitación de velocidad, la detección de anomalías y el análisis de comportamiento para detectar e identificar actividades de red sospechosas o malintencionadas. La industria sigue evolucionando para gestionar eficazmente estos riesgos, lo que lleva al rápido desarrollo de proxies LLM, cortafuegos, puertas de enlace y middleware seguro dentro de las pilas de aplicaciones.
La IA en el borde forma parte de un conjunto de tecnologías en rápida evolución en el perímetro de la red, que está dando paso a una nueva era de entornos informáticos inteligentes, con capacidad de respuesta y más eficientes. Estas tecnologías, en la confluencia de los avances en procesadores, redes, software y seguridad, están abriendo nuevas posibilidades de innovación y transformación en todos los sectores. Estos casos de uso de la informática en el perímetro aprovechan el análisis en tiempo real y la toma de decisiones en el borde de la red, lo que permite a las organizaciones procesar y analizar los datos más cerca de su origen y mejorar los tiempos de respuesta de las aplicaciones sensibles a la latencia o garantizar la entrega de contenido en tiempo real.
La distribución de los recursos informáticos en el borde de la red también permite a las organizaciones adaptarse rápidamente a las cambiantes demandas de carga de trabajo y optimizar la utilización de los recursos para mejorar el rendimiento y la eficiencia general del sistema. Estas posibilidades se deben en parte a la evolución de los componentes creados específicamente para la infraestructura de edge computing, como los servidores de borde, las plataformas y bibliotecas de computación de borde y los procesadores AI-on-chip que proporcionan los recursos informáticos, de almacenamiento y de red necesarios para dar soporte a las aplicaciones de AI de borde.
La IA en el borde ha desempeñado un papel fundamental en el renacimiento de la infraestructura en el perímetro de la red, y la integración de la IA con el IoT sigue impulsando la toma de decisiones inteligentes en el perímetro, impulsando aplicaciones revolucionarias en sanidad, automatización industrial, robótica, infraestructuras inteligentes y mucho más.
TinyML es una aproximación al aprendizaje automático y la IA que se centra en parte en la creación de modelos y algoritmos ligeros de aprendizaje automático por software, optimizados para su implementación en dispositivos periféricos con recursos limitados, como microcontroladores y dispositivos de IA de borde. Los algoritmos basados en TinyML están diseñados para ser energéticamente eficientes y capaces de ejecutar tareas de inferencia localmente sin depender de recursos en la nube.
Además, los procesadores compactos y potentes como las DPU, que son componentes de hardware especializados diseñados para descargar y acelerar las tareas de procesamiento de datos de la CPU, se utilizan cada vez más en la edge computing y las cargas de trabajo de IA/aprendizaje automático, donde el procesamiento eficiente de grandes cantidades de datos es crucial para el rendimiento y la escalabilidad. Esta eficiencia es especialmente valiosa en entornos de edge computing donde las restricciones de potencia pueden limitar el uso de soluciones de GPU de alto consumo energético.
La conexión de estas innovaciones en un continuo de borde a nube y centro de datos representa una nueva generación de soluciones de red que permite el procesamiento de datos, análisis y observabilidad sin fisuras a través de arquitecturas distribuidas, que incluyen recursos híbridos, multinube y de edge computing. Estas redes se basarán cada vez más en las API, que son componentes esenciales de las plataformas de edge computing, ya que facilitan la comunicación, integración y automatización para permitir el intercambio de datos y la sincronización dentro de entornos informáticos distribuidos. Las API también permiten la interoperabilidad entre diversos dispositivos de borde, sistemas y servicios, proporcionando interfaces estandarizadas que facilitan el aprovisionamiento dinámico, la gestión y el control de los recursos y servicios de borde.
En estas arquitecturas distribuidas de amplio alcance, los datos pueden procesarse y analizarse de forma segura en múltiples puntos a lo largo del continuo, desde dispositivos periféricos situados cerca de las fuentes de datos hasta servidores en la nube centralizados —o dispersos— ubicados en centros de datos. Este continuo «del borde a todas partes» permite a las organizaciones aprovechar de forma segura los puntos fuertes de múltiples entornos informáticos e integrar cargas de trabajo tradicionales y de IA para satisfacer los diversos requisitos de las aplicaciones modernas.
F5 es el único proveedor de soluciones que protege, ofrece y optimiza cualquier aplicación y API, en cualquier lugar, a lo largo de toda la gama de entornos distribuidos, incluidas las aplicaciones de IA en el borde de la red. Las aplicaciones basadas en IA representan lo más avanzado de las aplicaciones modernas y, aunque existen consideraciones específicas para los sistemas que emplean IA generativa, como los riesgos asociados con los LLM y la inferencia distribuida, estas aplicaciones también están expuestas a desafíos comunes como la latencia, la denegación de servicio, las vulnerabilidades de software y el abuso por parte de agentes malintencionados que emplean bots y automatización para fines maliciosos.
Las nuevas experiencias digitales impulsadas por la IA están altamente distribuidas, con una combinación de fuentes de datos, modelos y servicios que se extienden a través de entornos locales, en la nube y en los bordes, todos interconectados por una red en expansión de API, lo que presenta importantes desafíos de seguridad. La protección de estas conexiones API y de los datos que circulan a través de ellas es el desafío crítico de seguridad que las empresas deben abordar a medida que implementan más servicios habilitados para IA.
F5 Distributed Cloud Services ofrece la solución de seguridad de API preparada para IA más completa del sector, con pruebas de código de API y análisis de telemetría para ayudar a proteger frente a las sofisticadas amenazas impulsadas por IA, a la vez que facilita la seguridad y la gestión de entornos de aplicaciones de borde y multinube. Las soluciones F5 Multi-Cloud Networking ofrecen redes basadas en SaaS con optimización de tráfico y servicios de seguridad para nubes públicas y privadas e implementaciones de borde a través de una única consola, lo que alivia la carga de gestión de servicios dependientes de la nube y múltiples proveedores externos. Con las soluciones de red de F5, se obtienen implementaciones de IA aceleradas, gestión de políticas de extremo a extremo y observabilidad para una infraestructura totalmente automatizable y fiable.
Además, el nuevo F5 AI Data Fabric es la base para crear soluciones innovadoras que ayuden a los clientes a tomar decisiones más informadas y a emprender acciones más rápidas. La telemetría de Distributed Cloud Services, BIG-IP y NGINX se combina para ofrecer perspectivas sin precedentes, producir informes en tiempo real, automatizar acciones y potenciar agentes de IA.
F5 también está lanzando un asistente de IA que transformará la forma en que los clientes interactúan y gestionan las soluciones F5 mediante una interfaz de lenguaje natural. Impulsado por el F5 AI Data Fabric, el asistente de IA generará visualizaciones de datos, identificará anomalías, consultará y generará configuraciones de políticas, y aplicará pasos de remediación. Además, funcionará como un gestor de soporte al cliente integrado, permitiendo a los clientes realizar preguntas y recibir recomendaciones basadas en el entrenamiento de modelos de conocimiento de productos completos.
Al potenciar y proteger sus aplicaciones basadas en IA, desde el centro de datos hasta el perímetro, las soluciones de F5 proporcionan potentes herramientas que ofrecen un rendimiento y una seguridad predecibles para que pueda obtener el máximo valor de sus inversiones en IA.
SOLUCIONES
Power and Protect Your AI Journey › (Potencie y proteja su viaje con la IA)
BLOG
How F5 Is Unlocking the Power of AI › (Cómo F5 está desbloqueando el poder de la IA)
WEBINAR
Generative AI in Cyber Security: A Double-Edged Sword › (IA Generativa en ciberseguridad: un arma de doble filo)