La IA en el borde representa la implementación de algoritmos y modelos de inteligencia artificial en un entorno de Edge computing, que acerca la potencia de cálculo y la inteligencia al lugar donde se toman las decisiones, en parte para compensar un flujo continuo de comunicación entre los sitios periféricos y la nube. La IA en el borde permite a los dispositivos situados en la periferia de la red procesar datos localmente, lo que permite tomar decisiones en tiempo real sin depender de conexiones a Internet o servidores centralizados en la nube para el procesamiento, aumentando la velocidad de cálculo y mejorando la privacidad y seguridad de los datos.
Edge AI es la convergencia de múltiples tecnologías, incluidas la inteligencia artificial, la Internet de las cosas (IoT), la edge computing y los sistemas integrados, cada una de las cuales desempeña un papel crucial a la hora de permitir el procesamiento inteligente y la toma de decisiones en el borde de la red. Edge AI implica el uso de algoritmos integrados para monitorear la actividad de un sistema remoto, así como procesar los datos recopilados por dispositivos como sensores y otros rastreadores de datos no estructurados, incluida la temperatura, el idioma, los rostros, el movimiento, las imágenes, la proximidad y otras entradas analógicas.
Estos sistemas remotos pueden adoptar muchas formas, incluidos sensores, teléfonos inteligentes, dispositivos IoT, drones, cámaras e incluso vehículos y electrodomésticos inteligentes. Los datos recopilados de estos sistemas sirven como entrada para los algoritmos de IA de borde, proporcionando información valiosa sobre el estado del sistema o su entorno, lo que permite a los sistemas de IA de borde responder rápidamente a los cambios o anomalías y comprender el entorno en el que operan. Estas aplicações de inteligencia artificial de borde serían poco prácticas o incluso imposibles de operar en un entorno de centro de datos empresarial o de nube centralizada debido a problemas relacionados con el costo, la latencia, el ancho de banda, la seguridad y la privacidad.
Edge AI abarca una amplia gama de casos de uso, incluidos:
Existen dos paradigmas principales para la implementación de algoritmos y modelos de IA: en el borde o en la nube. Las estrategias para integrar sistemas que abarcan ambos entornos se conocen como «cloud-in» o «edge-out», y cada una tiene implicaciones específicas para el rendimiento, la seguridad y las operaciones.
La IA en el borde consiste en implementar la IA en dispositivos remotos para permitir el procesamiento en tiempo real y la toma de decisiones en el borde de la red o en entornos descentralizados. Estos sistemas pueden analizar en gran medida los datos localmente, sin depender de la conectividad de la red o de la transmisión de datos a servidores centralizados, lo que se traduce en una menor latencia y tiempos de respuesta más rápidos. Los sistemas de IA en el borde también mantienen los datos sensibles localmente, reduciendo el riesgo de violaciones de la privacidad o los riesgos de seguridad asociados con la transmisión de datos a la nube.
Entre los ejemplos de IA en el borde se encuentran los vehículos autónomos que utilizan IA implementada localmente para analizar los datos de los sensores y tomar decisiones de conducción en tiempo real y los dispositivos domésticos inteligentes que utilizan IA en el borde para procesar órdenes de voz o vigilar las instalaciones en busca de intrusos.
Por otro lado, la IA en la nube se caracteriza por desplegar algoritmos y modelos de IA en servidores centralizados en la nube, lo que permite el procesamiento de datos, el entrenamiento y la inferencia a gran escala. Los recursos en la nube aportan importantes capacidades informáticas, lo que permite realizar tareas complejas de IA, como el entrenamiento de aprendizaje profundo o el análisis de macrodatos, que requieren una potencia computacional masiva. Las soluciones de IA en la nube pueden escalarse fácilmente para dar cabida a grandes volúmenes de datos y usuarios, lo que las hace adecuadas para aplicaciones con un alto rendimiento o requisitos de uso intensivo de recursos.
Los motores de recomendación, como los empleados por Amazon o Netflix para sugerir productos o contenidos basados en datos exhaustivos de los usuarios, son ejemplos de sistemas de IA en la nube a gran escala que dependen de recursos informáticos significativos para operar de manera eficiente.
Otros casos de uso de IA abarcan tanto la IA de borde como la IA en la nube para satisfacer las necesidades específicas de los clientes. Algunos ejemplos de la vida real incluyen Sentient.io, un proveedor de plataformas de datos e inteligencia artificial con sede en Singapur, que ha desarrollado Sentient Marketplace, un centro de servicios de inteligencia artificial innovadores que permite a las empresas integrar fácilmente la inteligencia artificial en sus flujos de trabajo existentes. Sin embargo, el rápido éxito del mercado presentó varios desafíos complejos, incluida la dificultad de operar e implementar servicios de IA en entornos distribuidos (locales, en la nube pública, en la nube privada y en el borde).
Operar a través de múltiples proveedores en los sitios de los clientes puede ser un desafío, ya que las soluciones de cada proveedor de nube suelen ofrecer distribuciones exclusivas de Kubernetes. Esto puede resultar complicado para las organizaciones que necesitan integrar estas plataformas en sus entornos de nube. Además, el proceso de implementación de los modelos de IA de Sentient en los sitios de los clientes era particularmente laborioso, ya que requería configurar entornos Kubernetes locales para cada sitio de borde, además de gestionar manualmente las actualizaciones y la sincronización de nuevos modelos. Esta situación incrementó la complejidad operativa y derivó en políticas de orquestación y seguridad de flujo de trabajo inconsistentes.
Sentient.io se asoció con F5 para ofrecer soluciones de inteligencia artificial "como servicio" llave en mano y de nivel empresarial a clientes de una variedad de sectores verticales utilizando F5 Distributed Cloud App Stack, una plataforma Kubernetes lista para la empresa que simplifica las implementaciones en ubicaciones locales, en la nube y en el borde. La solución agilizó las operaciones de Sentient, reduciendo la latencia y permitiendo el procesamiento de IA en tiempo real en el borde. La entrega de inferencia en el borde elimina las restricciones de red y ancho de banda debido a la ubicación geográfica y garantiza la entrega inmediata de inferencia a las aplicações en tiempo real. Este cambio en la implementación del modelo permitió a Sentient.io ofrecer aplicações de IA de alto rendimiento a sus clientes con un tiempo de valor más rápido, optimizar la asignación de recursos, reducir los costos operativos generales e integrar de forma nativa la seguridad de las aplicação y las API.
La colaboración también generó importantes ahorros de costos en comparación con el proceso anterior de administrar manualmente múltiples plataformas en la nube, que requería equipos dedicados e implicaba costos de recursos sustanciales. Con F5 Distributed Cloud Services, Sentient simplificó las operaciones, reduciendo costos al optimizar recursos y simplificando la gestión de aplicaciones, liberando recursos para otras iniciativas estratégicas o de confianza.
El acceso a la IA en el borde de la red implica la implementación de una combinación de dispositivos, tecnologías, componentes de infraestructura e integraciones que permitan un acceso y una utilización eficientes de las capacidades de IA en el borde de la red, entre las que se incluyen:
Además, tenga en cuenta los siguientes retos y limitaciones a la hora de implementar la IA en el borde y acceder a ella.
La protección de los datos y la mitigación de los riesgos de seguridad en las implementaciones de IA en el borde requieren un enfoque integral que se centre en una seguridad de múltiples capas. Aunque la IA en el borde presenta diferencias con respecto a las cargas de trabajo informáticas tradicionales, especialmente en su capacidad para aprender de los datos y hacer evolucionar el comportamiento a partir de la experiencia, en términos de requisitos de seguridad, la IA en el borde comparte muchas similitudes con los sistemas IoT convencionales y enfrenta los mismos riesgos, entre los cuales se incluyen:
Para un análisis profundo de los riesgos de seguridad involucrados en la implementación y gestión de sistemas de IA basados en LLM, incluidas las aplicações de IA de borde, revise el OWASP Top 10 for Large Language Model Aplicações , que promueve el conocimiento de sus vulnerabilidades, sugiere estrategias de remediación y busca mejorar la postura de seguridad de las aplicações LLM.
Debido a su ubicación en el borde de la red o en otras ubicaciones remotas, es importante optimizar la infraestructura de IA en el borde en cuanto a rendimiento, utilización de recursos, seguridad y otras consideraciones. Sin embargo, optimizar la eficiencia y el rendimiento de los dispositivos con recursos limitados puede resultar complicado, ya que minimizar los requisitos de proceso, memoria y energía manteniendo un rendimiento aceptable suele implicar concesiones.
Existen diversas estrategias para optimizar el rendimiento computacional en el borde mientras se limita el consumo de energía. El uso de técnicas de ahorro energético, como los modos de bajo consumo, los estados de reposo o el escalado dinámico de voltaje y frecuencia (DVFS), puede contribuir a reducir el consumo energético. Los aceleradores de hardware, como las GPU y las DPU, pueden descargar tareas de cálculo intensivo de la CPU, mejorando la velocidad de inferencia. Además, técnicas como la dosificación dinámica, la inferencia adaptativa o la dispersión de modelos pueden optimizar la utilización de recursos sin comprometer el rendimiento. Las tareas menos intensivas pueden ser gestionadas por los recursos de la CPU, lo que subraya la importancia de la agrupación de recursos en arquitecturas con mucha distribución.
Los dispositivos periféricos de IA suelen tener recursos informáticos limitados, por lo que es necesario implantar modelos de IA ligeros y optimizados para estos dispositivos. Esto puede implicar encontrar un equilibrio entre la complejidad del modelo, la precisión y la velocidad de inferencia a la hora de seleccionar el modelo más adecuado para los recursos del dispositivo y los requisitos de la aplicación. Técnicas como la cuantización, la poda y la destilación de conocimientos del modelo pueden ayudar a reducir el tamaño de los modelos de IA sin una pérdida significativa de rendimiento.
El «perímetro en disolución» se refiere a cómo los límites tradicionales de la red se están volviendo menos definidos debido a factores como los dispositivos móviles, la computación en la nube y la edge computing. En el contexto de la IA en el borde, el perímetro en disolución significa que los dispositivos de IA en los bordes suelen implementarse en entornos de red remotos y dinámicos en los bordes de la red y operan fuera de los entornos de centros de datos o en la nube y más allá de las medidas de seguridad tradicionales basadas en el perímetro, como los cortafuegos o los sistemas de detección de intrusiones. Como resultado, la seguridad de la IA en los bordes tiene requisitos especiales y debe optimizarse para proteger contra amenazas como el acceso no autorizado en ubicaciones aisladas y a través de entornos complejos y distribuidos que hacen que la gestión y la visibilidad de la seguridad sean un desafío.
Además, las API proporcionan el tejido conectivo que permite que múltiples partes de las aplicações de IA intercambien datos e instrucciones. La protección de estas conexiones API y los datos que pasan por ellas es un desafío de seguridad crítico que las empresas deben enfrentar a medida que implementan aplicações habilitadas para IA, lo que requiere la implementación de servicios de protección de API y aplicaciones web que descubran dinámicamente y protejan automáticamente los puntos finales de una variedad de riesgos.
Los LMM son modelos de inteligencia artificial basados en grandes cantidades de datos textuales y entrenados para comprender y generar resultados en lenguaje natural con una fluidez y coherencia notables, similares a las humanas. Los LLM, que son el núcleo de las aplicaciones de IA generativa, suelen entrenarse a partir de datos de entrada y contenidos extraídos sistemáticamente de Internet, como libros, entradas, sitios web y artículos. Sin embargo, estos datos de entrada son objeto de ataques por parte de agentes malintencionados que manipulan intencionadamente los datos de entrada para engañar o comprometer el rendimiento de los modelos de IA generativa, lo que provoca vulnerabilidades, sesgos, resultados poco fiables, violaciones de la privacidad y la ejecución de código no autorizado.
Entre los principales riesgos de seguridad para los LLM se encuentran:
Para hacer frente a estos retos de seguridad se requiere un enfoque polifacético que evite las inyecciones de comandos y emplee técnicas como la depuración de comandos, la validación de entradas y el filtrado de comandos para garantizar que el modelo no sea manipulado por entradas malintencionadas. Para contrarrestar los ataques DoS, cree una estrategia de defensa por capas que incluya la limitación de velocidad, la detección de anomalías y el análisis de comportamiento para detectar e identificar actividades de red sospechosas o malintencionadas. La industria sigue evolucionando para gestionar eficazmente estos riesgos, lo que lleva al rápido desarrollo de proxies LLM, cortafuegos, puertas de enlace y middleware seguro dentro de las pilas de aplicaciones.
La IA en el borde forma parte de un conjunto de tecnologías en rápida evolución en el perímetro de la red, que está dando paso a una nueva era de entornos informáticos inteligentes, con capacidad de respuesta y más eficientes. Estas tecnologías, en la confluencia de los avances en procesadores, redes, software y seguridad, están abriendo nuevas posibilidades de innovación y transformación en todos los sectores. Estos casos de uso de la informática en el perímetro aprovechan el análisis en tiempo real y la toma de decisiones en el borde de la red, lo que permite a las organizaciones procesar y analizar los datos más cerca de su origen y mejorar los tiempos de respuesta de las aplicaciones sensibles a la latencia o garantizar la entrega de contenido en tiempo real.
La distribución de los recursos informáticos en el borde de la red también permite a las organizaciones adaptarse rápidamente a las cambiantes demandas de carga de trabajo y optimizar la utilización de los recursos para mejorar el rendimiento y la eficiencia general del sistema. Estas posibilidades se deben en parte a la evolución de los componentes creados específicamente para la infraestructura de edge computing, como los servidores de borde, las plataformas y bibliotecas de computación de borde y los procesadores AI-on-chip que proporcionan los recursos informáticos, de almacenamiento y de red necesarios para dar soporte a las aplicaciones de AI de borde.
La IA en el borde ha desempeñado un papel fundamental en el renacimiento de la infraestructura en el perímetro de la red, y la integración de la IA con el IoT sigue impulsando la toma de decisiones inteligentes en el perímetro, impulsando aplicaciones revolucionarias en sanidad, automatización industrial, robótica, infraestructuras inteligentes y mucho más.
TinyML es una aproximación al aprendizaje automático y la IA que se centra en parte en la creación de modelos y algoritmos ligeros de aprendizaje automático por software, optimizados para su implementación en dispositivos periféricos con recursos limitados, como microcontroladores y dispositivos de IA de borde. Los algoritmos basados en TinyML están diseñados para ser energéticamente eficientes y capaces de ejecutar tareas de inferencia localmente sin depender de recursos en la nube.
Además, los procesadores compactos y potentes como las DPU, que son componentes de hardware especializados diseñados para descargar y acelerar las tareas de procesamiento de datos de la CPU, se utilizan cada vez más en la edge computing y las cargas de trabajo de IA/aprendizaje automático, donde el procesamiento eficiente de grandes cantidades de datos es crucial para el rendimiento y la escalabilidad. Esta eficiencia es especialmente valiosa en entornos de edge computing donde las restricciones de potencia pueden limitar el uso de soluciones de GPU de alto consumo energético.
Al vincular estas innovaciones en un continuo de borde a nube y centro de datos se crea una nueva generación de soluciones de red que permite el procesamiento, el análisis y la observabilidad de datos sin inconvenientes en arquitecturas distribuidas, incluidos recursos de edge computing . Estas redes dependerán cada vez más de las API, que son componentes esenciales de las plataformas de edge computing , ya que facilitan la comunicación, la integración y la automatización para permitir el intercambio y la sincronización de datos sin inconvenientes dentro de entornos de computación distribuida. Las API también permiten la interoperabilidad entre diversos dispositivos, sistemas y servicios de borde al ofrecer interfaces estandarizadas, lo que también permite el aprovisionamiento, la gestión y el control dinámicos de los recursos y servicios de borde.
En estas arquitecturas distribuidas de amplio alcance, los datos pueden procesarse y analizarse de forma segura en múltiples puntos a lo largo del continuo, desde dispositivos periféricos situados cerca de las fuentes de datos hasta servidores en la nube centralizados —o dispersos— ubicados en centros de datos. Este continuo «del borde a todas partes» permite a las organizaciones aprovechar de forma segura los puntos fuertes de múltiples entornos informáticos e integrar cargas de trabajo tradicionales y de IA para satisfacer los diversos requisitos de las aplicaciones modernas.
F5 es el único proveedor de soluciones que protege, ofrece y optimiza cualquier aplicación y API, en cualquier lugar, a lo largo de toda la gama de entornos distribuidos, incluidas las aplicaciones de IA en el borde de la red. Las aplicaciones basadas en IA representan lo más avanzado de las aplicaciones modernas y, aunque existen consideraciones específicas para los sistemas que emplean IA generativa, como los riesgos asociados con los LLM y la inferencia distribuida, estas aplicaciones también están expuestas a desafíos comunes como la latencia, la denegación de servicio, las vulnerabilidades de software y el abuso por parte de agentes malintencionados que emplean bots y automatización para fines maliciosos.
Las nuevas experiencias digitales impulsadas por la IA están altamente distribuidas, con una combinación de fuentes de datos, modelos y servicios que se extienden a través de entornos locales, en la nube y en los bordes, todos interconectados por una red en expansión de API, lo que presenta importantes desafíos de seguridad. La protección de estas conexiones API y de los datos que circulan a través de ellas es el desafío crítico de seguridad que las empresas deben abordar a medida que implementan más servicios habilitados para IA.
F5 Distributed Cloud Services ofrece la solución de seguridad de API preparada para IA más completa de la industria, con pruebas de código API y análisis de telemetría para ayudar a proteger contra amenazas sofisticadas impulsadas por IA, al tiempo que facilita la protección y la gestión de entornos de aplicação multicloud y edge. Las soluciones de redes multinube de F5 ofrecen redes basadas en SaaS con optimización del tráfico y servicios de seguridad para nubes públicas y privadas e implementaciones de borde a través de una única consola, lo que facilita la carga de gestión de los servicios que dependen de la nube y de múltiples proveedores externos. Con las soluciones de red de F5, obtiene implementaciones de IA aceleradas, gestión de políticas de extremo a extremo y observabilidad para una infraestructura totalmente automatizable y confiable.
Además, el nuevo F5 AI Data Fabric es una base para crear soluciones innovadoras que ayuden a los clientes a tomar decisiones más informadas y realizar acciones más rápidas. La telemetría de Distributed Cloud Services, BIG-IP y NGINX se combinan para brindar información incomparable, producir informes en tiempo real, automatizar acciones y potenciar los agentes de IA.
F5 también está lanzando un asistente de IA que transformará la forma en que los clientes interactúan y gestionan las soluciones F5 mediante una interfaz de lenguaje natural. Impulsado por el F5 AI Data Fabric, el asistente de IA generará visualizaciones de datos, identificará anomalías, consultará y generará configuraciones de políticas, y aplicará pasos de remediación. Además, funcionará como un gestor de soporte al cliente integrado, permitiendo a los clientes realizar preguntas y recibir recomendaciones basadas en el entrenamiento de modelos de conocimiento de productos completos.
Al potenciar y proteger sus aplicaciones basadas en IA, desde el centro de datos hasta el perímetro, las soluciones de F5 proporcionan potentes herramientas que ofrecen un rendimiento y una seguridad predecibles para que pueda obtener el máximo valor de sus inversiones en IA.