Todo el mundo se está lanzando a la mina de oro que representa la IA generativa. Al menos eso parece a primera vista. Hoy en día, casi no llega a mi bandeja de entrada ningún comunicado de prensa que no mencione la IA generativa de alguna manera.
Pero si profundizamos más, nos daremos cuenta rápidamente de que el mayor impacto que la IA generativa está teniendo actualmente es en el marketing.
Lo que estamos viendo en este momento es gente que intenta agarrar lo más fácil. Cualquier capacidad que sea fácil de incorporar sin un desarrollo o investigación significativo se aplica con pegamento instantáneo y se desecha.
La mayoría de las empresas, ya sean de tecnología, de manufactura o de atención médica, están adoptando un enfoque más mesurado. Un enfoque más estratégico , si se me permite decirlo. Y como este es mi blog, puedo.
Las razones para ser más críticos respecto a cómo se utiliza la IA generativa son bien conocidas, si juzgamos la concienciación a partir de una encuesta reciente de ExtraHop . Las mayores preocupaciones se dividen en dos grupos: fiabilidad y seguridad.
En el ámbito de la IA generativa, la confiabilidad tiene que ver con la precisión y la confianza. Debo poder confiar en que las respuestas que recibo (ya sea código, configuración o contenido) son precisas y correctas, y no están llenas de sesgos.
En el ámbito de la seguridad, tenemos las mismas viejas preocupaciones de siempre, y más. Hoy en día, no se trata solo de la exposición de información personal identificable de clientes y empleados, sino también de la filtración de secretos comerciales y propiedad intelectual al amplio mundo.
Resolver desafíos con confiabilidad requiere mucho trabajo porque requiere (a) mucho entrenamiento y ajustes o (b) un enfoque arquitectónico en el que la IA generativa es solo una parte de la solución y aprovecha técnicas avanzadas de ingeniería rápida para validar sus propias respuestas. Ambos requieren tiempo y dinero, y es por eso que no vemos que las soluciones de IA generativa estén dando forma a los mercados. Todavía. Eso llegará, pero llevará tiempo.
El desafío de la seguridad es a la vez más fácil y más difícil de abordar. Para resolver el desafío de exponer secretos comerciales o propiedad intelectual es necesario (a) implementar y operar sus propias instancias de un LLM (y todo lo que eso implica) o (b) diseñar una arquitectura que evite el problema. Esto significa desarrollar agentes GPT que utilicen las capacidades generativas de un LLM como herramienta, pero no como fuente principal.
Por ejemplo, es fácil olvidar que los datos que recopilamos pueden tener importancia estratégica. El modelo que uso para rastrear las actividades del mercado puede parecer inocuo, pero expone en gran medida cómo F5 piensa sobre el mercado y planea competir en él. Tiene importancia estratégica. Por lo tanto, esto no es algo que desees delegar en un LLM público para su análisis. Si a eso añadimos la realidad de que la IA generativa es horrible (y quiero decir horrible) a la hora de analizar datos tabulares, este parece un mal caso de uso.
Pero aprovechar las funciones de OpenAI para sacar provecho de las capacidades de análisis de datos de Python no es una mala idea en absoluto. Esto requiere tiempo y esfuerzo de desarrollo porque es necesario crear un agente GPT en lugar de simplemente entregar los datos a OpenAI para su análisis, pero resuelve tanto el desafío de confiabilidad como el de seguridad.
En el caso de exposición accidental de información personal identificable de clientes o empleados, ya estamos viendo una solución más sencilla: el enmascaramiento de datos.
Ahora bien, el enmascaramiento de datos ya estaba en aumento para su uso en el desarrollo, ya que permite a los desarrolladores realizar pruebas con datos reales sin el riesgo de exponer datos confidenciales. Pero es igualmente aplicable para su uso con IA generativa como una forma de prevenir la exposición. Ya hay una serie de bibliotecas y herramientas de código abierto disponibles que facilitan la integración porque, bueno, la mayor parte de la IA generativa está impulsada por API y las API son fáciles de interceptar e inspeccionar solicitudes de datos confidenciales.
El uso del enmascaramiento de datos para resolver los problemas de seguridad de la IA generativa funciona tanto en el desarrollo como en la producción, lo que garantiza que los datos confidenciales no queden expuestos durante todo el ciclo de vida de la aplicação .
Sin duda, el enmascaramiento de datos ya estaba en auge antes de que apareciera la IA generativa y sustituyera a todas las demás tecnologías. Pero es probable que la IA generativa resulte un catalizador para las capacidades de enmascaramiento de datos dentro del dominio de la seguridad y la entrega de aplicação , así como dentro del desarrollo de aplicaciones.
Descubra cómo las soluciones de F5 potencian y protegen las aplicaciones basadas en IA ›