BLOG

El uso de herramientas de IA generativa en el entorno laboral exige mayor seguridad.

Miniatura de Rachael Shah
Rachael Shah
Publicado el 22 de agosto de 2023

La IA generativa es como ese objeto realmente brillante del que nadie puede apartar la vista.

Casi todas las empresas del mundo están entusiasmadas con el potencial que tienen las herramientas de IA generativa para transformar sus negocios, y con buena razón.

La IA generativa, una forma de aprendizaje automático que crea contenido como texto e imágenes en respuesta a solicitudes de lenguaje natural, es una tecnología revolucionaria. Desde aumentar la productividad hasta mejorar la personalización, las herramientas de IA generativa ofrecen una serie de beneficios.

Por ejemplo, en una encuesta reciente de Gartner , más de 2.500 ejecutivos indican que la experiencia y la retención del cliente (38%) son el objetivo principal de sus inversiones en IA generativa. A esto le siguen otras áreas como el crecimiento de los ingresos (26%), la optimización de costos (17%) y la continuidad del negocio (7%).

Además de eso, en una encuesta independiente realizada por IBM a 3.000 directores ejecutivos, el 69% de los directores ejecutivos encuestados ven los amplios beneficios de la IA generativa en sus organizaciones. Sin embargo, solo el 30% de los altos ejecutivos que no son directores ejecutivos dicen que su organización está lista para adoptar la IA generativa de manera responsable.

Seamos francos: Eso es alarmante. Menos de un tercio de los altos ejecutivos dicen que su organización está lista para adoptar la IA generativa de manera responsable .

Es fácil dejarse llevar por todos los beneficios positivos que potencialmente se podrían obtener al usar herramientas de IA generativa. Pero no lo olvidemos: El uso de herramientas de IA generativa puede plantear importantes riesgos y desafíos.

Dada la rápida evolución de la IA generativa, las organizaciones pueden encontrarse rápidamente en problemas si no tienen cuidado con la forma en que su gente aprovecha las herramientas de IA generativa y se mantienen al tanto de los datos que se introducen en las interfaces de IA generativa.

Estas son solo algunas de las muchas formas en que la IA generativa puede convertir abruptamente una experiencia positiva y beneficiosa en un costoso y negativo dolor de cabeza en términos de seguridad:

  1. Fuga de datos corporativos confidenciales.
    Es posible que hayas oído o leído sobre el personal de Samsung que cargó accidentalmente un código en el chatbot ChatGPT de Open AI. Esto no sólo expuso datos confidenciales, sino que creó una gran pesadilla de relaciones públicas a nivel mundial para Samsung. Y es probable que Samsung no sea la única organización a la que le ha sucedido o le puede suceder esto. Podría ser tu empresa la próxima.

  2. Difundir desinformación y sesgos.
    Las herramientas de inteligencia artificial generativa como ChatGPT funcionan con modelos de lenguaje grandes (LLM). Y los LLM se capacitan con conjuntos de datos de artículos, sitios web y todo lo demás, incluida información errónea e incorrecta. Es fácil caer en el engaño de pensar que las herramientas de IA generativa no producirán información errónea ni proliferarán sesgos y que no la usarán en sus campañas o para basar sus suposiciones en ellas. Pero antes de que te des cuenta, la línea entre la verdad y la mentira se difumina, y con ella tu reputación. Además, los sesgos y la información incorrecta producida por los chatbots generativos de IA ni siquiera se acercan al problema que plantean las alucinaciones de IA .

  3. Manejo indebido de información de identificación personal (PII).
    Se puede recopilar información PII durante las interacciones con herramientas de IA generativa. Depende de las empresas detrás de esas herramientas mantener medidas estrictas de privacidad de datos. Si no lo hacen , es posible que tenga que luchar contra la apropiación de su cuenta . O en graves problemas legales y consecuencias con sus clientes si actores maliciosos obtienen acceso a su información personal identificable.

Afortunadamente, muchas organizaciones están tomando medidas para mantener prácticas seguras. Varias empresas ofrecen formación sobre los aspectos positivos y negativos de la IA generativa o animan al personal a explorar y experimentar de forma responsable. Otros han diseñado políticas de IA generativa para el reconocimiento y la orientación requerida por los empleados.

Si bien estas medidas ciertamente tienen mérito, la popularidad, la complejidad y la rápida evolución de las herramientas de IA generativa exigen más seguridad. Además, siempre habrá errores humanos en la ecuación.

Ahora estoy seguro que lo has escuchado alguna vez. O quizás muchas veces: Lo que no puedes ver puede hacerte daño. Y cuando se trata del uso de herramientas de IA generativa en el lugar de trabajo, esto no podría ser más cierto. La falta de concienciación podría hacer que su empresa salga perdiendo.

Para protegerse contra las amenazas del uso de IA generativa en el lugar de trabajo, las empresas deben adoptar un enfoque de confianza cero . Recuerde que el principio clave de la confianza cero es: “Nunca confíes. “Verificar siempre.” Y una estrategia clave de seguridad de confianza cero que debería priorizarse hoy es detectar el acceso a herramientas de IA generativa.

Al permitir una mayor visibilidad y un control detallado de cómo los empleados aprovechan las herramientas de IA generativa en el trabajo, los equipos de seguridad tienen la capacidad de identificar y gestionar riesgos potenciales. Esto ayuda a las organizaciones a:

  1. Proteja datos, información personal identificable, código, propiedad intelectual (PI) y más.
  2. Habilitar y aplicar políticas que respalden las pautas de la empresa.
  3. Mantener su seguridad contra el uso indebido intencional o accidental de las herramientas de IA generativa.

A medida que el panorama de la IA generativa continúa desarrollándose rápidamente, las empresas pueden estar más tranquilas con un marco de seguridad de confianza cero que proporcione detección de herramientas de IA generativa.

Para obtener más información sobre cómo F5 puede ayudarlo a mitigar los riesgos potenciales del uso de herramientas de IA generativa en el lugar de trabajo, consulte este artículo de F5 BIG-IP SSL Orchestrator DevCentral .