BLOG | ESCRITÓRIO DO DIRETOR DE TECNOLOGIA

Resolvendo a segurança e a confiabilidade da IA generativa

Miniatura de Lori MacVittie
Lori MacVittie
Publicado em 28 de novembro de 2023

Todo mundo está correndo para a mina de ouro que é a IA generativa. Pelo menos é assim que parece na superfície. Ultimamente, quase não recebo um comunicado de imprensa que não mencione a IA generativa de alguma forma.

Mas se você analisar mais a fundo, perceberá rapidamente que o maior impacto que a IA generativa está tendo atualmente é no marketing.

O que estamos vendo agora é gente agarrando frutos fáceis. Qualquer capacidade que seja fácil de “aparafusar” sem desenvolvimento ou pesquisa significativa está sendo colada com supercola e enviada para fora da porta.

A maioria das empresas — sejam elas de tecnologia, manufatura ou saúde — está adotando uma abordagem mais comedida. Uma abordagem mais estratégica , se me permite dizer. E já que este é meu blog, eu posso.

Os motivos para ser mais crítico sobre como você usa a IA generativa são bem conhecidos, se julgarmos a conscientização por uma pesquisa recente da ExtraHop . As maiores preocupações se dividem em dois campos: confiabilidade e segurança.

Maiores preocupações com o uso de gráficos de IA generativa.

No domínio da IA generativa, confiabilidade tem tudo a ver com precisão e confiança. Preciso poder confiar que as respostas que recebo — seja código, configuração ou conteúdo — são precisas e corretas, e não cheias de preconceitos.

No domínio da segurança, temos as mesmas velhas preocupações de sempre — e muito mais. Agora não se trata apenas da exposição de PII de clientes e funcionários, mas também de segredos comerciais e propriedade intelectual vazando para o mundo todo. 

Resolvendo riscos de IA generativa

Resolver desafios com confiabilidade dá muito trabalho porque eles exigem (a) muito treinamento e ajustes finos ou (b) uma abordagem arquitetônica na qual a IA generativa é apenas parte da solução e aproveita técnicas avançadas de engenharia de prompt para validar suas próprias respostas. Ambas exigem tempo e dinheiro, e é por isso que não vemos soluções de IA generativas moldando mercados. Ainda. Isso vai acontecer, mas vai levar tempo. 

O desafio da segurança é mais fácil e mais difícil de enfrentar. Resolver o desafio de expor segredos comerciais ou propriedade intelectual significa (a) implantar e operar suas próprias instâncias de um LLM — e tudo o que isso implica — ou (b) arquitetar em torno do problema. Isso significa desenvolver agentes GPT que usam as capacidades generativas de um LLM como uma ferramenta, mas não como a fonte primária. 

Por exemplo, é fácil esquecer que os dados coletados podem ser de importância estratégica. O modelo que uso para monitorar as atividades de mercado pode parecer inócuo, mas expõe muito sobre como a F5 pensa sobre o mercado e planeja competir nele. Tem importância estratégica. Portanto, isso não é algo que você deseja entregar a um LLM público para análise. Adicione a isso a realidade de que a IA generativa é horrível — e quero dizer horrível mesmo — na análise de dados tabulares, e isso parece um caso de uso ruim. 

Mas aproveitar as funções do OpenAI para aproveitar os recursos de análise de dados do Python não é uma má ideia. Isso leva tempo e esforço de desenvolvimento porque você precisa criar um agente GPT em vez de simplesmente entregar os dados para a OpenAI analisar, mas resolve o desafio de confiabilidade e segurança. 

No caso de exposição acidental de informações de identificação pessoal de clientes ou funcionários, já estamos vendo uma solução mais fácil: o mascaramento de dados.

Mascaramento de dados para IA generativa

Agora, o mascaramento de dados já está em ascensão para uso em desenvolvimento, pois permite que os desenvolvedores testem com dados reais sem o risco de expor dados confidenciais. Mas é igualmente aplicável para uso com IA generativa como uma forma de prevenir a exposição. Já existem diversas bibliotecas e ferramentas de código aberto disponíveis que facilitam a integração porque, bem, a maior parte da IA generativa é orientada por API, e as APIs são fáceis de interceptar e inspecionar solicitações de dados confidenciais. 

Usar mascaramento de dados para solucionar problemas de segurança de IA generativa funciona tanto no desenvolvimento quanto na produção, garantindo que dados confidenciais não sejam expostos durante todo o ciclo de vida do aplicativo. 

É certamente o caso de que o mascaramento de dados estava em ascensão antes que a IA generativa aparecesse e tomasse o lugar de todas as outras tecnologias. Mas a IA generativa provavelmente se mostrará um catalisador para recursos de mascaramento de dados no domínio de entrega e segurança de aplicativos, bem como no desenvolvimento de aplicativos.

Veja como as soluções F5 potencializam e protegem aplicativos baseados em IA ›