Provavelmente há mais de três coisas que você deveria saber, mas vamos começar com essas três e prosseguir a partir daí, certo?
Primeiro, é importante notar que a IA é real. Sim, é superestimado. Sim, portfólios inteiros estão sendo “lavados por IA” da mesma forma que tudo de repente se tornou um produto “em nuvem” há mais de uma década. Mas isso é real, de acordo com as pessoas que sabem, ou seja, os tomadores de decisão em nossa pesquisa mais recente focada em IA .
Enquanto a maioria das organizações (69%) está conduzindo pesquisas sobre tecnologia e casos de uso, 43% dizem que implementaram IA em escala. Isso é generativo ou preditivo.
Um tanto desconcertante é a descoberta de que 47% dos que já estão implementando IA de algum tipo não têm nenhuma — zero, nada, nada — estratégia definida para IA. Se aprendemos alguma coisa com a corrida para a nuvem pública, é que entrar sem uma estratégia vai causar problemas no futuro.
Para ajudar você a definir essa estratégia, especialmente ao tentar entender as implicações operacionais e de segurança, elaboramos uma lista de três coisas que você deve considerar.
Não deveria ser necessário dizer, mas vamos dizer mesmo assim. Aplicações de IA são aplicações modernas. Embora o núcleo de uma aplicação de IA seja o modelo, há muitos outros componentes — servidor de inferência, fontes de dados, decodificadores, codificadores, etc. — que constituem uma “aplicação de IA”.
Esses componentes geralmente são implantados como aplicativos modernos; ou seja, eles aproveitam o Kubernetes e suas construções para escalabilidade, agendamento e até mesmo segurança. Como diferentes componentes têm diferentes necessidades de recursos (algumas cargas de trabalho se beneficiarão da aceleração de GPU e outras só precisam de CPUs comuns), a implantação como um aplicativo moderno faz mais sentido e permite maior flexibilidade para garantir que cada uma das cargas de trabalho em um aplicativo de IA seja implantada e dimensionada de forma otimizada com base em suas necessidades específicas de computação.
O que isso significa é que os aplicativos de IA enfrentam muitos dos mesmos desafios de qualquer outro aplicativo moderno. As lições que você aprendeu com o dimensionamento e a proteção de aplicativos modernos existentes ajudarão você a fazer o mesmo com os aplicativos de IA.
Conclusão estratégica: Aproveite o conhecimento e as práticas existentes para entrega e segurança de aplicativos, mas expanda para incluir abordagens que reconheçam que diferentes componentes de aplicativos de IA podem ter necessidades variadas de recursos, como aceleração de GPU para tarefas com uso intensivo de computação ou recursos de CPU para cargas de trabalho com uso menos intensivo de computação. As implantações de aplicativos modernos permitem flexibilidade na alocação de recursos com base nos requisitos específicos de cada componente, otimizando o desempenho e a eficiência de custos.
Sim, eu sei que acabei de enfatizar o ponto “eles são aplicativos modernos”, mas há diferenças que impactam a arquitetura, as operações e a segurança.
Primeiro, os aplicativos de IA trocam dados não estruturados. Esses prompts não têm formato, comprimento ou requisitos de tipo de dados, e a adoção ansiosa de LLMs multimodais apenas aumenta o caos que é uma “solicitação”. No sentido em que a maioria dos aplicativos de IA envolve um prompt e uma resposta em uma carga útil JSON, suponho que você poderia dizer que é estruturado, mas não é porque a carga útil real é, bem, indefinida.
Segundo, os aplicativos de IA se comunicam quase exclusivamente com um modelo por meio de uma API. Isso significa que soluções de detecção de bots que usam “humano” ou “máquina” como critério base para acesso não serão tão úteis. Os serviços de segurança que ajudam a eliminar os “bots ruins” dos “bots bons” serão uma parte importante de qualquer estratégia de IA. A dependência de APIs também é o motivo pelo qual, em nossa pesquisa anual , descobrimos que o principal serviço de segurança planejado para proteger modelos de IA é a segurança de API.
Por fim, os padrões de interação para aplicativos de IA são frequentemente dinâmicos, variáveis e imprevisíveis. Geralmente, os serviços de segurança de hoje observam anomalias nas taxas de cliques do mouse e digitação por página, porque os serviços podem inferir o comportamento do "bot" com base em desvios dos padrões médios humanos estabelecidos. Isso não funciona quando alguém está usando uma interface de conversação e pode digitar, redigitar e enviar perguntas de forma altamente irregular. Considerando que muitas soluções de segurança hoje dependem de análise comportamental, incluindo segurança de API, isso significa que alguns ajustes serão necessários.
Conclusão estratégica: Você precisará de recursos de segurança adicionais para governar adequadamente os aplicativos de IA. Repense as abordagens tradicionais de segurança que podem não capturar adequadamente as nuances das interações conversacionais. Explore abordagens inovadoras, como monitoramento em tempo real de padrões de interação e mecanismos de controle de acesso adaptativos com base em indicações contextuais. Reconhecer o papel crítico das APIs na facilitação da comunicação com modelos de IA. Invista em soluções robustas de segurança de API para proteger contra acesso não autorizado, violações de dados e ataques maliciosos.
Assim como a eventual realidade da multinuvem, é altamente improvável que as organizações padronizem um único modelo de IA. Isso ocorre porque modelos diferentes podem ser mais adequados para determinados casos de uso.
É por isso que não ficamos surpresos ao saber que a empresa média já está usando quase três (2,9) modelos distintos, incluindo modelos de código aberto e proprietários. Quando observamos o uso de modelos baseados em casos de uso, começamos a ver um padrão. Por exemplo, em casos de uso que dependem fortemente de dados ou ideias corporativas confidenciais — operações de segurança e criação de conteúdo — vemos tendências significativas em direção a modelos de código aberto. Por outro lado, ao analisar um caso de uso para automação, vemos a Microsoft ganhando uso, em grande parte devido à sua capacidade de integração com as ferramentas e processos já em uso em muitas organizações.
É importante entender isso porque as práticas, ferramentas e tecnologias necessárias para fornecer e proteger um modelo de IA gerenciado por SaaS são diferentes das de um modelo de IA gerenciado pela nuvem e de um modelo de IA autogerenciado. Embora certamente existam semelhanças — especialmente em termos de segurança — há diferenças significativas que precisarão ser abordadas para cada padrão de implantação usado.
Conclusão estratégica: Analise os casos de uso dentro da sua organização e identifique padrões na adoção de diferentes modelos de IA. Considere fatores como sensibilidade de dados, capacidades de integração e alinhamento com ferramentas e processos existentes. Adapte sua abordagem de implantação e segurança com base nas características específicas de cada padrão de implantação.
Há muitas considerações para criar, operar e proteger aplicativos de IA, e uma delas são todos os novos requisitos para segurança e escalabilidade de modelos. Mas muitas das lições aprendidas com a implantação de aplicativos modernos no núcleo, na nuvem e na borda na última década serão úteis às organizações. Os principais desafios continuam os mesmos, e aplicar o mesmo nível de rigor ao dimensionamento e à proteção de aplicativos de IA contribuirá muito para uma implementação bem-sucedida.
Mas ignorar as diferenças e avançar sem pelo menos uma estratégia semiformal para abordar os desafios de entrega e segurança certamente levará à decepção no futuro.