Observe que não há dúvidas se o preconceito existe; ele existe. Mas a questão é como isso é introduzido e por que a TI deveria se importar?
O entusiasmo em torno da IA não poderia ser maior agora. O interesse é despertado, a demanda é enorme e todos estão lutando para encontrar “o aplicativo matador” para seu mercado.
Mas, por trás de todo esse exagero, há preocupações sendo expressas, e com razão. É bastante simples introduzir preconceito na IA, e esse preconceito está gerando alarmes em alguns círculos.
Para entender como o viés é introduzido na IA, é necessário ter uma compreensão básica de como os modelos de IA são treinados.
Dependendo de quem você perguntar e de quão pedantes eles querem ser, você obterá respostas diferentes sobre quantos métodos de aprendizagem diferentes existem. E, de fato, os métodos, algoritmos e modelos usados hoje são extensos e, em muitos casos, além da compreensão daqueles que não têm conhecimento profundo do assunto. Mas é importante entender, em alto nível, como os modelos são treinados porque, em última análise, é assim que o viés é introduzido. Tendo isso em mente, existem três maneiras básicas de treinar modelos de IA:
Certo, agora vamos ao assunto principal: como o preconceito pode ser introduzido nesses sistemas.
A resposta, e tenho certeza que você já descobriu, é baseada no fato de que humanos frequentemente estão envolvidos no processo de treinamento.
A maneira mais fácil de enviesar o aprendizado supervisionado é envenenar os dados, por assim dizer, rotulando-os incorretamente. Por exemplo, se estou classificando animais, rotular erroneamente um “cachorro” como “gato” pode resultar em identificação incorreta em uma escala alta o suficiente. Um risco da rotulagem é a rotulagem incorreta intencional com o objetivo de corromper o resultado. Alguns rótulos incorretos são meramente o produto do julgamento humano, como decidir se uma pantera é um gato ou se uma estátua de um gato conta como um gato. Com o aprendizado por reforço , recompensar positivamente a resposta ou movimento “errado” em um jogo pode resultar em um sistema que intencionalmente dá as respostas erradas ou sempre perde.
O que para algumas pessoas pode ser uma opção atraente.
Agora, obviamente, isso tem implicações para a conversação (IA generativa), como o ChatGPT, que foi, de acordo com o site, ajustado usando “aprendizagem supervisionada e também aprendizagem por reforço” que “usou treinadores humanos para melhorar o desempenho do modelo”. Quando você escolhe a opção “para cima” ou “para baixo” para classificar as respostas, esses dados podem ser usados para ajustar ainda mais seu modelo. Você, caro leitor, presumo que seja humano. Portanto, existe o potencial para distorcer ainda mais o sistema. A realidade é que o ChatGPT muitas vezes está completamente errado em suas respostas. O feedback é necessário para treinar ainda mais o sistema para que ele possa gerar a resposta correta com mais frequência.
Agora, isso é interessante — e poderíamos ter uma conversa fascinante sobre as maneiras pelas quais poderíamos manipular esses sistemas e as consequências — mas a verdadeira razão pela qual eu queria explorar esse tópico é porque o problema do viés se estende à telemetria, os dados operacionais que todos nós queremos usar para impulsionar a automação dos sistemas e serviços que fornecem e protegem serviços digitais.
Você deve se lembrar que escrevi sobre o tópico de viés de dados relacionado à telemetria e aos insights que 98% das organizações não têm.
Na maioria dos casos relacionados à análise de telemetria, os modelos são treinados usando dados que foram rotulados. O viés pode ser introduzido nesse sistema por (a) rotulagem incorreta dos dados ou (b) não haver diversidade suficiente de dados em uma categoria específica ou (c) o método usado para introduzir novos dados. O motivo pelo qual a rotulagem incorreta de dados é problemática deve ser óbvio, porque, em quantidades grandes o suficiente, isso pode resultar em identificação incorreta. O problema com a diversidade de dados é que os dados que não estão dentro de um conjunto de treinamento tão restrito serão inevitavelmente classificados incorretamente.
Um exemplo clássico disso foi um modelo de IA treinado para reconhecer tanques em comparação a outros tipos de transporte. Acontece que todos os tanques foram fotografados à luz do dia, mas outros veículos não. Como resultado, a IA fez um ótimo trabalho em tank versus not tank, mas na verdade estava correlacionando dia versus noite. A falta de diversidade no conjunto de entrada causou uma correlação tendenciosa.
Mesmo que uma IA operacional esteja contando com aprendizado por reforço, a falta de diversidade de dados é problemática porque o sistema não tem todas as “variáveis” necessárias para determinar o “próximo movimento”, por assim dizer.
A razão pela qual uma IA pode não ter um conjunto diversificado de dados ou todas as variáveis de que precisa é, você adivinhou, viés de dados. Especificamente, o viés de dados introduzido pelo monitoramento seletivo, no qual apenas *alguma* telemetria é ingerida para análise. Por exemplo, o impacto do desempenho do DNS na experiência do usuário é bem compreendido. Mas se um modelo for treinado para analisar o desempenho do aplicativo sem telemetria do DNS, ele pode alegar que o desempenho está ótimo mesmo se houver um problema com o DNS, porque ele não tem ideia de que o DNS está de alguma forma relacionado ao desempenho de ponta a ponta do aplicativo. Se o "próximo passo" for alertar alguém sobre uma degradação de desempenho, o sistema falhará devido ao viés na seleção de dados.
Não será surpresa para você se eu disser que nossa pesquisa anual descobriu que mais da metade de todas as organizações citam “dados ausentes” como um dos principais desafios para descobrir os insights de que precisam.
Portanto, mesmo que todas as organizações estivessem empenhadas em aproveitar a IA para orientar decisões operacionais, isso representaria um desafio. Sem um conjunto de dados diversificado para treinar tal sistema, o potencial de viés se instala.
Uma terceira maneira pela qual o viés pode ser introduzido está nos métodos usados para introduzir dados no modelo. O exemplo operacional mais comum disso é usar os resultados de testes sintéticos para determinar o desempenho médio de um aplicativo e, em seguida, usar o modelo resultante para analisar o tráfego real. Dependendo da amplitude de locais, dispositivos, congestionamento de rede, etc. que formam o conjunto de dados dos testes sintéticos, um desempenho perfeitamente aceitável para usuários reais pode ser identificado como falha, ou vice-versa.
O risco é uma erosão da confiança na tecnologia para atuar como um multiplicador de força e permitir a escala e a eficiência necessárias para que as organizações operem como um negócio digital. Porque se a IA continuar dando as respostas "erradas" ou sugerindo as soluções "erradas", bem, ninguém vai confiar nela.
É por isso que a observabilidade full-stack não é apenas importante, mas uma das seis principais capacidades técnicas necessárias para que as organizações avancem para a terceira fase da transformação digital : Negócios assistidos por IA.
Dados ausentes, seja devido ao monitoramento seletivo ou à seleção opinativa de métricas, têm o potencial de enviesar os modelos de IA usados para orientar decisões operacionais.
Uma atenção cuidadosa às fontes e aos tipos de dados, aliada a uma estratégia abrangente de dados e observabilidade, contribuirá muito para eliminar o viés e produzir resultados mais precisos e confiáveis.