편견이 존재하는지 여부는 의심의 여지가 없습니다. 편견은 존재합니다. 하지만 문제는 그것이 어떻게 도입되는지, 그리고 IT가 왜 관심을 가져야 하는지입니다.
AI에 대한 과대광고는 지금보다 더 높을 수 없습니다. 관심이 높아지고 수요가 엄청나며 모두가 자사 시장의 "킬러 앱"을 찾기 위해 애쓰고 있습니다.
하지만 과장된 홍보 뒤에는 타당한 이유가 있는 우려의 목소리도 나오고 있습니다. AI에 편견을 도입하는 것은 매우 간단한 일이며, 이러한 편견은 일부 계층에서 경각심을 불러일으키고 있습니다.
AI에 편향이 어떻게 도입되는지 이해하려면 AI 모델이 어떻게 훈련되는지에 대한 기본적인 이해가 필요합니다.
누구에게 묻고 얼마나 엄격하게 가르치고 싶어하는지에 따라, 얼마나 다양한 학습 방법이 있는지에 대한 답변이 달라질 것입니다. 실제로 오늘날 사용되는 방법, 알고리즘, 모델은 광범위하고, 많은 경우 해당 분야에 깊이 관여하지 않은 사람들에게는 이해하기 어렵습니다. 하지만 모델이 어떻게 훈련되는지 높은 수준에서 이해하는 것이 중요합니다. 궁극적으로 편향이 도입되는 방식이기 때문입니다. 이를 염두에 두고 AI 모델을 훈련하는 세 가지 기본 방법이 있습니다.
좋습니다. 이제 실제 주제인 이러한 시스템에 편견이 어떻게 도입될 수 있는지에 대해 말씀드리겠습니다.
답은, 여러분도 이미 알아냈을 텐데, 인간이 종종 훈련 과정에 참여한다는 사실에 기초합니다.
지도 학습 에 편향을 주는 가장 쉬운 방법은 데이터에 잘못된 레이블을 지정하여 데이터를 오염시키는 것입니다. 예를 들어, 동물을 분류하는 경우 "개"를 "고양이"로 잘못 분류하면 충분히 큰 규모에서도 잘못된 식별이 발생할 수 있습니다. 라벨링에 따른 위험은 결과물을 손상시킬 목적으로 의도적으로 잘못된 라벨을 붙이는 것입니다. 일부 잘못된 라벨은 단순히 인간의 판단에서 비롯됩니다. 예를 들어, 팬더가 고양이인지 아닌지, 고양이 조각상을 고양이로 간주하는지 여부를 결정하는 것입니다. 강화 학습을 통해 게임에서 "틀린" 대답이나 움직임에 대해 긍정적인 보상을 제공하면 의도적으로 잘못된 대답을 주거나 항상 지는 시스템이 생성될 가능성이 있습니다.
어떤 사람들에게는 매력적인 선택이 될 수도 있겠습니다.
이제 분명히 이것은 ChatGPT와 같은 대화형(생성 AI)에 영향을 미치는데, 그들의 사이트에 따르면, 이것은 "인간 트레이너를 사용하여 모델의 성능을 개선하는" "강화 학습뿐만 아니라 지도 학습"을 사용하여 미세 조정되었습니다. 응답 순위를 매기기 위해 "위로" 또는 "아래로" 옵션을 선택하면 해당 데이터를 사용하여 모델을 더욱 세부적으로 조정할 수 있습니다. 친애하는 독자 여러분은 인간이라고 가정하겠습니다. 그러므로 시스템이 더욱 편향될 가능성이 있습니다. 현실적으로 ChatGPT의 답변은 종종 완전히 틀립니다. 시스템이 올바른 답변을 더 자주 생성할 수 있도록 추가로 훈련하려면 피드백이 필요합니다.
흥미로운 주제입니다. 이러한 시스템을 조작하는 방법과 그 결과에 대해 흥미로운 대화를 나눌 수도 있겠지만, 제가 이 주제를 탐구하고 싶었던 진짜 이유는 편견 문제가 원격 측정, 즉 디지털 서비스를 제공하고 보호하는 시스템과 서비스의 자동화를 추진하는 데 사용하려는 운영 데이터로까지 확대되기 때문입니다.
원격 측정 과 관련된 데이터 편향과 조직의 98%가 놓치고 있는 통찰력에 대한 주제 로 글을 쓴 적이 있다는 걸 기억하실 겁니다.
대부분의 경우 원격 측정 분석과 관련하여 모델은 레이블이 지정된 데이터를 사용하여 훈련됩니다. 편향은 (a) 데이터에 잘못된 레이블을 붙이는 경우, (b) 특정 범주에 다양한 데이터가 충분하지 않은 경우, (c) 새로운 데이터를 도입하는 데 사용하는 방법으로 인해 시스템에 도입될 수 있습니다. 잘못된 데이터 레이블이 문제가 되는 이유는 자명하다. 데이터가 대량으로 수집되면 잘못된 식별이 발생할 수 있기 때문이다. 데이터 다양성의 문제는 그렇게 좁은 범위의 훈련 세트에서 벗어나는 데이터는 필연적으로 잘못 분류된다는 것입니다.
이에 대한 전형적인 예는 탱크와 다른 유형의 운송 수단을 인식하도록 훈련된 AI 모델입니다. 모든 탱크는 낮에 사진에 담겼지만, 다른 차량은 그렇지 않은 것으로 드러났습니다. 결과적으로 AI는 탱크 대 탱크가 아닌 전투에서는 훌륭한 성과를 보였지만, 실제로는 낮과 밤을 연관시켰습니다. 입력 세트의 다양성 부족으로 인해 편향된 상관관계가 발생했습니다.
운영 AI가 강화 학습에 의존하더라도 데이터의 다양성이 부족하다는 것은 문제가 됩니다. 왜냐하면 시스템에는 마치 "다음 움직임"을 결정하는 데 필요한 모든 "변수"가 없기 때문입니다.
AI가 다양한 데이터 집합이나 필요한 모든 변수를 보유하지 못하는 이유는, 추측하셨겠지만, 데이터 편향 때문입니다. 구체적으로, 선택적 모니터링으로 인해 발생하는 데이터 편향으로, 분석을 위해 *일부* 원격 측정 데이터만 수집됩니다. 예를 들어, DNS 성능이 사용자 경험에 미치는 영향은 잘 알려져 있습니다. 하지만 DNS에서 원격 측정 없이 애플리케이션 성능을 분석하도록 모델을 훈련하면 DNS에 문제가 있어도 성능이 괜찮다고 주장할 수 있습니다. DNS가 앱의 엔드투엔드 성능과 어떤 식으로든 관련이 있다는 것을 전혀 모르기 때문입니다. "다음 단계"가 성능 저하를 누군가에게 알리는 것이라면 시스템은 데이터 선택의 편향으로 인해 실패할 것입니다.
우리의 연례 조사에서 모든 조직의 절반 이상이 필요한 통찰력을 발견하는 데 있어 "누락된 데이터"를 가장 큰 과제로 꼽았다는 사실을 말씀드려도 놀라지 않으실 겁니다.
따라서 조직이 운영상의 결정을 내리기 위해 AI를 활용하려고 하더라도 이는 과제가 될 것입니다. 이러한 시스템을 훈련할 수 있는 다양한 데이터 세트가 없다면 편향이 생길 가능성이 있습니다.
세 번째 편향은 모델에 데이터를 도입하는 데 사용되는 방법에 의해 발생합니다. 이에 대한 가장 일반적인 운영적 예는 합성 테스트 결과를 사용하여 애플리케이션의 평균 성능을 파악한 다음, 그 결과 모델을 사용하여 실제 트래픽을 분석하는 것입니다. 합성 테스트에서 얻은 데이터 세트를 구성하는 위치, 장치, 네트워크 혼잡도 등의 범위에 따라, 실제 사용자에게는 완벽하게 수용 가능한 성능이 실패로 식별되거나 그 반대의 경우가 될 수 있습니다.
위험은 기술이 힘을 증폭시키고 조직이 디지털 기업으로 운영하는 데 필요한 규모와 효율성을 가능하게 하는 데 대한 신뢰가 침식된다는 것입니다. AI가 계속해서 '잘못된' 답변을 주거나, '잘못된' 해결책을 제안한다면, 아무도 AI를 믿지 않을 것입니다.
이는 풀스택 관찰성이 중요할 뿐만 아니라 조직이 디지털 변환의 세 번째 단계 로 나아가는 데 필요한 6가지 핵심 기술 역량 중 하나인 이유입니다. AI 지원 사업.
선택적 모니터링이나 편향된 지표 큐레이션으로 인해 누락된 데이터는 운영 결정을 내리는 데 사용되는 AI 모델에 편향을 일으킬 가능성이 있습니다.
포괄적인 데이터 및 관찰 전략과 더불어 데이터 출처와 유형에 대한 세심한 주의를 기울이면 편견을 없애고 더 정확하고 신뢰할 수 있는 결과를 얻는 데 큰 도움이 됩니다.