생성형 AI: 애플리케이션 보안 및 최적화

보안 위험과 최적화 과제를 살펴보고 생성적 AI 기반 애플리케이션에 대한 균형 잡힌 접근 방식을 준비하세요.

생성 AI(또는 GenAI)는 기존 데이터의 패턴과 사례를 학습하여 텍스트, 이미지, 오디오를 포함한 새로운 콘텐츠를 자율적으로 생성할 수 있습니다. 이는 심층 학습 모델을 활용하여 다양하고 상황에 맞는 결과물을 생성하고, 인간의 창의성과 문제 해결 능력을 모방합니다.

GenAI 주변의 기회와 우려

개인과 조직은 콘텐츠 생성, 자연어 처리, 데이터 합성을 포함한 다양한 용도와 응용 프로그램을 위해 생성적 AI를 활용합니다. 콘텐츠 생성에서는 시, 학술 논문, 마케팅 자료부터 이미지, 비디오, 음악, 컴퓨터 코드까지 모든 것을 생성하는 데 도움이 됩니다. 자연어 처리 분야에서 생성적 AI는 챗봇과 언어 번역을 강화하고, 방대한 양의 데이터 합성을 가능하게 하여 제품 설계, 개발, 프로토타입 제작에서 창의성을 북돋웁니다. 조직 내에서 GenAI 애플리케이션을 배포하면 인간 근로자가 더 나은 정보에 입각한 의사 결정을 내리고 운영 효율성을 개선하여 수익성과 사업 성장을 강화할 수 있습니다. 

그러나 생성적 AI는 편견, 강화된 사이버 공격, 개인정보 위험 등의 잠재적인 보안 및 윤리적 문제를 포함하여 상당한 우려도 불러일으킵니다. 예를 들어, 생성 AI는 온라인 서적, 게시물, 웹사이트, 기사 등 인터넷에서 체계적으로 수집한 콘텐츠를 기반으로 훈련된 대규모 언어 모델(LLM)을 사용할 수 있습니다. 생성 모델은 훈련 데이터로부터 학습하며, 사용된 데이터가 편향되어 있으면 모델의 출력에서 기존 편향이 영구화되거나 심지어 증폭될 수도 있습니다. 또한 생성적 AI는 의도치 않게 오해의 소지가 있거나 거짓된 정보(환각이라고 함)를 생성할 수도 있으며, 이로 인해 잘못된 정보가 퍼질 수 있습니다. 나쁜 행위자들은 GenAI를 이용해 사회적 불안을 초래할 수 있는 선전을 퍼뜨리고 조정할 수도 있습니다. 생성적 AI는 이제 악의적인 행위자들이 딥페이크를 만드는 데 흔히 사용됩니다. 딥페이크는 오해의 소지가 있거나 악의적인, 사실적이지만 조작된 콘텐츠입니다. 딥페이크는 신원 도용, 사회 공학 또는 피싱 공격, 허위 정보 유포 또는 개인과 사회에 위협을 가하는 사기성 콘텐츠 생성에 사용될 수 있습니다. 다크 웹 마켓은 이제 스피어 피싱 이메일을 작성하고, 감지할 수 없는 맬웨어를 만들고, 피싱 페이지를 생성하고, 취약한 웹사이트를 식별하고, 심지어 해킹 기술에 대한 튜토리얼을 제공하는 데 사용할 수 있는 FraudGPT AI 도구를 제공합니다.

LLM을 교육하는 데 사용되는 콘텐츠는 동의 없이 모델 교육에 접근 및 활용될 가능성이 있으며, 개인 및 민감한 정보와 저작권 또는 독점권이 있는 콘텐츠를 포함할 수 있습니다. 이러한 개인 정보는 모두 AI가 콘텐츠를 생성할 때 추출하는 콘텐츠의 일부이므로 출력 결과에서 실수로 민감한 데이터나 개인 정보가 노출될 위험이 매우 높습니다. 

생성 AI 공급업체는 개인이나 조직이 개인 또는 독점 정보가 교육 목적으로 저장되거나 사용되었는지 확인할 수 있는 방법을 제공하지 않거나 EU의 일반 데이터 보호 규정(GPDR)과 같은 정부 규정의 "잊힐 권리" 또는 "삭제 권리" 지침에 따라 이 정보를 삭제하도록 요청할 수 없습니다. LLM 교육에는 다양한 지역이나 국가의 데이터를 수집하고 활용하는 것도 종종 포함됩니다. 이로 인해 데이터 주권 규정이 잠재적으로 손상될 수 있는 시나리오가 발생할 수 있습니다. 

생성 AI 애플리케이션의 유형

생성적 AI는 조직과 산업에 다양한 용도로 활용될 수 있으며, GenAI를 적절한 워크플로에 신중하게 통합하면 기업이 경쟁 우위를 확보하는 데 도움이 될 수 있습니다. 이러한 응용 프로그램에는 다음이 포함됩니다.

  • 서면 콘텐츠 생성. 생성적 AI는 기사, 블로그, 개인화된 메시지, 캠페인을 위한 광고 카피 등 여러 용도에 맞춰 인간과 유사한 텍스트를 자율적으로 생성할 수 있습니다. AI가 생성한 콘텐츠는 일반적으로 사람이 검토해야 하지만, 원하는 스타일과 길이로 초안을 작성하고, 기존에 작성된 콘텐츠를 요약하거나 간소화하고, 인간 작가가 보다 쉽게 작성할 수 있도록 콘텐츠 개요를 제공하여 콘텐츠 생성을 용이하게 할 수 있습니다. 
  • 이미지와 비디오 제작. 생성 모델은 텍스트나 시각적 입력에서 파생된 이미지와 비디오를 합성하거나 변경하여 요청된 설정, 주제, 스타일 또는 위치를 기반으로 고유하고 사실적인 시각적 콘텐츠를 만들 수 있습니다. 이러한 시각적 자료는 미디어, 디자인, 광고, 마케팅, 교육, 엔터테인먼트 분야에서 상업적으로 다양하게 활용됩니다. GenAI는 게임과 가상 환경을 위한 캐릭터와 사실적인 장면을 생성할 수도 있습니다. 
  • 고객 지원 자동화가 강화되었습니다. 생성적 AI는 더욱 자연스럽고 상황에 맞는 대화를 나눌 수 있는 고급 챗봇과 대화 에이전트의 개발에 도움이 될 수 있으며, 특히 미리 정의된 응답으로는 불충분한 상황에서 유용합니다. 적응형 대화형 에이전트는 즉석 제품 추천이나 특정 사용자 선호도에 맞는 응답 등 콘텐츠를 동적으로 생성할 수 있습니다. 이러한 상황 인식 챗봇과 상담원은 기업이 시간과 리소스를 절약하는 동시에 고객 경험을 개선하고 지원 비용을 절감하는 데 도움이 될 수 있습니다.
  • 코드 생성. GenAI를 사용하여 코드를 생성하면 소프트웨어 개발 프로세스가 더욱 효율적이고 생산적으로 될 수 있습니다. 자동 코드 완성(개발자가 코드를 입력하는 동안 코드 완성을 제안함), 코드의 품질, 오류, 버그를 검토함, 레거시 코드의 현대화를 자동화함 등 다양한 방법으로 코드 개발을 지원할 수 있습니다. 자동화된 코드 생성은 신속한 프로토타입 제작을 용이하게 하며, 개발자가 빠르게 아이디어를 실험하고 다양한 코딩 옵션을 테스트하여 보다 효율적인 소프트웨어 개발 워크플로를 구축할 수 있도록 해줍니다. GenAI는 기술에 익숙하지 않은 사람들에게도 코딩 기회를 제공합니다. 사용자는 코드의 기능에 대한 자연어 설명을 입력하면 생성 코드 도구가 자동으로 코드를 생성해 줍니다.

생성 AI 보안이란?

생성 AI 보안은 GenAI 기반 애플리케이션의 개발, 배포, 사용과 관련된 잠재적인 보안 위험과 과제를 해결하기 위해 구현된 일련의 관행과 조치입니다. 이러한 기술이 더욱 보편화되고 정교해짐에 따라 보안 관련 우려가 점점 더 중요해지고 있습니다. 특히 AI 워크로드가 사이버 범죄자들의 주요 공격 표면이 되었기 때문입니다. GenAI 애플리케이션을 배포하고 관리하는 데 따른 보안 위험을 심층적으로 살펴보려면 대규모 언어 모델 애플리케이션을 위한 OWASP 상위 10가지를 검토하세요. 이 보고서는 취약성에 대한 인식을 높이고, 수정 전략을 제안하며, LLM 애플리케이션의 보안 태세를 개선하는 것을 목표로 합니다.  

GenAI 인프라에 대한 보안 위험

GenAI는 엄청나게 강력하고 마법과도 같아 보이지만 기존 워크로드와 동일한 인프라, 인터페이스, 소프트웨어 구성 요소를 활용하기 때문에 주입 공격 및 취약한 인증 및 권한 부여 제어를 우회하는 공격과 같은 동일한 위험을 공유합니다. 정교한 생성 AI 모델을 효과적으로 운영하려면 안정적이고 성능이 뛰어나며 안전한 인프라가 필요합니다. 

인프라 공격에는 서비스 거부(DoS) 도 포함됩니다. DoS는 공격자가 CPU, 메모리, 스토리지 등의 하드웨어 리소스를 과부하시켜 생성 AI 워크로드 실행을 방해하는 공격입니다. 이러한 리소스 고갈 공격은 성능 저하 또는 시스템 불안정성으로 이어질 수 있으며, 이는 AI 시스템의 가용성과 안정성에 영향을 미치고, 모델이 사용자 프롬프트에 학습하고 대응하는 능력을 손상시킬 수 있습니다.

AI 시스템 인프라에 대한 무단 액세스도 GenAI 워크플로에 큰 위협이 되며, 잠재적으로 시스템의 기밀성과 무결성에 영향을 미칩니다. 시스템 인프라에 대한 침입은 데이터 도난, 서비스 중단, 악성 코드 삽입 등 악의적인 활동으로 이어질 수 있습니다. 이는 AI 모델과 데이터의 보안을 위험에 빠뜨릴 뿐만 아니라 부정확하거나 유해한 출력이 생성되고 확산되는 결과를 초래할 수도 있습니다.

GenAI 훈련 데이터의 보안 위험

모든 GenAI 응용 프로그램의 시작점은 머신 러닝 모델이 원하는 패턴을 인식하고 예측을 하고 작업을 수행하는 데 사용하는 교육 데이터입니다. LLM이 높은 역량을 갖추려면, 학습에 사용된 데이터가 광범위하고 다양한 도메인, 장르, 소스를 망라해야 합니다. 그러나 기성형 사전 학습된 모델을 사용하든 맞춤형 데이터 세트에서 학습된 맞춤형 모델을 사용하든 모델 학습 프로세스는 조작과 공격에 취약합니다. 

적대적 공격은 악의적인 행위자가 의도적으로 입력 데이터를 조작하여 생성 AI 모델의 성능을 오도하거나 손상시키는 과정입니다. OWASP에서는 이러한 과정을 '훈련 데이터 오염' 이라고 식별합니다. 또한 모델의 보안, 효과성 또는 윤리적 행동을 손상시킬 수 있는 취약점, 백도어 또는 편견을 도입하기 위해 데이터를 조작하는 것도 포함됩니다. 이러한 취약점은 악의적인 행위자가 민감한 정보에 대한 무단 액세스를 악용할 수 있는 공격 벡터를 제공합니다. 손상된 모델 공급망은 편향되거나 신뢰할 수 없는 출력, 개인 정보 침해, 무단 코드 실행 등을 초래할 수 있습니다. GenAI 애플리케이션은 방대한 플러그인 생태계를 사용하기 때문에 이는 특히 문제가 됩니다. 

GenAI 모델에 대한 보안 위협

GenAI 애플리케이션은 사용자의 프롬프트에 대한 응답을 생성하기 위해 학습 데이터 세트, 신경망, 딥 러닝 아키텍처를 기반으로 출력을 생성하는 LLM을 사용합니다. AI 모델은 기존 데이터 내의 패턴, 구조, 관계를 식별하고 이를 바탕으로 새로운 출력을 생성하는 기반 역할을 합니다. 

AI 모델은 다양한 공격에 취약하며, 여기에는 신중하게 작성된 프롬프트를 입력하여 모델이 이전 지침을 무시하거나 의도하지 않은 작업을 수행하도록 하는 즉각적인 주입 및 기타 입력 위협이 포함됩니다. 즉각적인 주입은 AI 모델이 생성하는 잘못된 정보와 가짜 콘텐츠의 가장 흔한 원인 중 하나입니다. GenAI 애플리케이션은 공격자가 의도하지 않은 요청을 수행하거나 제한된 리소스에 액세스할 수 있도록 허용하는 서버 측 요청 위조(SSRF) 및 애플리케이션이 기본 시스템에서 악성 코드나 기타 동작을 실행할 수 있도록 하는 원격 코드 실행(RCE) 과 같은 취약점에도 취약합니다.

생성 AI 보안을 위한 모범 사례

GenAI 시스템을 보호하려면 보안에 대한 다층적 접근 방식이 필요합니다. 여기에는 엄격한 액세스 제어를 포함하여 강력한 인증 및 권한 부여 프로토콜이 포함되어야 하며, 이를 통해 권한이 있는 직원만 시스템의 중요 구성 요소에 액세스할 수 있도록 보장해야 합니다. 침입 시도를 조기에 감지하고 예방하기 위해 정기적인 소프트웨어 업데이트와 지속적인 모니터링을 포함하여 사전적 취약성 관리를 구현합니다. DoS 공격에 대응하려면 백업 서버와 장애 안전 프로토콜을 사용하는 등 시스템 중복성을 구축해 지속적인 처리 가용성을 보장해야 합니다. LLM도 서비스 거부 대상이 될 수 있습니다. 사용자 프롬프트에서 토큰이 생성되고 LLM에는 고정된 컨텍스트 창이 있어 시스템 리소스를 고갈시키려는 시도에서 이를 표적으로 삼을 수 있기 때문입니다. 

조직에서는 훈련 데이터의 공급망을 검증하기 위해 엄격한 심사 절차를 구현해야 하며 신뢰할 수 있는 출처에서 사전 훈련된 모델만 선택해야 합니다. 낮은 품질의 데이터와 훈련 데이터의 편향은 모델이 정확한 표현을 학습하고 신뢰할 수 있는 결과를 생성하는 능력을 방해할 수 있으므로, 생성 모델에 입력하기 전에 데이터를 사전 처리하는 것은 효과적인 GenAI에 중요합니다. 모델 미세 조정도 많은 규제 산업에서 필수적입니다. 데이터 정리, 정규화 및 증강, 편향 탐지 및 완화와 같은 기술은 오류와 데이터 오염을 방지하는 데 도움이 될 수 있습니다.

강력한 액세스 제어, 암호화 방법, 안전한 배포 관행(네트워크 격리 및 적절한 방화벽 구성 포함)을 구현하여 생성 AI 모델을 잠재적인 보안 위협으로부터 보호합니다. 즉각적인 주입을 방지하려면 즉각적인 정리, 입력 검증, 즉각적인 필터링과 같은 기술을 사용하여 모델이 악의적으로 제작된 입력으로 인해 조작되지 않도록 해야 합니다. 허가되지 않은 코드 실행의 위험은 안전한 코딩 관행을 채택하고, 철저한 코드 검토를 실시하며, 코드 샌드박싱과 같은 런타임 방어 수단을 활용하면 줄일 수 있습니다. 즉각적인 주입은 GenAI 애플리케이션의 가장 심각하고 복잡한 위험 중 하나입니다. 

생성 AI 모델 최적화

GenAI 처리에는 많은 리소스가 필요하기 때문에 성능과 효율성을 개선하기 위해 생성 AI 모델을 최적화하는 것은 모델을 더 빠르고 확장 가능하며 에너지 효율적으로 만들기 위한 중요한 단계입니다. 

멀티 클라우드 환경은 분산 환경에서 AI 워크로드와 생태계 플러그인을 연결하는 기능 덕분에 AI 기반 애플리케이션의 기반이 되었습니다. 멀티 클라우드 네트워킹 (MCN) 은 그래픽 처리 장치(GPU)와 같은 하드웨어 가속기를 포함하여 생성적 AI 워크로드의 계산 수요에 따라 리소스를 동적으로 확장하거나 축소할 수 있는 유연성을 제공하며, 다양한 클라우드 공급업체의 리소스를 데이터 처리에 통합하여 성능을 최적화하고 지연을 최소화합니다. 여러 클라우드 지역에 GenAI 모델을 배포하면 처리를 지리적으로 분산시키고, 지연 시간을 줄이고, 응답 시간을 개선할 수 있습니다. 이는 분산형 실시간 또는 대화형 AI 애플리케이션에 특히 중요합니다. Edge AI는 사용자 경험을 개선하는 귀중한 방법으로 떠오르고 있습니다. GenAI 모델의 지역적 분포를 통해 조직은 데이터 주권 요구 사항을 준수하여 데이터를 저장하고 처리할 수도 있습니다.

컨테이너 오케스트레이션 플랫폼 인 Kubernetes는 GenAI 워크로드를 실행하기 위한 사실상의 표준으로, 컨테이너에서 AI 모델을 실행하고 확장하여 높은 가용성과 효율적인 리소스 활용을 보장하는 인프라를 제공합니다. 쿠버네티스는 AI 애플리케이션 내의 다양한 구성 요소의 배포와 모니터링을 관리하고, AI 모델, 데이터 처리 파이프라인, 기타 서비스를 효율적으로 관리하고 확장할 수 있도록 하는 오케스트레이터 역할을 합니다. MCN 및 인그레스 컨트롤러는 Kubernetes의 다양한 구현과 워크로드를 균일하게 프로비저닝하고 트래픽을 안전하게 전달하며 추론을 분산해야 하는 필요성 때문에 중요합니다.  

API는 AI 애플리케이션의 다양한 부분 간에 데이터와 지침을 교환할 수 있는 연결 조직을 제공하여 다양한 구성 요소와 서비스가 서로 통신할 수 있도록 합니다. 예를 들어 GenAI 플러그인 생태계는 API 호출을 통해 연결됩니다. Kubernetes Ingress 솔루션은 로드 밸런싱, 속도 제한 및 액세스 제어 기능을 내장하여 여러 Pod에 트래픽을 안전하게 분산시켜 AI 워크로드의 전반적인 처리 성능을 개선합니다.

GenAI 최적화의 과제

GenAI 최적화를 위해 출력 속도와 품질의 균형을 맞추려면 종종 균형을 맞춰야 합니다. 일반적으로 고품질의 결과물을 얻으려면 더 복잡하고 리소스가 많이 필요한 모델과 계산이 필요하며, 성능을 최적화하려면 모델을 단순화해야 할 수 있으며, 이는 생성된 콘텐츠의 품질에 영향을 줄 수 있습니다. 더 복잡한 모델은 더 긴 학습 시간이 필요할 수도 있고, 추론 속도가 느려질 수도 있으며, 이는 학습 프로세스 속도와 실시간 애플리케이션 성능에 영향을 미칩니다. 이는 특히 동적 환경에 적응해야 하는 GenAI 모델의 경우 문제가 되는데, 이를 위해서는 지속적인 최적화가 필요하고 품질과 성능 간의 균형을 유지하는 데 어려움이 있을 수 있습니다. GPU 외에도 일반 CPU(중앙 처리 장치)와 DPU(데이터 처리 장치)를 사용하여 작업을 처리할 수 있습니다. 이는 인텔리전스 트래픽 관리와 리소스 풀링의 중요성을 강조합니다.

GenAI 최적화 기술

생성적 AI 모델을 최적화하려면 여러 요소를 균형 있게 고려하고 조합해야 합니다. 

모델 정리는 모델의 크기와 계산 요구 사항을 줄이기 위해 중복되거나 덜 중요한 매개변수를 식별하고 제거하는 과정으로, 성능을 유지하면서도 더 컴팩트한 모델을 만드는 것이 목표입니다. 양자화는 부동 소수점 숫자를 낮은 정밀도의 고정 소수점 또는 정수 표현으로 변환하는 등 낮은 비트 정밀도로 숫자 값을 표현함으로써 GenAI 모델의 메모리 요구 사항과 계산 복잡성을 줄입니다. 이를 통해 모델 배포 및 저장 시 메모리 요구 사항이 낮아지고 효율성이 향상될 수 있습니다. 

전이 학습은 하나의 작업을 위해 훈련된 모델을 다른 관련된 작업을 수행하도록 조정하는 머신 러닝 기법으로, 특히 깊고 복잡한 모델의 경우 훈련에 필요한 시간과 계산 리소스를 크게 줄여줍니다. 전이 학습은 지식의 효율적인 재사용을 촉진하여 광범위한 계산 리소스가 필요 없이 특정 응용 프로그램을 위한 생성적 AI 모델의 최적화를 가능하게 합니다. 

모델 학습과 추론을 여러 프로세서, 장치 또는 클라우드에 분산시키면 병렬 처리 기능을 활용하여 모델 학습과 사용자 경험을 최적화할 수 있습니다. 또한, 하드웨어의 개별 기능(예: 실행할 특정 CPU 또는 GPU)을 활용하도록 모델 아키텍처와 학습 프로세스를 조정하면 학습 및 추론 프로세스를 최적화하여 성능을 향상시킬 수 있습니다. 특히 추론을 사용자와 가까운 곳에서 수행할 수 있는 경우 더욱 그렇습니다.

생성 AI를 위해 F5 활용

생성적 AI는 주요 경쟁 우위를 제공할 수 있는 잠재력을 가지고 있지만, 조직이 위험 없이 그 이점을 최대한 활용하려면 다양하고 분산된 환경에서 AI 워크로드를 최적화하고 보호하는 데 필요한 조치를 취해야 합니다. 이를 위해서는 AI 워크로드의 효율성을 높이는 것뿐만 아니라 복잡한 Kubernetes 생태계의 관리, API의 원활하고 안전한 통합, 멀티 클라우드 네트워크의 효과적인 관리도 필요합니다. 

F5는 최신 AI 워크로드의 성능과 보안을 최적화하여 데이터 센터, 퍼블릭 클라우드, 프라이빗 클라우드, 멀티 클라우드, 네이티브 쿠버네티스, 엣지를 포함한 전체 분산 애플리케이션 환경에서 생성적 AI 모델과 데이터의 일관된 분산과 보호를 보장합니다. F5는 대규모 생성 AI 모델의 교육, 개선, 배포 및 관리를 지원하는 기본 통합 데이터 패브릭을 제공하여 원활한 사용자 경험을 보장하고 AI 기반 애플리케이션에서 실시간 의사 결정을 지원합니다. 

F5는 생성적 AI의 복잡성을 줄이는 동시에 예측 가능한 확장성과 성능을 제공하고, 단일 창을 통해 중앙에서 가시성과 관리를 제공하는 통합 보안, 전송 및 성능 최적화 솔루션 제품군을 제공합니다.

  • F5 보안 멀티 클라우드 네트워킹(MCN)은 지점 간 연결 솔루션의 복잡성과 관리 오버헤드 없이 클라우드, 멀티 클라우드, 엣지 등 분산 환경에서 AI 워크로드를 관리하고 배포하는 복잡성을 줄여줍니다.
  • F5 Distributed Cloud Network Connect는 SaaS 기반 도구로 온프레미스 데이터 센터와 에지 사이트를 포함한 모든 환경이나 클라우드 공급자 전반에 3계층 연결을 제공합니다. 이 도구는 종단 간 가시성을 제공하고, 링크와 네트워크 서비스 프로비저닝을 자동화하며, 모든 사이트와 공급자에 걸쳐 일관되고 의도 기반의 보안 정책을 생성할 수 있도록 합니다. 
  • F5 Distributed Cloud App Connect는 여러 클라우드 지역, 공급업체 및 에지 사이트에 분산된 AI 워크로드에 대한 앱 간 연결 및 오케스트레이션을 제공하는 서비스입니다.
  • F5 분산형 클라우드 앱 스택은 균일한 프로덕션 등급의 Kubernetes를 통해 여러 환경에서 AI 워크로드를 쉽게 배포, 관리 및 보호하여 AI 워크로드의 수명 주기 관리를 간소화하고 리소스 풀 전체에서 올바른 프로세서(CPU/GPU/DPU)에 추론을 분산하는 방법을 제공하며, 이는 성능을 극대화하기 위해 에지에서도 가능합니다. 
  • Kubernetes용 F5 NGINX Connectivity Stack은 Kubernetes에서 실행되는 AI/ML 워크로드에 대해 빠르고 안정적이며 안전한 통신을 제공하기 위해 인그레스 컨트롤러, 로드 밸런서, API 게이트웨이 기능을 포괄하는 단일 도구로, 복잡성과 운영 비용을 줄이는 동시에 대규모 가동 시간, 보호 및 가시성을 향상시킵니다. 
  • F5 분산 클라우드 웹 앱 및 API 보호(WAAP)는 AI 관련 상호작용을 지원하는 API를 보호하고, 무단 액세스, 데이터 침해, 비즈니스 로직 남용, SSRF 및 RCE와 같은 심각한 취약성과 관련된 위험을 완화하는 동시에 관리 및 시행 기능을 결합하여 API의 런타임 분석 및 보호에 대한 포괄적인 접근 방식을 제공합니다.
  • F5 Distributed Cloud Bot Defense는 장치와 행동 신호에 대한 실시간 분석을 기반으로 매우 효과적인 봇 보호 기능을 제공하여 자동화된 악성 봇 공격을 밝혀내고 완화합니다. 또한 공격자가 세계에서 가장 트래픽이 많은 수천 개의 애플리케이션과 AI 워크로드를 재편하려는 시도에 빠르게 적응하여 봇과 악성 자동화를 사용하여 LLM 모델을 오염시키고 서비스 거부 공격을 가하며 선전을 퍼뜨리는 나쁜 행위자를 무력화합니다. 

F5 기술은 효율성을 최적화하고, 지연 시간을 줄이고, 응답 시간을 개선하여 조직이 생성적 AI의 이점을 안전하게 확보하는 동시에 원활한 사용자 경험을 보장하고 어디서나 AI 워크로드를 배포할 수 있는 유연성을 지원할 수 있도록 돕습니다.