생성형 AI: 애플리케이션 보안 및 최적화

보안 위험과 최적화 문제를 살펴보고 생성형 AI 기반 애플리케이션에 대한 균형 잡힌 접근 방식을 준비하십시오.

생성형 AI(또는 GenAI)는 기존 데이터의 패턴과 사례를 학습하여 텍스트, 이미지 또는 오디오를 포함한 새로운 콘텐츠를 자율적으로 생성할 수 있습니다. 또한 딥러닝 모델을 활용하여 인간의 창의성과 문제 해결 능력을 모방함으로써 맥락에 맞는 다양한 결과물을 생성합니다.

GenAI와 관련된 기회와 우려 사항

개인과 조직은 콘텐츠 제작, 자연어 처리, 데이터 합성을 포함한 다양한 용도와 애플리케이션에 생성형 AI를 활용합니다. 콘텐츠 제작에서는 시, 학술 에세이, 마케팅 자료부터 이미지, 비디오, 음악 및 컴퓨터 코드에 이르기까지 모든 것을 생성하는 데 도움을 줍니다. 자연어 처리 분야에서 생성형 AI는 챗봇과 언어 번역을 향상시키고 방대한 양의 데이터를 합성하여 제품 디자인, 개발 및 프로토타입 제작에서 창의성을 발휘합니다. 조직 내에 GenAI 애플리케이션을 배포하면 더 나은 정보에 기반한 의사 결정과 운영 효율성 향상에 기여함으로써 인간 직원을 지원해 수익성과 비즈니스 성장으로 이어질 수 있습니다.

하지만 생성형 AI에는 편향, 강화된 사이버 공격, 개인정보 위험 등 상당한 보안 및 윤리적 우려 사항도 있습니다. 예를 들어 생성형 AI는 온라인 서적, 게시물, 웹사이트, 기사 등 인터넷에서 체계적으로 수집한 콘텐츠를 기반으로 훈련된 대규모 언어 모델(LLM)을 사용할 수 있습니다. 생성형 모델은 훈련 데이터로부터 학습하며, 사용된 데이터가 편향된 경우 모델은 출력에서 ​​기존 편향을 영구화하고 심지어 증폭시킬 수 있습니다. 또한 생성형 AI는 실수로 오해의 소지가 있거나 거짓된 정보(환각(hallucination)이라고 함)를 생성하여 잘못된 정보가 확산될 수도 있습니다. 또한 악의적 행위자는 GenAI를 사용하여 사회적 불안으로 이어질 수 있는 허위 정보를 퍼뜨리고 동조시킬 수도 있습니다. 이제 생성형 AI는 악의적인 행위자가 딥페이크, 오해의 소지가 있거나 악의적일 수 있는 사실적이지만 조작된 콘텐츠를 만드는 데 일반적으로 활용됩니다. 딥페이크는 신원 도용, 소셜 엔지니어링 또는 피싱 공격, 허위 정보 유포 또는 개인과 사회에 위협을 가하는 사기성 콘텐츠 생성에 사용될 수 있습니다. 다크웹 시장에서는 이제 스피어 피싱 이메일을 작성하고, 탐지할 수 없는 멀웨어를 만들고, 피싱 페이지를 생성하고, 취약한 웹사이트를 식별하고, 심지어 해킹 기술에 대한 자습서를 제공하는 데 사용할 수 있는 FraudGPT AI 도구가 제공됩니다.

모델 학습을 위해 동의 없이 잠재적으로 액세스하여 사용할 수 있는 LLM 학습에 사용되는 콘텐츠에는 개인 정보 및 민감한 정보와 저작권 또는 독점권이 있는 콘텐츠도 포함될 수 있습니다. 이러한 개인 정보는 모두 AI가 콘텐츠를 생성할 때 가져오는 콘텐츠의 일부이므로, 결과물에 민감한 데이터나 개인 정보가 실수로 노출될 위험이 매우 높습니다.

생성형 AI 공급업체는 EU의 일반 데이터 보호 규정(GPDR)과 같은 정부 규정의 “잊혀질 권리”' 또는 “삭제권” 명령에 따라 개인 또는 조직이 개인 정보나 독점 정보가 학습 목적으로 저장 또는 사용되었는지 여부를 확인하거나, 해당 정보의 삭제를 요청할 수 있는 방법을 제공하지 않을 수 있습니다. 또한 LLM 학습에는 종종 여러 지역 또는 국가의 데이터를 수집하고 활용하는 것이 포함됩니다. 이로 인해 데이터 주권 규정이 침해될 가능성이 있는 상황이 발생할 수도 있습니다.

생성형 AI 애플리케이션의 유형

생성형 AI에는 조직과 산업을 위한 다양한 애플리케이션이 있으며, 적절한 워크플로에 GenAI를 현명하게 통합하면 기업이 경쟁 우위를 확보하는 데 도움이 될 수 있습니다. 이러한 애플리케이션에는 다음이 포함됩니다.

  • 글쓰기 콘텐츠 제작. 생성형 AI는 기사, 블로그, 개인 메시지, 캠페인용 광고 문구 등 다양한 용도로 사람이 작성한 것과 유사한 텍스트를 자율적으로 생성할 수 있습니다. AI가 생성한 콘텐츠는 일반적으로 사람이 검토해야 하지만, 원하는 스타일과 길이로 초안을 작성하고, 기존의 작성된 콘텐츠를 요약하거나 단순화하고, 콘텐츠 개요를 제공하여 인간 작가의 글쓰기 과정을 간소화함으로써 콘텐츠 제작을 용이하게 할 수 있습니다.
  • 이미지 및 비디오 생성. 생성형 모델은 텍스트 또는 시각적 입력에서 파생된 이미지와 비디오를 합성하거나 변경하여 요청된 설정, 주제, 스타일 또는 위치에 따라 독특하고 사실적인 시각 콘텐츠를 생성할 수 있습니다. 이러한 시각 자료는 미디어, 디자인, 광고, 마케팅, 교육 및 엔터테인먼트 분야에서 다양한 상업적 용도로 활용됩니다. 또한 GenAI는 게임 및 가상 환경을 위한 캐릭터와 사실적인 장면도 생성할 수 있습니다.
  • 향상된 고객 지원 자동화. 생성형 AI는 특히 사전 정의된 응답이 불충분할 수 있는 상황에서 보다 자연스럽고 상황에 맞는 대화를 나눌 수 있는 지능형 챗봇 및 대화형 에이전트의 개발을 지원할 수 있습니다. 적응형 대화형 에이전트는 즉각적인 제품 추천이나 특정 사용자 선호도에 맞춘 응답 등과 같은 콘텐츠를 동적으로 생성할 수 있습니다. 이러한 상황 인식형 챗봇과 에이전트는 기업이 고객 경험을 개선하고 지원 비용을 절감하면서 시간과 리소스를 절약하는 데 도움이 될 수 있습니다.
  • 코드 생성. 코드 생성에 GenAI를 사용하면 소프트웨어 개발 프로세스를 보다 효율적이고 생산적으로 만들 수 있습니다. 자동 코드 완성(개발자의 입력에 따라 코드 완성 제안), 코드에 대한 품질, 오류 및 버그 검토, 레거시 코드의 자동 현대화 등 다양한 방식으로 코드 개발을 지원할 수 있습니다. 자동화된 코드 생성은 신속한 시제품화를 가능하게 하여 개발자가 아이디어를 빠르게 실험하고 다양한 코딩 옵션을 테스트하여 보다 효율적인 소프트웨어 개발 워크플로를 지원합니다. 또한 GenAI는 사용자가 코드의 기능에 대한 자연어 설명을 입력하면 생성형 코드 도구가 자동으로 코드를 생성하므로 비기술자에게도 코딩 기회를 열어줄 수 있습니다.

생성형 AI 보안이란?

생성형 AI 보안은 GenAI 기반 애플리케이션의 개발, 배포 및 사용과 관련된 잠재적인 보안 위험 및 문제를 해결하기 위해 구현된 일련의 실행 방안과 조치입니다. 이러한 기술이 더욱 널리 보급되고 정교해지면서, 특히 AI 워크로드가 사이버 범죄자의 주요 공격 대상이 되면서 보안과 관련된 우려 사항이 점점 더 중요해지고 있습니다. GenAI 애플리케이션 배포 및 관리와 관련된 보안 위험을 심층적으로 조사하려면 대규모 언어 모델 애플리케이션에 대한 OWASP Top 10을 검토하십시오. 이 자료는 취약점에 대한 인식을 높이고, 해결 전략을 제안하며, LLM 애플리케이션의 보안 태세를 강화하는 것이 목표입니다.

GenAI 인프라의 보안 위험

GenAI는 매우 강력하며 거의 마법처럼 보이지만, 기존 워크로드와 동일한 인프라, 인터페이스 및 소프트웨어 구성 요소 중 일부를 활용하므로 주입 공격, 취약한 인증 및 권한 부여 제어를 우회하는 공격 등과 같은 동일한 위험을 공유합니다. 따라서 정교한 생성형 AI 모델을 효과적으로 운영하기 위해서는 신뢰할 수 있고 성능이 우수하며 안전한 인프라가 필요합니다.

인프라 공격에는 공격자가 CPU, 메모리 또는 스토리지와 같은 하드웨어 리소스를 과부하시켜 생성형 AI 워크로드의 실행을 방해하는 서비스 거부(DoS)도 포함됩니다. 이러한 리소스 고갈 공격은 성능 저하 또는 시스템 불안정으로 이어져 AI 시스템의 가용성과 신뢰성에 영향을 주며 모델이 학습하고 사용자 프롬프트에 응답하는 능력을 손상시킬 수 있습니다.

AI 시스템 인프라에 대한 무단 액세스는 GenAI 워크플로에도 심각한 위협이 되어 시스템의 기밀성과 무결성에 잠재적인 영향을 미칠 수 있습니다. 시스템 인프라에 대한 침입으로 인해 데이터 도난, 서비스 중단 또는 악성 코드 삽입 등과 같은 악의적인 활동이 발생할 수 있습니다. 이는 AI 모델과 데이터의 보안을 위협할 뿐만 아니라 부정확하거나 유해한 결과물의 생성 및 확산으로 이어질 수도 있습니다.

GenAI 학습 데이터의 보안 위험

모든 GenAI 애플리케이션의 출발점은 머신 러닝 모델이 원하는 패턴을 인식하고 예측하며 작업을 수행하는 데 사용하는 학습 데이터입니다. LLM이 높은 성능을 발휘하려면 학습된 데이터가 광범위하고 다양한 도메인, 장르 및 소스를 포괄해야 합니다. 그러나 기성 모델을 사용하든, 사전 학습된 모델을 사용하든 또는 사용자 지정 데이터 세트에서 학습된 맞춤형 모델을 사용하든 관계없이 모델 학습 프로세스는 조작과 공격에 취약합니다.

적대적인 공격에는 악의적 행위자가 의도적으로 입력 데이터를 조작하여 생성형 AI 모델의 성능을 호도하거나 손상시켜 OWASP가 이를 훈련 데이터 중독으로 판단하는 프로세스가 포함됩니다. 또한 모델의 보안, 유효성 또는 윤리적 행동을 손상시킬 수 있는 취약점, 백도어 또는 편향을 도입하기 위한 데이터 조작도 포함됩니다. 이러한 취약점으로 인해 악의적 행위자가 민감한 정보에 무단으로 액세스하기 위해 악용할 수 있는 공격 벡터가 발생합니다. 모델 공급망이 손상되면 편향되거나 신뢰할 수 없는 출력, 개인정보 침해 및 무단 코드 실행이 발생할 수 있습니다. 특히 GenAI 애플리케이션은 광범위한 플러그인 생태계를 사용하므로 이러한 문제가 심각하게 우려됩니다.

GenAI 모델에 대한 보안 위협

GenAI 애플리케이션은 학습 데이터 세트, 신경망 및 딥러닝 아키텍처를 기반으로 출력을 생성하는 LLM을 사용하여 사용자의 프롬프트에 대한 응답을 생성합니다. AI 모델은 기존 데이터 내에서 패턴, 구조 및 관계를 파악하여 이러한 이해를 바탕으로 새로운 출력을 생성하는 데 사용되는 기반 역할을 합니다.

AI 모델은 모델이 이전 지침을 무시하거나 의도하지 않은 작업을 수행하도록 하는 신중하게 제작된 프롬프트를 입력하여 LLM을 조작하는 프롬프트 인젝션 및 기타 입력 위협을 포함하여 다양한 공격에 취약합니다. 프롬프트 인젝션은 AI 모델이 생성하는 잘못된 정보 및 허위 콘텐츠의 가장 일반적인 원인 중 하나입니다. 또한 GenAI 애플리케이션은 공격자가 의도하지 않은 요청을 수행하거나 제한된 리소스에 액세스하도록 하는 Server-Side Request Forgery(SSRF), 애플리케이션이 기본 시스템에서 악성 코드 또는 기타 작업을 실행하도록 하는 원격 코드 실행(RCE) 등의 취약점에도 영향을 받기 쉽습니다.

생성형 AI 보안 모범 사례

GenAI 시스템을 보호하기 위해서는 보안에 대한 다층적 접근 방식이 필요합니다. 여기에는 권한 있는 사람만 시스템의 중요 구성 요소에 액세스할 수 있도록 하는 엄격한 액세스 제어를 포함한 강력한 인증 및 권한 부여 프로토콜이 포함되어야 합니다. 또한 침입 시도의 조기 탐지 및 예방을 위한 정기적인 소프트웨어 업데이트 및 지속적인 모니터링을 포함한 사전 예방적 취약성 관리를 구현합니다. DoS 공격에 대응하려면 백업 서버 및 페일 세이프(fail-safe) 프로토콜의 사용을 포함하여 시스템에 중복성을 구축하여 지속적인 처리 가용성을 보장합니다. 또한 LLM 역시 서비스 거부의 대상이 될 수 있는데, 사용자 프롬프트가 토큰을 생성하고 LLM에는 고정 컨텍스트 창이 있으므로 시스템 리소스 소모를 위한 공격의 표적이 될 수 있기 때문입니다.

조직은 엄격한 심사 프로세스를 구현하여 학습 데이터의 공급망을 검증하고 신뢰할 수 있는 소스에서 사전 학습된 모델만 선택해야 합니다. 학습 데이터에 품질이 좋지 않은 데이터와 편향이 있으면 모델이 정확한 표현을 학습하고 신뢰할 수 있는 결과를 생성하는 데 방해가 될 수 있으므로 효과적인 GenAI를 위해서는 데이터를 전처리한 후 생성형 모델에 공급해야 합니다. 또한 규제가 많은 산업에서는 모델을 미세 조정하는 것이 중요합니다. 데이터 정리, 정규화 및 보강, 편향 탐지 및 완화 같은 기술은 오류와 데이터 중독을 방지하는 데 도움이 될 수 있습니다.

네트워크 격리, 적절한 방화벽 구성을 포함한 강력한 액세스 제어, 암호화 방법 및 안전한 배포 관행을 구현하여 잠재적인 보안 위협으로부터 생성형 AI 모델을 보호합니다. 프롬프트 인젝션을 방지하려면 프롬프트 살균, 입력 유효성 검사 및 프롬프트 필터링 등의 기술을 사용하여 악의적으로 조작된 입력에 의해 모델이 조작되지 않도록 해야 합니다. 안전한 코딩 관행 사용, 철저한 코드 검토 실시, 코드 샌드박싱 같은 런타임 방어 기능 활용을 통해 무단 코드 실행의 위험을 줄일 수 있습니다. 프롬프트 인젝션은 GenAI 애플리케이션의 가장 심각하고 복잡한 위험 중 하나라고 할 수 있습니다.

생성형 AI 모델 최적화

GenAI 프로세싱은 리소스 집약적일 수 있기 때문에 성능과 효율성을 개선하기 위해 생성형 AI 모델을 최적화하는 것은 모델을 더 빠르고 확장 가능하며 에너지 효율적으로 만드는 데 중요한 단계입니다.

멀티클라우드 환경은 분산 환경 전반에서 AI 워크로드와 생태계 플러그인을 연결하는 기능 때문에 AI 기반 애플리케이션의 기반이 되었습니다. 멀티클라우드 네트워킹(MCN)은 GPU(그래픽 처리 장치)와 같은 하드웨어 가속기를 포함한 생성형 AI 워크로드의 컴퓨팅 수요에 따라 리소스를 동적으로 확대 또는 축소할 수 있는 유연성을 제공하며, 여러 클라우드 제공업체의 리소스를 데이터 처리에 통합하여 성능을 최적화하고 지연을 최소화합니다. GenAI 모델을 여러 클라우드 지역에 배포하면 특히 분산형 실시간 또는 대화형 AI 애플리케이션에서 중요한 처리의 지리적 분산, 지연 시간 단축, 응답 시간 개선이 가능합니다. 사용자 경험을 개선하는 유용한 방법으로 엣지 AI가 떠오르고 있습니다. 또한 GenAI 모델의 지역적 배포를 통해 조직은 데이터 주권 요구 사항에 맞춰 데이터를 저장하고 처리할 수 있습니다.

컨테이너 오케스트레이션 플랫폼인 Kubernetes는 GenAI 워크로드를 실행하기 위한 사실상 표준으로, 컨테이너에서 AI 모델을 실행하고 확장하여 고가용성과 효율적인 리소스 활용을 보장하는 인프라를 제공합니다. Kubernetes는 오케스트레이터 역할을 하며 AI 애플리케이션 내에서 다양한 구성 요소의 배포 및 모니터링을 관리하고 AI 모델, 데이터 처리 파이프라인 및 기타 서비스를 효율적으로 관리 및 확장할 수 있도록 보장합니다. MCN 및 인그레스 컨트롤러는 Kubernetes의 다양한 구현과 워크로드를 일관되게 프로비저닝하고 안전하게 트래픽을 전달하고 추론을 분배해야 할 필요성 때문에 필수적입니다.

API는 AI 애플리케이션의 다양한 부분이 데이터와 지침을 교환할 수 있는 연결 조직을 제공하여 서로 다른 구성 요소와 서비스가 서로 통신할 수 있도록 합니다. 예를 들어 GenAI 플러그인 생태계는 API 호출을 통해 연결됩니다. Kubernetes 인그레스 솔루션은 로드 밸런싱, 속도 제한 및 액세스 제어 기능을 기본 제공하여 여러 포드에 걸쳐 트래픽을 안전하게 분산시켜 AI 워크로드의 전반적인 처리 성능을 향상시킵니다.

GenAI 최적화의 과제

출력 속도와 품질 간의 균형을 맞추려면 종종 GenAI 최적화를 위한 절충안이 필요합니다. 고품질 출력을 달성하려면 일반적으로 더 복잡하고 리소스 집약적인 모델과 계산이 필요하며, 성능을 최적화하기 위해서는 생성된 콘텐츠의 품질에 영향을 줄 수 있는 모델 단순화가 필요할 수 있습니다. 또한 모델이 복잡할수록 학습 시간이 길어지고 추론 속도가 느려져 학습 프로세스와 실시간 애플리케이션의 성능에 모두 영향을 줄 수 있습니다. 이는 특히 동적 환경에 적응해야 하는 GenAI 모델에서 문제가 되는데, 지속적인 최적화가 필요하고 품질과 성능 간의 균형을 유지하는 데 어려움이 있을 수 있습니다. GPU 외에 일반적인 중앙 처리 장치(CPU) 및 데이터 처리 장치(DPU)도 작업을 처리하는 데 사용할 수 있으며 지능형 트래픽 관리 및 리소스 풀링의 중요성을 강조하는 것이기도 합니다.

GenAI 최적화 기술

생성형 AI 모델을 최적화하려면 여러 요소를 균형 있게 고려하고 조합해야 합니다.

모델 프루닝(pruning)은 모델에서 중복되거나 덜 중요한 매개변수를 식별하고 제거하여 모델 크기와 계산 요구 사항을 줄이는 것으로, 성능을 유지하면서 보다 컴팩트한 모델을 만드는 것이 목표입니다. 양자화는 부동 소수점 숫자를 더 낮은 정밀도의 고정 소수점 또는 정수 표현으로 변환하는 등 숫자 값을 낮은 비트 정밀도로 표현하여 GenAI 모델의 메모리 요구 사항과 계산 복잡성을 줄입니다. 이를 통해 메모리 요구를 줄이고 모델 배포 및 저장의 효율성을 향상시킬 수 있습니다.

전이 학습은 한 작업에서 학습된 모델을 다른 관련 작업을 수행하도록 조정하는 머신 러닝 기법으로, 특히 심층적이고 복잡한 모델의 경우 학습에 필요한 시간과 컴퓨팅 리소스를 크게 줄여줍니다. 전이 학습은 지식의 효율적인 재사용을 촉진하여 광범위한 컴퓨팅 리소스 없이도 특정 애플리케이션을 위해 생성형 AI 모델을 최적화할 수 있게 해줍니다.

여러 프로세서, 디바이스 또는 클라우드에 모델 학습 및 추론을 분산하면 병렬 처리 기능을 활용하여 모델 학습 및 사용자 환경을 최적화할 수 있습니다. 또한 하드웨어의 개별 기능(예: 실행할 특정 CPU 또는 GPU)을 활용하도록 모델 아키텍처 및 학습 프로세스를 조정하면 학습 및 추론 프로세스를 최적화하여 성능을 향상시킬 수 있으며, 특히 사용자와 가까운 곳에서 추론을 수행할 수 있는 경우 더욱 효과적일 수 있습니다.

생성형 AI에 F5 활용

생성형 AI는 중요한 경쟁 우위를 제공할 수 있는 잠재력이 있지만, 조직이 위험 없이 이점을 충분히 활용하려면 다양한 분산 환경에서 AI 워크로드를 최적화하고 보호하는 데 필요한 조치를 취해야 합니다. 이를 위해서는 AI 워크로드의 효율성 향상뿐만 아니라 복잡한 Kubernetes 생태계 관리, API의 원활하고 안전한 통합, 멀티클라우드 네트워크의 효과적인 관리 역시 필요합니다.

F5는 최신 AI 워크로드의 성능과 보안을 최적화하여 데이터 센터, 퍼블릭 클라우드, 프라이빗 클라우드, 멀티클라우드, 네이티브 Kubernetes 및 엣지를 포함한 전체 분산 애플리케이션 환경에서 생성형 AI 모델과 데이터의 일관된 배포 및 보호를 보장합니다. F5는 대규모 생성형 AI 모델의 훈련, 개선, 배포 및 관리를 지원하는 기본적인 통합 데이터 패브릭을 제공하여 원활한 사용자 경험을 보장하고 AI 기반 애플리케이션에서 실시간 의사 결정을 지원합니다.

F5는 단일 창을 통한 중앙화된 가시성 및 관리로 예측 가능한 규모와 성능을 제공하면서 생성형 AI 복잡성을 줄이는 통합 보안, 전송 및 성능 최적화 솔루션 제품군을 제공합니다.

  • F5 Secure Multi-Cloud Networking(MCN)은 점대점 연결(point-to-point connectivity) 솔루션의 복잡성과 관리 오버헤드 없이 클라우드, 멀티클라우드, 엣지 등 분산 환경 전반에서 AI 워크로드 관리 및 배포의 복잡성을 줄여줍니다.
  • F5 Distributed Cloud Network Connect는 엔드투엔드 가시성을 제공하고, 링크 및 네트워크 서비스 프로비저닝을 자동화하며, 모든 사이트 및 제공업체에서 일관된 의도 기반 보안 정책을 생성할 수 있는 SaaS 기반 도구에서 온프레미스 데이터 센터 및 엣지 사이트를 포함한 모든 환경 또는 클라우드 제공업체에 레이어 3 연결을 제공합니다.
  • F5 Distributed Cloud App Connect는 여러 클라우드 지역, 제공업체 및 엣지 사이트에 분산된 AI 워크로드를 위한 앱 간 연결 및 오케스트레이션을 제공하는 서비스입니다.
  • F5 Distributed Cloud App Stack은 환경 전반에 걸쳐 균일한 프로덕션급 Kubernetes를 사용하여 AI 워크로드를 쉽게 배포, 관리 및 보호함으로써 AI 워크로드의 수명 주기 관리를 간소화하고, 리소스 풀 전체에서 적절한 프로세서(CPU/GPU/DPU)로 추론을 분산하는 방법을 제공하여 엣지에서도 성능을 극대화할 수 있도록 합니다.
  • F5 NGINX Kubernetes용 연결 스택은 인그레스 컨트롤러, 로드 밸런서, API 게이트웨이 기능을 포괄하는 단일 도구로, Kubernetes에서 실행되는 AI/ML 워크로드에 빠르고 신뢰할 수 있으며 안전한 통신을 제공하여 가동 시간, 보호 기능 및 가시성을 적절히 향상시키는 동시에 복잡성과 운영 비용을 줄여줍니다.
  • F5 Distributed Cloud Web App and API Protection(WAAP)은 AI 전용 상호 작용을 가능하게 하는 API를 보호하고 무단 액세스, 데이터 침해, 비즈니스 로직 남용, SSRF 및 RCE와 같은 중대한 취약점과 관련된 위험을 완화하는 동시에, 관리 및 시행 기능을 결합하여 API의 런타임 분석 및 보호에 대한 포괄적인 접근 방식을 제공합니다.
  • F5 Distributed Cloud Bot Defense는 디바이스 및 행동 신호에 대한 실시간 분석을 기반으로 매우 효과적인 봇 보호 기능을 제공하여 자동화된 악성 봇 공격을 탐지 및 완화하며, 전 세계에서 가장 트래픽이 많은 수천 개의 애플리케이션과 AI 워크로드에서 공격자의 리툴링 시도에 빠르게 적응하여 LLM 모델을 오염시키고 서비스 거부 공격을 가하고 허위 정보를 유포하는 데 봇과 악의적인 자동화를 사용하는 악의적 행위자를 무력화합니다.

F5 기술은 효율성을 최적화하고, 지연 시간을 줄이고, 응답 시간을 개선함으로써 조직이 안전하게 생성형 AI의 이점을 얻는 동시에 원활한 사용자 경험을 보장하고 어디에나 AI 워크로드를 배포할 수 있는 유연성을 지원합니다.