블로그

NVIDIA BlueField-3 DPU 기반 F5 BIG-IP Next for Kubernetes 정식 출시 발표

아메드 게타리 썸네일
아메드 게타리
2025년 4월 25일 게시

오늘 F5는 NVIDIA BlueField-3 DPU에 구축된 Kubernetes용 F5 BIG-IP Next 의 일반 공급을 발표하며, 최적의 AI 애플리케이션 성능을 달성하는 동시에 AI 팩토리 클라우드 데이터 센터 리소스 관리를 향상시킵니다. 통합 솔루션은 인프라 효율성을 높이고 고성능 네트워킹, 보안 및 트래픽 관리를 제공하여 GPUaaS(GPU as a Service) 및 추론 기능을 포함한 혁신적인 사용 사례를 지원합니다.

Kubernetes용 BIG-IP Next를 NVIDIA BlueField-3 DPU와 통합하면 기업이 클라우드 규모 AI 인프라를 구현하는 데 직면하는 시급한 과제를 해결할 수 있습니다. 대규모 AI 작업에는 실시간으로 분석, 해석하고 통찰력을 추출하기 위해 고성능 컴퓨팅 리소스가 필요한 막대한 데이터 처리가 포함됩니다. 이로 인해 기존 네트워크 인프라에 상당한 부담이 가해져 성능이 저하되고 처리 비효율성과 추론 지연이 발생할 위험이 있습니다.

업계를 선도하는 환경에서의 성과

F5, NVIDIA, SoftBank는 최근 NVIDIA GTC 2025 에서 세션을 공동으로 진행하여 결합 솔루션의 가치를 선보였습니다. 세션 동안 SoftBank는 조직이 Kubernetes용 DPU 가속 서비스 프록시를 사용하여 클라우드 기반 AI 워크로드를 가속화 할 수 있는 방법에 대한 획기적인 통찰력을 공유했습니다. 이 세션에서는 NVIDIA BlueField-3 DPU에 배포된 Kubernetes용 F5 BIG-IP Next에 대한 최근 개념 증명에서 SoftBank가 계산한 내용과 성능 측정 항목을 다루었습니다. SoftBank는 HTTP 처리량(77Gbps)을 18% 늘리고, TTFB(Time-to-First-Byte)를 11배 개선했으며, 네트워크 에너지 효율성을 무려 190배나 높이는 성과를 거두었습니다. 이러한 결과는 현대 클라우드 기반 환경에서 DPU 가속이 혁신적인 잠재력을 가지고 있으며, AI 추론 중에 토큰 처리량을 개선하고 사용자 경험을 향상시킨다는 것을 보여줍니다.

복잡성 감소, 성능 최적화, 보안 강화

NVIDIA BlueField-3 DPU는 가속화된 AI와 5G 무선 네트워크부터 하이브리드 클라우드와 고성능 컴퓨팅까지 가장 까다로운 인프라 워크로드를 위해 설계 되었습니다. 결합된 솔루션은 F5 애플리케이션 전송 및 보안 플랫폼을 활용하여 AI 인프라를 통해 유입되거나 유출되는 데이터 트래픽을 가속화하고, 보호하고, 간소화하여 대규모 AI 워크로드의 처리 효율성을 크게 개선합니다. 최적화된 트래픽 관리를 제공함으로써, 이 솔루션은 AI 추론 중에 더 높은 데이터 수집 성능과 서버 활용도를 제공하여 AI 앱 사용자에게 더 나은 경험을 제공합니다.

Kubernetes용 BIG-IP Next는 네트워킹, 보안, 트래픽 관리 및 부하 분산 기능을 통합하여 엔터프라이즈 AI 인프라의 여러 요소를 통합하는 복잡성을 크게 완화하고 , AI 워크로드에 대한 높은 관찰성을 통해 멀티클라우드 환경 전반에 대한 포괄적 가시성을 제공합니다. 이 솔루션은 제로 트러스트 아키텍처, API 보호, 침입 방지, 암호화 및 인증서 관리를 위한 중요한 보안 기능을 지원합니다. 일반적으로 사용 가능해짐에 따라 하드웨어 가속 분산 서비스 거부(DDoS) 완화 기능과 에지 방화벽 기능이 추가되어, 더 빠르고 효율적인 사이버 보호가 가능해졌습니다. 또한 이 솔루션은 AI 모델 훈련 및 추론 엔드포인트의 발견과 보안을 자동화하여 조직이 AI 애플리케이션을 표적 위협으로부터 격리하는 동시에 데이터 무결성과 주권을 강화할 수 있도록 지원합니다.

또한 Kubernetes와 NVIDIA BlueField-3 DPU를 위한 BIG-IP Next를 통합하면 동일한 AI 클러스터에서 여러 사용자를 안전하게 호스팅하는 동시에 AI 워크로드, 데이터 및 트래픽을 분리할 수 있는 멀티 테넌트 아키텍처가 구현됩니다.

고객의 AI 도입을 지원하는 매력적인 새로운 사용 사례

F5와 NVIDIA는 함께 인프라 관리와 효율성을 개선할 뿐만 아니라, 다음과 같은 새로운 사용 사례를 제공하기 위해 더 빠르고 반응성이 뛰어난 AI 추론을 지원합니다.

  • GPUaaS(GPU as a Service)는 AI 모델 학습, 과학적 시뮬레이션, 렌더링을 포함한 다양한 컴퓨팅 작업을 위해 클라우드 기반의 주문형 GPU 액세스를 제공합니다. 이 서비스를 이용하면 기업은 클라우드 공급업체로부터 GPU 컴퓨팅 리소스를 종량제 또는 구독 방식으로 임대하여 필요할 때만 GPU 비용을 지불하고 지출한 비용 대비 최대한의 GPU 컴퓨팅을 활용할 수 있습니다. Kubernetes용 BIG-IP Next와 NVIDIA BlueField-3 DPU를 통합하면 세분화된 테넌트 격리를 통한 안전한 멀티 테넌시가 가능해집니다. 이는 GPUaaS 시나리오에 매우 중요한데, 여러 사용자나 조직이 동시 워크로드를 실행하는 동안 GPU 리소스를 안전하고 효율적으로 공유할 수 있기 때문입니다. GPU 서비스를 여러 개의 보안 인스턴스로 분할함으로써, 세분화된 멀티 테넌시는 다양한 테넌트와 워크로드를 격리하여 데이터 유출과 보안 위험을 방지합니다. 또한 동적 리소스 할당이 가능하므로 각 워크로드가 과도한 프로비저닝 없이 필요한 GPU 및 네트워크 리소스를 받을 수 있습니다.
  • 추론 서비스는 전문화된 클라우드 기반 AI 플랫폼을 통해 훈련된 AI 모델에 대한 추론을 효율적으로 제공하기 위한 최적화된 환경을 제공합니다. 순수한 GPU 성능을 제공하는 GPUaaS와 달리 추론 서비스는 간소화된 모델 배포를 위해 미세 조정됩니다. 이러한 서비스의 예로는 챗봇 운영, 사기 탐지 구현, 연구 수행 및 이와 유사한 AI 기반 작업 수행 등이 있습니다. 추론 서비스는 음성 지원을 위한 자연어 처리나 감정 분석과 함께 이미지 인식 및 자율 주행 시나리오를 최적화하는 데에도 사용됩니다. Kubernetes용 BIG-IP Next와 NVIDIA BlueField-3 DPU는 여러 모델을 동시에 실행하여 추론 성능을 극대화하고 엔드투엔드 지연 시간을 줄입니다. F5와 NVIDIA 솔루션을 결합한 추론 서비스는 변동하는 작업 부하와 수요를 처리하기 위해 리소스를 동적으로 확장할 수도 있습니다.

GPUaaS와 추론 서비스 모두에서 세부적인 관찰 가능성은 중요한 요구 사항입니다. Kubernetes용 BIG-IP Next는 AI 생태계 전반에 걸쳐 풍부한 가시성을 제공하는 중앙 집중식의 완벽하게 통합된 뷰를 제공하여 성능과 복원력을 모니터링하고, 보안 기능을 즉시 적용하여 데이터 개인 정보 보호를 강화하고, 무단 액세스를 방지하고, 이상을 격리할 수 있습니다.

자세한 내용은 제품 페이지를 살펴보거나 F5 계정 팀 에 문의하여 조직의 AI 인프라를 위한 BIG-IP Next for Kubernetes에 대해 논의해 보세요. F5의 AI에 대한 집중은 여기서 끝나지 않습니다. F5가 어떻게 모든 곳에서 AI 앱을 보호하고 제공하는지 살펴보세요.