F5와 인텔은 보호, 성능, 가용성을 갖춘 고성능, 보안된 AI 추론을 제공하기 위해 파트너십을 맺었습니다. 이 검증된 솔루션을 사용하면 어디에서나 AI 기반 앱을 제공할 수 있습니다.
Intel 인프라 처리 장치(IPU)에서 F5 NGINX One을 사용하면 보안 에어갭을 생성하고 mTLS 인증서를 사용하여 액세스를 보호할 수 있습니다.
Intel IPU에서 NGINX One을 사용하면 보안 성능이 향상되고 복호화 작업의 부담이 줄어들어 AI 모델의 CPU 리소스를 보존할 수 있습니다.
NGINX의 활성 상태 점검, 고가용성 및 지능형 부하 분산 기능을 통해 필요할 때마다 하나의 평균 추론에 액세스할 수 있습니다.
F5 NGINX One, Intel IPU 및 Intel OpenVINO를 통해 에지에서의 안전한 추론을 위해 고성능 보호와 간소화된 AI 모델 최적화 및 배포를 제공합니다.
Intel QAT는 암호화 처리를 오프로드하고 가속화하여 CPU 사용률을 보존하는 동시에 BIG-IP VE 보안과 애플리케이션 성능을 개선합니다.
SmartNIC용 BIG-IP VE는 Intel FPGA PAC N3000과 통합되어 악성 트래픽 탐지의 부담을 덜어주고, CPU 리소스를 확보하고, TCO를 절감함으로써 DDoS 완화 용량을 최대 300배까지 증가시킵니다.
Dell PowerEdge 서버에서 F5 NGINX One, Intel OpenVINO 툴킷, Intel IPU가 어떻게 AI 모델의 보안과 성능을 간소화하는지 알아보세요.