생산성 향상과 비즈니스 역량 강화에 대한 생성적 AI의 약속은 다양한 산업 분야의 비즈니스 리더들의 관심을 사로잡았습니다. F5 2025 애플리케이션 전략 보고서 에 따르면, 거의 모든 응답자(99%)가 AI를 단순히 의사 결정을 지원하는 데 사용하는 것이 아니라 적어도 하나의 운영 기능을 자동화하는 데 사용하는 데 편안함을 느낀다고 보고했습니다.
F5의 최고 혁신 책임자인 쿠날 아난드는 "전 세계의 기업들은 생성적 AI와 기타 신기술을 도입하여 업무 방식, 혁신 방식, 고객 참여 방식을 혁신하기 위한 가속화된 여정에 나섰습니다."라고 말했습니다.
그러나 기성형 대규모 언어 모델(LLM)을 기반으로 하는 표준 생성 AI 모델은 오늘날의 역동적인 비즈니스 환경에서 전략적이고 신뢰할 수 있는 역할을 수행하는 데 필요한 최신 정보와 상황적 지능이 부족한 경우가 많습니다. 이러한 환경에서는 실시간 데이터 액세스, 도메인별 전문 지식, 정확한 의사 결정이 성공에 필수적입니다.
보다 최신이고 정확하며 도메인별 정보 소스와 생성적 AI 애플리케이션을 통합하고자 하는 조직은 검색 기반 접근 방식과 생성적 접근 방식을 결합하여 AI가 생성하는 응답의 품질과 정확성을 개선하는 AI 프레임워크인 검색 증강 생성(RAG)을 배포하고 있습니다.
RAG를 기업 AI 인프라에 성공적으로 구현하는 것은 간단히 플러그 앤 플레이 방식으로 이루어지지 않습니다. RAG는 여러 기술 구성 요소와 기술의 조율이 필요하며, 기업 AI 솔루션이 성공하려면 기술 공급업체, 인프라 파트너, 채널 파트너로 구성된 개방적이고 협력적인 생태계가 필요하다는 것을 보여주는 훌륭한 사례입니다.
RAG를 배포하려면 데이터 스토리지 공급업체, 컨테이너 플랫폼, LLM, 트래픽 관리 도구, API, 백엔드 인프라 등 다양한 공급업체가 필요합니다. 엔터프라이즈 AI는 진정한 팀 스포츠이며, F5에서는 고객을 위해 대규모 AI를 실현하기 위해 많은 참여자가 힘을 합쳐야 한다는 것을 알고 있습니다. 성공하려면 최고 수준의 구성 요소와 소프트웨어를 제공하는 기술 공급업체, 도구를 비즈니스 성과로 전환하는 채널 파트너, AI를 제품이 아닌 솔루션 생태계로 보는 사고방식을 갖춘 협력적 네트워크 의 힘이 필요합니다.
F5와 Red Hat OpenShift AI는 LLM에 RAG를 배포하기 위한 강력하고 통합된 기반을 제공하여 여러 소스의 데이터를 생성적 AI 시스템으로 통합하는 데 따른 심각한 보안 및 트래픽 관리 복잡성을 해결합니다. Red Hat과 F5는 오랜 기술 파트너십의 역사를 가지고 있으며 , 현재 두 회사의 협력은 기존 LLM에 대한 RAG 통합을 포함하여 AI 기반 이니셔티브를 위한 견고하고 안전하며 확장 가능한 플랫폼을 제공합니다.
F5와 Red Hat은 입증된 리더입니다. F5는 25개의 "가장 인기 있는 AI 기업" 중 하나로 선정되었습니다. CRN은 F5의 "멀티 클라우드 네트워킹, AI 및 API 보안 요구 사항을 해결하는 데 도움이 되는 올인원 애플리케이션 제공 및 보안 플랫폼"을 인용하며 "데이터 센터 및 엣지용"이라고 밝혔습니다. Dataquest는 Red Hat을 오픈소스 엔터프라이즈 솔루션 분야의 선두주자 로 인정하며, "오픈소스 혁신이 차세대 엔터프라이즈 IT를 정의할 것"이라고 밝혔습니다.
F5의 고급 보안 및 트래픽 관리 기술과 고급 AI 애플리케이션 개발 플랫폼인 Red Hat OpenShift AI를 결합하면 AI 기반 이니셔티브를 위한 보다 안전하고 확장 가능한 구조를 구축하는 데 도움이 됩니다. 조직은 진화하는 사이버 위협으로부터 보호받고 최신 AI 워크로드의 까다로운 요구 사항을 충족할 수 있다는 것을 알고 있으므로 자신 있게 AI 애플리케이션을 배포할 수 있습니다.
Red Hat과 F5 및 기술 파트너 생태계는 고객이 복잡한 하이브리드 환경에서 앱과 API를 연결하고 보호할 수 있도록 지원하기 위해 앞으로도 계속 협력할 것입니다. 조직이 AI의 잠재력을 탐색할 때 Red Hat과 F5와 같은 신뢰할 수 있는 공급업체를 이용하면 일관되고 통합된 플랫폼을 통해 AI 환경을 관리하기 쉽고, 비용 효율적이며, 안전하게 유지할 수 있으며, 혁신과 보안이 함께 이루어지는 환경을 조성할 수 있습니다.
RAG는 기업급 생성적 AI 애플리케이션에 점점 더 필수적이 되고 있으며, RAG 시장은 앞으로 몇 년 동안 상당한 성장을 이룰 것으로 예상되며 , 2024년부터 2030년까지 연평균 성장률(CAGR)은 44.7%로 2030년까지 110억 3천만 달러에 이를 가능성이 있습니다.
RAG는 생성적 AI 애플리케이션의 출력을 크게 향상시킬 수 있지만, RAG를 LLM에 배포하는 것은 간단하지 않습니다. RAG의 추가 데이터 구성 요소가 여러 디지털 환경과 외부 지식 기반에 존재하기 때문에 시스템 복잡성과 보안 위험이 크게 증가하기 때문입니다. 검색 요청과 증강된 데이터 응답을 전달하는 데 필요한 필수 네트워크 연결은 보안 및 데이터 유출 위험을 초래하며, 민감한 데이터를 보호하기 위해 엄격한 액세스 제어와 암호화 메커니즘이 필요합니다.
Red Hat OpenShift AI를 F5 분산 클라우드 서비스와 F5 BIG-IP Next for Kubernetes와 통합하면 여러 RAG 사용 사례를 지원하고 보호하는 고급 보안 및 트래픽 관리 기술을 제공하는 기반 서비스 세트가 제공됩니다.
분산 클라우드 서비스 는 고객이 데이터 센터, 멀티 클라우드 환경, 네트워크 또는 엔터프라이즈 엣지 등 필요한 곳 어디에서나 클라우드 기반 환경에서 애플리케이션을 배포, 보호 및 운영할 수 있도록 하는 SaaS 기반 보안, 네트워킹 및 애플리케이션 관리 서비스입니다.
결과적으로 BIG-IP Next for Kubernetes는 AI 처리 클러스터 전반에서 트래픽 관리 및 분산을 최적화하여 RAG 기반 워크로드를 지원하기 위한 확장 가능하고 효율적인 API 통신을 보장하고, 성능 저하 없이 안정적이고 고성능의 데이터 흐름을 보장합니다.
최근 Meta에서 Llama 4 LLM 무리에 대한 발표가 있었는데 , Llama 4 Scout는 1,000만 토큰 컨텍스트 창을 특징으로 하며, 이와 같은 광범위한 컨텍스트 창이 곧 RAG를 쓸모없게 만들 수 있다는 논평이 나왔습니다. 그러나 Llama 4 LLM은 사전 학습되어 있고 자체적으로 포함되어 있어 해당 기능을 위해 명시적으로 설계되지 않는 한 외부 또는 개인 데이터에 실시간으로 액세스할 수 없습니다. 반대로, RAG를 사용하면 모델이 방대한 데이터 저장소에서 가장 최신이고 관련성 있는 정보를 실시간으로 가져와 통합할 수 있으므로 AI 출력이 정확하고 상황에 맞게 관련성이 있는지 확인할 수 있습니다. F5는 RAG가 AI 워크플로의 역동적이고 대화형적 특성을 더 잘 수용하기 때문에 앞으로도 기반이 되는 생성적 AI 메커니즘으로 남을 것이라고 믿습니다 .
Red Hat OpenShift AI에서 분산 클라우드 서비스와 BIG-IP Next for Kubernetes를 배포하면 RAG 워크로드를 보호하는 강화된 보안 솔루션이 생성됩니다. F5와 Red Hat의 공동 플랫폼은 RAG의 안정성과 확장성을 강화하여 RAG 기반 생성적 AI 솔루션을 위한 쉽게 관리할 수 있는 기반을 제공하며, 이를 통해 정확도와 관련성이 향상되어 더 나은 결과와 더 나은 사용자 경험을 제공할 수 있습니다.
자세한 내용은 솔루션 개요를 읽어보세요 . 올해의 Red Hat Summit에 참석할 계획이라면 F5 세션에 참석하세요.