로리 맥비티, 저명한 엔지니어
로랑 케렐, 저명한 엔지니어
오스카 스펜서, 수석 엔지니어
Ken Arora, 저명한 엔지니어
Kunal Anand, 최고 혁신 책임자
제임스 헨더가트 시니어 감독 기술 연구
생성적 AI가 2024년에 기업에 가장 큰 영향을 미칠 분야 중 하나가 된 것은 분명하지만, 파장을 일으키는 유일한 추세나 기술은 아닙니다. 비용과 복잡성의 폭풍으로 인해 퍼블릭 클라우드에서 작업 부하, 특히 스토리지와 데이터가 다시 돌아오는 현상이 나타나고 있습니다. 이러한 움직임은 기업 데이터 하우스에서 AI의 약속을 최대한 활용하려는 필요성에 의해 주도되고 있음은 의심의 여지가 없습니다.
이로 인해 기업은 퍼블릭 클라우드, 온프레미스, 엣지 컴퓨팅에 걸쳐 분산된 하이브리드 IT 자산을 보유하게 됩니다. 퍼블릭 클라우드에서 온프레미스로 작업 부하가 크게 이동할 것으로 예상하지만, 기업이 어떤 위치에든 "모두 투입"할 것이라고는 생각하지 않습니다. 그들은 지금까지 그래왔듯이 확고한 하이브리드 상태를 유지할 것이다.
이로 인해 기업은 서로 다른 환경에서 보안, 전달 및 운영을 표준화하는 데 상당한 어려움을 겪게 됩니다. 혼란스러운 API와 도구의 배열은 여전히 디지털 비즈니스의 안정성과 규모를 위협하는 요소입니다.
이는 F5가 기술을 탐구하고 이 기술이 기업에 어떤 영향을 미치는지, 나아가 애플리케이션 제공 및 보안에 어떤 영향을 미치는지 살펴보는 맥락입니다. 그 결과는 우리의 계획, 전략, 그리고 새로운 기술에 대한 추가 탐색에 영향을 미칩니다. 이러한 관점에서, F5 기술 전문가로 구성된 엄선된 그룹은 2025년에 기업과 애플리케이션 제공에 가장 큰 영향을 미칠 것으로 생각되는 5가지 핵심 기술에 대한 통찰력을 제공합니다.
이러한 현실은 2025년에 주목해야 할 기술인 WebAssembly(Wasm)의 탄생을 주도하고 있습니다. Wasm은 Wasm 런타임이 작동할 수 있는 곳 어디에서나 애플리케이션을 배포하고 실행할 수 있는 기능을 제공하여 하이브리드 멀티클라우드 환경 전반에서 이식성을 확보할 수 있는 경로를 제공합니다. 하지만 Wasm은 단순히 코드의 교차 이식성에 대한 약속을 구현한 것에 그치지 않습니다. 이 기술은 브라우저 기반 애플리케이션의 기능을 풍부하게 하는 새로운 가능성을 여는 동시에 성능과 보안 측면에서 이점을 제공합니다.
수석 엔지니어인 Oscar Spencer는 다음과 같이 설명합니다.
브라우저의 WebAssembly는 2025년 내내 큰 변화를 겪지 않을 것으로 예상됩니다. 가장 중요한 업데이트는 Chrome에 이미 통합된 WebAssembly 가비지 수집(GC)에 대한 지속적인 지원입니다. 이는 GC에 크게 의존하고 브라우저 환경에서의 입지를 확대하려는 Dart 및 Kotlin과 같은 언어에 도움이 될 것입니다. 브라우저 내에서 Python을 사용하는 데 있어서도 개선의 가능성이 있지만 전체적인 영향을 예측하기에는 아직 이르다.
그러나 더 큰 발전은 WASI(WebAssembly System Interface) Preview 3의 출시로 브라우저 외부에서 일어나고 있습니다. 이 업데이트는 비동기 및 스트림을 도입하여 프록시와 같은 다양한 컨텍스트에서 스트리밍 데이터와 관련된 주요 문제를 해결합니다. WASI Preview 3은 Wasm 모듈에서의 데이터 이동을 처리하는 효율적인 방법을 제공하고, 전체 요청 본문을 처리하지 않고 헤더를 수정하는 등 데이터 처리를 세부적으로 제어할 수 있게 해줍니다. 또한, 비동기 기능을 도입하면 언어 간의 구성성이 향상되어 비동기 및 동기 코드 간의 원활한 상호작용이 가능해집니다. 특히 Wasm 네이티브 언어에 유용합니다. WASI 표준이 안정화되면 Wasm 채택이 크게 증가하여 개발자에게 견고한 도구와 이러한 발전을 기반으로 구축할 수 있는 안정적인 플랫폼이 제공될 것으로 예상됩니다.
Wasm이 이전 기술에 내재된 일부 이식성 문제를 해결할 수 있다고 가정하면, 현재 조직의 95%가 어려움을 겪고 있는 이식성 문제를 운영과 같은 IT 기술 스택의 다른 중요한 계층으로 옮길 수 있습니다.
그러한 과제를 해결하기 위해 경쟁하는 것이 바로 생성적 AI이며, 점점 현실화되고 있는 AIOps의 미래입니다. AI 기반 분석에 의해 주도되는 변화와 정책, 풀 스택 관찰을 통해 얻은 정보를 바탕으로 한 운영에 대한 이러한 환상적인 관점은 생성 AI의 놀라운 진화 속도 덕분에 매일 현실에 가까워지고 있습니다.
1년도 채 되지 않는 기간에 AI 기능을 대체하는 에이전트가 등장했습니다. Agentic AI 라 불리는 이 기능은 운영 방식을 바꿀 뿐만 아니라 기업 소프트웨어 시장 전체를 대체할 태세를 갖추고 있습니다. 거의 20년 동안 SaaS가 주도해 온 워크플로를 자동화하는 데 AI를 사용하는 것만 봐도 이 기능이 얼마나 파괴적일지 알 수 있습니다.
저명한 엔지니어인 로랑 케렐은 다음 과 같이 설명합니다.
자율 코딩 에이전트는 코드 생성, 테스트, 최적화 등의 주요 작업을 자동화하여 소프트웨어 개발에 혁명을 일으킬 준비가 되어 있습니다. 이러한 에이전트를 사용하면 개발 프로세스가 크게 간소화되어 수동 작업이 줄어들고 프로젝트 일정이 단축됩니다. 한편, 대규모 멀티모달 에이전트(LMA)의 등장으로 AI의 역량은 텍스트 기반 검색을 넘어 더 복잡한 상호작용으로 확장될 것입니다. 이러한 에이전트는 웹 페이지와 상호 작용하고 텍스트, 이미지, 비디오 등 다양한 형식에서 정보를 추출하여 온라인 콘텐츠에 액세스하고 처리하는 방식을 개선합니다.
AI 에이전트가 인터넷을 재구성함에 따라 웹사이트와의 안전하고 효율적인 상호작용을 용이하게 하도록 설계된 에이전트별 브라우징 인프라가 개발될 것입니다. 이러한 변화는 복잡한 웹 작업을 자동화하여 전자상거래와 같은 산업에 혁신을 일으켜, 더욱 개인화되고 대화형 온라인 경험을 제공할 수 있습니다. 그러나 이러한 에이전트가 일상생활에 점점 더 깊이 자리 잡으면서 AI 인증, 데이터 개인 정보 보호, 잠재적인 오용과 관련된 우려를 관리하기 위해 새로운 보안 프로토콜과 규정이 필수적이 될 것입니다. 2028년까지 상당수의 기업용 소프트웨어에 AI 에이전트가 통합되어 작업 프로세스가 혁신되고 반복적 워크플로에서 더 빠른 토큰 생성을 통해 실시간 의사 결정이 가능해질 것으로 예상됩니다. 이러한 발전은 또한 에이전트 중심 웹 개발을 위한 새로운 도구와 플랫폼의 창출로 이어질 것이며, 이는 디지털 환경에서 중요한 이정표를 세울 것입니다.
하지만 진실은 AI의 이점을 최대한 활용하려면 데이터가 필요하다는 것입니다. 그것도 엄청나게 많은 데이터가 필요합니다. 거의 절반(47%)의 조직이 AI에 대한 데이터 전략이 없다고 인정한 점을 고려하면 이는 상당한 과제입니다. 그것은 사소한 도전이 아닙니다. 조직이 보유한 데이터의 양은 구조화된 데이터, 구조화되지 않은 데이터, 실시간 지표를 합쳐서 엄청납니다. 해당 데이터를 카탈로그화하는 데도 상당한 투자가 필요합니다.
공격 표면이 극적으로 증가함에 따라 보안 문제가 발생하고, 데이터 개인정보 보호 및 규정 준수에 대한 새로운 규정이 적용되고, 새로운 데이터 소스와 위협 벡터가 도입되면서 강력하고 실시간적인 데이터 분류 기술이 등장할 완벽한 상황이 되었습니다. 즉, 생성 AI 모델은 기업 데이터를 탐지하고 분류하는 데 있어 기존의 규칙 기반 시스템을 능가할 것으로 기대됩니다.
제임스 헨더가트 시니어 감독 기술 연구에서는 다음과 같이 설명합니다.
2024년에는 여러 가지 추세가 융합되면서 데이터 분류의 중요성이 급증했습니다. 데이터, 장치 및 애플리케이션의 폭발적 증가와 지속적인 디지털 혁신으로 인해 사이버 위협에 대한 공격 표면이 극적으로 증가했습니다. 취약성의 증가와 지속적인 데이터 침해가 결부되면서 견고한 데이터 보호의 필요성이 더욱 강조되었습니다. 동시에 데이터 개인 정보 보호와 규정 준수를 목표로 한 규정 확대로 인해 조직에서는 데이터 분류를 우선시하게 되었습니다. 분류는 개인 정보 보호의 시작점이기 때문입니다. 또한, 생성적 AI의 등장으로 새로운 데이터 소스와 공격 벡터가 생겨나 데이터 보안 문제가 더욱 복잡해졌습니다.
기업 데이터의 약 80%는 비정형 데이터입니다. 앞으로 생성 AI 모델은 구조화되지 않은 엔터프라이즈 데이터를 탐지하고 분류하는 데 선호되는 방법이 되어 95% 이상의 정확도를 제공할 것입니다. 이러한 모델은 시간이 지날수록 더욱 효율적이 되어, 필요한 컴퓨팅 능력이 줄어들고 추론 시간도 단축됩니다. 데이터 보안 태세 관리(DSPM), 데이터 유출 방지(DLP), 데이터 접근 거버넌스와 같은 솔루션은 다양한 보안 서비스를 제공하기 위한 기반으로 민감한 데이터 탐지 및 분류에 점점 더 의존하게 될 것입니다. 네트워크 및 데이터 전송 서비스가 융합됨에 따라 플랫폼 통합을 통해 공급업체는 제품을 강화하고, 변화하는 기업 요구를 충족하는 포괄적이고 비용 효율적이며 사용하기 쉬운 플랫폼을 제공하여 시장 점유율을 확대하고자 할 것입니다.
생산성부터 워크플로 자동화, 콘텐츠 생성에 이르기까지 모든 분야에 생성적 AI를 활용하려는 조직 전반의 공통된 욕구로 인해 조직에서 AI 기능을 배포하기 시작하면서 새로운 애플리케이션 아키텍처 패턴이 도입되고 있습니다. 이 패턴은 클라이언트, 서버, 데이터라는 기존의 3단계의 초점을 확장하여 추론이 배포되는 새로운 AI 계층을 통합합니다.
이 새로운 계층은 우리가 주목해야 할 네 번째 기술인 AI 게이트웨이 의 정의를 내리는 데 도움이 됩니다. AI 게이트웨이는 단순한 API 게이트웨이나 웹 게이트웨이가 아닙니다. 기본 기능은 API 게이트웨이와 비슷하지만, 양방향, 비정형 트래픽에 대한 특별한 구조적 요구 사항과 '좋은' 봇 사용자 기반의 증가로 인해 새로운 기능이 필요합니다.
저명한 엔지니어인 Ken Arora는 다음과 같이 설명합니다.
AI 게이트웨이는 API 게이트웨이의 자연스러운 진화로 등장했으며, 특히 AI 애플리케이션의 요구 사항을 충족하도록 맞춤화되었습니다. 클라우드 액세스 보안 브로커(CASB)가 엔터프라이즈 SaaS 앱 보안을 전문으로 하는 것과 유사하게 AI 게이트웨이는 환각, 편견, 제일브레이킹과 같은 고유한 문제에 중점을 두며, 이는 종종 원치 않는 데이터 공개로 이어집니다. AI 애플리케이션의 자율성이 높아짐에 따라 게이트웨이는 견고한 가시성, 거버넌스, 공급망 보안을 제공해야 하며, 이제는 잠재적인 공격 벡터가 되는 교육 데이터 세트와 타사 모델의 무결성을 보장해야 합니다. 또한 AI 앱이 성장함에 따라 기존 애플리케이션에 비해 AI 애플리케이션의 운영 비용이 높기 때문에 분산 서비스 거부(DDoS) 공격 및 비용 관리와 같은 문제가 중요해집니다. 게다가 요약이나 패턴 분석 같은 작업을 위해 AI 앱과의 데이터 공유가 늘어나면서, 보다 정교한 데이터 유출 방지 기능이 필요하게 될 것입니다.
앞으로 AI 게이트웨이는 역방향 프록시와 정방향 프록시를 모두 지원해야 하며, AI 소비가 AI 생산을 앞지르면서 단기적으로 정방향 프록시가 중요한 역할을 할 것입니다. 중간 프록시는 벡터 데이터베이스와 대규모 언어 모델(LLM) 간 등 AI 애플리케이션 내 구성 요소 간 상호작용을 관리하는 데도 필수적입니다. 위협의 본질이 변화함에 따라 보안에 대한 접근 방식도 바뀌어야 합니다. 많은 고객이 인간을 대신하여 행동하는 자동화된 에이전트가 되면서 현재의 봇 보호 모델은 합법적인 봇과 악성 봇을 구별하도록 발전할 것입니다. AI 게이트웨이는 위임 인증, 동작 분석, 최소 권한 적용과 같은 고급 정책을 통합해야 하며, 제로 트러스트 원칙을 차용해야 합니다. 여기에는 위험 인식 정책과 향상된 가시성이 포함되어 강력한 거버넌스를 유지하는 동시에 AI 기반 보안 침해를 효과적으로 억제할 수 있습니다.
가장 시급한 문제는 데이터 유출, 유출과 같은 기존 보안 문제뿐만 아니라 환각과 편견으로 인한 윤리적 문제도 해결하는 능력입니다. 거의 모든 설문 조사에서 후자가 중대한 위험으로 평가된 것을 보고는 아무도 놀라지 않았습니다.
환각과 편견의 문제를 감안할 때, 검색 증강 생성(RAG)과 소규모 언어 모델(SLM)의 사용이 증가하고 있다는 사실을 무시하는 것은 생각할 수 없습니다. RAG는 대량의 언어 모델에서 생성된 정보의 구체성과 정확성을 향상시키는 기능 덕분에 빠르게 생성적 AI의 기반 아키텍처 패턴으로 자리 잡았습니다. RAG는 검색 시스템의 장점과 생성 모델의 장점을 결합하여 AI의 주요 과제 중 하나인 환각 또는 잘못되거나 오해의 소지가 있는 정보 생성에 대한 솔루션을 제공합니다.
아직 RAG를 AI 전략에 통합하지 않은 조직은 데이터 정확도와 관련성이 크게 향상되지 못하고 있으며, 특히 실시간 정보 검색 및 상황에 맞는 대응이 필요한 작업의 경우 더욱 그렇습니다. 하지만 생성적 AI의 활용 사례가 확대되면서 기업들은 RAG만으로는 일부 문제를 해결할 수 없다는 사실을 깨닫게 되었습니다.
저명한 엔지니어인 로리 맥비티는 다음 과 같이 설명합니다.
LLM의 한계가 커지고 있으며, 특히 도메인별 또는 조직별 지식을 다룰 때 정확도가 부족함에 따라 소규모 언어 모델의 도입이 가속화되고 있습니다. LLM은 일반 지식 응용 분야에서는 엄청난 힘을 발휘하지만, 전문 분야에서 정확하고 섬세한 정보를 제공해야 할 때는 종종 실패합니다. 이러한 격차는 SLM이 빛을 발하는 부분입니다. SLM은 특정 지식 영역에 맞춰 설계되어 더욱 신뢰할 수 있고 집중적인 결과물을 제공할 수 있기 때문입니다. 또한 SLM은 전력 및 컴퓨팅 사이클 측면에서 필요한 리소스가 훨씬 적기 때문에 모든 사용 사례에 대해 LLM의 광범위한 기능이 필요하지 않은 기업에 적합한 솔루션입니다.
현재 SLM은 주로 산업별로 운영되고 있으며, 의료나 법률 등의 분야에서 교육을 받는 경우가 많습니다. 이러한 모델은 좁은 영역에 국한되지만, 비용과 복잡성 측면에서 LLM보다 교육과 배포가 훨씬 더 실현 가능합니다. 점점 더 많은 조직이 자사의 전문적인 데이터 요구 사항에 더 잘 맞는 솔루션을 모색함에 따라, 검색 강화 생성 방법만으로는 환각을 완전히 완화할 수 없는 상황에서는 SLM이 LLM을 대체할 것으로 예상됩니다. 시간이 지남에 따라 SLM은 높은 정확도와 효율성이 가장 중요한 사용 사례를 점점 더 지배하게 될 것으로 예상되며, 이를 통해 조직은 LLM보다 더 정확하고 리소스 효율적인 대안을 얻게 될 것입니다.
엄청난 계산 리소스가 필요하지 않고도 현대적 애플리케이션의 점차 커지는 복잡성을 처리할 수 있는, 보다 효율적인 AI 모델에 대한 필요성이 점차 커지고 있습니다. Transformer 모델은 강력하지만 확장성, 메모리 사용 및 성능에 한계가 있으며, 특히 AI 모델의 크기가 커질수록 한계가 커집니다. 결과적으로, 계산 오버헤드를 줄이는 동시에 높은 정확도를 유지하는 아키텍처를 개발하려는 움직임이 강해지고 있습니다. 또한, 다양한 기기와 사용 사례에서 AI에 대한 접근성을 높여야 하는 AI의 민주화에 대한 요구는 하드웨어 요구 사항을 최소화하면서 정밀도를 최적화하도록 설계된 1비트 대용량 언어 모델과 같은 혁신의 도입을 더욱 가속화합니다.
이러한 요구는 AI가 변압기를 넘어 진화하도록 촉진하고 있습니다.
최고 혁신 책임자인 Kunal Anand는 다음과 같이 설명합니다.
새로운 패러다임이 등장하고 있습니다. 혁신적인 최적화 기술과 새로운 신경망 아키텍처를 융합하여 다양한 애플리케이션과 장치에서 AI 배포를 민주화할 것을 약속합니다.
AI 커뮤니티는 이미 신경망 설계에서 변압기 이후 혁신의 초기 징후를 목격하고 있습니다. 이러한 새로운 아키텍처는 콘텐츠를 이해하고 생성하는 뛰어난 기능을 유지하거나 개선하는 동시에 전류 변압기 모델의 근본적인 한계를 해결하는 것을 목표로 합니다. 가장 유망한 발전 중 하나는 고도로 최적화된 모델, 특히 1비트 대용량 언어 모델의 등장입니다. 이러한 혁신은 모델 효율성에 대한 접근 방식에 근본적인 변화를 가져와, 정밀도가 낮아졌음에도 모델 성능을 유지하는 동시에 메모리 요구 사항과 계산 오버헤드를 획기적으로 줄였습니다.
이러한 발전의 영향은 여러 단계에 걸쳐 AI 생태계에 확산될 것입니다. 주요 효과는 AI 배포에 필요한 리소스 요구 사항이 감소하는 데 즉시 나타날 것입니다. 한때 상당한 계산 리소스와 메모리를 요구했던 모델이 훨씬 낮은 오버헤드로 효율적으로 작동하게 될 것입니다. 이러한 최적화는 컴퓨팅 아키텍처의 전환을 촉발할 것이며, GPU는 잠재적으로 학습 및 미세 조정 작업에 특화되고 CPU는 새로운 기능으로 추론 작업을 처리할 것입니다.
이러한 변화는 민주화와 지속 가능성을 중심으로 한 두 번째 흐름의 효과를 촉진할 것입니다. 리소스 요구 사항이 감소함에 따라 다양한 애플리케이션과 장치에서 AI를 배포할 수 있게 될 것입니다. 인프라 비용이 대폭 감소하여 이전에는 실행 불가능했던 엣지 컴퓨팅 기능이 가능해질 것입니다. 동시에, 계산 강도가 낮아지면 에너지 소비가 낮아지고 탄소 발자국도 줄어들어 환경적 이점이 있으며, AI 운영이 더 지속 가능해집니다.
이러한 개발을 통해 에지 디바이스에서 전례 없는 역량이 구현되고, 실시간 처리가 개선되며, 산업 전반에 걸쳐 비용 효율적인 AI 통합이 가능해질 것입니다. 컴퓨팅 환경은 특정 작업 부하에 맞게 최적화된 다양한 처리 아키텍처를 결합하는 하이브리드 솔루션으로 발전하여 더욱 효율적이고 다재다능한 AI 인프라를 구축할 것입니다.
이러한 발전의 의미는 기술적 개선에만 국한되지 않습니다. 그들은 성능을 유지하는 동시에 AI가 보다 다양하고 환경을 의식하며 구축되는 미래를 제안합니다. 2025년이 다가오면서 이러한 변화로 인해 AI가 일상적인 애플리케이션에 통합되는 속도가 빨라지고 산업 전반에 걸쳐 혁신과 효율성을 위한 새로운 기회가 창출될 가능성이 높습니다.
지난해는 기술에 있어서 분명 상당한 변화, 진화, 그리고 놀라움이 있었던 한 해였습니다. 내년에는 비슷한 일이 더 많이 일어날 것이라 믿는 게 합리적이다. 결국, 생성적 AI의 잠재력은 아직 완전히 탐구되지 않았으며, 이는 이 흥미로운 기술에 대한 추가적이고 혁신적인 사용 사례가 앞으로 등장할 가능성이 있음을 의미합니다.
아직 생성적 AI를 실험하지 않은 조직이 있다면, 지금 당장 실험해야 합니다. 서비스 활용은 확실히 채팅봇과 추천 엔진과 같은 기본적인 사용 사례를 위한 좋은 시작점을 제공하지만, 생성 AI의 잠재력은 대화와 새로운 고양이 비디오 생성을 훨씬 넘어섭니다.
AI가 기술의 기반을 계속해서 재구성함에 따라 더 많은 변화와 AI를 활용하는 새로운 방법이 계속해서 등장할 것으로 기대됩니다.