엣지 AI란? 엣지에서 인공지능 탐색하기

엣지 AI는 인공지능 알고리즘과 모델을 엣지 컴퓨팅 환경에 구축하여 컴퓨팅 능력과 지능을 의사 결정이 이루어지는 곳에 더 가깝게 제공하는 것을 의미하며, 부분적으로는 엣지 사이트와 클라우드 간의 지속적인 통신 스트림을 상쇄하는 데 목적이 있습니다. Edge AI는 네트워크 주변의 장치가 로컬에서 데이터를 처리할 수 있도록 하여 처리를 위해 인터넷 연결이나 중앙 집중식 클라우드 서버에 의존하지 않고도 실시간 의사 결정이 가능해지고, 컴퓨팅 속도가 빨라지고 데이터 개인 정보 보호 및 보안이 향상됩니다. 

Edge AI 이해

엣지 AI는 인공지능, 사물인터넷(IoT), 엣지 컴퓨팅, 임베디드 시스템 등 여러 기술이 융합된 기술로, 각각 네트워크 엣지에서 지능적인 처리와 의사 결정을 실현하는 데 중요한 역할을 합니다. 에지 AI는 내장된 알고리즘을 사용하여 원격 시스템의 활동을 모니터링하고 온도, 언어, 얼굴, 동작, 이미지, 근접성 및 기타 아날로그 입력을 포함한 비정형 데이터를 추적하는 센서 및 기타 장치에서 수집한 데이터를 처리하는 것을 포함합니다.

이러한 원격 시스템은 센서, 스마트폰, IoT 기기, 드론, 카메라, 심지어 차량과 스마트 가전제품을 포함한 다양한 형태를 취할 수 있습니다. 이러한 시스템에서 수집된 데이터는 에지 AI 알고리즘의 입력으로 사용되어 시스템이나 주변 환경의 상태에 대한 귀중한 정보를 제공합니다. 이를 통해 에지 AI 시스템은 변화나 이상에 신속하게 대응하고 자신이 운영되는 환경을 이해할 수 있습니다. 이러한 에지 AI 애플리케이션은 비용, 지연 시간, 대역폭, 보안 및 개인 정보 보호와 관련된 문제로 인해 중앙 집중식 클라우드나 기업 데이터 센터 환경에서 운영하는 것이 비실용적이거나 심지어 불가능합니다.

Edge AI는 다음을 포함한 광범위한 사용 사례를 포함합니다.

  • 자율주행차. Edge AI를 사용하면 차량이 센서 데이터를 실시간으로 분석하여 클라우드 연결에 지속적으로 의존하지 않고도 객체 감지, 차선 추적, 충돌 방지와 같은 작업에 대한 즉각적인 결정을 내릴 수 있습니다.
  • 스마트 시티. 도시 지역 전체에 배치된 센서와 카메라에서 수집된 데이터는 교통 관리, 공공 안전 모니터링, 폐기물 관리, 에너지 최적화를 포함한 다양한 스마트 시티 애플리케이션에 활용될 수 있습니다.
  • 농업 모니터링. Edge AI는 센서, 드론, 위성 이미지의 데이터를 분석하여 작물 건강을 모니터링하고, 관개를 최적화하고, 해충 감염을 탐지하고, 환경 조건에 대한 실시간 분석을 수행하여 정밀 농업을 지원합니다.
  • 산업용 사물인터넷. 엣지 디바이스는 AI 알고리즘을 제조 장비 및 센서에 직접 배포함으로써 중앙 서버에 의존하지 않고도 기계 상태를 모니터링하고, 결함을 감지하고, 생산 프로세스를 최적화할 수 있습니다.
  • 의료 모니터링. Edge AI는 웨어러블 기기, 의료 센서, 영상 장비의 데이터를 분석하여 의료 데이터를 실시간으로 분석하고 의료 제공자에게 잠재적인 건강 문제에 대한 경고를 제공함으로써 원격 환자 모니터링과 개인화된 건강 관리를 지원합니다.

Edge AI 대 클라우드 AI

AI 알고리즘과 모델을 배포하는 데에는 두 가지 주요 패러다임이 있습니다. 엣지(Edge)와 클라우드(Cloud)입니다. 클라우드와 엣지 사이트에 걸쳐 있는 시스템을 통합하는 전략을 "클라우드 인" 또는 "엣지 아웃"이라고 하며, 두 전략 모두 성능, 보안 및 운영에 영향을 미칩니다.

엣지 AI는 원격 장치에 AI를 배포해 네트워크 엣지나 분산 환경에서 실시간 처리 및 의사 결정을 가능하게 하는 것을 말합니다. 이러한 시스템은 네트워크 연결에 의존하거나 중앙 서버로 데이터를 전송하지 않고도 데이터를 대부분 로컬에서 분석할 수 있어 대기 시간을 줄이고 응답 시간을 단축합니다. Edge AI 시스템은 민감한 데이터를 로컬에 보관하여 클라우드로 데이터를 전송하는 데 따른 개인 정보 침해나 보안 위험을 줄입니다.

에지 AI의 예로는 로컬에 배치된 AI를 사용하여 센서 데이터를 분석하고 실시간 주행 결정을 내리는 자율 주행 차량과 음성 명령을 처리하거나 침입자를 모니터링하기 위해 에지 AI를 사용하는 스마트 홈 기기가 있습니다.

반면, 클라우드 AI는 AI 알고리즘과 모델을 중앙 집중형 클라우드 서버에 배포하여 대규모 데이터 처리, 교육 및 추론이 가능하다는 특징이 있습니다. 클라우드 리소스는 중요한 컴퓨팅 기능을 제공하여 엄청난 컴퓨팅 성능이 필요한 딥 러닝 훈련이나 빅데이터 분석과 같은 복잡한 AI 작업을 가능하게 합니다. 클라우드 AI 솔루션은 대량의 데이터와 사용자를 수용하도록 쉽게 확장할 수 있으므로 처리량이 높거나 리소스 집약적 요구 사항이 있는 애플리케이션에 적합합니다.

Amazon이나 Netflix가 광범위한 사용자 데이터를 기반으로 소비자에게 새 제품이나 대체 제품을 제안하는 데 사용하는 추천 엔진은 최적의 기능을 위해 상당한 계산 리소스가 필요한 대규모 클라우드 AI 시스템의 예입니다.

다른 AI 사용 사례에는 특정 고객 요구 사항을 충족하기 위해 엣지 AI와 클라우드 AI가 모두 포함됩니다. 실제 사례 로는 싱가포르에 본사를 둔 AI 및 데이터 플랫폼 공급업체인 Sentient.io가 있습니다. 이 회사는 기업이 AI를 기존 워크플로에 쉽게 통합할 수 있도록 하는 혁신적인 AI 서비스 허브인 Sentient Marketplace를 개발했습니다. 그러나 시장의 급속한 성공은 여러 가지 복잡한 과제에 직면하게 되었는데, 그 중 하나는 온프레미스, 퍼블릭 클라우드, 프라이빗 클라우드, 엣지 등 분산 환경에서 AI 서비스를 운영하고 배포하는 것이 어렵다는 점입니다.

고객 사이트에서 여러 공급업체를 운영하는 경우, 개별 클라우드 공급업체 솔루션은 독점적인 Kubernetes 배포판을 제공할 수 있으며, 이는 각자의 클라우드 환경에서 이러한 플랫폼을 활용해야 하는 조직에 어려울 수 있습니다. 또한 고객 사이트에서 Sentient의 AI 모델을 배포하는 프로세스도 번거로웠습니다. 각 에지 사이트에 온프레미스 Kubernetes 환경을 설정하고 새 모델의 업데이트와 동기화를 수동으로 처리해야 했습니다. 이로 인해 운영상의 복잡성이 증가하고 워크플로 오케스트레이션과 보안 정책이 일관되지 않게 되었습니다.

Sentient.io는 F5와 협력하여 온프레미스, 클라우드 및 엣지 위치에서 배포를 간소화하는 엔터프라이즈 지원 Kubernetes 플랫폼인 F5 Distributed Cloud App Stack을 사용하여 다양한 수직 분야의 고객에게 턴키 방식의 엔터프라이즈급 AI "서비스형" 솔루션을 제공했습니다. 이 솔루션은 Sentient의 운영을 간소화하고, 지연 시간을 줄이며, 엣지에서 실시간 AI 처리를 가능하게 했습니다. 에지에서 추론을 제공하면 지리적 위치로 인한 네트워크 및 대역폭 제약이 없어지고 실시간으로 애플리케이션에 추론을 즉시 전달할 수 있습니다. 모델 배포 방식의 이러한 전환을 통해 Sentient.io는 가치 실현 시간을 단축하여 고객에게 고성능 AI 애플리케이션을 제공하고, 리소스 할당을 최적화하고, 전반적인 운영 비용을 절감하고, 애플리케이션과 API 보안을 기본적으로 통합할 수 있었습니다.

또한 이러한 협업을 통해 여러 클라우드 플랫폼을 수동으로 관리하는 기존 프로세스에 비해 상당한 비용 절감 효과가 있었습니다. 기존에는 전담 팀이 필요했고 상당한 리소스 비용이 발생했습니다. F5 분산 클라우드 서비스를 통해 Sentient는 리소스를 최적화하고 애플리케이션 관리를 간소화하여 운영을 간소화하고 비용을 절감하며, 다른 전략적 이니셔티브에 리소스를 확보할 수 있었습니다.

Edge AI에 접근하기

에지 AI에 접근하려면 네트워크 에지에서 AI 기능에 효율적으로 접근하고 활용할 수 있도록 장치, 기술, 인프라 구성 요소 및 통합을 결합하여 배포해야 합니다. 여기에는 다음이 포함됩니다.

  • 에지 장치. 센서와 마이크로컨트롤러가 내장된 에지 디바이스는 물리적 세계에서 데이터를 수집하고 로컬 처리를 위해 에지 AI 모델을 호스팅할 수 있습니다. 사물 인터넷(IoT) 기기의 예로는 스마트 온도 조절 장치, 감시 카메라, 토양 수분 모니터, 산업용 센서 등이 있습니다. 에지 디바이스에는 스마트폰과 태블릿 컴퓨터도 포함될 수 있으며, 이러한 기기는 주변 환경을 감지할 뿐만 아니라 처리 능력과 연결성을 활용하여 에지 AI 작업을 수행할 수 있습니다.
  • 기술. 네트워크 엣지에서 AI 시스템을 운영하려면 훈련된 알고리즘과 리소스가 제한된 장치에 배포되도록 최적화된 AI 모델을 포함한 여러 가지 특수 기술이 필요합니다. Edge AI 프레임워크와 플랫폼도 시스템 개발과 배포를 단순화하는 도구와 라이브러리를 제공하는 데 사용할 수 있습니다. 
  • 하부 구조. 에지 AI 기기가 서로 통신하고 필요한 경우 중앙 서버와 통신하려면 유선이든 무선이든 안정적인 네트워크 연결이 필요하며, 여기에는 에지 서버, 게이트웨이, 라우터와 같은 하드웨어 구성 요소가 포함될 수 있습니다. 또한 API는 AI 아키텍처의 핵심으로, 다양한 구성 요소와 서비스가 서로 통신하고 데이터와 지침을 교환할 수 있도록 합니다.
  • 통합. 에지 AI 시스템은 기존 네트워크 및 인프라와 통합되어 데이터 접근성을 보장하고, 시스템의 다른 구성 요소와의 확장성과 호환성을 활성화하고, 관리의 복잡성을 완화할 수 있어야 합니다.

또한, 엣지 AI를 배포하고 액세스하는 데에는 다음과 같은 과제와 한계가 있음을 알아두세요.

  • 제한된 컴퓨팅 성능과 연결성. 대부분의 에지 디바이스는 처리 능력, 메모리, 스토리지가 제한되어 있어 에지에서 작동할 수 있는 AI 모델의 복잡성과 크기가 제한될 수 있습니다. 또한, 에지 장치는 네트워크 연결 옵션이 제한적인 환경에서 작동하는 경우가 많으며, 이는 에지 AI 시스템의 응답성, 성능 및 안정성에 영향을 미칠 수도 있습니다.
  • 비용 및 가용성. 많은 AI 모델은 더 빠른 처리를 위해 GPU(그래픽 처리 장치) 및 DPU(데이터 처리 장치)와 같은 워크로드 가속기의 이점을 활용하지만, 특히 GPU는 비용이 많이 들고 물리적 제약으로 인해 소형화된 폼 팩터에서 사용하기에는 너무 클 수 있습니다. 이로 인해 에지 디바이스에 배포할 수 있는 AI 알고리즘 유형이 제한될 수 있으며, 대체 최적화 기술이 필요할 수 있습니다.
  • 데이터 개인정보 보호. 일부 엣지 AI 시스템은 민감하거나 보호되는 데이터를 로컬에서 생성하고 처리하기 때문에 데이터 개인 정보 보호 및 HIPAA나 GDPR과 같은 규정 준수에 대한 우려가 제기됩니다. 데이터 개인 정보 보호와 법적 요구 사항 준수를 보장하려면 적절한 데이터 익명화, 암호화, 액세스 제어 조치를 구현해야 할 수도 있습니다.
  • 장치 관리. 지리적으로 분산된 여러 곳에 분산된 에지 AI 시스템을 배포, 모니터링, 업데이트 및 유지 관리하는 일은 어려울 수 있으며, 효율적인 관리 도구와 플랫폼이 필요합니다.

 

Edge AI 보안 대책

에지 AI 배포에서 데이터를 보호하고 보안 위험을 완화하려면 보안에 대한 다층적 접근 방식을 강조하는 전체적인 접근 방식이 필요합니다. 엣지 AI는 데이터로부터 학습하고 경험에 따라 행동을 진화시키는 능력 등 중요한 면에서 기존 컴퓨팅 워크로드와 다르지만, 보안 요구 사항 측면에서 엣지 AI는 보다 기존의 IoT 시스템과 많은 공통점을 가지고 있으며 다음을 포함하여 많은 동일한 위험을 공유합니다. 

  • 악성 소프트웨어와 사이버 공격. Edge AI 장치는 적절하게 보안되지 않으면 맬웨어 감염, 사이버 공격, 원격 악용의 위험에 노출됩니다. 모든 에지 AI 보안 전략에는 바이러스 백신 소프트웨어, 침입 탐지 시스템 및 정기적인 소프트웨어 업데이트의 구현이 포함되어야 합니다.
  • 네트워크 보안 . Edge AI 기기는 일반적으로 네트워크를 통해 서로 통신하고 중앙 서버와도 통신하므로 네트워크 기반 공격의 잠재적 대상이 됩니다. 암호화, 인증, 액세스 제어 메커니즘을 통해 네트워크 통신을 보호하여 전송 중인 데이터를 보호하고 네트워크 리소스에 대한 무단 액세스를 방지합니다.
  • 데이터 무결성 . AI 모델과 의사 결정 프로세스의 정확성과 신뢰성을 유지하려면 에지 AI 장치에서 처리하는 데이터의 무결성을 보호해야 합니다. 데이터 변조, 조작 또는 손상을 탐지하고 완화하려면 데이터 입력의 진위성과 일관성을 확인하기 위해 데이터 검증, 체크섬 및 무결성 검사를 구현해야 합니다.
  • 물리적 보안. Edge AI 장치는 종종 멀리 떨어진 곳이나 적대적인 환경에 배치되므로 손상, 물리적 변조, 도난 또는 파괴 행위에 취약합니다. 변조 방지 장치나 감시 카메라와 같은 물리적 보호 장치는 장치를 손상, 조작 또는 무단 액세스로부터 보호하는 데 도움이 됩니다.
  • API 보안. 플러그인을 포함한 AI 생태계는 API를 통해 촉진되는데, API는 취약성, 남용, 잘못된 구성 및 인증 및 권한 부여 제어를 우회하는 공격에 취약합니다.
  • 대규모 언어 모델(LLM) 보안. 생성적 AI 기반 애플리케이션에서 의사 결정과 관련된 LLM과 관련 교육 및 추론 프로세스는 즉각적인 주입, 데이터 오염, 환각 및 편견을 포함한 수많은 위험에 노출됩니다.

에지 AI 애플리케이션을 포함하여 LLM 기반 AI 시스템을 배포하고 관리하는 데 따른 보안 위험을 심층적으로 살펴보려면 대규모 언어 모델 애플리케이션을 위한 OWASP 상위 10대 애플리케이션을 검토하세요. 이 문서에서는 취약성에 대한 인식을 높이고, 수정 전략을 제안하며, LLM 애플리케이션의 보안 태세를 개선하는 방법을 설명합니다.  

Edge AI를 위한 최적화 전략

네트워크 가장자리 또는 기타 원격 위치에 배치되기 때문에 성능, 리소스 활용, 보안 및 기타 고려 사항을 위해 가장자리 AI 인프라를 최적화하는 것이 중요합니다. 그러나 리소스가 제한된 장치의 효율성과 성능을 최적화하는 것은 어려울 수 있습니다. 허용 가능한 성능을 유지하면서 계산, 메모리 및 에너지 요구 사항을 최소화하려면 종종 균형을 맞춰야 하기 때문입니다.

Edge AI에서 성능 향상

에너지 소비를 제한하는 동시에 에지의 컴퓨팅 성능을 최적화하기 위한 여러 가지 전략이 있습니다. 저전력 모드, 절전 상태, DVFS(동적 전압 및 주파수 조정)와 같은 전력 절약 기술을 구현하면 에너지 소비를 줄이는 데 도움이 될 수 있습니다. GPU와 DPU와 같은 하드웨어 가속기는 CPU에서 계산 집약적인 작업의 부담을 덜어 추론 속도를 향상할 수 있습니다. 성능을 유지하면서 리소스 활용도를 최적화하기 위해 동적 배칭, 적응적 추론, 모델 희소성과 같은 기술을 사용합니다. 덜 집중적인 작업은 CPU 리소스로 처리할 수도 있는데, 이는 고도로 분산된 아키텍처에서 리소스 풀링의 중요성을 강조합니다.

엣지 컴퓨팅을 위한 모델 적용

에지 AI 디바이스는 종종 컴퓨팅 리소스가 제한되어 있으므로 에지 디바이스에 최적화된 경량 AI 모델을 배포하는 것이 필요합니다. 이는 장치 리소스와 애플리케이션 요구 사항에 가장 적합한 모델을 선택할 때 모델 복잡성, 정확도, 추론 속도 간의 균형을 맞추는 것을 의미할 수 있습니다. 모델 양자화, 가지치기, 지식 증류와 같은 기술은 성능에 큰 손실 없이 AI 모델의 크기를 줄이는 데 도움이 될 수 있습니다.

엣지에서 최적화된 보안

"해소되는 경계"란 모바일 기기, 클라우드 및 엣지 컴퓨팅과 같은 요소로 인해 기존 네트워크 경계가 덜 정의되는 상황을 말합니다. 에지 AI의 맥락에서 경계가 사라지는 것은 에지 AI 디바이스가 일반적으로 네트워크 에지의 원격 및 동적 네트워크 환경에 배포되고 데이터 센터나 클라우드 환경 외부에서 작동하며 방화벽이나 침입 탐지 시스템과 같은 기존 경계 기반 보안 조치를 넘어선다는 것을 의미합니다. 결과적으로, 에지 AI 보안에는 특별한 요구 사항이 있으며, 격리된 위치와 복잡하고 분산된 환경에서의 무단 액세스와 같은 위협으로부터 보호하도록 최적화되어야 하며, 이러한 위협으로 인해 보안 관리와 가시성이 어려워집니다.

또한 API는 AI 애플리케이션의 여러 부분이 데이터와 지침을 교환할 수 있도록 하는 연결 조직을 제공합니다. 이러한 API 연결과 이를 통해 실행되는 데이터를 보호하는 것은 기업이 AI 기반 애플리케이션을 배포할 때 직면해야 하는 중요한 보안 과제입니다 . 따라서 다양한 위험으로부터 엔드포인트를 동적으로 감지하고 자동으로 보호하는 웹 앱 및 API 보호 서비스를 배포해야 합니다.  

대규모 언어 모델을 위한 보안

LMM은 방대한 양의 텍스트 데이터를 기반으로 하며, 놀라울 정도로 인간과 유사한 유창함과 일관성으로 자연어 출력을 이해하고 생성하도록 훈련된 인공 지능 모델입니다. 생성적 AI 애플리케이션의 핵심인 LLM은 일반적으로 온라인 서적, 게시물, 웹사이트, 기사 등 인터넷에서 체계적으로 수집한 입력 데이터와 콘텐츠를 통해 교육을 받습니다. 그러나 이러한 입력 데이터는 생성 AI 모델의 성능을 오도하거나 손상시키기 위해 의도적으로 입력 데이터를 조작하는 악의적인 행위자의 공격을 받기 쉽습니다. 그로 인해 취약점, 편향, 신뢰할 수 없는 출력, 개인 정보 침해 및 무단 코드 실행이 발생합니다.

LLM의 가장 큰 보안 위험은 다음과 같습니다.

  • 신속한 주사. 공격자는 LMM 입력 프롬프트를 조작하여 생성된 출력에 영향을 미치고 편향적이고 공격적이거나 부정확한 콘텐츠를 생성함으로써 LLM에서 생성된 출력의 신뢰성과 안정성을 훼손할 수 있습니다.
  • 모델 중독. 이러한 공격에는 LLM의 학습 단계에 악성 데이터를 주입하여 LLM의 동작을 조작하거나 성능을 손상시키는 것이 포함됩니다. 공격자는 오염된 데이터 샘플을 학습 데이터 세트에 도입함으로써 학습된 LLM 모델에 편향, 취약점 또는 백도어를 삽입할 수 있습니다.
  • 모델 서비스 거부(DoS) 이러한 공격은 악의적인 요청이나 입력으로 LLM을 압도하여 요청 토큰화와 LLM 컨텍스트 창 임계값을 초과하여 속도 저하, 중단 또는 서비스 중단을 유발함으로써 LLM의 가용성과 성능을 저하시키는 것을 목표로 합니다. 이러한 리소스 고갈 공격은 성능 저하 또는 시스템 불안정성으로 이어질 수 있으며, 이는 AI 시스템의 가용성과 안정성에 영향을 미치고, 모델이 사용자 프롬프트에 학습하고 대응하는 능력을 손상시킬 수 있습니다.

이러한 보안 과제를 해결하려면 즉각적인 주입을 방지하고 즉각적인 정리, 입력 검증, 즉각적인 필터링과 같은 기술을 활용하여 악의적으로 제작된 입력으로 인해 모델이 조작되지 않도록 하는 다각적인 접근 방식이 필요합니다. DoS 공격에 대응하려면 속도 제한, 이상 탐지, 행동 분석을 포함하는 계층화된 방어 전략을 수립하여 의심스럽거나 악의적인 네트워크 활동을 탐지하고 식별해야 합니다. 이러한 위험을 효과적으로 관리하기 위해 업계는 계속 발전하고 있으며, 이로 인해 애플리케이션 스택 내에서 LLM 프록시, 방화벽, 게이트웨이, 보안 미들웨어가 빠르게 개발되고 있습니다.

엣지 AI의 미래

Edge AI는 네트워크 엣지에서 빠르게 진화하는 기술 세트의 일부로, 지능적이고 반응성이 뛰어나며 효율성이 더 높은 컴퓨팅 환경의 새로운 시대를 열어가고 있습니다. 프로세서, 네트워킹, 소프트웨어, 보안이 발전하는 이러한 기술은 산업 전반에 걸쳐 혁신과 변혁을 위한 새로운 가능성을 열어주고 있습니다. 이러한 엣지 컴퓨팅 사용 사례는 네트워크 엣지에서 실시간 분석과 의사 결정을 활용하여, 조직이 데이터 출처에 더 가까운 곳에서 데이터를 처리 및 분석하고, 지연에 민감한 애플리케이션의 응답 시간을 개선하거나 콘텐츠의 실시간 전송을 보장할 수 있도록 지원합니다.

네트워크 가장자리 전반에 컴퓨팅 리소스를 분산하면 조직이 변화하는 작업 부하 수요에 신속하게 적응하고 리소스 활용도를 최적화하여 전반적인 시스템 성능과 효율성을 개선할 수도 있습니다. 이러한 가능성은 엣지 컴퓨팅 인프라를 위한 특수 구성 요소, 즉 엣지 서버, 엣지 컴퓨팅 플랫폼 및 라이브러리, 엣지 AI 애플리케이션을 지원하는 데 필요한 컴퓨팅, 스토리지, 네트워킹 리소스를 제공하는 AI 온칩 프로세서의 발전에 일부 기인합니다.

에지 AI는 네트워크 에지에서 인프라 르네상스를 주도하는 데 핵심적인 역할을 했으며, AI와 IoT의 통합은 에지에서 지능적인 의사 결정을 지속적으로 촉진하여 의료, 산업 자동화, 로봇 공학, 스마트 인프라 등에서 혁신적인 응용 프로그램을 추진하고 있습니다.

TinyML은 마이크로컨트롤러 및 엣지 AI 장치와 같은 리소스가 제한된 엣지 장치에 배포하도록 최적화된 가벼운 소프트웨어 ML 모델과 알고리즘을 만드는 데 중점을 둔 ML 및 AI 접근 방식입니다. TinyML 기반 알고리즘은 에너지 효율적으로 설계되었으며, 클라우드 리소스에 의존하지 않고도 로컬에서 추론 작업을 실행할 수 있습니다.

또한, CPU의 데이터 처리 작업을 오프로드하고 가속화하도록 설계된 특수 하드웨어 구성 요소인 DPU와 같은 소형이고 강력한 프로세서가 엣지 컴퓨팅 및 AI/ML 워크로드에서 점점 더 많이 사용되고 있습니다. 이러한 워크로드에서는 대량의 데이터를 효율적으로 처리하는 것이 성능과 확장성에 매우 중요합니다. 이러한 효율성은 전력 제약으로 인해 에너지 집약적 GPU 솔루션의 사용이 제한될 수 있는 엣지 컴퓨팅 환경에서 특히 가치가 있습니다.

이러한 혁신을 엣지-클라우드-데이터 센터 연속선상 에서 연결하는 것은 하이브리드, 멀티 클라우드, 엣지 컴퓨팅 리소스를 포함한 분산 아키텍처 전반에서 원활한 데이터 처리, 분석 및 관찰을 지원하는 차세대 네트워킹 솔루션입니다. 이러한 네트워크는 엣지 컴퓨팅 플랫폼의 필수 구성 요소인 API에 점점 더 의존하게 될 것입니다. API는 분산 컴퓨팅 환경 내에서 원활한 데이터 교환 및 동기화를 가능하게 하여 통신, 통합 및 자동화를 용이하게 하기 때문입니다. API는 표준화된 인터페이스를 제공하여 다양한 에지 장치, 시스템 및 서비스 간의 상호 운용성을 구현하고, 에지 리소스 및 서비스의 동적 프로비저닝, 관리 및 제어도 가능하게 합니다.

이러한 광범위한 분산 아키텍처에서는 데이터 소스에 가까운 에지 장치부터 데이터 센터에 위치한 중앙 집중식(또는 분산형) 클라우드 서버까지, 연속체의 여러 지점에서 데이터를 안전하게 처리하고 분석할 수 있습니다. 이러한 엣지에서 모든 곳으로 이어지는 연속성을 통해 조직은 여러 컴퓨팅 환경의 장점을 안전하게 활용하고 기존 워크로드와 AI 워크로드를 통합하여 현대적 애플리케이션의 다양한 요구 사항을 충족할 수 있습니다.

F5가 어떻게 도울 수 있는지

F5는 네트워크 엣지의 AI 애플리케이션을 포함하여 분산 환경 전반에서 모든 앱, 모든 API를 어디서나 보안, 제공 및 최적화하는 유일한 솔루션 제공업체입니다. AI 기반 앱은 최신 앱 중 가장 현대적인 앱이며, GenAI를 사용하는 시스템에는 LLM 위험과 분산 추론과 같은 특정 고려 사항이 있지만 이러한 애플리케이션은 지연, 서비스 거부, 소프트웨어 취약성, 봇과 악의적인 자동화를 사용하는 악의적인 행위자에 의한 남용의 영향을 받을 수도 있습니다.

새로운 AI 기반 디지털 경험은 온프레미스, 클라우드 및 엣지 환경 전반으로 확장되는 다양한 데이터 소스, 모델 및 서비스가 혼합되어 있어 고도로 분산되어 있으며, 이 모든 것이 확장되는 API 네트워크로 연결되어 있어 상당한 보안 과제가 발생합니다. 이러한 API 연결과 이를 통해 실행되는 데이터를 보호하는 것은 기업이 더 많은 AI 기반 서비스를 배포함에 따라 직면해야 하는 중요한 보안 과제입니다.

F5 분산 클라우드 서비스는 API 코드 테스트와 원격 측정 분석 기능을 갖춘 업계에서 가장 포괄적인 AI 지원 API 보안 솔루션을 제공하여 정교한 AI 기반 위협으로부터 보호하는 동시에 멀티 클라우드 및 엣지 애플리케이션 환경을 보다 쉽게 보호하고 관리할 수 있도록 해줍니다. F5 멀티 클라우드 네트워킹 솔루션은 단일 콘솔을 통해 퍼블릭 및 프라이빗 클라우드와 엣지 배포를 위한 트래픽 최적화, 보안 서비스를 갖춘 SaaS 기반 네트워킹을 제공하므로 클라우드 종속 서비스와 여러 타사 공급업체의 관리 부담을 덜어줍니다. F5 네트워크 솔루션을 사용하면 가속화된 AI 배포, 종단 간 정책 관리, 완전 자동화되고 안정적인 인프라에 대한 관찰 가능성을 얻을 수 있습니다. 

또한, 새로운 F5 AI 데이터 패브릭은 고객이 더 많은 정보에 입각한 결정을 내리고 보다 신속하게 조치를 취하는 데 도움이 되는 혁신적인 솔루션을 구축하기 위한 기반입니다. 분산 클라우드 서비스, BIG-IP, NGINX의 원격 측정을 결합하여 비교할 수 없는 통찰력을 제공하고, 실시간 보고서를 생성하고, 작업을 자동화하고, AI 에이전트를 구동합니다.

F5는 또한 자연어 인터페이스를 사용하여 고객이 F5 솔루션과 상호작용하고 이를 관리하는 방식을 바꿀 AI 비서 기능을 출시할 예정입니다. F5 AI 데이터 패브릭을 기반으로 하는 AI 어시스턴트는 데이터 시각화를 생성하고, 이상을 식별하고, 정책 구성을 쿼리하고 생성하고, 수정 단계를 적용합니다. 또한 전체 제품 지식 기반의 모델 학습을 기반으로 고객이 질문을 하고 권장 사항을 받을 수 있는 내장형 고객 지원 관리자 역할도 수행합니다.

F5 솔루션은 데이터 센터에서 엣지까지 AI 기반 앱에 동력을 공급하고 보호하여 예측 가능한 성능과 보안을 제공하는 강력한 도구를 제공하므로 AI 투자에서 최대 가치를 얻을 수 있습니다.