엣지 AI란? 엣지에서 인공 지능 탐색

엣지 AI는 엣지 컴퓨팅 환경에 인공 지능 알고리즘과 모델을 배포하는 것으로, 엣지 사이트와 클라우드 간의 지속적인 통신 스트림을 부분적으로 상쇄하기 위해 의사결정이 이루어지는 곳에 가깝게 컴퓨팅 성능과 인텔리전스를 제공합니다. 엣지 AI는 네트워크 주변에 있는 디바이스가 로컬로 데이터를 처리할 수 있도록 하므로 인터넷 연결 또는 중앙 클라우드 서버에 의존하지 않고 실시간 의사결정을 내리고 컴퓨팅 속도를 높이며 데이터 개인정보 및 보안을 개선할 수 있습니다.

엣지 AI에 대한 이해

엣지 AI는 인공 지능, IoT(사물 인터넷), 엣지 컴퓨팅 및 임베디드 시스템을 포함한 여러 기술의 융합으로, 각 기술은 네트워크 엣지에서 지능적인 처리와 의사결정을 지원하는 데 중요한 역할을 합니다. 엣지 AI는 임베디드 알고리즘을 사용하여 원격 시스템의 활동을 모니터링하고, 센서와 같은 디바이스에서 수집한 데이터와 비정형 데이터(온도, 언어, 얼굴, 동작, 이미지, 근접성 및 기타 아날로그 입력 포함)의 기타 추적기를 처리합니다.

이러한 원격 시스템은 센서, 스마트폰, IoT 디바이스, 드론, 카메라, 심지어 차량과 스마트 어플라이언스를 포함하여 다양한 형태를 취할 수 있습니다. 이러한 시스템에서 수집된 데이터는 엣지 AI 알고리즘의 입력으로 사용되어 시스템 또는 주변 환경의 상태에 대한 중요한 정보를 제공함으로써 엣지 AI 시스템이 변화나 이상 징후에 신속하게 대응하고 작동 환경을 이해할 수 있도록 합니다. 이러한 엣지 AI 애플리케이션은 비용, 지연 시간, 대역폭, 보안 및 개인정보 보호와 관련된 문제로 인해 중앙화된 클라우드 또는 기업 데이터 센터 환경에서 운영하는 것이 실용적이지 않거나 심지어 불가능할 수도 있습니다.

엣지 AI는 다음과 같은 다양한 사용 사례를 포괄합니다.

  • 자율 주행 차량. 엣지 AI를 사용하면 차량이 클라우드 연결에 지속적으로 의존하지 않고도 센서 데이터를 실시간으로 분석하여 물체 감지, 차선 추적, 충돌 방지와 같은 작업에 대해 순식간에 결정을 내릴 수 있습니다.
  • 스마트 시티. 도시 전역에 배치된 센서와 카메라에서 제공되는 데이터를 바탕으로 교통 관리, 공공 안전 모니터링, 폐기물 관리 및 에너지 최적화 등과 같은 다양한 스마트 시티 애플리케이션을 구동할 수 있습니다.
  • 농업 모니터링. 엣지 AI는 센서, 드론, 위성 이미지의 데이터를 분석하여 농작물의 상태를 모니터링하고, 관개를 최적화하고, 해충 침입을 감지하고, 환경 조건을 실시간으로 분석함으로써 정밀 농업을 지원합니다.
  • 산업용 IoT. 엣지 디바이스는 제조 장비와 센서에 직접 AI 알고리즘을 배포하여 중앙 서버에 의존하지 않고도 기계 상태를 모니터링하고, 결함을 감지하고, 생산 프로세스를 최적화할 수 있습니다.
  • 의료 모니터링. 엣지 AI는 웨어러블 디바이스, 의료 센서, 영상 장비의 데이터를 분석하여 의료 데이터를 실시간으로 분석하고 잠재적인 건강 문제를 의료진에게 알림으로써 원격 환자 모니터링 및 맞춤화된 의료 서비스를 지원합니다.

엣지 AI 및 클라우드 AI

AI 알고리즘과 모델을 배포하는 데는 엣지 또는 클라우드의 두 가지 주요 패러다임이 있습니다. 클라우드와 엣지 사이트에 걸쳐 시스템을 통합하는 전략을 “클라우드 인(cloud-in)” 또는 “엣지 아웃(edge-out)”이라고 하며, 둘 모두 성능, 보안 및 운영에 영향을 미칩니다.

엣지 AI는 네트워크 엣지 또는 분산 환경에서 실시간 처리 및 의사결정을 지원하기 위해 원격 디바이스에 AI를 배포됩니다. 이러한 시스템은 네트워크 연결에 의존하거나 중앙 서버로 데이터를 전송하지 않고도 대부분 로컬로 데이터를 분석할 수 있으므로 지연 시간이 짧고 응답 시간이 빠릅니다. 또한 엣지 AI 시스템은 민감한 데이터를 로컬로 보관하여 클라우드로의 데이터 전송과 관련된 개인정보 침해의 위험 또는 보안 위험을 줄여줍니다.

엣지 AI의 예로는 로컬에 배포된 AI를 사용하여 센서 데이터를 분석하여 실시간 주행 결정을 내리는 자율 주행 차량과 엣지 AI를 사용하여 음성 명령을 처리하거나 침입자를 모니터링하는 스마트 홈 디바이스를 들 수 있습니다.

반면 클라우드 AI는 중앙 클라우드 서버에 AI 알고리즘과 모델을 배포하여 대규모 데이터 처리, 학습 및 추론이 가능한 것이 특징입니다. 클라우드 리소스는 상당한 컴퓨팅 성능을 제공하므로 대규모 컴퓨팅 능력이 필요한 딥러닝 학습 또는 빅데이터 분석 등과 같은 복잡한 AI 작업이 가능합니다. 클라우드 AI 솔루션은 대량의 데이터와 많은 사용자를 수용하도록 쉽게 확장할 수 있으므로 처리량이 많거나 리소스 집약적인 요구 사항이 있는 애플리케이션에 적합합니다.

Amazon 또는 Netflix가 방대한 사용자 데이터를 기반으로 소비자에게 새로운 상품이나 대체 상품을 제공하기 위해 사용하는 권장 엔진은 최적의 기능을 위해 상당한 컴퓨팅 리소스가 필요한 대규모 클라우드 AI 시스템의 예입니다.

다른 AI 사용 사례는 특정 고객의 요구 사항을 충족하기 위해 엣지 AI와 클라우드 AI를 모두 포괄합니다. 실제 사례로는 기업이 기존 워크플로에 AI를 쉽게 통합할 수 있는 혁신적인 AI 서비스의 허브인 Sentient Marketplace를 개발한 싱가포르 기반의 AI 및 데이터 플랫폼 제공업체인 Sentient.io가 있습니다. 그러나 이 마켓플레이스의 빠른 성공은 분산 환경(온프레미스, 퍼블릭 클라우드, 프라이빗 클라우드 및 엣지)에서 AI 서비스의 운영 및 배포에 대한 어려움을 포함한 여러 복잡한 과제를 제시하기도 했습니다.

고객 사이트에서 여러 클라우드 제공업체에 걸쳐 운영할 경우 개별 클라우드 제공업체 솔루션은 독점적인 Kubernetes 배포를 제공할 수 있으며, 이는 각 클라우드 환경에서 이러한 플랫폼을 활용해야 하는 조직에 부담을 줄 수 있습니다. 또한 고객 사이트에서 Sentient의 AI 모델을 배포하는 과정에서 각 엣지 사이트에 대해 온프레미스 Kubernetes 환경을 설정하고 새 모델의 업데이트 및 동기화를 수동으로 처리해야 하는 번거로움이 있었습니다. 그 결과 운영 복잡성이 증가하고 워크플로 오케스트레이션 및 보안 정책이 일관되지 않는 문제가 발생했습니다.

Sentient.io는 F5와 협력하여 온프레미스, 클라우드 및 엣지 위치 전반에서 배포를 간소화하는 엔터프라이즈용 Kubernetes 플랫폼인 F5 Distributed Cloud App Stack을 사용하여 다양한 업종의 고객에게 엔터프라이즈 등급 턴키 AI "서비스형" 솔루션을 제공합니다. 이 솔루션은 Sentient의 운영을 간소화하여 지연 시간을 줄이고 엣지에서 실시간 AI 처리를 가능하게 했습니다. 엣지에서 추론을 제공하면 지리적 위치에 따른 네트워크 및 대역폭 제약이 제거되고 실시간으로 애플리케이션에 추론을 즉시 제공할 수 있습니다. 모델 배포에서의 이러한 전환을 통해 Sentient.io는 고객에게 고성능 AI 애플리케이션을 더 빠른 가치 실현 시간으로 제공하고, 자원 할당을 최적화하고, 전반적인 운영 비용을 절감하고, 애플리케이션 및 API 보안을 기본적으로 통합할 수 있게 되었습니다.

또한 이러한 협업은 전담 팀이 필요하고 상당한 리소스 비용이 발생하는 멀티클라우드 플랫폼을 수동으로 관리하던 이전 프로세스에 비해 상당한 비용 절감 효과를 가져왔습니다. Sentient는 F5 Distributed Cloud Services를 통해 운영을 간소화하고 리소스를 최적화하고 애플리케이션 관리를 간소화하여 비용을 절감하고 다른 전략적 이니셔티브를 위한 리소스를 확보할 수 있게 되었습니다.

엣지 AI 액세스

엣지 AI에 액세스하려면 네트워크 엣지에서 AI 기능에 효율적으로 액세스하고 활용할 수 있도록 디바이스, 기술, 인프라 구성 요소 및 통합을 조합하여 배포해야 합니다. 여기에는 다음이 포함됩니다.

  • 엣지 디바이스. 센서와 마이크로컨트롤러가 내장된 엣지 디바이스는 물리적 환경에서 데이터를 수집하고 로컬 프로세싱을 위해 엣지 AI 모델을 호스팅할 수 있습니다. IoT 디바이스의 예로는 스마트 온도 조절기, 감시 카메라, 토양 수분 모니터, 산업용 센서 등이 있습니다. 또한 엣지 디바이스에는 스마트폰과 태블릿 컴퓨터가 포함될 수 있으며, 환경을 감지할 뿐만 아니라 처리 능력과 연결 기능을 활용하여 엣지 AI 작업을 수행할 수 있습니다.
  • 기술. 네트워크 엣지에서 AI 시스템을 운영하려면 리소스가 제한된 디바이스에 배포하는 데 최적화된 학습된 알고리즘과 AI 모델을 포함한 여러 전문 기술이 필요합니다. 엣지 AI 프레임워크와 플랫폼은 시스템 개발과 배포를 간소화하는 도구 및 라이브러리를 제공하는 데도 사용할 수 있습니다.
  • 인프라. 엣지 AI 디바이스가 서로 통신하고 필요한 경우 중앙 서버와 통신하려면 유선 또는 무선의 안정적인 네트워크 연결이 필요하며, 여기에는 에지 서버, 게이트웨이 및 라우터와 같은 하드웨어 구성 요소가 포함될 수 있습니다. 또한 API는 AI 아키텍처의 핵심으로, 다양한 구성 요소와 서비스가 서로 통신하고 데이터와 명령을 교환할 수 있게 해줍니다.
  • 통합. 엣지 AI 시스템은 기존 네트워크 및 인프라와 통합하여 데이터 접근성을 보장하고, 시스템의 다른 구성 요소와의 확장성 및 호환성을 지원하며, 관리 복잡성을 완화할 수 있어야 합니다.

또한 엣지 AI 배포 및 액세스와 관련하여 다음과 같은 과제와 제한 사항에 유의해야 합니다.

  • 제한된 컴퓨팅 성능 및 연결. 대부분의 엣지 디바이스는 처리 능력, 메모리, 스토리지가 제한되어 있으므로 엣지에서 작동할 수 있는 AI 모델의 복잡성과 크기가 제한될 수 있습니다. 또한 엣지 디바이스는 종종 네트워크 연결 옵션이 제한된 환경에서 작동하므로 엣지 AI 시스템의 응답성, 성능, 신뢰성에도 영향을 미칠 수 있습니다.
  • 비용 및 가용성. 많은 AI 모델은 더 빠른 처리를 위해 GPU(그래픽 처리 장치) 및 DPU(데이터 처리 장치) 등과 같은 워크로드 가속기를 활용하지만, 특히 GPU는 비용이 많이 들며 물리적 제약으로 인해 소형화된 폼 팩터에서 사용하기에는 너무 클 수 있습니다. 따라서 엣지 디바이스에 배포할 수 있는 AI 알고리즘 유형이 제한되고 대체 최적화 기술이 필요할 수 있습니다.
  • 데이터 개인정보 보호. 일부 엣지 AI 시스템은 민감한 데이터 또는 보호된 데이터를 로컬로 생성하고 처리하기 때문에 데이터 개인정보 보호 및 HIPAA 또는 GDPR과 같은 규정 준수에 대한 우려가 제기됩니다. 데이터 개인정보 보호 및 법적 요건 준수를 보장하려면 적절한 데이터 익명화, 암호화 및 액세스 제어 조치를 구현해야 할 수 있습니다.
  • 디바이스 관리. 지리적으로 분산된 위치에 분포된 엣지 AI 시스템을 배포, 모니터링, 업데이트 및 유지 관리하는 것은 어려운 일이며 효율적인 관리 도구와 플랫폼이 필요할 수 있습니다.

 

엣지 AI 보안 조치

엣지 AI 배포에서 데이터를 보호하고 보안 위험을 완화하려면 보안에 대한 다층적 접근 방식을 강조하는 종합적인 접근 방식이 필요합니다. 엣지 AI는 데이터로부터 학습하고 경험을 기반으로 행동을 진화시키는 능력과 같은 중요한 측면에서 기존 컴퓨팅 워크로드와 다르지만, 보안 요구 사항 측면에서 엣지 AI는 기존 IoT 시스템과 많은 공통점을 가지고 있으며 다음과 같은 많은 위험을 공유합니다.

  • 멀웨어 및 사이버 공격. 엣지 AI 디바이스는 제대로 보호되지 않는 경우 멀웨어 감염, 사이버 공격, 원격 악용에 취약합니다. 바이러스 백신 소프트웨어, 침입 탐지 시스템 및 정기적인 소프트웨어 업데이트 구현은 모든 엣지 AI 보안 전략의 일부가 되어야 합니다.
  • 네트워크 보안. 엣지 AI 디바이스는 일반적으로 네트워크를 통해 서로 통신하고 중앙 서버와 통신하므로 네트워크 기반 공격의 잠재적 표적이 될 수 있습니다. 암호화, 인증 및 액세스 제어 메커니즘으로 네트워크 통신을 보호하여 전송 중인 데이터를 보호하고 네트워크 리소스에 대한 무단 액세스를 방지하십시오.
  • 데이터 무결성. AI 모델 및 의사결정 프로세스의 정확성과 신뢰성을 유지하려면 엣지 AI 디바이스에서 처리하는 데이터의 무결성을 보호해야 합니다. 데이터 변조, 조작 또는 손상을 탐지하고 완화하기 위해서는 데이터 유효성 검사, 체크섬, 무결성 검사를 구현하여 데이터 입력의 진위와 일관성을 검증해야 합니다.
  • 물리적 보안. 엣지 AI 디바이스는 원격 환경 또는 부적절한 환경에 배포되는 경우가 많으므로 손상, 물리적 조작, 도난 또는 공공기물 파손 행위 등에 취약합니다. 변조 방지 인클로저 또는 감시 카메라와 같은 물리적 안전 장치는 디바이스를 손상, 조작 또는 무단 액세스로부터 보호하는 데 도움이 됩니다.
  • API 보안. 플러그인을 포함한 AI 생태계는 취약성, 남용, 잘못된 구성, 취약한 인증 및 권한 부여 제어 장치를 우회하는 공격에 노출되기 쉬운 API를 통해 활성화됩니다.
  • 대규모 언어 모델(LLM) 보안. 생성형 AI 기반 애플리케이션의 의사결정과 관련된 LLM 및 관련 학습과 추론 프로세스는 프롬프트 인젝션, 데이터 중독, 환각(hallucination), 편향을 포함한 수많은 위험에 노출되어 있습니다.

엣지 AI 애플리케이션을 포함하여 LLM을 기반으로 하는 AI 시스템의 배포 및 관리와 관련된 보안 위험에 대한 심층적인 조사에 대해서는 대규모 언어 모델 애플리케이션에 대한 OWASP Top 10을 검토하여 취약성에 대한 인식을 높이고, 해결 전략을 제안하며, LLM 애플리케이션의 보안 태세 개선을 모색하십시오.

엣지 AI를 위한 최적화 전략

네트워크 엣지 또는 기타 원격 위치에 배치되므로 성능, 리소스 활용, 보안 및 기타 고려 사항에 대해 엣지 AI 인프라를 최적화해야 합니다. 그러나 리소스가 제한된 디바이스의 효율성과 성능을 최적화하는 것은 컴퓨팅, 메모리 및 에너지 요구 사항을 최소화하면서 허용 가능한 성능을 유지하는 데 종종 상충 관계가 수반되기 때문에 어려울 수 있습니다.

엣지 AI의 성능 향상

에너지 소비를 제한하면서 엣지에서 컴퓨팅 성능을 최적화하는 몇 가지 전략이 있습니다. 저전력 모드, 절전 상태 또는 DVFS(동적 전압 및 주파수 스케일링)와 같은 절전 기술을 구현하면 에너지 소비를 줄이는 데 도움이 될 수 있습니다. GPU 및 DPU 같은 하드웨어 가속기는 계산 집약적인 작업을 CPU에서 오프로드하여 추론 속도를 향상시킬 수 있습니다. 동적 일괄 처리, 적응형 추론 또는 모델 희소성과 같은 기술을 사용하여 성능을 유지하면서 리소스 활용률을 최적화합니다. 덜 집약적인 작업은 CPU 리소스를 통해 처리할 수 있으므로 고도의 분산 아키텍처에서 리소스 풀링의 중요성에 역점을 두는 것이 좋습니다.

엣지 컴퓨팅을 위한 적응형 모델

엣지 AI 디바이스는 컴퓨팅 리소스가 제한된 경우가 많기 때문에 엣지 디바이스에 최적화된 경량형 AI 모델을 배포해야 합니다. 이는 디바이스 리소스와 애플리케이션 요구 사항에 가장 적합한 모델을 선택할 때 모델 복잡성, 정확도, 추론 속도 간의 균형을 맞추는 것을 의미할 수 있습니다. 모델 정량화, 프루닝(pruning), 지식 증류(knowledge distillation) 등의 기술을 사용하면 성능의 큰 손실 없이 AI 모델의 크기를 줄이는 데 도움이 될 수 있습니다.

엣지의 보안 최적화

"경계 해체(dissolving perimeter)"는 모바일 디바이스, 클라우드 및 엣지 컴퓨팅과 같은 요인으로 인해 기존의 네트워크 경계에 대한 정의가 점점 약화되고 있음을 의미합니다. 엣지 AI의 맥락에서 경계가 해체된다는 것은 엣지 AI 디바이스가 일반적으로 네트워크 엣지의 원격 및 동적 네트워크 환경에 배포되고 데이터 센터 또는 클라우드 환경 외부에서 방화벽 또는 침입 탐지 시스템과 같은 기존의 경계 기반 보안 조치를 벗어나 작동한다는 것을 의미합니다. 따라서 엣지 AI 보안에는 특별한 요구 사항이 있으며, 보안 관리와 가시성을 어려운 문제로 만드는 격리된 위치 및 복잡한 분산 환경에서의 무단 액세스 등과 같은 위협으로부터 보호할 수 있도록 최적화되어야 합니다.

또한 API는 AI 애플리케이션의 여러 부분에서 데이터와 명령을 교환할 수 있는 연결 조직을 제공합니다. 이러한 API 연결과 이를 통과하는 데이터를 보호하는 것은 기업이 AI 지원 애플리케이션을 배포할 때 직면해야 하는 중요한 보안 과제로, 다양한 위험으로부터 엔드포인트를 동적으로 검색하고 자동으로 보호하는 웹 앱 및 API 보호 서비스의 배포가 필요합니다.

대규모 언어 모델에 대한 보안

LMM은 방대한 양의 텍스트 데이터를 기반으로 하며 놀랍도록 인간과 유사한 유창성 및 일관성으로 자연어 출력을 이해하고 생성하도록 학습된 인공 지능 모델입니다. 생성형 AI 애플리케이션의 핵심인 LLM은 일반적으로 온라인 서적, 게시물, 웹사이트 및 기사를 포함하여 인터넷에서 체계적으로 수집된 입력 데이터와 콘텐츠로 학습됩니다. 그러나 이러한 입력 데이터는 의도적으로 입력 데이터를 조작하여 생성형 AI 모델의 성능을 호도하거나 손상시켜 취약점, 편향, 신뢰할 수 없는 출력, 개인정보 침해 및 무단 코드 실행을 유발하는 악의적 행위자의 공격에 노출될 수 있습니다.

LLM에 대한 주요 보안 위험은 다음과 같습니다.

  • 프롬프트 인젝션. 공격자는 LMM 입력 프롬프트를 조작하여 생성된 출력에 영향을 주며 편향되거나 공격적이거나 부정확한 콘텐츠를 생성하여 LLM에서 생성된 출력의 신뢰성과 안정성을 훼손할 수 있습니다.
  • 모델 중독. 이러한 공격은 LLM의 학습 단계에서 악성 데이터를 주입하여 동작을 조작하거나 성능을 손상시키는 것입니다. 공격자는 학습 데이터 세트에 중독된 데이터 샘플을 제공하여 학습된 LLM 모델에 편향, 취약점 또는 백도어를 삽입할 수 있습니다.
  • 모델 서비스 거부(DoS). 이러한 공격은 요청 토큰화 및 LLM 컨텍스트 창 임계값을 초과하여 속도 저하, 중단 또는 서비스 중단을 일으킬 수 있는 악의적 요청이나 입력으로 LLM을 압도함으로써 가용성과 성능을 표적으로 삼습니다. 이러한 리소스 고갈 공격은 성능 저하 또는 시스템 불안정으로 이어져 AI 시스템의 가용성과 신뢰성에 영향을 주고 모델이 학습하고 사용자 프롬프트에 응답하는 능력을 손상시킬 수 있습니다.

이러한 보안 문제를 해결하기 위해서는 프롬프트 인젝션을 방지하고 악의적으로 조작된 입력에 의해 모델이 조작되지 않도록 프롬프트 살균, 입력 유효성 검사, 프롬프트 필터링 등과 같은 기술을 사용하는 다각적인 접근 방식이 필요합니다. DoS 공격에 대응하려면 속도 제한, 이상 징후 탐지, 행동 분석을 포함하는 계층화된 방어 전략을 수립하여 의심스럽거나 악의적인 네트워크 활동을 탐지하고 식별합니다. 업계는 이러한 위험을 효과적으로 관리하기 위해 계속 발전하고 있으며, 이는 애플리케이션 스택 내 LLM 프록시, 방화벽, 게이트웨이 및 보안 미들웨어의 빠른 개발로 이어집니다.

엣지 AI의 미래

엣지 AI는 네트워크 엣지에서 빠르게 진화하고 있는 일련의 기술 중 하나로, 지능적이고 반응성이 뛰어나며 보다 효율적인 컴퓨팅 환경의 새로운 시대를 예고하고 있습니다. 프로세서, 네트워킹, 소프트웨어, 보안 기술 발전의 경계에서 이러한 기술은 산업 전반에서 혁신과 변화를 위한 새로운 가능성을 열어주고 있습니다. 이러한 엣지 컴퓨팅 사용 사례는 네트워크 엣지에서 실시간 분석 및 의사 결정을 활용하여 조직이 소스 가까이에서 데이터를 처리 및 분석하고 지연 시간에 민감한 애플리케이션의 응답 시간을 개선하거나 콘텐츠의 실시간 제공을 보장할 수 있도록 해줍니다.

또한 네트워크 엣지에 컴퓨팅 리소스를 분산시키면 조직은 변화하는 워크로드 수요에 빠르게 적응하고 리소스 활용률을 최적화하여 전반적인 시스템 성능과 효율성을 개선할 수 있습니다. 이러한 가능성은 부분적으로는 엣지 서버, 엣지 컴퓨팅 플랫폼 및 라이브러리, 엣지 AI 애플리케이션 지원에 필요한 컴퓨팅, 스토리지 및 네트워킹 리소스를 제공하는 AI 온칩 프로세서 등과 같은 엣지 컴퓨팅 인프라를 위해 특별히 제작된 구성 요소의 발전으로 인한 것입니다.

엣지 AI는 네트워크 엣지에서 인프라 르네상스를 주도하는 데 중추적인 역할을 해왔으며, AI와 IoT의 통합은 엣지에서 지능적인 의사결정을 지속적으로 주도하여 의료, 산업 자동화, 로봇 공학, 스마트 인프라 등에서 혁신적인 애플리케이션을 촉진하고 있습니다.

TinyML은 부분적으로 경량형 소프트웨어 ML 모델 및 알고리즘 생성에 중점을 둔 ML 및 AI에 대한 접근 방식으로, 마이크로컨트롤러 및 엣지 AI 디바이스 등과 같이 리소스가 제한된 엣지 디바이스에 배포하는 데 최적화되어 있습니다. TinyML 기반 알고리즘은 에너지 효율적이며 클라우드 리소스에 의존하지 않고 로컬로 추론 작업을 실행할 수 있도록 설계되어 있습니다.

또한 CPU에서 데이터 처리 작업을 오프로드하고 가속화하도록 설계된 특화된 하드웨어 구성 요소인 DPU와 같은 작고 강력한 프로세서는 대량의 데이터를 효율적으로 처리하는 것이 성능과 확장성에 중요한 엣지 컴퓨팅 및 AI/ML 워크로드에서 점점 더 많이 사용되고 있습니다. 이러한 효율성은 전력 제약으로 인해 에너지 집약적인 GPU 솔루션의 사용이 제한될 수 있는 엣지 컴퓨팅 환경에서 특히 유용합니다.

이러한 혁신을 엣지-클라우드-데이터 센터 연속체에 연결하는 것은 하이브리드, 멀티클라우드 및 엣지 컴퓨팅 리소스를 포함한 분산 아키텍처 전반에서 원활한 데이터 처리, 분석, 관찰 가능성을 지원하는 차세대 네트워킹 솔루션입니다. 이러한 네트워크는 분산 컴퓨팅 환경 내에서 원활한 데이터 교환과 동기화를 가능하게 하는 통신, 통합, 자동화를 용이하게 하기 때문에 엣지 컴퓨팅 플랫폼의 필수 구성 요소인 API에 점점 더 의존하게 됩니다. 또한 API는 다양한 엣지 디바이스, 시스템 및 서비스 간의 상호 운용성을 지원하는 표준화된 인터페이스를 제공함으로써 엣지 리소스 및 서비스의 동적 프로비저닝, 관리 및 제어도 가능하게 합니다.

이러한 광범위한 분산 아키텍처에서는 데이터 소스에 가까이 위치한 엣지 디바이스에서 데이터 센터에 위치한 중앙(또는 분산형) 클라우드 서버에 이르기까지 연속체를 따라 여러 지점에서 데이터를 안전하게 처리하고 분석할 수 있습니다. 이러한 edge-to-everywhere 연속체를 통해 조직은 여러 컴퓨팅 환경의 강점을 안전하게 활용하고 기존 워크로드와 AI 워크로드를 통합하여 최신 애플리케이션의 다양한 요구 사항을 충족할 수 있습니다.

F5의 지원 방법

F5는 네트워크 엣지의 AI 애플리케이션을 포함하여 분산 환경의 연속체 전반에서 모든 앱, 모든 API를 어디서나 보호, 제공 및 최적화하는 유일한 솔루션 제공업체입니다. AI 기반 앱은 최신 앱의 가장 현대적인 형태로, LLM 위험 및 분산 추론과 같이 GenAI를 사용하는 시스템의 경우 특정 고려 사항이 있지만 이러한 애플리케이션은 지연 시간, 서비스 거부, 소프트웨어 취약성, 봇 및 악의적인 자동화를 사용하는 악의적 행위자의 악용에 노출될 수 있습니다.

새로운 AI 기반 디지털 환경은 온프레미스, 클라우드 및 엣지 환경 전반에서 확장되는 데이터 소스, 모델, 서비스가 혼합되고 고도로 분산되어 있으며, 확장되는 API 네트워크로 모두 연결되어 있어 보안 문제가 심각합니다. 이러한 API 연결과 이를 통과하는 데이터를 보호하는 것은 기업이 더 많은 AI 지원 서비스를 배포할 때 직면해야 하는 중요한 보안 과제입니다.

F5 Distributed Cloud Services는 업계에서 가장 포괄적인 AI 지원 API 보안 솔루션을 제공하며, API 코드 테스트 및 텔레메트리 분석 기능을 통해 정교한 AI 기반 위협으로부터 보호하는 동시에 멀티클라우드 및 엣지 애플리케이션 환경을 보다 쉽게 보호하고 관리할 수 있도록 지원합니다. F5 멀티클라우드 네트워킹 솔루션은 트래픽 최적화가 포함된 SaaS 기반 네트워킹을 제공하며, 단일 콘솔을 통해 퍼블릭 및 프라이빗 클라우드와 엣지 배포를 위한 보안 서비스를 제공하여 클라우드 의존형 서비스 및 여러 타사 공급업체의 관리 부담을 줄여줍니다. F5 네트워크 솔루션을 사용하면 완전히 자동화되고 신뢰할 수 있는 인프라에 대해 가속화된 AI 배포, 엔드투엔드 정책 관리 및 관찰 가능성을 확보할 수 있습니다.

또한 새로운 F5 AI Data Fabric은 고객이 더 많은 정보를 바탕으로 의사결정을 내리고 빠른 조치를 취할 수 있도록 지원하는 혁신적인 솔루션을 구축하기 위한 기초입니다. Distributed Cloud Services, BIG-IP 및 NGINX의 텔레메트리 기능이 결합되어 탁월한 인사이트를 제공하고 실시간 보고서를 생성하며 조치를 자동화하고 AI 에이전트를 강화합니다.

또한 F5는 자연어 인터페이스를 사용하여 고객이 F5 솔루션과 상호 작용하고 관리하는 방식을 변화시킬 AI 어시스턴트를 출시 중입니다. F5 AI Data Fabric을 기반으로 하는 AI 어시스턴트는 데이터 시각화 생성, 이상 징후 식별, 정책 구성 쿼리 및 생성, 해결 단계 적용 등의 기능을 수행합니다. 또한 내장된 고객 지원 관리자를 통해 고객이 전체 제품 기술 자료에 대한 모델 교육을 기반으로 질문하고 추천 받을 수 있도록 합니다.

F5 솔루션은 데이터 센터에서 엣지에 이르기까지 AI 기반 앱을 강화하고 보호함으로써 예측 가능한 성능 및 보안을 제공하는 강력한 도구를 제공하므로 AI 투자에서 최고의 가치를 얻을 수 있습니다.