이 블로그 게시물은 AI 공장에 대한 시리즈 중 하나입니다. 여기까지 마치면 이 시리즈의 다른 게시물을 탐색해 보세요.
ChatGPT가 2022년 11월에 출시되었을 때 우리가 물었던 질문과 입력한 프롬프트는 간단했습니다. "X에 대한 이야기를 들려주세요"와 "Z라는 주제에 대해 A라는 사람과 B라는 사람 사이의 이야기를 써주세요." 이러한 질문과 당시 GPT-3.5와의 초기 상호작용을 통해 우리는 이 새로운 유행 기술이 우리의 일상 생활에 어떤 영향을 미칠지 파악하려고 노력했습니다. 이제 2024년 말이면 AI가 우리 삶을 보완할 것입니다. AI는 디버깅과 코드 작성, 데이터 컴파일과 요약, 자율주행차 운전 등 다양한 용도로 활용될 것입니다. 이는 현대 AI 공장의 결과물일 뿐이며, 우리는 아직 시작에 불과합니다.
AI 공장에 대한 시리즈의 첫 번째인 이 기사에서는 AI 공장의 구성 요소를 살펴보고, 다양한 요소가 어떻게 함께 작동하여 대규모 AI 기반 솔루션을 생성하는지 살펴봅니다.
AI가 발전하는 가운데 AI 모델과 서비스가 어떻게 생성, 개선, 배포되는지에 대한 비유로 AI 팩토리라는 개념이 등장했습니다. 원자재를 가져와 완제품으로 만드는 전통적인 제조 공장과 마찬가지로 AI 공장은 대량의 고성능 학습 및 추론 요구 사항을 충족하는 대규모 저장소, 네트워킹 및 컴퓨팅 투자입니다.
이러한 공장 내에서는 서버, 그래픽 처리 장치(GPU), 데이터 처리 장치(DPU) 및 특수 하드웨어로 구성된 네트워크가 함께 작동하여 방대한 양의 데이터를 처리하고, 복잡한 알고리즘을 실행하여 AI 모델을 훈련시켜 높은 수준의 정확도와 효율성을 달성합니다. 이러한 인프라는 대규모 모델을 훈련하고 이를 실시간 추론에 배포하는 데 필요한 엄청난 연산 능력을 처리할 수 있도록 세심하게 설계되었습니다. 이 솔루션은 방대한 데이터 세트를 관리하고 검색하기 위한 고급 저장 솔루션을 통합하여 원활한 데이터 흐름을 보장합니다.
부하 분산 및 네트워크 최적화는 성능과 리소스 활용도를 극대화하여 병목 현상을 방지하고 확장성을 보장합니다. 하드웨어와 소프트웨어 구성 요소를 이렇게 조율하면 AI 팩토리는 최첨단 AI 모델을 생산하고 지속적으로 개선하여 새로운 데이터와 변화하는 요구 사항에 적응할 수 있습니다. 궁극적으로, AI 팩토리는 AI 개발의 산업화를 구현하여 차세대 지능형 애플리케이션을 지원하는 데 필요한 견고한 인프라를 제공합니다.
NVIDIA CEO 젠슨 황은 Salesforce Dreamforce 2024 에서 "역사상 컴퓨터 기술이 무어의 법칙 보다 빠르게 발전한 적은 없었습니다."라고 말하며 "우리는 무어의 법칙보다 훨씬 빠르게 움직이고 있으며 무어의 법칙을 쉽게 제곱할 수 있습니다."라고 덧붙였습니다.
AI에 대한 투자가 시장 차별화 요소와 운영 효율성을 촉진하는 중요한 요인으로 작용함에 따라, 대규모로 AI를 구축하는 것이 점점 더 필수적이 되고 있습니다. 이를 달성하려면 조직에서는 지속적으로 모델을 구축하고 개선하며, 지식 저장소와 실시간 데이터를 통합해야 합니다. AI 팩토리 개념은 AI가 일회성 노력이 아닌 지속적인 투자여야 함을 강조합니다. 이는 조직이 AI 이니셔티브를 구현할 수 있는 프레임워크를 제공하여 변화하는 비즈니스 및 시장 수요에 더 잘 적응할 수 있도록 해줍니다.
F5는 고객이 대규모로 성능이 뛰어나고 안전한 최신 애플리케이션을 구축하도록 지원하는 전문 지식을 활용하여 AI 참조 아키텍처 프레임워크를 개발했습니다. AI 앱은 최신 앱 중 가장 현대적이고 API를 통해 긴밀하게 연결되고 고도로 분산되어 있다는 점을 감안할 때, 이 프레임워크는 최첨단 AI 애플리케이션을 제공하는 데 필수적인 중요한 성능, 보안 및 운영상의 과제를 해결합니다.
참조 아키텍처 내에서 우리는 포괄적인 AI 팩토리를 구축하는 데 필요한 7가지 AI 빌딩 블록을 정의했습니다.
프런트엔드 애플리케이션과 추론 서비스 API 간의 상호 작용을 간략하게 설명합니다. AI 모델에 요청을 보내고 응답을 받는 데 중점을 둡니다. 이를 통해 더 복잡한 상호작용을 위한 토대가 마련됩니다.
대규모 언어 모델(LLM) 오케스트레이션 및 검색 증강 서비스를 추가하여 기본 추론을 향상시킵니다. 벡터 데이터베이스와 콘텐츠 저장소에서 추가 컨텍스트를 검색하는 방법과 이를 사용하여 컨텍스트가 풍부한 응답을 생성하는 방법에 대해 자세히 설명합니다.
검색 증강 생성(RAG)을 통한 추론에 필요한 데이터 수집 프로세스에 중점을 둡니다. 여기에는 데이터 정규화, 벡터 데이터베이스 임베딩, 채우기, RAG 통화를 위한 콘텐츠 준비가 포함됩니다.
모델과의 상호작용을 통해 기존 모델의 성능을 향상시키는 것을 목표로 합니다. 모델을 처음부터 다시 구축하지 않고도 모델을 조정하고, 추론 및 RAG를 통한 추론을 통해 데이터를 수집하여 워크플로를 미세 조정하는 데 중점을 둡니다.
이전 체크포인트(재학습)를 사용할 수도 있지만, 근본적으로 새로운 모델을 구축하는 것을 포함합니다. 여기에는 데이터 수집, 전처리, 모델 선택, 학습 방법 선택, 학습, 검증/테스트가 포함됩니다. 이 반복적 과정의 목적은 특정 작업에 맞는 강력한 모델을 만드는 것입니다.
LLM 오케스트레이션 계층을 데이터베이스와 웹사이트와 같은 외부 소스에 연결합니다. 외부 데이터를 추론 요청에 통합하지만 청킹 및 임베딩과 같은 문서 사전 처리 작업은 포함하지 않습니다.
AI 애플리케이션 구성 요소를 개발, 유지 관리, 구성, 테스트 및 배포하기 위한 워크플로를 포함합니다. 여기에는 프런트엔드 애플리케이션, LLM 오케스트레이션, 소스 제어 관리, CI/CD 파이프라인이 포함됩니다.
이러한 구성 요소가 모여 AI 팩토리의 기반을 형성합니다. 각각은 AI 결과물의 생성, 배포, 개선에 중요한 역할을 합니다. 또한, AI 팩토리 이니셔티브는 대부분의 빌딩 블록에 대해 자체 구현 전략을 소유하는 경향이 있으며(임대나 아웃소싱보다) 아래 나열된 배포 모델 중에서 자체 호스팅을 선택하게 됩니다.
이러한 각각의 구성 요소에 대해 고객은 적절한 배포 모델과 구현 전략(자체, 임대 또는 아웃소싱)을 선택하여 AI 이니셔티브의 비즈니스 목표를 달성하기 위한 최적의 참조 아키텍처를 정의해야 합니다. 상위 4개는 다음과 같습니다.
애플리케이션 제공 및 보안을 위해 매일 사용하는 F5의 기능은 잘 설계된 AI 팩토리에 필수적인 기능과 동일합니다. F5 BIG-IP 로컬 트래픽 관리자는 F5 rSeries 및 VELOS 전용 하드웨어와 결합되어 AI 교육을 위한 고성능 데이터 수집을 지원합니다. F5 분산 클라우드 네트워크 연결 보안된 멀티클라우드 네트워킹은 분산된 데이터 위치를 연결하여 독점 데이터에서 AI 모델로의 보안 통로를 만듭니다. 조각.
F5의 AI에 대한 집중은 여기서 끝나지 않습니다. F5가 모든 곳에서 AI 앱을 보호하고 제공하는 방법을 살펴보세요.
AI 공장에 대해 자세히 알고 싶으신가요? AI 팩토리 블로그 시리즈에서 다른 시리즈를 탐색해 보세요.