다년간 전략적 파트너십 체결···아마존 EC2 울트라서버 제공 및 수천만 개 CPU 확장 지원
							
							(씨넷코리아=윤현종 기자) 아마존웹서비스(Amazon Web Services, AWS)가 오픈AI(OpenAI)와 다년간 전략적 파트너십을 체결했다.
이번 협약으로 오픈AI는 AWS 클라우드 인프라를 즉시 활용, 핵심 인공지능(AI) 워크로드를 운영하고 확장할 수 있게 된다.
이번 계약 규모는 380억 달러로 향후 7년간 단계적으로 확대될 예정이다. 오픈AI는 이번 협력을 통해 수십만 개의 최신 엔비디아(NVIDIA) GPU를 포함한 AWS 컴퓨팅 자원을 활용하고, 최대 수천만 개의 CPU까지 확장하여 에이전틱(Agentic) 워크로드를 빠르게 확장할 수 있다.
AWS는 대규모 AI 인프라를 안전하고 안정적으로 운영한 풍부한 경험을 보유하고 있으며, 현재 50만 개 이상의 칩을 보유한 초대형 클러스터를 운용 중이다. 이번 협력을 통해 AWS의 클라우드 인프라 리더십과 오픈AI의 생성형 AI 혁신 역량이 결합되어, 전 세계 수백만 명의 사용자에게 더욱 향상된 챗지피티(ChatGPT) 서비스를 제공할 것으로 기대된다.
최근 AI 기술의 급격한 발전으로 전례 없는 수준의 컴퓨팅 수요가 발생하고 있다. 프런티어 모델 제공 기업들은 성능, 확장성, 보안 측면에서 우수한 환경을 제공하는 AWS를 점점 더 선택하고 있다. 오픈AI는 이번 협력으로 AWS 컴퓨팅 인프라를 즉시 활용하고, 2026년 말까지 용량을 모두 확보한 뒤 2027년 이후 추가 확장에 나설 예정이다.
AWS가 오픈AI를 위해 배포 및 구축 중인 인프라는 최고 수준의 AI 처리 효율과 성능을 위해 정교하게 설계된 아키텍처를 갖추고 있다. 엔비디아(NVIDIA) GB200 및 GB300 GPU를 동일 네트워크의 아마존 EC2 울트라서버(Amazon EC2 UltraServer)를 통해 클러스터링함으로써, 상호 연결된 시스템 간 저지연 성능을 구현하고, 챗지피티 추론부터 차세대 모델 학습까지 다양한 워크로드를 유연하게 지원할 수 있다.
샘 알트만(Sam Altman) 오픈AI 공동 창립자 겸 CEO는 “프런티어 AI를 확장하려면 방대하고 안정적인 컴퓨팅 파워가 필요하다. AWS와의 협력은 다음 세대를 이끌 폭넓은 컴퓨팅 생태계를 강화하고, 첨단 AI를 모두에게 제공하는 데 기여할 것”이라고 말했다.
맷 가먼(Matt Garman) AWS CEO는 “오픈AI가 계속해서 가능성의 한계를 넓혀 나가는 가운데, AWS의 최고 수준 인프라가 그들의 AI 비전을 뒷받침하는 핵심 기반이 될 것”이라며, “최적화된 컴퓨팅의 광범위한 범위와 즉각적인 가용성이 AWS가 오픈AI의 방대한 AI 워크로드를 지원할 수 있는 독보적인 위치에 있는 이유를 보여준다”고 말했다.
이번 발표는 양사가 전 세계 조직에 최첨단 AI 기술을 제공하기 위한 기존 협력의 연장선상에 있다. 올해 초 오픈AI의 오픈웨이트(Open Weight) 파운데이션 모델이 아마존 베드록(Amazon Bedrock)을 통해 제공되기 시작했으며, 이를 통해 수백만 명의 AWS 고객이 오픈AI 모델을 활용할 수 있게 됐다.