르네 하스 Arm CEO.(Arm제공)
르네 하스 Arm 최고경영자(CEO)는 24일(현지시간) 미국 샌프란시스코 포트 메이슨 센터에서 열린 'Arm 에브리웨어' 키노트 연설에서 이같이 밝히며 인공지능(AI) 칩 개발 소식을 알렸다.
Arm이 이날 공개한 AI 데이터센터용 중앙처리장치(CPU)인 'Arm AGI CPU'는 증가하는 에이전틱 AI 워크로드에 대응하기 위해 개발됐다. 성능은 높이고 전력 사용은 절감시켰다.
르네 하스 CEO는 "에이전트는 연중무휴 24시간 동안 리퀘스트를 요청하기 때문에 데이터센터는 과부하 상태"라며 "에이전틱 AI 가동 과정에서 발생하는 과부하, 병목을 막기 위해선 CPU가 필요하다"고 설명했다.
이어 "Arm은 파트너사들 요청에 따라, 또 이 같은 문제를 해결하기 위해 CPU를 칩 형태로 만들어 제공하기로 했다"며 "Arm은 파트너사에 고성능, 고효율 컴퓨팅 기반 위에서 더 많은 선택지를 제공하며 전 세계적으로 에이전틱 AI 인프라를 구축할 수 있게 됐다"고 강조했다.
AGI CPU, 'x86' 방식 대비 랙당 2배 이상 성능…전력 효율 극대화
Arm은 AGI CPU가 인텔·AMD 등의 'x86' 방식 플랫폼과 비교 시 랙당 2배 이상의 성능을 낸다고 전했다.
이 칩은 대만의 반도체수탁생산(파운드리) 업체 TSMC의 3㎚ 공정으로 제작됐다. 300W 전력 내에서 CPU당 최대 136개 Arm Neoverse V3 코어를 탑재해 코어당 6GB/s 메모리 대역폭과 100ns 미만의 지연 시간을 지원한다.
이는 워크로드 밀도 향상, 가속기 활용도 개선, 기존 전력 범위 내 더 효율적인 컴퓨팅 성능을 구현할 수 있다고 설명했다.
Arm AGI CPU는 AI 데이터센터 용량 1GW 기준 최대 100억 달러 규모의 설비 투자(CAPEX) 절감을 할 수 있다.
모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 AGI CPU의 강점으로 △성능 △확장성 △효율성 등 세 가지를 꼽았다.
그는 "컴퓨팅이 막대하게 요구되는 상황에서 성능, 규모, 효율성 있는 패키지를 제공해야 한다는 것이 저희 철학이었다"며 "이 세 가지 원칙에 기반해 어느 하나도 타협하지 않았다"고 언급했다.
양산형 실리콘 제품으로 사업 확장…"AI 에이전트 등장, 더 많은 CPU 요구"
Arm은 종전 반도체 설계에 따른 지식재산권(IP) 수수료와 컴퓨팅 서브시스템(CSS)을 주요 사업 모델로 했다면 이젠 양산형 실리콘 제품으로 확장했다.
르네 하스 CEO는 이 같은 배경으로 AI 에이전트의 등장을 꼽았다. AI가 모델 학습에서 추론, 계획, 실행을 지속적으로 수행하는 에이전트 배포 단계로 전환됨에 따라 AI 시스템 전반에서 생성되는 토큰의 양이 급격히 증가하고 있다.
이 과정에서 추론 처리, 작업 간 조율, 데이터 이동을 처리하기 위해 훨씬 더 많은 CPU가 필요하게 됐다는 설명이다. 즉 동일한 전력 범위 내에서 더 많은 컴퓨팅 성능을 요구한다는 것이다.
르네 하스 CEO는 "기업이 에이전트 기반 애플리케이션(앱)으로 확장하면서 데이터센터는 기존 기가와트(GW)당 CPU 용량의 4배 이상을 필요로 할 것으로 예상된다"며 "AI 규모 인프라에 최적화된 새로운 CPU에 대한 수요를 촉발하고 있다"고 말했다.
Arm의 선도 파트너이자 공동 개발사인 메타는 Arm AGI CPU를 활용해 자사 앱의 인프라를 최적화하고 있다. 아울러 세레브라스, 클라우드플레어, F5, 오픈AI, 포지트론(Positron), 리벨리온, SAP, SK텔레콤 등 주요 파트너와의 협력을 통한 추가적인 사업적 모멘텀도 확정했다.
한편 Arm AGI CPU 초기 시스템은 이미 제공되고 있으며 올 하반기 출시 예정이다.
jinny1@news1.kr









