특히 AI 큰 손 엔비디아가 차세대 AI 가속기 ‘베라 루빈’ AI 연산 플랫폼에 ICMS(Integrated Compute & Memory System)를 도입하면서, 국내 반도체 메모리 기업에는 또 다른 기회가 열릴 전망이다. 젠슨황 엔비디아 최고경영자(CEO)는 올해 초 미국 라스베이거스에서 열린 CES 2026에서 ICMS 개념을 공개했다.
젠슨 황 엔비디아 최고경영자(CEO)가 5일(현지시간) 미국 네바다주 라스베이거스에서 열리는 소비자가전전시회(CES)를 앞두고 개최된 엔비디아 라이브(Nvidia Live) 행사에서 최신 AI 가속기 루빈을 공개하고 있다. (사진=AFP).
엔비디아가 이 같은 시스템을 갖추는 이유는 AI 추론을 더욱 고도화하기 위한 고객들의 수요가 커서다. 기존 메모리 구조만으로는 고객이 요구하는 수준에 맞는 AI 추론 성능을 구현하는 데 한계가 있다. 특히 KV 캐시(Key-Value Cache)가 폭증하면서 AI가 사용자와 대화 내용을 기억하고 대화에서 질문의 맥락을 파악하기 위해 스토리지 역할이 더욱 중요해지고 있다. 원활한 추론 서비스를 제공하기 위해 KV Cache 오프로딩(Offloading) 기술이 필수적이라는 평가다.
삼성전자 9세대 V낸드. (사진=삼성전자)
삼성전자가 올해 상반기 9세대 낸드를 대규모 양산하게 되면 기업용 SSD(eSSD) 공급은 크게 늘어날 가능성이 있다. 낸드 경쟁력을 갖추고 있는 삼성전자는 실적 측면에서도 낸드 사업 기여도가 높아질 것으로 보인다. 삼성전자의 낸드 영업이익률이 올해 48.5%에 달하리란 전망이다. 노근창 현대차증권 리서치센터장은 “추론의 시대에는 콘텍스트 메모리(Context Memory) 수요가 커질 수밖에 없는데, 세계 최고 수준의 컨트롤러 IC 기술을 보유한 삼성전자 SSD 제품에 대한 선호도는 더욱 커질 것”이라고 내다봤다.
SK하이닉스 321단 QLC 낸드 신제품.(사진=SK하이닉스)









