(사진=로이터 연합뉴스)
이에대해 딥시크는 해당 모델에 대한 설명을 내놓지 않고 있다. 딥시크는 2024년 12월 효율적인 대형언어모델 구조로 평가되는 MoE(Mixture of experts·전문가 혼합) 아키텍처를 적용한 플래그십 모델 V3를 출시했다. 지난해 1월에는 강화학습 기반 추론 모델 R1을 선보여 수학 문제 해결과 코드 작성 등 복잡한 추론 과제에서 뛰어난 성능을 보여 세계를 깜짝 놀라게 했다.
최근 딥시크는 기술 논문도 연달아 공개하고 있다. 량원펑을 포함한 딥시크 연구진은 지난 12일 ‘확장 가능한 조회 기반 조건부 메모리: 대형언어모델(LLM)을 위한 희소성의 새로운 축’ 논문을 발표했다. 지난 1일에는 AI 학습 과정의 불안정성과 제한된 확장성 문제를 다룬 ‘다양체-제약(Manifold-Constrained) 초연결’ 프레임워크 관련 논문도 공개했다.
미국 기술 전문매체 디인포메이션은 딥시크가 향후 수주 내 차세대 모델을 공개할 예정이라며 특히 강력한 코딩 능력을 갖출 것이란 관측을 내놨다.
딥시크의 차세대 모델 개발은 단순한 신제품 출시를 넘어 미중 AI 기술 경쟁의 심화를 보여주는 것이란 의견도 나온다. 미국의 반도체 수출 통제 등 기술 봉쇄가 이어지는 상황에서도 중국 AI 기업들이 독자적인 기술 경로를 통해 글로벌 선두 업체들과의 격차를 좁히려는 시도라는 해석이다.
싱가포르 연합조보는 “중국 AI 기업들은 엔비디아 칩을 자유롭게 확보하기 어려운 상황에서도 오픈 AI 등 글로벌 대형 기업들과 경쟁을 이어가고 있음을 보여주고 있다”고 설명했다.









