중국 딥시크·알리바바 등 인공지능(AI) 기업들이 미국 빅테크 선두 AI 모델과 거의 맞먹는 성능의 AI를 공개하면서 전 세계 개발자들로부터 빠르게영향력을넓히고 있다.
미국 기업들이 폐쇄형 전략을 유지·강화한 사이 중국 기업들이오픈소스 생태계를 기반으로 글로벌오픈소스 AI 시장에서 미국을 추월했다.
4일세계 최대 개발자 오픈소스 플랫폼 허깅페이스와MIT가 지난달 말 공동 발표한'오픈인텔리전스경제'(EOI) 보고서에 따르면 최근1년간 중국산 오픈소스 모델이 글로벌 다운로드 점유율 17.1%를 기록해 미국(15.8%)을 처음 앞질렀다.
허깅페이스 데이터 분석에 따르면 10월 기준 중국 모델의 총다운로드 수가 5억 4000만 건을 돌파했다. 딥시크와 알리바바의 큐원(Qwen) 모델이 다운로드 대부분을 차지했다.
© News1 김지영 디자이너
EOI 보고서 수치는 중국 내수 데이터는 대부분 제외된 것으로 거대 인구를 가진 중국 수치를 포함하면 실제 점유율은 더 높을 것이란 분석이다.
중국 개발자들은정부의 허깅페이스 접속 제한에 따라 VPN을 쓰지 않는 한 알리바바의 '모델스코프'(ModelScope)나 '지티'(Gitee) 등 대체 플랫폼을 주로 이용하는 것으로 전해졌다.
이에 점유율 역전은 미국·유럽·아시아·중동 등 전 세계 개발자 상당수가 중국 모델을 선택하고 있다는 의미로 풀이된다.
딥시크가 이달 1일 공개한 V3.2는 이런 흐름을 상징적으로 보여준다. 이 모델은 AIME 2025 수학 벤치마크에서 96.0%를 기록해 오픈AI GPT-5 하이(94.6%)를 넘어섰고 국제수학올림피아드(IMO)와 국제정보올림피아드(IOI)에서 금메달 수준의 성적을 거뒀다.
알리바바가 올해 7월 오픈소스로 공개한 '큐원3-코더'(Qwen3-coder)는 주요 성능 벤치마크에서 당시 오픈AI·구글 플래그십 모델 수준에 근접했다.
중국 AI스타트업 문샷AI가 최근 오픈소스로 공개한 추론 LLM 모델 '키미-K2-씽킹'(Kimi-K2-Thinking)도 특정 영역 벤치마크에서 'GPT-5'와 앤트로픽 '클로드 소넷 4.5' 등을앞질렀던 것으로 나타됐다.
비용 효율 면에선 중국 모델이 압도적이다.
딥시크는 V3 모델을 557만 6000달러(약 82억 원)에 훈련했다고 주장했다. 이는 경쟁사 대비 10분의 1 수준이다. 딥시크는 올해 9월 학술전문지 네이처에 동료심사를 거친 논문 부록에서 올해초 '딥시크 충격'을 일으킨 R1 훈련 비용이 29만 4000달러(4억 3100만 원)라고 확인했다.
최근 AI 성능 경쟁을 격화시킨 키미K2씽킹모델의 훈련 비용도 460만 달러(약 67억 원) 수준으로 추정됐다.
이를 두고 에릭 슈미트 전 구글 CEO는 "미국의 대형 모델은 폐쇄형이고 중국의 대형 모델은 오픈소스"라며 "자금이 부족한 대다수 국가들은 무료인 중국 모델을 표준으로 채택할 것"이라고 경고했다.
오픈AI·구글·앤트로픽 등미국 빅테크는 성능 경쟁 초기부터플래그십 모델을 폐쇄형으로 유지하며구독제와 기업 간 계약으로 수익을 창출하고 있다.
이들이 개발자 집단 지성으로 개발 효율을 빠르게 높일 수 있는 오픈소스로 전환하지 못하는 이유로는 자본(투자 유치력)과 보안 문제(개발비·기술 노출 등) 등이 걸려있기 때문으로 해석된다.
샘 올트먼 오픈AI CEO는 딥시크 충격 당시 오픈소스로 전환 가능성을 내비치기도 했지만, 추가 자금 조달에 부정적일 것이란 전망 등에 기술 격차 유지 기반 비즈니스 모델 구축 방향으로 나갔다.
업계 관계자는 "중국 모델이 미국 모델 대비 성능은 거의 비슷한데 비용은 약 10배에서 최대 수십 배 저렴하다"며 "기업 입장에선 중국 모델을 선택할유인이 커지고 있다. 아시아 국가뿐 아니라 심지어 신규 진입한 미국 AI 스타트업 경우 과반이 중국산 오픈소스 모델을 사용 중이라는 얘기가 나온다"고 말했다.
ideaed@news1.kr









