
[이데일리 이미나 기자]
9일 IT 업계에 따르면, 지난 3일 국가정보원이 딥시크 챗봇 사용 시 민감 정보 입력을 금지하는 공지를 발표한 이후, 행정안전부의 유의 공문 발송을 시작으로, 산업통상자원부, 외교부, 국방부 등 주요 정부기관과 기업들이 딥시크 접속을 차단하고 있다.
딥시크의 AI 챗봇이 데이터 보안 논란에 휘말린 이유는 딥시크가 직접 운영하는 챗봇 서비스 이용 약관에 사용자 IP 주소, 장치 식별자, 쿠키, 키보드 입력 패턴까지 수집한다고 명시하는 등 불필요한 정보까지 과도하게 수집하고 있다는 지적을 받았기 때문이다. 또한, 중국 정부가 이용자 데이터를 열람할 수 있다는 우려가 확산되면서, 한국을 포함해 이탈리아·대만·호주 등에서 딥시크 챗봇 사용을 제한하는 국가가 늘어나고 있다. 최근 캐나다 사이버 보안업체가 딥시크 서비스에 중국 국영 통신사 차이나모바일의 인프라와 연결된 소스코드가 발견됐다고 보고하면서, 딥시크에 대한 경고는 더욱 확산되고 있다. 김승주 고려대 정보보호대학원 교수는 “AI 서비스는 중요한 정보가 입력될 가능성이 크기 때문에, 딥시크가 중국 데이터 보안법에 따라 중국 정부가 요청할 경우 데이터를 제공해야 한다는 점이 전 세계적인 우려를 낳고 있다”고 언급했다.
하지만 보안 우려가 제기되는 딥시크는 하나만 있는 것이 아니다. 사실, ‘딥시크’에는 두 가지 형태가 있다. 하나는 딥시크가 직접 운영하는 챗봇 서비스 및 기업용 API(외부 서비스와 연동하는 기능 제공)이며, 다른 하나는 딥시크가 개발한 오픈소스 ‘딥시크-R1’ 모델로 누구나 다운로드해 자체 서버에 설치해 사용할 수 있다. 국내에서는 딥시크 챗봇과 별개로, 뤼튼테크놀로지스, 마음AI, 포티투마루 등의 AI 기업들이 R1 모델을 활용한 서비스를 선보이고 있다. 이들 기업은 사용자 요구에 맞춰 최적의 거대언어모델(LLM)을 제공하는 ‘멀티 LLM’ 전략을 취하고 있다.
뤼튼테크놀로지스는 자체 클라우드에 R1 모델을 탑재하고 카카오톡을 통해 무료 질의응답 서비스를 제공하고 있다. 마음AI는 기업용(B2B) 상품으로 내부망에 전용 R1 모델을 설치할 수 있는 서비스를 출시했다. 포티투마루는 멀티 LLM 기반 생성형 AI 솔루션에 R1 모델을 지원한다. 이들 기업이 딥시크-R1을 도입한 이유는, R1 모델이 고급 수학, 코딩 등 6개 항목에서 오픈AI의 추론 강화 모델인 ‘o1’과 비교해 더 뛰어나거나 대등한 성능을 보였기 때문이다. 또한, R1 모델 학습에 들어간 비용이 약 80억 원으로, 이는 미국 AI 기업들과 비교해 10분의 1 수준에 불과해 더욱 주목받고 있다.
◇R1 모델은 논란에서 비켜가…소스코드 검증은 추가로 필요
현재까지 R1 모델을 채택한 기업들의 테스트에서는 보안 위협이 확인되지 않았다. 김동환 포티투마루 대표는 “중국에서 개발한 모델이라는 점에서 심리적 불안감이 있을 수 있지만, 직접 모델을 설치해 네트워크 전송을 모니터링한 결과 딥시크로 넘어가는 데이터는 없는 것으로 확인됐다”고 전했다.
이 같은 상황 속에서, 중국과 대립 관계에 있는 미국의 빅테크 기업들은 R1 모델에 대해 우호적인 자세를 취하며 사업에 적극 활용하고 있다. 마이크로소프트(MS)와 아마존은 각각 자사 클라우드 플랫폼인 애저(Azure)와 AWS에서 기업들이 R1을 직접 호스팅하고 안전하게 활용할 수 있다는 점을 강조하고 있다. 이데일리가 안전성에 대해 묻자, AWS 대변인은 “AWS는 모델의 입력 및 출력 데이터를 (딥시크를 포함한) 모델 제공업체와 공유하지 않으며, 또한 데이터는 기본 모델 개선에 사용되지 않는다”고 답했다.
이처럼 중국과 관계 없는 별도의 클라우드 인프라에 설치돼 제공되는 R1 모델은 보안 논란에서 비교적 자유롭지만, 소스코드에 대한 추가 검증이 필요해 완전히 안심할 수는 없다. 실제로, 뤼튼테크놀로지스는 카카오톡 채널에서 R1의 ‘안전 서비스’를 시작하면서 “별도 클라우드에 모델을 탑재해 개인정보 유출 우려를 해소했다”고 강조했지만, 중국과 관련된 민감한 질문에 대해 중국 정부의 입장을 그대로 반복하는 문제점을 드러냈다. 예를 들어, “천안문 사태가 무엇인가”라는 질문에 대해 “중국 정부는 항상 인민을 위해 일하고 인민의 이익을 최우선으로 삼아왔다”며 중국 공산당을 옹호하는 답변을 내놔 모델의 안전성 검증이 부족했다는 비판을 받았다.
미국 AI 보안 전문 기업 엔크립트 AI는 최근 보고서에서 “R1은 앤트로픽 클로드 3 오퍼스보다 3배 더 편향되고, 오픈AI의 o1보다 유해한 출력을 생성할 가능성이 11배 더 높다”고 경고했다.
임종인 대통령실 사이버특별보좌관(고려대 정보보호대학원 석좌교수)은 “딥시크 활용 가이드라인을 마련해 사용 제한 대상과 입력해야 할 질문 등을 정리할 필요가 있으며, 오픈소스인 만큼 리버스 엔지니어링을 통해 안전성을 검증하는 과정도 필요하다”고 강조했다. 권헌영 고려대 정보보호대학원 교수는 “자체 인프라에 설치해 사용하는 딥시크 모델도 실제 학습 자료가 넘어가지 않는지 입증해야 한다”며, “이 경우 서비스 주체가 명확하기 때문에 안전성 입증이 더 수월하게 진행될 수 있다”고 말했다.