그록발 딥페이크 우려 커지자…국제 개인정보 감독기구들, 공동대응

IT/과학

이데일리,

2026년 2월 23일, 오후 03:32

[이데일리 김현아 기자] 최근 그록(Grok) 등 생성형 인공지능(AI) 서비스를 악용한 딥페이크와 미성년자 성적 이미지의 생성·확산이 전 세계적 문제로 부상하면서, 국제 개인정보 감독기구들이 공동 대응에 나섰다.

개인정보보호위원회(위원장 송경희, 이하 개인정보위)는 2월 23일(한국 시간), 국제 개인정보 감독기구 협의체(GPA) 차원의 「인공지능 생성 콘텐츠와 개인정보 보호에 관한 공동선언문」 채택에 참여했다고 밝혔다. 이번 선언은 실제 인물이 당사자의 동의 없이 묘사·확산되는 프라이버시 위협에 대해 국제사회가 신속하고 일관된 메시지를 냈다는 점에서 의미가 크다.

공동선언문에는 AI 시스템 개발·활용 기관이 준수해야 할 4가지 핵심 원칙이 담겼다. 개인정보 오남용 및 동의 없는 성적 콘텐츠 생성을 막기 위한 안전조치 이행, AI 시스템의 기능·이용 가능 범위 등에 대한 투명성 확보, 신속한 신고·삭제를 위한 실효적 구제 절차 마련, 연령 적합 정보 제공 등 아동·청소년 보호 강화가 골자다.

각국 감독기구들은 이번 선언을 통해 ‘신뢰할 수 있는 AI 혁신’이라는 공동 가치를 실현하기 위해 정책·집행·교육 분야의 대응 경험을 적극 공유하고, 국제 공조를 강화하기로 했다.

이번 선언문은 한국 개인정보위가 참여 중인 GPA 산하 국제집행협력 작업반 주도로 마련됐다. 사안의 시급성에 공감한 50개국 이상 회원국 감독기구가 서명에 참여했으며, 개인정보위에 따르면 한국·프랑스·영국·싱가포르·캐나다·EU 등 52개국 61개 개인정보 감독기구가 동참했다.

송경희 개인정보위 위원장은 “딥페이크 등 인공지능 콘텐츠 생성 기술의 오남용으로 인한 개인정보 침해 위험에 국제사회와 공동으로 대응하겠다”며 “앞으로도 국내외의 신뢰 기반 인공지능 활용 환경 조성을 주도해 나가겠다”고 밝혔다.

◇인공지능 생성 콘텐츠와 개인정보 보호에 관한 공동선언문

AI 생성 이미지와 프라이버시 보호에 관한 공동성명


공동 서명 기관들은 본인의 인지·동의 없이 식별 가능한 개인을 사실적으로 묘사하는 AI 이미지·영상 생성 기술에 대해 심각한 우려를 표명했다.

특히 누구나 쉽게 접근 가능한 소셜미디어 플랫폼에 AI 이미지·영상 생성 기능이 결합되면서, 동의 없는 친밀 이미지(사적 이미지), 명예훼손성 묘사 등 유해 콘텐츠 생성 위험이 커졌다고 지적했다.

또 아동 및 취약계층에 대한 사이버불링, 착취 등 피해 가능성을 특히 우려했다.

공동 서명 기관들은 AI 콘텐츠 생성 시스템을 개발·운영하는 모든 조직이 데이터 보호·프라이버시 규정을 포함한 관련 법률을 준수해야 한다고 강조했다.

아울러 동의 없는 친밀 이미지 생성은 많은 국가·지역에서 형사범죄가 될 수 있음을 상기시켰다.

조직들이 따라야 할 기본 원칙으로는 안전장치, 투명성, 삭제 요청 대응 체계, 아동 보호 강화 등이 제시됐다.

공동 서명자들은, 당사자의 인지와 동의 없이 식별 가능한 개인을 묘사하는 사실적인 이미지와 영상을 생성하는 인공지능(AI) 시스템에 대한 심각한 우려에 대응하기 위해 이 공동성명을 발표한다.

AI는 개인과 사회에 의미 있는 이점을 가져올 수 있지만, 최근의 발전, 특히 누구나 쉽게 접근할 수 있는 소셜미디어 플랫폼에 통합된 AI 이미지 및 영상 생성 기능은 실제 개인이 등장하는 비동의 친밀 이미지, 명예훼손성 묘사, 기타 유해 콘텐츠의 생성이 가능하도록 만들었다. 우리는 특히 사이버불링 및/또는 착취와 같은 형태로 아동 및 기타 취약계층에 발생할 수 있는 잠재적 피해를 우려한다.

◇조직에 대한 기대사항

공동 서명자들은 AI 콘텐츠 생성 시스템을 개발하고 사용하는 모든 조직에 대해, 이러한 시스템은 데이터 보호 및 프라이버시 규정을 포함한 적용 가능한 법적 체계에 따라 개발되고 사용되어야 함을 상기시킨다.

또한 우리는 비동의 친밀 이미지의 생성이 많은 관할권에서 형사범죄에 해당할 수 있음을 강조한다.

구체적인 법적 요건은 관할권마다 다르지만, AI 콘텐츠 생성 시스템을 개발하고 사용하는 모든 조직은 다음과 같은 기본 원칙에 따라야 한다.

1. 개인정보의 오용과 비동의 친밀 이미지 및 기타 유해물 생성(특히 아동이 묘사되는 경우)을 방지하기 위한 강력한 보호장치를 마련할 것.

2. AI 시스템의 기능, 보호장치, 허용되는 사용 범위, 오용 시 결과에 대해 실질적이고 충분한 투명성을 확보할 것.

3. 개인정보가 포함된 유해 콘텐츠에 대해 개인이 삭제를 요청할 수 있는 효과적이고 접근 가능한 절차를 제공하고, 그러한 요청에 신속히 대응할 것.

4. 강화된 보호장치를 도입하고 아동·부모·보호자·교육자에게 명확하고 연령에 맞는 정보를 제공함으로써 아동 대상의 구체적 위험에 대응할 것.

추천 뉴스