“성인-아동 채팅 원천 차단”…로블록스 ‘AI로 연령 확인’ 도입

해외

이데일리,

2025년 11월 19일, 오후 03:01

[이데일리 방성훈 기자] 글로벌 게임 플랫폼 로블록스가 연령 확인 정책을 도입한다. 성범죄자들이 아동과 쉽게 접촉할 수 있는 환경을 제공했다는 이유로 미국 등지에서 미성년 이용자 보호 미흡 소송에 휘말리면서다.

(사진=AFP)


18일(현지시간) CNN비즈니스에 따르면 로블록스는 이날 기존보다 한층 강화된 신원·연령 인증 정책을 발표하고, 앞으로는 로블록스에서 채팅을 이용하려면 연령 추정이 가능한 인공지능(AI)을 통해 안면 인식 인증을 반드시 거쳐야 한다고 밝혔다.

AI 안면 인식 오류가 발생할 경우 13세 이상은 별도 신분증 제출로, 13세 미만은 부모 동의 및 계정 연동으로 인증을 대체할 수 있다. 안면 촬영 사진 및 영상은 연력 확인 후 즉시 폐기된다.

미성년자의 경우 나이대가 맞지 않는 성인과는 대화가 원천 차단된다. 9세 미만, 9~12세, 13~15세, 16~17세, 18~20세 또는 21세 이상 등 별도 그룹으로 묶여 유사한 연령대에서만 채팅이 가능해진다. 로블록스 이용자는 전 세계적으로 1억 5000만명에 달하며, 이 가운데 3분의 1이 13세 미만 미성년자다.

로블록스는 이날부터 자발적으로 연령 확인을 시행하고, 올해 12월부터 호주, 뉴질랜드, 네덜란드에서 의무화한 후 내년 초 전 세계로 확대 시행될 것이라고 예고했다. 또 안면 인식 AI에 대해 “5~25세 사이 연령은 평균 1~2년 오차 이내로 정확하다”고 자신했다.

로블록스가 큰 인기를 끄는 주요 요인 중 하나는 이용자들이 실시간으로 소통하며 게임을 직접 만들 수 있다는 점이다. 그러나 최근 몇 년 사이 아동 성범죄, 납치, 그루밍(온라인 유인) 사건이 잇따르면서, 피해자 가족들과 현지 검찰들이 로블록스를 상대로 집단 소송을 제기했다.

미국 켄터키·루이지애나·플로리다 등 주 법무장관들은 “로블록스가 아동 학대를 방치했다”며 공식 소송 및 형사 조사에 나섰다. 일부 사용자 가족들은 자살 피해 소송을 제기했다. 피해 가족 중 한 명인 베카 댈러스는 15세 아들이 로블록스를 하다가 디스코드를 통해 유혹을 받은 뒤 자살했다고 주장했다.

비영리단체인 ‘함께하는 부모 행동’(ParentsTogether Action)은 개인정보보호 및 청소년 안전 기능 강화를 요구하며 로블록스 게임 내에서 가상 시위를 벌이기도 했다.

이에 로블록스는 추가적인 신원·연령 인증 정책 강화에 나선 것이다. 로블록스는 이번 정책을 발표하기 전에도 자녀 보호 기능, 사진 및 개인 정보 공유 차단, 직원·AI의 텍스트·음성 검열 등 이미 미성년자 보호를 위한 몇 가지 정책과 기능을 시행하고 있었다. 아울러 폭력이나 저속한 유머가 포함된 게임 등 특정 ‘18세 이상’ 이용 경험을 위해서는 연령 인증을 요구했다.

로블록스 경영진은 “우리의 최우선 순위는 안전과 예절이다. 모든 사람에게 안전하고 긍정적이며 연령에 적합한 경험으로 만들고 싶다”며 “이번 업데이트로 플랫폼에서 연령을 인증하는 사용자 수가 크게 증가할 것으로 예상된다”고 내다봤다.

추천 뉴스