우리는 오랫동안 사람에게 이것을 요구해왔다. 신분증과 자격증, 서명, 인감, 과거의 호패. 누군가가 주장하는 이름과 실제 그 사람이 같은지를 끊임없이 들여다봤다. 문명이 복잡해질수록 이 확인의 방식은 정교해졌다. 그리고 그 정교함 위에 책임의 체계도 함께 쌓였다. 누가 했는지를 증명할 수 있어야, 무엇에 책임지는지를 물을 수 있기 때문이다.
그런데 AI 앞에서는 유독 이 원칙이 흐릿해진다. 기계니까, 도구니까. 사람이 시키는 대로만 움직일 것이라는 막연한 믿음이 확인의 필요성을 지워버린다.
바로 그 믿음이 더 큰 위협이 되는 시대가 오고 있다. 목표를 부여받은 뒤 스스로 판단하고 실행하는 ‘에이전틱 AI(Agentic AI)’가 본격적으로 조직 안으로 들어오고 있어서다. 이들은 메일을 보내고, 시스템에 접속하고, 계정을 생성하며, 결제를 승인한다. 사람이 자리를 비운 사이에도 멈추지 않고 작동하는 새로운 ‘행위자’인 셈이다.
김태진 라온시큐어 최고기술책임자(CTO)
문제는 이런 논의가 AI 도입 열기에 비해 지나치게 작다는 점이다. 그러나 이 안일함의 대가는 결코 가볍지 않다. 에이전틱 AI가 탈취될 경우 단순한 계정 침해를 넘어, 정상 업무로 위장한 채 내부 시스템을 돌아다니며 권한을 조용히 확장하는 방식으로 이어질 수 있다. 인증이 없으면 추적할 수 없고, 추적할 수 없으면 책임도 물을 수 없다.
필요한 것은 새로운 원칙이 아니다. 사람에게 적용해온 검증과 책임의 체계를 에이전틱 AI에도 그대로 확장하는 일이다. 신원을 확인하고, 권한을 제한하며, 행위를 추적할 수 있어야 한다.
이를 가능하게 하는 기술적 기반도 이미 준비돼 있다. 위·변조가 불가능한 신원 증명과 행위 이력을 연결하는 블록체인 기반 분산신원인증(DID)은 AI 시대의 책임 구조를 설계할 수 있는 가장 현실적인 해답이다.
시간이 많지 않다. 에이전틱AI는 이미 화면 밖으로 나오고 있다. 로봇이 공장을 움직이고, 자율주행차가 도로를 달리고, 드론이 하늘을 난다. 디지털 권한의 실패는 더 이상 화면 속 오류로 끝나지 않는다. 검증되지 않은 AI의 권한 하나가 공장을 멈추고, 물류를 흔들며, 사람의 안전까지 위협할 수 있다.
그때 가서 ‘AI가 한 일’이라는 말은 면죄부가 되지 않는다. 누가 그 AI에게 권한을 줬는지, 어디까지 허용했는지, 무슨 명령을 내렸는지. 책임은 결국 설계한 사람에게 돌아온다. 책임의 재정의란 생각보다 거창하지 않다. AI의 행위를 인간의 결정으로 추적할 수 있는 구조를 갖추자는 얘기다.
돌이켜보면 인증과 책임은 원래 하나였다. 확인할 수 있어야 물을 수 있고, 물을 수 있어야 막을 수 있다.
재차 묻는다. 우리는 AI의 신분증을 확인했는가.









