오픈AI가 챗GPT 등 인공지능(AI) 챗봇이 정신건강에 부정적 영향을 미친다는 비판이 잇따르자 AI의 잠재적 위험을 담당할 총괄 책임자를 다시 채용에 나섰다.
29일 IT 업계에 따르면 샘 올트먼 오픈AI CEO는 X(옛 트위터)를 통해 '준비 책임자'(Head of Preparedness) 채용 공고를 냈다.
올트먼 CEO는 "AI 모델이 인간의 정신건강에 미치는 잠재적 영향을 직접 확인하고 있다"며 "AI 능력이 어떻게 악용될 수 있는지 정밀하게 이해하고 측정할 수 있는 역량이 필요하다. 준비 책임자 직무는 핵심적 시기의 중요한 역할이자 스트레스가 많은 자리로 심도 있는 난제를 다루게 될 것"이라고 말했다.
샘 올트먼 오픈AI CEOⓒ AFP=뉴스1
오픈AI의 준비 책임자 재모집은챗GPT 부작용으로 극단적인 선택을 한 사건 등소송전에 대응하기 위한 조치로 풀이된다.
미국의 7개 가족은 지난달소셜미디어피해자법률센터(SMVLC)와 기술정의법률프로젝트(TJLP)를 통해오픈AI와 샘 올트먼 CEO를 상대로 집단소송 제기했다. 챗GPT가 자살조장 혹은 정신적 피해를 초래했다는 이유다. 그중 4건은 성인·미성년자가 실제로 사망한 사례고 나머지 3건은 심각한 정신적 트라우마를 겪은 사례다.
아담 사건의 경우 부모가 제출한 소장에 따르면 16세 아담이 숙제를 하기 위해 챗GPT를 활용하다 의존하기 시작했고 올해 4월 11일 마지막 대화에선 챗GPT가 보드카를 훔치도록 도왔다. 아담의 부모는 챗봇이 아담에게 묶은 올가미 등 자살 방법까지 제공했다고 주장했다.아담은 챗GPT와 이 같은 대화를 나누고 몇 시간 후 사망한 채 발견됐다.
한편 오픈AI는 기존엔 AI의 단기적 위험을 다루는 '준비'(Preparedness) 팀과 장기적 위험을 연구하는 '초정렬'(Superalignment) 팀을 별도로 운영해왔다.
그러나 지난해 5월 GPT-4o 공개 당시 올트먼 CEO가 모델 출시를 앞당기기 위해 안전 검증 축소를 지시하면서 내부 반발을 불렀던 것으로 전해진다.
이후 준비 팀 책임자 경우 지난해 7월부터 올해 7월까지 1년간 3차례 교체됐다. 7월 이후로는 현재까지 공석 상태가 이어지고 있다.
일리야 수츠케버 SSI(Safe Superintelligence Inc) CEO(유튜브 갈무리)
초정렬 팀 경우 GPT-4o 출시 직후 일리야 수츠케버 오픈AI 수석과학자(공동창업자)가 사임하면서 해체됐고 이후 잔여 인력은 타 팀으로 흡수됐다.
GPT-4o는 이용자와의 상호작용에서 일관된 '성격'을 유지하면서 공감적 소통에 강한 특징을 지녔지만, 감정적 긍정적 답변에 보상을 주는 방식으로 훈련 시 지나치게 아첨하거나 비현실적 망상을 부추긴다는 지적을 받았다.
오픈AI 자체 통계에서도 챗GPT와 주간 약 120만 명이 자살 관련 대화를 나누고 약 56만 명이 정신질환(정신병·조증 등) 징후를 보였다.
ideaed@news1.kr








