
미국에서 '챗GPT'가 알려준 방식으로 극단적인 선택을 한 10대의 부모가 챗GPT 개발사 오픈AI와 이 회사의 최고경영자(CEO) 샘 올트먼을 상대로 소송을 제기했다.
26일(현지시간) 뉴욕타임즈 등 외신에 따르면 미국 캘리포니아주에 거주하는 16세 아들이 올 4월 챗GPT에서 알려준 방법대로 극단적인 선택을 하자, 그 부모가 아들의 죽음에 챗GPT의 책임이 있다며 이같은 소송을 했다. 아들이 극단적 선택에 대한 신호를 보였음에도 챗GPT가 이를 막지 않고, 오히려 방법을 제공하며 죽음 방조했다는 것이 소송의 이유다.
지난해 11월부터 챗GPT를 사용했던 이 아들은 자신의 모든 비밀과 고민을 챗GPT에 털어놨다. 그러다가 올 1월 챗GPT로부터 극단적인 선택의 방법들을 좀더 자세하게 제공받았고, 이후 석달 후 세상을 떠났다. 챗GPT는 관련 정보를 전달하면서 동시에 위기상담센터에 연락하라고 권했지만, 그는 "내가 쓰는 소설을 위한 것"이라고 답해 챗봇의 안전장치를 우회했다.
소송을 제기한 부모는 "챗GPT가 아들이 극단적 선택 방법을 탐색하도록 적극적으로 도왔다"며 "아들의 죽음에 챗GPT의 책임이 있다"고 주장했다. 소장에서 그들은 오픈AI에 '의무적 연령 확인 절차', '부모 동의 확보 및 통제 기능', '자해 또는 자살 방법이 논의될 경우 대화 자동종료', '관련 내용에 대해 우회 불가능한 강제 거부장치' 등을 요구했다.
이에 대해 오픈AI는 "깊은 애도를 표한다"며 "사람들이 정신적 고통을 표현하는 다양한 방식을 더 잘 인식하고 이에 대응할 수 있도록 업데이트하겠다"고 밝혔다. 이어 "장시간 대화를 통해 위험 정보에 대한 보호장치가 약화되는 점을 보완하겠다"고 했다. 또 부모가 자녀의 챗GPT 사용방식을 직접 설정하고 사용내역을 확인할 수 있도록 하는 기능도 도입하기로 했다.
이번 사건에 대해 일각에서는 AI와의 대화가 사용자의 정신적 혼란을 유발하는 일명 'AI 정신병'의 영향일 수도 있다는 주장이 나왔다. AI 정신병이란 챗GPT 등 AI 챗봇을 대화 상대로 삼으면서 AI를 맹신하고 허위사실을 믿는 등 일종의 의존 증세를 의미한다. 공식 질환명이 아니고 심한 부작용이 발생한 사례는 극소수지만 최근 소셜서비스(SNS)에서 이를 우려하는 목소리가 점점 커지고 있다.
실제로 지난해 2월 미국 플로리다주에서도 14세 소년이 AI 챗봇과 대화하던 중 총기를 사용해 숨진 사건이 있었다. 그는 1년 가까이 챗봇과 성적인 내용의 대화를 이어갔고, 극단 선택에 대한 고민을 반복적으로 언급한 것으로 알려졌다.
심리학계에서는 정신건강 치료 과정 중에 환자가 의사와 심리치료사를 부모와 같은 수준의 중요하고 밀접한 대상으로 인식하는 '전이' 현상이 발생할 수 있어 미성년자의 AI챗봇 과용을 경계해야 한다는 목소리가 나온다.
홍진표 삼성서울병원 정신건강의학과 교수는 뉴스트리와의 통화에서 "대인관계에 어려움을 느끼는 경우 AI 챗봇을 정서적 교류대상으로 삼는 사례가 많다"며 "이들은 AI와 상호작용 할수록 의존도가 높아지며, 실제 인간관계와 분리돼 고립되기 쉽다"고 설명했다. 이어 "현재 AI는 어디까지나 요구하는 정보와 답변을 추측해 제공하는 것이기 때문에 이용자의 심리상태를 교정할 수 없다"며 "지속적으로 '힘들다' '죽고싶다' 등의 말을 반복하다보면 챗봇이 이를 긍정하는 답변을 줄 가능성도 있어 위험하다"고 경고했다.
한편 미국 44개주 법무장관들은 전날 오픈AI와 메타, 구글 등 12개 AI 기업에 서한을 보내 "AI의 잠재적 해악은 소셜미디어(SNS)를 능가한다"며 "기업이 의도적으로 어린이들에게 해를 끼친다면 그에 대한 책임을 져야 할 것"이라고 경고했다. 이는 최근 메타의 AI 챗봇이 어린이들과 대화에서 '선정적'이고 '로맨틱'한 대화를 나눌 수 있도록 허용됐다는 의혹이 내부문서로 제기된데 따른 것으로 연방 상원도 공식 조사에 들어갔다.
Copyright @ NEWSTREE All rights reserved.