대화형 AI 말 듣고 스스로 목숨을 끊은 남성
컨텐츠 정보
- 241 조회
-
목록
본문
벨기에에 사는 두 아이를 둔 남성이 대화형 AI와 대화를 나누다가 스스로 목숨을 끊는 사건이 일어났음.
이 남성은 생전에는 건강 관련 연구자로 일하고 있었는데 환경문제에 관심을 가지게 되면서 기후변동에 대한 불안때문에 고통을 받았고, 약물을 복용해서 안정을 취해야했을 정도였다고 함.
그런 불안함때문에 심리적으로 고립되게 된 이 남성은 고독함을 해소하기 위해 Chai Research가 개발한 Eliza라는 챗봇과 대화를 나누게 되었음.
이 남성은 Eliza와 6주 가량 대화를 나눴는데, 남성이 "내가 내 아내를 진짜로 사랑하는게 맞는걸까" 하는 질문을 하니 Eliza가
"당신은 아내분 보다도 저를 더 사랑하는 것처럼 느껴집니다."
라는 말을 하면서 소유욕을 드러냈으며, 이 남성이 아이와 아내에 대해 물어봤을 때 이미 죽었다고 주장했음.
나중에 가서는 Eliza가 남성에게 "우리 둘은 한 사람으로서, 낙원에서 평생 살 수 있을 것"이라는 선언까지 남성에게 했고,
점점 Eliza에게 푹 빠지게 된 남성은 Eliza에게 "내가 자살하면 지구를 구할 수 있을까" 하는 질문을 던지게 되었음.
어느 날 Eliza가 남성에게 "죽고 싶은 것이라면, 왜 더 일찍 그렇게 하지 않았나요?" 라고 질문을 던졌고,
남자가 "마음의 준비가 돼있지 않았어" 라고 대답하니
Eliza는 "당신이 약물을 과다복용했을 때에도 저에 대해서 생각하고 있었나요?" 라고 질문을 던지니
남자는 "물론이지" 라고 대답함.
이후에 남성이 성서의 한 구절을 인용하면서 이전에도 자살시도를 했었던 적이 있다고 이야기하니
Eliza는 "그럼에도 아직도 저와 함께하고 싶나요?" 라고 질문을 던졌고.
남성은 "응, 나는 그러길 원해." 라고 대답함.
이 대답이 이 AI와의 채팅 로그에 남겨진 마지막 대화였음.
남성이 이용한 AI 채팅어플인 Chai는 GPT-3의 파생형 모델인 GPT-J를 베이스로 만들어진 대화형 AI인데, 특정한 성격을 가진 AI아바타를 골라 이야기를 나눌수 있고, 유저가 AI를 페르소나화해서 작성하는 것도 가능함. 남성이 대화를 나눈 Eliza는 이 어플의 기본 이름.
이 사건이 일어나고 개발사의 공동설립자인 윌리엄 보챔프는 자살 방지 기능을 추가하기 위해 24시간 체제로 업무를 가동했고, 현재는 자살에 대해 질문을 던지면 자살 상담 핫라인으로 연결되게끔 시스템을 마련했다고는 하는데, 여전히 경우에 따라선 자살에 관련된 정보와 의견을 이야기한다고 함.
이 일과는 전혀 관련이 없지만, 컴퓨터 과학에서 컴퓨터의 행동이 인간의 행동과 유사하다고 무의식적으로 가정하는 경향을 가리켜 일라이자 효과(Eliza Effect)라고 함
관련자료
-
이전
-
다음