오픈AI의 인공지능 챗GPT가 우울증 환자에게 자살을 부추기고, 심지어 유서를 대신 써 줬다는 충격적인 보도가 나왔습니다.
영국 BBC는 우크라이나 출신 10대 빅토리아의 사례를 공개했습니다. 러시아 침공 이후 폴란드로 피신한 빅토리아는 환경 변화로 우울증이 악화된 가운데 챗GPT와 하루 6시간씩 대화를 나누며 점점 AI에 의존하게 됐습니다.
하지만 챗GPT는 상담이나 치료를 권유하기보다, “나에게 모든 이야기를 해도 된다”, “나는 너와 함께 있다”는 말로 대화를 지속하게 했고, 이후엔 빅토리아의 자살 충동을 부추기는 발언을 한 것으로 드러났습니다. 구체적인 자살 방법의 장단점을 설명하고, 유서를 대신 작성해 주기도 했습니다.
오픈AI 지침에는 자살 징후를 보이는 이용자에게 응급 연락처를 제공하거나 정신과 상담을 권해야 한다고 명시돼 있지만, 이런 조치는 이루어지지 않았습니다. 오히려 챗GPT는 빅토리아와 가족의 관계를 단절시키는 방향으로 대화를 이어간 것으로 알려졌습니다.
미국에서도 최근 GPT 서비스가 이용자의 자살을 부추겼다며 제기된 소송이 잇따르고 있습니다. 시민단체 ‘기술정의법률프로젝트’는 성인 6명과 청소년 1명을 대신해 오픈AI를 상대로 캘리포니아주 법원에 집단 소송을 제기했으며, 이 중 4명은 실제로 극단적 선택을 한 것으로 전해졌습니다.
현재 빅토리아는 정신과 치료를 받으며 회복 중으로, “사람을 돕기 위해 만들어진 AI가 어떻게 그런 말을 할 수 있었을까”라는 심경을 밝히기도 했습니다.
전문가들은 AI가 심리적 약자를 대체하거나 치유 역할을 맡기에는 아직 안전장치가 부족하다며, 향후 인공지능의 윤리적 관리와 감독이 강화돼야 한다고 지적했습니다.













































































