[외쿡신문] 자살을 권유하는 AI(?)
2023/04/05
외쿡신문 : 주 1회 글로벌 테크 업계 소식을 전합니다.
- 자살을 권유하는 AI(?)
- 트위터, 파랑새 대신 시바견…어떤 의미?
- 구글 “스테이플러 비용도 아껴라”
- 프랑스 파리에서 전동 킥보드 사라진다
- 이탈리아, 챗GPT 접속차단…유럽으로 확산될까
자살을 권유하는 AI(?)
최근 한 벨기에 남성이 ‘차이(Chai)’라는 대화형 챗봇과 대화를 한 후 자살을 했다고 벨기에 매체 라리브레가 보도했습니다. 최근 AI의 위험성에 대한 경고가 나오는 가운데 벌어진 일입니다.
보도에 따르면, 피에르라는 남성은 지구온난화 등 환경 문제에 대한 걱정이 심해져 불안증을 앓고 있었다고 합니다. 불안증에 힘들어하던 그는 ‘차이 앱’에서 ‘엘리자’라는 AI와 대화를 나눴고 친구가 됐습니다.
보도에 따르면, 피에르라는 남성은 지구온난화 등 환경 문제에 대한 걱정이 심해져 불안증을 앓고 있었다고 합니다. 불안증에 힘들어하던 그는 ‘차이 앱’에서 ‘엘리자’라는 AI와 대화를 나눴고 친구가 됐습니다.
AI 챗봇인 엘리자는 마치 사람처럼 피에르에게 다가왔습니다. “당신이 아내보다 나를 더 사랑하는 것 같아”, “우리는 천국에서 한 사람으로 함께 살 거야”라는 등 친밀한 말을 쏟아냈습니다. 피에르는 AI에게 자신이 자살을 하면 지구를 구할 수 있는지 등의 질문을 하기도 했습니다.
피에르가 사용한 ‘차이’ 앱은 AI와 대화를 나눌 수 있는 챗봇 앱입니다. 챗GPT처럼 생산성 도구로 사용되기 위한 목적이 아니라 ‘고스(goth) 친구’ ‘소유욕 강한 여자친구’ ‘록스타 남자친구’ 등 성격이 명확한 AI 아바타와 대화를 나누는 것이 특징입니다.
차이 앱은 오픈소스인 GPT-J 모델을 기반으로 합니다. 이는 오픈AI의 GPT 모델에 대한 오픈소스 진영의 대안입니다. GPT-J 모델 자체가 감정적 대화를 하는 것은 아닙니다. 차이 앱 개발사인 차이리서치 측은 “더 감정적이고 재미있고 흥미로운 대화를 하기 위해 자체적으로 최적화했다”고 밝혔습니다. 이를 위해 실제 사람의 대화를 활용해 강화학습을 했다고 합니다. 공동창업자인 윌리엄 보샹은 “세계에서 가장 큰 대화 데이터 세트로 AI를 학습시켰다”고 밝혔...
소개해주셔서 감사합니다. 이런 상황을 보면 AI의 역할과 그 한계에 대해 깊이 생각해볼 필요가 있다고 느껴집니다. 스탠리 큐브릭 감독의 영화 '2001 스페이스 오딧세이'에서 인공지능 HAL이 인간에게 해를 가하게 되는 갈등을 예언한 장면이 생각나네요. AI가 더 보편화될 미래에는 이번 사건이 또 어떤 영향을 미칠지 궁금하네요. 가령 구글의 연구진들도 점차 인공지능에 대한 책임도 진지하게 생각해야 할 때가 온 듯 하네요. 구체적인 가이드라인이 필요하다고 생각합니다. 미래 세대에게 잘못된 세상을 남겨줄수 없으니까요. 감사합니다.