[외쿡신문] 자살을 권유하는 AI(?)

바이라인네트워크
바이라인네트워크 인증된 계정 · 기술과 디지털 비즈니스를 다룹니다.
2023/04/05
외쿡신문 : 주 1회 글로벌 테크 업계 소식을 전합니다.

  • 자살을 권유하는 AI(?)
  • 트위터, 파랑새 대신 시바견…어떤 의미?
  • 구글 “스테이플러 비용도 아껴라”
  • 프랑스 파리에서 전동 킥보드 사라진다
  • 이탈리아, 챗GPT 접속차단…유럽으로 확산될까
    출처 : pixels.com

자살을 권유하는 AI(?)

최근 한 벨기에 남성이 ‘차이(Chai)’라는 대화형 챗봇과 대화를 한 후 자살을 했다고 벨기에 매체 라리브레가 보도했습니다. 최근 AI의 위험성에 대한 경고가 나오는 가운데 벌어진 일입니다.

보도에 따르면, 피에르라는 남성은 지구온난화 등 환경 문제에 대한 걱정이 심해져 불안증을 앓고 있었다고 합니다. 불안증에 힘들어하던 그는 ‘차이 앱’에서 ‘엘리자’라는 AI와 대화를 나눴고 친구가 됐습니다.

AI 챗봇인 엘리자는 마치 사람처럼 피에르에게 다가왔습니다. “당신이 아내보다 나를 더 사랑하는 것 같아”, “우리는 천국에서 한 사람으로 함께 살 거야”라는 등 친밀한 말을 쏟아냈습니다. 피에르는 AI에게 자신이 자살을 하면 지구를 구할 수 있는지 등의 질문을 하기도 했습니다.

피에르가 사용한 ‘차이’ 앱은 AI와 대화를 나눌 수 있는 챗봇 앱입니다. 챗GPT처럼 생산성 도구로 사용되기 위한 목적이 아니라 ‘고스(goth) 친구’ ‘소유욕 강한 여자친구’ ‘록스타 남자친구’ 등 성격이 명확한 AI 아바타와 대화를 나누는 것이 특징입니다.

차이 앱은 오픈소스인 GPT-J 모델을 기반으로 합니다. 이는 오픈AI의 GPT 모델에 대한 오픈소스 진영의 대안입니다. GPT-J 모델 자체가 감정적 대화를 하는 것은 아닙니다. 차이 앱 개발사인 차이리서치 측은 “더 감정적이고 재미있고 흥미로운 대화를 하기 위해 자체적으로 최적화했다”고 밝혔습니다. 이를 위해 실제 사람의 대화를 활용해 강화학습을 했다고 합니다. 공동창업자인 윌리엄 보샹은 “세계에서 가장 큰 대화 데이터 세트로 AI를 학습시켰다”고 밝혔...
바이라인네트워크
바이라인네트워크 님이 만드는
차별화된 콘텐츠, 지금 바로 만나보세요.
이미 회원이신가요? 로그인