기계가 인간의 방식으로 마음을 읽을 수 있을까?

뉴욕타임스
뉴욕타임스 인증된 계정 · 독보적인 저널리즘
2023/03/31
By 올리버 왕(Oliver Whang) 2023년 3월 27일자
일부 연구자들은 챗봇이 다른 존재의 정신 상태를 인지하는 능력을 가진다고 주장한다. 하지만 그저 우리가 지나치게 들떠 흥분한 것은 아닐까?
인지 과학자들은 챗GPT와 같은 대규모 언어모델이 어떤 정신적 능력을 갖췄는지, 또는 갖추지 않았는지 실험하는 방법을 탐구해 왔다. 출처: vrvr/알라미
마음을 읽는 것은 우리 인간 사이에서는 일반적인 일이다. 개개인의 경험을 채워주는 따뜻한 의식의 흐름에 접근한다고 주장하는 심령술사나, 머릿속에서 생각을 자유자재로 끄집어낼 수 있다고 주장하는 독심술사 이야기가 아니다. 그보다 더 어려운 게 일상에서 마음을 읽는 일이다. 우리는 사람들의 얼굴과 움직임을 눈여겨보고 이야기를 들음으로써 그들의 머릿속에서 무슨 일이 일어나고 있는지 결론 내린다. 때론 직감으로 알기도 한다.

심리학자들은 이런 직관적인 심리학(다른 사람이 나와 다른 정신 상태를 가지고 있다는 것을 인지하는 능력)을 ‘마음 이론(theory of mind)’이라고 부른다. 마음 이론의 결함은 자폐증, 조현병 및 기타 발달 장애와 관련이 있다. 마음 이론은 우리가 서로 의사소통하고 이해하도록 돕는다. 문학과 영화를 즐기고, 게임을 하고, 사회적 환경을 이해하도록 한다. 이 능력은 우리가 인간으로서 존재하는 데 필수적이다.

만약 기계가 마음도 읽을 수 있다면 어떨까?

최근 심리학자인 마이클 코신스키 미국 스탠포드대 경영대학원 교수가 바로 이런 주장을 했다. 오픈AI의 챗GPT, GPT-4와 같은 대형 언어 모델(LLM), 즉 인터넷에 있는 방대한 양의 텍스트로 훈련돼 다음 단어를 예측할 수 있는 기계가 마음 이론을 형성했다는 것이다. 이 연구는 같은 분야 전문가들의 평가를 거치지는 않았다. 하지만 최근 쇄도하는 질문인 “챗GPT가 이것도 할 수 있을까?”에 대한 답을 찾으려 노력하는 인지 과학자들 사이에서 면밀한 검토와 대화를 촉발시켰고, 이 주제를 더 철저한 과학적 탐구의 영역으로 옮겨 놓았다. 이 모델들은 어떤 능력을 가지고 있으며, 어떻게 우리의 마음에 대한 이해를 바꿀 수 있을까?

1980년대에 최초로 마음 이론을 살펴본 연구원 중 한 명인 앨리슨 고프닉 미국 캘리포니아대 교수는 “어린 아이의 능력을 평가하면서 근거로 아이들과 대화한 일화만 제시한다고 해보자. 심리학자들은 그 주장을 받아들이지 않을 것이다”라며 “그런데 사람들은 이런 방식으로 챗GPT를 평가하려는 듯 하다. 매우 신중하고 엄밀한 검사가 필요하다”고 말했다.
뉴욕타임스
한글로 읽는 뉴욕타임스
지금 바로 만나보세요.
이미 회원이신가요? 로그인
매주 5회, 뉴욕타임스의 보도 기사와 칼럼을 번역해 소개합니다. * 이 계정은 alookso에서 운영합니다.
599
팔로워 2.2K
팔로잉 0