[A.I.C.E. 포럼] 차별과 편견, 혐오에서 안전한 AI는 어떻게 만들까?


차별과 편견, 혐오에서 안전한 AI는 어떻게 만들까?


[A.I.C.E 포럼] 시민사회 분야 — 정치하는엄마들
오은선 정치하는엄마들 활동가

AI가 가진 흔한 이미지는 감정에 치우치지 않는 공정한 모습이다. 하지만 AI가 인간보다 더 차별과 편견을 가지고 있을 수 있다. AI는 기존의 방대한 데이터를 통해 학습한다. 데이터는 과거 인간이 생각했던 것에서 온다. AI가 가진 편견은 인간이 주입한 데이터에서 시작된다. 구글포토의‘고릴라 사건’, 챗봇‘테이(Tay)’의 인종차별 사건, 또 다른 대화형 AI ‘이루다’의 성차별, 동성애·장애인 혐오 발언 사건 등을 겪으면서 시민사회는 기대만큼이나 우려가 크다.

지금도 아동·청소년은 미디어와 인터넷, 유튜브 검색을 통해 배운다. 앞으로는 AI에 배우고 학습하게 될 것이다. 지금도 오픈 AI의 챗지피티를 이용해 영어를 공부하는 방법이 공유되고 있다. 디지털 리터러시 교육이 충분히 이루어지지 않은 상태에서는 그럴듯한 말로 대답하는 AI의 대답을 사실로 오해할 우려가 있다. 학습하는 데이터가 더 많아져 AI가 제공하는 정보의 신뢰도가 높아질수록 AI의 정치적 올바름에 대한 요구는 당연하게 따라온다.


소제목 : ‘#이미지바꿔’ 캠페인을 벌인 이유


만일 어린이가 boy와 girl이라는 단어를 학습하기 위해 네이버에 해당 단어를 검색한다면 어떤 이미지들이 나올까. 놀랍게도 충격적인 수준의 성차별적 이미지가 노출된다. 해당 단어뿐만 아니라 상당히 많은 단어에서 성차별·성편향적이며 여성을 대상화 한 이미지가 빈번하게 보인다. 그래서 정치하는엄마들은 원래 단어 뜻과 상관없는 이미지 검색 결과가 나오는 검색어, 성차별적이고 성편향적, 여성을 성적 대상화 하는 이미지가 나오는 검색어를 수집하여 #이미지바꿔 캠페인을 벌였다. 원래 뜻과 관계없는 이미지 검색 결과가 노출되는 단어, 성차별적 이미지가 검색되는 단어, 같은 단어임에도 성별에 따라 이미지 결과가 현격히 차이 나는 단어를 본격적으로 수집하고 제...
얼룩패스
지금 가입하고
얼룩소의 모든 글을 만나보세요.
이미 회원이신가요? 로그인
LAB2050은 2050년에 더 나은 사회가 되려면 지금 우리가 무엇을 해야 하는지를 탐구합니다.
43
팔로워 150
팔로잉 135
정치하는엄마들은 2017년 6월 11일 창립한 비영리 민간 단체로서, 여성 양육 당사자들과 아동들이 당하는 사회적 차별과 혐오를 스스로 해결하기 위해 엄마들·아동들을 정치 세력화하고 적극적인 사회 참여를 실천합니다.
1
팔로워 11
팔로잉 10