AI는 인간의 언어로부터 여성 차별과 인종 차별을 배운다

인공지능(AI)의 개발에 많은 정보를 입력함으로써, 인간과 같은 사고가 실현 될 수 없을까라는 연구가 계속되고 있다. 그러나 인간이 만든 문서를 대량으로 로드 된 컴퓨터는 인간 언어의 뒷면에 엄연히 존재하는 편견과 차별의 감정까지 정확하게 재현되어 버리는 문제가 일어나고 있다.


기계 학습에 의해 단련된 AI는, "꽃"과 "음악" 등의 단어를 "즐거운 것"에 연관 짓는 것에 대해, "벌레"와 "무기" 등의 단어를 "즐거운 것"에 연관짓지 않는 것을 알게 되었다. 





또한 "유럽계 미국인의 이름"을 "아프리카계 미국인의 이름"보다 긍정적 인 것으로 파악하는 경우가 많았고, "여성"에 대해서는 "수학"보다 "예술성"을 연관짓는 경향이 확인되고 있다고. 이들은 사회에 만연한 인간이 가진 고정 관념이나 차별 감정이 AI의 생각에 반영된 예라고 생각.


프린스턴 대학의 컴퓨터 과학자의 Arvind Narayanan 박사는 "지각적인 작업에 기계 학습이 기여하는 모든 경우에, 기계 학습은 인간의 편견을 재현하고, 우리의 배후에 있는 것을 재현해 버릴 우려가 있다"고 말하고, 기계 학습에 의해 "인간의 목소리"를 반영하는 것으로, 컴퓨터도 인간과 마찬가지로 편견과 차별적 생각을 하게되는 것은 문제라고 경고하고 있다.



Narayanan 박사와 바스 대학의 연구 그룹은, 자연 언어 학습 과정에서 발생할 수 있는 편견을 밝히기 위해 인간이 편견을 조사할 때 심리학자가 가진 "Implicit Association Test"라는 통계 테스트를 AI 시스템에 적용하여 AI의 편견의 정도를 조사했다.




연구 그룹은 인종이나 성별에 대한 편견이 AI의 생각에 재현되고 있는지를 확인하기 위해, 인터넷에서 220만 단어를 수집하여 AI에 학습시켰다. 그리고 단어간의 관계를 측정하는 Word-Embedding Factual Association Test(WEFAT)라는 테스트를 개발하여 조사한 결과, 기계 학습 단어의 관련성 통계학적 힘은, 2015년에 열린 "50 직종에서 여성의 비율"에 강한 연관성이 있는 것으로 나타났다는 것.



Narayanan 박사는, "순수하게 언어 사용만으로 여성에 대해 주어진 직업이나 성적인 단어의 관련성이 90%라는 비율로 발견됐다"고 테스트 결과에 대해 언급하고, 단어의 관련성과 노동 통계 자료와 강한 상관 관계는 연구자들에게도 놀라운 정도였다고 한다. 따라서 기계 학습을 할 때 입력하는 정보에서 편견을 제거할 수 있는지 윤리적인 측면에서 규칙의 필요성이 검토되고 있다.


Narayanan 박사 팀의 연구 성과는 인간이 쓴 문서로 학습함으로써, AI가 말의 뒷배경에 있는 편견과 차별적인 생각을 배워 버리는 현실적인 과제를 부각시키고 있지만, 문서를 시간별로 따로 로드하고, 잠재적인 편견의 정도를 측정하는 것으로, 사회적인 편견이 시간이 지남에 따라 어떻게 조성되어 왔는지를 분명히하고, 그 원인을 밝혀 내는 단서를 얻을 수 있는 유력한 도구로, 인공 지능이 배운 편견을 역으로 바로 잡아야 하지 않을까 지적되고 있다.