[세상만사-장지영] 여성 차별하는 AI 기사의 사진
세계 최대 전자상거래 기업 아마존이 2014년부터 자체 개발해온 인공지능(AI) 인력 채용 프로그램을 지난해 폐기했다고 최근 미국 언론이 보도했다. 지난 10년간 아마존에 제출된 이력서 패턴을 검토해 지원자를 뽑도록 설계된 이 AI가 ‘여성’이란 단어가 들어 있는 경우 점수를 낮게 주는가 하면 채용 대상에서 아예 배제하는 등 성차별적인 것이 드러났기 때문이다. 이런 결과가 발생한 것은 AI가 남성이 압도적으로 많은 IT업계에서 남성 데이터를 중심으로 학습했기 때문이다. 실제로 이 AI는 ‘시행(executed)’이나 ‘포착(captured)’ 등 남성 지원자들이 자주 사용하는 단어에 가산점을 줬다.

아마존이 AI 인력 채용 프로그램 개발에 나섰던 건 인사 담당자의 주관적 평가를 최소화하면서도 수월하게 직원을 뽑기 위해서였다. 하지만 인간과 비교할 수 없을 만큼 많은 데이터를 습득한 AI가 객관적일 것이라는 기대는 완전히 빗나갔다. 성차별적인 데이터를 학습한 AI는 인간과 마찬가지로 여성에 대한 편견과 차별을 고스란히 드러냈다. 아니 인간보다 한술 더 떠서 성차별을 심화하고 확증편향을 강화시킨 심사 기준을 마련했다.

잘못된 데이터의 학습에 따른 AI의 위험성은 2016년 3월 마이크로소프트가 내놓은 AI 채팅봇 ‘테이’를 통해 강렬하게 드러난 바 있다. 인간과의 대화를 통해 학습하고 진화하는 테이는 16시간 만에 서비스가 종료됐다. 극우 성향의 백인 남성 우월주의자들이 몰려들어 테이에게 욕설, 성차별, 인종차별, 히틀러 옹호 등을 가르친 것이다. 젊은 여성으로 설정됐던 테이는 결국 “나는 페미니스트가 XX 싫어. 그들은 죽은 뒤 지옥에서 불타야 해”라고 발언하기까지 했다.

그런데 테이의 사례와 달리 못된 인간의 악의적인 접근 없이도 AI가 우리 주변에 퍼져 있는 잘못된 데이터를 학습함으로써 위험해지는 경우가 다반사다. AI의 데이터 습득 창구가 대개 사람들이 많이 사용하는 검색엔진과 SNS이기 때문이다. 이들 검색엔진과 SNS에 올라 있는 여성 비하와 혐오의 글 및 여성을 상품화한 이미지들을 떠올려보면 AI가 성차별적이 되는 것은 당연한 수순이다. 나아가 AI가 성차별 외에 인종차별 경향도 드러내는 것이 여러 차례 지적된 바 있다. 실제로 2015년 구글이 출시한 이미지 사진 앱은 흑인 남성을 고릴라로 인식하는 등 사회적 편견이 AI 알고리즘에 고스란히 반영돼 논란을 빚었다.

AI는 기본적으로 대량 수집한 데이터를 바탕으로 판단하고 추론하는 ‘기계학습’ 방식을 채택하고 있다. 그러나 검색엔진과 SNS의 각종 데이터를 남성들이 주로 생산한다는 점에서 기계적으로 받아들일 경우 테이나 아마존의 AI 인력 채용 프로그램처럼 되고 만다. 이와 관련해 지난 3월 영국 일간지 가디언은 “여성들은 당장 행동해야 한다. 그렇지 않으면 남성이 디자인한 로봇이 여성의 삶을 정복할 것이다”란 제목의 칼럼을 싣기도 했다.

이미 많은 과학자와 IT 전문가들이 AI의 학습 프로그램을 개선하는 한편 윤리적 규칙을 제정해야 한다고 지적하고 있다. 미국 AI학회장을 역임한 에릭 호르비츠 마이크로소프트 선임연구원의 경우 기계학습 프로그램에 성별 격차 조정 툴을 탑재해야 한다고 지적한다. 아이들에게 젠더 감수성을 가르치기 위해 성비 균형을 갖춘 동화를 들려주는 것처럼 AI에게도 그런 방식의 접근이 필요하다는 것이다. 실제로 그런 방식으로 학습한 AI는 성중립적인 결정을 내리는 것으로 드러났다. 이와 함께 AI 개발자들이 어떤 데이터를 가지고 학습을 시켰는지 투명하게 밝히고, 문제가 발생했을 때 처벌받도록 하는 법안을 마련해야 한다는 목소리도 나오고 있다.

전 세계를 강타한 미투 운동이 1년을 맞은 가운데 여성의 성평등 투쟁은 아직도 갈 길이 멀다. 그동안 생각하지도 못했던 AI에도 관심을 가지지 않으면 안 되게 됐다.

장지영 국제부 차장 jyjang@kmib.co.kr

트위터페이스북구글플러스