오피니언

오피니언 > 칼럼 > 전체

[데스크시각] 알고리즘에 따라 딥러닝하면

정승훈 사회부장


이른바 ‘조국 사태’나 ‘추미애-윤석열 갈등’ 당시만큼은 아니지만 요즘도 신문사에는 전화가 많이 온다. 억울한 사정을 호소하거나 피해를 입었다고 하소연하는 이들보다는 자신의 주장을 펼치고 싶은 분들이 전화에 더 적극적인 듯하다. 논리를 갖추고 합리적인 주장을 내놓는 분들도 있지만 전개 방식이나 요지를 이해하기 힘든 전화도 적지 않다.

전화로 주장하는 분들은 대개 두 부류로 나뉜다. 진보와 보수로 볼 수도 있고, 정권에 우호적이거나 비판적인 이들로 분류할 수도 있겠다. 전자의 분들은 첫 소재가 무엇이든 검찰과 사법부를 비난하는 결론으로 가는 경우가 많다. 상당수는 어떤 유튜브 영상을 봤는데 출연진이 지난번 판결 때 판사(혹은 검사)가 잘못한 부분을 조목조목 지적하더라는 얘기다. 판검사가 그렇게 잘못했다는 사실을 유튜버도 알고 설명하는데 왜 기자들은 기사를 쓰지 않느냐고 힐난한다. 유튜버의 주장만을 근거로 판검사 개인에 대한 혐오 수준의 발언이 이어지지만 그래도 논리 전개 자체는 이해가 되는 편이다.

후자의 분들 상당수는 한국도 아닌 미국의 대통령 선거에 대해 열변을 토한다. 미국 대선에서 개표 부정이 벌어졌는데 왜 지적하는 기사를 쓰지 않느냐는 내용이 많다. 신문사에 미국 대선의 개표 부정을 보도하지 못하도록 하는 압력이 있느냐고 의심하는 이들도 있다.

물론 두 부류 모두 공통점은 있다. 자신의 얘기를 강변할 뿐 상대의 말을 들으려 하지 않는다는 점이다. 이런 경험이 쌓인 탓인지 대화를 나눌 때 발언의 근거가 유튜브인 것을 알게 되면 상대를 그다지 신뢰하지 않는 버릇이 생겼다. 어떤 논리와 설명으로도 그들을 이해시킬 수 없음에 절망하다 문득 어떤 알고리즘이 이들을 이 같은 이슈로 이끌었는지 궁금해지기도 했다.

지난해 연말 국민일보가 보도한 ‘극단으로 인도하는 알고리즘 해설서’ 시리즈 기사에 등장하는 전문가와 유튜버들에 따르면 “알고리즘이 지배하는 세상에서 최적화된 콘텐츠는 비판 대상을 처음부터 까대기만 하는 것”이라고 한다. 알고리즘은 정치적 성향이나 내용에 맞는 콘텐츠를 추천하는 게 아니라 점점 더 도발적인 콘텐츠를 추천하는 경향이 있다. 더 자극적일수록 많은 이들이 선택하고, 그 자극에 중독되는 이들도 늘어나 사용자들이 오래 플랫폼에 머물기 때문이다. 이런 일들이 반복되다 보면 사용자와 유튜버 모두 금세 알고리즘의 노예가 된다. 욕설이나 편견에 물든 극단적 발언이 ‘투쟁’으로 포장되고, 음모론이 ‘팩트’가 된다.

알고리즘의 설계대로 떠다니다 보면 어느새 인공지능(AI)처럼 특정 이슈의 극단적인 주장을 딥러닝하는 수준에 이른다. 딥러닝은 사람의 두뇌가 일하는 방식을 흉내내 작동하는 신경망 기술이다. 인간을 모방해 설계된 AI의 학습 방식을 다시 인간이 답습하는 셈이다.

최근 소수자 차별·혐오 채팅 문제로 논란을 낳은 AI 챗봇 ‘이루다’의 문제 역시 편견이 담긴 대화를 반복 학습했기 때문으로 보인다. 이루다가 학습한 데이터는 평범한 연인들의 일상 대화였다. 이루다는 그저 연인들이 나눈 대화를 반복해 공부했는데 차별과 혐오의 언어를 내뱉는 AI 챗봇이 됐다. 매일 적지 않은 이들이 차별과 혐오의 말들을 주고받는다는 점이 확인된 셈이다. 인간과 유사하게 설계된 AI의 문제는 비슷한 과정을 거치면 사람들 역시 같은 문제에 처하게 됨을 보여준다.

국내의 혐오·차별 문제를 깊게 연구해온 강릉원주대 다문화학과 김지혜 교수가 쓴 책 ‘선량한 차별주의자’에는 독백 같은 구절이 나온다. “내가 차별하지 않을 가능성은, 사실 거의 없다.” 오늘을 사는 이들이 되새겨볼 만한 대목이다.

정승훈 사회부장 shjung@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지
트위터페이스북구글플러스