오피니언

오피니언 > 칼럼 > 전체

[경제시평] 공정한 인공지능 개념의 다양성

고학수 서울대 교수 (한국인공지능법학회장)


인공지능(AI) 기술이 일상에 도입되는 상황이 늘면서 사회적 관점에서 AI를 바라보는 시각도 많아지고 있다. 지금까지는 기술적 우수성 여부가 AI를 평가하는 핵심적 기준이었다면 이제는 사회적 시각에서 볼 때에도 손색이 없어야 하는 요건이 추가된 셈이다. 그러한 면에서 흔히 언급되는 것이 AI 윤리이다. 이와 관련해 중요한 고려 사항으로 지적되는 것이 AI가 편향을 부추기지 않고 공정해야 한다는 것이다.

세상이 공정해야 하듯 AI도 공정해야 한다. 당연한 말이다. AI가 공정해야 한다는 대원칙에 반대하는 사람은 없을 것이다. 하지만 문제는 이를 어떻게 구체화할 것인지에 관한 것이다. 사실 AI 공정성의 개념을 둘러싸고 매우 다양한 시각이 있다. 연구계에는 이미 수십 가지의 개념 규정이 제시돼 있다. 이 중 어떤 개념이 타당할 것인지 판단하는 것은 개별 상황이나 맥락에 대한 판단을 수반하는 것이어서 간단치 않다. 게다가 한 가지의 AI 공정성 개념이 충족되면 또 다른 유형의 AI 공정성 개념은 충족이 불가능해질 수 있어 판단이 더욱 복잡해지는 면이 있다.

AI 알고리즘을 고용의 맥락에서 활용하는 상황을 생각해 보자. AI 모형을 마련하기 위해서는 우선 인재상을 어떻게 구체화할 것인지 생각해야 한다. 이는 우수한 인재라는 추상적 개념을 측정 가능한 지표로 만들어내는 과정을 수반한다. 예를 들어 20년 이상 근속할 가능성이 높은 사람 또는 일정 액수 이상의 영업 실적을 달성할 가능성이 높은 사람과 같이 측정이 가능한 지표가 제시돼야 한다. 그런데 이 단계에서부터 편향이나 공정성 개념을 둘러싼 논란이 나타날 가능성이 있다. 오랜 기간 근속하는 것이 가능한 사람은 현실적으로 남성일 가능성이 높은 것은 아닌지, 그래서 이런 방식으로 지표를 정하는 것 자체가 남성 편향이 있는 것은 아닌지 하는 식의 논란이다.

이 단계를 지나 실제 데이터를 이용해 결과값을 구하는 단계에서도 문제의 가능성이 있다. 성별에 관한 논란을 우려해 성별 데이터를 아예 포함하지 않고 AI 모형을 구축한 경우를 생각해 보자. 성별 자체는 데이터에 포함돼 있지 않더라도 AI는 성별을 파악하는 데 도움이 될 만한 다른 변수(프록시)를 찾아 이를 판단에 반영할 수도 있다. 통계적 관련성이 높은 프록시를 AI가 찾아낼 수 있다면 이는 성별이 데이터에 포함된 것과 크게 다르지 않은 결과를 가져오게 된다.

한편 AI가 성별을 전혀 고려하지 않은 결과, 어느 한 성별에 대해 현저히 높은 평가를 하게 됐다고 하자. 그러한 결과는 공정한 것이라고 할 수 있겠는가. 또는 그와 다르게 AI가 우수하다고 평가한 결과가 지원자 전체의 성별 비율과 크게 다르지 않은 분포를 보여야 공정한 것이라고 해야 하는가. 다른 한편, 아예 처음부터 성별을 포함한 상세한 데이터에 기초해 AI 모형을 마련해야 더욱 공정한 결과를 달성하는 것이 가능하다는 시각도 있다.

AI의 현실적 활용은 많은 경우 과거 데이터에 기초해 공통적 특징을 추출하고 이로부터 미래 상황을 예측하는 것과 관련이 있다. 이 과정에서 어떤 식으로든 공정성과 관련된 판단을 거칠 수밖에 없는 것이 보통이다. 채용의 경우 이외에도 금융, 의료 등 사람에 관한 판단이 결부된 많은 상황에서 공정성에 관한 판단이 필요하게 된다. 이때 다양한 공정성 개념 중 어떤 개념을 적용해 판단의 원칙으로 삼아야 할 것인지에 대해서는 이제 막 연구가 본격화된 단계이다. AI 공정성 개념에 대한 훨씬 많은 사회적 관심이 필요하다.

고학수 서울대 교수 (한국인공지능법학회장)

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지
트위터페이스북구글플러스