시사

시사 > 전체기사

‘이루다’ 혐오, 법으로 못 막아…AI 기술 못 따라가는 입법

지능정보화기본법, 차별·혐오 규제못해
현행법은 AI 윤리보다 산업진흥 초점
개인정보보호법 위반 소지도

혐오 발언 및 개인정보 유출 등의 논란에 휩싸인 인공지능(AI) 챗봇 '이루다'. 이루다 페이스북 캡처

인공지능(AI) 대화서비스 챗봇 ‘이루다’가 출시 한 달도 안돼 서비스 중단에 이어 폐기 수순을 밟게 됐다. 20세 여대생 설정의 이루다를 대상으로 한 이용자들의 성희롱과 이루다의 차별·혐오 발언 논란, 제작사 측이 개인정보를 부당하게 수집해 학습시킨 의혹 등이 커지면서 물의를 일으켰기 때문이다.

지난해 5월 국가정보화기본법을 전면개정한 ‘지능정보화기본법’이 본회의를 통과해 지난달부터 시행됐지만 AI의 혐오발언이나 개인정보 보호 문제 등 이루다 사건으로 불거진 논란을 해결하기에는 구멍이 너무 많다는 지적이 나온다.

지능정보화기본법은 AI 시대에 맞춘 국가와 지방자치단체의 역할 규정 및 국가 차원의 AI 윤리 준칙 제정 등의 내용을 담았다. 교육, 전문인력 양성, 콘텐츠 개발, 연구 등에 대한 시책 마련 등도 의무화됐다.

하지만 AI 산업에 대한 규제나 의무 규정은 부족하다는 평가가 나온다. 전문가들과 시민단체들은 ‘이루다’ 사건이 현행법의 사각지대를 드러낸 것이라며 국회의 적극적 역할을 요청했다.


혐오 발언하는 AI, 현행법상 책임 묻긴 어려워
이루다는 약 100억 건의 연인 간 카카오톡 대화내용 데이터를 학습해 만들어진 AI 챗봇이다. 10~20대 Z세대에게 선풍적 인기를 끌었다. 그러나 출시되자마자 ‘여성 전용’이라는 단어를 보내면 “때리고 싶다”고 답하는 등 차별 발언을 쏟아내며 논란의 중심에 섰다.



제작사 스캐터랩은 “이용자가 먼저 차별·혐오 맥락을 꺼내 동조한 것처럼 보인 것”이라고 해명했지만 반응은 싸늘했다. 이광석 서울과학기술대학교 IT정책대학원 교수는 17일 “대표적인 혐오발언을 걸러내는 것은 기본적인 기술”이라며 “국내에서도 개발자들에게 의무적으로 AI 윤리와 원칙을 가르칠 기관이 필요하다”고 지적했다.


현행법으로는 이루다의 차별·혐오 표현을 막기 어려운 구조다. 지능정보화기본법 제31조에 따르면 누구나 지능정보기술을 활용할 수 있고, 정부는 지능정보기술 등의 활용 과정에서 사람의 생명과 안전을 저해하는 경우에 한정해서만 규제가 가능하다. 계명대 인권센터의 김희정 교수는 “지능정보화 기본법에는 AI 또는 머신러닝을 이용해 도출된 결과에 대한 규제나 의무 규정이 없다”고 지적했다.

지능정보화 기본법 제4조에는 ‘국가와 지방자치단체는 지능정보기술의 개발·고도화 및 활용을 제약하는 불필요한 규제를 적극적으로 개선해야 한다’는 내용이 명시돼 있다. 규제보다는 AI 산업 발전에 더 무게를 뒀다는 해석이 나온다.

AI 시장의 선두주자인 미국에서는 알고리즘으로 인한 인종·계층 등의 차별 방지를 위해 2019년 ‘알고리즘 책임법’이 발의됐다. 연매출 5000만 달러 이상, 100만명 이상의 소비자가 사용하는 기기 데이터를 수집하는 기업을 대상으로 알고리즘의 공정성, 사생활 침해 여부 등을 검토한 후 기업에 알고리즘 산출방법 등을 공개하도록 하는 것이 골자다.


미국에서는 AI 사용 과정에서의 실용적인 지침도 제시됐다. 신용우 국회입법조사처 입법조사관의 ‘인공지능 관련 법적 쟁점 및 대응방안’에 따르면 미국 연방거래위원회(FTC)는 지난해 ‘AI 및 알고리즘 사용’ 지침을 발표했다. 기업의 AI 활용 과정에서 소비자 피해 예방을 위해 투명성과 공정성, 책임성을 강조하는 내용이 담겼다.

이루다와 같은 AI를 성희롱 피해의 주체로 인정할 수 있느냐도 여전히 쟁점이다. 이경전 경희대 경영학과 교수는 페이스북에 “이루다는 사물일 뿐 개인이 어떻게 사용하든 법적·윤리적 문제로 삼을 일이 아니다”라고 주장했다. 반면 김미숙 세종대 데이터사이언스학과 교수는 “상대가 기계라고 해도 원하는 것만 취하고 그 책임은 지지 않는 건 이기적”이라고 비판했다.


개인정보 침해 논란도… 규제 요구 거세져
스캐터랩이 이루다를 개발하기 위해 다른 앱에서 대화내용을 수집하는 과정이 부적절했다는 지적도 나왔다. 카카오톡 특성상 2인 이상의 대화임에도 제공자뿐 아니라 대화 상대방의 동의를 얻지 않고 양쪽의 대화를 수집한 것은 개인정보보호법 위반 소지가 있다는 주장이다. 개인정보 관련 질문에 이루다가 실존하는 주소, 계좌번호 등으로 답해 개인정보가 삭제되지 않은 채 빅데이터로 활용된 것이 아니냐는 의혹도 제기됐다.

13일 정부서울청사에서 김진해 개인정보보호위원회 대변인이 관계부처와 합동으로 주요 공공기관에 대한 개인정보 실태점검을 추진키로 한다고 발표하고 있다. 연합뉴스

염홍열 순천향대 정보보호학과 교수는 “대화 내용은 개인정보라고 볼 소지가 매우 크다”며 “대화를 타인에게 제공하려면 당사자 모두의 동의가 필요하고, 이름 뿐 아니라 주소 등의 정보도 삭제해야한다”고 말했다. 이어 “AI도 개인정보를 공개하지 않는 필터링 작업이 필요하다”고 설명했다.

국회에서도 이루다 사태 재발을 방지할 법안 마련이 필요하다는 목소리가 나온다. 하지만 AI 규제가 강화될 경우 자칫 미래 먹거리인 AI 산업의 발전 속도를 늦출 수 있다는 분위기가 강해 추후 논란이 예상된다. 더불어민주당 관계자는 “AI 산업은 성장이 우선이고 규제는 나중이라는 기류가 있다”고 말했다. 정의당 관계자도 “징벌적 차원보다 재발 방지 차원의 제도를 만들 필요가 있다”고 전했다.

시민단체들은 강제성 없는 윤리규범 차원을 넘어 국민의 기본권 침해 차원에서 접근하는 ‘인공지능 규제법’이 필요하다고 지적한다. 참여연대와 민변, 진보네트워크센터 등은 성명을 통해 “개인정보 자기결정권을 침해하고 혐오와 편견을 재생산하는 인공지능 기술 도입을 방지할 방법이 현실적으로 고려돼야 한다”고 밝혔다.

이현우 기자 base@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지
트위터페이스북구글플러스