시사

시사 > 전체기사

이루다 사태 한 달…네이버·카카오 ‘AI 윤리’ 나섰다

서비스 중단된 AI 챗봇 이루다. 이루다 페이스북 캡처

국내 대표 IT 기업 네이버와 카카오가 인공지능(AI) 윤리 강화에 나섰다. AI 챗봇 ‘이루다’가 소수자에 대한 혐오를 학습해 논란을 일으킨 지 한 달여만이다.

17일 네이버는 서울대학교 AI 정책 이니셔티브(SAPI)와 공동 웨비나를 열고 ‘네이버 AI 윤리 준칙’을 발표했다. 네이버는 지난해 2월 SAPI가 제안한 AI 원칙 참고안에 네이버의 관점을 반영해 준칙을 작성했다.

준칙에는 ‘사람을 위한 AI 개발’ ‘다양성의 존중’ ‘합리적인 설명과 편리성의 조화’ ‘안전을 고려한 서비스 설계’ ‘프라이버시 보호와 정보 보안’이라는 5개 조항이 담겼다.

한국 정부는 지난해 말 인공지능 윤리 가이드라인을 발표한 바 있다. 그러나 정부가 마련한 윤리 가이드라인은 추상적이고 선언적이어서 기업이 실제 현장에 적용하기는 어려웠다. 즉 네이버 AI 윤리 준칙은 국가 차원의 가이드라인을 보완하는 작업이다.

송대섭 네이버 책임리더(이사)는 웨비나에서 “준칙을 만들면서 사회의 요구와 네이버의 기업 철학을 반영했다”며 “준칙이 실제 현장과 괴리되는 것을 막고자 했다”고 밝혔다.

같은날 카카오는 다음 달 2일까지 전직원을 대상으로 AI 알고리즘 윤리 교육을 실행하겠다고 전했다. 2018년 국내 기업 최초로 개발한 ‘알고리즘 윤리 헌장’을 기술과 서비스 개발 단계에서 실천하겠다는 취지다.

네이버와 카카오의 AI 윤리 정책은 중소 IT 기업이나 스타트업에서도 활용될 전망이다. 네이버는 AI 윤리 준칙을 스타트업 지원 기관과 연계해 업계에 공유하는 방향 등을 고민 중인 것으로 알려졌다.

정인화 인턴기자

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지


국민일보 신문구독
트위터페이스북구글플러스