[시사풍향계-박상은] 인공지능 킬러로봇 윤리 기사의 사진
영국 파이낸셜타임스는 스위스 제네바에서 유엔 자율살상무기 관련 논의를 앞두고 세계 로봇학자들이 한국과학기술원(KAIST)과 앞으로 어떤 협력도 하지 않겠다며 보이콧을 선언했다고 보도해 논란이 일고 있다. 이는 카이스트가 지난 2월 한화그룹 계열사인 한화시스템과 협력해 창립한 국방인공지능융합연구센터가 킬러로봇을 개발할 수도 있다는 이유 때문이다. 외국의 로봇학자들은 카이스트로부터 인간 존엄성에 반하는 연구활동을 하지 않을 것이라는 해명을 듣고 보이콧을 철회했지만 의구심이 완전 해소된 것은 아니다. 유엔인권위원회가 2013년부터 킬러로봇이 IS전투에 투입돼 적을 살상하고 있다고 보고한 점도 영향을 미치고 있다.

과연 로봇에 인간을 죽일 수 있는 권한을 부여할 수 있을 것인가. 만일 킬러로봇이 오작동되어 적군 대신 아군을 대량 살상한다면 그 책임을 누구에게 물을 것인가. 어느 날 드론이 집 안뜰까지 들어와 가족을 향해 사격한다면 어떻게 될까. 문틈으로 작은 로봇들이 들어와 인간을 살해하려 한다면 과연 이 사회는 어떻게 될 것인가.

우리는 하고 싶고 할 수 있는 것은 해도 되고, 하고 있는 것은 계속 시행돼야 한다는 과학지상주의에 함몰돼 있는 것은 아닌가. 할 수 있지만 해서는 안 되는 것이 있지 않은가. 우리는 인간생명의 소중함을 다시금 되새겨 보아야 할 것이다. 인간생명은 단회적이며 그 어떤 다른 것으로 대체될 수 없는 우주보다 귀한 절대적 가치를 지니고 있다. 그러기에 생명에 대한 접근은 절대주의에 입각해 신중히 다루어야 할 것이다.

1940년 아시모프는 로봇윤리를 처음 언급하면서 로봇은 자신을 보호해야 하고 인간의 명령을 따라야 하지만 인간을 살상해서는 안 된다고 했다. 하지만 군사킬러로봇의 등장은 인류에게 도움이 된다면 인간을 살상할 수 있다는 윤리조항을 추가할 것을 요구하고 있다.

로봇의 윤리는 과연 누가 제정하고 이를 지킬 것인가. 이를 위해 우주물리학자 스티븐 호킹과 테슬러 CEO 일론 머스크, 알파고 개발자 데미스 허사비스 등 2000여명의 인공지능 및 로봇연구자들이 2017년 1월 미국 캘리포니아 아실로마에 모여 23개항으로 구성된 아실로마 AI 원칙을 발표했다. 연구의 안전성, 투명성 외에도 능력의 상한선을 생각하며, 지구의 지속 가능한 발전에 지장을 주지 않는 범위 안에서, 특히 자기복제가 가능한 로봇의 개발에는 신중할 것을 권고하며 인류 전체의 평화와 번영에 기여하는 방향으로 사용할 것을 제안하고 있다.

하지만 이러한 합의에도 불구하고 인공지능과 로봇은 끊임없이 발전할 것이기에 물리적이며 디지털 수준인 약인공지능을 넘어 감성과 자율성을 지닌 인간과 같은 강인공지능의 존재로, 나아가 오히려 인간보다 뛰어난 초인공지능의 로봇으로 진화한다면 이는 인간의 파멸을 가져오는 재앙이 될 것이다. 이러한 초인공지능 로봇에 유전자기술과 나노기술이 결합하여 로보-사피엔스를 만들어 낸다면 이는 인류를 지배하는 새로운 신인류의 출현을 의미하는 것이다. 단지 섹스로봇이나 킬러로봇이 아니라 나아가 스스로 복제하며 재생산해내는 로보-사피엔스는 자율적으로 판단하며 인간에게 명령을 내리는 새로운 지배자가 될 수도 있는 것이다.

인간은 무엇인가. 인간이 하나님의 형상으로 지음 받은 자율성을 지닌 도덕적 존재라면, 로봇은 인간의 형상을 닮은 내재적 자율성을 지닌 준도덕적 존재일 것이다. 어차피 4차 산업혁명의 도래를 막을 수 없다면 지금부터라도 인공지능에 대한 철학적, 사회적, 신학적 물음을 통해 적절한 윤리 가이드라인을 만들고 인간의 형상으로 지음 받은 로봇과 공생하는 길을 터득해야 할 것이다. 아울러 정부도 인공지능과 관련된 논의를 과학발전과 산업적 측면에서만 볼 것이 아니라 인류미래를 결정할 보다 거시적 관점에서 접근해야 할 것이며 이를 총괄할 기구의 출범을 기대하는 바이다.

박상은 국가생명윤리심의委 위원장
트위터페이스북구글플러스