‘챗GPT’ 만든 오픈AI CEO “AI 무섭나” 질문에 “약간 그렇다”

오픈AI 최고경영자(CEO) 샘 올트먼이 지난 17일(현지시간) ABC방송과 인터뷰를 하고 있다. ABC방송 캡처

생성형 인공지능(AI)인 챗GPT가 불러올 변화를 두고 기대와 함께 우려가 제기되고 있다. 챗GPT를 개발한 오픈AI의 최고경영자(CEO) 샘 올트먼은 “AI는 인류가 개발한 기술 가운데 가장 위대한 기술이 될 수 있다”면서도 “우리가 AI 기술을 조금 두려워하고 있다는 점에 기뻐해야 한다고 생각한다”고 지난 17일(현지시간) ABC방송 인터뷰에서 밝혔다. 이어 진행자가 “당신은 (AI가) 조금 무서운가”고 묻자, 그는 “약간 그렇다”면서 AI 고도화에 따른 위험을 인정했다.

올트먼은 AI 기술이 허위정보를 대규모로 유포하는 데 쓰이거나, 사이버 공격에 악용될 가능성을 우려했다. 그는 “어떤 사람들은 (AI 사용에 있어) 안전장치 등 제한을 두지 않을 수도 있다. 그런 이들을 사회가 어떻게 통제할지 생각해내야 하는데, 그럴 수 있는 시간은 제한돼 있다”고 말하기도 했다. 올트먼은 챗GPT라는 성과에 만족하는 한편, AI가 위험하게 이용될 수 있다는 가능성 때문에 밤잠을 이루지 못한다고 털어놨다. 그러면서 “어떤 분야에서든 사용자는 챗GPT를 일종의 ‘부조종사(코파일럿, co-pilot)’로 생각하기를 바란다”고 했다.

학계에서도 생성형 AI의 정보 오류나 편향성 등 부작용을 걱정한다. 네이처는 “과학계에서 오픈AI가 업그레이드된 GPT-4 모델을 어떤 데이터로 어떻게 훈련시키는지에 대한 구체적 내용을 비밀에 부치는 것에 불만을 표한다”고 보도했다. 특히 학계에선 빅테크 기업 중심으로 AI 시스템을 보유하는 경향이 심해지는 점을 비판한다. 과학자들의 기술 검증 필요성을 주장한다.

또한 최근 ‘레드팀’ 자격으로 GPT-4의 악용 가능성을 실험한 한 화학 엔지니어는 GPT-4에 전문 지식이나 기술 등을 입력하자 “갑자기 새로운 종류의 능력이 나타났다”고 네이처에 전했다. 이러한 능력은 GPT를 이용해 위험한 화학물질을 만들 수 있다는 우려로도 이어진다. 다만 해당 엔지니어는 이런 실험 결과를 오픈AI 측에 전달했고, 오픈AI에서 GPT-4 모델이 위험하거나 불법적 컨텐츠를 생성하는 갈 막는 조치를 취하고 있다고 한다.

조민아 기자 minajo@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지

국민일보 신문구독
트위터페이스북구글플러스