인공지능 개발의 선두 주자라고 할 수 있는 미국에서조차 그 위험성에 대한 경고만 되풀이될 뿐 국가 차원의 대책은 나오지 않고 있다. 2024년 2월, 미국의 민간 기술 전문 영리단체인 글래드스톤에서 미 정부에게 고성능 인공지능의 안전한 개발과 사용을 위한 정책 방향을 제시하는 약 300쪽 길이의 보고서를 발간했다. 미 국무부의 의뢰를 받아 작성한 이 보고서는 고성능 인공지능으로 인해 발생할 수 있는 위험과 그 극복 방안을 다루고 있다.
글래드스톤 보고서는 크게 두 부분으로 나뉘어져 있다. 전반부에서는 인공지능의 무분별한 개발로 인한 여러 재앙적 결과에 대해 경고하고, 이와 관련하여 기술, 정치, 경제 등 여러 분야에 걸쳐 일어날 수 있는 문제들을 심층적으로 분석했다. 후반부에서는 중장기적으로 인공지능의 위험성을 최소화하기 위해 미 정부가 따라야 할 5단계 실행 계획에 대해 기술했다.
보고서의 저자들은 인공지능 산업 내에 팽배해 있는 치열한 경쟁 분위기와 시장 인센티브가 무분별한 개발을 부추기고 있다고 주장한다. 많은 연구소들이 이미 인간의 능력을 넘어서는 인공지능, 즉 인공일반지능(artificial general intelligence, AGI)을 개발하고 있다고 발표한 바 있다. 관련 전문가들은 이대로 간다면 앞으로 “5년 내에 인공일반지능 개발이 가능할 것”이라고 예측한다. AGI의 도래는 인류의 생존을 위협하는 “대재앙 수준의 위험”을 가져올 수 있다.
보고서에 따르면, AGI를 포함한 고성능 인공지능은 두 종류의 대재앙을 불러올 수 있다. 첫째, 고성능 인공지능은 대량살상무기 수준의 자체적인 파괴력, 그리고 대량살상무기를 더욱 강화하는 능력을 가지도록 무기화될 수 있다. 예를 들어 생물무기 설계, 사이버 공격, 허위조작정보 유포 활동 등에 사용돼 대규모 살상 및 사회 혼란을 초래할 수 있다. 둘째, 고성능 인공지능이 인간의 능력을 초월하게 되면 통제가 불가능해질 수도 있다. 인공지능이 항상 개발자의 의도에 부합하여 작동하도록 하는 기술은 현재 존재하지 않는다. 몇몇 고성능 인공지능 시스템은 이미 인간의 지시를 무시하고 주어진 과제와 목표를 우선시하는 행동을 보인 것으로 알려져 있다.
그렇다면 미 정부가 인공지능의 안전하고 책임 있는 개발과 사용을 위해 할 수 있는 일이 무엇인가? 글래드스톤 보고서는 5단계 해법을 제시한다. 첫 단계는 단기적 무기화 위험을 줄이고 무분별한 개발을 제한하기 위해 임시 안전조치 및 담당 조직을 만드는 것이다. 두 번째 단계에서는 부서 간 실무 그룹을 조직하고 교육, 훈련 과정을 마련하여 정부 내 제도적 역량을 높여야 한다. 세 번째 단계에서는 인공지능 안전과 안보에 관한 연구에 투자를 증대하여 정부의 기술적 역량을 다지게 된다. 네 번째 단계에서는 국내 인공지능 규제 기구 및 관련 규제법을 만들어 장기적으로 안전조치가 자리 잡을 수 있도록 한다. 마지막 단계에서는 인공지능 군비 경쟁, 대량살상무기를 사용한 사고나 국가 간 무력 충돌을 방지하기 위해 인공지능 개발과 사용을 통제하는 국제법 및 국제기구를 수립하고 공급망을 안정화하는 것이다. |