EPTA, “Artificial Intelligence and Democracy" 2024년 노벨경제학상을 수상한 대런 애쓰모글루는 『권력과 진보』에서 기술 발전이 곧 진보를 의미하지는 않는다며, 기술이 사회에 미치는 영향을 결정짓는 ‘정책 선택’의 중요성을 강조했다. 기술 그 자체보다, 기술을 다루는 인간의 선택이 중요하다는 것이다. |
|
|
AI는 기술의 혁신성, 생산성, 범용성(General Purpose Technology, GPT)에서 인류의 역사를 또 한 번 퀀텀 점프시킬 수 있다는 평가를 받는다. 하지만 다루기에 따라 전쟁을 일으키고, 딥페이크나 교묘한 가짜뉴스로 정치와 선거를 타락시키는 등 위험 요인도 크다. 정부나 공공영역에서 이런 일이 벌어진다면 감당하기 힘들어질 것이다. 기술과 규제의 균형이 다른 어떤 분야보다 중요한 이유다. |
|
|
지난 10월 EPTA에서 발간한 보고서 “Artificial Intelligence and Democracy”는 이와 관련된 유럽의 움직임을 담고 있다. EPTA는 유럽의회의 ‘기술영향평가(European Parliamentary Technology Assessment)’ 그룹이다. 주로 신기술이 가져오는 사회적, 경제적, 환경적 영향을 분석하고 대응 정책을 제시하는 역할을 한다. 이번 보고서는 지난 10월 EPTA 회의에 보고됐다. |
|
|
이 보고서는 유럽 내 19개 회원국의 각종 정부 기관이 AI 기술을 어떻게 활용하고 있는지 종합 분석한다. 이를 ▲정부 ▲선거 ▲거버넌스 부문으로 나눠 살펴본다. |
|
|
‘실질 생산성 하락’에 직면한 EU
생산성 올릴 수단은 AI |
|
|
현재 유럽은 고령화와 노동인구 감소 등으로 ‘실질 생산성 하락’이라는 심각한 도전에 직면해 있다. 여기에다 러시아의 우크라이나 침공으로 인한 안보 부담이 커졌다. 탄소배출 감축이라는 글로벌 과제에도 보조를 맞춰야 한다. 유럽이 현재의 사회모델을 유지하면서도 이런 도전들에 대응하려면 경제 성장이 필수적이다. 유럽 정부들은 AI를 그 핵심 경로로 생각하며 다양한 층위의 접목을 시도하고 있다. ‘AI 리스크’를 최소화하기 위한 노력도 동시에 진행하고 있다. |
|
|
프랑스 의회 법안 요약 모델 개발 15분 만에 1만 개 이상 법안 처리
|
|
|
보고서는 AI 기술을 의회와 공공부문에 도입하여 생산성을 높인 다양한 사례를 제시한다. 의회에서 음성 인식 시스템을 도입하여 회의록 작성과 번역 등 단순 업무의 효율을 증대시키는 것부터 방대한 양의 자료를 AI 모델로 학습시켜 법안 분석 및 요약, 행정 문서 처리, 정책 의사결정 지원 등으로 활용 범위를 확장한 사례들이 있다. 예를 들어, 프랑스 정부는 마이크로소프트와 협력해 메타의 언어 모델 Llama 2에 기반한 “LLaMandement”를 개발했다. 2024년 2월 예산안 작업에서 처음 도입된 이 모델은 단 15분 만에 1만 개 이상의 법안 내용을 요약하고 의견을 제시하며, 이를 적합한 정부 기관에 보낼 수 있다. 프랑스는 앞으로 이 모델의 사용 범위를 정부 부처와 의회 위원회 등으로 확대할 계획이다. 노르웨이 외교부 역시 연간 6,000건 이상의 해외 공관 보고서를 분류, 요약, 검색하는 데 AI를 활용하고 있다. 덴마크 지방정부협의회는 KommuneGPT라는 자체 GPT 모델 개발을 시작했으며, 각 지방정부의 데이터를 학습하여 법안, 행정 지침, 지방정부 의결 내용을 분석하고 학습함으로써 지방정부의 효율성을 높이고 정책의 질을 개선하는 것을 목표로 하고 있다. |
|
|
프랑스는 2021년부터 인공위성으로 이미지를 분석하는 AI 시스템을 도입해 허가받지 않은 건축물을 감지하고 세금을 부과하고 있다. 이 시스템은 2023년에만 허가받지 않은 수영장들로부터 부동산세로 약 4,000만 유로를 징수하는 데 성공했다. 생성형 AI 기술을 활용해 다양한 기관에서 챗봇 상담 시스템을 구축한 사례도 있다. 노르웨이 도로청은 안내용 챗봇을 개발하였으며, 국세청 또한 시민들에게 세무 상당을 효과적으로 제공하기 위해 유사한 프로젝트를 진행하고 있다. 스위스는 이탈리아어 프랑스어 독일어 로만슈어 등 4개 공용어를 공공 부문 회의 과정에서 호환 통역하는 시스템을 도입했다. 덴마크는 정부 조달 입찰에 AI를 통합하기 위해 코파일럿을 도입했다. 오스트리아는 정부 부처별로 맞춤형 챗GPT를 도입했다. |
|
|
환각 현상과 편향성 문제에서 자유롭지 못한 언어 모델을 공공부문에 도입하는 과정에서 부작용이 발생하기도 한다. 오스트리아의 공공고용서비스(AMS)는 직무 프로필, 교육 기회, 급여 수준, 직업 훈련 및 유사한 직업 관련 주제에 대한 질문들에 대답할 수 있는 AI 챗봇을 내놓았으나 곧 거센 반발에 부딪혔다. 기술적 결함과 보안 문제는 물론 답변이 편향되어 있다는 비판을 받았다. 특히 청년들에게 직업을 추천해 주는 답변에서 젠더 편향성이 두드러지게 나타났다. |
|
|
오스트리아 사례처럼 AI와 행정서비스를 통합하는 일은 쉬운 일이 아니다. GPT의 기반인 대규모언어시스템(LLM)은 작동 원리가 불투명하다. 연구 및 개발자들조차 기능과 작동 방식을 이해하는 데 어려움을 겪는다. 환각과 편견에 빠지기도 쉽다. 오스트리아 사례가 AI와 행정서비스 통합의 어려움을 보여준다. |
|
|
이런 문제들 때문에 유럽 정부들은 다양한 방식의 보완 시도와 함께 가이드라인을 만들고 있다. ‘EU 인공지능법’과 미국 국립과학기술연구소 AI안전연구소는 공격자가 AI에 내장된 안전장치를 우회하는 방법을 사용할 경우에 대비, 시뮬레이션팀(레드팀) 운영을 권고하고 있다. |
|
|
네덜란드의 경우, 공공부문에 생성형 AI를 도입하기 전에 데이터 보호와 알고리즘 영향력 평가를 의무화하고 있다. 기준을 충족하지 못한 챗GPT와 미드저니는 원칙적으로 공공부문에서 사용이 금지된다. |
|
|
AI 아바타로 정책 설명 딥페이크 역정보 문제도 심각
|
|
|
민주 사회를 유지하기 위해서는 민주적 절차의 정당성, 법치주의, 책임감, 차별 없는 평등이 철저히 지켜져야 하며, 바람직한 거버넌스와 주권이 보호되고 발전해야 한다. AI 기술과 관련해서는 개인의 데이터와 사생활이 철저히 보호되어야 한다. 생성형 AI 기술이 일상으로 밀접하게 들어올수록 민주적 원칙과 가치를 지키기 위한 새로운 정책의 도입 필요성이 더욱 커진다. |
|
|
2024년은 세계 유권자의 절반이 투표권을 행사하는 ‘선거의 해’였다. 세계 여러 곳에서 AI를 선거에 활용하는 사례가 보고되었다. 스위스에서는 언어장애가 있는 정치인이 AI를 만들어 자신의 어젠다를 말로 설명했다. 일본 고이케 유리코 도쿄도지사는 자신을 닮은 AI 뉴스캐스터가 정책과 공약을 실시간으로 설명하도록 했고, 네덜란드 하원에서는 생성형AI가 연설의 핵심을 추출해서 설명했다. |
|
|
보고서는 AI가 선거 결과에 미치는 영향은 아직 불명확하다고 지적하면서도, 생성형 AI 기술을 활용한 딥페이크와 역정보(disinformation: 고의성을 지니고 유포되는 허위 정보)의 위험성에 주목했다. 덴마크에서는 2024년 4월 극우 성향의 덴마크국민당이 메테 프레데릭센 총리가 ‘크리스마스와 부활절 등의 공휴일을 폐지하고 라마단이 끝나는 날을 기념하는 이드 알피트르(Id al-Fitr)를 덴마크의 유일한 공휴일로 지정한다’고 말하는 딥페이크 영상을 올려 논란을 일으켰다. |
|
|
디지털 회복탄력성(digital resilience)을 어떻게 기를 것인가
|
|
|
보고서는 민주주의를 위협하는 역정보를 막기 위해서는 하나의 포괄적인 규제보다 디지털 회복탄력성(digital resilience)을 높일 수 있는 여러 정책 조합을 동시에 도입하는 것이 더 효과적이라고 강조한다. 디지털 회복탄력성은 한 사회에서 AI를 포함한 디지털 부문에서 문제가 생겼을 때 시스템을 회복되는 능력을 뜻한다. |
|
|
이를 위해 각국의 의회와 정부는 가능한 모든 정책적 도구를 활용하고 있다. 프랑스는 2024년 5월 AI의 정치적 활용을 규제할 수 있도록 디지털공간규제법(SREN)을 개정했다. 스페인에서는 6월에 딥페이크를 범죄화하는 법이 입안되었다. 스웨덴은 2022년부터 국방부 산하 심리전 부서(Psychological Defence Agency)를 운영하고 있으며, 영국 정부는 2023년부터 역정보대응단(Counter Disinformation Unit)을 설립하여 온라인상의 역정보를 관리하고 있다. |
|
|
AI 기술을 활용한 경쟁력 강화와 함께 민주적 통제를 강화하기 위한 거버넌스 체제도 구축하고 있다. 프랑스는 사상 처음으로 AI 부서를 신설하고 장관을 임명했으며, 스페인은 AI 감독청(AESIA)을 통해 AI 도입에 대한 관리와 개선을 추진하고 있다. 영국 역시 AI 안전연구소를 설립해 AI 기술의 위험을 평가하고, 이를 바탕으로 거버넌스 연구를 진행하고 있다. 스페인, 폴란드, 스위스, 노르웨이 등 여러 국가는 자국의 언어와 데이터를 기반으로 개발된 거대언어모델(LLM)의 중요성을 인식하고, 관련 개발을 지원하고 있다.
|
|
|
☑️ 생성형 AI는 허위 정보와 역정보의 생성과 유포 속도를 급격히 증가시키며, 건강한 민주주의에 필수적인 정보 생태계를 심각하게 위협할 수 있다는 우려가 지속적으로 제기된다. 이러한 상황에서 디지털 회복탄력성을 높이는 다양한 정책을 동시에 도입해야 한다는 주장은 의미가 깊다. 혁신과 규제는 양자택일의 문제가 아니며, 민주 사회의 근간을 지키면서도 혁신을 저해하지 않는 세심한 정책적 접근이 필요하다. 이 과정에서 민주적 가치와 기술 발전이 어떻게 조화를 이룰 수 있을지에 대한 사회 각계의 고민이 모아져야 한다.
☑️ 프랑스의 인공위성 이미지 분석 사례처럼, 한국의 정부 부처에서도 AI 기술을 활용한 혁신 사례가 늘고 있다. 예를 들어, 한국수자원공사는 최근 ‘스마트 물 관리’ 분야에서 AI 정수장 국제표준화를 제안하며 긍정적인 평가를 받았다.² 그러나 여전히 행정적 차원에서 AI 기술 도입은 미비한 상황이다. 의회와 정부 차원에서는 AI 도입과 활용을 위한 명확한 규범 마련과 필요한 인프라 구축이 시급하다.
☑️ AI 기술은 단순히 생산성을 향상시키는 도구일 뿐만 아니라, 공공 부문에서의 민주적 통제와 거버넌스를 강화하는 중요한 역할을 할 수 있다. AI 기술을 민주주의적 가치와 상호 보완하는 방향으로 활용하려면, 기술의 잠재적인 부작용을 예방하기 위한 규제와 법적 장치가 반드시 마련되어야 한다. 이는 정부와 의회가 협력하여 구현해야 할 핵심 과제다. 정부는 AI 시스템을 공정하고 비편향적으로 운영할 수 있도록 감독하고, 그 과정에서 발생할 수 있는 문제를 효과적으로 해결할 수 있는 체계를 갖춰야 한다.
☑️ 이번 비상계엄 사태에서도 드러나듯이 민주주의의 가치를 엄호하는 것은 사회의 안정과 번영을 유지하는 데 무엇보다 중요하다. 만약 AI 기술이 여기에 끼어들었으면 어떻게 되었을까? 기술이 실생활에 들어왔을 때 가질 수 있는 함의를 긍정적·부정적 측면에서 모두 면밀히 살펴보고 대비해야 한다.
한국의 환경에서 디지털 회복탄력성을 높이고 정부 효율성을 제고할 수 있는 정책은 어떤 것이 있을까요? 태재미래전략연구원은 여러분의 제안을 기다립니다.
|
|
|
재단법인 태재미래전략연구원 media@fcinst.org 서울특별시 종로구 백석동길 224
|
|
|
|
|