2024년은 전 세계 절반 가까운 유권자들이 투표권을 행사하는 ‘슈퍼 선거의 해(Super-Election Year)’이다. 정치적으로 중요한 시기로 점점 더 정교해지는 생성형 인공지능(AI) 기술이 여론 형성과 선거 결과에 어떤 영향을 미칠지도 초미의 관심사다. 민주주의가 후퇴하고 있다는 우려가 커지는 가운데 AI 기술이 선거에 악용돼 민주주의를 훼손시킬 수 있다는 경고가 나오고 있다.
지난 3월 영국의 초당파적 싱크탱크인 Demos는 기존의 ‘선거 신뢰성(electoral integrity)’ 개념을 확장한 ‘민주적 신뢰성(democratic integrity)’의 보호를 강조하며 생성형 AI가 미치는 위협 요인을 완화하는 동시에 어떻게 선용할 수 있을지에 대한 실행 방안을 제안하는 보고서를 발간했다.
최근 생성형 AI의 진화와 더불어 언급되는 주요 이슈는 ‘선거 신뢰성(electoral integrity)’의 확보 문제다. ‘선거 신뢰성’이란 투표의 절차적 공정성과 자유로운 평등 선거를 포괄하는 개념이다. 보고서에서는 이 개념을 확장해 자유롭고 평등한 시민들이 상호 간 이견을 조정하고 합리적으로 권력을 행사하는 ‘민주적 신뢰성’을 지키기 위한 대응 방안에 초점을 맞춘다. 저자들은 민주주의의 근간을 이루는 세 가지 핵심 가치로 ▲평등 ▲진실 ▲비폭력을 제시한다. 민주주의 체제가 온전하게 작동하려면 개인은 서로를 동등한 시민으로 인식하고 타인의 권리를 존중해야 한다. 시민과 정책입안자 간의 진지한 숙의 과정에는 진실성이 전제되어야 한다. 사회 갈등은 선거를 통해 비폭력적으로 해결해야 한다.
보고서는 생성형 AI로 인해 이들 핵심 가치에 새로운 위기가 등장한 것이 아니라, 이미 존재하는 리스크들이 확대되어 민주적 신뢰성을 위협한다고 파악한다. 생성형 AI를 사용하면 성별 및 인종적 차별에 기반한 가짜 뉴스를 생성하고 소외된 집단을 표적으로 삼는 혐오 콘텐츠를 만들어 퍼뜨리는 일이 쉬워진다. 생성형 AI로 대두되는 가장 즉각적인 위협은 거짓이 범람하는 정보 환경을 양산하고 폭력을 부추기며 여론을 조작하는데 악용될 수 있다는 것이다.
보고서에서는 AI 위협으로부터 민주주의를 지키기 위해 올해 예정된 선거에서 적용해야 할 단기 실행 방안과 민주적 신뢰성을 확보하기 위한 장기 비전의 실행 방안을 제안하고 있다. 우선 단기적 방안으로 소셜 미디어 플랫폼에서 AI가 생성하는 유해 콘텐츠를 줄이는 동시에 이용자들이 자신을 보호할 수 있는 역량을 강화하는 쌍방향 노력의 필요성을 제기했다. 개발자는 사용자가 생성할 수 있는 콘텐츠와 생성하지 말아야 할 콘텐츠에 관한 정책을 마련해 공개하고, 합성으로 생성된 모든 콘텐츠에 워터마크를 삽입해야 한다. 소셜 미디어 플랫폼은 기존 정책을 엄격하게 시행하고, AI가 생성한 콘텐츠를 명확하게 식별할 수 있도록 하며, 연구를 위한 데이터를 제공해야 한다. 정책입안자들은 AI 기술이 민주주의에 미치는 위협을 완화할 방법을 평가하고, 이를 이용한 선거 조작 가능성을 최소화하기 위해 기존의 법령을 충분히 활용해야 한다.
민주적 신뢰성을 확보하기 위한 장기적 방안으로는 AI 문해력을 갖춘 대중들이 AI 생성 콘텐츠를 비판적으로 수용할 수 있는 역량 확보가 제기됐다. 이를 위해서는 테크 기업과 정책입안자들 간의 협력, 규제 개혁과 시민 교육 등의 노력이 필요하다. 구체적으로 AI 기업은 AI가 생성하고 증폭시키는 고정관념과 오류를 이해하고 수정하는 데 비용을 투자해야 하며, 소셜 미디어 플랫폼은 생성형 AI 도구를 서비스에 통합하기 전에 위험 평가를 수행하고 이를 공개해야 한다. 기업들은 상호 교차 가능한 워터마크 기술을 개발하고 민주적 신뢰성을 보호하기 위해 정책의 투명성을 보장해야 한다. 공공 및 민간 부문의 자금 지원 기관은 민주적으로 유익한 생성형 AI의 개발을 장려해야 한다. 또한 시민들이 AI에 대한 소양을 갖출 수 있도록 AI 역량 교육을 강화해야 한다. 이러한 장기적 방안을 실행하기 위해서는 정부의 지원이 수반되어야 할 것이다.
저자들은 민주주의의 디지털화와 디지털의 민주화를 통해 정치적 변화와 기술적 변화가 긍정적인 방향으로 진화하는 미래 사회를 장기적 비전으로 제시한다. 정책입안자들과 시민들은 기술과 가치의 상호작용이 만들어내는 방향성을 결정하는 중대한 시대적 책임을 회피해서는 안 된다. 그랬다가는 기술과 기술을 통제하는 사람들이 그 답을 결정짓게 되리라는 것이 저자들의 경고다.
☑️ 안전한 인류의 미래를 위해 AI 기술의 오용과 남용을 막을 통제 장치를 마련해야 한다는 목소리가 커지고 있다. 그러나 자본과 기술적 혁신에 의해 추동되는 AI 연구에 빅테크 기업을 규제할 수 있는 실효성 있는 장치를 마련하는 일은 쉽지 않다. 기존의 기업과 국가 프레임을 넘어서 훨씬 더 많은 이해관계자를 포괄하는 새로운 글로벌 거버넌스가 필요하다.
☑️ AI가 사회에 만연한 편견과 고정관념을 증폭시키거나 역사적으로 유의미한 사실을 왜곡시키는 일이 반복되면 건강한 민주주의의 기반인 사회적 신뢰가 훼손된다. 그러나 구글의 ‘제미나이’ 논란에서도 보이듯 AI에 기계적으로 가치를 주입하여 생성되는 결과물을 교정하려는 시도는 효과적이지 않을 뿐만 아니라 예상하지 못한 다른 부작용을 불러올 수 있다. 이를 방지하기 위해서는 AI 기업이 개발 과정을 투명하게 공개하고, AI가 학습하는 데이터를 엄격하게 통제하는 등 협력에 기반한 장치들이 마련되어야 한다.
☑️ 보고서는 영국 사례를 기반으로 연구를 진행하고 실행 방안을 제시했다. 그러나 세계적으로 권위주의 정권의 비중이 커지고 있으며 생성형 AI를 이용해서 권력을 공고화하려는 시도들도 계속해서 나오고 있다. 민주주의 체제에 대한 연구와 더불어 생성형 AI가 권위주의 정권에 미치는 영향에 대한 연구도 병행되어야 한다.
장기적으로 민주적 신뢰성을 확보할 수 있는 방안 중 하나는 ‘AI 이해 역량을 갖춘 시민의 육성’입니다. 시민의 AI 리터러시를 증진할 수 있는 실질적인 방안은 무엇일까요?