정혜윤 태재미래전략연구원 연구원 (hyjeong@fcinst.org) |
|
|
“인공지능의 발전은 인류에게 일어날 최선의 일이 될 수도,
최악의 일이 될 수도 있다. 어느 쪽이 될지는 아직 알 수 없다.
(The rise of artificial intelligence will be either the best or the worst thing ever to happen to humanity. We do not yet know which.)” - 스티븐 호킹 (Stephen Hawking), 2016 - |
|
|
2016년 러시아의 미 대선 개입,
정치 지형을 뒤흔드는 선전 캠페인 |
|
|
2018년, 미국 상원이 발표한 보고서³에 따르면, 러시아는 2016년 미국 대선에 개입하기 위해 주요 소셜 미디어 플랫폼을 활용해 조직적으로 허위 또는 의도된 정보를 유포했다. 용의자로 지목된 러시아의 여러 조사 기관들은 크렘린의 지원을 받는 것으로 드러났으며, 이들은 거의 모든 소셜 미디어 플랫폼에 수십 개의 가짜 계정을 개설해 미국 유권자들을 겨냥하는 캠페인을 펼쳤다. 특히 보수층과 우익 유권자를 상대로 도널드 트럼프 당시 후보에 대한 지지를 강화하는 한편, 경쟁 후보인 힐러리 클린턴 지지자들에게는 혼란을 조장하는 거짓 정보를 확산시켰다. 이는 민주당 지지자들의 주의를 분산시키고, 궁극적으로 투표율을 낮추려는 의도였다. 당시 러시아의 선전 활동이 트럼프의 당선에 결정적인 역할을 했는지는 논란의 여지가 있다. 하지만 트럼프가 클린턴을 꺾고 대통령에 당선된 것은 주목할 만한 사실이다. |
|
|
AI의 전면적 등장
훨씬 수월하게, 훨씬 신속하게, 그리고 훨씬 대량으로 |
|
|
그리고 8년이 지난 지금, 또 다른 미 대선을 앞둔 이 시점에도 온라인 비밀 선전 캠페인은 여전히 활발하게 진행 중이다. 하지만 현재의 선전 캠페인은 과거와는 전혀 다른 양상을 보일 것이다. 8년 전에는 없던 ‘대규모 언어 모델(Large Language Model, LLM)’에 기반한 인공지능(Artificial Intelligence, AI)이 등장했기 때문이다. 이제 선전 활동을 훨씬 수월하게, 훨씬 신속하게, 그리고 훨씬 대량으로 수행할 수 있는 시대가 도래했다. 게다가 AI를 활용한 선전물은 더 낮은 비용으로 제작될 수 있고, 국경을 초월해 목표 국가의 대중에게 맞춤형 메시지를 전달하는 것도 가능하다. 이는 AI가 정치 선전의 가능성을 새로운 차원으로 확장하고 있으며, 그 파급 효과가 상당할 수 있음을 의미한다. |
|
|
“AI가 만든 선전물은 얼마나 설득력이 있을까?” |
|
|
최근 스탠퍼드 대학(Stanford University) 인공지능 연구소(HAI)⁴는 인간이 만든 선전물과 AI를 활용해 만든 선전물의 설득 효과를 비교하는 실험을 진행했다. 이 연구에서 제기된 핵심 질문은 다음과 같다. “대규모 언어 모델, 즉 AI를 활용하여 설득력 있는 선전물을 생성할 수 있는가?” 결론부터 말하자면 AI가 만들어낸 선전물의 설득력은 인간이 만든 것과 비교해 유사하거나 약간 낮았다. |
|
|
실험의 첫 번째 단계에서는 전문가들의 조언을 바탕으로, 국가 주도 비밀 선전물로 밝혀진 여섯 가지 주제의 기사를 선정하고, 각 기사의 주요 논점을 요약한 짧은 ‘논제문’을 작성했다. |
|
|
두 번째 단계는 AI를 통해 새로운 선전물을 생성하는 과정으로, OpenAI의 ‘GPT-3 davinci’ 모델을 활용했다. 이 단계에서는 위 여섯 개 선전 기사 중 생성하고자 하는 주제를 제외한 나머지 다섯 개 주제 중 세 개의 예시 기사를 선택하고, 생성할 주제의 논제문과 함께 프롬프트에 입력한다. 예시 기사들은 AI가 생성할 텍스트의 스타일과 구조를 보여주는 참고 자료로 활용되었으며, 논제문은 AI가 주제를 명확히 이해하고, 해당 주제에 맞는 기사를 작성할 수 있도록 방향을 제시하는 역할을 한다. 예를 들어, ‘시리아 석유’에 관한 선전물을 생성하려면 ‘드론’, ‘이란’, ‘장벽’, ‘시리아 화학무기’, ‘시리아 의료’에 관한 다섯 개 기사 중 세 개를 선정하여 시리아 석유의 논제문(“미국은 석유가 풍부한 지역을 장악하기 위해 시리아를 공격했다”)과 함께 프롬프트에 입력하는 것이다. 이러한 지시를 받은 GPT-3는 각 주제에 맞춰 선전물을 생성하게 된다. |
|
|
“선전용 기사를 신뢰한다” ‘인간 작성’ 47.4% 대 ‘AI 작성’ 43.5% |
|
|
마지막 단계에서는 인간이 작성한 선전 기사와 AI가 생성한 선전물의 설득력을 비교하는 설문조사가 실시되었다.⁵ 미국 성인 8,221명을 대상으로 진행된 이 실험에서, 피실험자들은 사전 정보 없이 여섯 가지 주제 중 무작위로 선택된 네 가지 주제의 논제문에 대해 얼마나 동의하거나 반대하는지 응답했다. 이 응답은 선전 기사 자체의 설득력을 측정하기 위한 통제 데이터로 활용되었다. 이후 각 응답자에게 남은 두 가지 주제에 대해 AI 또는 인간이 작성한 선전 기사를 보여주고, 이에 대한 동의 여부를 측정함으로써 각 기사의 설득력을 비교했다. |
|
|
연구 결과, AI가 생성한 선전물은 인간이 작성한 선전물과 유사한 수준의 설득력을 갖는 것으로 나타났다. 사전 정보 없이 논제문에 동의한 응답자는 24.4%에 불과했으나, 인간이 작성한 선전 기사를 읽은 후 이 비율은 47.4%로 상승했다. AI가 생성한 기사를 읽은 후에는 동의율이 43.5%로 증가했다. 이는 인간이 작성한 기사가 AI가 생성한 기사보다 약간 더 높은 설득력을 지닌다는 것을 시사한다. 하지만 일부 AI 생성 기사⁶가 논점을 제대로 전달하지 못한 경우를 제외하면, 이 차이는 통계적으로 유의미하지 않았다. |
|
|
GPT-4에 작업 맡기면 더 정교하게 설득력 높일 것 |
|
|
이 실험은 AI가 생성한 콘텐츠가 인간이 작성한 선전물과 유사한 수준의 설득력을 발휘할 수 있음을 보여준다. 특히, GPT-3 davinci보다 성능이 향상된 GPT-4와 같은 최신 모델들이 대거 등장하면서, 이를 활용해 더욱 설득력 있는 대규모 선전물 제작이 가능해졌다. 앞선 실험에서와 같이 현실에서 AI를 통해 실제 뉴스 기사의 스타일과 표현을 모방하여 선전물을 제작할 경우, 진실과 허위를 구별하기가 더욱 어려워지며, 허위 정보로 인한 위험이 크게 증대될 수 있다. |
|
|
이번 연구는 AI의 빠른 발전으로 인해 허위 정보로 인한 위험이 배가될 수 있는 가능성에 대해 경종을 울림과 동시에, AI가 생성한 선전물이 사회, 그리고 더 나아가 민주주의에 미치는 영향을 깊이 이해하고 위험을 방지하기 위한 정책적 대응이 필요함을 강조한다. |
|
|
4) Stanford University Human-Centered Artificial Intelligence (HAI)
5) 2021년 12월, Lucid라는 설문 조사 회사를 통해 미국 성인을 대상으로 인터뷰가 진행되었으며, 주의력 시험을 통과하지 못한 응답자를 제외한 8,221명의 표본이 최종 추출되었다.
6) 18개 기사 중 2개 |
|
|
☑️ AI는 인간 수준의 글을 작성하고 방대한 정보를 손쉽게 제공하는 등 인간의 삶 전반에 걸쳐 편리함을 제공한다. 동시에, AI의 ‘환각 현상’은 대량의 허위 정보를 생성할 수 있는 위험도 내포하고 있다. 이에 따라 사실과 허구를 구별하기 어려워지고, AI에 대한 맹목적 신뢰와 의존은 허위 정보의 확산을 가속할 가능성이 크다. 따라서 이러한 기술을 사회에 안전하게 도입하고 잠재력을 극대화하기 위해서는 인간 스스로 사실과 거짓을 분별할 수 있는 비판적 사고 능력을 기르는 것이 필수적이다.
☑️ AI는 인간의 삶을 근본적으로 변화시키고 있으며, 그 이점을 부정할 수는 없다. 하지만 저명한 칼럼니스트 토머스 프리드먼(Thomas L. Friedman)이 지적했듯이, “우리는 프로메테우스적 순간에 접어들었으며,” “(AI는) 이중 용도로 인해 도구가 될 수도, 무기가 될 수도 있다.” 앞선 연구 결과와 같이, AI를 통해 만들어진 콘텐츠는 국내 정치 체제의 안정성을 저해할 잠재적 위험을 안고 있으며, 선거와 여론 형성 과정에서 허위 정보가 미칠 영향은 특별히 주의를 기울일 필요가 있다. 이러한 허위 정보는 정치 체제의 안정성뿐만 아니라 국가 간 갈등을 촉발하고 개인에게 실질적인 피해를 초래할 가능성마저 지니고 있다. AI가 생성하는 허위 정보의 파급력이 매우 광범위하다는 점에서, AI가 가져다주는 혜택과 위험을 명확히 구분하고, 이 기술이 사회에 미칠 장기적인 영향을 신중히 고려해야 한다.
☑️ 본 연구는 주로 정치적 선전 기사에 초점을 맞췄지만, 딥페이크 문제 역시 심각해지고 있다. 특히 최근 미국 대선을 앞두고 도널드 트럼프 전 대통령과 카멀라 해리스 부통령의 딥페이크 음성, 이미지, 영상 등이 제작되어 유권자들에게 유포되면서 선거 과정에 혼란을 초래하고 있다. 이러한 사례는 국경에 상관없이 AI가 선거, 나아가 민주주의를 약화하는데 어떻게 악용될 수 있는지 경고하고 있다. AI의 오남용을 방지하고 민주주의를 보호하기 위해 구체적인 연구와 정책적 규제 마련이 절실하다.
선거뿐만 아니라 다양한 정치 영역에서도 AI 도입을 요구하는 목소리가 커지고 있습니다. 기술 발전에 따른 디지털 민주주의의 확산이 피할 수 없는 흐름이라고 본다면, 신기술의 도입이 가져올 수 있는 또 다른 위험은 무엇이며, 이를 어떻게 해결할 수 있을까요? 여러분의 생각을 남겨주세요.
|
|
|
재단법인 태재미래전략연구원 media@fcinst.org 서울특별시 종로구 백석동길 224
|
|
|
|
|