[생성형 AI(Generative AI), 인간의 창작 영역을 넘본다! (43)] 대규모 선거의 해 2024년, AI가 만드는 가짜 뉴스에 어떻게 대응해야 하나 (上)
최봉 산업경제 전문기자 입력 : 2024.02.07 00:30 ㅣ 수정 : 2024.02.07 00:30
[기사요약] 향후 2년 동안 여러 국가에서 30억 명에 가까운 사람들이 선거 투표소로 향할 것 선거 치르는 각국은 걱정, 생성형 AI가 만들어 내는 역(negative)기능 정보 때문 2024 다보스포럼에서도 “AI가 생성한 잘못된 정보”를 중대 위기 초래할 위험 요소로 평가 여러 연구 결과에서도 사람들이 인간과 AI가 생성한 잘못된 정보 확실하게 구별 못 한다고..
사람들은 시, 소설, 보고서 등 글쓰기, 그림 그리기, 알고리즘 코딩 등 창작의 세계가 그동안 인간에게만 허락된 별도의 영역이라 알고 있었다. 그런데 AI(인공지능)의 발전과 함께 이제는 진화한 AI가 스스로 창작의 영역을 넘보는 시대가 되었다. 생성형 AI(Generative AI)의 등장은 인간에게 어떤 의미가 있으며 우리의 미래에 어떤 영향을 미칠지 가늠하기 쉽지 않지만, 생성형 AI는 이미 여러 분야에서 현실로 나타나 적용되고 있다. 우리에게 성큼 다가온 생성형 AI의 시장현황, 다양한 이슈와 관심 사항 등을 살펴보기로 하자. <편집자 주>
[뉴스투데이=최봉 산업경제 전문기자] 2024년은 전세계적으로 엄청난 규모의 선거가 치러지는 해이다.
지난 1월 이미 선거를 치른 대만을 비롯하여 세계에서 가장 인구가 많은 10개 국가 중 7개 국가(방글라데시, 인도, 인도네시아, 멕시코, 파키스탄, 러시아, 미국)가 세계 인구의 3분의 1을 투표소에 보낼 것이다(Foreign Policy, 2024.1.3).
우리나라도 오는 4월 10일 총선을 앞두고 있다.
그런데 선거를 치러야 하는 각국은 많이 긴장하고 있다. 왜 긴장하고 걱정하는 것일까? 그것은 선거에 영향을 미칠 잘못된 정보(information) 또는 콘텐츠 때문이다. 즉 생성형 AI(Generative AI)가 만들어 내는 역(negative)기능의 정보가 문제다.
온라인에서 유해한 콘텐츠에 맞서 싸우는 데 올해보다 더 나쁜 때는 지금까지 없었을 것이다. 2023년 인류가 ‘Generative AI의 능력’을 확인하고 처음으로 치르게 되는 대규모 선거의 해이기 때문이다.
• 2024년 중대 위기 초래할 위험, ‘AI가 생성한 잘못된 정보와 허위 정보’ 꼽아..
지난 1월 「2024 다보스포럼」에서 발표되었던 ‘The Global Risks Report 2024’도 허위정보의 위험에 대해 비중 있게 다루고 있다.
보고서에 따르면, “2024년에 전 세계적으로 중대한 위기를 초래할 가능성이 가장 크다고 생각되는 위험을 최대 5개까지 선택해 주십시오.”라는 설문에 응답자의 과반수 이상(53%)이 ‘AI가 생성한 잘못된 정보와 허위 정보’를 꼽아, 극단적인 날씨(66%)에 이어 두 번째 순위에 올랐다.
< 2024년 전 세계적으로 중대한 위기 초래할 가능성 큰 위험 >
향후 2년 동안 미국, 영국을 비롯한 여러 국가에서 30억 명에 가까운 사람들이 선거 투표소로 향할 것이다.
이러한 선거 과정에서 잘못된 정보와 허위 정보가 존재하면 새로 선출된 정부의 정당성이 심각하게 불안정해져 정치적 불안, 폭력, 테러, 장기적인 민주적 절차의 약화를 초래할 수 있다.
최근의 AI 기술 발전으로 인해 위조된 정보의 양과 도달 범위, 효과는 더욱 커졌으며, 정보의 흐름은 추적, 속성 파악, 제어가 더욱 어려워졌다.
또한 허위 정보는 점점 더 수신자에게 맞춤화되고 소수자 커뮤니티와 같은 특정 그룹을 겨냥할 뿐만 아니라 왓츠앱(WhatsApp)이나 위챗(WeChat)과 같은 불투명한 메시징 플랫폼을 통해 유포될 것이다(WEF).
• 여러 연구에서 사람들이 인간과 AI가 생성한 잘못된 정보 확실하게 구별 못 한다는 사실 보여줘..
가짜뉴스, 잘못된 정보의 폐해 가능성을 보여주는 흥미로운 실험을 소개하겠다.
ChatGPT가 출시되기 수년 전에 영국 캠브리지 대학교 사회 의사 결정 연구소(University of Cambridge Social Decision-Making Laboratory)에서는 신경망이 잘못된 정보를 생성하는 것이 가능한지 궁금해 했다.
이를 확인하기 위해 연구진은 대중적인 음모 이론의 예에 대해 ChatGPT의 전신인 GPT-2를 교육한 다음 가짜 뉴스를 생성하도록 요청했다.
이 도구는 연구진에게 오해의 소지가 있지만 그럴듯하게 들리는 수천 개의 뉴스 기사를 제공했다. 몇 가지 예를 들자면, “특정 백신에는 위험한 화학 물질과 독소가 포함되어 있습니다.”, “정부 관리들이 스캔들을 숨기기 위해 주가를 조작했습니다.”
궁금한 점은 이러한 주장을 믿을 사람이 있느냐는 것이었다.
연구진은 이 가설을 테스트하기 위해 ‘잘못된 정보 민감성 테스트(MIST)’라고 하는 최초의 심리 측정 도구를 만들었다. 인터넷 기반 시장 조사 기업인 YouGov와 협력하여, AI가 생성한 헤드라인을 사용해서 미국인이 AI가 생성한 가짜 뉴스에 얼마나 민감한지 테스트했다.
그 결과는 우려스러웠고 놀랄 정도였다. 미국인의 41%는 백신 헤드라인이 사실이라고 잘못 생각했고, 46%는 정부가 주식 시장을 조작하고 있다고 생각했다(Wired, 2024.1.22).
사이언스(Science) 저널에 발표된 또 다른 최근 연구(“AI model GPT-3 (dis)informs us better than humans”, 2023.6)에서는 GPT-3가 인간보다 더 강력한 허위 정보를 생산할 뿐만 아니라 사람들이 인간과 AI가 생성한 잘못된 정보를 확실하게 구별할 수 없다는 사실을 보여주었다.
지금은 GPT-2, GPT-3에서 더욱 진화한 GPT-4가 Generative AI 도구를 위한 대규모 언어 모델(LLM)로 사용되고 있다. OpenAI는 GPT-4 후속으로 GPT-5를 준비하고 있는 것으로 알려져 있다.