[생성형 AI(Generative AI), 인간의 창작 영역을 넘본다! (44)] 대규모 선거의 해 2024년, AI가 만드는 가짜 뉴스에 어떻게 대응해야 하나 (中)

최봉 산업경제 전문기자 입력 : 2024.02.13 00:30 ㅣ 수정 : 2024.02.13 00:30

[기사요약]
딥페이크(deepfake)로 알려진 ‘조작된 이미지, 비디오 및 오디오’가 선거 캠페인 광고에 등장
슬로바키아 선거, 미국 대선 등 관련 딥페이크, AI가 민주주의에 얼마나 위험 가할 수 있는지 보여줘..
가짜 콘텐츠 더 많이 볼수록 그것을 진짜로 기억할 가능성 더 커져..
설득력 있어 보이는 딥페이크, 훨씬 더 널리 공유되고 믿어질 수 있어
딥페이크의 또 다른 위험, 불확실성 심는다는 점 지적

  • 카카오스토리
  • 네이버밴드
  • 페이스북
  • 트위터
  • 글자크게
  • 글자작게

사람들은 시, 소설, 보고서 등 글쓰기, 그림 그리기, 알고리즘 코딩 등 창작의 세계가 그동안 인간에게만 허락된 별도의 영역이라 알고 있었다. 그런데 AI(인공지능)의 발전과 함께 이제는 진화한 AI가 스스로 창작의 영역을 넘보는 시대가 되었다. 생성형 AI(Generative AI)의 등장은 인간에게 어떤 의미가 있으며 우리의 미래에 어떤 영향을 미칠지 가늠하기 쉽지 않지만, 생성형 AI는 이미 여러 분야에서 현실로 나타나 적용되고 있다. 우리에게 성큼 다가온 생성형 AI의 시장현황, 다양한 이슈와 관심 사항 등을 살펴보기로 하자. <편집자 주>

 

image
[출처=foreign policy]

 

[뉴스투데이=최봉 산업경제 전문기자] 선거를 둘러싼 조작된 이미지와 비디오는 새로운 뉴스거리가 아니다.

 

하지만 2024년은 단 몇 번의 클릭만으로 단숨에 설득력 있는 가짜를 생성할 수 있는 정교한 AI 도구가 선거에 적극 활용될 가능성이 큰 한 해가 될 것이다.

 

딥페이크(deepfake)로 알려진 조작된 이미지, 비디오 및 오디오 ‘작품’이 선거 캠페인 광고에 등장하고 있다. 더 사악한 버전이 소셜 미디어에 꼬리표 없이 쉽게 확산되어 선거 며칠 전에 사람들을 속일 수도 있다.

 

image
[출처=biznews]

 


• 딥페이크(deepfake), 선거 캠페인 도구로 등장해 유권자 속일 수도..

 

지난 1월 미국 뉴햄프셔주 대통령 예비선거 유권자들은 조 바이든 대통령이 선거에 참여하지 말라고 말하려는 듯한 자동녹음전화를 받았다.

 

녹음 파일에는 “이번 화요일(1월 23일) 투표는 공화당이 도널드 트럼프(전 대통령)를 다시 선출할 수 있는 기회를 제공할 뿐입니다.”라고 기록되어 있었다.

 

그것은 알고리즘이 사람의 얼굴이나 음성 ‘쪼가리’를 대조하고, 그로부터 학습하고, 한 번도 하지 않은 일을 말하는 대상으로 가장하는 생성형 AI(Generative AI)의 한 형태인 딥페이크였다.

 

전문가들은 그것이 얼마나 설득력 있는 것처럼 보였는지에 놀랐다. 이에 대해 한 전문가는 “허위 정보, AI가 생성한 음성, 대통령 사칭, 본질적으로 불법 활동인 투표 방해 등 다수의 위험한 것들이 하나로 결합되어 있습니다.”라고 언급했다(Science, 2024.1.29.).

 

image
[출처=NBC News]

 

지난해 9월에 있었던 슬로바키아의 선거 관련 딥페이크는 AI가 민주주의에 얼마나 위험을 가할 수 있는지를 보여주었다. 슬로바키아 총선을 불과 이틀 앞두고 음성 녹음이 페이스북에 게시되었다.

 

거기에는 자유주의 슬로바키아당을 이끄는 미칼 시메츠카(Michal Šimečka)와 일간지 ‘Denník N’의 모니카 토도바(Monika Tódová)라는 두 사람의 목소리가 들렸다.

 

그들은 부분적으로 국가에서 소외된 로마 소수민족으로부터 표를 구매하는 방식으로 선거를 조작하는 방법을 논의하는 것처럼 보였다.

 

시메츠카와 Denník N은 즉시 이 오디오를 가짜라고 비난했다. AFP 통신의 팩트체크 부서는 이 오디오가 AI를 이용해 조작된 흔적이 보인다고 말했다.

 

그러나 이 녹음은 투표 개시를 앞두고 48시간 동안 언론 매체와 정치인들이 침묵을 지켜야 하는 유예 기간에 게시되었다. 즉, 슬로바키아의 선거 규칙에 따라 이 게시물은 널리 반박하기 어려웠다.

 

게다가 이 게시물은 오디오였기 때문에 메타(Meta)의 ‘조작된 미디어 정책’의 허점을 이용했다. 즉 메타의 정책에서는 사람이 한 번도 말하지 않은 단어를 말하도록 편집된 가짜 동영상만 규칙에 어긋나는 것으로 규정한다(Wired, 2023.10.3.).

 

image
[출처=Times]

 


• 가짜 이미지와 비디오, 더욱 심각한 딥페이크

 

소셜 미디어의 거짓 얘기는 확실히 수년 동안 문제를 일으켜왔다. 연구자들은 사람들이 자신의 믿음을 뒷받침하는 가짜 뉴스 기사가 거짓임을 알면서도 쉽게 공유한다는 사실을 발견했다.

 

콘텐츠가 가짜 뉴스로 태그되어 있는지 여부는 중요하지 않다. 가짜 콘텐츠를 더 많이 볼수록 우리는 그것을 진짜로 기억할 가능성이 더 커진다.

 

그러나 이러한 문제는 이미지와 비디오로 인해 더욱 심각해지며, 이는 텍스트와는 다르게 마음속에 자리잡는 경향이 있다.

 

도널드 트럼프가 경찰에 체포되기를 거부하며 몸부림치는 장면은 조작된 가짜 이미지로 판명되었음에도 불구하고, 아직도 우리의 기억에 생생하다.

 

한 인지심리 전문가는 “무슨 일이 일어나는 것을 보면 우리는 자연스럽게 그것을 믿게 됩니다.”라고 말한다. 따라서 얼핏 보기에도 설득력이 있어 보이는 딥페이크는 훨씬 더 널리 공유되고 믿어질 수 있다.

 

image
AI가 생성한 도널드 트럼프 전 대통령의 체포 이미지 [출처=AP]

 


• 딥페이크의 다른 위험, 불확실성을 심는다는 점

 

이 전문가는 또 다른 위험으로 딥페이크가 불확실성을 심는다는 점을 지적한다.

 

사람들이 실제와 가짜 사이의 차이를 구분할 수 없다면 전문가의 분석이나 탐지 소프트웨어의 설명에 관계없이 자신의 견해를 뒷받침하지 않는 실제 이미지가 딥페이크라고 주장할 가능성이 더 커질 수 있다.

 

한 연구에 따르면 비디오가 AI로 생성되었을 수 있다는 사실을 사람들에게 경고한다고 해서 비디오(진위)를 더 잘 발견할 수 있는 것은 아니다. 대신에, 그것은 그들이 본 모든 것을 믿지 않게 만들었다.

 

그런 의미에서 딥페이크는 존재하는 다른 어떤 매체보다 확실히 더 큰 위협을 제공한다.

 

 


 

image

댓글 (0)

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.

- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

0 /250