[생성형 AI(Generative AI), 인간의 창작 영역을 넘본다! (3)] 2023 다보스포럼도 Generative AI에 주목!
[기사요약]
Generative AI, 2023 다보스포럼에서 주요 아젠다로 다뤄..
사회와 산업분야에서 준비해야하는 게임 체인저로 인식하다
Generative AI가 사회에 미치는 부정적 영향에 대한 우려도 존재
견고한 견제와 균형 마련되어야 Generative AI의 유익한 확장 가능
사람들은 시, 소설, 보고서 등 글쓰기, 그림 그리기, 알고리즘 코딩 등 창작의 세계가 그동안 인간에게만 허락된 별도의 영역이라 알고 있었다. 그런데 AI(인공지능)의 발전과 함께 이제는 진화한 AI가 스스로 창작의 영역을 넘보는 시대가 되었다. 생성형 AI(Generative AI)의 등장은 인간에게 어떤 의미가 있으며 우리의 미래에 어떤 영향을 미칠지 가늠하기 쉽지 않지만, 생성형 AI는 이미 여러 분야에서 현실로 나타나 적용되고 있다. 우리에게 성큼 다가온 생성형 AI의 시장현황, 다양한 이슈와 관심 사항 등을 살펴보기로 하자. <편집자 주>
[뉴스투데이=최봉 산업경제 전문기자] 2023 세계경제포럼(WEF, World Economic Forum)이 1월 16일부터 20일까지의 일정으로 개최된다. 매년 1~2월경 스위스 동부의 다보스에서 연차총회가 개최되기 때문에 다보스포럼(Davos Forum)이라고도 불린다.
다양한 주제와 관심사를 갖고 진행되는 올해 다보스포럼에서 Generative AI(생성형 AI)가 중요한 아젠다(agenda)로 다뤄지고 있어서 이번 편에서는 그 주요 내용을 소개하겠다.
• 2023 다보스포럼, Generative AI를 게임 체인저로 보다!
다보스포럼은 이미 AI를 중요한 테마로 다루고 있으며, 특히 Generative AI를 사회와 산업 분야에서 준비해야하는 게임 체인저로 보고 있다(“Generative AI: a game-changer that society and industry need to be ready for”, WEF, 2023.1).
우선 Generative AI 시스템의 창발(創發)적 능력을 언급하고 있다. Generative AI는 언어 번역, 텍스트 요약 및 생성과 같은 일반적인 자연어 처리 작업을 수행할 수 있는 수준이 되었다.
OpenAI가 지난해 말 공개했던 ChatGPT는 센세이션을 일으킨 바 있으며, 더욱 광범위한 작업에서 획기적인 능력을 발휘할 것이다.
현재 구상하고 있는 활용방안에는 검색 엔진의 새로운 아키텍처, 복잡한 알고리즘 설명, 처음부터 앱을 구축하는 데 도움을 주는 개인화 된 치료 봇(personalized therapy bots) 만들기, 조리법 작성 등이 포함되어 있다.
창의적인 영역을 넘어 Generative AI 모델은 컴퓨터공학과 같은 복잡한 과학 분야에서 혁신적인 기능을 보여주고 있다.
예를 들어, OpenAI의 Codex 모델을 기반으로 하는 Microsoft 소유의 ‘깃허브 코파일럿(GitHub Copilot)’은 코드를 제안하고 개발자가 프로그래밍 작업을 자동 완료하는 데 도움을 준다. 이 시스템은 개발자 코드의 최대 40%를 자동 완성하여 작업 흐름을 향상시키는 것으로 알려져 있다.
• 창의적 업무 일자리 감소, 편향된 출력물 생성 등 부정적 측면 우려
밝은 면이 있으면 어두운 면도 있듯이, Generative AI는 창의성의 새로운 물결에 사람들을 열광하게 하지만, 이러한 모델이 사회에 미치는 영향에 대한 우려 또한 있다.
한 디지털 아티스트는 단순히 시스템에 자신의 독특한 스타일로 작품을 재현하도록 지시함으로써 인터넷이 자신과 구별할 수 없는 예술 작품으로 넘쳐날 것을 두려워한다.
전문가들은 이러한 우려를 공유하면서, 엔터테인먼트, 비디오게임, 광고 및 출판 분야에서 일하는 상업 예술가를 포함하여 창의적인 인력의 상당 부분이 Generative AI 모델로 인해 일자리를 잃을 수 있다고 전망한다.
대규모 언어 모델(large language model)의 문제점 중 하나는 거짓되고 오해의 소지가 있는 콘텐츠를 생성할 수 있다는 것이다.
메타의 Galactica(학술논문 요약, 수학문제 풀기, 과학 코드 작성을 가능케 하는 4800만개의 과학 논문을 기반으로 훈련된 모델)는 과학적 사실과 지식을 잘못 해석한 후 올바르지 않은 결과를 산출한다는 것을 과학계가 발견하면서 온라인에 접속한 지 3일도 채 되지 않아 삭제되었다.
대규모 모델은 완전히 걸러내기 어려운 방식으로 인해 편향될 수 있는 책, 기사 및 웹 사이트에 노출된 대규모 데이터 세트를 근간으로 계속 학습한다.
ChatGPT의 경우 ‘인간 피드백을 통한 강화학습(RLHF)’을 사용하여 유해하고 진실하지 않은 출력이 크게 감소했음에도 불구하고 OpenAI는 모델이 여전히 유독하고 편향된 출력을 생성할 수 있음을 인정한다.
• Generative AI 확장, 견고한 견제와 균형 마련되어야...
Generative AI는 수많은 영역과 업무에서 게임 체인저이지만, 이러한 모델의 확산과 사회·경제에 미치는 영향을 보다 신중하게 통제해야 할 필요가 있다.
한편으로는 확고한 윤리적 경계를 가진 중앙 집중식(centralized) 및 제어된 채택(예: OpenAI)과 다른 한편으로는 더 빠른 혁신 및 분산(decentralized) 배포(예: Stability AI)라는 두 대안이 있는데, 이들 간 새로운 논의는 향후 몇 년 동안 Generative AI 커뮤니티의 중요한 이슈가 될 것이다.
이것은 민간 기업뿐만 아니라 시민 사회와 정책결정자들이 똑같이 무게를 두어야 할 중요한 과제다. 여기에는 노동 시장의 혼란, 모아놓은 데이터의 합법성, 라이선스, 저작권 및 편향되거나 유해한 콘텐츠, 잘못된 정보 등이 포함된다.
견고한 견제와 균형이 마련될 때만 Generative AI 기술과 제품의 보다 사려 깊고 유익한 확장이 이루어질 수 있다.
지금까지 소개한 아젠다 내용 중 다수의 주제는 시리즈를 통해 추후 자세하게 다룰 기회가 있을 것이다.
댓글 (0)
- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.