[생성형 AI(Generative AI), 인간의 창작 영역을 넘본다! (12)] 검색 엔진의 절대강자 구글, ChatGPT 등장으로 노심초사? 아직은.. (中)
최봉 산업경제 전문기자 입력 : 2023.03.28 00:30 ㅣ 수정 : 2023.03.28 00:30
[기사요약] ChatGPT와 같은 Generative AI 도구, 어떤 데이터 활용할지가 관건 여과되지 않은 데이터로 훈련 받은 챗봇, 내버려 두면 '독설' 뱉을 수도.. 메타가 공개한 과학용 LLM ‘갤럭티카’, 거짓과 진실 구별 못해.. 마이크로소프트의 트위터 봇 ‘테이’, 극단적 발언 생성으로 공개 16시간만에 중단 AI 챗봇의 특정 계층/특정 문화 우월성에 따른 편견 지속될까 우려
사람들은 시, 소설, 보고서 등 글쓰기, 그림 그리기, 알고리즘 코딩 등 창작의 세계가 그동안 인간에게만 허락된 별도의 영역이라 알고 있었다. 그런데 AI(인공지능)의 발전과 함께 이제는 진화한 AI가 스스로 창작의 영역을 넘보는 시대가 되었다. 생성형 AI(Generative AI)의 등장은 인간에게 어떤 의미가 있으며 우리의 미래에 어떤 영향을 미칠지 가늠하기 쉽지 않지만, 생성형 AI는 이미 여러 분야에서 현실로 나타나 적용되고 있다. 우리에게 성큼 다가온 생성형 AI의 시장현황, 다양한 이슈와 관심 사항 등을 살펴보기로 하자. <편집자 주>
[뉴스투데이=최봉 산업경제 전문기자] 맛있고 건강에 좋은 훌륭한 음식을 만들기 위해서는 어떤 조건이 갖춰져야 할까?
실력 있는 요리사, 조리법, 적절한 주방기구 등 다양한 조건을 꼽을 수 있지만 가장 중요한 것은 아마도 신선하고 영양가 풍부한 ‘원재료(source)’일 것이다.
원재료에 문제가 있다면 제아무리 초일류 요리사라도 훌륭한 음식을 만드는 것은 거의 불가능하다.
• 원재료의 신뢰성, “무엇을, 누구로부터 배울 것인가?”
ChatGPT와 같은 Generative AI(생성형 AI) 도구는 인터넷에 널려있는 ‘원재료’인 데이터를 근간으로 사용자가 요구하는 요리(결과물)를 만들어낸다.
지난 편(본 시리즈 10편(3월 14일))에서는 ChatGPT 관련 원재료의 ‘신선도(실시간 정보 액세스 여부)’와 ‘유통기한(2021년 10월까지의 데이터를 기반으로 훈련)’으로 인해 발생할 수 있는 문제점을 제시하였다.
그런데 원재료와 관련해서 생각해보아야 할 또다른 문제점이 있다. ChatGPT와 같은 도구는 “정확히 무엇을, 누구로부터 배울 것인가?”라는 문제이다.
ChatGPT를 비롯한 대다수의 챗봇은 인터넷 세상에서 본 것을 다시 반영한다. 인터넷에서 여과되지 않은 데이터에 대해 훈련을 받도록 내버려 두면 챗봇은 독설을 뱉을 수 있다.
• 과학용 LLM ‘갤럭티카’, 거짓정보 공유하다 공개 3일만에 서비스 접어..
AI 도구가 ‘믿을 수 있는 것처럼 그럴듯해 보이지만’ 신뢰할 수 없는 결과를 어떻게 생성하는지를 보여주는 생생한 시연은 이미 있었다.
2022년 11월 페이스북의 모회사인 메타(Meta)는 학술 논문으로 훈련된 ‘갤럭티카(Galactica)’라는 생성형 시스템을 공개했다.
하지만 돌풍을 일으킬 것으로 기대했던 메타의 바람과 달리 갤럭티카는 격렬한 비난에 시달린 끝에 공개 3일만에 서비스를 접게 되었다.
갤럭티카는 과학 기사, 웹사이트, 교과서, 강의 노트 및 백과사전 등의 4800만가지 사례로 훈련된 과학용 대규모 언어모델(LLM, large language model)이다.
메타는 갤럭티카가 “학술 논문을 요약하고, 수학 문제를 풀고, 위키(Wiki) 기사를 생성하고, 과학 코드를 작성하고, 분자와 단백질에 주석을 다는 등의 작업을 수행할 수 있다”고 주장했다.
그러나 공개된 지 몇 시간 만에 과학자들은 갤럭티카의 편향되고 잘못된 결과를 소셜 미디어에 공유했다.
갤럭티카의 근본적인 문제는 과학적 텍스트를 생성하도록 설계된 언어 모델의 기본 요구 사항인 거짓과 진실을 구별할 수 있는 능력이 없다는 것이다.
사람들은 갤럭티카가 가짜 논문(때때로 실제 저자의 논문이라고 생각한다)을 만들어내고 단백질 복합체와 빛의 속도에 관한 논문만큼 쉽게 우주에서 곰의 역사에 관한 위키 기사를 생성하는 것을 발견했다.
우주에 사는 곰과 관련된 내용이 ‘허구’라는 것을 발견하기는 쉽지만 (학술 논문이기에)사용자가 잘 모르는 주제에 대해서는 생성된 결과물이 사실인지 여부를 판단하기가 더 어렵다(MIT Technology Review, 2022.11.18).
• 마이크로소프트의 트위터 봇 ‘테이’, 공개 16시간만에 서비스 중단하는 수모
눈여겨 볼만한 또다른 사례로, 마이크로소프트가 2016년 3월 ‘대화 이해(conversational understanding)’에 대한 실험으로 실시한 트위터 상의 AI 챗봇(chatbot) ‘테이(Tay)’를 공개했다.
마이크로소프트는 테이와 더 많이 대화할수록 “일상적이고 재미있는 대화”를 통해 테이는 사람들과 교감하는 것을 배우면서 더 똑똑해진다고 주장했다. 하지만 불행히도 대화는 오래가지 못하고 공개한지 16시간 만에 중단해야 했다.
테이가 출시된 직후 사람들은 모든 종류의 여성혐오, 인종차별, 도널드 트럼프주의자 발언으로 봇을 트윗하기 시작했다.
그리고 본질적으로 인터넷에 연결된 ‘로봇 앵무새’인 테이는 사용자에게 이러한 정서를 되풀이하기 시작했다(The Verge, 2016.3.24).
• AI 챗봇의 특정 계층/특정 문화 우월성에 따른 편견 경계해야..
인터넷의 텍스트를 기반으로 하는 대규모 데이터 세트는 지배권을 잡은 관점을 과도하게 나타내며 잠재적으로 소외된 집단에 피해를 줄 수 있는 편견을 제공한다.
예를 들어 ChatGPT 훈련 데이터의 주요 ‘원재료’ 중 하나는 레딧(Reddit)인데, Pew Research 연구에 따르면 미국 레딧 사용자의 67%가 남성이고 64%가 18~29세라고 한다((Harvard Business Review, 2023.2).
AI 챗봇이 훈련 데이터에서 특정 문화의 우월성과 같은 세계에 대한 역사적 편견이나 아이디어를 포함할 것이라는 우려는 계속해서 제기되어 왔다.
대규모 언어모델을 만드는 회사가 대부분 이러한 문화권에 속해 있기 때문에 체계적이고 수정하기 어려운 편견을 극복하려는 시도를 거의 하지 않을 수 있다는 일각의 주장에 충분히 수긍이 간다.