한 해 동안 사람들 사이에서 가장 널리 퍼져서 그해를 상징할 만한 ‘올해의 단어’를 영미권 주요 사전에서 매년 뽑는다. 2023년은 인공지능(AI) 관련 어휘가 올해의 단어를 휩쓸었다. 

그중 케임브리지 사전은 AI 관련 용어인 ‘환각을 느끼다’라는 의미의 ‘할루시네이트(hallucinate)’를 꼽았다. AI가 모르는 것을 ‘모른다’고 말하는 대신 그럴듯하게 거짓말을 꾸며 내는 따위를 특정하는 단어다.

지난해 말 소개된 챗(Chat)GPT 기술이 지구촌을 놀라게 했다. 사용자가 대화창에 텍스트를 입력하면 그에 맞춰 대화를 나누는 서비스인데, 질문에 대한 답변을 척척 내놓는가 하면 논문 작성, 번역, 노래 작사·작곡, 코딩 작업 등 광범위한 분야 업무 수행까지 보여 줬다.

그러나 사용자들이 신기해서 이것저것 물어보니 이 시스템이 만들어 낸 답변이 거짓인 경우가 많았다.

전문가들에 따르면 챗GPT 같이 거대 언어모델에 기대는 지금의 AI는 사실보다는 얼마나 그럴듯하게 인간처럼 말하는가를 목적으로 만들어졌다. 이렇게 설계되다 보니 AI가 내준 정보를 그대로 믿고 쓰면 큰 문제가 생긴다. 이 기술에 기대 보고서를 쓰거나 논문, 과제를 쓰는 게 아직은 위험천만한 결정이다.

AI 모델이 생성한 결과를 실제 행동이나 결정에 사용할 경우 잠재적으로 해로운 결과에 직면한다. 예로 경제적 지표를 산출하는 AI가 할루시네이트를 일으키게 되면 그 지표에 기대서 투자했다가 낭패를 볼 공산이 크다.

AI 기술에 대한 신뢰가 무너지자 위기감을 느낀 관련 업계는 할루시네이트가 일어나지 않도록 바로잡고자 노력 중이다. 챗GPT도 출시 초반에는 거짓말을 아무렇지 않게 했다면 지금은 ‘모른다’거나 ‘내 정보에는 답을 할 수 없다’며 조금은 솔직하게 진화했다.

그러나 AI가 편견이나 조작도 답변에 반영할 가능성이 있다는 사실은 인간의 판단력이 더 중요함을 상기시킨다.

1인 미디어 시대가 활발해지면서 가짜 뉴스가 판을 친다. AI가 만든 할루시네이트가 아닌 인간이 의도적으로 조작해 낸 결과물로 이미 우리 사회 신뢰가 손상을 입은 지 한참이다.

경쟁사회 속에서 인간이 만들어 낸 거짓과 진실을 구분하는 일도 번거롭고 힘든데 최신 기술인 AI까지 합세했다. 인간과 인공지능이 만들어 낸 할루시네이트를 거를 비판적 시각과 판단이 절실한 시대다.  

기호일보 - 아침을 여는 신문, KIHOILBO

저작권자 © 기호일보 - 아침을 여는 신문 무단전재 및 재배포 금지