챗GPT가 거짓말하는 이유 : 자신이 무슨 말 하는지 모른다
업계의 판도를 바꾼 오픈AI의 챗GPT. 대규모 언어 모델은 아직 거짓 정보를 생성하기도 하고 여러 산업에 AI 규제라는 새로운 숙제가 주어졌지만 여전히 그 열풍이 계속되고 있다. 지난 3월 13일(현지시각), SXSW 2023에 ‘인공지능의 발전과 미래'라는 주제로 네 명의 전문가들이 모여 대규모 언어 모델에서부터 디지털 트윈까지 다양한 기술과 혁신에 대해 나눴다. 그들은 가장 큰 이슈가 되고 있는 챗GPT의 양면성을 지적하며 앞으로 대규모 언어 모델이 나아가야 할 방향에 대해 논의했다. 롭 매도스(Rob Meadows) AI 파운데이션 최고경영자(CEO)는 “대규모 언어 모델은 매우 훌륭하다. 동기가 없고 편견이 없다”라며 챗GPT의 화제성을 인정했다. 하지만 이 모델은 스스로 무슨 말을 하는지 이해하지 못한다. 무언가를 자신 있게 생성하지만 스스로 책임지지는 못한다. 매도스는 “이것이 가장 위험한 부분"이라며 대규모 언어모델을 ‘소시오패스 거짓말쟁이'라고 표현했다. AI 아바타 기술 스타트업 내쉬 공동창업자인 시드 굽타 CEO도 챗GPT와 같은 대화형AI의 한계점을 언급했다. 그는 “챗GPT는 모든 사람이 AI를 경험할 수 있도록 길을 만들어줬다. 하지만 그 가능성에 대한 비전을 보여주었을 뿐, 모든 사용 사례를 위해 설계된 것은 아니다"라고 말했다. 대규모 언어 모델을 기본으로 삼고 그것을 기반으로 다른 경험을 제공해야 한다는 주장이다.