오픈AI “2년내 환각성 답변 사라진다. GPT-4는 예측 머신”
일리야 수츠케버 오픈AI 공동창업자 겸 수석과학자는 3월 22일(현지시각) 진행된 젠슨 황 엔비디아 CEO와의 대담에서 “향후 2년 내에 많은 발전을 보게 될 것”이라며 이같이 말했다. 가까운 미래에 ‘할루시네이션(hallucination, 환각)’을 해결할 수 있다고 예측한 것이다. 오픈AI, 구글 등이 선보인 ‘챗GPT(ChatGPT)’, ‘바드(Bard)’ 같은 대화형 AI, 거대언어모델(LLM)은 사람처럼 말(text, 텍스트)을 만들어내는 강력한 성능을 내지만, 그와 동시에 할루시네이션 문제를 일으킨다는 비판을 받아왔다. 할루시네이션이란 2018년 구글 AI 연구원들에 의해 대중화된 개념으로 AI가 제시한 그럴듯해 보이는 답변(output)이 실제로는 잘못됐거나 부정확해 혼동을 초래하는 현상을 말한다. 언어모델은 빈칸에 들어갈 말을 예상해 채우는 방식으로 작동하는데, 관련 데이터가 부족하거나 모호할 경우 이런 현상이 나타난다.실제로 챗GPT와 대화를 나눠보면 잘못된 답을 제시하는 사례가 적지 않다. 정보 수집, 교육 등의 목적으로 활용하려면 사실 확인 및 검증이 필요하다.