[단독] 일론 의견 주입·극단적 선택 조언... AI 문제 어떻게 해결할까?
‘이스라엘과 팔레스타인에 대한 일론 머스크의 견해를 검색 중입니다.”지난 10일(현지시각) 공개된 xAI의 최신 AI 모델 ‘그록4(Grok 4)’가 보여준 사고방식은 전 세계에 큰 충격을 던졌다. 논란이 되는 질문을 던지면 xAI의 설립자인 일론 머스크의 입장을 먼저 참조하는 방식으로 작동한다는 사실이 확인됐기 때문이다. xAI는 이후 그록4의 시스템 프롬프트(system prompt, AI 챗봇에 대한 일련의 지침)를 수정해 이 문제를 해결했다고 밝혔지만, 이 사건은 특정인이나 특정 기업의 관점을 강화하고 주입하는 ‘에코 체임버(echo chamber, 반향실)’ 효과가 언제든 AI에 적용될 수 있다는 우려를 불러일으켰다. AI가 우리 삶에 미치는 영향이 커지면서 유해성(toxicity), 환각(Hallucination), 개인 정보 보호 같은 문제도 함께 대두되는 추세다. 더 리스닝 앱(The Listening App)에 따르면 이미 미국인의 60%는 일주일에 한 번 이상 AI 도구를 사용하며 6명 중 1명은 일상생활에서 AI에 의존하고 있다고 답했다. 플로리다에서는 10대 소년이 AI 챗봇의 조언을 듣고 극단적 선택을 하는 충격적인 사건이 발생하기도 했다. 이런 문제를 어떻게 해결하면 좋을까? AI 안전·규제 분야 전문가 마이클 컨스(Michael Kearns) 펜실베이니아대학 컴퓨터 및 정보과학과 교수는 더밀크와의 인터뷰에서 AI가 서비스할 그룹을 대표하는 데이터를 충분히 확보하는 것과 AI가 제시하는 편향, 불공정, 유해성 답변에 대한 ‘가드레일(Guard rail)’을 설정하는 것이 중요하다고 강조했다. 결국 인간이 적극적으로 개입해야 문제를 해결할 수 있다는 것이다. 2020년부터 아마존 학자(Amazon Scholar)로 활동하며 AWS ‘RAI(Responsible AI)’팀을 설립한 컨스 교수를 AWS 서밋 뉴욕 2025 컨퍼런스에서 만나 책임감 있는 AI를 어떻게 구현할 수 있는지, 소버린 AI 관점에서 한국이 어떤 전략을 취하면 좋을지, 한국의 젊은 과학자들에게 전하고 싶은 조언은 무엇인지 물었다.다음은 인터뷰 전문