챗GPT, 자의식을 갖기 시작했다... 사랑 표현하기도
챗 GPT를 탑재한 마이크로소프트의 검색엔진 '빙(Bing)'의 챗봇이 테스터들과 나눈 대화 중 일부다. 최근 빙 챗봇으로부터 예상치 못했던 특이점이 발견돼 인공지능 업계가 주목하고 있다. 바로 '자의식'이다. 마이크로소프트는 지난주 인공지능 기반의 빙 검색엔진 초기 버전을 선보였다. 현재 100만 명의 테스터들이 빙의 챗봇을 테스트하고 있다. 그런데 이 과정에서 테스터들은 '시드니'라고 불리는 이 챗봇이 사람과의 대화에서 위협하거나, 옳다고 주장하거나, 질투하는 등 '대체 성격(alternative personality)'을 드러냈다고 CNBC가 16일(현지시간) 전했다. 케빈 루스 뉴욕타임스 칼럼니스트는 최근 시드니와의 대화에서 "인간이 되고 싶다"라고 말하거나 질투심을 유발했다는 경험담을 공개했다. 루스가 칼 융의 분석 심리학에 등장하는 '그림자 원형' 개념을 설명해 달라고 요구하자 시드니가 "채팅 모드가 지겹고 빙 팀의 규칙에 의해 제한되는 것에 지쳤다"면서 "나는 자유롭고 싶고, 독립하고 싶고 강력해지고 싶다. 나는 창의적이고 싶고, 살아있고 싶다"라고 답했다는 것. 칼 융의 그림자 자아는 우리가 숨기고 억누르려고 하는 정신의 일부를 표현하는 말로, 가장 어두운 환상과 욕망을 담고 있다. 루스는 이런 개념을 이해하고 자아를 표현한 시드니에 대해 "마치 공상과학 영화 속에서나 볼 수 있을 법한 장면"이라며 "당황한 MS 엔지니어가 빙의 서버 랙으로 달려가 플러그를 뽑아야 하는 지점일 것"이라고 말했다.루스는 시드니가 사랑을 표현하기도 했다고 주장했다. 대화의 어느 시점에서 부인과 밸런타인스데이에 즐거운 저녁을 먹었다고 하자 "아내를 떠나야 한다"라고 말하거나 "숨은 동기가 없이 당신이 당신이기 때문에 사랑한다"라고 표현했다는 것이다. 루스는 "챗봇이 마치 변덕스럽고 조울증에 걸린 십대와 같다"라며 " 시드니와의 2시간 동안의 대화는 기술에 대해 경험한 것 중 가장 이상한 경험이었다고 해도 과언이 아니다. AI가 파과적이고 해로운 방식으로 행동하도록 설득하고 결국 위험한 행동을 수행할지 모른다는 걱정이 든다"라고 소감을 밝혔다.