The Miilk
  • 로그인
    회원가입
  • 토픽
    • 빅테크기업
    • 인공지능(AI)
    • 모빌리티
    • 푸드테크
    • 헬스케어
    • 리테일/커머스
    • 스타트업
    • 정보보안
    • 미디어/엔터테인먼트
    • SaaS/클라우드
    • 핀테크/에듀테크
    • 제조/하드웨어
    전체 기사 보기
  • 투자
  • CEO 플레이북
  • 더밀크 TV
    • 최신비디오
    • 혁신원정대
    • 인자기(사람,돈,기술 이야기)
    • 크리스의 뉴욕 시그널
    • 더밀크 아카데미
    • 더웨이브/트렌드쇼
    • 밸리토크
  • 리서치
  • 이벤트
  • CES CES
    2025
    • 전체기사
    • 비디오
    • 역사 및 개요
    • 필드 가이드
    • CES2025 with TheMiilk
로그인
회원가입
Search
The Miilk

Tags

일리야 수츠케버

    • 엔비디아
    • 오픈AI
    • GPT-4

    오픈AI “2년내 환각성 답변 사라진다. GPT-4는 예측 머신”

    일리야 수츠케버 오픈AI 공동창업자 겸 수석과학자는 3월 22일(현지시각) 진행된 젠슨 황 엔비디아 CEO와의 대담에서 “향후 2년 내에 많은 발전을 보게 될 것”이라며 이같이 말했다. 가까운 미래에 ‘할루시네이션(hallucination, 환각)’을 해결할 수 있다고 예측한 것이다. 오픈AI, 구글 등이 선보인 ‘챗GPT(ChatGPT)’, ‘바드(Bard)’ 같은 대화형 AI, 거대언어모델(LLM)은 사람처럼 말(text, 텍스트)을 만들어내는 강력한 성능을 내지만, 그와 동시에 할루시네이션 문제를 일으킨다는 비판을 받아왔다. 할루시네이션이란 2018년 구글 AI 연구원들에 의해 대중화된 개념으로 AI가 제시한 그럴듯해 보이는 답변(output)이 실제로는 잘못됐거나 부정확해 혼동을 초래하는 현상을 말한다. 언어모델은 빈칸에 들어갈 말을 예상해 채우는 방식으로 작동하는데, 관련 데이터가 부족하거나 모호할 경우 이런 현상이 나타난다.실제로 챗GPT와 대화를 나눠보면 잘못된 답을 제시하는 사례가 적지 않다. 정보 수집, 교육 등의 목적으로 활용하려면 사실 확인 및 검증이 필요하다.

    박원익 2023.03.23 16:00 PDT

  • 이전
  • 1
  • 2
  • 다음
  • 회사소개
  • 자주 묻는 질문
  • 더밀크 기업구독 안내
  • 더밀크 리서치 서비스 안내
  • 이용약관
  • 개인정보처리방침
2905 Homestead Rd,
Santa Clara, CA 95051

© The Miilk. All rights reserved.