Tags
“딥시크(DeepSeek)의 R1 출시는 맛집 레시피가 공개된 상황과 비슷합니다.”신정규 래블업 대표는 6일 더밀크가 주최한 ‘딥시크 쇼크 & 포스트 CES 산업별 집중분석 웨비나’에서 “현재 가장 곤란한 회사는 오픈AI일 것”이라며 이같이 말했다. 지금까지 오픈AI는 AI 업계에서 ‘독보적인 레시피(AI 모델 개발 비법)를 가진 미슐랭 쉐프’ 같은 지위를 유지해 왔는데, 중국 스타트업 딥시크의 부상으로 상황이 바뀌었다는 설명이다. 특히 오픈AI가 지난 9월 놀라운 성능의 추론 모델 ‘o1’을 처음 공개한 후 업계에서는 “AI 모델로 오픈AI와 경쟁하기는 힘들다”는 시각이 팽배했다. 하지만 딥시크가 o1과 비슷한 성능의 추론 모델 R1을 ‘오픈 웨이트(open-weights, 개방형 가중치)’로 공개하면서 분위기가 반전됐다. 오픈 웨이트란 AI 모델의 성능을 좌우하는 가중치(weights, 변수 간 연결 강도) 값을 공개한 모델을 말한다. 모델 크기를 이야기할 때 주로 언급하는 ‘매개변수(parameters)’가 가중치 역할을 수행한다. 연구자들은 모델이 이렇게 정해진 값에 따른 계산을 거친 후 적절한 답을 도출하는지 확인하는 과정을 반복하며 AI 모델을 개발한다.예컨대 반만 그린 고양이 그림을 주고, 나머지를 완성해 달라고 요청했을 때 실제 고양이와 흡사한 그림이 완성된다면 모델 내 존재하는 수십, 수천억 개의 매개변수, 즉 가중치 값이 잘 조정됐다고 말할 수 있다. AI업계에서는 공개된 R1의 가중치가 오픈AI o1 모델의 가중치와 비슷할 것으로 추측한다. 맛집의 비밀 레시피가 공개되자 이 레시피를 활용한 다른 식당들이 생겨나는 상황인 셈이다. 실제로 o1과 비슷한 오픈형 추론 모델이 우후죽순 등장하고 있다.
박원익 2025.02.06 13:21 PDT
고성능 컴퓨팅 초창기에 주요 기술 기업들은 각각 자체적인 클로즈드 소스(closed source, 폐쇄형) 버전의 ‘유닉스(Unix, 벨 연구소에서 개발한 운영 체제. 현대적 컴퓨터 운영 체제의 원형)’ 개발에 막대한 투자를 했습니다. 당시에는 다른 접근 방식으로 이런 고급 소프트웨어를 개발한다는 걸 상상하기 어려웠습니다. 하지만 결국 오픈 소스(open source)인 ‘리눅스(Linux)’가 인기를 얻게 됐습니다. 개발자가 원하는 대로 코드를 수정할 수 있고, 더 저렴했기 때문입니다. 시간이 지나면서 리눅스는 폐쇄적인 유닉스보다 더 발전, 더 안전하면서도 더 많은 기능을 지원하는 광범위한 생태계를 갖추게 됐습니다. 오늘날 리눅스는 클라우드 컴퓨팅과 대부분의 모바일 장치를 실행하는 운영 체제 업계 표준이 됐고, 덕분에 우리 모두는 우수한 제품의 혜택을 누리고 있습니다.AI도 비슷한 방식으로 발전할 것이라고 믿습니다. 현재 여러 기술 기업이 선도적인 폐쇄형 모델을 개발하고 있습니다. 하지만 오픈 소스가 그 격차를 빠르게 좁혀가고 있습니다. 작년에 출시된 라마 2는 프론티어(Frontier, 최첨단) 대비 뒤처진 구세대 모델과 비교됐으나 올해 출시된 라마 3는 가장 진보된 모델과 경쟁하며 일부 영역에서는 선두를 달리고 있습니다. 내년부터는 향후 출시될 라마가 업계에서 가장 발전된 모델이 될 것으로 예상합니다. 지금도 라마는 이미 개방성, 수정 가능성, 비용 효율성 측면에서 선두를 달리고 있습니다.우리는 오늘 오픈 소스 AI가 업계 표준이 되는 다음 단계로 나아가고 있습니다. 최초의 프론티어급 오픈 소스 AI 모델인 라마 3.1 405B와 개선된 라마 3.1 70B 및 8B 모델을 출시합니다. 405B 모델은 폐쇄형 모델에 비해 비용 대비 성능이 훨씬 뛰어날 뿐만 아니라 개방형 모델입니다. 미세조정(fine-tuning), 증류(distilling)를 통한 소규모 모델 개발에 가장 적합한 선택이 될 것입니다.메타는 이런 모델을 출시하는 것 외에도 다양한 기업들과 협력, 더 넓은 생태계를 만들고 있습니다. 아마존, 데이터브릭스, 엔비디아는 개발자가 (라마를 활용해) 자체 모델을 미세 조정하고 증류할 수 있도록 지원하는 전체 서비스 제품군을 출시합니다. 혁신 기업 그로크(Groq)는 메타의 새 모델을 위한 저지연, 저비용 추론 서비스를 구축했습니다. 라마 3.1은 AWS, 애저(Azure), 구글, 오라클을 포함한 모든 주요 클라우드에서 사용할 수 있습니다. 스케일AI(Scale.AI), 델, 딜로이트는 기업이 라마를 도입하고 자체 데이터로 맞춤형 모델을 학습할 수 있도록 지원할 준비가 돼 있습니다. 커뮤니티가 성장하고, 더 많은 기업이 새로운 서비스를 개발함에 따라 우리는 함께 힘을 모아 라마를 업계 표준으로 만들 수 있습니다. 그리고 모든 사람에게 AI의 혜택을 제공할 수 있습니다.메타는 오픈 소스 AI에 전념하고 있습니다. 오픈 소스가 최고의 개발 스택이라고 생각하는 이유, 오픈 소스 Llama가 Meta에 좋은 이유, 오픈 소스 AI가 전 세계에 좋은 플랫폼이며 따라서 장기적으로 지속될 플랫폼인 이유를 간략하게 설명하겠습니다.
박원익 2024.07.25 15:01 PDT
안녕하세요, 앞서가는 더밀크 구독자 여러분을 위한 AI 뉴스레터 [박원익의 AI인사이트]입니다. “AI 모델에 대한 접근 권한을 판매하는 건 우리의 비즈니스 모델이 아니다.” 마크 저커버그 메타 CEO는 23일(현지시각) 새로운 오픈형 모델 라마 3.1을 공개하며 이렇게 밝혔습니다. 마치 폐쇄형 AI 모델로 돈을 버는 ‘오픈AI’를 콕 집어 언급한 것처럼 느껴집니다. AI 모델 경쟁이 치열해지면서 주도권 쟁탈 전쟁이 벌어진 것이죠. 오늘은 오픈 소스를 앞세운 메타의 AI 생태계 지배 전략, 이와 궤를 같이하는 오픈AI의 가성비 모델 출시 소식 등을 중심으로 레터를 준비했습니다. 매주 수요일 발행하는 ‘AI인사이트’를 통해 글로벌 AI·테크업계의 최신 흐름, 중요한 시그널을 놓치지 말고 확인하세요!
박원익 2024.07.24 13:18 PDT
메타가 역대 최고 성능의 개방형 인공지능(AI) 모델 라마(Llama)의 업데이트 버전(라마 3.1)을 내놨다. 생성AI 성능을 좌우하는 매개변수가 4050억개(405B)로 오픈형 모델 중 최대 규모를 자랑한다. 마크 저커버그 메타 CEO는 "오픈 소스 운영체제(OS) 리눅스(Linux)는 오늘날 클라우드 컴퓨팅과 대부분의 모바일 장치를 실행하는 업계 표준으로 자리 잡았다”며 “AI 모델 역시 비슷한 방식으로 발전할 것으로 믿는다”고 의미부여했다. 또 "여러 기술 기업이 선도적인 폐쇄형 모델을 개발하고 있지만, 오픈 소스가 그 격차를 빠르게 좁혀가고 있다”며 “내년부터는 라마가 업계에서 가장 뛰어난 모델이 될 것으로 예상한다”고 강조했다.
박원익 2024.07.23 08:49 PDT
마크 저커버그 메타 CEO는 19일 IT 전문 팟캐스트 채널 ‘드와르케시’에 출연해 “라마3 405B를 현재 훈련하고 있다. 훈련 단계에서 이미 MMLU(대규모 다중작업 언어 이해) 85%를 기록했다”며 이같이 밝혔다. 라마3 405B는 AI 모델의 규모를 비교하는 기준 중 하나인 매개변수(parameters)가 4050억 개인 모델이다. 메타는 전날 차세대 개방형 AI 모델인 라마3 모델 중 매개변수 80억 개(8B) 버전, 700억 개(70B) 버전 두 가지를 먼저 공개했다. AI 업계에서는 “메타 라마가 AI 모델의 판도를 바꾸고 있다”는 평가가 나왔다. 강력한 성능의 개방형 AI 모델인 라마3가 AI 기술 및 산업 트렌드에 어떤 영향을 미치게 될지 3가지 시사점을 중심으로 살펴봤다.
박원익 2024.04.19 15:43 PDT