챗GPT가 촉발한 생성 AI 전쟁에 마이크로소프트와 구글, 아마존에 이어 메타도 도전장을 내밀었습니다. 메타는 24일(현지시각) 홈페이지를 통해 연구자들에게 도움을 주기 위해 최첨단 기초 대규모 언어모델(LLM)인 ‘라마(LLaMA, Large LAnguage model Meta AI)’를 공개 출시한다고 밝혔습니다. 라마는 챗GPT와 같이 일반 대중을 겨냥하기보다는 과학자들과 엔지니어들을 대상으로 이들의 전문적인 질문에 답하고 여러 문건을 요약해서 알려주는 보다 특정한 업무를 수행합니다. 메타가 꼽는 라마의 차별점은 우선 언어모델의 성능을 좌우하는 매개변수(파라미터)가 70억~650억개 사이 다양한 규모로 제공된다는 것입니다. 매개변수가 많아지면 기술적 능력은 커지지만, 그만큼 많은 컴퓨팅 파워를 사용해야 하고 이는 곧 비용 증가로 이어지는데요. 실제 오픈AI의 챗GPT의 매개변수는 1750억개에 이릅니다. 메타는 모델의 크기를 줄인 대신 학습 데이터를 최대 1조4000억개 토큰(token)으로 늘렸다는 설명입니다. 또한 라마는 수학문제를 풀거나, 과학연구를 실행할 수 있는 강점을 들었습니다. 마크 저커버그(Mark Zukerberg) 메타 CEO 는 “라마는 문자생성과 대화, 서류 요약에서 상당한 가능성을 보였고 수학 풀이나 단백질 구조 예측 등 복잡한 임무도 충분해 해결 가능할 것으로 기대한다”고 말했습니다. 👉연구 목적 공개…진정한 공개는 아니다?!딥러닝의 대부로 알려진 얀 르쿤(Yann LeCun) 메타 AI 수석과학자는 챗GPT가 열풍을 넘어 돒풍을 일으키는 현상을 두고 “현존하는 어떤 AI 모델보다 챗GPT가 앞서 있으며 혁신적이라는 인식에는 문제가 있다”고 지적한 바 있는데요. 순수 창작물이 아닌 논픽션 분야에서는 챗GPT가 심각한 문제를 일으킬 수도 있다는 게 그의 주장이었습니다. 논픽션 분야에 특화된 라마의 성능을 강조하기 위한 발언이었을지도 모르겠습니다. 무엇보다 메타는 라마를 연구 목적 하에 오픈소스로 공개한다는 점을 강조했는데요. 학계 연구자와 정부, 시민단체, 전 세계 산업 연구소에 사례별로 부여할 계획입니다. 메타는 “AI 커뮤니티가 협력해 책임감 있는 대규모 언어모델에 대한 명확한 가이드라인을 개발해야 한다고 믿는다”며 “라마를 통해 무엇을 학습하고 궁극적으로 무엇을 구축할 지 기대된다”고 전했습니다. 다만 일각에서는 진정한 의미의 오픈소스는 아니라고 주장하고 있는데요. 메타가 “해당 라이선스는 모델 또는 이 모델에 의해 생성된 데이터를 모든 유형의 상업적 목적으로 사용하는 것을 금한다”는 단서 조항을 달아놨기 때문입니다. 저마다의 생성 AI 경쟁이 점점 시장을 더 뜨겁게 달구고 있습니다.