오픈AI가 캘리포니아 주의 새로운 AI 안전 법안 SB1047에 반대 의사를 표명했습니다. 이 법안은 대규모 AI 모델 개발 기업들에게 엄격한 안전 기준을 요구하고 있어, 기술 업계의 주목을 받고 있는데요. SB1047 법안은 '프론티어 모델'로 정의되는 대규모 AI 모델에 적용되며 다음과 같은 요구사항을 포함합니다. 충분한 안전 프로토콜 구현, 비상시 AI 모델 작동을 중지할 수 있는 '킬 스위치' 도입, AI 모델의 재앙적 결과 방지를 위한 '합리적인 주의' 의무, 그리고 캘리포니아 법무장관에게 준수 성명서 제출입니다. 해당 법안은 최소 1억달러(약 1338억원)의 개발 비용이 소요되거나 훈련 중 10^26 FLOPS(매우 큰 규모의 인공지능 모델)를 사용하는 모델에 적용될 예정입니다. 오픈AI는 이 법안이 AI 산업의 혁신을 저해할 수 있다고 주장합니다. 오픈AI의 최고전략책임자는 "AI 혁명은 이제 막 시작됐고, 캘리포니아의 글로벌 AI 리더십이 주의 경제적 역동성을 촉진하고 있다"며 "SB1047 법안은 이러한 성장을 위협하고 혁신의 속도를 늦출 것"이라고 경고했습니다.👉 기업들 강력한 AI 기술 공개 전 안전성 테스트 의무화반면, 법안의 지지자인 스콘 위너(Scott Wiener) 상원의원은 이 법안이 대규모 AI 연구소들이 이미 약속한 안전 조치를 이행하도록 요구하는 합리적인 조치라고 주장합니다. 그는 법안이 AI 위험을 미리 예측하고 이에 대한 대응을 요구하는 것이라고 강조했습니다.SB1047은 이번 달 캘리포니아 주 의회에서 투표에 부쳐질 예정이며, 통과될 경우 개빈 뉴섬(Gavin Newsom) 주지사의 최종 결정을 기다리게 됩니다. 뉴섬 주지사는 AI 혁신 촉진과 위험 완화의 균형에 대해 언급한 바 있어, 그의 결정에 이목이 집중되고 있습니다. SB1047 법안은 AI 기술의 발전과 안전 사이의 균형을 찾으려는 시도로 볼 수 있습니다. 그러나 법안의 효과와 영향력은 여전히 불확실합니다. AI 기술의 빠른 발전 속도를 고려할 때, 법규제가 기술 발전을 따라가지 못할 가능성도 있습니다. 이 사례는 AI 규제에 있어 주 정부와 연방 정부의 역할 분담, 그리고 글로벌 차원의 협력 필요성에 대한 논의를 촉발할 수 것으로 보입니다.