GPT 시대... 윤리는 비즈니스, 철학은 돈이다
[RSAC2023] ‘책임 있는 AI 보안’
●엔비디아∙구글은 어떻게 하고 있나?
●책임 있는AI, 어떻게 구축해야 하나?
●법률∙엔지니어링 요소 섞여 있어…팀 간 공조 필요
최근 오픈에이(OpenAI)의 챗GPT부터 마이크로소프트, 구글 등으로 이어진 인공지능(AI) 개발 열풍을 두고 부작용에 대한 우려가 커지고 있다.
AI 챗봇이 거짓말, 성별, 인종 등에 따른 혐오 발언, 가스라이팅 등을 표출하면서 ‘책임감 있는 AI’이 필요하다는 여론이 거세지고 있다. 마이크로소프트, 구글 등 업계 최전선에서 AI를 개발하고 있는 기업들은 어떻게 구축하고 있을까?
25일(현지시각) 미국 샌프란시스코에서 사이버보안 컨퍼런스 ‘RSAC2023’의 기조연설에서 람 샹카르 시바 쿠마르(Ram Shankar Siva Kumar) 마이크로소프트 애저 데이터카우보이의 진행 아래, 비제이 볼리나(Vijay Bolina) 구글 딥마인드 최고정보보안책임자(CISO), 루만 차우드러리(Rumman Chowdhury) 박사, 다니엘 로러(Daniel Rohrer) 엔비디아 소프트웨어프로덕트보안 부사장(VP) 등 업계 최전선에서 활동하고 있는 기업 관계자들이 나와 ‘책임 있는 AI’ 구축 방법을 논했다. AI 시대엔 윤리가 곧 비즈니스이기 때문이다.
쿠마르는 현재 MS에서 클라우드 침입탐지시스템인 애저센티멘털(Azure Sentinel)을 통해 시스템을 보호한다. 신뢰할 수 있는 AI 그룹을 통해 자사 머신러닝 시스템을 보호하는 역할을 맡고 있다. 비제이 볼리아 CISO는 구글 딥마이드 팀에서 AI 시스템의 안전, 남용, 보안, 개인정보보호 등 위험을 관리하는 팀을 이끌고 있다.
루만 차우드러리 박사는 AI 스타트업 패리티(Parity)의 설립자이자 AI 윤리 분야 권위자로 꼽힌다. 트위터 AI윤리팀 디렉터이기도 했다. 다니엘 로러 VP는 엔비디아에서 23년 동안 보안 솔루션을 구축해온 업계 전문가다.