‘인공지능(AI) 안전연구소’가 공식 출범하면서 안전한 AI 사용을 위한 업계의 움직임도 빨라지고 있다.
과학기술정보통신부는 지난달 27일 경기 성남시 판교에 AI 안전연구소를 열고 대한민국 AI 안전 컨소시엄을 출범했다. SK텔레콤, 네이버, KT, 카카오, LG AI연구원, 삼성전자와 서울대 등이 AI 안전에 관한 정책 연구와 평가, 연구개발 등에서 협력하기 위해 업무협약을 맺었다. 3일 업계에 따르면 이들은 미국의 국립표준기술연구소(NIST)가 2023년 제안한 AI 위험관리체계(RMF)를 참고해 ‘한국형 AI 위험관리체계’를 만들 방침이다. 이를 위해 마이크로소프트(MS) 등 해외 빅테크들의 앞선 거버넌스 사례를 검토 중이다.
특히 SK텔레콤은 올 1월 회사 경영에 ‘AI 거버넌스’를 도입하기로 결정하고, 3월 주주총회를 통해 AI 거버넌스 원칙인 ‘T.H.E. AI’를 공개했다. 이를 바탕으로 행동 원칙을 담은 ‘AI 행동 규범’도 수립해 사규에 반영하고 전 구성원 실천 서약을 마쳤다.
‘T.H.E. AI’는 이동통신 사업에서 축적된 고객 데이터 관리 노하우를 다양한 AI 기술 서비스에 적용해 고객에게 안전하고 신뢰할 수 있는 AI 서비스를 제공하는 것을 목표로 하고 있다. 또한 AI 기술이 모든 고객에게 편향 없이 작동해 디지털 약자가 발생하지 않도록 하며, 이를 통해 교육 건강 고용 등 다양한 사회 문제 해결에 도움이 될 수 있도록 사람 중심의 환경을 구축하는 것을 우선한다. 윤리적 가치 중심(with Ethics) 행동도 강조, AI 기술에 비차별·비폭력 가치가 적극 적용될 수 있도록 기준을 마련하는 데 중점을 둔다.
정재헌 대외협력담당(CGO·사장)은 “AI 기술의 파괴적 속성을 적절히 제어하고 예방하는 것은 AI 발전과 확산을 위한 가장 큰 도전이 될 것”이라며 “앞으로 AI 거버넌스 정립과 확산을 주도해 나가겠다”고 강조했다.
댓글 0