"AWS, 책임감 있는 AI를 추구하는 것은 수익성과 직결" [AWS 리인벤트 2023]

  • 동아닷컴
  • 입력 2023년 12월 1일 10시 49분


지난 11월 20일, 오픈AI의 샘 알트만 최고경영자가 해임됐다가 열흘도 되지 않아 다시 복귀하는 사건이 있었다. 배경을 놓고는 말이 많지만, 비영리단체로 시작한 오픈AI의 기존 창업자들과 상업적 목적을 추구하는 샘 알트만 CEO간의 대립이 원인으로 꼽힌다. ‘책임감 있는 인공지능(Responsible AI)’라는 요소가 AI를 개발할 때 참고해야 하는 사안이 아닌 필수적으로 고려해야 하는 원칙이 되었음을 분명히 보여준 사건이다.

다이야 윈(Diya Wynn) AWS 책임감 있는 AI 선임 실무 관리자 / 출처=IT동아

AWS는 이 분야에서 가장 정석적인 행보를 걷고 있다. AWS는 급속한 성장이 혁신적이지만, 자칫 새로운 문제를 야기할 수 있다는 시각을 바탕으로 책임감 있게 AI를 연구하는 방안을 지침으로 삼는다. 이들은 공정성, 설명 가능성, 사생활 및 보안, 견고함, 운영 방식(거버넌스), 투명성을 책임감 있는 AI의 핵심 요소로 삼고, 이를 실현하기 위한 파트너십과 연구 지원, 다양성 및 포용성, 공공 정책 등에 기여하고 있다. 리인벤트 2023에서도 베드록 가드레일이나 투명한 워터마크 등 다각적인 기술로 책임감 있는 AI를 실현하고 있다.

이를 이끌고 있는 사람이 다이야 윈(Diya Wynn)이다. 그녀는 6년 전부터 AWS에 합류한 AI 윤리학자로, 현재 AWS의 책임감 있는 AI 선임 실무 관리자다. 그녀는 소프트웨어 제품 관리 및 개발, 기민한 해결 방안(애자일 방법론), 클라우드 컴퓨팅 전문가이기도 하며, AWS의 책임감 있는 AI 리더로 활약한 것은 3년 이상이다. 특히 AI 개발 중 의도치 않은 잠재적 문제들을 발견하고, AI 또는 기계학습 시스템에서 발생할 수 있는 위험을 완화하기 위해 노력하고 있다. 리인벤트 2023에서 그녀를 만나 AWS의 책임감 있는 AI에 대한 인터뷰를 진행했다.

아담 셀립스키 AWS 최고경영자가 기조연설에서 책임감 있는 AI에 대한 설명을 했다 / 출처=IT동아

우선 올해 리인벤트 2023에서 주목할만한 책임감 있는 AI 요소에 대해 먼저 설명했다. 다이야 윈은 “리인벤트 2023에서 공개된 타이탄 이미지 제너레이터의 경우 투명 워터마크를 새기는 것이 기본 설정이다. 이는 지난 7월 백악관과 합의한 책임감 있는 AI 의지를 직접 보여주는 정책이다”라며 설명을 시작했다. 이어서 “가드레일 역시 유해성 콘텐츠를 거르는 것에 중점을 둔다. 특히 기존에 책임감 있는 AI를 실현하는 기업이 아마존 베드록을 사용한다면 한 겹 더 책임감 있는 AI를 실천하게 되는 셈이다”라는 점도 강조했다.

아울러 리인벤트 2022에서 공개한 ‘AWS AI 서비스 카드’가 업데이트된 부분도 언급했다. AI 서비스 카드는 아마존 서비스로 AI를 개발하는 사람들이 어떻게 책임감 있게 AI를 만들어야 하는지를 설명해 주는 카드다. 처음에는 얼굴 인식, 신분증 인식, 심화학습의 배치(Batch)와 관련된 내용이었고, 올해 언어 유해성, 의료 임상, 개인식별정보(PII), 타이탄 LLM, 제3자 얼굴 접근 방지 카드를 추가했다. AWS가 새로운 서비스를 내는 것뿐만 아니라, 사용자도 책임감 있게 AI를 만들 수 있도록 지침을 내리는 것이다.


다이야 윈은 책임감 있는 AI가 수익성과 직결되는 그 자체라고 설명했다 / 출처=IT동아

하지만 책임감 있는 AI라는 요소는 수익성과 직결되지는 않아 보인다. AWS는 수익성과 윤리성을 어떻게 절충하고 있는지를 물었다. 다이야 윈은 “우리는 책임감 있는 AI 그 자체가 수익성과 직결된다고 생각한다. 고객들이 기술을 믿지 못하고, 서비스를 신뢰하지 않는다면 수익성에 타격이 있을 수밖에 없다. AWS가 서비스를 넓히고 광범위하게 적용하는 능력 자체에 타격을 입힐 것이다. 수익성을 위해서는 계속 책임감 있는 AI를 필요로 하고, 신뢰를 얻어야 사업을 유지할 수 있다”라고 덧붙였다.

다이야 윈의 경우 개발 직군보다는 기업들을 만나는 쪽이 주 업무다. 그렇다면 그녀가 만나는 기업들이 책임감 있는 AI를 실천할 때 어려워하는 부분들은 무엇일까? 그녀는 “생성형 AI에 대해서라면 지식 재산권 보호나 자체 기업 데이터, 외부로 유출되거나 외부에서 유입이 되면 안 되는 데이터, 저작권에 대한 요소들, 또는 공정성이나 편향을 줄이는 것에서도 어려움을 겪는다. 의도치 않은 데이터에서 나오는 유해성 등도 신경쓰는 요소다”라고 답했다.

유럽연합의 AI 규제 법안인 인공지능법(AIA)와 디지털서비스법(DSA), 디지털시장법(DMA)가 책임감 있는 AI에 얼마나 영향을 미칠까 묻는 질문에 대해서는 “EU의 AI 법률은 많은 기업들에게 GDPR(유럽 연합 일반 데이터 보호 규칙)과 같은 영향을 미칠 것으로 본다. 이미 AWS는 EU의 동향을 긴밀하게 살펴보고 있고, 공공 정책 팀이 긴밀하게 입법의 진행 과정을 따라가고 있다”라고 말했다.

이어서 다이야 윈은 “우리로써는 개발자나 사용자들이 완벽하게 책임감을 가진다고 볼 수 없다. 기술은 선을 위해서도, 악을 위해서도 쓰일 수 있다. 좋은 의미더라도 불공정한 방향으로도 쓰일 수 있다. 이런 부분에서 제도나 입법은 상당히 도움이 될 것이고, 또 법을 통해 악의를 가진 자들에게 제약을 가하는 것도 필요하다”라는 의견을 밝혔다.

동아닷컴 IT전문 남시현 기자 (sh@itdonga.com)
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

오늘의 추천영상

지금 뜨는 뉴스

  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0