[DBR]“AI윤리 선도하는 기업이 기술 경쟁에서도 유리”

  • 동아일보
  • 입력 2024년 7월 1일 03시 00분


코멘트

AI윤리 권위자, 이상욱 한양대 교수
EU, AI법 통해 위험 규제
생성형 AI도 통제 대상에 포함
기업, 윤리 거버넌스 구축해야


인공지능(AI) 기술이 발전하면서 기대와 더불어 우려도 커지고 있다. 가짜뉴스의 범람, 학습한 데이터의 편향성에 따른 인종 혹은 성별 차 간 차별의 심화 등이 AI 활용에 따른 사회적 문제로 부상하고 있다. AI와 관련해 새롭게 대두되는 위험을 규제할 필요성이 커지면서 각국 정부는 AI를 규제하는 정책과 입법을 서두르고 있다. 특히 유럽연합(EU)은 올해 세계 최초의 AI 규제 법안인 EU 인공지능법(EU AI Act)을 통과시켰으며, 내년부터 단계적으로 시행할 예정이다. EU 인공지능법은 AI 시스템을 금지, 고위험, 제한된 위험(중위험), 저위험 등 4단계로 구분하고, 특히 고위험 AI 시스템에 대해 엄격한 관리 의무를 부과하는 것을 골자로 한다.

앞으로 AI 기술을 판매하거나 개발하는 기업은 EU AI법과 같은 규제에 어떻게 대응해야 할까? DBR(동아비즈니스리뷰) 395호(6월 2호)에 실린 이상욱 한양대 철학과 교수의 인터뷰 기사를 요약해 소개한다. AI 윤리 분야의 세계적 전문가인 이 교수는 2017년부터 유네스코 세계과학기술윤리위원회 부위원장으로 활동하면서 국내 AI 윤리 거버넌스 구축에도 참여하고 있다.

이상욱 한양대 철학과 교수는 2017년부터 유네스코 세계과학기술윤리위원회 부위원장으로 활동하고 있다. 현재 AI전략최고위협의회 
윤리안전분과 위원장으로, 국내 인공지능(AI) 윤리 거버넌스 구축에 주도적으로 참여하고 있다. 강지남 DBR 객원기자 
jeenam.kang@gmail.com
이상욱 한양대 철학과 교수는 2017년부터 유네스코 세계과학기술윤리위원회 부위원장으로 활동하고 있다. 현재 AI전략최고위협의회 윤리안전분과 위원장으로, 국내 인공지능(AI) 윤리 거버넌스 구축에 주도적으로 참여하고 있다. 강지남 DBR 객원기자 jeenam.kang@gmail.com

● AI 기술의 위험성

―EU가 AI법을 제정한 이유는 무엇인가.

“EU는 AI를 사회적 통제가 필요한, 위험성이 큰 기술로 판단했다. AI가 완성된 기술이 아님에도 불구하고 윤리로만 규제하기에 그 위험성이나 폐해가 매우 크다고 본 것이다. 특히 생성형 AI의 등장이 이번 법 제정에 중요한 계기가 됐다. EU는 몇 년 전부터 AI 위험도를 4단계로 구분하는 법제화 방안을 검토해 왔는데 이번에 생성형 AI 규제안을 추가했다. 생성형 AI 기술이 정말로 특별하고 위험하다 보니 규제 법제화를 통해 정부가 통제권을 갖고 있어야 한다고 판단한 것이다.”

―AI 기술의 위험성이 최근 많이 거론되는데….

“AI 기술은 쉽게 악용될 수 있다. 일례로 신약 개발 후보 물질을 찾아내는 AI 모델에 질문을 바꿔 가장 독성이 높은 물질을 찾아 달라고 요청하면 후보 물질들을 쏟아낸다. 다시 말해, 한두 개 파라미터(parameter·매개변수)만 바꿔도 전혀 반대되는 목적으로 AI를 활용할 수 있다. 소프트웨어 개발 윤리 중 하나는 베타 테스트를 충분히 진행해 큰 부작용이 없다는 게 검증됐을 때 공개하는 것이다. 그런데 오픈AI는 이런 윤리를 어기고 베타 버전의 챗GPT를 공개했고, 엄청난 성공을 거뒀다. 이후 구글이 초기 버전의 생성형 AI 모델 제미나이를 공개하는 등 소프트웨어 개발 윤리가 무너지고 있다. AI 석학들이 AI 위험성을 경고하는 것은 이 같은 현실 때문이다.”

● 규제, AI 경쟁력 강화에 도움

―AI 규제 법안의 내용은 모호한데 처벌은 매우 강력하다.

“기업 입장에선 무엇을 어떻게 하라는 것인지 모르겠다는 불만이 있을 수 있다. 하지만 AI 기술이 급속도로 발전하고 있기 때문에 세세한 사항을 명문화하면 법안 발효 시점에서 이미 철 지난 이야기가 될 수 있다. 그래서 법안 내용이 계속 업데이트될 것이라고 명문화해 놓았다. 이에 대응하기 위해 기업은 선제적으로 AI 윤리 거버넌스를 구축하는 데 신경을 쓸 필요가 있다.

매출의 3%를 벌금으로 부과한다는 조항도 자율 규제를 추구하는 것으로 이해할 수 있다. 이번 법안에 따르면 EU 내에서 AI 기술을 개발 혹은 판매하는 기업은 EU의 요구 조건을 만족했다는 서류를 제출해야 한다. 그리고 EU는 문제가 있다고 판단될 때만 해당 기업을 조사한다. 물론 기업은 이의 신청을 할 수 있고 소명할 기회도 보장받는다. 벌금 부과까지 가는 여정이 매우 길다. 이 법의 궁극적 목적은 기업으로 하여금 AI 기술을 윤리적 방식으로 개발하고 판매하도록 하는 것이다. 현명한 기업이라면 어떻게 최소 비용으로 규제 체계에 대응할 것인가에 집중해야 한다. 즉, AI 윤리 역량을 개발하는 비용을 지금 쓰는 것이 훗날 소송 등에 드는 비용보다 훨씬 경제적일 것이다.”

―기업이 AI 윤리에 투자하는 것이 경쟁력 강화에 도움이 될까.

“미국 빅테크 기업의 기술이 가장 앞서 있다는 것은 모두가 잘 안다. 하지만 다른 한편으로 저개발국은 데이터 안보, 데이터 주권 등의 이슈로 미국의 기술을 도입하기를 주저한다. 한국은 바로 이 틈새시장을 노릴 수 있다. 예컨대, 상대 국가의 데이터 주권과 사회문화적 제도, 윤리적 고려 등에 충실하게 대응해주는 조건으로 AI 기술 개발 프로젝트를 수주하는 것이다. 실제로 국내 기업들을 만나보면 상대 국가와 상생하는 조건으로 기술 수출 계약을 한 경험이 있다고들 말한다.”

―국내에서도 AI 규제 논의가 활발하다.

“선진국보다 먼저 AI 규제 법안을 만드는 것이 바람직하다고는 할 수 없다. 그렇다고 손 놓고 있어서도 안 된다. 한국적 특성에 맞는 AI 윤리 표준을 만들어야 AI 규제를 먼저 치고 나가는 미국이나 유럽의 요구에 전략적으로 대응할 수 있다. 기업들도 AI 기술을 윤리적으로 개발하는 것이 해외는 물론이고 국내에서도 더는 미룰 수 없는 과제임을 인식해야 한다. 그리고 전사적으로 AI 윤리의 중요성을 이해시키고, 구성원들을 설득해야 한다.”


강지남 DBR 객원기자 jeenam.kang@gmail.com
정리=배미정 기자 soya1116@donga.com
#ai규제#인공지능#ai윤리
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스