[AI 경고등] “보안기준 마련 때까지 일시 제한 외부 사용 때도 회사정보 입력 안돼”
삼성전자 서초사옥 / 뉴스1
삼성전자가 기밀 유출 등을 우려해 직원들에게 챗GPT, 구글 바드(Bard), 마이크로소프트의 검색엔진 빙(Bing) 등과 같은 생성형 인공지능(AI) 사용을 잠정 제한하기로 했다.
2일 재계에 따르면 삼성전자 디바이스경험(DX) 부문은 지난달 말 임직원들에게 “사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다”고 공지했다. 기한은 보안 문제 없이 안전하게 사용할 수 있게 될 때까지다.
회사는 “임직원들이 보안상 안전한 환경에서 생성형 AI를 활용해 업무 편의성과 효율성을 높일 수 있도록 대응 방안을 검토하고 있다”며 “회사 밖에서 사용할 때도 회사 관련 정보나 개인정보 등은 입력하지 않는 등 유의하라”고 당부했다. 지침 위반 시 최대 해고를 포함한 징계 조치를 받을 수도 있다고 경고한 것으로 알려졌다.
해외 기업들도 생성형 AI를 통한 기밀 유출을 막기 위한 조치를 취하고 있다. 민감한 고객 정보를 다루는 뱅크오브아메리카, 골드만삭스 등 글로벌 금융사들은 일찍이 챗GPT 사용을 전면 금지했다.
박현익 기자 beepark@donga.com