삼성전자 “사내 PC로 챗GPT 등 생성형 AI 사용금지”

입력
수정2023.05.03. 오전 4:55
기사원문
박현익 기자
본문 요약봇
성별
말하기 속도

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

[AI 경고등]
“보안기준 마련 때까지 일시 제한
외부 사용 때도 회사정보 입력 안돼”
삼성전자 서초사옥 / 뉴스1
삼성전자가 기밀 유출 등을 우려해 직원들에게 챗GPT, 구글 바드(Bard), 마이크로소프트의 검색엔진 빙(Bing) 등과 같은 생성형 인공지능(AI) 사용을 잠정 제한하기로 했다.

2일 재계에 따르면 삼성전자 디바이스경험(DX) 부문은 지난달 말 임직원들에게 “사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다”고 공지했다. 기한은 보안 문제 없이 안전하게 사용할 수 있게 될 때까지다.

회사는 “임직원들이 보안상 안전한 환경에서 생성형 AI를 활용해 업무 편의성과 효율성을 높일 수 있도록 대응 방안을 검토하고 있다”며 “회사 밖에서 사용할 때도 회사 관련 정보나 개인정보 등은 입력하지 않는 등 유의하라”고 당부했다. 지침 위반 시 최대 해고를 포함한 징계 조치를 받을 수도 있다고 경고한 것으로 알려졌다.

앞선 3월 삼성전자 디바이스솔루션(DS) 부문에서 챗GPT를 통한 기밀 유출 사례가 발생하며 생성형 AI에 대한 우려를 키웠다. 엔지니어가 소스코드를 챗GPT에 업로드해 중요 데이터가 회사 밖으로 흘러간 것이다. 이에 삼성전자는 지난달 초 내부 임직원들을 대상으로 AI 활용에 대한 설문조사를 진행했고 65%가 “사내 사용 시 보안 리스크가 있다”고 응답했다. DS부문은 아직 별도 공지를 내지 않은 상태로 글자 수, 용량 등을 제한하는 방식으로 사용하도록 하고 있다.

해외 기업들도 생성형 AI를 통한 기밀 유출을 막기 위한 조치를 취하고 있다. 민감한 고객 정보를 다루는 뱅크오브아메리카, 골드만삭스 등 글로벌 금융사들은 일찍이 챗GPT 사용을 전면 금지했다.

기자 프로필

이 기사는 언론사에서 경제, IT 섹션으로 분류했습니다.
기사 섹션 분류 안내

기사의 섹션 정보는 해당 언론사의 분류를 따르고 있습니다. 언론사는 개별 기사를 2개 이상 섹션으로 중복 분류할 수 있습니다.

닫기
이 기사를 추천합니다
3