[이승우의 IT 인사이드] 조작의 시대에서 살아남는 법

입력
수정2020.11.17. 오후 6:16
기사원문
이승우 기자
성별
말하기 속도

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

이승우 IT과학부 기자
어도비와 엔비디아가 지난달 선보인 포토샵의 '뉴럴 필터' 기능. 슬라이드바를 조절하는 것만으로 사람의 나이와 시선, 표정 등을 바꿀 수 있다. 어도비 제공

최근 온라인 커뮤니티에서 화제가 된 사진이 있다. ‘페이스앱’이란 사진 편집 앱을 종영한 예능 프로그램 ‘무한도전’의 캡처 사진에 적용했더니 유재석, 박명수의 얼굴이 아이돌 못지않은 외모로 변신했다. 턱선을 갸름하게 하고 눈을 키우고 수염을 정리하는 등의 변화로 원래 얼굴 흔적은 남기면서도 ‘꽃미남’이 된 모습은 생소하면서 흥미로웠다.

사진 편집 프로그램 포토샵으로 유명한 어도비는 지난달 기술콘퍼런스에서 엔비디아와 함께 ‘뉴럴 필터’라는 기술을 선보였다. 인공지능(AI)을 활용해 초보자도 쉽게 사진을 바꿀 수 있게 돕는 기술이다. 포토샵의 복잡한 기능을 몰라도 단순히 슬라이드바를 움직이는 것만으로 사진의 날씨를 바꾸고 오래된 흑백 사진을 컬러로 복원할 수 있다.
몇초 만에 표정·나이 바꿔주는 AI
표정을 바꾸고, 얼굴 나이를 조절하고, 사진 속 날씨를 바꾸는 것까지 초보자도 손쉽게 사진을 편집할 수 있게 도와준다. 가령 비가 오는 야외 결혼식 날 잔뜩 찌푸린 신부 얼굴이 담긴 사진이 마음에 들지 않는다면 햇빛이 쨍쨍한 날 축복받는 행복한 신부 표정으로 바꿀 수 있는 것이다.

사용자의 PC 성능과 상관없이 클라우드의 AI 덕분에 몇초 만에 작업이 끝난다. 예전 같으면 숙련된 전문가가 수시간을 들여야 했을 일을 누구나 몇 초 만에 바로 할 수 있다.

페이스앱과 포토샵 뉴럴 필터의 근간을 이루는 기술은 같다. 둘 다 기계가 스스로 학습해 진화하는 머신러닝 알고리즘이 적용됐다. ‘GAN(generative adversarial network·생성적 대립 신경망)’ 기술은 가짜 이미지를 만드는 ‘생성자’와 이미지의 진위 여부를 감별하는 ‘판별자’를 경쟁하게 하는 방식으로 학습한다. 범죄자는 더 정교한 위조지폐를 만들려 하고, 경찰은 더 섬세한 판별기로 위조지폐를 찾아내려 하는 것과 마찬가지다. 이 과정이 계속 반복되면서 ‘진짜 같은 가짜’ 이미지가 탄생한다. 더 많은 이미지를 학습할수록 실제와 비슷한 결과물을 낼 수 있다.

GAN 같은 AI 기술을 활용한 사진이나 영상을 ‘딥페이크(deepfake)’라고 부른다. 딥러닝과 가짜란 말의 합성어다. 이런 기술로 다양한 일을 할 수 있다. 삼성전자는 이달 초 삼성 AI 포럼에서 ‘뉴럴 아바타’를 소개했다. 사진 한 장만으로 실제 대화하는 것 같은 3차원(3D) 얼굴 영상을 구현했다. 원격 화상회의에서 내가 직접 등장하지 않아도 미리 저장해놓은 사진으로 내 아바타를 만들어 화면에 띄울 수 있도록 하는 식이다.
"기술로 딥페이크 막을 수 없다"
안타깝게도 아직까지 딥페이크란 단어 뒤에는 가짜뉴스나 음란물이 따라붙는 게 현실이다. 네덜란드 사이버 보안기업 딥트레이스에 따르면 지난해 이 회사가 찾아낸 딥페이크 사진과 영상은 1만4678건으로 전년 대비 84% 늘었다. 이들 가운데 96%가 유명인의 얼굴을 음란물 영상에 끼워넣은 것이었다. 딥트레이스는 250장의 사진만 있으면 이틀 안에 딥페이크 영상을 만들어낼 수 있다고 지적했다.

기술이 발전할수록 인간이 가짜 사진과 영상을 구분하는 일은 더 힘들어질 것이다. 역설적으로 이 작업 역시 AI의 힘을 빌릴 수밖에 없다. 어도비는 지난달 열린 콘퍼런스에서 AI로 사진을 합성하고 변경하는 일은 물론 특정 사진이 수정·합성됐는지 찾아내는 기술도 선보였다. 이 회사는 지난해 가짜 뉴스 등에 대응하기 위해 ‘콘텐츠 진위 이니셔티브(Content Authenticity Initiative)’를 설립했다. 마이크로소프트, 트위터, 퀄컴 등 정보기술(IT) 기업은 물론 뉴욕타임스, BBC 등 언론사도 포함됐다.

하지만 ‘방패’보다 ‘창’의 발전 속도가 훨씬 빠른 게 현실이다. 기술 발전으로 누구나 사진을 조작하고 영상을 제작할 수 있게 됐다. ‘악의’를 갖고 무언가를 만드는 사람도 늘어날 것이다.

“장기적으로 볼 때 딥페이크를 기술로 막는 일은 불가능하다.” AI로 가짜 영상을 판별하는 탐지 도구를 개발한 마니시 아그라왈라 미국 스탠퍼드대 교수의 경고다. 그는 가짜 영상을 배포한 사람에 대한 처벌을 강화하는 등 기술이 아닌 제도적 방법으로 문제를 풀어가야 한다고 제안했다. 보고 듣는 것을 온전히 믿을 수 없는 시대가 생각보다 빨리 다가오고 있다.

leeswoo@hankyung.com



애플·테슬라 지금 사도 될까? 궁금하면 '해주라'
네이버에서 한국경제 뉴스를 받아보세요
모바일한경 구독신청

ⓒ 한국경제 & hankyung.com, 무단전재 및 재배포 금지

기자 프로필

이 기사는 언론사에서 오피니언 섹션으로 분류했습니다.
기사 섹션 분류 안내

기사의 섹션 정보는 해당 언론사의 분류를 따르고 있습니다. 언론사는 개별 기사를 2개 이상 섹션으로 중복 분류할 수 있습니다.

닫기
3