본문 바로가기
리뷰

딥페이크 기술, 선인가 악인가

by 허니꿀 2022. 8. 7.
반응형

딥 페이크는 예전에는 단순히 성인 동영상에서 배우의 얼굴 대신 연예인이나 다른 일반인 얼굴을 덧씌워 문제가 되곤 했다. 이제는 그 정도가 끝이 아니다. 한 회사의 CEO를 흉내 내 자금을 빼돌리기도 하고, 전쟁 중인 나라의 대통령을 흉내 내 가짜 뉴스를 만들기도 한다. 

 

딥 페이크 기술이란

인공지능 AI의 딥러닝 Deep Learning과 가짜라는 Fake의 합성어이다. 딥 페이크(deepfake)는 딥러닝(deep learning)과 페이크(fake)의 합성어다. 적대관계 생성 신경망(GAN:Generative Adversarial Network)이라는 기술을 기반으로 만들어졌다.

 

적대관계 생성 신경망이란 흔히 도둑과 경찰, 지폐 위조범과 감식반 등으로 묘사된다. 한쪽 AI는 계속해서 가짜를 만들어 낸다. 한쪽은 그걸 계속 분석하고 잘못된 부분을 찾아낸다. 이 과정을 반복하다 보면 감식, 판별을 하는 AI가 구분하지 못할 만한 단계가 오는데 이때까지 계속해서 AI들끼리 경쟁한다고 보면 된다. 

 

딥 페이크 악용 사례

딥 페이크 문제가 대두 됐던 것은 2017년 즈음, 한 사이트에 해당 기술을 바탕으로 연예인 얼굴을 원래의 배우 얼굴 위에 덧 씌운 포르노 영상이 올라왔다. 그 뒤로 한 동안은 대부분의 딥페이크 기술이 성인 동영상 관련으로는 소비되었다. 당연히 그것만으로도 경각심을 가질만한 기술이었다. 생각해보라, 청순한 이미지를 가진 배우가 발가벗고 다른 이성(혹은 동성)과 몸을 섞는 장면을.

 

차라리 연예인이면 소속사 차원에서 대응하여 유포자를 처벌하고 법적 조치를 취함으로써 사태를 무마시킬 수도 있다. 

그런데 일반인이라면? 같은 반 친구가, 같은 과, 같은 동네 지인이 마음에 안 든다고, 장난으로, 혹은 다른 마음으로 해당 영상을 제작해서 유포했다고 생각해 보자. 정말 끔찍한 결과를 초래할 것이다. 

 

"SBS 그것이 알고 싶다"에서 술이나 약에 취해 성관계 동영상을 본인의 의지와 상관없이 찍혀 그게 파일 공유 사이트를 돌아다녀 견디다 못해 자살한 이를 다룬 적이 있다. 본인이 직접 나온 영상보다는 못하겠지만 본인의 얼굴이 나온 성인 동영상이 있다면 어떻겠는가. 그건 그것대로 끔찍한 상황일 것이다. 

우리나라는 아직 성교육이나 성문화에 대해 소극적이고 음성적인 경향이 있다. 해당 영상이 있다면 당사자만 제외하고 다른 사람들끼리 수군거릴 것이고 진위 여부와 상관없이 당사자는 견디기 힘든 모멸감을 느끼게 될 것이다. 즉, 사람 한 명 바보 만드는 건 일도 아니라는 거다. 

 

더 큰 사회적 문제는 최근 들어 발생하고 있다.

한 회사의 CEO의 음성을 흉내 내어 자금이 유출되는 사건이 있었다. 한 나라의 대통령을 모방해 그 나라 국민들의 사기가 떨어지는 영상도 유포된 적이 있다. 어떤가. 이쯤 되면 유튜브에 퍼져 있는 "가짜 뉴스"를 앞으로는 더 걱정해야 되겠다는 생각이 들지 않는가? 예전에도 사진을 합성하고 변경하는 기술은 존재해 왔다. 하지만 이제는 움직이는 동영상조차 함부로 믿을 수 없는 시대가 되었다. 

 

딥 페이크 순기능

당연히 기술이 개발됨에 있어 원래의 목적은 선의를 가지고 사람들을 널리 이롭게 하기 위해 만들어졌을 가능성이 높다. 앞서 말한 GAN을 기반으로 어도비 사에서는 특정인의 사진으로 그 사람의 나이대와 기분 변화를 표현하는 기술을 개발했다. 그것이 알고 싶다에서는 실종 아동 '모영광'군의 사진을 바탕으로 현재의 모습을 만들어 내어 방송에 내보냈다. 해당 영상을 보고 본인이 혹은 주변 사람이 '어? 너 저 사람이랑 좀 닮은 것 아니야?'하고 생각할 수도 있다. 

 

또 유명 예술가, 과학자, 배우의 모습도 실제 살아 있고 반응하는 영상으로 만날 수 있다. 그 사람의 사진이나 과거의 작품, 업적을 책이나 동영상에서 만나는 것을 넘어, 그 사람에게 직접 듣고, 배우고, 이야기를 나눌 수 있다면 몰입도가 더 클 것이라 생각된다. 

인공지능 가상 인플루언서처럼 해당 배우가 불의의 사고로 작품을 끝까지 못하는 경우에도 가상의 인물 혹은 딥 페이크 기술을 이용한 다른 인물이 그 대역을 할 수도 있게 되었다.

 

솔직히 걱정이 앞선다

기술을 악용하는 집단이 있으면 이를 막는 집단도 있다. 마치 GAN처럼. 하지만 전화통화 만으로도 보이스피싱에 당하는 피해자가 아직도 제법 있다. 그런데 목소리를, 얼굴을 들이밀며 영상통화로 사기를 치는 보이스피싱, 페이스 피싱(?)을 일반인이 잘 대응할 수 있을까?

정보의 범람으로 사람들의 정보 분석 능력이 요구되는 세상이 된지도 제법 되었다. 이제는 뉴스나 보도보다 인터넷, 유튜브에 있는 정보를 더 신뢰하는 수준까지 왔다. 문제는 그중에서 제대로 된 정보를 가리는 작업이다. 그냥 생각 없이 받아들이다 보면 남들이 원하는 데로 살 게 된다. 딥 페이크 기술 또한 마찬가지다. 해당 영상을 만드는 사람은 목적을 가지고 만들고 우리는 이제 정보의 옳고 그름 뿐만 아니라 이게 진짜인지, 가짜인지 또한 판별해야 한다. 

 

자신 있는가? 난 솔직히 자신이 없다.

재난 관련 책에서도 느낀 바이지만, 너무 많은 정보는 정보가 없는 상황과 비슷하다. 거기에서 옥석을 가리려면 우리는 다시금 아날로그 적인 방법으로 대응을 해야 할지도 모른다. 손글씨, 특정 암호, 내가 나라는 것을 증명할 복제 하기 힘든, 남들이 알아차리기 힘든 방식을 하나쯤은 준비해야 하지 않을까.

 

애플 TV에서 볼 수 있는 "핀치"라는 영화 중 암울한 상황에서 갈수록 인간성을 잃어가는 주인공 "사람"과 사람에 대해 더 배워가고 익숙해져 가는 주인공 "로봇"을 보며 사람이 사람다움을 증명해야 한다는 생각을 했었다. 딥 페이크 기술에서도 마찬가지로 우리는 AI를 맞이함에 있어 우리 스스로를 증명해야만 한다. 생각보다 더 빨리 AI는 성장하고 있다.

반응형

댓글