탑배너 닫기

전체메뉴보기

"내 사진 1장이면 합성 포르노가...딥페이크 심각"



사회 일반

    "내 사진 1장이면 합성 포르노가...딥페이크 심각"

    딥페이크 기술 이용한 가짜 포르노 전세계 유포
    25%가 한국 여성 연예인 얼굴 합성
    직접 찍은 영상 아니란 이유로 처벌 명확하지 않아
    미국 일부 지역에선 리벤지 포르노에 준하는 처벌 시도

    ■ 방송 : CBS 라디오 <김현정의 뉴스쇼=""> FM 98.1 (07:30~09:00)
    ■ 진행 : 김현정 앵커
    ■ 대담 : 지윤성(링크브릭스 대표)

    A라는 사람 몸에 B 사람 얼굴을 붙이는 사진 합성, 이건 뭐 놀랄 일이 아니죠. 간단하죠. 그런데 사진이 아닌 동영상도 이렇게 합성이 가능할까? 이건 뭐, SF 영화에서나 쓰는 고난이도 기술 아니야? 이러실지 모르겠습니다만, 이제는 일반인도 손쉽게 할 수 있게 되면서 심각한 피해가 발생하고 있습니다. 이런 기술을 ‘딥페이크’라고 하는데요. 이 기술을 이용해 만든 가짜 포르노가 전 세계적으로 유포가 되고 있고, 그중에 25%가 한국의 여성 연예인 얼굴을 합성했다고 합니다. 자세한 이야기, 전문가와 함께 나눠보죠. 링크브릭스 지윤성 대표, 어서 오십시오.

     

    ◆ 지윤성> 안녕하세요. 지윤성입니다.

    ◇ 김현정> 사진이 아니라 동영상도 합성을 한다?

    ◆ 지윤성> 네, 맞습니다.

    ◇ 김현정> 이런 기술을 딥페이크? 심각한 가짜... 해석을 하자면 이런 거네요?

    ◆ 지윤성> 정확하게 표현을 드리면 딥러닝이라는 AI 머신러닝 기법이 있습니다. 해당 기술을 사용해서 영상의 특정인의 얼굴을 다른 영상이나 이미지에 있는 얼굴로 정교하게 대체하는 걸 ‘페이스 스와핑’이라고 해요, 얼굴 바꿔치기. 그 페이스 스와핑을 통해서 만들어진 위변조된 동영상을 딥페이크라고 합니다, 원래는. 기술을 지칭하는 용어는 아니고요.

    ◇ 김현정> 아니, 영화에서 CG라고 그러잖아요. 컴퓨터 그래픽으로 합성하는 기술이야 우리가 알고 있었습니다마는 자연스럽게 합성을 하려면 무지하게 어려운 기술이다. 할리우드에서나 한다. 이런 얘기를 들으면서 사실은 살아왔는데. 이제는 그걸 대단한 전문가가 아닌 일반인도 할 수 있다고요? 그러려면 사진이 엄청나게 필요한 거 아니에요?

    ◆ 지윤성> 이게 기술이 나온 건 3년 정도 됐는데요. 옛날에는 이제... 옛날이라고 해 봤자 3년 전입니다. 다양한 각도, 다양한 표정, 다양한 조명 상태의 얼굴 사진이 수백 장 이상 있어야 돼요.

    ◇ 김현정> 그렇죠. 왜냐하면 동영상이라는 건 표정이 같이 움직여야 되니까.

    ◆ 지윤성> 맞습니다. 그래서 사진이 수백 장 이상 있든가 아니면 우리가 동영상은 15fps처럼 정지 이미지의 연속이잖아요. 그러니까 동영상을 어느 정도 길이가 되는 영상이 있어야 되는데 지금은 사진 1장 갖고도 그런 것들을 할 수 있습니다.

    ◇ 김현정> 1장으로요?

    ◆ 지윤성> 네, 맞습니다.

    ◇ 김현정> 그러면 제 얼굴 사진 1장 가지고도 합성 동영상을 만들 수 있다고요? 가짜 동영상을?

    ◆ 지윤성> 네, 만들 수 있습니다.

    ◇ 김현정> 이거, 조금 이따가 보여드릴 이 영상, 아마 보시면 깜짝 놀라실 텐데 이거를 누구나 쉽게 만들 수가 있어요?

    ◆ 지윤성> 맞습니다. 이게 딥페이크라는 용어 자체는 실제로는 그러한 기술을 3년 전에, 2017년에 미국의 유명한 커뮤니티 사이트가 있습니다, 레딧이라고. 거기에 아이디가 딥페이크인 분이 그 기술을 공개해버린 거예요. 그때 아이디가 딥페이크였기 때문에 딥페이크라고 알려진 겁니다. 그래서 지금은 누구나 그걸 활용할 수 있고요. 또 앱으로도 나와 있고. 중국에서는 1위를 하고 있는 앱이 있고요.

    ◇ 김현정> 세상에. 그러면 저 같은 사람. 저 되게 IT 이런 거 잘 모르거든요. 저 같은 사람도 그 앱 다운받으면 막 만들 수 있을 정도로?

    ◆ 지윤성> 네, 만들 수 있습니다. 초등학생도 만들 수 있을 정도고요.

    ◇ 김현정> 세상에... 문제는 유명 여자 연예인들의 얼굴에다가 포르노 동영상을 합성해서 만드는 가짜 영상들, 그러니까 제가 재미로, 재미로 집에서 이렇게 만들어보는 그게 아니라 포르노 영상에다가 연예인 얼굴을 넣어서 만드는 이런 딥페이크 음란물이 무분별하게 유포되고 있다는 거잖아요. 얼마나 심각해요?

    ◆ 지윤성> 영국의 가디언지 같은 경우는 이게 인격 살인에 준한다라고도 이야기하고 있습니다. 실제로 작년에는 우리나라 아이돌 여자분, 여성 가수분이 계셨는데 이게 무슨 그럴듯한 시나리오하고 합쳐지면서 예를 들면 남자친구인 연예인의 스마트폰에서 유출된 영상이야, 하면서 이게 더 파괴력이 세진 거죠, 이제.

    ◇ 김현정> 그런 설명까지 붙이면서 그럴 듯하게?

    ◆ 지윤성> 살이 더 붙으면서 실제로는 만들어진 딥페이크 영상인데 실제 유출된 몰카처럼. 이렇게 유통돼서 사회 문제가 된 경우도 있었습니다.

    ◇ 김현정> 저희가 그걸 보여드릴 수는 없는데. 대표님은 보셨잖아요? 취재를 위해서. 진짜로 감쪽같아요?

    ◆ 지윤성> 거의 구분하기 힘들고요. 너무 많습니다. 지금 그런 것들이.

    ◇ 김현정> 이런 피해 여성 중에 우리나라 연예인이 많은 이유는 뭐예요?

    ◆ 지윤성> 미국의 대중 문화 전문지인 롤링스톤지가 최근에 보도 자료를 하나 냈는데요. 해당 딥페이크 음란물, 음란물의 경우에 45% 정도가 미국이나 영국 연예인들이었고 25%가 우리나라 아이돌 가수라고 합니다. 왜냐하면 K-POP이 유행하다 보니까 아주 고화질의 예쁜 우리나라 연예인들이 나온, 아이돌 그룹이 나온 영상들이 유튜브에 너무 많은 거예요. 그 영상들을 활용해서 만들기 쉬워진 거고요. 특히 여자를 대상으로 하는 이유는 기존에 우리가 합성하려고 하는 음란물에 보면 주로 남자 얼굴이 나오는 게 아니고 여자 얼굴만 나오잖아요. 그러다 보니까 여자 아이돌을 활용하는 경우가 너무 많습니다.

     

    ◇ 김현정> 자, 딥페이크 기술을 이용한 영상을 한번 지금 잠깐 보시겠습니다. 이 정도입니다, 여러분. 지금 라디오로 들으시는 분들한테는 조금 죄송합니다마는 일단 화면으로 보시는 분들은... 보여주세요, 화면을.

    ◆ 지윤성> (영상 보면서) 저게 원본입니다.

    ◇ 김현정> 저를 가지고 만드셨어요? 지 대표님이 만드신 거예요? 제가 공개 방송하는 날 찍은 영상을 가지고. 이걸 가지고 어떻게 만드신 거예요?

    ◆ 지윤성> 저기다 트럼프 영상을 살짝 한번 넣어봤어요. (트럼프 대통령 영상 보면서)저 영상을 한번 넣어본 겁니다.

    ◇ 김현정> 이게 아까 전의 제 영상이고 지금은 트럼프 영상이고.

    ◆ 지윤성> 맞습니다. 저희가 빨리 만든다고 약간 이제 티는 날 수 있지만 트럼프의 표정이 아마 그대로 드러났을 것 같아요. (합성영상 보면서)보통 저 정도 만드는 데 다섯 시간 정도 걸리고요.

    ◇ 김현정> 제가 설명을 좀 드릴게요(웃음) 라디오로 들으시는 분들. 제 얼굴, 제 몸에다가 트럼프 얼굴을 얹으셨어요. (웃음)그만 봐도 될 것 같아요. 이건 지금 급하게 만드시느라고 정교하게는 못 만드셨는데. 정교하게 만들면 부모도 못 알아볼 정도라면서요?

    ◆ 지윤성> 거의 구분할 수 없을 정도로까지 가능합니다.

    ◇ 김현정> 그렇군요. 사실은 저도 기억나는 것이 오바마가 하지도 않은 얘기를 마치 오바마가 기자 회견장에서 하는 것처럼 기자들이 속아서 기사까지 썼어요. 알고 보니까 이게 페이크였어요, 딥페이크. 이랬던 일이 미국에서 벌어지기도 했었습니다, 여러분. 그래요. 그러면 우리나라 연예인들. 웬만한 연예인들의 딥페이크 영상은 다 있다고 할 정도라면서요?

    ◆ 지윤성> 100% 있습니다. TV에서 흔히 볼 수 있는 여자 연예인들은 다 있다고 보시면 됩니다.

    ◇ 김현정> 세상에... 이거 적발되면 처벌은 어떻게 돼요?

    ◆ 지윤성> 이 문제 때문에 전 세계가 골머리를 앓고 있습니다. 문제는 이거예요. 딥페이크 음란물의 경우에 해당 영상은 실제로 우리가 흔히 말하는 리벤지 포르노처럼 직접 찍은 건 아니고 만든 거잖아요. 그러다 보니까 처벌이 명확하지 않은 거예요.

    ◇ 김현정> 잡아도?

    ◆ 지윤성> 네. 그래서 미국 같은 경우는 현재 강화가 돼서 올해 7월부터는 버지니아주 이외에 몇 개 주는 그렇게 만들어진 영상이라도 리벤지 포르노에 준하는 걸로 이미 명문화시켜놨습니다.

    ◇ 김현정> 아, 복수 포르노? 헤어진 연인이 내놓는 실제 성관계 사진... 영상처럼?

    ◆ 지윤성> 맞습니다. 얼굴만 바뀌었더라도, 몸은 다른 사람이고 만들어졌지만 그것도 리벤지 포르노로 규정을 해서 처벌을 강화하고 있다라는 거예요.

    ◇ 김현정> 정말 강력하게 처벌하고 있다는 얘기잖아요? 우리나라의 지금 현재는 어때요?

    ◆ 지윤성> 우리나라 같은 경우는 아직 딥페이크라는 것을 리벤지 포르노로 규정하고 있지는 않습니다. 현재 리벤지 포르노 같은 경우에 작년 11월에 강화가 돼서 본회의를 통과했는데, 일단 최대 벌금형을 제외하고 7년 이하 징역에 처하게 돼 있는데 중요한 건 그건 직접 찍었을 경우.

    ◇ 김현정> 아... 그러면 지금은 사실상?

    ◆ 지윤성> 명문화 돼 있지 않습니까?

    ◇ 김현정> 없어요? 그러면 지난번에... 작년인가요? 설현 씨가 잡았잖아요. 그러면 처벌 안 된 거예요, 그 경우는?

    ◆ 지윤성> 처벌은 된 걸로 알고 있는데요. 그 경우에는 어떤 걸 적용 하냐면, 보통 유명 연예인은 초상권 침해...

    ◇ 김현정> 초상권 침해? 그러면 약했겠네요, 처벌돼봤자.

    ◆ 지윤성> 그다음에 두 번째는 음란물 음화 배포. 그러니까 처벌 규정이 좀 약한 거죠, 이제.

    ◇ 김현정> 여러분, 이게 심각한 문제입니다. 완전한 인격 살인이 되는 건데... 심지어 포르노를 가지고 합성을 했다면 솜방망이 처벌, 이 사각지대가 어디 있는지 우리가 이번 기회에 점검하고 나가야 될 것 같고요. 지 대표님, 혹시 시간이 되시면 댓꿀쇼까지 같이...

    ◆ 지윤성> 알겠습니다.

    ◇ 김현정> 영상 몇 개 더 준비해 오셨다면서요. 유튜브 댓꿀쇼로 조금 더 지 대표와 함께 이 딥페이크가 얼마나 심각한, 또 어떤 기술인지 얘기 좀 해 보겠습니다. 오늘 고맙습니다.

    ◆ 지윤성> 감사합니다.(속기=한국스마트속기협회)

    이 시각 주요뉴스


    Daum에서 노컷뉴스를 만나보세요!

    오늘의 기자

    많이 본 뉴스

    실시간 댓글

    투데이 핫포토