[뉴스라이더] 진짜 같은 가짜 '딥페이크'...선거철 악용 방지 대책은?

[뉴스라이더] 진짜 같은 가짜 '딥페이크'...선거철 악용 방지 대책은?

2024.03.04. 오전 09:42
댓글
글자크기설정
인쇄하기
AD
■ 진행 : 김대근 앵커
■ 출연 : 김덕진 IT커뮤니케이션 연구소장
■ 구성 : 손민정 작가

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라이더] 명시해주시기 바랍니다.

[앵커]
전 세계 곳곳에서 선거가 치러지는이른바 슈퍼 선거의 해를 앞두고진짜 같은 가짜,딥페이크 콘텐츠 악용 우려가 커지고 있습니다. AI 기술의 발달과 함께우리가 풀어야 할 숙제는 뭔지알아보는 시간 마련했습니다. 김덕진 IT 커뮤니케이션 연구소 소장과얘기 나눠봅니다. 안녕하십니까?

[김덕진]
반갑습니다. 김덕진입니다.

[앵커]
세계 곳곳에서 딥페이크로 몸살을 앓고 있다, 이런 얘기까지 나오고 있는데 지금 딥페이크 기술이 어느 정도 수준입니까?

[김덕진]
일단 딥페이크 많이 익숙하지만 용어부터 설명을 드리면 딥러닝이라고 표현하죠. 딥이라는 것과 페이크, 가짜입니다. 그러니까 딥러닝이라는 AI 기술을 활용해서 만드는 가짜 콘텐츠, 이렇게 설명을 드릴 수 있을 것 같은데요. 과거에는 우리가 딥러닝을 통해서 가짜 영상을 만드는데 최소 어떤 사람의 실제 영상, 찍은 영상이라든지 음성, 이런 것들이 짧게는 몇 시간, 길게는 며칠 정도의 분량이 필요했습니다. 그런데 요즘에는 생성형 AI라고 우리가 챗GPT 이야기를 많이 했잖아요. 그다음에 이 생성형 AI 기술이 급속도로 발전하다 보니까 그렇게 긴 시간이 필요없고요. 5분 이내, 짧게는 1분이나 2분 정도 어떤 사람의 음성이나 영상 파일만 있으면 실제 그 사람과 비슷한 그럴 듯한 얼굴이나 음성을 만들 수 있고요. 예를 들어서 제가 한국어로 어떤 사람의 영상을 녹음했어요. 그렇게 해서 만들었는데 그것을 활용해서 영어라든지 일본어, 중국어를 입 모양까지 하는 이런 것들까지도 최근에 만들 수 있고요. 심지어 이런 기술들이 복잡한 기술이 아니라 온라인상에서 특정 앱을 다운받거나 서비스에서 유료로 몇천 원 수준만 내면, 예를 들면 앵커의 얼굴과 춤추는 어떤 사람을 합성해서 있지도 않은 춤추는 영상을 만드는 것도 1~2분 안에 가능해지는 이 정도 수준까지 와 있다고 말씀을 드릴 수 있을 것 같아요. 그리고 또 최근에 소라라고 하는 생성형 AI에서 거의 끝판왕급이라고 하는 녀석이 많은 사람들을 놀래키고 있는데 텍스트 몇 줄만 치면 영화감독이 찍은 듯한 상당히 놀라운 수준의 영상들을 만들어내고 있는 겁니다. 이게 오픈AI, 그러니까 챗GPT 만든 회사에서 이거를 만든 건데요. 아직 일반인들이 사용할 수 없지만 뭔가 우리가 알고 있는 샘 알트먼이라든지 이런 오픈AI의 대표들이 트위터에 사람들이 이런 걸 만들어주세요 하면 대신 만들어주기도 하고 있거든요.

[앵커]
지금 보는 저 영상입니까?

[김덕진]
맞습니다. 실제 저거 같은 경우에는 소라의 홈페이지에 나와 있는 영상인데요. 놀라운 것은 보셨는지 모르겠지만 선글라스에 비치는 모습까지 이렇게 나오게 되고 지금 보면 저기 서부시대의 모습을 그려달라고 글자를 쓴 거예요.

[앵커]
저건 찍은 게 아니에요?

[김덕진]
맞습니다. 정말 영화 현장에서 보는 영화 세트 정도의 수준이잖아요. 이것 역시도 상상력을 동원해서 뭔가 미래의 모습. 혹은 보시는 것처럼 실제 미술관의 모습이나 아니면 저렇게 축제의 모습을 그려달라고 하면 저게 다 그림입니다, 정확하게 표현하면. 영상을 그려낸 형태라고 보시면 될 것 같은데요. 저 모든 것들이 글자 몇 줄만 치면 나오는 시대다, 이렇게 말씀드릴 수 있는 것이죠. [앵커] 지금 저희가 방금 전에 보여드린 자료화면들이 글자를 영상으로 바꾼 거다.

[김덕진]
텍스트 투 비디오라고 표현하죠.

[앵커]
마치 실제 찍은 것처럼 현실감이 있는데. 그런데 올해 주목을 받는 이유가 우리나라를 비롯해서 세계 각국에서 선거가 치러질 예정입니다. 그러다 보니까 딥페이크 부작용 있는 거 아니냐, 이런 우려의 목소리도 나오고 있어요.

[김덕진]
실제로 말씀하신 것처럼 세계경제포럼에서 글로벌 리스크 리포트를 최근에 냈거든요. 전 세계에서 가장 큰 위험 두 가지. 첫 번째는 환경에 대한 것들. 날씨에 대한 것이고요. 두 번째는 바로 딥페이크 같은 가짜 정보라는 것이죠. 말씀하신 것처럼 올해가 슈퍼 선거의 해라고 불릴 정도로 정말 많은 문제들이 생길 수 있는 확률이 있는 시대라고 볼 수 있을 것 같아요, 선거가 많이 있으니까. 그 선거에서 실제로 일어날 수 있는 걱정이나 고민들이 상당히 많은 상황이고요. 그러다 보니까 이러한 기술을 만든 연구자들 역시도 기술에 대한 위험성을 경고하고 있습니다. 지금 화면에도 나오고 있지만 저렇게 가짜 이미지를 글자 한 자만 내면 만들 수 있는 이러한 형태들이 되다 보니까 이것이 실제로 위험을 미칠 수 있는 게 상당히 클 것이라는 것들에 대한 고민을 하고 있는 상황인 것이죠.

[앵커]
우리나라 같은 경우에는 지난해 11월에 SNS에 윤석열 대통령 관련한 영상이 나오면서 이게 공론화되기도 했는데 이 경우에는 방송연설하는 장면을 짜깁기를 했다고 하더라고요. 그러면 이건 딥페이크와 다른 겁니까?

[김덕진]
냉정하게 말하면 딥페이크는 아니죠. 왜냐하면 우리가 있는 수많은 영상들을 어떤 사람이 직접 1초씩, 1초씩 잘라서 정말 그 사람이 이야기한 것처럼, 대통령이 말한 것처럼 만든 짜깁기 영상이기 때문인데요. 그런데 문제는 지금 이 짜깁기 같은 경우는 어떤 한 사람이 상당히 노력을 한 거예요.
왜냐하면 몇 시간짜리 긴 영상을 잘라서 그럴 듯하게 만든 건데. 딥페이크가 갖는 가장 큰 이슈는 이렇게 한 사람이 고생을 하지 않고도, 예를 들면 2~3분 안에 실제로 학습된 데이터를 활용해서 내가 원하는 글자를 넣으면 그 글자대로 그대로 만들 수 있다고 하는 것들이 문제라고 보시면 될 것 같습니다.

[앵커]
모습과 목소리까지 글자를 통해서 그대로 만들 수 있다. 그러면 선거가 많이 있으니까 딥페이크 콘텐츠가 실제로 선거에 미치는 영향이 있지 않을까 싶은데요. 그런 사례가 있습니까?

[김덕진]
이미 존재합니다. 예를 들면 지난해 5월 튀르키예 대선에서 실제 쿠르드족 분리주의 무장단체인 쿠르디스탄 노동자당의 후보가 있었어요. 그런데 그 후보를 지지영상 올린 것이 있었는데 이게 가짜 영상이라는 게 나중에 밝혀졌거든요. 선거 끝난 이후에 밝혀졌기 때문에 해당 후보가 패배하는 일도 있었고요. 또 슬로바키아 총선 이틀 전에도 실제 야당 대표에 대한 금권선거 논란에 대한 가짜 음성파일이 있었습니다. 그래서 이것 때문에 선거 결과가 뒤집히기도 했고. 올 1월에도 비슷한 일이 있었는데. 방금 저희가 들었던 것처럼 미국 공화당 대선후보 경선 관문에서 뉴햄프셔주 프라이머리 예비선거가 있었거든요. 그때 조 바이든 대통령을 사칭해서 트럼프 전 대통령 뽑지 말라는 목소리가 실제로 나와서 아주 혼란을 겪었던 이런 이슈들처럼 실제로 우리 정치에 이미 딥페이크나 음성들이 들어가고 있고 그 안에서 실제 선거 결과가 바뀐 사례들도 존재하는 상황입니다.

[앵커]
튀르키예 대선 사례를 들어주셨는데 쿠르드족 분리주의 무장단체 쿠르디스탄노동자당 야당 연합의 후보를 지지한다는 영상이 확산됐고 그러면서 여당이 승리하는 사례가 있었다, 이게 언론에서 얘기가 많이 나오더라고요. 이러다 보니까 우리나라도 총선을 앞두고 있어서 이런 딥페이크 영상이 혹시 선거에 영향을 미치는 거 아니냐는 우려 속에 딥페이크 전담팀을 꾸렸다고 합니다. 이거 어떻게 운영되는 겁니까?

[김덕진]
실제로 말씀하셨던 선거전담팀이 모니터링반, AI감별반, 그다음에 분석, 삭제, 조사, 조치반, 검토자문단을 포함해서 72명 정도로 구축돼 있고요. 실제 이러한 지능형 사이버 선거범죄 대응 시스템에서 자동으로 수집된 게시물에 대해서 모니터링을 하고 범용 프로그램을 통해서 딥페이크를 확인합니다. 그런데 프로그램으로 확인이 어렵다고 하면 전문 자문위원에게 자문을 하는 3단계 정도의 단계를 거친다고 말씀을 드릴 수 있을 것 같은데요. 그런데 우리가 생각해 볼 만한 건 이 영상이나 음성이 만들기에 너무 쉽고 그러다 보니까 빨라서 과연 이 인력으로 다 감당될까라는 생각을 개인적으로 해요. 그래서 실제로 어느 정도인지 시청자 여러분께 보여드리기 위해서 앵커의 목소리, 제가 유튜브에서 이런 리포트 많이 하시잖아요. 한 2분 정도 되는 영상을 제가 제가 AI 서비스에 학습을 시켰습니다. 그리고 나서 문장을 제가 원하는 텍스트를 썼거든요. 그랬더니 1분 안에, 정확하게 말하면 30초 안 정도에 문장이 나왔는데요. 한번 들어볼까요.

[앵커]
들려주시죠.

[김덕진]
어떠신가요?

[앵커]
저 지금 소름이 돋았어요. 제가 진짜 저렇게 얘기한 것 같아요.

[김덕진]
실은 저 안에 출마하신다, 이런 영상까지 넣었다가는 이러면 정말 심각할 것 같아서 그 부분을 빼기도 했는데. 말씀드렸던 것처럼 이게 제가 복잡한 걸 한 게 아니에요. 그냥 유튜브상에 있는 인터뷰 영상에서 2분 정도 앵커의 목소리만 따로 제가 빼서 그거를 음원파일만 특정 유료 서비스에 올렸고요. 올린 다음에 제가 글자를 넣으니까 글자 넣고 30초 안에 이러한 문장이 나왔습니다. 그중에 괜찮은 거 약간 튜닝을 했는데. 그러니까 한 2분 정도 안에 끝났고요. 그렇게 해서 다운로드 받아서 이렇게 나오는 건데. 예를 들어서 이런 영상이, 혹은 이런 음성이 선거 직전에 사람들에게 퍼졌다.
예를 들면 ARS 같은 걸로 갑자기 어떤 후보를 지지한다, 앵커가 어떤 후보를 지지한다. 이런 식의 음성이 나왔다. 과연 이게 지금 있는 전담팀으로 가능한 것이냐. 그리고 만약에 퍼진다고 했을 때 실질적으로 사후적인 방식이지 실제 이런 것들을 우리가 어느 정도까지 실시간으로 모니터링할 수 있을까에 대한 현실적인 고민들이 나오고 있는 상황이라고 말씀드릴 수 있을 것 같습니다.

[앵커]
목소리만 들려드렸는데 얼굴을 가짜로 만드는 것도 그 정도 시간이면 가능합니까?

[김덕진]
실제 얼굴 같은 경우에는 두 가지가 있는데요. 예를 들어서 특정 사람이 직접 카메라를 보고 정확하게 학습한 데이터 4분 정도가 있다고 하면 그것을 가지고 입모양이나 제스처까지 만드는 데도 2~3분 정도면 30초 정도의 영상이 만들어져요. 그런데 대부분 이런 것들은 별도의 사람이 아예 학습을 위해서 만든 형태고요. 그게 아니라 유명인의 영상이나 이런 것들을 짜깁기 형태, 혹은 학습 형태의 데이터를 만든다고 할 때는 몇 시간 수준이 걸리거든요. 그럼에도 불구하고 몇 시간 안에 내가 원하는 문장을 쳐서 내가 말하는 것처럼 만들 수 있다는 게 이슈라는 것이죠. 지금 보더라도 가짜 톰 크루즈의 모습인데 저건 어떤 형태로 만들게 되는 거냐면 실제로 톰 크루즈랑 비슷한 사람이 자기가 카메라를 보면서 이야기를 하고 말을 하는 거예요. 그러면 그 사람의 모습에다가 AI 기술로 덧입힌다고 보시면 될 것 같습니다. 저런 형태를 최근에는 어느 수준까지 되냐면 우리가 실시간 방송 있지 않습니까? 실시간 방송에서 제가 이렇게 얘기를 할 때 그 얼굴이 제 얼굴이 아니라 특정 사람의 얼굴처럼 모델링을 해서, 마치 영화에서 보는 듯한 이런 수준의 기술까지도 가능한 상황이다, 이렇게 말씀드릴 수 있습니다.

[앵커]
이전에는 AI 학습을 시켜야 된다고 그러면 그러면 몇 시간씩 원고를 읽고 이러기도 했잖아요. 저희 YTN도 AI앵커가 있는데 제가 목소리 더빙을 할 때 학습을 위해서 며칠 동안 몇 시간씩 원고를 읽었던 기억이 있거든요. 그런데 지금은 학습속도가 더 빨라지는 모양입니다.

[김덕진]
말씀드린 것처럼 그 관점으로 보면 제가 2분 만에 한 거라고 보면 돼요. 그러니까 지금 말씀하신 대로 며칠 동안 몇십 시간 읽었던 양이 딱 2분 정도의 녹음 분량이면 이렇게 만들 수 있는데, 지금 말이 안 되는 정도의 속도로 변화했다는 거고요. 결국 이게 가능해진 게 최근에 생성형 AI 기술과 함께 인프라, 우리가 아는 반도체, 클라우드 이런 것들이 아주 급속도로 발전하고 있고. 왜냐하면 AI에 대한 경쟁에서 늦춰진다고 하면 이 경쟁의 속도를 못 따라갈 거라고 생각하니까 거의 전 세계 모든 기업들이 이런 인프라에 투자를 하고 있거든요. 그렇게 되니까 자연스럽게 이러한 속도 역시도 엄청나게 빨라지고 있다, 이렇게 말씀드릴 수 있는 것이죠.

[앵커]
그러면 전 세계적으로, 물론 이게 기술이 발달해서 좋게 쓰이는 부분도 있겠습니다마는 악용되는 사례에 대한 우려도 커질 것 같고. 규제 움직임도 있을 것 같습니다. 어떠한 움직임이 있습니까?

[김덕진]
말씀하신 것처럼 실제로 전 세계적으로 규제에 대한 이야기들이 나오고 있고요. 지난 12월에 유럽연합에서 세계 최초로 생성형 AI 콘텐츠에 대해서 워터마크를 넣는 의무화 법안을 통과시키기도 했고. 미국에서도 지난해 10월부터 시작해서 말씀드린 대로 워터마크를 넣는 형태의 행정명령들이 시행되고 있고요. 우리나라에서는 AI기본법에 대해서 어느 정도 법률안이 나오고 있는 상황인데. 국회 과방위에서 1년 넘게 계류 중이다, 이렇게 같이 말씀드릴 수 있을 것 같습니다.

[앵커]
워터마크라는 건 가짜영상에 투명해 보이는 마크를 넣는다는 거죠? 가짜라고 표식을 해야 된다는 말씀이시죠?

[김덕진]
두 가지 방식인데. 영상 자체에 이건 가짜영상입니다라는 걸 딱 자막처럼 넣는 방식이 있고요. 두 번째는 화면에 넣는 게 아니라 화면을 만드는 영상에는 컴퓨터 프로그램이니까 소스코드라는 게 있거든요. 코드단에다가 이건 어떤 사람이 몇 월 며칠에 만든 거라는 게 자동으로 들어갈 수 있게 서비스하기 위해서 하는 이 두 가지 방식이라고 보시면 될 것 같습니다.

[앵커]
왠지 그거 지울 수 있을 것 같은데요.

[김덕진]
그래서 이게 과연 실효성이 있는가에 대한 이슈가 나오는 게 말씀하신 대로 AI가 요즘에 기가 막히게 이런 워터마크나 특정 부분만 지워주는 것도 되게 잘하거든요. 그럼 오히려 혼란만 가중시키는 것이 아니냐 하는 우려의 목소리 역시 나오고 있고. 이런 부분을 보면서 느끼는 건 결국 이것을 일종의 보이스피싱처럼 우리가 이 정도 기술이 되는구나를 많이 보면서 이것에 대해서 스스로 어느 정도 예방하고 비판하고 판단을 할 수밖에 없는 시대가 오는 것 같다, 이렇게 말씀드릴 수 있을 것 같습니다.

[앵커]
그러면 규제 방안을 만든다고 하더라도 기술적으로 다 지워버릴 수 있다, 이런 상황이라면 우리가 직접 이걸 판별할 줄 알아야 되나 이런 생각도 드는데요.

[김덕진]
그러니까 말씀드렸던 것처럼 실제로 우리가 이것을 어떻게 구분하고 판별할지에 대해서 몇 개의 팁을 설명드리면 일단 이러한 영상들이 계속 쏟아질 거예요. 그러면 바로 이 영상을 보고 결론을 내리지 마시라는 얘기를 드리고 싶고요. 두 번째는 이런 영상의 출처가 어디인지 반드시 살펴보는 게 중요합니다. 한 곳에서 나온 건지 다른 곳에서 나온 건지. 세 번째로 그렇기 때문에 다른 곳에 검색도 해 보시고. 기술적으로 보면 화자의 입모양, 그러니까 우리가 말한 이 영상에서 입이 어색한 부분이 있거든요. 입모양을 면밀히 살피시고 천천히 돌려보면서 실제로 이게 이슈가 있는지 보시고. 제일 중요한 거는 그렇기 때문에 이거를 마음대로 개인 메신저에 의심스러운 것처럼 돌리시잖아요. 그 부분 역시도 처벌받을 수 있다는 것까지 말씀드릴 수 있을 것 같습니다.

[앵커]
이 사람이 이런 얘기를 했다고? 약간 의심스럽거나 이상하다 싶으면 좀 더 면밀히 살펴봐라, 입 모양 같은 것들. 그런데 앞서 시작하기 전에 얘기할 때 약간 보이스피싱 같은 거다, 이렇게 말씀을 하셨잖아요. 대응할 때 그렇게 해야 된다고 말씀하셨는데 무슨 의미일까요?

[김덕진]
결국 보이스피싱이라는 것도 이것을 제대로 모르고 봤을 때는 그전에는 사람들이 피해사례가 있더라도 그냥 서로 문제 삼지 않고 넘어가거나 이게 문제로 확산되지 않았잖아요. 최근에 보이스피싱을 보면 문제의 사례들을 보고 이런 것들을 어떻게 대응해야 될지 공유하기도 하지 않습니까? 실제로 최근에 빅테크 회사들 40여 개가 이러한 딥페이크 관련해서 서로 공유하는 장들을 만들었거든요. 즉 우리가 이런 것들을 두려워하고 무서워할 게 아니라 이것을 잘 보고 서로가 공유하면서 문제가 있으면 이것에 대한 기술을 우리가 확인해 봐야 된다. 서로 조심하면서 이것을 비판적인 모습으로 보는 게 안타깝지만 지금 기술의 발전 속도라고 말씀드릴 수 있을 것 같습니다.

[앵커]
물론 기술 발전은 좋은 겁니다마는 이게 악용되는 사례가 있으니까 이걸 규제할 수 있는 정책도 필요하겠고 그리고 이걸 맞닥뜨리는 대중도 판별할 수 있는 노력이 필요하겠다, 이런 말씀으로 이해가 됐습니다. 오늘 말씀 여기까지 듣겠습니다. 김덕진 IT 커뮤니케이션 연구소 소장과 함께했습니다. 고맙습니다.




※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
YTN 프로그램 개편 기념 특별 이벤트