AD
■ 진행 : 안보라 앵커, 정채운 앵커
■ 출연 : 이상욱 교수 한양대 철학과·인공지능학과
■ 구성 : 최혜정 작가
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라이더] 명시해주시기 바랍니다.
[앵커]
세계적인 팝스타테일러 스위프트마저 당했습니다. AI 과학 기술 발달에 따른 부작용에 대한 문제를 해결해야 한다는 요구가 빗발치고 있습니다. 가짜와의 싸움은 이미 시작됐습니다. 그리고 곧 우리의 일이 될 수도 있습니다. 어떤 규제가 필요한 걸까요. 유네스코 세계과학윤리위원회 부위원장인한양대 철학과 이상욱 교수와 알아보겠습니다. 교수님 어서오세요.
[이상욱]
안녕하세요.
[앵커]
테일러 스위프트의 영상이 앞서 나갔는데 미국 경제를 움직인다고 할 만큼 영향력이 큰 인물인데 스위프트마저 당했습니다. 유명인이 딥페이크 기술에 당한 게 한두 번은 아니어서 갈수록 심각해지고 있는 것 아닌가라는 생각이 들어요.
[이상욱]
냉정하게 얘기하면 테일러 스위프트가 안됐기는 하지만 유명인이니까 저 정도로 주목을 받은 거고요. 실제로 딥페이크를 이용해서 수많은 일반 사람들이 절대적인 다수의 딥페이크 동영상을 사실 유명인이나 정치인이 아닌 분들...특히나 음란물이나 이런 형태로 여성에 집중돼 있어서 굉장히 상황이 심각합니다.
[앵커]
여성과 아동에 집중돼 있군요.
[이상욱]
아동도 어떻게 보면 취약계층이니까요. 뭔가 법적 조치나 제도적 조치를 하기 어려운 사람들한테 집중돼 있는 경향이 있습니다.
[앵커]
해당 이미지가 뒤늦게 차단조치가 됐더라고요. 그런데 이미 SNS상에서는 4700만 회 이상이 하루도 안 되는 시간 안에 조회가 됐고요. 그래서 팬들은 당연히 분개하면서 엑스가 왜 이렇게 뒤늦게 조치를 했느냐며 분개를 하던데, 그러면 이런 SNS 플랫폼에서 아직 문제가 되는 딥페이크 이미지가 자동으로 걸러지는 시스템은 따로 없는 건가요?
[이상욱]
그러니까 활용을 하는 플랫폼들이 있고요. 공식적으로 활용하지 않는 플랫폼들도 있는데 여러 가지 문제가 있습니다. 자동으로 걸러지는 시스템을 활용한다고 해도 사실 애매한 부분들이 있거든요. 너무나 뻔하게 딥페이크인 건 당연히 쉽게 걸러지지만 그 애매한 부분은 결국 사람들이 판정을 해야 되는데 비용이나 시간적으로 금방 대응이 힘든 거죠. 그래서 훨씬 여기에 신경을 많이 쓰고 집중을 해야 되는데 아직까지는 대응이 확실히 느린 것이 사실입니다.
[앵커]
방송 보시고 딥페이크가 문제라고 저희가 얘기를 했는데 이게 대체 뭔가 싶으신 분들이 있을 거예요. 그러니까 쉽게 말하면 얼굴을 다른 몸과 합성을 해서 진짜인 것처럼 한다, 그런 거잖아요. 그런데 이 기술을 어떻게 만들었나 봤더니 지금 이 테일러 스위프트와 관련한 사안에서는 해당 이미지가 마이크로소프트사에 생성형 AI 도구가 있는데 이걸 이용해서 만들었다는 소리가 있기도 하더라고요. 그러면 AI 하면 인공지능이라고도 하고 AI가 자동으로 이걸 만들었나 싶은 생각도 드실 것 같아요.
[이상욱]
절대로 그렇지는 않고요. 핵심은 예전에도 사실은 인공지능 전에도 합성 이미지 막 만들고 그랬잖아요. 그리고 SF영화 같은 데 보면 굉장히 CG 많이 써서 비현실적이지만 너무 생생한 그런 이미지를 만드는데 원리는 기본적으로 같습니다. 중요한 건 지금 인공지능 기술이 도입되면 훨씬 빠르게... 옛날에는 한 땀 한 땀 다 일일이 손으로 했던 작업들을 굉장히 쉽고 그리고 별로 경험이 없는 일반인들도 마치 문서 프로그램 쓰듯이 화질이나 이런 거 몇 개 선택하면 금방 만들 수 있다는 게 굉장히 큰 특징이고요. 그렇게 된 이유는 인공지능의 딥페이크의 딥이 심층학습이라고 해서 여러 개의 층위를 가져서 다양한 기능들을 훨씬 효과적으로 수행하게 만드는 알고리즘인데요. 그런 알고리즘을 활용하면 굉장히 빠른 속도로 그리고 누구나 다 만들 수 있는 프로그램들을 제작할 수 있는 거죠.
[앵커]
지금 그래픽으로 딥페이크가 어떻게 만들어지는지 과정을 보내드리고 있는데 지금 미국 백악관에서 목소리를 내서 이 사건을 심각하게 보고 있다라고 하고 관련 입법을 빨리 조치해야 된다, 이런 목소리도 나오는데 그런데 조금 전에 얘기했던 것처럼 딥페이크로 인한 음란물 이런 문제가 어제오늘 일이 아니잖아요. 그럼 관련 규제는 지금까지 어때 왔습니까? [이상욱] 그러니까 관련 규제가 당연히 있었는데요. 그 규제들의 성격이 지금 디지털 기반, 그리고 특히 사이버 공간이 굉장히 확대된 이 상황에 잘 못 쫓아가고 있는 것 같아요. 왜냐하면 이런 딥페이크 동영상을 만들어서 어느 플랫폼이든 올리면 만약에 1시간 내에 삭제가 이루어졌다고 해도 그게 그 사이에 수천 만회가 조회될 수 있잖아요. 그런 것들에 대해서 어느 정도까지 포탈의 책임자들이 관리의 책임을 지고 만든 사람들은 어느 정도의 처벌을 받고 이런 부분들에 대해서는 사실 미국에서 주 단위로 약간의 규제나 제도들이 만들어지고 있는데 아직 연방 수준의 제도가 없어서 미 백악관도 그런 점에 굉장히 주목을 한 것 같습니다. [앵커] 규제도 규제인데 저는 걸러내는 것도 기술인 것 같거든요.
그러니까 예를 들어서 예전에는 합성사진이다 이러면 딱 티가 났고, 최근만 모두 손가락이 합성사진이라고 해서 보면 손가락이 6개고 이런 일도 있었잖아요. 그러면 그나마 걸러내기가 쉬울 것 같은데. 교수님 말씀하신 것처럼 딥하게 스스로 학습을 하면서 뭔가 좀 더 정교해지게 되면 이게 진짜인지 가짜인지 구별하지 못하는 상황이 되고 그러면 기술적으로 이걸 어떻게 걸러내야 되나요?
[이상욱]
그래서 1차적으로 요구하는 기술적인 제한조치는 EU에서 AI 법안 만들면서 요구하는 건데요. 그런 생성형 이미지로 만든 결과물에 대해서는 이게 생성형 인공지능으로 만들었다는 점을 알아볼 수 있는 표시를 하게 되어 있습니다. 그리고 그것들을 어떻게 검증할 수 있는지 그 검증 방법을 같이 제출해야 돼요, 심사를 받을 때. 그런데 거기까지 보면 굉장히 안전해 보이지만 당연히 세상에는 창과 방패, 기술 경쟁 문제가 있어서 그걸 회피하는 기술들을 개발해내고 예를 들어서 이번에도 이번 페이크 동영상을 만드는 프로그램들은 만드는 데다가 다 워터마크라고 해서 표시가 나오게 되어 있거든요. 제가 유튜브 찾아보니까 거기서 뭐라고 안내하냐면 워터마크 나오는데 신경 쓰지 마라. 웬만한 동영상 프로그램으로 다 지울 수 있다, 아예 그렇게 안내가 돼요. 그러니까 이게 기술적으로 당연히 연구가 필요하고 고민이 돼야 되지만 사실 기술만 가지고 되는 일은 아니고 여러 가지 윤리적 고려나 제도적 고려가 같이 가야 되는 개념입니다.
[앵커]
쫓고 쫓기는 추격전이라는 생각이 듭니다. 이런 딥페이크가 이미지뿐만이 아니에요. 움직이는 영상, 그리고 목소리도 합성이 가능합니다. 얼마 전에 미국에서 실제로 관련 논란이 있었는데 바이든 대통령을 모방한 가짜 목소리입니다. 그런데 제가 가짜라고 하니까 가짜로 들리겠지만 실제로 가짜인지 진짜인지 구별해 보세요. 녹취 들어보시겠습니다.
[조 바이든 / 미국 대통령 목소리 : 우리는 개표할 때 민주당 지지표의 중요성을 알고 있습니다. 11월 대통령 선거를 위해 우리의 투표를 아낍시다.]
바이든 대통령인 줄 알았습니다, 저는. 걸러내는 기술이 있다는데 제 귀에는 없는 것 같아요. 딥보이스라고 합니다. 딥페이크나 딥보이스나 너무 정교하고 기술적이어서 이거 걸러내는 것도 진짜 문제겠다 싶어요.
[이상욱]
앵커님뿐 아니라 아무도 걸러내기가 힘듭니다. 왜냐하면 그 기술 자체가 목소리를 어떻게 판독하는가까지도 고려해 가면서 강화학습을 시키기 때문에요. 그래서 이런 문제들은 최근에 문제가 되고 있는 보이스피싱에서 아주 생생한 문제예요. 보이스피싱 만들기가 너무 쉬운 거예요. 원래 어떤 특정 인물의 목소리 데이터를 많이 취득해서 그 사람이 말하는 패턴이나... 지금도 보면 바이든 대통령이 자주 쓰는 표현이나 어조 같은 것들을 흉내내는데. 그런데 이런 훈련을 시키기 위해서 필요한 데이터량이 점점 줄어들고 있어요. 그래서 지금 많은 사람들이 이게 실시간으로 된다고 보고 있거든요. 그리고 실시간으로 되는 경우들도 있고. 그러면 정말로 우리가 보고 있거나 듣고 있는 게 아무리 그럴 듯하고 믿을 만해도 그것을 일단은 의심을 할, 특히 디지털상에서는. 그런 자세가 필요한 상황들이 되고 있습니다.
[앵커]
챗 GPT도 생성형 AI라서 궁금해서 여쭤보면 챗GPT가 그린 그림을 걸러낼 수 있는 AI가 또 만들어졌다, 그 정확도가 아직 떨어지고 있다고 하는데 기술이 속도를 따라가지 못하고 있는 건가요?
[이상욱]
그게 대개 그런 프로그램을 돌리면 확률로 나와요. 그래서 90% 확률로 AI가 만든 것 같다. 10% 확률이다. 그러니까 그렇게밖에 못하는 이유는 사실 원리적인 거예요. 왜냐하면 기술의 한계이기도 하지만 이게 수많은 데이터들을 학습해서 그럴 듯한 이미지나 목소리를 새롭게 생성해내는 것이기 때문에 그것이 충분히 기존 현실의 것과 같은지 다른지는 일률적으로 예스, 노로 나올 수 없고 확률만 나올 수 있고 그러면 결국은 인간의 판단이 중요해지는 거죠.
[앵커]
믿지 못하는 사회가 돼서 큰일입니다. 이게 정치적인 파급력도 상당해 보입니다. 지금 저희가 테일러 스위프트 사례도 들었고 조금 전에 바이든 대통령을 사칭한 가짜 목소리도 들었습니다마는 우리나라도 총선이 한 70여 일 앞으로 다가왔거든요. 그러니까 우리나라도 걱정이 되니까 지난 연말에 딥페이크 선거운동 금지법을 만들기도 했습니다. 교수님께서는 AI가 민주주의를 위협할 수 있다, 이런 우려를 하고 계신가요?
[이상욱]
당연히 그렇고요. 그런데 이게 복잡합니다. 왜냐하면 우리 정치풍자라는 게 있잖아요. 그러니까 어떤 특정 정치인들을 성대모사하거나 아니면 비슷한 분장하고 나와서 얘기하는 것, 이건 사실 사람들이 그게 페이크라는 걸 알고서, 그렇지만 거기서 풍자되는 것들을 즐기면서 어떻게 보면 정치적 판단을 도와주는 민주주의의 한 과정이라고 볼 수 있거든요. 그러니까 결국 페이크 동영상에 대한 규제도 그런 건전하거나 어떻게 보면 굉장히 생산적인 민주주의적 담론 형성 과정은 도우면서, 그렇지만 누가 봐도 그럴 듯하지만 사실이 아닌 것들을 가려내야 되는데 이게 쉽지가 않기 때문에 그래서 민주주의적 의사결정과정, 특히 사람들이 여러 다양한 견해를 듣고 그중에서 어떤 게 맞는 의견인지를 판단하는 데 굉장히 힘들어지는 거죠. 그래서 위기라고 봅니다.
[앵커]
지금 이렇게 말씀 들어보면 AI라고 하는 것에 대해서 순기능보다는 역기능이 더 많게 느껴지는데 또 그만큼 윤리나 도덕의 속도가 기술 발달 속도를 따라가지 못하는 느낌도 받거든요. 그 이유는 어떤 거라고 보세요?
[이상욱]
냉정하게 얘기하면 순기능보다 역기능이 많다는 얘기보다는 순기능이 많으니까 인공지능을 많이 사용하는 거겠죠. 그런데 그런데도 불구하고 역기능이 굉장히 큰데, 순기능만 강조하는 분들은 순기능을 위해서 혁신을 하게 되면 나머지 것들은 사회가 적당히... 그런 낙관적 기대를 하시는데 그건 좀 터무니없는 얘기고요. 기술의 역사를 보면 항상 굉장히 놀랍고 중요한 기술일수록 그 기술이 가지는 역기능들에 대해서 미리 윤리적으로 대응하고 제도화를 만들었을 때 오히려 사회가 불가피하게 치러야 되는 비용들을 줄일 수 있고 전체적으로 그 기술이 훨씬 더 혁신적으로 상대적으로 파워풀하게 사용될 수 있습니다. 그래서 그런 노력들이 굉장히 필요하다고 생각합니다.
[앵커]
말씀 듣고 보니까 우리는 낙관적인 마음과 비관적인 눈을 함께 가져야 하지 않을까라는 생각이 들었습니다. 부작용을 줄이기 위해서 어떤 제도 혹은 대책, 방법들이 필요한 게 있다면 조언을 해 주시죠.
[이상욱]
일단 저는 아무나 인공지능을 사용해서 아무 콘텐츠나 만드는 걸 무조건 허용하는 게 잘 이해가 안 됩니다. 왜냐하면 우리가 자동차처럼 굉장히 안정적인 기술도 저는 눈이 나빠서 아예 법적으로 운전을 못하게 되어 있거든요. 그러니까 그 특정한 정도의 역량을 가지고 시험을 통과한 사람만 그것도 제한적으로 운전을 할 수 있잖아요. 그러니까 인공지능 관련해서도 너무 지나치게 그냥 아무 사람이나 다 들어와서... 지금 어린 친구들도 인공지능 사용해서 페이크 동영상 만들고 그러거든요. 그러니까 이런 부분에 대해서 책임 있게 사용할 수 있는 사람에게 인공지능의 활용 권한들을 주려는 그런 방향으로 제도가 만들어질 필요가 있다고 봅니다.
[앵커]
또 교수님께서 AI 윤리 전문가로서 발달된 과학기술을 다루는 데 있어서 우리 사회에 당부하고 싶은 메시지가 있을까요?
[이상욱]
저는 이렇게 생각해요. AI는 정말로 파워풀한 기술이고 사실 잘만 사용했을 때 우리에게 큰 혜택을 줄 수 있는 기술이거든요. 그런데 여태까지 말씀드린 것처럼 엄청나게 큰 부작용을 일으킬 수 있고. 이미 현실화된 게 많아요. 이랬을 때 우리에게 필요한 건 책임 있는 태도, 그 어마어마한 기술을 활용하는 분별 있는, 사려 깊은 책임있는 태도로 기술들을 만들어나가고 그리고 사용하는 것입니다. 마치 어린 아이에게 총 쥐어주면 안 되는 것처럼 우리가 AI를 사용할 만한 충분한 역량을 갖춘 사람이 되는 게, 그게 꼭 필요하다고 생각합니다.
[앵커]
교수님, 사용자가 주의해야 될 측면도 있지만 기업 측면에서도 좀 윤리적으로 해야 되지 않을까요?
[이상욱]
여기서 말씀드리는 건 당연히 기업도 포함되고. 그다음에 예를 들어서 엔지니어들도 설계 단계에서 되도록이면 악용될 수 없는 장치들을 만들어놔야 되고요. 그리고 법이나 제도를 만드는 국가나 사회의 정책입안자들도 이런 점들을 고려해서 정책들을 당연히 만들어야 됩니다.
[앵커]
알겠습니다. 이런 주제로 출연을 하게 돼서 너무 안타깝기도 해요. 이 좋은 기술 더 잘 활용하자는 주제로 다음에 만나뵈면 좋 습니다. 지금까지 한양대 철학과 이상욱 교수였습니다. 교수님 말씀 감사합니다.
[이상욱]
감사합니다.
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
■ 출연 : 이상욱 교수 한양대 철학과·인공지능학과
■ 구성 : 최혜정 작가
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라이더] 명시해주시기 바랍니다.
[앵커]
세계적인 팝스타테일러 스위프트마저 당했습니다. AI 과학 기술 발달에 따른 부작용에 대한 문제를 해결해야 한다는 요구가 빗발치고 있습니다. 가짜와의 싸움은 이미 시작됐습니다. 그리고 곧 우리의 일이 될 수도 있습니다. 어떤 규제가 필요한 걸까요. 유네스코 세계과학윤리위원회 부위원장인한양대 철학과 이상욱 교수와 알아보겠습니다. 교수님 어서오세요.
[이상욱]
안녕하세요.
[앵커]
테일러 스위프트의 영상이 앞서 나갔는데 미국 경제를 움직인다고 할 만큼 영향력이 큰 인물인데 스위프트마저 당했습니다. 유명인이 딥페이크 기술에 당한 게 한두 번은 아니어서 갈수록 심각해지고 있는 것 아닌가라는 생각이 들어요.
[이상욱]
냉정하게 얘기하면 테일러 스위프트가 안됐기는 하지만 유명인이니까 저 정도로 주목을 받은 거고요. 실제로 딥페이크를 이용해서 수많은 일반 사람들이 절대적인 다수의 딥페이크 동영상을 사실 유명인이나 정치인이 아닌 분들...특히나 음란물이나 이런 형태로 여성에 집중돼 있어서 굉장히 상황이 심각합니다.
[앵커]
여성과 아동에 집중돼 있군요.
[이상욱]
아동도 어떻게 보면 취약계층이니까요. 뭔가 법적 조치나 제도적 조치를 하기 어려운 사람들한테 집중돼 있는 경향이 있습니다.
[앵커]
해당 이미지가 뒤늦게 차단조치가 됐더라고요. 그런데 이미 SNS상에서는 4700만 회 이상이 하루도 안 되는 시간 안에 조회가 됐고요. 그래서 팬들은 당연히 분개하면서 엑스가 왜 이렇게 뒤늦게 조치를 했느냐며 분개를 하던데, 그러면 이런 SNS 플랫폼에서 아직 문제가 되는 딥페이크 이미지가 자동으로 걸러지는 시스템은 따로 없는 건가요?
[이상욱]
그러니까 활용을 하는 플랫폼들이 있고요. 공식적으로 활용하지 않는 플랫폼들도 있는데 여러 가지 문제가 있습니다. 자동으로 걸러지는 시스템을 활용한다고 해도 사실 애매한 부분들이 있거든요. 너무나 뻔하게 딥페이크인 건 당연히 쉽게 걸러지지만 그 애매한 부분은 결국 사람들이 판정을 해야 되는데 비용이나 시간적으로 금방 대응이 힘든 거죠. 그래서 훨씬 여기에 신경을 많이 쓰고 집중을 해야 되는데 아직까지는 대응이 확실히 느린 것이 사실입니다.
[앵커]
방송 보시고 딥페이크가 문제라고 저희가 얘기를 했는데 이게 대체 뭔가 싶으신 분들이 있을 거예요. 그러니까 쉽게 말하면 얼굴을 다른 몸과 합성을 해서 진짜인 것처럼 한다, 그런 거잖아요. 그런데 이 기술을 어떻게 만들었나 봤더니 지금 이 테일러 스위프트와 관련한 사안에서는 해당 이미지가 마이크로소프트사에 생성형 AI 도구가 있는데 이걸 이용해서 만들었다는 소리가 있기도 하더라고요. 그러면 AI 하면 인공지능이라고도 하고 AI가 자동으로 이걸 만들었나 싶은 생각도 드실 것 같아요.
[이상욱]
절대로 그렇지는 않고요. 핵심은 예전에도 사실은 인공지능 전에도 합성 이미지 막 만들고 그랬잖아요. 그리고 SF영화 같은 데 보면 굉장히 CG 많이 써서 비현실적이지만 너무 생생한 그런 이미지를 만드는데 원리는 기본적으로 같습니다. 중요한 건 지금 인공지능 기술이 도입되면 훨씬 빠르게... 옛날에는 한 땀 한 땀 다 일일이 손으로 했던 작업들을 굉장히 쉽고 그리고 별로 경험이 없는 일반인들도 마치 문서 프로그램 쓰듯이 화질이나 이런 거 몇 개 선택하면 금방 만들 수 있다는 게 굉장히 큰 특징이고요. 그렇게 된 이유는 인공지능의 딥페이크의 딥이 심층학습이라고 해서 여러 개의 층위를 가져서 다양한 기능들을 훨씬 효과적으로 수행하게 만드는 알고리즘인데요. 그런 알고리즘을 활용하면 굉장히 빠른 속도로 그리고 누구나 다 만들 수 있는 프로그램들을 제작할 수 있는 거죠.
[앵커]
지금 그래픽으로 딥페이크가 어떻게 만들어지는지 과정을 보내드리고 있는데 지금 미국 백악관에서 목소리를 내서 이 사건을 심각하게 보고 있다라고 하고 관련 입법을 빨리 조치해야 된다, 이런 목소리도 나오는데 그런데 조금 전에 얘기했던 것처럼 딥페이크로 인한 음란물 이런 문제가 어제오늘 일이 아니잖아요. 그럼 관련 규제는 지금까지 어때 왔습니까? [이상욱] 그러니까 관련 규제가 당연히 있었는데요. 그 규제들의 성격이 지금 디지털 기반, 그리고 특히 사이버 공간이 굉장히 확대된 이 상황에 잘 못 쫓아가고 있는 것 같아요. 왜냐하면 이런 딥페이크 동영상을 만들어서 어느 플랫폼이든 올리면 만약에 1시간 내에 삭제가 이루어졌다고 해도 그게 그 사이에 수천 만회가 조회될 수 있잖아요. 그런 것들에 대해서 어느 정도까지 포탈의 책임자들이 관리의 책임을 지고 만든 사람들은 어느 정도의 처벌을 받고 이런 부분들에 대해서는 사실 미국에서 주 단위로 약간의 규제나 제도들이 만들어지고 있는데 아직 연방 수준의 제도가 없어서 미 백악관도 그런 점에 굉장히 주목을 한 것 같습니다. [앵커] 규제도 규제인데 저는 걸러내는 것도 기술인 것 같거든요.
그러니까 예를 들어서 예전에는 합성사진이다 이러면 딱 티가 났고, 최근만 모두 손가락이 합성사진이라고 해서 보면 손가락이 6개고 이런 일도 있었잖아요. 그러면 그나마 걸러내기가 쉬울 것 같은데. 교수님 말씀하신 것처럼 딥하게 스스로 학습을 하면서 뭔가 좀 더 정교해지게 되면 이게 진짜인지 가짜인지 구별하지 못하는 상황이 되고 그러면 기술적으로 이걸 어떻게 걸러내야 되나요?
[이상욱]
그래서 1차적으로 요구하는 기술적인 제한조치는 EU에서 AI 법안 만들면서 요구하는 건데요. 그런 생성형 이미지로 만든 결과물에 대해서는 이게 생성형 인공지능으로 만들었다는 점을 알아볼 수 있는 표시를 하게 되어 있습니다. 그리고 그것들을 어떻게 검증할 수 있는지 그 검증 방법을 같이 제출해야 돼요, 심사를 받을 때. 그런데 거기까지 보면 굉장히 안전해 보이지만 당연히 세상에는 창과 방패, 기술 경쟁 문제가 있어서 그걸 회피하는 기술들을 개발해내고 예를 들어서 이번에도 이번 페이크 동영상을 만드는 프로그램들은 만드는 데다가 다 워터마크라고 해서 표시가 나오게 되어 있거든요. 제가 유튜브 찾아보니까 거기서 뭐라고 안내하냐면 워터마크 나오는데 신경 쓰지 마라. 웬만한 동영상 프로그램으로 다 지울 수 있다, 아예 그렇게 안내가 돼요. 그러니까 이게 기술적으로 당연히 연구가 필요하고 고민이 돼야 되지만 사실 기술만 가지고 되는 일은 아니고 여러 가지 윤리적 고려나 제도적 고려가 같이 가야 되는 개념입니다.
[앵커]
쫓고 쫓기는 추격전이라는 생각이 듭니다. 이런 딥페이크가 이미지뿐만이 아니에요. 움직이는 영상, 그리고 목소리도 합성이 가능합니다. 얼마 전에 미국에서 실제로 관련 논란이 있었는데 바이든 대통령을 모방한 가짜 목소리입니다. 그런데 제가 가짜라고 하니까 가짜로 들리겠지만 실제로 가짜인지 진짜인지 구별해 보세요. 녹취 들어보시겠습니다.
[조 바이든 / 미국 대통령 목소리 : 우리는 개표할 때 민주당 지지표의 중요성을 알고 있습니다. 11월 대통령 선거를 위해 우리의 투표를 아낍시다.]
바이든 대통령인 줄 알았습니다, 저는. 걸러내는 기술이 있다는데 제 귀에는 없는 것 같아요. 딥보이스라고 합니다. 딥페이크나 딥보이스나 너무 정교하고 기술적이어서 이거 걸러내는 것도 진짜 문제겠다 싶어요.
[이상욱]
앵커님뿐 아니라 아무도 걸러내기가 힘듭니다. 왜냐하면 그 기술 자체가 목소리를 어떻게 판독하는가까지도 고려해 가면서 강화학습을 시키기 때문에요. 그래서 이런 문제들은 최근에 문제가 되고 있는 보이스피싱에서 아주 생생한 문제예요. 보이스피싱 만들기가 너무 쉬운 거예요. 원래 어떤 특정 인물의 목소리 데이터를 많이 취득해서 그 사람이 말하는 패턴이나... 지금도 보면 바이든 대통령이 자주 쓰는 표현이나 어조 같은 것들을 흉내내는데. 그런데 이런 훈련을 시키기 위해서 필요한 데이터량이 점점 줄어들고 있어요. 그래서 지금 많은 사람들이 이게 실시간으로 된다고 보고 있거든요. 그리고 실시간으로 되는 경우들도 있고. 그러면 정말로 우리가 보고 있거나 듣고 있는 게 아무리 그럴 듯하고 믿을 만해도 그것을 일단은 의심을 할, 특히 디지털상에서는. 그런 자세가 필요한 상황들이 되고 있습니다.
[앵커]
챗 GPT도 생성형 AI라서 궁금해서 여쭤보면 챗GPT가 그린 그림을 걸러낼 수 있는 AI가 또 만들어졌다, 그 정확도가 아직 떨어지고 있다고 하는데 기술이 속도를 따라가지 못하고 있는 건가요?
[이상욱]
그게 대개 그런 프로그램을 돌리면 확률로 나와요. 그래서 90% 확률로 AI가 만든 것 같다. 10% 확률이다. 그러니까 그렇게밖에 못하는 이유는 사실 원리적인 거예요. 왜냐하면 기술의 한계이기도 하지만 이게 수많은 데이터들을 학습해서 그럴 듯한 이미지나 목소리를 새롭게 생성해내는 것이기 때문에 그것이 충분히 기존 현실의 것과 같은지 다른지는 일률적으로 예스, 노로 나올 수 없고 확률만 나올 수 있고 그러면 결국은 인간의 판단이 중요해지는 거죠.
[앵커]
믿지 못하는 사회가 돼서 큰일입니다. 이게 정치적인 파급력도 상당해 보입니다. 지금 저희가 테일러 스위프트 사례도 들었고 조금 전에 바이든 대통령을 사칭한 가짜 목소리도 들었습니다마는 우리나라도 총선이 한 70여 일 앞으로 다가왔거든요. 그러니까 우리나라도 걱정이 되니까 지난 연말에 딥페이크 선거운동 금지법을 만들기도 했습니다. 교수님께서는 AI가 민주주의를 위협할 수 있다, 이런 우려를 하고 계신가요?
[이상욱]
당연히 그렇고요. 그런데 이게 복잡합니다. 왜냐하면 우리 정치풍자라는 게 있잖아요. 그러니까 어떤 특정 정치인들을 성대모사하거나 아니면 비슷한 분장하고 나와서 얘기하는 것, 이건 사실 사람들이 그게 페이크라는 걸 알고서, 그렇지만 거기서 풍자되는 것들을 즐기면서 어떻게 보면 정치적 판단을 도와주는 민주주의의 한 과정이라고 볼 수 있거든요. 그러니까 결국 페이크 동영상에 대한 규제도 그런 건전하거나 어떻게 보면 굉장히 생산적인 민주주의적 담론 형성 과정은 도우면서, 그렇지만 누가 봐도 그럴 듯하지만 사실이 아닌 것들을 가려내야 되는데 이게 쉽지가 않기 때문에 그래서 민주주의적 의사결정과정, 특히 사람들이 여러 다양한 견해를 듣고 그중에서 어떤 게 맞는 의견인지를 판단하는 데 굉장히 힘들어지는 거죠. 그래서 위기라고 봅니다.
[앵커]
지금 이렇게 말씀 들어보면 AI라고 하는 것에 대해서 순기능보다는 역기능이 더 많게 느껴지는데 또 그만큼 윤리나 도덕의 속도가 기술 발달 속도를 따라가지 못하는 느낌도 받거든요. 그 이유는 어떤 거라고 보세요?
[이상욱]
냉정하게 얘기하면 순기능보다 역기능이 많다는 얘기보다는 순기능이 많으니까 인공지능을 많이 사용하는 거겠죠. 그런데 그런데도 불구하고 역기능이 굉장히 큰데, 순기능만 강조하는 분들은 순기능을 위해서 혁신을 하게 되면 나머지 것들은 사회가 적당히... 그런 낙관적 기대를 하시는데 그건 좀 터무니없는 얘기고요. 기술의 역사를 보면 항상 굉장히 놀랍고 중요한 기술일수록 그 기술이 가지는 역기능들에 대해서 미리 윤리적으로 대응하고 제도화를 만들었을 때 오히려 사회가 불가피하게 치러야 되는 비용들을 줄일 수 있고 전체적으로 그 기술이 훨씬 더 혁신적으로 상대적으로 파워풀하게 사용될 수 있습니다. 그래서 그런 노력들이 굉장히 필요하다고 생각합니다.
[앵커]
말씀 듣고 보니까 우리는 낙관적인 마음과 비관적인 눈을 함께 가져야 하지 않을까라는 생각이 들었습니다. 부작용을 줄이기 위해서 어떤 제도 혹은 대책, 방법들이 필요한 게 있다면 조언을 해 주시죠.
[이상욱]
일단 저는 아무나 인공지능을 사용해서 아무 콘텐츠나 만드는 걸 무조건 허용하는 게 잘 이해가 안 됩니다. 왜냐하면 우리가 자동차처럼 굉장히 안정적인 기술도 저는 눈이 나빠서 아예 법적으로 운전을 못하게 되어 있거든요. 그러니까 그 특정한 정도의 역량을 가지고 시험을 통과한 사람만 그것도 제한적으로 운전을 할 수 있잖아요. 그러니까 인공지능 관련해서도 너무 지나치게 그냥 아무 사람이나 다 들어와서... 지금 어린 친구들도 인공지능 사용해서 페이크 동영상 만들고 그러거든요. 그러니까 이런 부분에 대해서 책임 있게 사용할 수 있는 사람에게 인공지능의 활용 권한들을 주려는 그런 방향으로 제도가 만들어질 필요가 있다고 봅니다.
[앵커]
또 교수님께서 AI 윤리 전문가로서 발달된 과학기술을 다루는 데 있어서 우리 사회에 당부하고 싶은 메시지가 있을까요?
[이상욱]
저는 이렇게 생각해요. AI는 정말로 파워풀한 기술이고 사실 잘만 사용했을 때 우리에게 큰 혜택을 줄 수 있는 기술이거든요. 그런데 여태까지 말씀드린 것처럼 엄청나게 큰 부작용을 일으킬 수 있고. 이미 현실화된 게 많아요. 이랬을 때 우리에게 필요한 건 책임 있는 태도, 그 어마어마한 기술을 활용하는 분별 있는, 사려 깊은 책임있는 태도로 기술들을 만들어나가고 그리고 사용하는 것입니다. 마치 어린 아이에게 총 쥐어주면 안 되는 것처럼 우리가 AI를 사용할 만한 충분한 역량을 갖춘 사람이 되는 게, 그게 꼭 필요하다고 생각합니다.
[앵커]
교수님, 사용자가 주의해야 될 측면도 있지만 기업 측면에서도 좀 윤리적으로 해야 되지 않을까요?
[이상욱]
여기서 말씀드리는 건 당연히 기업도 포함되고. 그다음에 예를 들어서 엔지니어들도 설계 단계에서 되도록이면 악용될 수 없는 장치들을 만들어놔야 되고요. 그리고 법이나 제도를 만드는 국가나 사회의 정책입안자들도 이런 점들을 고려해서 정책들을 당연히 만들어야 됩니다.
[앵커]
알겠습니다. 이런 주제로 출연을 하게 돼서 너무 안타깝기도 해요. 이 좋은 기술 더 잘 활용하자는 주제로 다음에 만나뵈면 좋 습니다. 지금까지 한양대 철학과 이상욱 교수였습니다. 교수님 말씀 감사합니다.
[이상욱]
감사합니다.
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]