AD
YTN라디오(FM 94.5) [YTN ON-AI RADIO]
□ 방송일시 : 2025년 9월 18일 (목)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성PD
□ 출연 : 김명주 서울여대 정보보호학과 교수
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◆김우성: 제가 20년 전에 대학원을 다닐 때도 미디어 리터러시, 즉 청소년기부터 미디어 이용에 대한 교육 디지털 플랫폼 미디어에 대한 교육이 필요하다라고 했는데 아직도 잘 없어서 안타깝다라고 얘기했잖아요. AI도 리터러시가 필요합니다. AI의 가치를 따지고 윤리를 고민하고 써야 되는데 잘 안 되고 있어요. 왜냐하면 그 논의보다는 훨씬 더 시장의 가능성 기술 발전의 가능성에 몰려 있습니다. 이런 것들을 좀 고민하고 누가 해결해 주지 않나 있습니다. 이분은 세계적인 이 분야의 전문가이기도 한데요, 바른 AI 연구센터장, 국제 AI 윤리협회장, AI 윤리 정책 포럼 위원장 그리고 OECD에서요 글로벌 인공지능 파트너십 엑스퍼트 매니저로도 활동하시는 분입니다. 오늘 이 분야의 이야기를 많이 하고 싶었는데 진짜 제대로 된 전문가 모셨네요. 김명주 서울여대 정보보호학과 교수입니다. 교수님, 안녕하세요.
◇김명주: 네, 안녕하세요.
◆김우성: 처음에 AI 안전연구소장 이래서 AI가 인간을 습격하는 이른바 터미네이터 상황 있죠? 그럴 때 싸워 맞서 싸우는 인간 쪽 사령관이신가 이런 생각을 했는데요. 교수님께서 해당 기구 소장 맡고 계시니까 그 얘기부터 먼저 해야 될 것 같아요. AI 안전 연구소가 있네요?
◇김명주: 사실은 영국에서 맨 처음에 국가 차원으로 만들었고요. 나라마다 하나씩 있습니다. 우리나라가 여섯 번째 세웠고 지금 이제 말씀하신 것처럼 AI가 혹시 사람들의 컨트롤을 벗어날까에 대비한 것부터 시작해서 일상에서 가지는 어려움들을 다 풀 수 있는 국가에서 세운 연구소다 이렇게 보시면 됩니다.
◆김우성: 기구 이름이 AISI 입니다. 언뜻 보면 AI 안전 연구소 기관 뭐 이런 의미인데 교수님께서는 이 S가 안전의 의미인 세이프티(Safety)만이 아니다라고 말씀을 하셨어요.
◇김명주: 네, 윤리부터 국가 안전까지 다 포괄하고 있는 단어라고 보시면 될 것 같습니다.
◆김우성: 저는 어떤 지면 인터뷰에서 교수님이 얘기하신 것 중에 셰르파(Sherpa)라는 표현이 되게 마음에 들더라고요.
◇김명주: 셰르파가 히말라야 쪽 에베레스트 등반하는 등반객들을 도와주는 현지인들이잖아요. 그래서 안전에 대한 전문가이면서 이제 등반대를 꼭대기에 올려놓고 본인은 싹 사라지는 존재.. 그렇게 보고 있습니다.
◆김우성: 인간과 공존하지만 또 AI의 위험성도 얘기해 줄 수 있습니다. 셰르파가 그렇거든요. 이럴 때는 가지 말아야 돼라고 하면 셰르파 말을 믿어야 됩니다. 교수님과 이 프로그램을 저희가 지금 YTN 라디오에서도 처음으로 AI 진행자를 도입해서 하기 때문에 여러 고민과 걱정이 많거든요. 그래서 저는 그 S를 공유 셰어 혹은 생존 세이브, 즉 구하다 이런 의미로도 써야 된다라는 생각이 들어요. 인간과 자연을 좀 구했으면 좋겠습니다.
◇김명주: 좋은 개념인 것 같습니다.
◆김우성: 네, 중책을 맡고 계신 교수님께 여쭤보겠습니다. 돌아가신 분들 예를 들면, 유명인들은 그립고 궁금하기도 하지만 일상까지 돌아가신 분들을 다 복원해서 목소리와 영상으로 만난다.. 이 부분이 조금 걱정인데, 그리프 테크 (Grief Tech) 혹은 데스 테크(Death Tech)라고도 부르는 이 분야 굉장히 커지고 있네요?
◇김명주: 산업이라는 게 수요가 있으면 발전하잖아요. 수요가 있다는 이야기가 되고요. 그런데 그 수요를 만드시는 분들이 대개는 가족입니다. 가족이나 사랑하는 사람이 사랑했던 부모님이나 사랑하는 사람은 헤어진 다음에 또 보고 싶은데 어떻게 볼까, 사진만 볼 수도 있고 뭐 옛날 비디오를 볼 수 있지만 마치 생생하게 보는 것처럼 이제 AI의 도움을 받아서 고인의 데이터를 학습해서 조금 더 진도가 나가면 대화까지 할 수 있도록 만들어주는 기술이 그리프 테크라고 보시면 됩니다.
◆김우성: 그립고 보고 싶은 사람을 다시 만나고 싶은 마음은 이해가 가는데 여러 가지 어려운 점이 많습니다. 왜 그러냐면요, 내 디지털 미디어 기기에 저장된 동영상 정도면 모르겠으나 앞서 교수님이 말씀하셨다시피 지금 살아있는 것처럼 대화를 하게 되면 좀 혼란스럽지 않을까요? 이거 어느 정도로 그 기술이 발전했길래 이런 고민까지 나오는지 모르겠습니다.
◇김명주: 사실 한 5년 전에 모 방송사의 ‘너를 만났다’라는 프로그램이 있었습니다. 세상을 떠난 딸을 VR기술을 통해 엄마와 만나는 부분이 굉장히 센세이션을 일으켰고요. 그 뒤에 기술이 발달하면서 이제 돌아가셨던 분들 특히 옛날에 거북이의 임성훈 씨 같은 경우, 어느 방송사에서 다시 AI를 되살려서 드라마 주제곡을 부르게 했거든요. 그걸 통해서 돌아간 사람이 살아나서 다시 부활해서 활동을 할 수 있네, 그러면서 요즘에 AI 버추얼 캐릭터 만드는 회사에서 자녀한테 부모님들 이렇게 만들어 드립니다라고 대개 부모님들이 갑자기 돌아가시면 마음속에 응어리가 있잖아요. 하고 싶은 말도 있고 용서도 구하고 싶은데 돌아가셨는데 어떡하겠어요? 후회도 되고 그러니까 부모님 만나서 회사에서 그 부모님을 이제 말하는 대사를 주로 자녀들을 치료하고 용서하고 사랑하고 하는 쪽으로 이렇게 메시지를 흘려주세요. 그렇게 되면 이제 내부적으로 치유받는데 그게 정신의학계에서 보통 말하는 지속성복합애도장애라는 게 있습니다. 보통 PCBD라고 하는데. 이렇게 돌아가신 분하고 한참 지나면 그분이 없는 환경에 적응을 해야 되는데 못 하시는 분들이 계시거든요. 그분들을 위해서 보통 재연 치료하는 것 중에 하나로 요즘 AI를 사용합니다.
◆김우성: 정신과 의사들의 감독 하에 앞서 말씀하신 심리 치료 목적, 이건 참 긍정적인데 사실은 솔직히 말하면 나쁜 의미로 먼저 기술이 소개가 됐어요. 딥페이크라는 연예인 사진을 뭐 누드에다 합성하고 이런 게 사회적 범죄지만 문제가 됐었잖아요. 그러니까 좀 일정 정도 기준과 가이드라인이 있어야 되는데. 그리운 사람들, 돌아가신 분들. 왜냐하면 진짜 가족이 아니라 나쁜 뜻으로 악용하는 분들도 있잖아요. 이 명확한 규제가 없어서 AI와 이 기술과 인간이 평화롭게 공존할 수 있을까 궁금하고 걱정되거든요.
◇김명주: 네, 사실 정신의학 하시는 분들도 보통 돌아가신 분하고의 응어리를 풀기 위해서 보통 재연 치료라는 걸 하거든요. 그러니까 배우나 의사가 돌아가신 분 역할을 하면서 일종의 사이코 드라마 같은 걸 하잖아요. 이렇게 해서 응어리를 찾아내는데 이게 디지털로 만들면 얘는 없어지질 않아요. 계속 존재하잖아요. 그래서 이게 과연 재연 치료가 의미가 있을까 오히려 슬픔을 증폭하거나 항구적으로 만드는 역할을 하기 때문에 잊어야 될 것을 못 잊게 해서 이것도 한순간은 괜찮지만 크게 보면 도움이 될까 이런 퀘스천 마크도 있고 또 하나는 이걸 만들기 위해서 고인의 데이터를 갖다 쓰거든요. 그러면 가족이라고 그래서 고인의 데이터 여기저기 있는 걸 다 가져다가 회사한테 주고 이 영상 음성 데이터 가지고 만들어 주세요. 그렇게 하면 고인이 생각할 때 과연 그게 기쁠까, 본인은 내가 죽음과 동시에 모든 게 잊혀졌으면 좋겠다 그랬는데 자녀들이 자기를 부활을 시켜서 이렇게 만드는 게 과연 좋을까 이런 여러 가지 질문들이 나오는 거죠.
◆김우성: 맞습니다. 사실은 기술의 문제이지만 또 윤리, 더 좁게 말하면 법적 문제도 있습니다. 이런 경우에 있어서의 개인 정보. 지금 저희도 얼마 전에 이 주제를 다뤘거든요. AI를 학습시키면서 무수한 데이터를 가져가는데 이 소유권과 저작권 문제는 어떻게 해야 되느냐, 왜냐하면 시장에서는 환호하고 있지만 정작 그 돌아가신 분은 오직 하나만 존재하는 특별함이 사라져 버리잖아요. 이건 어떻게 해야 되냐 고민이 있습니다. 어떻게 논의되고 있나요?
◇김명주: 일신전속권이라고 그래서 이게 개인 정보라고 그러면 사실 부모님도 사실 보면 안 되잖아요.부모님도 보면 안 되고 자식이 봐도 안 되기 때문에 그래서 일반적으로 개인 정보나 프라이버시 정보는 못 보게 하는데 문제는 요즘에 개인 정보를 이메일을 통해서 디지털 상품도 받고 내지는 그 사람이 만든 콘텐츠가 나중에 유명해져서 마치 피카소처럼 죽은 다음에 굉장한 가치를 창출할 수도 있고 하기 때문에 한쪽에서 보면 이게 개인 정보냐라고 볼 수 있는데 가족들이 볼 때는 '이거 내 가족이 우리한테 남겨준 유산이다' 이렇게 볼 수도 있고 그렇기 때문에 유산을 활용해서 그분을 다시 만드는 거는 프라이버시 문제가 아니라 그냥 유족으로서 당연한 권리다 또 이렇게 보시는 분들이 계세요. 그런데 원칙적으로는 개인 정보는 본인 거잖아요. 그래서 SNS에다가 내가 음악도 올리고 콘텐츠도 올렸다고 그러면 그 약관에 의해서 나만 볼 수 있어야 되거든요. 그런데 문제가 된 게 안타까운 사고로 자녀가 먼저 죽은 경우에 부모님들이 그걸 보고 싶어 하잖아요. 그러면서 이제 아까 말씀드렸듯이 디지털을 이용한 부활, 그다음에 유산이랑 엉켜서 사실은 좀 복잡한 국면에 들어가 있습니다.
◆김우성: 네, 그 기준을 만들고요. 이게 인간의 마음과 또 사회심리학적인 고통이나 문제를 유발할지 안 유발할지를 잘 따져서 제도를 안정화시키고 또 기술을 안정화시키는 게 김명주 교수님이 맡고 있는 AI 안전 연구소가 관심 있어 하는 부분 전 세계적으로 관심 있는 주제고요. 우리도 우리도 지금 선진국 영국이 제일 먼저 만들었다고 하는데 어느 정도 수준인가요?
◇김명주: 사실은 전 세계적으로 있는 그 말씀하셨던 안전 연구소는 주로 국가 차원에서 주로 많이 일들을 하고 있고요. 지금 조금 역량이 커지면서 개인들이 AI가 보편화되면서 느끼는 여러 가지 사회적 정신적 관습적인 문제들은 크게 많이 다루고 있지 않습니다. 왜냐하면 산업들도 막 태동되고 있어서 그 부작용이 뭔지를 긍정적인 면과 부정적인 면을 다 봐야 되는데 지금 다 나타나지 않아서 주목해서 지켜만 보고 있는 형편이라고 보시면 될 것 같습니다.
◆김우성: 우리나라도 선진국과 나란히 시작하면서 굉장히 수준이 올라갔는데 아직 이런 주제들은 더 남겨진 숙제다라고 아직 풀지 못한 숙제다라고 말씀해 주셨고요.
◇김명주: 그리고 또 이게 나라마다 조금씩 그 느낌들이 달라서요. 윤리도 다르고 예를 들면 우리나라 같은 경우는 자녀가 죽을 때 굉장히 스트레스를 가장 큰 스트레스를 받거든요. 그런데 외국은 그렇지 않고요. 부부 간이 사별했을 때 제일 많이 스트레스를 받습니다. 그래서 아까처럼 그리프 테크를 이용할 때 우리는 주로 부모님이나 자식들을 많이 만드는데 외국은 배우자를 많이 만들거든요. 이런 것들이 좀 달라서 이게 그 나라의 윤리라든지 풍속이라든지와 연관돼서 상대적인 게 존재합니다.
◆김우성: 네, 또 유교적 문제도 있을 것 같습니다. 청취자 분께서 ‘저는 잊혀지고 싶습니다. AI로 남아 본들 만질 수도 안아줄 수도 없는 영상과 목소리가 더 슬프게 할 것 같아요’라고 의견도 주셨고요. 저희 유튜브로도 의견을 많이 주시는데 교수님 궁금한 게 있습니다, 앞서 말씀하셨던 것처럼 이 그리프 테크 혹은 데스 테크라고 말하는 부분에 대해서 기술적인 면이 지금 굉장히 진보했다라고 이미 말씀해 주셨잖아요. 저는 이거 일반인들이 돌아가신 가족들을 재현해서 만나는 것도 그렇지만 사이비 종교나 나쁜 사람들이 예수님이다 부처님이다 이러면 사회를 혼란시킬 수도 있잖아요?
◇김명주: 충분히 그럴 수 있습니다. 충분히 그럴 수 있고 대개 사회적으로 주목받고 있는 사람들. 예를 들면 연예계 스타도 있지만 종교 지도자들 이런 분들이 디지털을 통해서 부활해서 보통은 특정 종교도 지도자가 죽으면 그 종교 교단들이 해체가 되잖아요. 해체가 되는데 이게 디지털 부활을 통해서 계속 설교도 하고 있고 계속 활동도 할 수가 있습니다.
◆김우성: 누군가 조종할 수 있겠네요?
◇김명주: 그렇죠. 그래서 이 부분도 국가에서 어느 정도가 되면 기술이 가능하다고 모든 게 가능해서는 안 된다 이런 관점에서 접근을 해야 될 것 같아요. 그래서 그게 일으키는 파장들이 뭐가 있을까 특히 전통적인 가치관들하고 부딪히는 부분들이 있을 때 그걸 과연 얼마나 수용할 수 있을까도 이제 논의를 붙여야 될 것 같습니다.
◆김우성: 맞습니다. 숙제가 굉장히 많습니다. 여러분 이미 돌아가신 분인데 이분의 뜻이다 이분이 숨겨놓은 영상이 있다고 해서 속임수를 쓸 수도 있고요. 범죄에서도 납치를 하거나 이랬을 때 살아있는 양 가짜로 보내서 뭐 이런 식으로 할 수 있고 이 부분을 해야 되고 저희 미디어들도 이제 AI를 통해서 만든 것들은 이른바 워터마크라고 하죠. 이건 AI로 만든 겁니다라고 알려드리게끔 되어 있는데 이런 제도 즉 AI가 이렇게 실존 인물들을 생성형으로 만들게 될 때는 뭔가 기술적으로 무조건 워터마크가 붙거나 혹은 돌아가신 분 같은 경우는 뭔가 좀 색깔을 흑백으로 바꾼다든가 이런 안전장치는 따로 없나요? 그런 논의는 구체적으로 없나요?
◇김명주: 현재로서는 없고 내년 1월에 우리나라에서 AI 기본법이 시행이 돼요. 그 안에 보면 인공지능을 이용해서 사업하시는 분들이 특히 딥페이크처럼 어떤 사람 캐릭터를 만들 때는 그 밑에다가 방금 말씀하신 것처럼 워터마크를 붙인다든지 아니면 어떤 표시를 붙인다든지 그게 의무 사항이 됩니다. 문제는 이거를 사업자 레벨이 아니라 그걸 가져다가 이용자가 악용을 또 해요. 그래서 이용자가 악용하는 부분은 법적으로 참 힘들거든요. 개별법으로 따져야 되는데 악용해서 나타난 피해가 있을 때 형사처벌을 한다든지 그래서 예방보다는 사후 처벌일 가능성이 커서 뭐 그 과정으로 놓고 보면 사회적인 혼란이 불가피한 게 아닐까 하는 생각이 좀 들어서 걱정이 되는 부분입니다.
◆김우성: 앞서 교수님께서 그룹 거북이 가수 거북이 얘기도 했지만 그렇게 해서 돈을 누군가 벌게 되면 그 돈은 어떻게 해야 되느냐 많은 복잡한 문제들이 있기 때문에.
◇김명주: 네 맞습니다. 그거 질문을 던졌었습니다. 제가 만약에 돌아가신 분이 번 돈이 누구 거냐 그랬더니 우리가 상식적으로 그거 유족 거 아니에요. 그러는데 제가 변호사님께 여쭤봤더니 아니랍니다. 돌아가실 당시에 나타났거나 숨겨져 있는 재산만 가지고 하는 거지 그거는 새로운 경제 산업을 하는 거잖아요. 경제 활동을 하는 거기 때문에 그건 또 세금도 내야 되는 거잖아요. 그러니까 이건 굉장히 복잡한 문제다 이야기를 했고요. 또 하나는 이 돌아가신 분을 다시 부활시켜서 했는데 얘가 만약에 문제를 일으켰어요. 예를 들어서 뭐 다른 사람의 명예훼손을 명예훼손을 일으켰거나 아니면 본인에 대해서 셀프 디스를 한 거죠. 그렇게 되면 명예훼손이나 범죄를 저지르면 누가 책임질 거냐 또 이런 문제도 있어서 장점도 문제가 있고 단점도 문제가 있어서 좀 깊이 생각을 해야 되는 주차 중에 하나입니다.
◆김우성: 일종의 디지털 지문 같은 차원의 뭔가 책임 소재와 전속권을 알 수 있는 것들이 없다고 하면 이런 문제가 생깁니다. 존경받는 분을 내세워서 AI로 가짜로 영상을 만들어서 없는 범죄를 말하게 하거나 이런 것도 문제가 되기 때문에
◇김명주: 그 한 1~2년 전에 돌아가신 오드리햅번을 AI로 부활시켜서 포르노로 영화를 찍겠다고 해서 굉장히 큰 센세이션을 일으켰는데 그 사례와 같은거죠. 유족들이 가만히 안 있고 팬들이 가만히 안 있는데 또 창작의 자유 이런 것들 표현의 자유를 주장하는 미국 입장에서는 또 허용을 하거든요. 그러니까 기술이 가능하고 법에 허용한다고 그래서 사회 정서에 반하는 것들이 막 나와도 되느냐 또 이런 것들도 논의의 대상인 것 같습니다.
◆김우성: 인간이 갖고 있는 가장 소중한 자본 중에 하나가 신뢰 자본이거든요. 돈이 들지 않아 서울역에 표 검사하는 사람 없잖아요. 표 검사하는 사람과 시스템 만들려면 100억 듭니다. 그 100억을 벌고 있는 셈인데 AI가 그 신뢰를 잃게 된다면 내가 믿을 수 있나 모든 걸 의심하게 만든다면 여러분 끔찍한데 이거를 주도하는 AI 안전연구소 지금 한 30분 가까이 되는 분이 예산 한 70억 정도로 이 모든 일을 다 한다는 게 저는 깜짝 놀랐습니다.
◇김명주: 내년에 예산이 많이 늡니다.
◆김우성: 이런 구조로는 지금 좀 이 모든 걸 대응하지 못할 것 같아요. 분야도 다양해야 되고요. 법률적으로도 보완돼야 되고 어떻게 좀 이거 국가가 대비해야 됩니까?
◇김명주: 사실은 작년도에 노벨 경제학상을 타신 분 가운데서 다론 아제모을루라는 분이 계시거든요. MIT 경제학과 교수님이 AI 거시경제학을 하시는데 그런 이야기했습니다. ‘미국 경제가 앞으로 10년 동안 AI 때문에 GDP의 상승률이 5% 미만일 거다’, 이유는 뭐냐 하면 AI를 가져다 쓰는 사람이 AI를 신뢰하기 너무 힘들다, 그런 이야기를 해서 AI 하시는 분들은 문제가 이거구나 AI를 사람들이 가져다 쓰면서 마음 속에 계속 뭔가 이렇게 꺼림직한 거죠. 신뢰하지 못해서. 그래서 AI안전 연구소는 사실 그런 신뢰 부분을 풀어주는 거죠. 사람들이 의심하고 있고 하는 부분들을 풀어주고 그다음에 신뢰를 통해서 다른 산업에도 같이 발전할 수 있도록 하는 거라서 지금 안전연구소 입장은 국민들의 신뢰를 얻을 수 있는 인공지능을 도입할 수 있도록 도와주는 역할이다. 아까 말씀드렸던 셰르파 역할이다, 이렇게 보시면 되고 우리나라 AI 기업들도 스스로 못 푸는 문제이기 때문에 중간에서 우리가 풀어주겠다 그렇게 내세우는 건데 이게 나라별로 고민하는 부분들은 똑같은 것 같습니다.
◆김우성: 예산과 정부의 관심 또 국민의 관심이 많아지길 바라겠고요. 자동차 사고 때문에 돌아가시는 분들 많다고 자동차를 없앨 수는 없습니다. 안전을 확보해야 되겠죠. AI 안전 연구소에서도 마찬가지로 AI를 인간과 평화롭게 공존할 수 있는 방안 고민하고 계십니다. 오늘 좋은 말씀 감사드리고요 종종 저희에게 또 많은 얘기 들려주시면 좋겠습니다. 지금까지 김명주 서울여대 정보보호학과 교수였습니다.
YTN 김세령 (newsfm0945@ytnradio.kr)
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
□ 방송일시 : 2025년 9월 18일 (목)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성PD
□ 출연 : 김명주 서울여대 정보보호학과 교수
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◆김우성: 제가 20년 전에 대학원을 다닐 때도 미디어 리터러시, 즉 청소년기부터 미디어 이용에 대한 교육 디지털 플랫폼 미디어에 대한 교육이 필요하다라고 했는데 아직도 잘 없어서 안타깝다라고 얘기했잖아요. AI도 리터러시가 필요합니다. AI의 가치를 따지고 윤리를 고민하고 써야 되는데 잘 안 되고 있어요. 왜냐하면 그 논의보다는 훨씬 더 시장의 가능성 기술 발전의 가능성에 몰려 있습니다. 이런 것들을 좀 고민하고 누가 해결해 주지 않나 있습니다. 이분은 세계적인 이 분야의 전문가이기도 한데요, 바른 AI 연구센터장, 국제 AI 윤리협회장, AI 윤리 정책 포럼 위원장 그리고 OECD에서요 글로벌 인공지능 파트너십 엑스퍼트 매니저로도 활동하시는 분입니다. 오늘 이 분야의 이야기를 많이 하고 싶었는데 진짜 제대로 된 전문가 모셨네요. 김명주 서울여대 정보보호학과 교수입니다. 교수님, 안녕하세요.
◇김명주: 네, 안녕하세요.
◆김우성: 처음에 AI 안전연구소장 이래서 AI가 인간을 습격하는 이른바 터미네이터 상황 있죠? 그럴 때 싸워 맞서 싸우는 인간 쪽 사령관이신가 이런 생각을 했는데요. 교수님께서 해당 기구 소장 맡고 계시니까 그 얘기부터 먼저 해야 될 것 같아요. AI 안전 연구소가 있네요?
◇김명주: 사실은 영국에서 맨 처음에 국가 차원으로 만들었고요. 나라마다 하나씩 있습니다. 우리나라가 여섯 번째 세웠고 지금 이제 말씀하신 것처럼 AI가 혹시 사람들의 컨트롤을 벗어날까에 대비한 것부터 시작해서 일상에서 가지는 어려움들을 다 풀 수 있는 국가에서 세운 연구소다 이렇게 보시면 됩니다.
◆김우성: 기구 이름이 AISI 입니다. 언뜻 보면 AI 안전 연구소 기관 뭐 이런 의미인데 교수님께서는 이 S가 안전의 의미인 세이프티(Safety)만이 아니다라고 말씀을 하셨어요.
◇김명주: 네, 윤리부터 국가 안전까지 다 포괄하고 있는 단어라고 보시면 될 것 같습니다.
◆김우성: 저는 어떤 지면 인터뷰에서 교수님이 얘기하신 것 중에 셰르파(Sherpa)라는 표현이 되게 마음에 들더라고요.
◇김명주: 셰르파가 히말라야 쪽 에베레스트 등반하는 등반객들을 도와주는 현지인들이잖아요. 그래서 안전에 대한 전문가이면서 이제 등반대를 꼭대기에 올려놓고 본인은 싹 사라지는 존재.. 그렇게 보고 있습니다.
◆김우성: 인간과 공존하지만 또 AI의 위험성도 얘기해 줄 수 있습니다. 셰르파가 그렇거든요. 이럴 때는 가지 말아야 돼라고 하면 셰르파 말을 믿어야 됩니다. 교수님과 이 프로그램을 저희가 지금 YTN 라디오에서도 처음으로 AI 진행자를 도입해서 하기 때문에 여러 고민과 걱정이 많거든요. 그래서 저는 그 S를 공유 셰어 혹은 생존 세이브, 즉 구하다 이런 의미로도 써야 된다라는 생각이 들어요. 인간과 자연을 좀 구했으면 좋겠습니다.
◇김명주: 좋은 개념인 것 같습니다.
◆김우성: 네, 중책을 맡고 계신 교수님께 여쭤보겠습니다. 돌아가신 분들 예를 들면, 유명인들은 그립고 궁금하기도 하지만 일상까지 돌아가신 분들을 다 복원해서 목소리와 영상으로 만난다.. 이 부분이 조금 걱정인데, 그리프 테크 (Grief Tech) 혹은 데스 테크(Death Tech)라고도 부르는 이 분야 굉장히 커지고 있네요?
◇김명주: 산업이라는 게 수요가 있으면 발전하잖아요. 수요가 있다는 이야기가 되고요. 그런데 그 수요를 만드시는 분들이 대개는 가족입니다. 가족이나 사랑하는 사람이 사랑했던 부모님이나 사랑하는 사람은 헤어진 다음에 또 보고 싶은데 어떻게 볼까, 사진만 볼 수도 있고 뭐 옛날 비디오를 볼 수 있지만 마치 생생하게 보는 것처럼 이제 AI의 도움을 받아서 고인의 데이터를 학습해서 조금 더 진도가 나가면 대화까지 할 수 있도록 만들어주는 기술이 그리프 테크라고 보시면 됩니다.
◆김우성: 그립고 보고 싶은 사람을 다시 만나고 싶은 마음은 이해가 가는데 여러 가지 어려운 점이 많습니다. 왜 그러냐면요, 내 디지털 미디어 기기에 저장된 동영상 정도면 모르겠으나 앞서 교수님이 말씀하셨다시피 지금 살아있는 것처럼 대화를 하게 되면 좀 혼란스럽지 않을까요? 이거 어느 정도로 그 기술이 발전했길래 이런 고민까지 나오는지 모르겠습니다.
◇김명주: 사실 한 5년 전에 모 방송사의 ‘너를 만났다’라는 프로그램이 있었습니다. 세상을 떠난 딸을 VR기술을 통해 엄마와 만나는 부분이 굉장히 센세이션을 일으켰고요. 그 뒤에 기술이 발달하면서 이제 돌아가셨던 분들 특히 옛날에 거북이의 임성훈 씨 같은 경우, 어느 방송사에서 다시 AI를 되살려서 드라마 주제곡을 부르게 했거든요. 그걸 통해서 돌아간 사람이 살아나서 다시 부활해서 활동을 할 수 있네, 그러면서 요즘에 AI 버추얼 캐릭터 만드는 회사에서 자녀한테 부모님들 이렇게 만들어 드립니다라고 대개 부모님들이 갑자기 돌아가시면 마음속에 응어리가 있잖아요. 하고 싶은 말도 있고 용서도 구하고 싶은데 돌아가셨는데 어떡하겠어요? 후회도 되고 그러니까 부모님 만나서 회사에서 그 부모님을 이제 말하는 대사를 주로 자녀들을 치료하고 용서하고 사랑하고 하는 쪽으로 이렇게 메시지를 흘려주세요. 그렇게 되면 이제 내부적으로 치유받는데 그게 정신의학계에서 보통 말하는 지속성복합애도장애라는 게 있습니다. 보통 PCBD라고 하는데. 이렇게 돌아가신 분하고 한참 지나면 그분이 없는 환경에 적응을 해야 되는데 못 하시는 분들이 계시거든요. 그분들을 위해서 보통 재연 치료하는 것 중에 하나로 요즘 AI를 사용합니다.
◆김우성: 정신과 의사들의 감독 하에 앞서 말씀하신 심리 치료 목적, 이건 참 긍정적인데 사실은 솔직히 말하면 나쁜 의미로 먼저 기술이 소개가 됐어요. 딥페이크라는 연예인 사진을 뭐 누드에다 합성하고 이런 게 사회적 범죄지만 문제가 됐었잖아요. 그러니까 좀 일정 정도 기준과 가이드라인이 있어야 되는데. 그리운 사람들, 돌아가신 분들. 왜냐하면 진짜 가족이 아니라 나쁜 뜻으로 악용하는 분들도 있잖아요. 이 명확한 규제가 없어서 AI와 이 기술과 인간이 평화롭게 공존할 수 있을까 궁금하고 걱정되거든요.
◇김명주: 네, 사실 정신의학 하시는 분들도 보통 돌아가신 분하고의 응어리를 풀기 위해서 보통 재연 치료라는 걸 하거든요. 그러니까 배우나 의사가 돌아가신 분 역할을 하면서 일종의 사이코 드라마 같은 걸 하잖아요. 이렇게 해서 응어리를 찾아내는데 이게 디지털로 만들면 얘는 없어지질 않아요. 계속 존재하잖아요. 그래서 이게 과연 재연 치료가 의미가 있을까 오히려 슬픔을 증폭하거나 항구적으로 만드는 역할을 하기 때문에 잊어야 될 것을 못 잊게 해서 이것도 한순간은 괜찮지만 크게 보면 도움이 될까 이런 퀘스천 마크도 있고 또 하나는 이걸 만들기 위해서 고인의 데이터를 갖다 쓰거든요. 그러면 가족이라고 그래서 고인의 데이터 여기저기 있는 걸 다 가져다가 회사한테 주고 이 영상 음성 데이터 가지고 만들어 주세요. 그렇게 하면 고인이 생각할 때 과연 그게 기쁠까, 본인은 내가 죽음과 동시에 모든 게 잊혀졌으면 좋겠다 그랬는데 자녀들이 자기를 부활을 시켜서 이렇게 만드는 게 과연 좋을까 이런 여러 가지 질문들이 나오는 거죠.
◆김우성: 맞습니다. 사실은 기술의 문제이지만 또 윤리, 더 좁게 말하면 법적 문제도 있습니다. 이런 경우에 있어서의 개인 정보. 지금 저희도 얼마 전에 이 주제를 다뤘거든요. AI를 학습시키면서 무수한 데이터를 가져가는데 이 소유권과 저작권 문제는 어떻게 해야 되느냐, 왜냐하면 시장에서는 환호하고 있지만 정작 그 돌아가신 분은 오직 하나만 존재하는 특별함이 사라져 버리잖아요. 이건 어떻게 해야 되냐 고민이 있습니다. 어떻게 논의되고 있나요?
◇김명주: 일신전속권이라고 그래서 이게 개인 정보라고 그러면 사실 부모님도 사실 보면 안 되잖아요.부모님도 보면 안 되고 자식이 봐도 안 되기 때문에 그래서 일반적으로 개인 정보나 프라이버시 정보는 못 보게 하는데 문제는 요즘에 개인 정보를 이메일을 통해서 디지털 상품도 받고 내지는 그 사람이 만든 콘텐츠가 나중에 유명해져서 마치 피카소처럼 죽은 다음에 굉장한 가치를 창출할 수도 있고 하기 때문에 한쪽에서 보면 이게 개인 정보냐라고 볼 수 있는데 가족들이 볼 때는 '이거 내 가족이 우리한테 남겨준 유산이다' 이렇게 볼 수도 있고 그렇기 때문에 유산을 활용해서 그분을 다시 만드는 거는 프라이버시 문제가 아니라 그냥 유족으로서 당연한 권리다 또 이렇게 보시는 분들이 계세요. 그런데 원칙적으로는 개인 정보는 본인 거잖아요. 그래서 SNS에다가 내가 음악도 올리고 콘텐츠도 올렸다고 그러면 그 약관에 의해서 나만 볼 수 있어야 되거든요. 그런데 문제가 된 게 안타까운 사고로 자녀가 먼저 죽은 경우에 부모님들이 그걸 보고 싶어 하잖아요. 그러면서 이제 아까 말씀드렸듯이 디지털을 이용한 부활, 그다음에 유산이랑 엉켜서 사실은 좀 복잡한 국면에 들어가 있습니다.
◆김우성: 네, 그 기준을 만들고요. 이게 인간의 마음과 또 사회심리학적인 고통이나 문제를 유발할지 안 유발할지를 잘 따져서 제도를 안정화시키고 또 기술을 안정화시키는 게 김명주 교수님이 맡고 있는 AI 안전 연구소가 관심 있어 하는 부분 전 세계적으로 관심 있는 주제고요. 우리도 우리도 지금 선진국 영국이 제일 먼저 만들었다고 하는데 어느 정도 수준인가요?
◇김명주: 사실은 전 세계적으로 있는 그 말씀하셨던 안전 연구소는 주로 국가 차원에서 주로 많이 일들을 하고 있고요. 지금 조금 역량이 커지면서 개인들이 AI가 보편화되면서 느끼는 여러 가지 사회적 정신적 관습적인 문제들은 크게 많이 다루고 있지 않습니다. 왜냐하면 산업들도 막 태동되고 있어서 그 부작용이 뭔지를 긍정적인 면과 부정적인 면을 다 봐야 되는데 지금 다 나타나지 않아서 주목해서 지켜만 보고 있는 형편이라고 보시면 될 것 같습니다.
◆김우성: 우리나라도 선진국과 나란히 시작하면서 굉장히 수준이 올라갔는데 아직 이런 주제들은 더 남겨진 숙제다라고 아직 풀지 못한 숙제다라고 말씀해 주셨고요.
◇김명주: 그리고 또 이게 나라마다 조금씩 그 느낌들이 달라서요. 윤리도 다르고 예를 들면 우리나라 같은 경우는 자녀가 죽을 때 굉장히 스트레스를 가장 큰 스트레스를 받거든요. 그런데 외국은 그렇지 않고요. 부부 간이 사별했을 때 제일 많이 스트레스를 받습니다. 그래서 아까처럼 그리프 테크를 이용할 때 우리는 주로 부모님이나 자식들을 많이 만드는데 외국은 배우자를 많이 만들거든요. 이런 것들이 좀 달라서 이게 그 나라의 윤리라든지 풍속이라든지와 연관돼서 상대적인 게 존재합니다.
◆김우성: 네, 또 유교적 문제도 있을 것 같습니다. 청취자 분께서 ‘저는 잊혀지고 싶습니다. AI로 남아 본들 만질 수도 안아줄 수도 없는 영상과 목소리가 더 슬프게 할 것 같아요’라고 의견도 주셨고요. 저희 유튜브로도 의견을 많이 주시는데 교수님 궁금한 게 있습니다, 앞서 말씀하셨던 것처럼 이 그리프 테크 혹은 데스 테크라고 말하는 부분에 대해서 기술적인 면이 지금 굉장히 진보했다라고 이미 말씀해 주셨잖아요. 저는 이거 일반인들이 돌아가신 가족들을 재현해서 만나는 것도 그렇지만 사이비 종교나 나쁜 사람들이 예수님이다 부처님이다 이러면 사회를 혼란시킬 수도 있잖아요?
◇김명주: 충분히 그럴 수 있습니다. 충분히 그럴 수 있고 대개 사회적으로 주목받고 있는 사람들. 예를 들면 연예계 스타도 있지만 종교 지도자들 이런 분들이 디지털을 통해서 부활해서 보통은 특정 종교도 지도자가 죽으면 그 종교 교단들이 해체가 되잖아요. 해체가 되는데 이게 디지털 부활을 통해서 계속 설교도 하고 있고 계속 활동도 할 수가 있습니다.
◆김우성: 누군가 조종할 수 있겠네요?
◇김명주: 그렇죠. 그래서 이 부분도 국가에서 어느 정도가 되면 기술이 가능하다고 모든 게 가능해서는 안 된다 이런 관점에서 접근을 해야 될 것 같아요. 그래서 그게 일으키는 파장들이 뭐가 있을까 특히 전통적인 가치관들하고 부딪히는 부분들이 있을 때 그걸 과연 얼마나 수용할 수 있을까도 이제 논의를 붙여야 될 것 같습니다.
◆김우성: 맞습니다. 숙제가 굉장히 많습니다. 여러분 이미 돌아가신 분인데 이분의 뜻이다 이분이 숨겨놓은 영상이 있다고 해서 속임수를 쓸 수도 있고요. 범죄에서도 납치를 하거나 이랬을 때 살아있는 양 가짜로 보내서 뭐 이런 식으로 할 수 있고 이 부분을 해야 되고 저희 미디어들도 이제 AI를 통해서 만든 것들은 이른바 워터마크라고 하죠. 이건 AI로 만든 겁니다라고 알려드리게끔 되어 있는데 이런 제도 즉 AI가 이렇게 실존 인물들을 생성형으로 만들게 될 때는 뭔가 기술적으로 무조건 워터마크가 붙거나 혹은 돌아가신 분 같은 경우는 뭔가 좀 색깔을 흑백으로 바꾼다든가 이런 안전장치는 따로 없나요? 그런 논의는 구체적으로 없나요?
◇김명주: 현재로서는 없고 내년 1월에 우리나라에서 AI 기본법이 시행이 돼요. 그 안에 보면 인공지능을 이용해서 사업하시는 분들이 특히 딥페이크처럼 어떤 사람 캐릭터를 만들 때는 그 밑에다가 방금 말씀하신 것처럼 워터마크를 붙인다든지 아니면 어떤 표시를 붙인다든지 그게 의무 사항이 됩니다. 문제는 이거를 사업자 레벨이 아니라 그걸 가져다가 이용자가 악용을 또 해요. 그래서 이용자가 악용하는 부분은 법적으로 참 힘들거든요. 개별법으로 따져야 되는데 악용해서 나타난 피해가 있을 때 형사처벌을 한다든지 그래서 예방보다는 사후 처벌일 가능성이 커서 뭐 그 과정으로 놓고 보면 사회적인 혼란이 불가피한 게 아닐까 하는 생각이 좀 들어서 걱정이 되는 부분입니다.
◆김우성: 앞서 교수님께서 그룹 거북이 가수 거북이 얘기도 했지만 그렇게 해서 돈을 누군가 벌게 되면 그 돈은 어떻게 해야 되느냐 많은 복잡한 문제들이 있기 때문에.
◇김명주: 네 맞습니다. 그거 질문을 던졌었습니다. 제가 만약에 돌아가신 분이 번 돈이 누구 거냐 그랬더니 우리가 상식적으로 그거 유족 거 아니에요. 그러는데 제가 변호사님께 여쭤봤더니 아니랍니다. 돌아가실 당시에 나타났거나 숨겨져 있는 재산만 가지고 하는 거지 그거는 새로운 경제 산업을 하는 거잖아요. 경제 활동을 하는 거기 때문에 그건 또 세금도 내야 되는 거잖아요. 그러니까 이건 굉장히 복잡한 문제다 이야기를 했고요. 또 하나는 이 돌아가신 분을 다시 부활시켜서 했는데 얘가 만약에 문제를 일으켰어요. 예를 들어서 뭐 다른 사람의 명예훼손을 명예훼손을 일으켰거나 아니면 본인에 대해서 셀프 디스를 한 거죠. 그렇게 되면 명예훼손이나 범죄를 저지르면 누가 책임질 거냐 또 이런 문제도 있어서 장점도 문제가 있고 단점도 문제가 있어서 좀 깊이 생각을 해야 되는 주차 중에 하나입니다.
◆김우성: 일종의 디지털 지문 같은 차원의 뭔가 책임 소재와 전속권을 알 수 있는 것들이 없다고 하면 이런 문제가 생깁니다. 존경받는 분을 내세워서 AI로 가짜로 영상을 만들어서 없는 범죄를 말하게 하거나 이런 것도 문제가 되기 때문에
◇김명주: 그 한 1~2년 전에 돌아가신 오드리햅번을 AI로 부활시켜서 포르노로 영화를 찍겠다고 해서 굉장히 큰 센세이션을 일으켰는데 그 사례와 같은거죠. 유족들이 가만히 안 있고 팬들이 가만히 안 있는데 또 창작의 자유 이런 것들 표현의 자유를 주장하는 미국 입장에서는 또 허용을 하거든요. 그러니까 기술이 가능하고 법에 허용한다고 그래서 사회 정서에 반하는 것들이 막 나와도 되느냐 또 이런 것들도 논의의 대상인 것 같습니다.
◆김우성: 인간이 갖고 있는 가장 소중한 자본 중에 하나가 신뢰 자본이거든요. 돈이 들지 않아 서울역에 표 검사하는 사람 없잖아요. 표 검사하는 사람과 시스템 만들려면 100억 듭니다. 그 100억을 벌고 있는 셈인데 AI가 그 신뢰를 잃게 된다면 내가 믿을 수 있나 모든 걸 의심하게 만든다면 여러분 끔찍한데 이거를 주도하는 AI 안전연구소 지금 한 30분 가까이 되는 분이 예산 한 70억 정도로 이 모든 일을 다 한다는 게 저는 깜짝 놀랐습니다.
◇김명주: 내년에 예산이 많이 늡니다.
◆김우성: 이런 구조로는 지금 좀 이 모든 걸 대응하지 못할 것 같아요. 분야도 다양해야 되고요. 법률적으로도 보완돼야 되고 어떻게 좀 이거 국가가 대비해야 됩니까?
◇김명주: 사실은 작년도에 노벨 경제학상을 타신 분 가운데서 다론 아제모을루라는 분이 계시거든요. MIT 경제학과 교수님이 AI 거시경제학을 하시는데 그런 이야기했습니다. ‘미국 경제가 앞으로 10년 동안 AI 때문에 GDP의 상승률이 5% 미만일 거다’, 이유는 뭐냐 하면 AI를 가져다 쓰는 사람이 AI를 신뢰하기 너무 힘들다, 그런 이야기를 해서 AI 하시는 분들은 문제가 이거구나 AI를 사람들이 가져다 쓰면서 마음 속에 계속 뭔가 이렇게 꺼림직한 거죠. 신뢰하지 못해서. 그래서 AI안전 연구소는 사실 그런 신뢰 부분을 풀어주는 거죠. 사람들이 의심하고 있고 하는 부분들을 풀어주고 그다음에 신뢰를 통해서 다른 산업에도 같이 발전할 수 있도록 하는 거라서 지금 안전연구소 입장은 국민들의 신뢰를 얻을 수 있는 인공지능을 도입할 수 있도록 도와주는 역할이다. 아까 말씀드렸던 셰르파 역할이다, 이렇게 보시면 되고 우리나라 AI 기업들도 스스로 못 푸는 문제이기 때문에 중간에서 우리가 풀어주겠다 그렇게 내세우는 건데 이게 나라별로 고민하는 부분들은 똑같은 것 같습니다.
◆김우성: 예산과 정부의 관심 또 국민의 관심이 많아지길 바라겠고요. 자동차 사고 때문에 돌아가시는 분들 많다고 자동차를 없앨 수는 없습니다. 안전을 확보해야 되겠죠. AI 안전 연구소에서도 마찬가지로 AI를 인간과 평화롭게 공존할 수 있는 방안 고민하고 계십니다. 오늘 좋은 말씀 감사드리고요 종종 저희에게 또 많은 얘기 들려주시면 좋겠습니다. 지금까지 김명주 서울여대 정보보호학과 교수였습니다.
YTN 김세령 (newsfm0945@ytnradio.kr)
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]