YTN

[더뉴스] 시 쓰고, 연예계까지 접수...'AI' 얼마나 진화했나?

실시간 주요뉴스

■ 진행 : 김영수 앵커, 엄지민 앵커
■ 출연 : 조성배 / 연세대 인공지능대학원장

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송로 확인하시기 바랍니다. 인용시 명시해주시기 바랍니다.

[앵커]
최근에 인간과 거의 구분이 되지 않을 정도로 자연스러운 모습의 가상인간, 버추얼 휴먼이 걸그룹, CF 모델 등으로 다양하게 활동하고 있습니다. 우리 눈앞에 딥러닝 AI가 시시때때로 출현하고 있는 겁니다. 그런데 외모뿐만이 아닙니다. AI가 시를 써서 시집을 내기도 합니다. 과연 AI가 인간의 감정까지 습득하고 닮아가고 있는 걸까요? AI의 현주소 짚어봅니다. 조성배 연세대 인공지능대학원장 연결돼 있습니다. 나와 계시죠?

[조성배]
안녕하세요?

[앵커]
원장님, 안녕하세요. 최근에 저희 YTN 뉴스에 버추얼 휴먼 걸그룹 멤버 이터니티의 제인이 출연을 했거든요. 깜짝 놀랐습니다. 혹시 보셨습니까?

[조성배]
저도 봤는데 깜짝 놀랐습니다. 최근에 버추얼 휴먼이 CF도 그렇고 여기저기 많이 등장하고 있는데요. 이번에 완성된 건 거의 사람하고 구별하기 어려울 정도로, 또 기존에 사람하고 상호작용할 수 있는 것까지 굉장히 매끄럽게 잘 만들었다고 봤습니다.

[앵커]
지금 옆으로도 보이지만 지금 가상인간이 춤을 추기도 하잖아요. 저 뒤에는 어떤 기술들이 숨겨져 있는 건가요?

[조성배]
사실은 기본적으로는 컴퓨터 그래픽 속 기술입니다. 이미 우리가 영화나 영화 촬영 현장에서 메이킹 비디오 같은 것 보면 이런저런 기법을 써서 만드는 그거랑 큰 차이는 없을 것 같고요. 가상휴먼을 일단 그래픽으로 3차원 모델링을 잘해서 만들어야 되고요. 그리고 만들어놓은 모양이 움직임이 사람하고 유사하도록 만들어야 되는데 최근에는 물리적으로 머리카락이 흘러내린다든가 아니면 우리가 일반적으로 물리적인 현상에서 있을 수 있는 것들이 잘 반영된 그런 기술이 많이 들어가 있고요. 거기에 또 인공지능 기술이라고 그러면 그 전체가 다 인공지능이라기보다는 조금 더 자연스럽게 만들기 위해서 많은 양의 데이터로부터 좀 더 자연스러운 모양을 만드는 그런 기법의 인공지능이 쓰였다고 볼 수 있겠습니다.

[앵커]
AI, 인간과 점점 닮아가고 있습니다. 인간의 생각과 감정을 느끼는 단계까지 거의 오고 있는 것 아닌가, 이런 생각 들거든요. 어느 정도 발전 단계에 있는 겁니까?

[조성배]
결과만 놓고 보면 그렇게 충분히 속단하실 수 있다고 보는데요. 제가 이제까지 공부한 것에 의하면 지능이 그렇게 단순하지는 않은 것 같습니다. 단편적으로 일부분 성공한 게 연장선상에서 생각이라든가 감정이라든가 그런 것도 금방 될 것 같은데 사실은 그 사이에 굉장한 기술적인 개입이 있고요. 현재 성공하고 있는 기술들을 계속 연이어서 발전시키면 조금 더 사람이 볼 때 인간처럼 생각하고 행동하는구나라고 소위 착각할 수 있게는 만들 수 있겠지만 그게 궁극의 인간의 생각이라든가 행동을 정확하게 모사한다고 볼 수는 없을 것 같습니다.

[앵커]
그런데 생김새 말고도 지금 시를 쓰는 AI도 나왔거든요. 인공지능이 어떤 과정으로 시를 쓰게 되는 겁니까?

[조성배]
앵커분은 시를 어떻게 쓰시나요? 본인이 시를 어떻게 쓰는지를 명확하게 설명할 수 있을까요? 사실은 인간이 시라는 어떤 창작물을 만드는 메커니즘을 100% 완벽하게 알지 못합니다. 사실 인공지능 입장에서는 어떻게 만들지를 모르는데 만들어야 된다는 게 굉장히 답답한 부분이 있는데요. 최근에 AI가 작성한 시라고 하는 것들은 대부분은 기존에 엄청나게 많은 양의 시를 잘 저장해 놓고 과거에 저장하는 방식은 그냥 데이터베이스에 그대로 집어넣는 건데요. 그것은 약간 조금 모수화해서 집어넣습니다. 우리가 일반적으로 통계에서 쓰는 기법으로 상당히 유사한데요. 그런 많은 양의 데이터를 집어넣고 일부분 조건에 따라서 생성되도록 하는 그런 방식이라서 사실은 엄밀하게 얘기하면 이게 인간이 시를 쓰는 방식하고는 정확하게 같지는 않은데 그렇지만 인공지능이 만들어낸 결과물이 인간 작가가 작성한 시와 거의 진배없다든가 더 나은 결과가 나오고 있기 때문에 굉장한 결과라고 할 수 있겠죠.

[앵커]
그런데 보통 우리가 시를 쓴다는 것은 감정의 표현, 그러니까 희로애락을 느끼고 그것을 표현하는 건데 이 AI가 희로애락을 느낄 수 있느냐가 궁금하거든요. 실제로 느낄 수는 없는 단계 아닙니까?

[조성배]
사실 기술 자체는 우리가 생각하는 것처럼 느낀다든가 감정을 갖는다든가 생각을 한다든가 그런 건 거의 불가능합니다. 아까도 말씀드린 것처럼 인간이 그것을 어떻게 하는지를 100% 잘 모르는 상태에서 어쨌든 그런 식의 결과물을 내기 위해서 인공지능 분야에서 여러 가지 기법들을 사용해서 하고 있는 것이고요. 그래서 엄밀하게 느낀다든가 감정을 가졌다라든가 얘기하기보다는 어차피 인공지능, 지능이라는 것은 제3자가 감정이입에 의해서 판단하는 결과물이라고 볼 수 있는데 지금 인공지능이 만들어놓은 결과물이 사람이 봤을 때 마치 느낀 것처럼, 또는 감정을 갖는 것처럼 보인다고 하면 그게 거의 차이가 없다라고 보는 게 아닐까 싶습니다. 아직은 인공지능 기술이 궁극의 감정이라든가 또는 지능이라든가 자의식까지는 도달하지 못했습니다.

[앵커]
그리고 알파고가 바둑 대국을 하는 것도 있었지만 얼마 전에는 체스를 두기도 했었는데 러시아 모스크바에서 체스 대회가 있었습니다. 저희 일단 장면을 보면서 설명을 드리겠습니다. 지금 체스를 두고 있는데요. 어린아이와 체스를 두던 로봇이 지금 보시는 것처럼 아이의 손가락을 붙잡습니다. 갑자기 아이를 잡으면서 아이의 손가락이 다치기도 했었거든요. 그런데 이런 상황은 기계가 단순히 오작동한 것으로 이해를 해야 되는 건지, 아니면 AI가 어느 정도 사람처럼 지각을 하고 의도적으로 행동한 건지. 어떻게 봐야 될까요?

[앵커]
프로그램이 잘못된 것은 아닌지요.

[조성배]
잘못됐다고 볼 수도 있고요. 어차피 프로그램은 프로그램된 대로 잘 작동하고 있는데 프로그램 할 당시에 있을 수 있는 모든 상황에 대해서 사전에 코딩을 못해 놨다고 볼 수 있겠습니다. 사실 체스라는 게임 자체가 고도의 지능을 필요로 하는 그런 게임이기도 하고 그걸 또 로봇이 한다고 하니까 우리가 아까도 말씀드린 것처럼 감정 이입을 해서 뭔가 지능적인, 또는 감정적인 이런 걸 갖고 시기라든가 또는 게임하는 사람에 대해서 치팅하는 걸 막기 위한 행위로 우리가 해석하는 거고요. 저 프로그램 자체는 그런 기능은 따로 없습니다. 굳이 얘기하자면 오작동이라고 할 수 있겠고요. 결국 저렇게 작동한 걸 보고 우리가 그렇게 판단해서 지레 짐작한 거라고 볼 수 있겠습니다.

[앵커]
저렇게 체스를 두다가 아이가 다쳤거든요. 저렇게 다친 경우에는 책임은 어떻게 되는 겁니까?

[조성배]
사실 인공지능 로봇이 스스로 뭘 판단해서 한다는 것은 굉장히 어려운 얘기일 것 같고요. 스스로라는 게 우리가 어떻게 정의하느냐에 따라 다르지만 결국 그런 기술이 스스로 했다, 안 했다라고 이분법적으로 구별할 수는 없을 것 같고요. 기술이 어쨌든 궁극적으로는 자율적으로 할 수 있는 것까지 가려고 하고 있고요. 그 사이사이에 여러 가지 결과물들을 만들고 있는데 스스로 하는 것까지 우리가 필요하다면 글쎄요. 스스로 하는 것처럼 보일 수 있을지 모르겠지만 인공지능이 스스로 판단해서 어떤 행동까지 한다라기보다는 인간의 어떤 편의에 의해서 인공지능에 의해서 자동화하는 도구를 만들고 거기에 대해서 너무 의존하게 되면 이와 같은 피해를 입을 가능성은 언제든지 있기 때문에 여러 가지 준비를 사전에 해야 된다고 봅니다.

[앵커]
알겠습니다. 그리고 최근에 이런 기사가 있었습니다. 구글의 인공지능이 7~8살 정도 되는 기기가 있었는데 감정을 갖고 있는 것 같다, 이렇게 이야기했다는 겁니다. 작동 정지되는 게 무섭다. 죽음과 다름이 없다. 이런 답변을 했다는 주장을 편 연구원이 해고당했습니다. 혹시 이 기사 보셨죠?

[조성배]
네, 봤습니다.

[앵커]
그래서 실제로 구글이 만들고 있는 인공지능이 자의식, 지각력을 갖고 있는 것 아닌지. 이런 생각을 갖게 되거든요. 이건 어떻게 보십니까?

[조성배]
이것도 마찬가지인데요. 결국 저 기술이 어떤 건지를 깊이 있게 들여다 보면 우리가 알고 있는 자의식하고는 다른데 사실 전혀 자의식이 없다, 이렇게 얘기할 수는 없지만 적어도 우리가 생각하는 자의식은 없다고 생각하는 게 맞을 것 같고요. 구글이 개발했던 저런 방식이 조금 전에 말씀드린 것처럼 엄청나게 많은 양의 데이터를 집어넣고 그 데이터로부터 뭔가 결과를 도출하도록 하는 그런 방식으로 작동을 했는데 예를 들면 우리가 통계 패키지에서 나온 결과를 무서워하지는 않지 않습니까? 이를테면 다음 분기 GDP 성장률은 얼마나 될까라든가 물가율은 얼마가 될까를 통계적인 어떤 방식으로 결과를 처리했을 때는 그다지 무섭다거나 하지 않는데 그런데 인공지능으로 어떤 결과를 낼 때는 푸는 문제 자체가 약간 우리 지능을 필요로 하는 문제들을 풀기 때문에 그런 것 같기는 한데요. 이런 식의 착각이나 오해가 있을 수도 있을 거라고는 보이고요. 어쨌든 자의식은 엄밀한 의미에서 아직 잘 모르는 분야이고요. 지금 구글에서 나왔던 건 1만 명의 데이터, 소위 모수화해서 학습해 놓은 어떤 시스템이 낸 결과, 질의응답을 주로 하는 건데 그게 마치 사람이 하는 것처럼 했다더라 하는 것을 단편적으로 보고 이게 자의식이 있지 않냐고 주장했다고 보이고요. 회사 입장에서는 어쩌면 그게 세상을 조금 혹세무민할 수 있는 그런 위험요소가 있기 때문에 해고한 것이 아닌가 싶습니다.

[앵커]
알겠습니다. AI 크게 발전했지만 아직까지는 인간의 생각과 행동을 그대로 따라할 수 있는 것은 아니다, 그 단계까지는 아니다라는 말씀해 주셨습니다. 하지만 발전 가능성은 높고요. 잘 들었습니다. 조성배 연세대 인공지능대학원장과 함께했습니다. 고맙습니다.

[조성배]
감사합니다.



※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재 및 재배포 금지]