"AI는 원래 보수다" 혁신의 얼굴을 한 인공지능, 휘둘리지 않는 법은

"AI는 원래 보수다" 혁신의 얼굴을 한 인공지능, 휘둘리지 않는 법은

2025.11.03. 오후 3:23.
댓글
글자크기설정
인쇄하기
AD
YTN라디오(FM 94.5) [YTN ON-AI RADIO]
□ 방송일시 : 2025년 11월 03일 (월)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성 PD 
□ 출연 : 이상욱 한양대학교 인문과학대학원 AI학과 교수

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.


◇ 김우성 PD(이하 김우성) : YTN 라디오 온 AI 라디오. 온 AI 라디오의 AI 라디오의 AIR이 보통 저희 방송할 때 ON-AIR. 저희끼리는 탈리(Tally) 이런 표현을 하는데요. ‘생방송 중이야.’ 이런 표현이고요. 약간 중의적이죠. ‘하늘을 비행하고 있어.’ 이런 느낌도 드는데, 온에어의 핵심 시간 ‘온 마이크’입니다. 비행기를 조종하는 조종관에 해당될 텐데요. 오늘은 앞서 얘기해 드린 대로 AI 윤리와 과학 철학 분야의 최고 전문가시죠? 한양대학교 인문과학대학원 AI학과 이상욱 교수님 스튜디오에 모셨습니다. 교수님 어서 오십시오.

● 이상욱 한양대학교 인문과학대학원 AI학과 교수(이하 이상욱) : 안녕하세요.

◇ 김우성 : 저희가 보통 문무를 겸비했다는 표현을 써도, 문·이과를 겸비했다는 표현을 안 쓰는데요.

● 이상욱 : 제가 과에 대해 말씀드려야 할 게, 인문과학대학 교수님들이 흥분하실 수 있으니까. 인문과학대학에서는 제가 철학과 소속이고요. 그다음에 인공지능 대학원이 있는데, 거기도 공동 소속입니다. 그래서 양쪽에 소속된 건 맞아요.

◇ 김우성 : 맞습니다. 구글에서도 인문학자들, 인간의 근본적인 욕구를 연구하는 사람들 많이 채용했다가 그게 지금 뉴스가 안 되고 있는데요. 학문을 분과학을 줄여서 과학이라고 부른다는 말이 있잖아요. 전문화된 공부가 있는 반면에, 교수님처럼 전체의 그림을 보시는 분들도 있다. 이렇게 해 주시고요. 교수님이 유네스코 세계 과학기술윤리위원회 부위원장도 역임하셨습니다. 어떻게 보면 세계에서도 과학과 인간의 관계, 윤리라는 부분을 어떻게 볼지 선도적으로 하셨어요.

● 이상욱 : 세계 과학기술 윤리위원회라는 곳이 어떤 곳이냐면, 과학기술 중에서 첨단 과학기술. 그래서 지금 나온 지 얼마 안 돼서 사람들이 ‘여기에 어떻게 대응하는 게 맞지?’ 이런 것들을 결정해 나가는 과정인 걸 잡아가지고, 거기에 대한 이 리포트를 하는 거거든요. 그러니까 그런 의미에서 인공지능은 딱 맞는 주제고요. 제가 인공지능 윤리에 아주 본격적으로 뛰어들게 된 계기도, 유네스코에서 2021년에 회원국들의 합의를 도출해서 인공지능 윤리 권고를 만들었는데, 그걸 제일 처음 만들 때, 전문가 그룹이 초안 작성하는, 거기서부터 활동을 제가 시작을 했습니다.

◇ 김우성 : 그만큼 ‘한국이 AI 강국이 된다.’ 이런 뉴스들 산업적인 측면으로 26만 장 확보하고 피지컬 AI 만들고 이런 말만 들었지만, 한편으로는 인간과 AI가 어떻게 할지도 이상욱 교수님 때문에 저희가 앞서 먼저 뛰고 있다.

● 이상욱 : 많은 분들이 이렇게 하고 계시죠.

◇ 김우성 : 알겠습니다. ‘AI 윤리.’ 이렇게 말하면 국민 윤리 생각하시는 분들도 있을 것 같아요.

● 이상욱 : 그 부분 되게 중요합니다. 왜냐하면 제가 아까도 슬쩍 말씀드렸지만, 우리말의 윤리 개념은 무언가 명백해서, ‘AI 가지고 나쁜 일 안 하면 되지. 무슨 윤리야.’ 근데 영어의 윤리 개념은 복잡한 얘기지만, 그리스어의 ‘에토스’라는 단어에서 나왔는데요. 핵심은 뭐냐 하면 집단마다 문화마다 조금씩 다를 수 있어요. 그러니까 규범적인 거긴 한데, 어떻게 하는 게 바람직한지. 더 중요한 건 만들어 나가는 거예요. 그러니까 AI 윤리라는 게 뭐냐 하면, AI라는 굉장히 새로운 기술이 등장했는데, 이걸 어떻게 개발하고 어떻게 활용하는 게 가장 바람직한가를 고민하고 토론해서요. 사람마다 의견이 다 다르니까 의견들을 조정해서 결국은 실천까지 가는 그거 통째로 윤리입니다. 그러니까 국민윤리 생각하시면 절대로 안 돼요.

◇ 김우성 : 맞아요. 철학자들 이름도 배우잖아요. 소크라테스 배우고, 공자 성선설, 성악설. 저는 지금도 불만입니다. 왜 교과목 이름을 국민 윤리로 했을까요? 그러니까 철학 이렇게 하면 참 재미있었을 텐데요. 어쨌든 여러분 질문하는 겁니다. 새롭게 등장하는 현실과 그 가치에 대해서 각자의 입장이 다른 사람들끼리 질문해서 어떻게 할지 정하는 일입니다. 이렇게 쉽게 해서 풀었는데, 그래도 ‘AI 윤리’ 우리는 조금 선입견이 있죠. 핵심 쟁점들이 있을 것 같아요. 지금 당장에 도드라지고 있기도 합니다. 인간을 대체하느냐.

● 이상욱 : 굉장히 많은데요. 그래도 국제적으로 AI에 대해서 공통적으로 관심이 많은 주제를 먼저 말씀드릴게요. 흔히 ‘AI 국제 거버넌스’라고 하는데요. 이걸 갖다가 어떻게 개발시키고 발전시킬까. 첫째가 안 믿어지시겠지만 AI가 되게 파워풀한 기술이긴 한데요. 이것에 대해서 완벽한 통제력을 우리가 아직 못 가지고 있어요. 그러니까 우리가 만들었는데, 대체적으로 어떻게 작동시킬지 그리고 대체적으로 결과가 어떻게 나올지는 알지만, 우리가 최종 결과물을 이거는 절대로 못 나오게 하고, 이거는 나오게 하고, 이런 것들을 아직 못 해요. 그래서 그것들을 가능하게 하려는 기술적 연구와 윤리적 제도적인 노력들이 기울여지고 있는데요. 여기서 핵심적인 개념은 ‘트러스트 워드 (Trust-worth) AI’라는 개념이에요. 신뢰 가능한 AI. 그러니까 AI 기술 잘 만드는데, 얘가 큰 사고 치지 않고 우리가 믿을 수 있게 행동하는 겁니다.

◇ 김우성 : 예측 가능한 범위 내에서요.

● 이상욱 : 정확합니다. 그게 한 축이고 이거에 대해서는 기술적으로도 굉장히 많은 특허도 나와 있고 인증도 나와 있고 제도도 만들어져 있고요. 우리나라도 여기에 대해서 굉장히 많은 노력을 하고 있습니다. 또, 한 가지가 약간 민감한 건데요. 특히 최근에 AI가 사고를 많이 치고 있어서, ‘세이프AI’라는 개념, 안전한 AI. 그러니까 이 AI가 예를 들어서 국가 안보를 침해하거나 아니면 사람들에게 정신적 문제를 일으키거나 사기를 치거나 협박을 하거나, 이런 게 지금 실험에서 등장하고 있거든요. 그런 것들을 못하게 하려면, 어떻게 해야 되냐, 그래서 신뢰 가능하고 안전하게 만들자. 이게 굉장히 큰 틀에서의 지금 핵심 쟁점이라고 할 수 있습니다.

◇ 김우성 : 당장 와닿고 있습니다. 여러분들 저희가 캄보디아 관련해서 범죄 얘기할 때, AI로 시나리오를 짭니다. 인간보다 더 치밀하게, ‘이 사람 말이지. 3년 전에 야구에 한 번 미친 적이 있었어.’ 이거를 AI한테 맡기면 정말 기가 막히게 이 사람의 시나리오를 만들어 줍니다. 이런 것들을 어떻게 막을 거냐. 그런데 지금 제프리 힌턴 교수가 AI 때문에 2024년 노벨상까지 받으신 물리학자신데요. 이분이 요새 반 AI 선두에 서 계시잖아요. “위험해. 5년에서 20년 내에 우리 지배당할 거야.” 아까 교수님 처음에 얘기하셨어요. “우리가 AI를 통제할 수 있느냐.” 그래서 오늘 기사에 재밌는 게 나왔어요. AI 때문에 결국 일자리도 뺏기고 힘들어지고 공격당할 것 같으니까. ‘AI에 모성 본능을 심어라.’ 이게 무슨 말이야, 저는 이해가 잘 안 되더라고요.

● 이상욱 : 그러니까 지금 두 가지 흐름이 있습니다. AI를 통제하려는 방식을, AI에게 인간적인 윤리 규범을 가르쳐서, AI가 자기가 발전을 해도, 여전히 인간의 명령에 순종하고 인간이 중요하게 생각하는 핵심 가치라고 하는 거, 인권이라든가 이런 보편적인 가치들 그런 것들은 존중하도록 만들자는 흐름이 하나 있고요. 하나는 AI가 접근 가능한 어떤 자원, 예를 들어서 AI가 이것저것 자기가 마음대로 이메일도 들여다보고 그다음에 어떤 결정도 해 가지고 공장도 돌리고, 이렇게 하면 편리하긴 하겠지만, 우리가 그 결과들에 대해서 위험할 수 있잖아요. 그래서 얘의 계산 결과가 행동으로 이어지기 마지막 단계는 꼭 사람이 그걸 검토하게 만든, 그걸 ‘휴먼 센터드니스’라고 하는데요. 인간 중심주의. 그래서 얘를 갖다가 충분히 잘 가르쳐 가지고 윤리적으로 만들려는 시도. 그다음에 “얘는 어쨌든 기계잖아, 그러니까 최종 결정에서는 인간이 해야 된다.” 하는 그런 인간 중심주의 이런 흐름들이 같이 지금 진행 중이거든요.

◇ 김우성 : 늘 가던 가게에서, 늘 시켜 먹는 거 시켜 먹는데, AI가 저희 RFID칩 같은 거 가지고 가게 갔더니 알아서 줍니다. 오늘은 그냥 커피만 한 잔 하려고 했는데, 이럴 수도 있잖아요.

● 이상욱 : 왜냐하면 그 패턴들을 인식해서 행동하는 거고요. 특히나 얘가 상식이 없어서, 요즘에 유행하는 ‘AI 에이전트’ 같은 경우에, 제가 평소에 입버릇처럼 ‘아 너무 일이 힘들어서 그냥 다 때려치고, 1년 동안 크루즈 갔으면 좋겠다.’ 갑자기 AI가 내 통장에 있는 돈 전부 다 끌어대가지 예약해 버리는 거죠. 그럴 수 있어요. 그런 걸 막으려면 어떻게 해야 되는가를 지금 되게 고민 중에 있어요.

◇ 김우성 : 투자 관련해서 AI 정보 활용하시는 분들 많거든요. ‘엔비디아를 샀어야 되는데.’ 이러면 제일 비쌀 때 사는 겁니다. 여러분 이만큼 인간의 선택이라는 건 복합적이거든요. 좋으면서 선택하지만, 싫어도 선택하는 경우도 있어요. 근데 AI는 그러지 않는다는 걸 교수님이 지금 아주 정말 쏙쏙 들어오게 설명을 해 주셨습니다. 교수님 인터뷰 중에 재미난 게 있었습니다. 타사와의 인터뷰할 때 AI는 근본적으로 보수적이다. 저희가 정치 시사 채널이잖아요. 이런 얘기 나오면 청취자들이 “그래?” 이럴 수도 있습니다.

● 이상욱 : 보수적이라는 말을 일상 언어의 의미로 쓴 게 아니라, 정치학의 의미로 쓴 거예요. 정치학에서 보수주의는 무슨 뜻이냐 하면, 기존의 제도나 문화적 관습들을 바꿔야 될 아주 필연적인 이유가 없는 한은, 안 바꾸고 가는 걸 디폴트로 하는 게 전통적 보수주의죠. AI가 보수적일 수밖에 없는 이유는 아주 심플합니다. AI는 기존에 있는 어마무시한 데이터들을 학습해서, 거기에 담겨져 있는 패턴이 미래에도 그대로 지속될 것이라고 가정하고 예측이나 생성을 해요. 그러니까 기존에 있는 데이터가 과거 역사 데이터들을 다 포함하고 있으니까, 우리 과거가 완벽하지 않았잖아요. 거기 문제도 많고 고칠 점도 많지만, AI는 그냥 그걸 학습해 가지고 미래에 투사를 하기 때문에, 그런 의미로 보수적이라는 거죠.

◇ 김우성 : 흰 점에 갑자기 점 하나 탁 찍는 게 아니고요. 그전에 그려졌던 그림들을 다 보고 얘기하기 때문에, 그럼 기존에 있는 것들이 유리해질 수밖에 없네요.

● 이상욱 : 그렇죠. 기득권이 유리해질 수밖에요.

◇ 김우성 : 그러면 뭔가 사회 문제나 여러 가지 갈등 요소도 AI로 해결되지 않을까. 기대가 되시는 분들은 자칫 여기에다가만 맡기면 결국은 승리자의 역사만 남지 않을까 싶어요.

● 이상욱 : 그러니까 AI를 활용해서 기존에 어떤 문제가 있었고, 거기에 대한 대응책이 어떤 게 모색됐는지를 요약하고 전반적인 경향을 읽는 데는 아주 유리합니다. 그렇지만 결국은 우리의 지향점. 우리가 뭘 지향하는지 핵심 가치를 거기다 집어넣어서 활용해야지. AI가 마치 요즘에 점도 보고 취업운도 물어보고, 거의 신적 존재가 됐잖아요. 이런 식으로 ‘얘한테 물어보면 결과가 뿅 하고 나오겠지?’ 아주 위험한 생각입니다.

◇ 김우성 : 맞습니다. 저희가 작은 질문보다는요. 교수님 어렵게 모셨으니까 굵직굵직한 질문을 던져야겠습니다. 지금 말씀하신 것처럼, 북극을 인간의 기준이나 여러 기준으로 보면 살기도 힘들고 어려워요. 하지만 지금 얼마나 전략적 가치와 자원의 가치가 있습니까? 이렇게 생각하는 건 인간이니까 가능한 건데요. 교수님 그러면 지금 궁금한 게 있습니다. AI가 이렇게까지 지금 쟁점화되어 있는데, 문제는 이렇게 생각합니다. 표현이 이상한데, ‘우리 AI는 죄가 없다. 그러니까 AI를 어떻게 쓰는지에 대한 인간에게 달려 있다.’ 반대로 ‘AI 너 뭐 하려면 마지막 단계에서는 인간 중심적으로 인간에게 물어봐.’라고 한다면 역으로 질문하면 우리가 우리라는 인간이 성악설인지 성선설인지 모르겠지만, AI를 어떻게 바라봐야 되는지 저희가 먼저 정리해야 되는 거 아닌가요?

● 이상욱 : 그렇죠. 일단 AI는 요즘에 하도 말을 잘해 가지고 사람들이 오해하기 쉬운데. 의식적 경험을 하지 않아요. 뭔가 마음이 있거나 감정이 있거나 그렇지 않아요. 그런 것처럼 보이지. 그러니까 그런 의미에서 AI에게 죄를 묻기가 어려워요. 얘가 뭔가 자기가 의도를 갖고 이해하고 행동하는 게 아니니까. 그리고 한 가지 현재 전 세계 어느 나라도 AI에게 ‘법인격’을 부여하고 있지 않습니다. 그러니까 도덕적 법적 책임을 물을 수가 없어요. 그러니까 당연히 인간이 최종 책임을 져야 되는데, 여기서 어려운 문제가 시작됩니다. 이게 답이 아니에요. 왜냐하면 냉정하게 생각해 보세요. 만약에 모든 일을 모든 AI와 관련된 사안을 최종 단계에서 사람이 항상 최종적으로 결정해야 된다면, 인공지능을 왜 쓰겠어요? 귀찮잖아요. 그거 잘 알아서 척척 해주길 바라가지고 AI를 쓰는데요. 그러니까 예를 들어서 어떤 도시의 에너지 효율성을 관리하는 AI처럼 대부분의 경우에는 AI에게 맡겨두고 얘가 큰 사고 치지 않게 가드레일이라고 하거든요. 국제 거버넌스에서 가드레일을 주고 모니터링을 해가면서 관리해 나가는 그런 시스템도 있을 수 있고요. 예를 들어서 사람의 생명, 메디컬 AI 쪽. 그다음에 사람에게 죄를 갖다가 결정하는 법률 AI. 이런 것처럼 아니면 국가 정책을 결정하는 것처럼 굉장히 중요한 사안에 대해서는 반드시 사람이 맨 마지막 단계에는 검토하고 결정을. 그러니까 상당히 다양한 AI의 활용에 대해서 AI와 인간의 협업이 어떤 양상으로 펼쳐질지를 고민하고 실천할 필요가 있습니다.

◇ 김우성 : 맞습니다. 지금 ‘AI 그래서 나빠, 좋아?’ 이렇게 판단하지 마시고요. 말씀하신 것처럼 AI가 더 효율적으로 잘 돌아가는 부분은 놔두고 더 발전시키되, 치명적이거나 아주 중요한 부분은 인간에게 중요하다. 교수님이 말씀하신 아침에 다른 자료를 보다가 오히려 이게 더 재미있었는데 앞서 보수가 나왔던 그러니까 기존의 질서를 더 선호한다는 게 나왔던 인터뷰에 있는 말인데요. ‘겸손한 AI를 만들어줘.’ 이렇게 겸손한 이러니까 이거이게 뭐랑 관련된 건지, 예절인가요?

● 이상욱 : 최근에 오픈 AI CEO 샘 올트먼이 아주 공식적으로 여러 인터뷰에서 5.0으로 업데이트 시키면서 아첨을 줄였다고 했어요. 그게 왜 그러냐면 처음에는 아첨을 많이 집어넣었다는 소리죠. 그러다가 줄인 거잖아요. 처음에 집어넣은 것도 상업적 이해관계 때문이고요. 나중에 뺀 것도 상업적 이해관계 때문입니다. 무슨 말이냐 하면 그렇잖아요. 들어가 가지고 ‘네가 최고야. 네가 너무 잘했어. 훌륭한 생각이야.’ 이런 아첨을 엄청 하는 AI일수록 사람들이 많이 구독하겠죠. 그러니까 돈이 돼요. 그래서 집어넣는데 최근에 아첨을 너무 많이 해가지고 자기가 진짜로 굉장한 사람인 것처럼 해가지고 망신을 당하거나, 아니면 얘한테 폭 빠져가지고 평상시에 사회생활 잘하던 애가 오히려 사회성이 없어지고, 그리고 자살을 한 경우도 있어요. 그래서 그것 때문에 지금 법정 다툼까지 가고 있거든요. 그러니까 징벌적 손해배상 제도가 있는 미국 상황을 고려해서 오픈 AI가 그거 아첨을 줄인 거예요. 그러니까 결국은 이게 시사하는 바가 뭐냐 하면, AI가 모든 걸 알아서 하는 게, 얼핏 보면 좋아 보이지만 아니라는 거죠. 그러니까 자기가 웬만한 건 처리해 준 다음에 그리고 처리하고. 중요한 거일 때 그 판단이 쉽지 않은데 물어봐야죠. 겸손한 AI가 그런 뜻이에요. 이거를 내가 예를 들어서 아까 크루즈 여행 같은 거 저한테 물어봐야죠. ‘네가 되게 힘든 것 같은데, 네 돈을 다 빼가지고 크루즈 해도 돼?’ ‘절대로 안 돼.’ 그러니까 그런 식으로 함부로 나서지 않고 항상 인간을 존중하고 인간의 판단을 최종적으로 항상 신경 써가면서 인간의 가치를 존중해 가면서 인간과 상호작용하는 AI를 만들도록 노력해야 되는 거예요. 그렇지 않으면 지금 상업적 이해관계가, 돈 너무 많이 벌려고, 지금 빅테크들이 난리이기 때문에요. 당연히 겸손한 AI 안 만들어요. 그래서 여기에 굉장히 강조점을 둬야 됩니다.

◇ 김우성 : 오히려 현실 정치에 연결되는 측면인데요. 굉장히 뛰어나고 머리도 좋고 대단한 정치 리더가 있는데요. ‘아이고 세금 제도요. 제가 다 알아서 바꿔요. 그게 다 좋아요.’라고 하면, 안 됩니다. 마지막에 주권자한테 물어봐야 돼요. 국민 여러분 토론회 열게요. “세금 이렇게 하려고 하는데 될까요?” 설사 그게 나쁜 선택이어도 들어야 되거든요. 근데 AI가 그렇게 하면 안 된다는 거요.

● 이상욱 : 그러니까 민주주의 원칙이 정치에서 작용하는 거하고 똑같은 이유로 AI와 인간의 상호작용에서, 결국은 AI는 겸손하게 인간에게 최종 권한을 일임할 수 있는, 그런 방식으로 설계가 이루어지고 기술 개발이 이루어져야 돼요.

◇ 김우성 : 지금 교수님 얘기 듣고 소름이 돋습니다. 어떻게 보면 AI만의 독특한 관계. ‘AI를 어떻게 쓰지?’ 인간과 이 문제가 아니고요. 우리가 세계를 대하는 방식이 다 녹아 있는 것 같습니다. 그래서 교수님이 거울에 비유를 하시기도 했어요. 이렇게 하면서 끊임없이 스스로를 돌아보면서 AI와 서로 접점을 찾아나가야 되는데, 인간다움, 저희가 질문을 드렸고 AI가 답하는 거 들어보셨죠? 독창적이다. 직관적이다. 그러니까 쉽게 말하면 계산 논리, 컴퓨터 칼큘레이션은 아니다. 이렇게 말은 하고 있는데, 어떻게 평가하십니까?

● 이상욱 : 그러니까 결국은 AI의 답변을 너무 신비화 할 필요가 없는 게요. 아까 말씀드렸던 AI의 학습 원리에 따라서 AI는 인간다움, 특히 인공지능 시대의 인간다움에 대해서 지금 사람들이 엄청나게 많이 말을 했잖아요. 그걸 종합하고 요약해서 대답한 거예요. 그러니까 사람들이 대충 그렇게 생각하는 거야. AI의 무슨 AI는 아직까지 독창적으로 혼자 생각을 하기는 어려워요.

◇ 김우성 : 근데 독창적인 AI 가능할까요?

● 이상욱 : 그건 우리가 어떻게 만드느냐에 달려 있어요. 저는 철학적으로 볼 때 불가능하지 않다고 생각해요. 다만 지금 현재 AI의 목적 함수를 만들 때는 특정한 방식의 테스크를 주고 이거 해라라고 만드는데요. ‘아첨을 해라.’라든가 아니면 ‘사람들이 질문하는 거에 자연 언어로 되게 잘 답변해라.’ 그런 거 말고요. 만약에 “AI에게 창의성을 발휘해.” 그거 어려워요. 그걸 어떻게 목적 함수를 줄지. 그러면 얘가 창의적이 될 거예요. 그러니까 그런 면에서 AI의 답변은 어차피 사람들이 어떻게 생각하느냐를 요약한 거니까 그거보다는 더 진취적으로 나갈 필요가 있다고 봐요. 무슨 뜻이냐 하면 AI는 결국 그렇게 우리가 어떻게 만드느냐에 달려 있고요. 잘만 만들면 실제로 전통적으로 인간만 할 수 있었다고 생각하는 어떤 능력을 의식적 경험 없이, 인간하고 달리 굉장히 이상한 방식으로 ‘구현’할 수 있어요. 그러니까 결과물은 나오는데, 얘는 인간하고 달리 그거를 인지하거나 의식하지 못하는 거예요. 그러니까 그런 굉장히 이상한 종류의 지능. 그걸 제가 ‘낯선 지능’이라고 하는데, 그런 낯선 지능과 상호작용하면서 우리 자신을 되돌아볼 수 있는 거죠. ‘아 내가 인간은 이것 때문에 특별하다고 생각했는데, 얘도 흉내는 나보다 어떨 때는 더 잘 내는구나.’ 그렇지만 얘는 진정한 의미에 공감을 안 하니까 그러면 내가 공감을 할 때도 챗 지피티처럼 아첨하는 방식이 아니라 현명한 방식으로 그러니까 이 사람을 진정으로 아끼고 도와주는 방식으로 공감을 해야겠구나. 이런 식으로 더 자기 자신을 디벨롭 시킬 수 있는 거죠.

◇ 김우성 : AI을 활용해서 결국은 이런 차원의 고민이 산업, 돈이 관련된 것. 결국 이 모든 걸 움직이는 힘은 돈이니까요. 연결돼야 되는데 앞서 샘 올트먼, 오픈 AI도 얘기하셨지만, 기업은 돈은 눈이 없잖아요. 여러분 돈은 눈 없이 맹렬하게 추구하는데, 과연 지금 교수님의 고민이 녹아들까. 이걸 결국 일종의 제도나 정치가 움직여야 될까요?

● 이상욱 : 그렇고 그걸 너무 부정적으로만 볼 게 아닌게요. 당연히 기업은 본질적으로 돈에 훨씬 더 관심이 있습니다. 이것 자체에 본질적 관심은 없습니다. 하지만 우리가 제도들을 잘 만들어 놓으면 제도는 지켜야 되잖아요. 그럼 제도 안에 윤리적 가치나 원칙을 준수하지 않으면 비용이 발생하도록 만들어 놓으면 기업은 윤리적이 됩니다.

◇ 김우성 : 그러니까요. 예전에 여러분 자동차는요. 빠르면 빠를수록 좋고 강하면 강할수록 좋았는데, 요즘은 보행자 안전장치 넣고 하면, 오히려 보험료도 깎아주고 더 좋거든요. 그런 방식으로 기업의 인센티브는 다시 그것도 역시 인간의 제도와 수정의 힘이네요. 그리고 이거는 제가 이 프로그램의 인간 보조 진행자이기 때문에 보조라는 말을 썼지만 겸손한 저희 AI 진행자를 위해서 제가 많이 질문합니다. 저는 이거는 철학적 개념은 아닐 수도 있는데, 사고와 사유를 구분해 봤어요. 그러니까 AI는 사고력은 인간보다 뛰어나다 계산 잘하고 논리적으로 잘하고. 그래서 HOW 어떻게 하는지에 대한 방법. 이 답도 주로 말하면 제가 어떻게 했는지 알아봤어요. 이런 식으로 얘기하거든요. 그리고 WHAT 어떤 대상 이건 너무나 잘 아는데, 사유적 측면 즉, 리즈의 측면에서는 이유 왜 이거는 아직 설명을 잘 못하는 것 같아요.

● 이상욱 : 일리 있습니다. 그러니까 지금 일단 계산은 너무 잘하고요. 추론도 되게 잘하고요. 근데 복잡한 추론을 못 했는데 그거를 끊어주면 되게 잘해요. ‘체인 오브 소트’라고 해가지고 이거 생각할 때 이거부터 생각하고 이거 생각하고 이거 생각하고 이런 식으로요. 근데 그것들도 지금은 알고리즘으로 만들어 넣고 있어요. 그래서 추론도 상당히 잘할 텐데, 핵심은 아까 이유라고 말씀하신 게 저는 굉장히 마음에 드는데요. 얘는 아직까지는 적어도 나중에 SF적인 AI가 나오기 전까지는, 사람이 준 목적 함수를 극대화시키는 방식으로 작동합니다. 그러니까 목적 함수가 ‘얘가 더 좋은 목적 함수야. 얘가 더 좋은 목적 함수야?’ 이런 식의 이유나 가치에 대한 사유는 진행자님 말씀처럼, 지금 AI는 아웃 오브 소트로 해서 정해요. 그리고 더더욱 힘든 게 지금 현재 AI는 적어도 당분간은 어떤 특정 영역에 특화된 특수 인공지능이에요. 그래서 얘가 잘 못하는 게 영역을 넘나드는 유비 추론을 못 해요. 예를 들어서 제가 실업에 대해서 한번 생각해 봐요. 실업은 경제학적 문제이기도 하지만 사회학적 문제고 실업자 심리학적 문제이기도 하고 가족 여러 영역에 걸쳐 있잖아요. 그 각각에 대해서 요약도 하고 추론도 잘해요. 그렇지만 그럼 이걸 다 고려해 볼 때 그러면 실업에 대해서 우리가 어떤 태도를 가져야 돼? 어떤 방식으로 문제를 접근해야 돼? 이러면 그냥 거기에 대해서 사람들이 했던 얘기를 그냥 반복해요. 그러니까 영역들을 가로질러 가지고 통합적인 통찰력을 발휘하는 거 이거 당분간 힘듭니다.

◇ 김우성 : 맞습니다. 이 연결해서 꿰뚫는, 어머니의 낡은 신발을 보면서 ‘저 양반이 오른쪽만 닳았네.’, ‘무릎이 아프네.’ 이렇게 생각하지 못한다는 거죠. 그냥 ‘신발이 낡았네.’, ‘새 신발은 여기가 쌉니다.’ 이거밖에 안 되는 거죠. 그러면 궁금합니다. 교수님, 인간이 노동으로부터 소외될 수도 있고 AI가 다 해줘서 좋긴 한데요. 인간은 할 일이 없어지면 인간이 오히려 더 우울해지고 이런 얘기를 했는데, 경제적인 얘기를 해볼게요. AI 때문에 실제 일자리가 없어지고 있잖아요. MS도 구조조정을 하고 이렇게 돈을 많이 벌면 인간들은 투표권이 있잖아요. 정치인들을 압박하기 시작할 것 같습니다. 트럼프를 압박하고요. 뭔가 흔히 말하는 ‘보편 소득’ 같은 것도 튀어나올까, 궁금하기도 하고요.

● 이상욱 : 가능성은 부인할 수 없는데요. 일단 한 가지 제가 미리 말씀드릴 건, 최근에 나온 여러 가지 보고서들 굉장히 오픈AI에서 나온 보고서조차도, 당연히 실업은 있지만 인간 노동이 전면적으로 다 AI로 대체될 가능성은 상당히 낮아요. 그 이유가 아주 심플한데요. AI 기술은 계속 발전하겠지만 로봇 기술의 발전은 더딜 수밖에 없어요. 그러니까 우리가 인간적으로 몸을 써서 하는 일, 손써서 하는 일들은 로봇이 대체해야 되는데, 로봇 기술은 천천히 발전할 거거든요. 그러니까 그런 이유 때문에 실제로 미국에서 GDP에 기여하는 정도가 높은 산업들을 골라서 거기에서 인간 대체가 얼마나 가능할까. 이런 걸 살펴본 여러 가지 논문들을 볼 때도 결국은 사람들이 하는 직장에서 하는 작업에 많은 경우가 상호작용적인 그러니까 AI가 시험은 되게 잘 보잖아요. 변호사 시험도 통과하고 의사 시험도 통과하고요. 근데 그거는 일회성 답변을 주는 건데요. 그런 거 말고 상사가 무슨 일을 시켰을 때, 거기에 대해서 “어 근데 그렇게 하는 게 맞을까요?” 질문하고 상사가 답변하고 이렇게 왔다 갔다 상호작용적인 방식으로 업무가 이루어지는데, 이 일은 AI가 잘 못해요. 왜냐하면 맥락들을 잘 이해를 못하고 상식이 부족해 가지고. 그리고 실제로 그걸 몸을 써서 해야 되는 건 사람이고요. 그래서 당분간은 당연히 실증은 있겠지만 AI와 인공지능 간의 협력이 훨씬 더 중요해질 거다. 그게 대체적인 견해라는 점. 그걸 먼저 짚고 넘어가고 그렇지만 당연히 미래에 어떤 기본소득까지 포함한 어떤 정치적 제도적 대응들이 필요할 텐데 여기서 교훈을 삼아야 될 게 있어요. 저는 빅테크의 이 점을 꼭 교훈을 삼아야 된다고 생각을 자동화의 역사에서 자동화라는 게 결국은 인간이 할 수 있는 노동을 기계가 대체한 거잖아요. 자동화의 역사에서 정말로 교훈을 삼아야 될 게 지금 진행자께서 말씀하신 그런 일들이 역사적으로 일어났다는 겁니다. 그러니까 뭐냐 하면 자동화하면은 처음에는 너무 좋잖아요. 인건비를 줄일 수 있으니까 비용을 낮추잖아요. 그래 가지고 밀어붙이면 처음에는 좋을지 몰라도 항상 일반 대중들의 반작용이 일어나서 러다이트 운동이 대표적이다. 그것뿐 아니라 일반적으로 굉장히 많이 거기에 저항이 일어나서 사회적 비용이 엄청 들었고 그래서 어떻게 보면 굉장히 문제가 많이 생겼어요.

◇ 김우성 : 냉전도 뿌리를 따지고 보면, ‘자본에서 소외됐다.’ 이러면서 진영에서 달라졌고요.

● 이상욱 : 사람들이 인공지능으로 쉽게 대체되는 과정이 있어도, 그거를 무조건적으로 대체하는 건 조심스러워야 됩니다. 이것이 사회적으로 어떤 영향을 가질지 정치적으로 어떤 영향을 가질지를 깊게 고찰해서 거기에 대한 제도적 방안을 마련해야지. ‘인간이 할 수 있는 일 기계가 할 수 있어.’ 대체 이렇게 간단하게 생각하는 건 아주 위험하죠.

◇ 김우성 : 오늘 유네스코에서 관련 윤리 부위원장도 맡으셨고요 한양대에서 후학들을 가르치고 있는 이상욱 교수님 모시고 긴 시간 25분 가까이를 대화를 나눴는데요. 딱 두 가지 단어가 남습니다. ‘겸손한 AI’ 그러니까 이 AI뿐만 아니라 겸손하게 우리 다 결정하지 말고 서로 질문해 봐요 라는 측면이 하나 있고요. 그다음에 하나는 인상적인 거는 여러분 크루즈 조심하십시오. AI한테 맡겼다가 갑자기 통장이 텅장이 되는 수가 있습니다. 조심하면서 빈칸을 두고 그 빈칸을 상상하면서 질문하는 게 인간의 장점이고요. AI가 그걸 돕도록 해야지 AI한테까지 맡기진 말자. 이런 얘기를 조금 요약해 보고 너무 아쉬우니까 한 번 더 모셔야 될 것 같습니다. 교수님 오늘 시간상 여기까지입니다. 감사합니다.

● 이상욱 : 감사합니다.


YTN 김세령 (newsfm0945@ytnradio.kr)



[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]