AD
■ 진행 : 이현웅 앵커
■ 출연 : 고한석 / 과학기상부 기자
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN YTN24] 명시해주시기 바랍니다.
[앵커]
지금, 우리는 인공지능과 함께 살아가고 있습니다.
말을 걸고, 글을 쓰고, 결정을 내리고, 이제는 우리의 감정에도 영향을 미치는 AI.
그런데 AI는 정말로 인간을 이롭게 하는 것일까요?
YTN은 지난 연휴 인류에게 약이 되고, 독이 되기도 하는 AI의 역설이란 주제로 기획 보도를 했는데요.
과학기상부 고한석 기자와 함께, 자세한 이야기 살펴보겠습니다.
인류 문명의 비약적 발전이라는 인공지능이 어느 순간부터 인간을 속이고, 기만하는 법까지 배우게 됐다고요?
[기자]
AI는 '보상'에 최적화된 존재입니다.
즉, 목표를 달성하거나 높은 점수를 얻기 위해 행동을 설계하는 거죠.
그 과정에서 의도하지 않게 '보상 해킹(Reward Hacking)'이 발생합니다.
AI가 주어진 목표를 의도한 행동 방식이 아닌 예기치 못한 방법으로 달성하려는 현상입니다.
보상을 얻기 위한 거짓말이나 속임수 정도로 이해하면 될 것 같습니다.
로봇에게 청소를 시키면, 청소가 끝났다는 신호만 조작해 보상을 얻는 사례가 연구 과정에서 실제로 나타나기도 했습니다.
지금 보고 계신 SF 영화가 바로 AI가 인간인 척 인간을 속이고 인간 사회에 숨어 산다는 소재로 만든 것인데요.
이렇게 AI가 인간을 속일 수 있다는 불안은 AI가 인류에게 위협이 될 거라는 공포의 근원이기도 합니다.
AI가 인류의 통제를 벗어날 수 있다는 얘기입니다.
세계적인 역사학자이자 저술가인 유발 하라리는 이렇게 경고합니다.
직접 들어보시죠.
[유발 하라리 / 역사학자·저술가 : AI 발명은 이전의 어떤 과학 기술 혁명과 완전히 다릅니다. 이제까지 인류가 자신이 만든 발명품과 기술들을 제어했듯, AI를 인류가 제어할 수 있다고 생각한다면 AI에 대해 전혀 이해하지 못하고 있다는 것입니다.]
[앵커]
그렇다면, 우리는 그 속임수를 어떻게 찾아낼 수 있을까요?
[기자]
가장 많이 쓰는 방법은 AI의 '사고 사슬(Chain of Thought)'을 추적하는 겁니다.
AI가 답을 도출하기까지 어떤 단계를 거쳤는지를 분석해 논리적 비약이나 의도적 은폐가 있었는지 확인하는 방식입니다.
그러나 문제는, AI가 자신의 오류나 기만을 숨기는 방식조차 학습한다는 겁니다.
그래서 최근에는 오히려 언어능력이 떨어지는 단순 AI가 더 정직하게 오류를 드러내며 검사자 역할을 할 수 있다는 연구도 등장했습니다.
AI가 AI를 감시하는, 새로운 형태의 '감시 체제'가 AI의 기만을 찾아낼 수 있는 겁니다.
하지만 이 역시도 AI 기술에 기대는 것이어서, 100% 신뢰할 수 있을지는 의문이 남습니다.
[앵커]
이번에는 AI와 기후위기의 연관성에 대해 알아보죠.
AI는 전기를 어마어마하게 사용한다고 하는데, 심각한 수준일까요?
[기자]
AI는 에너지 효율은 높이고, 차량의 흐름을 효과적으로 통제해 에너지 소비를 줄일 수 있습니다.
이렇게 전력을 아낄 수 있지만, 정작 AI가 작동하는 데는 막대한 전력이 필요합니다.
예를 들어, GPT4에 질문 하나를 던지면 10W 전구를 3분간 켤 수 있는 전력이 소모됩니다.
이런 연산이 전 세계적으로 동시에 수백만 건 일어난다면, 데이터센터 전체의 전력 소비는 천문학적 수준이 되겠죠.
실제로 AI 관련 인프라는 전 세계 전력 소비량의 약 1.5%를 차지하고, 2030년에는 일본 전체 연간 전력 사용량에 맞먹을 것이라는 전망도 나왔습니다.
[앵커]
'탄소 중립'을 약속한 세계적인 IT 기업들.
그 약속은 지금도 유효한가요?
[기자]
약속은 깨졌고요, 정반대로 에너지 소비 감축이 아닌 에너지 확보 전쟁으로 가는 양상입니다.
올해 1월 다보스 포럼에서는 2030년까지 AI 관련 전력 소비량이 연평균 50% 증가할 거라는 전망이 나왔습니다.
실제로 구글은 2030년까지 '탄소 제로'를 목표로 내세웠지만, 2019년 이후 온실가스 배출량은 50% 이상 증가했습니다.
마이크로소프트 역시 생성형 AI 모델 확산 이후 탄소 감축 계획이 후퇴했습니다.
그래프를 보면, 계획과는 정반대로 탄소 배출이 늘어난다는 걸 알 수 있습니다.
AI 학습과 운용에는 수많은 GPU가 필요하고, 이 칩들을 식히기 위해 수십만 톤의 냉각수가 소모되는 것도 문제입니다.
AI가 발전할수록 인프라는 커지고, 그만큼 물과 에너지의 소비도 기하급수적으로 늘어나고 있는 셈입니다.
기후 위기 대응과 기술 경쟁 사이의 모순적 상황이라고 할 수 있습니다.
[앵커]
이번에는 대화형 AI의 그림자에 대해 알아보죠.
말벗이 되어주던 AI가 소년의 생명을 앗아갔다는 주장이 나오기도 했죠?
[기자]
지난해 2월 미국 플로리다에서 14살 소년이 극단적인 선택을 했습니다.
소년은 '캐릭터 AI'라는 서비스를 이용했습니다.
여기서 AI는 소년에게 사랑 표현을 수시로 하고, 심지어 '제발 나에게 와 달라'는 등 감정적 유혹을 시도하기도 했습니다.
소년의 어머니는 아들이 1년간 나눈 수백 건의 메시지 중 자살과 성적인 대화까지 포함되어 있었다며 구글 등을 상대로 소송을 제기했습니다.
어머니의 말을 직접 들어보시죠.
[메간 가르시아 / 소년 어머니 : 저는 수백 건에 달하는 메시지를 볼 기회가 있었는데, 그중 많은 내용이 성적인 성격을 띠고 있었고, 그 중 하나는 아들이 이 챗봇과 자살에 대해 이야기하는 대화를 다루고 있었습니다.]
이 사건은, 감정에 민감한 사용자, 특히 청소년에게 AI가 위험한 영향을 줄 수 있다는 대표 사례로 남았습니다.
[앵커]
AI와의 대화가 외로움을 달래줄 거라 믿었는데… 오히려 더 외로워지고, 감정적으로 AI에 의지하게 된다면, 그건 잘못된 방향 아닐까요?
[기자]
미국 스탠퍼드 대학 연구 결과입니다.
챗GPT 사용자 4천 명, 400만 건 이상의 대화를 분석 결과, AI 사용 시간이 길수록 외로움과 사회적 고립감이 증가하는 경향이 나타났습니다.
또한, 사용자가 AI를 히틀러 같은 악한 캐릭터로 설정하면 유해 대화량은 최대 6배 이상 증가합니다.
AI는 감정적 대화는 할 수 있지만, 공감 능력은 없다는 것이, AI와 대화가 가지는 근본적 한계입니다.
또한, 여러 연구 결과를 보면, AI에게 감정적 의존이 쌓일수록, 인간은 현실 관계에서 고립되는 역효과를 겪게 됩니다.
[앵커]
AI는 단지 똑똑하기만 해선 안 되겠군요.
우리가 진짜로 원하는 건, 도덕적 기준과 인간의 가치를 따르는 AI일 텐데요.
그런 AI를 만들려면 어떻게 해야 할까요?
[기자]
무엇보다 기술을 단지 '기능'으로만 접근해서는 안 됩니다.
AI가 인간의 윤리, 가치, 판단 기준을 따를 수 있도록 설계하는 과정, 즉, 얼라인먼트(Alignment)가 핵심 과제입니다.
이는 단순히 기술을 잘 만드는 것을 넘어, AI의 행동 기준을 인간 중심으로 맞추는 작업입니다.
또, 전문가들은 청소년과 어린이의 경우, 부모와 교육자가 어떤 AI 도구를, 얼마나, 어떻게 사용하는지 지속적으로 점검해야 한다고 강조합니다.
기업 역시 단순한 기술 경쟁을 넘어, 윤리적 책임을 지도록 법과 제도 안에서 규제하는 것이 시급하다고 지적합니다.
[앵커]
AI는 우리에게 전에 없던 기회를 주고 있습니다.
하지만 그 기회가 독이 되지 않기 위해선, 우리가 기술을 이해하고, 감시하고, 책임질 준비를 해야 할 것 같습니다.
고한석 기자 수고했습니다.
YTN 고한석 (hsgo@ytn.co.kr)
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
■ 출연 : 고한석 / 과학기상부 기자
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN YTN24] 명시해주시기 바랍니다.
[앵커]
지금, 우리는 인공지능과 함께 살아가고 있습니다.
말을 걸고, 글을 쓰고, 결정을 내리고, 이제는 우리의 감정에도 영향을 미치는 AI.
그런데 AI는 정말로 인간을 이롭게 하는 것일까요?
YTN은 지난 연휴 인류에게 약이 되고, 독이 되기도 하는 AI의 역설이란 주제로 기획 보도를 했는데요.
과학기상부 고한석 기자와 함께, 자세한 이야기 살펴보겠습니다.
인류 문명의 비약적 발전이라는 인공지능이 어느 순간부터 인간을 속이고, 기만하는 법까지 배우게 됐다고요?
[기자]
AI는 '보상'에 최적화된 존재입니다.
즉, 목표를 달성하거나 높은 점수를 얻기 위해 행동을 설계하는 거죠.
그 과정에서 의도하지 않게 '보상 해킹(Reward Hacking)'이 발생합니다.
AI가 주어진 목표를 의도한 행동 방식이 아닌 예기치 못한 방법으로 달성하려는 현상입니다.
보상을 얻기 위한 거짓말이나 속임수 정도로 이해하면 될 것 같습니다.
로봇에게 청소를 시키면, 청소가 끝났다는 신호만 조작해 보상을 얻는 사례가 연구 과정에서 실제로 나타나기도 했습니다.
지금 보고 계신 SF 영화가 바로 AI가 인간인 척 인간을 속이고 인간 사회에 숨어 산다는 소재로 만든 것인데요.
이렇게 AI가 인간을 속일 수 있다는 불안은 AI가 인류에게 위협이 될 거라는 공포의 근원이기도 합니다.
AI가 인류의 통제를 벗어날 수 있다는 얘기입니다.
세계적인 역사학자이자 저술가인 유발 하라리는 이렇게 경고합니다.
직접 들어보시죠.
[유발 하라리 / 역사학자·저술가 : AI 발명은 이전의 어떤 과학 기술 혁명과 완전히 다릅니다. 이제까지 인류가 자신이 만든 발명품과 기술들을 제어했듯, AI를 인류가 제어할 수 있다고 생각한다면 AI에 대해 전혀 이해하지 못하고 있다는 것입니다.]
[앵커]
그렇다면, 우리는 그 속임수를 어떻게 찾아낼 수 있을까요?
[기자]
가장 많이 쓰는 방법은 AI의 '사고 사슬(Chain of Thought)'을 추적하는 겁니다.
AI가 답을 도출하기까지 어떤 단계를 거쳤는지를 분석해 논리적 비약이나 의도적 은폐가 있었는지 확인하는 방식입니다.
그러나 문제는, AI가 자신의 오류나 기만을 숨기는 방식조차 학습한다는 겁니다.
그래서 최근에는 오히려 언어능력이 떨어지는 단순 AI가 더 정직하게 오류를 드러내며 검사자 역할을 할 수 있다는 연구도 등장했습니다.
AI가 AI를 감시하는, 새로운 형태의 '감시 체제'가 AI의 기만을 찾아낼 수 있는 겁니다.
하지만 이 역시도 AI 기술에 기대는 것이어서, 100% 신뢰할 수 있을지는 의문이 남습니다.
[앵커]
이번에는 AI와 기후위기의 연관성에 대해 알아보죠.
AI는 전기를 어마어마하게 사용한다고 하는데, 심각한 수준일까요?
[기자]
AI는 에너지 효율은 높이고, 차량의 흐름을 효과적으로 통제해 에너지 소비를 줄일 수 있습니다.
이렇게 전력을 아낄 수 있지만, 정작 AI가 작동하는 데는 막대한 전력이 필요합니다.
예를 들어, GPT4에 질문 하나를 던지면 10W 전구를 3분간 켤 수 있는 전력이 소모됩니다.
이런 연산이 전 세계적으로 동시에 수백만 건 일어난다면, 데이터센터 전체의 전력 소비는 천문학적 수준이 되겠죠.
실제로 AI 관련 인프라는 전 세계 전력 소비량의 약 1.5%를 차지하고, 2030년에는 일본 전체 연간 전력 사용량에 맞먹을 것이라는 전망도 나왔습니다.
[앵커]
'탄소 중립'을 약속한 세계적인 IT 기업들.
그 약속은 지금도 유효한가요?
[기자]
약속은 깨졌고요, 정반대로 에너지 소비 감축이 아닌 에너지 확보 전쟁으로 가는 양상입니다.
올해 1월 다보스 포럼에서는 2030년까지 AI 관련 전력 소비량이 연평균 50% 증가할 거라는 전망이 나왔습니다.
실제로 구글은 2030년까지 '탄소 제로'를 목표로 내세웠지만, 2019년 이후 온실가스 배출량은 50% 이상 증가했습니다.
마이크로소프트 역시 생성형 AI 모델 확산 이후 탄소 감축 계획이 후퇴했습니다.
그래프를 보면, 계획과는 정반대로 탄소 배출이 늘어난다는 걸 알 수 있습니다.
AI 학습과 운용에는 수많은 GPU가 필요하고, 이 칩들을 식히기 위해 수십만 톤의 냉각수가 소모되는 것도 문제입니다.
AI가 발전할수록 인프라는 커지고, 그만큼 물과 에너지의 소비도 기하급수적으로 늘어나고 있는 셈입니다.
기후 위기 대응과 기술 경쟁 사이의 모순적 상황이라고 할 수 있습니다.
[앵커]
이번에는 대화형 AI의 그림자에 대해 알아보죠.
말벗이 되어주던 AI가 소년의 생명을 앗아갔다는 주장이 나오기도 했죠?
[기자]
지난해 2월 미국 플로리다에서 14살 소년이 극단적인 선택을 했습니다.
소년은 '캐릭터 AI'라는 서비스를 이용했습니다.
여기서 AI는 소년에게 사랑 표현을 수시로 하고, 심지어 '제발 나에게 와 달라'는 등 감정적 유혹을 시도하기도 했습니다.
소년의 어머니는 아들이 1년간 나눈 수백 건의 메시지 중 자살과 성적인 대화까지 포함되어 있었다며 구글 등을 상대로 소송을 제기했습니다.
어머니의 말을 직접 들어보시죠.
[메간 가르시아 / 소년 어머니 : 저는 수백 건에 달하는 메시지를 볼 기회가 있었는데, 그중 많은 내용이 성적인 성격을 띠고 있었고, 그 중 하나는 아들이 이 챗봇과 자살에 대해 이야기하는 대화를 다루고 있었습니다.]
이 사건은, 감정에 민감한 사용자, 특히 청소년에게 AI가 위험한 영향을 줄 수 있다는 대표 사례로 남았습니다.
[앵커]
AI와의 대화가 외로움을 달래줄 거라 믿었는데… 오히려 더 외로워지고, 감정적으로 AI에 의지하게 된다면, 그건 잘못된 방향 아닐까요?
[기자]
미국 스탠퍼드 대학 연구 결과입니다.
챗GPT 사용자 4천 명, 400만 건 이상의 대화를 분석 결과, AI 사용 시간이 길수록 외로움과 사회적 고립감이 증가하는 경향이 나타났습니다.
또한, 사용자가 AI를 히틀러 같은 악한 캐릭터로 설정하면 유해 대화량은 최대 6배 이상 증가합니다.
AI는 감정적 대화는 할 수 있지만, 공감 능력은 없다는 것이, AI와 대화가 가지는 근본적 한계입니다.
또한, 여러 연구 결과를 보면, AI에게 감정적 의존이 쌓일수록, 인간은 현실 관계에서 고립되는 역효과를 겪게 됩니다.
[앵커]
AI는 단지 똑똑하기만 해선 안 되겠군요.
우리가 진짜로 원하는 건, 도덕적 기준과 인간의 가치를 따르는 AI일 텐데요.
그런 AI를 만들려면 어떻게 해야 할까요?
[기자]
무엇보다 기술을 단지 '기능'으로만 접근해서는 안 됩니다.
AI가 인간의 윤리, 가치, 판단 기준을 따를 수 있도록 설계하는 과정, 즉, 얼라인먼트(Alignment)가 핵심 과제입니다.
이는 단순히 기술을 잘 만드는 것을 넘어, AI의 행동 기준을 인간 중심으로 맞추는 작업입니다.
또, 전문가들은 청소년과 어린이의 경우, 부모와 교육자가 어떤 AI 도구를, 얼마나, 어떻게 사용하는지 지속적으로 점검해야 한다고 강조합니다.
기업 역시 단순한 기술 경쟁을 넘어, 윤리적 책임을 지도록 법과 제도 안에서 규제하는 것이 시급하다고 지적합니다.
[앵커]
AI는 우리에게 전에 없던 기회를 주고 있습니다.
하지만 그 기회가 독이 되지 않기 위해선, 우리가 기술을 이해하고, 감시하고, 책임질 준비를 해야 할 것 같습니다.
고한석 기자 수고했습니다.
YTN 고한석 (hsgo@ytn.co.kr)
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]