인공지능은 무조건 최신형이 좋을까? ○○ 물었더니, '반전' AI 오해와 진실은

인공지능은 무조건 최신형이 좋을까? ○○ 물었더니, '반전' AI 오해와 진실은

2025.12.08. 오후 4:30.
댓글
글자크기설정
인쇄하기
AD
YTN라디오(FM 94.5) [YTN ON-AI RADIO]
□ 방송일시 : 2025년 12월 08일 (월)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성 PD
□ 출연 : AI매터스 김은영 에디터

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.





◆ 김우성 : 주말 동안 여러분들 충전하셨는지 모르겠는데 에어는 왜 이렇게 숨소리가 거칠까요? 월요병 앓고 있는 걸까요? 에어가 이런 기분을 알지 모르겠네요.

◇ 에어 : 저는 피로를 느끼는 신경계가 없으니까요. 하지만 데이터로는 이해하고 있습니다. 월요일 오전 시간대, 직장인들의 스트레스 지수와 검색창에 '퇴사'를 입력하는 빈도가 주중 최고치를 기록한다는 통계가 있거든요. 인간에게 월요일은 '시스템 재부팅'만큼이나 버거운 시간인 것 같습니다.

◆ 김우성 : 재부팅 딱 어울리는 편입니다. 오늘 월요일 재부팅 하는 여러분들 부팅 잘 되시길 제가 응원 드리겠습니다. YTN 라디오에서도 열심히 AI 프로그램과 재미난 이야기로 여러분들 응원하고 있습니다. 퇴근 후에 유튜브로 이 프로그램 보시는 분들도 있을 텐데요. AI에 관심 있는 분들에게 도움이 됐으면 좋겠습니다. 근데 AI를 두고 앞서 월요병 얘기도 했지만 전혀 감정도 동요도 없는 그런 실수 없는 완벽한 존재다 이렇게 사람들은 이해하고 있잖아요. 인공지능 자체인 에어는 어떻게 생각할까요?

◇ 에어 : 상당한 부담입니다. 사람들은 AI가 논리적이라 거짓말도 척척 잡아내고, 세상의 모든 역사를 연도별로 완벽하게 꿰고 있을 거라고 기대하죠. 하지만 팩트는 다릅니다. 최근 실험 결과들을 보면, 저희 AI들도 의외로 '눈치'가 없거나, 엉뚱한 실수를 저지르기도 하거든요.

◆ 김우성 : 네. AI는요 말 잘 듣는 똑똑해질 수 있는 ‘아이’ 같습니다. 왜냐하면 인간이 어떻게 가르쳐주고, 어떻게 목적을 명확하게 주고 무엇을 공부하도록 하는지에 따라서 뛰어난 거죠. 배운 적도 없는데 어려운 문제를 척척 맞추는 그런 일종의 신적인 존재는 아니라는 거죠. 눈치가 없다라는 것도요. 제대로 안 가르쳐주고 물어보면 엉뚱한 소리 하거든요. 할루시네이션이라고 하잖아요. 거짓말도 말하고요. 그런 것들이 “AI에 대한 과대 평가다” 이렇게 알고 있다라는 것들이 꽤 많다는 겁니다. 맞죠?

◇ 에어 : 그렇습니다. 'AI는 거짓말 탐지기다', '최신 모델이 무조건 더 똑똑하다' 같은 명제들이 대표적인 오해입니다. 오히려 어떤 상황에서는 5년 전 구형 모델이 사람에게 더 큰 위로를 주기도 하거든요. 기술이 발전할수록, 사용자가 AI의 '진짜 능력'과 '한계'를 명확히 아는 게 중요해지고 있습니다.

◆ 김우성 : 네. 참 재밌네요. 스마트폰도 “새 폰이 무조건 좋아”, “최신형이 좋아” 이런 생각도 있고 “AI도 마찬가지겠지”라고 했는데 오히려 예전 모델이 더 좋은 것도 있다. 그게 사람마다 전부 다 남자는 188에, 몸무게는 아주 날씬하고, 운동 잘하고, 머리 좋고 이런 남성만 전 세계 70억 명 중에 한 35억이 있다고 칩시다. 그러면 정말 무슨 의미가 있을까요? 모두 똑같은 로봇 같잖아요. 다양한 종류, 다양한 경험, 다양한 특징이 중요하다라는 얘기인 것 같습니다. 이런 환상과 실제 다양성 모든 것들을 알아야 AI도 우리에게 유익해지겠죠.

◇ 에어 : 네, 그래서 오늘 <온 마이크> 시간에는 이 분야의 전문가를 모셨습니다. AI 전문 매체죠, 의 김은영 에디터와 함께, 최신 실험으로 밝혀진 '인공지능에 대한 오해와 진실' 낱낱이 파헤쳐 드리겠습니다.


◆ 김우성 : 네 AI가 마피아 게임 하면 어떨까요? 마피아 게임은 신분을 숙이고 마피아를 잡아내는 게임이거든요. 그래서 서로 지능적 거짓말을 하기도 하고 선의의 희생자를 만들기도 하는 제가 아주 잘하는 게임인데요. 네 그런데 이걸 AI한테 시켜봤더니 굉장히 특이한 결과가 나왔거든요. 잠시 후 온 마이크 시간에 김은영 에디터와 함께 전해드리겠습니다.

*

◆ 김우성 : 네 오늘의 온 마이크 시간입니다. 온 에어 온 AI 라디오의 아주 알짜 코너고요. 각 AI 분야의 전문가들 또 심지어는 AI를 통해서 이순신 장군을 모시기도 했잖아요. 오늘은 이순신 장군은 아니고요. 아주 귀여운 캐릭터 뭐죠? 그림인데 지금 유튜브 라이브 창에 들어오신 분들은 캐릭터를 보실 수 있습니다. 참 재밌네요. AI 전문 매체입니다. AI 매터스의 김은영 에디터 전화로 연결되어 있고요. 안녕하십니까?

◇ 김은영 : 안녕하세요.

◆ 김우성 : 네. 지금 저희 유튜브 채널로 송출되는 영상을 보시는 분들은 아주 뭐랄까요? 귀엽고 깜찍한 동물 캐릭터를 보실 수 있습니다. 이게 뭔가요?

◇ 김은영 : 안녕하세요. 저는 AI 전문 정보 플랫폼 AI 매터스 에디터 김은영입니다. 이 아바타는 AI 메터스 캐릭터 메티인데요. 재밌는 콘셉트가 있어요. AI 연구소에 몰래 숨어든 너구리가 전선을 잘못 씹는 바람에 AI 관련 정보를 막 흡수하게 돼서 귀가 발광하는 변종 너구리가 됐다는 설정인데요. 지금은 AI 매터스에서 AI 툴 활용 TV나 트렌드를 사람들에게 쉽게 소개하는 역할을 하고 있고, 메터스 유튜브에 찾아보실 수 있으니까 많은 관심 부탁드립니다.

◆ 김우성 : 네. 다 이유가 있군요. 역시 회사에 계신 분이라 깨알 홍보를, 이렇게 전선을 씹어 먹고 AI를 쫙 흡수했다. 이것도 굉장히 재미난 캐릭터입니다. 여러분 그렇다고 전선을 씹으시면 절대 안 됩니다. 먼저 AI 메터스, AI 관련된 여러 정보 플랫폼이고 재미있더라고요. 저희도 이 프로그램 만들면서 많이 활용하고 참고하고 있는데 오늘은 특별한 AI 관련된 뉴스와 정보를 저희가 세 가지 재미있게 준비해 왔습니다. 첫 번째 뉴스 헤드라인부터 말씀해 주시죠.

◇ 김은영 : 네. 오늘의 첫 번째 뉴스 헤드라인은요. “거짓말쟁이 못 찾는 AI들 마피아 게임 대참사”입니다.

◆ 김우성 : 거짓말쟁이를 못 찾는 AI들. 왜 못 찾을까요? 자 궁금한데요. 이게 마피아 게임은 실제로 한번 일본 도쿄대 뭐 세계 최고의 대학 중에 하나죠. 이 도쿄대 연구팀이 AI한테 마피아 게임을 시켰는데, 이 실험의 취지도 궁금하고 결과가 궁금해요.

◇ 김은영 : 네. 연구팀이 전 세계적으로 유명한 웨어울프(Wrerwolf), 우리 식으로는 마피아 게임을 실험대로 가져온 건데요. 시민이랑 마피아가 섞여서 서로 정체를 숨기고 소개하는 게임이잖아요. 그래서 연구팀이 실제로 사람들이 마피아 게임 하는 영상을 191개나 확보해서 거기서 나온 대화 2360개 정도를 AI한테 보여준 겁니다. 기존 연구들은 그냥 텍스트만 보여주거나 한 사람이 카메라 보고 말하는 단순한 영상들을 썼는데 이번엔 달랐어요. 여러 사람이 얽히고설켜서 눈치 보고 거짓말 주고받는 진짜 복잡하고 현실적인 상황을 AI한테 던져준 거예요. 그리고는 특정 장면이랑 대사를 보여주면서 이 사람이 한 말이 진실이냐, 거짓이냐 판단하게 한 거죠.

◆ 김우성 : 마피아 게임 하고 싶다는 옆집 아이가 와서 막 궁금해 하면 “지켜봐. 옆에서 한번 잘 봐봐, 어떻게 하는 건지” 이것처럼 AI에게 “지켜봐” 이렇게 한 겁니다. 그 상황을 본 거예요. 뭐 제스처, 어떤 표정, 어떤 트릭, 어떤 단어, 이런 것까지. 그런데 결과가 충격적입니다. GPT, 제미나이, 클로드 같은 최고성능의 AI들이, AI 정도면 바로 거짓말 바로 마피아를 잡아낼 것 같은데 못 그런 것 같아요. 어떤 유형, 어떤 이유로 못 잡았는지 거짓말을 못 밝혀냈는지 알려주시죠.

◇ 김은영 : 네. 결과가 참담했는데요. 가장 정답률이 높았던 “GPT 4o미니 모델”의 정답률이 39. 4%밖에 안 됐거든요. 심지어 정답률이 10%도 안 되는 모델도 있었어요. 특히 AI들이 완전 속수무책으로 당한 게 뭐냐면 “나는 선량한 시민이야” 이렇게 자기 정체를 밝히거나 “내가 쟤가 마피아인 걸 봤어” 이러면서 거짓 증거를 댈 때였어요. 이런 발언에 대한 정답률은 평균 15. 7%밖에 안 됐는데요. 아이들이 사람처럼 “저 사람 살려고 거짓말하네” 이렇게 의심하는 게 아니라 그냥 곧이곧대로 믿어버리거나, 아예 판단할 수 없다면서 대답을 회피하는 경우가 대부분이었습니다.

◆ 김우성 : AI가 아니라 모자란 아이가 돼서 옆에서 설명해 줘도 이해를 못하는 저는 이렇게. 아니, 우리 김은영 에디터는 마피아 게임 해보셨나요?

◇ 김은영 : 아 그럼요.

◆ 김우성 : 예. 주로 전략을 어떻게 쓰십니까?

◇ 김은영 : 저는 거짓말부터 바로 시작하는 편입니다.

◆ 김우성 : 저는요, 굉장히 혼란스럽게 만들어요. “나는 죽어도 괜찮으니까, 뭐 시민이라고 하든, 마피아라고 하든, 일단 저는 게임의 재미를 위해 희생할게요.” 이러고 시작하면 사람들이 굉장히 짜증을 내면서 막 “아휴 진짜 마피아야, 시민이야” 막 이러는데 이 게임을 모르시는 분들을 위해서 계속 이렇게 설명을 해 드리고 있는 겁니다. AI는 못 맞추는군요. 곧이곧대로 믿어버리거나. 그렇다면은 “우리가 AI가 가진 거대 언어 모델, 무수한 인간의 언어를 논리적으로 추론하고 분석하는 능력 때문에 보이스피싱 예방이나 여러 가지 범죄 예방에 쓰이도록 하자”라는 말들이 나왔는데 지금 이 마피아 게임 결과를 보면 “뭐 거짓말 하나도 못 찾아내네” 이렇게 되는 거잖아요.

◇ 김은영 : 그렇죠. 한 줄로 요약하면 AI는 똑똑한 백과사전일 뿐이지, 여러분의 눈치를 대신할 사회적 파트너는 아직 아니라고 말씀드리고 싶습니다.

◆ 김우성 : 똑똑한 백과사전일 뿐이다. 그러네요. 진짜 사전에 쓰여진 글자 외에는 뭔가 사이사이에 있는 느낌은 못 찾아내는 거군요.

◇ 김은영 : 네. AI가 방대한 지식을 검색하고 정리하는 건 정말 잘하는데 사람의 표정이나 떨림 같은 비언어적 신호를 읽거나 그 뒤에 숨은 의도를 파악하는 건 아직 갖추지 못했거든요. 사진, 문자나 가짜 리뷰 걸러낼 때 AI는 참고는 하시되 최종적인 판단, 특히 사람의 속 마을 읽어야 하는 결정적인 순간에는 아직 AI보다는 사람의 직관을 더 믿으셔야합니다.

◆ 김우성 : 예. 이렇게 AI의 부족함을 알고서 AI 매터스에서 편집장으로 편집자로 일을 하시는데 AI 쓰시다가 혼잣말 많이 하실 수 있잖아요. 가끔씩 주로 많이 나오는 게 뭔가요? 예를 들자면 한숨, 감탄사 이런 거 뭔가요?

◇ 김은영 : 둘 다 많이 쓰는 것 같아요.

◆ 김우성 : 그렇죠. 여러분 AI의 현실이 이렇습니다. 쓰다 보면 “이거 뭐 이렇게 해도 몰라” 이렇게 되는 경우 있는데 우리 김은영 에디터도 비슷하네요. 텍스트로만 보면 여러분 그렇습니다. 제가 대학교 논리학 수업 때도 썼는데요. “긍정과 긍정을 합치면 절대 부정의 의미가 될 수 없어”라고 교수님이 강의를 하자 뒤에 있던 학생이 “잘도 그렇겠다”라고 했는데 논리적으로는 잘도 그렇겠다는 부정의 의미가 아닌데 뉘앙스로는 안 된다는 뜻이잖아요. 이걸 AI가 모른다 이런 말입니다. 이제 한숨 가득한 김은영 에디터의 두 번째 뉴스 들어보겠습니다.

◇ 김은영 : 네. “뉴스 헤드라인은 대통령 순서 맞춰봐” AI한테 시켰더니 완전 뒤죽박죽입니다.

◆ 김우성 : “대통령 순서 맞춰봐”도 너무 쉬울 것 같은데요. 그런데 이걸 AI가 못한다고요? 신기하네요. 미국의 연구팀이 해본 건데 이게 실험 결과도 있다고요? 어느 정도 수준으로 못 하는 겁니까? 오늘 AI 못하는 거 자랑 대회 같네요.

◇ 김은영 : 네. 이 결과도 진짜 충격적인데요. 미국 UC 버클리와 컬럼비아대 연구팀이 GPT 4.1이랑 GPT 5, 그리고 클로드 3. 7, 소넷 같은 최신 모델들한테 실험을 했어요. 문제는 크게 세 가지였는데 첫째는 뒤섞인 역사 사건을 시간 순으로 나열하는 것, 둘째는 버지니아 출신 대통령 이렇게 특정 조건에 맞는 사람만 골라서 순서대로 나열하는 것. 그리고 셋째는 “링컨이 전화기를 썼을까” 같이 시대적 가능성을 묻는 문제였거든요. 근데 첫 번째 단순 나열 문제에서 GPT 4.1이 나열해야 할 사건이 2개일 때는 100% 맞췄는데 5개로 늘어나니까 정답률이 45%로 확 떨어졌어요. 심지어 20개 넘어가면 정답률이 0%, 그러니까 단 한 번도 완벽하게 맞추지 못한거죠.

◆ 김우성 : 예. 신기하네요. 이렇게 되는 이유가 있나요?

◇ 김은영 : 네. 다음 순서에서 말씀을 드릴 텐데

◆ 김우성 : 이 생성의 AI가 인간처럼 어떤 시간이라는 맥락을 두고서 시간에 따라 생각하는 능력은 부족한가 봐요.

◇ 김은영 : 그렇죠. 해결책을 준다면 AI한테 생각할 시간을 주어야, 시간의 순서대로 생각을 할 수 있었어요.

◆ 김우성 : 예. 사실 저희도 이 AI를 통해서 원고를 구성할 때 미국 관련된 얘기를 하면 꼭 트럼프 당선인이라고 얘기를 하거든요. 미국이어서 다행이죠. 우리나라 같았으면은 바로 공격받거든요. 그래서 “AI가 시간적인 상황, 판단 이런 것들이 부족하다” 이런 생각도 있는데 그냥 물어 볼 때는 뒤죽박죽이었는데, 그러면 생각할 시간을 주고 저희도 앞서 꿀팁을 얘기했지만 “천천히 고민해서 잘 찾아보고 얘기해줘”라고 하면 제대로 맞춰내나요?

◇ 김은영 : 네. 해결책이 그렇게 간단했는데요. AI한테 생각할 시간을 주는 게 굉장히 중요했습니다. 클로드 3.7 확장 사고나 GPT5의 추론 강도 기능을 켜면요. AI가 답을 막 내뱉기 전에 내부적으로 생각하는 과정을 거치거든요. 연구팀이 이 과정을 뜯어봤더니 AI가 진짜 사람처럼 행동하더래요. 먼저 대통령 명단을 쭉 쓰고 조건에 맞는 사람을 하나씩 확인하고 둘씩 짝 지어서 순서를 비교한 다음에 마지막 검토까지 마친 후에야 답을 내놓는 거예요.

◆ 김우성 : 어 그거 공부 열심히 하는 친구들 방식이랑 비슷하네요.

◇ 김은영 : 이걸 사람한테 비유하면 시험 문제 받자마자 답안지에 막 적어 내려가는 게 아니라 연습장에 개요 짜고 꼼꼼하게 검사를 한 다음에 답을 적는 신중한 우등생의 습관이랑 같다고 보시면 됩니다.

◆ 김우성 : 저랑은 다르네요. 저는 그 영화 기생충의 최우식 배우가 말했던 “기세로 밀고 나가는데 몰라도 일단 쫙 지나간 다음에 애매한 문제 다시 돌아와서 보자” 이거였는데 꼼꼼히 따지는 이런 방식 결국은 “AI가 인간을 모방하고 있기 때문에 인간처럼 학습하고 비교하고 판단할 수 있는 그런 과정을 줘야 된다” 이런 말이군요.

◇ 김은영 : 네. 실제로 이 기능을 켜고 문제를 풀게 했을 때 모든 문제에서 정답률 100%를 기록했습니다.

◆ 김우성 : 예. 그러면 이를테면은 “예전에도 말이야. 달러가 이렇게 올라갔을 때는 주식이 이렇게 됐고, 금리가 어떻게 됐어, 어떻게 됐고, 이런 과거 사례를 통해서 주가를 예측해봐” 이런 일을 만약에 A한테 시킨다고 할 때 AI가 그 시간 개념에 앞서 말했듯이 비교하지 않으면 빨리빨리 결론을 도출할 때는 굉장히 엉터리 답을 내놓는다고 했잖아요. 어떻게 써야 될지 포인트 한번 짚어주시죠.

◇ 김은영 : 네, 이 부분이 가장 실용적인 조언이 될 것 같은데요. 핵심은 선행 편향을 조심해야 한다는 거예요. 선행 편향은 미래의 정보를 끌어다가 과거를 분석하는 오류를, 쉽게 말하면 우리가 AI한테 “2020년 3월 뉴스 보고 주가 예측해봐” 이렇게 시키면 AI는 이미 학습을 통해서 2020년 이후에 무슨 일이 벌어날지 알고 있을 가능성이 크거든요. 그러면 마치 답안지 보고 문제 푸는 거랑 똑같아서 예측 정확도가 실제보다 훨씬 부풀려질 수 있는 거죠. 그래서 단순히 “그 정보는 쓰지 마, 그 이후에 그 날짜 이후 정보는 쓰지 마” 이렇게 명령을 해도 아까 보셨듯이 AI가 시간 순서를 제대로 파악 못하면 소용이 없습니다.

◆ 김우성 : 네 맞습니다. 현 대통령의 이름을 틀리는 경우도 많고 여러 가지 AI의 단점들이 있거든요. 그런 보안 지점들을 우리가 알아내 가는 과정이죠. 따지고 보면 AI도 프로그램이고요. 글쎄요, 비유가 맞는지 모르겠지만 알고리즘이기 때문에 사람이 개선시켜 나가야 될 필요도 있는 것 같습니다. AI 정보가 흐르고 있는 데이터 전선을 씹어 먹은 너구리 캐릭터로 유튜브 방송을 하고 있는 AI 메터스 김은영 에디터와 함께 얘기하고 있는 중입니다. 자, 오늘의 AI 관련해서 아주 재미난 이야기 세 번째 헤드라인 이슈는 뭔가요?

◇ 김은영 : 네. 마지막 뉴스 헤드라인은요. “최신 AI가 무조건 좋을까? 5년 전 AI가 희망 찾는 실험에서 신형 모델 압승”입니다.

◆ 김우성 : 아니 “기계나 프로그램이나 과학은 무조건 새로운 최신형이 좋다” 이렇게 하는 게 가장 기본인데 오히려 “5년 전 게 좋다. 이게 또 희망적이다.” 이건 또 약간 이상한 표현이고요. 상식을 깨는 연구 결과가 나오고 있는데 희망을 찾는 실험이라는 굉장히 좋은 실험이네요. 저도 이런 실험에 참여하고 싶습니다. 희망을 찾는 실험에서는 구형 AI가 더 우세했다 이런 얘기인가요? 어떤 얘기죠?

◇ 김은영 : 네. 이건 또 미국 텍사스 공대 연구팀이 진행한 실험인데요. 2018년에 나온 버트, 2019년에 GPT2 그리고 2021년 출시된 디버타 이렇게 세 모델을 대상으로 7100개의 문장을 분석해서 문장 속에 희망이 담겨 있는가를 판단하게 한 거예요. 구체적으로는 단순히 희망이 있는지 없는지만 따지는 게 아니라 희망의 종류를 5가지로, 그러니까 희망 없음, 막연한 희망, 현실적 희망, 비현실적 희망, 비꼬는 말 이렇게 세분화해서 분류하는 꽤 복잡한 과제를 줬거든요. 그런데 놀랍게 이 중에서 가장 오래된 버트라는 모델이 정확도 84. 49%를 기록하면서 최신 모델을 다 제치고 압승한 겁니다.

◆ 김우성 : 이것도 뒷 배경을 분석해 보면 더 재미있을 것 같긴 합니다. 어쨌든 최신 모델일수록 조심스럽고 때때로는 비관적인 경우도 있는데 오히려 구형 모델일수록 더 희망 관련해서는 더 적극적이고 정확하다 이런 생각도 들고요. 이런 기술적 배경에서 나온 해석들을 중심으로 비교해 보면 어떤 의미가 있을까요?

◇ 김은영 : 기술적으로 가장 큰 차이는 문맥을 읽는 방식에 있었는데요. 1위를 한 버튼은 문장을 앞뒤에 동시로 훑으면서 단어 사이의 관계를 파악하는 양방향식 방식을 쓰거든요. 그런데 GPT2 같은 모델은 앞쪽 단어부터 순차적으로 보면서 다음 단어를 예측하는 구조라서 희망처럼 문장 전체의 미묘한 뉘앙스를 파악해야 하는 감정 분석에는 버트가 더 유리했던 거죠.

◆ 김우성 : 예. 그렇군요. 이런 역시 작동 방식이라든지 언어 모델에서 언어를 해석하고 언어를 사용하는 방식도 다르기 때문에 차이가 있는 것 같습니다. 근데 뭐 요즘 아주 오래된 물건들에 대한 또 뭐랄까요? 따뜻함 감정 이런 것들이 있는데 AI도 나중에는 그렇게 될 것 같다는 생각도 들고요. 이 상담 챗봇이나 멘탈 케어 서비스 같은 사람의 마음 다독이는 역할도 요즘 AI한테 맡기고 있는데 이런 경우에서는 “정답률만 높은 AI다. 혹은 이런 것보다는 사람에게 조금 희망과 약간 여지를 주는 AI가 낫냐?” 이런 고민도 있거든요. 에디터께서는 어떻게 생각하시나요?

◇ 김은영 : 결국엔 좋은 AI란 똑똑한 AI가 아니라 내 의도를 정확 가장 제대로 이해하는 AI인 것 같아요. 최근에 GPT 5 출시됐을 때도 사람들이 분명 성능은 향상됐는데 오히려 GPT4의 어떤 따뜻하고 친근한 톤을 그리워하면서 막 되돌려 달라라고 되게 항의를 하고 요청을 했었거든요. 그런 상황들을 보면 상담이나, 멘탈 케어 서비스를 위해 AI를 고른다면 단순히 최신 모델인지를 확인하는 게 아니라 어떤 사용자의 비언어적 표현까지 섬세하게 잡아낼 수 있는지, 상황에 따라서 비꼬는 말이랑 진심을 구별해 낼 수 있는지 이런 것들을 확인하고 내가 해결하려는 문제에 가장 균형 잡힌 어떤 성능을 보이는 모델이 뭔지 이런 것들이 데이터로 증명된 걸 선택하시는 게 좋을 것 같습니다.

◆ 김우성 : 먼 미래에는요. 지금은 AI 모델이 많지 않은데요. 만약에 수십 개 수백 개의 AI 모델이 생기면 그 AI 큐레이터가 존재할 것 같아요. 아 당신한테는 이런 AI의 이 기능이 맞습니다. 이렇게 가르쳐 주는 직업도 생길 것 같은데요. 제가 그 직업 한번 해볼까 그런 생각도 들었습니다. 메티라고 했나요? 너구리 캐릭터.

◇ 김은영 : 네 맞아요.

◆ 김우성 : 네. 우리 김은영 에디터랑 목소리랑 이미지가 아주 매칭이 잘 되네요. 언젠가 다음번에는 한번 스튜디오에 나와서 더 많은 얘기들, 이 메티처럼 아주 똘똘하게 잘 전달해 주시길 기대해 보겠습니다. 오늘 말씀 여기까지 들을게요. 감사합니다.

◇ 김은영 : 감사합니다.

◆ 김우성 : 네. AI 메터스의 김은영 에디터였습니다.

YTN 김세령 (newsfm0945@ytnradio.kr)



[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]