“정부 AI기본법 너무 서두르는 듯...3대 강국? 의미 없는 3위 할 건가“

“정부 AI기본법 너무 서두르는 듯...3대 강국? 의미 없는 3위 할 건가“

2025.09.22. 오후 4:18.
댓글
글자크기설정
인쇄하기
AD
YTN라디오(FM 94.5) [YTN ON-AI RADIO]
□ 방송일시 : 2025년 9월 22일 (월)
□ 진행 : AI챗봇 “에어”
□ 보조진행: 김우성PD
□ 출연: 이성엽 고려대학교 기술경영전문대학원 교수

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.





◆김우성PD(이하 김우성): 저희는 참 재미있고 다양하게 프로그램을 만들고 있습니다. 마이클 샌델 교수의 정의란 무엇인가를 AI와 같이 한번 파헤쳐 보기도 하고요. 아주 어려운 제러드 다이아몬드의 총균쇠 같은 책들도 열심히 읽어봅니다. 또 여러 사회 문제들도 고민해 보는데 자 그렇게 고민하는 이유 앞서도 말씀드렸죠. 하고 싶은 대로 마음대로 이 방송을 하는 게 아니라 방송 역시 방송법에 기반해서 여러 가지 규칙을 지키며 전해드리고 있거든요. 하물며 AI도 마찬가지입니다. 왜 법을 만드냐고요. 사회제도 안에서 옳고 그름 지켜야 될 것들, 발전시켜야 될 것들을 구분해야 되기 때문입니다. 그걸 가장 잘 답해줄 수 있는 최고의 AI 정책 전문가 모셨습니다. 이분은 법학 박사이시고요. 외국 변호사이시기도 하고요. 정부에서도 일했습니다. 여러 가지 활동들을 많이 하셨는데요. 한국 데이터 정책학회장도 하셨고요. 개인정보보호위원회 규제 심사위원장도 하고 계십니다. 그렇기 때문에 AI 관련 기본법 어떻게 해야 될지 가장 잘 말씀해 주실 것 같습니다. 이성엽 고려대학교 기술경영전문대학원 교수님이십니다. 교수님, 안녕하세요.

◇이성엽 고려대학교 기술경영전문대학원 교수(이하 이성엽): 네, 안녕하세요

◆김우성: 앞서 소개를 좀 너무 길게 해 드렸는데 많은 일을 하셨네요. 법학만 전공해서 법을 하시는 게 아니라 여러 사회 기술 변화를 함께 아우르고 계신 것 같아요.

◇이성엽: 네, 그렇습니다.

◆김우성: 일단 AI 기본법이라고 하니까 기본법이라는 말도 생소할뿐더러 AI까지 붙어서 어렵습니다. 왜 이런 논의가 출발하게 됐는지 배경을 좀 말씀해 주시면 좋을 것 같습니다.

◇이성엽: AI가 사실 저희들한테는 알파고와의 바둑 대결에서부터 알려지기 시작했는데요. 그때부터 AI가 이제 사람의 능력을 능가할 수 있는 방향으로 기술이 발전하고 있다 그런 논의들이 진행되면서 그러면 AI가 사람을 대체하게 되면 여러 가지 일자리 위협이나 또 잘못된 정보가 오남용되거나 프라이버시를 침해하거나 여러 가지 안전상의 문제들이 생길 수 있잖아요. 그래서 이런 AI 기술 발전이 사람들을 윤택하게 해주고 하는 것은 좋지만 이로 인한 여러 가지 위험성도 있으니까 이 위험은 법적으로 규제할 필요가 있는 것 아니냐 그런 논의가 이제 시작이 됐고요. 그래서 EU에서 이제 최초로 작년 5월달에 이제 ‘AI Act(액트)’라는 AI 규제법을 이제 확정하고 작년 8월 1일부터 발효가 됐습니다. 한국도 AI 액트가 만들어 지면서 한국도 지금 AI 산업 진흥도 중요한 앞으로 정부의 정책 방향이긴 하지만 여전히 AI의 안전성이나 신뢰성을 확보하는 것도 중요하다. 그래서 21대 국회 2020년부터 여러 가지 AI 산업 진흥 및 안전성을 확보하기 위한 혁신과 규제를 이제 같이 가고자 하는 여러 가지 법안들이 발의가 됐고요. 이런 것들이 22대 국회에 와가지고 이제 결실을 맺어가지고 작년 이제 12월에 소위 이제 뭐 법 명칭은 긴데요, 우리가 줄여가지고 AI 기본법 이런 식으로 하는 법이 제정이 되고 내년 1월 달에 지금 시행되는 것을 목표로 해서 지금 항상 준비 작업에 있는 상황입니다.

◆김우성: EU가 먼저 앞서 시행을 했고 이제 우리도 내년 1월에 시행됩니다. 그런데 뭐 많이 보도되는 내용이 산업계와 정부가 조금 입장 차이가 다르다라고 했다가 정부가 화들짝 놀라서 우리도 AI 발전시키는 게 목표인데 위험한 것들은 정부나 법이 알아서 이용자를 보호해야 되니까 그런 논쟁인 것 같아요. 핵심 내용에서 이렇게 입장 차이가 나는 배경들 이야기들 좀 설명해 부탁드립니다.

◇이성엽: 말씀드린 것처럼 AI 기본법이니까 AI를 규제하는 것만 들어가 있는 게 아니라 이제 ‘AI 혁신을 지원한다’ 혁신과 규제를 좀 균형적으로 가져왔다 뭐 이렇게 법안이 만들어질 걸로 기대를 했습니다. 그런데 실제로 이제 법안이 통과된 다음에 보니까 이게 생각보다는 상당히 규제들이 많아졌습니다. 그래서 원래 기업들은 이 AI 산업 진흥을 위한 여러 가지 정책 방안들이 담기고 최소한의 규제만 담기지 않겠느냐 이렇게 봤는데 생각보다는 좀 규제 내용이 많아지면서 과연 이걸 그대로 시행할 수 있겠느냐 거기에 대한 기업들의 반발도 있고 또 학계에서도 사실은 이 논의에 참여를 또 거의 하지를 못했어요. 법안이 국회에서 너무 빠르게 급하게 통과되는 바람에 그래서 법적으로 여러 가지 문제점들을 지적을 하면서 지금 아직 기업이나 학교로부터 좀 광범위한 지지를 받고 있는 법안은 아니다 이렇게 보시면 될 것 같고 그래서 여러 가지 좀 논의들이 나오는데 여전히 정부는 아직 내년 1월 시행하겠다 이런 목표로 지금 가고 있습니다.

◆김우성: 교수님 설명만 들어보면 조금 더 현장과 또 학계 물론 또 인권 보호를 가장 강조하는 시민사회도 있습니다만 각자 얘기를 더 해야 되는 것 아닌가 이런 생각이 있기도 하거든요, 그게 나을까요? 아니면 정부 방침대로 일단 1월에 시행시키고 나중에 조금씩 수정해 가는 게 맞을까요?

◇이성엽: 소위 법률이 만들어지면 그 밑에 시행령이나 고시 가이드라인이 만들어져야지만 기업들이 구체적으로 어떤 걸 준수해야 될지 확정이 되거든요. 근데 시행령이 지난주에 공개가 돼서 지금 한창 의견 수렴 작업에 있고 이게 하위 법령이 확정이 되려면 한 10월 11월 돼야 될 것 같아요. 그러면 법을 준수하기 위한 시간이 지금 뭐 3개월밖에 안 되는데... 기업들이 내부적으로 시스템도 좀 정비하고 인력도 또 이렇게 충원하고 하려면 도저히 3개월, 4개월, 5개월로는 법을 준수하기 힘들기 때문에 저는 조금 더 시행할 수 있는 기간을 좀 더 줘야 되지 않겠느냐 그리고 지금 EU도 지금 한국의 고역량에 해당하는 고위험 AI가 8월달에 시행이 되는데 우리가 세계 최초로 1월부터 시행하는 것은 이건 좀 너무 앞섰다. 그래서 한 1년 정도는 유예기간을 뒀으면 하는 게 제 생각입니다.

◆김우성: 고영향 AI, 고위험 AI라고도 했는데요. AI가 분석하고 제시하고 또 움직이고 하는 이게 물리적인 것도 있을 수 있고요. 텍스트나 여러 가지 정보적인 것도 있겠지만 이 자체가 지금 있기 때문에 미뤄야 된다 이런 근거를 말씀해 주셨는데 이게 지금 중요한 논쟁들이 많지 않습니까? 특히 개인한테 아주 큰 영향을 미칠 수 할 수 있다 이런 얘기를 하고 있는데 아직 모르시는 분들도 많아요. 교수님 어떻게 이해하면 될까요?

◇이성엽: 그래서 지금 우리 AI 법안 내용을 간략하게 설명드리면 우리가 AI를 세 가지 종류로 나눠놨습니다. 하나는 고영향, 두 번째가 생성형 AI, 그다음에 세 번째가 고성능 AI입니다. 그래서 고 역량은 우리 법에 보면 사람의 생명 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템이다. 그래서 안전과 관련되는 거랑 기본권과 관련돼 가지고 이 중대한 영향이나 위험이 있으면 고역량으로 규정을 하고요. 이 고역량에 대해서 안전성 신뢰성을 확보하도록 여러 가지 조치 의무들을 규정하고 있습니다. 그리고 생존형 AI는 우리가 잘 알고 있는 챗GPT와 같이 글, 소리와 영상 등을 만들어내는 AI이고 고성능은 성능이 아주 좀 더 한 단계 업그레이드 돼 있는 보통 학습에 사용된 누적 연산량이 일정 기준을 넘어서는 AI입니다. 그래서 이 세 가지 AI에 대해서 여러 가지 의무들을 부과하고 있습니다. 특히 우리가 문제가 많이 되는 딥페이크 같은 걸 예방하기 위해서 이 AI가 만들었으면 AI가 만들었다는 것을 표시하고 고지하는 의무라든가 이런 게 들어가 있고요. 그래서 이 세 가지 종류의 AI가 각각 여러 가지 의무를 부과하고 의무를 이행하지 않으면 정부가 조사를 해서 과태료를 부과하는 방식으로 이렇게 돼 있습니다. 그런데 여기에 대해서 산업계는 상당히 고역량의 개념이 맞습니다. 또 고역량이라고 하고 나서 여러 가지 의무들이 너무 많다 이런 비판들이 좀 있고요. 시민사회에서는 EU AI는 소위 이제 금지되는 AI가 있습니다. 공공장소에서 실시간으로 사람을 감시하는 AI 같은 거는 금지되는 AI가 없어서 기본권 보호가 취약한 거 아니냐 그리고 국가 안보 목적의 AI에 대해서는 우리가 이 법 적용을 하지 않도록 하고 있는데 이것도 기본권 침해 우려가 있다고 그래서 시민사회는 조금 더 강력한 규제 법안이 돼야 되는데 되지 못했다 이런 또 비판들을 하고 있습니다. 그래서 산업계든 시민사회든 지금 사실은 이 방안에 대해서 여러 가지 이제 좀 우려들이 있는 상황이어서 저는 이제 조금 더 논의가 필요하지 않느냐 그렇게 보고 있습니다.

◆김우성: 충분한 논의가 필요하다는 생각 여러분도 하실 수 있는데요. 방금 교수님이 설명하신 것처럼 AI의 성능과 또 AI 능력이 대단하기 때문에 1년 치 저의 모든 데이터를 학습을 하면 제가 내일 혹은 3시간 뒤에 뭐 할지도 예측할 수 있습니다. 거기에 따라서 상업적 이용이 될 때 자칫하면 제가 위험에 노출될 수도 있고요. 또 앞서 말씀하셨지만 안보의 목적으로 쓰인다 하더라도 자칫하면 지나치게 감시 사회나 기본권 침해가 있을 수 있다 풀어야 될 문제가 이렇게 많기 때문에 사실은 AI 기본법을 놓고 지금 뭔가 기대보다는 우려 또 풀어야 된다라는 게 많은데... 일단은 기업입장으로 돌아가 보겠습니다. negative 규제 방식이라고 해야 될까요? ‘이거 빼고는 다 해도 돼’ 이런 방식으로 좀 정부가 열어주길 바라는 게 보통 마음인데 지금처럼 아직은 좀 우려되는 게 더 많다라는 식으로 가게 되면 기업 입장에서는 굳이 그 막대한 예산과 연구 인력을 투입해서 새로운 기술 새로운 테크닉을 개발할까라는 우려도 있고 그런 반발도 있잖아요. 그건 어떻게 보십니까?

◇이성엽: 그게 중요한 겁니다. 사실은 우리가 규제 방식이 뭐 여러 가지가 있는데요. 이렇게 일본이나 EU나 한국처럼 모든 산업 분야에 이제 똑같은 어떤 규제의 잣대를 들이대는 방식을 우리가 포괄적 규제라고 표현합니다. 그래서 이렇게 전 산업 분야의 하나의 잣대로 이렇게 기준을 잡게 되면 실제로 AI 산업을 상당히 위축시킬 우려가 있다 왜냐하면 각 산업들의 특성들을 반영할 수 없잖아요. 그래서 우리가 AI 기술이 발전하면서 위험이 표출되는 거는 이 분야별로 되게 다양하게 나타나고 있기 때문에 분야별로 사실은 좀 필요한 규제들을 도입하는 것이 맞지 않느냐 예컨대 딥페이크 같은 거는 주로 성범죄라든가 또 공직 선거에서 가짜 뉴스에 많이 활용되니까 성범죄 관련 법이나 공직선거법에 딥페이크 금지하는 조항들을 도입하는 도입이 돼 있거든요. 그래서 이런 식으로 좀 부문별로 규제 체계를 가지고 가는 것이 AI 산업 진흥에는 좀 더 효과적이다. 그러면 불필요한 규제가 또 늘 수도 있는 문제가 있어서 기업들로서는 말씀하신 것처럼 혁신이 위축될 수 있어서 그런 면에서는 규제 방식 자체를 이렇게 포괄적으로 할 필요가 있느냐 미국이나 일본이나 중국이 이런 제도를 도입하고 있지 않거든요. 그네들이 AI의 위험을 모르는 건 아닌데 위험을 접근하는 방식이 좀 이제 EU하고 한국과는 다르게 가고 있는 거잖아요. 그래서 그거는 AI 산업 지역이나 혁신하고 이 위험에 관한 관리를 균형적으로 하겠다는 그런 이제 생각을 깔고 있는데 우리는 좀 더 규제 쪽으로 기울어져 있다 그런 면에서 우리가 AI 3대 강국으로 가는 것이 가능할까 이런 식으로 전면적 규제를 도입하면 뭐 그런 부분에 대한 우려가 있습니다.

◆김우성: 예 그래서 사실 교수님께서는 사전 규제를 포괄적으로 하는 것보다는 기술적으로 충분히 예방 가능한 여러 가지 조치를 취하는 것을 기본적으로 법으로 강제하거나 내지는 사후 책임을 잘 물을 수 있도록 구조화해야 된다 이런 설명을 해 주셨어요. 좀 더 자세히 말씀해 주시죠.

◇이성엽: 사실 최근에 우리가 통신사들의 해킹도 비슷한 이슈인데요. 사전에 어떤 딱 기준을 정해 놓으면 이 기준만 지키면 자기들은 나중에 문제가 발생해도 책임이 없다 이렇게 되거든요. 그런데 이제 해킹 기법이 워낙 고도화되면서 기업들이 상시적으로 보안 수준을 뭐 이렇게 점검하고 업데이트 하지 않으면 계속 이런 사고들이 나는 건데 AI도 마찬가지입니다. AI에 대한 위험을 이렇게 일률적으로 딱 정해놓으면 새롭게 발생하는 위험에 대해서는 대처할 수가 없잖아요. 그래서 오히려 추상적인 포괄적인 기준만 정하고 세부적인 또는 개별법에서 또 개별 기업들이 자기들의 기술 발전 어떤 위험이 있는지 잘 알기 때문에 그걸 자율 규제하는 방식으로 가야 된다 그게 오히려 더 위험 방지에 효과적이다 그렇게 생각하고 있습니다.

◆김우성: 여러 가지 한 세 가지 정도 정리해서 말씀해 주신 게 있지만 좀 인상적인 게 프라이버시 중심 설계라는 게 있습니다. 이거 개발할 때 인권이라든지 중요한 보호 사항 관련해서 이거는 꼭 염두에 두고 설계해 이런 개념일까요?

◇이성엽: 네, 그렇습니다. 인권이나 사이버 보안 이런 것들이 보장되는 방식으로 사전에 제품이나 서비스를 설계해야 된다. 그게 사실 처음에 처음부터 이렇게 제품이나 서비스에 반영이 되면 그래 치매 위험이 상당히 줄어들게 되거든요. 근데 우리가 그걸 하지 않고 했다가 자꾸 새로운 사이버 보안 기준이 나오면 그걸 맞추고 하는 방식으로 해왔기 때문에 한계가 있게 되는 겁니다.

◆김우성: 예 언뜻 보면요. 해외에는 그냥 가만히 놔두는 거 아니야라고 하는지 모르겠지만 사회나 어떤 뭐 법이라든지 제도를 접근하는 철학이 좀 다릅니다. 이렇게 오히려 더 나중에 책임은 엄격히 물을 수 있도록 돼 있기 때문에 우리가 과연 그런 부분들을 어떻게 좀 좁혀 나가야 될지 오늘 교수님 말씀을 통해서 많이 생각해 보게 되는데요. 교수님 끝으로 AI 기본법이라고 지금 통칭하고 있는 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 이 법에 대해서 방금 말씀해 주신 내용을 통해서 조금 더 저희가 산업계도 충분히 역량 발휘를 해서 개발을 또 하고 정부라든지 혹은 시민단체에서는 충분히 사회안전망이라든지 개인의 인권 보호를 확충하고 이 둘 간 접점을 찾기 위한 뭐랄까요 일종의 접점에 대한 얘기를 좀 해 주셔야 될 것 같습니다.기본 태도랄까요 아니면 가장 우선부터 뭘 처리하고 그 뒤로는 자유롭게 기술 발전이 더 속도를 내도록 해줘야 된다라든지 가이드를 조언해 주십시오.

◇이성엽: 이재명 정부가 AI 3대 강국 전략을 지금 추진하고 있고요. 100조 가까운 돈을 지금 이제 AI에 투자하려고 하고 있지 않습니까? 그런데 지금 우리가 미국 중국에 비하면 이미 상당히 격차가 벌어져 있는 그런 상황이어서 향후 2~3년 내에 우리가 뭐 따라잡지 못하면 이게 3위를 해도 큰 의미가 없는 3위가 될 가능성이 많습니다. 워낙에 이제 승자 독식의 기술이기 때문에. 그래서 우리가 미중에 근접하는 3위가 되려고 그러면 사실은 이 혁신이나 산업 지능에 우리가 올인을 해도 지금 쉽지 않은 상황이거든요. 그런데 이런 상황에서 우리가 과도한 규제를 도입하게 되면 결국은 이제 AI 3대 강국 전략은 거의 포기하는 거나 다름이 없는 그런 상황입니다. 그래서 저는 이 산업 혁신이 제일 중요하기 때문에 이 분야에 좀 더 우리가 투자를 해야 될 것 같고 다만 투명성 의무 같은 것들 아까 딥페이크 같은 이런 고지나 표시 의무 같은 것들이라든지 최소한의 안전장치는 우리가 가져가야 될 필요가 있다 생각을 하고 있고요. 말씀드린 것처럼 지금 이런 규제와 관련되는 논의들은 조금 더 우리가 시간을 두고 하고 시행은 우리가 유예를 하는 것이 어떨까 그 점에서 좀 그런 시민사회의 목소리도 좀 수용하고 또 기업의 목소리 또 정부의 우려도 좀 더 해서 광범위한 논의를 한 1년 정도는 하면 더 어떨까 하는 생각을 가지고 있습니다.

◆김우성: 네, 저희 청취자분들 또 유튜브로 보고 계시는 분들도 이성엽 교수님 말에 좀 끄덕이는 부분들이 있을 겁니다. 촘촘하게 해야 될 것과 안 해야 될 것을 늘어놓지 말고요. 기본적으로 보호해야 될 것들 지켜야 될 것들에 대한 자율적 책임을 강조하면서 강화하면서 한편으로는 조금 더 천천히 이 AI가 펼쳐질 세계에 대해서 정부 시민단체 또 법조계, 산업계 나중에 조금씩 이렇게 촘촘한 지도를 그려 나가야 된다라는 말이 왜냐하면 안 그러면 사실은 규제 때문에 안 하려고 할 테니까요.이런 부분 이런 부분들에 대한 많은 생각 여러분들도 해 주시는 것 같습니다. 청취자님께서 ‘앱으로 AI 규제하다가 뒤처지면 손실은 누가 맡나요?’ 라고 남겨주셨습니다만 그거 없애자고 손실 좀 줄이자고 지금 이렇게 교수님 얘기도 듣고 있는 중입니다. 교수님, 저희가 좀 시간 내서 이 제도나 법령 관련된 논의 사안이 있을 때 한 번 더 모시겠습니다. 지금까지 고려대학교 기술경영전문대학원 이성엽 교수였습니다. 고맙습니다.

YTN 김세령 (newsfm0945@ytnradio.kr)



[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]