[뉴스라이더] AI의 빛과 그림자...유엔 안보리, 사상 첫 회의 나선다

[뉴스라이더] AI의 빛과 그림자...유엔 안보리, 사상 첫 회의 나선다

2023.07.06. 오전 09:26
댓글
글자크기설정
인쇄하기
AD
■ 진행 : 김대근 앵커
■ 출연 : 김덕진 IT커뮤니케이션연구소 소장

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라이더] 명시해주시기 바랍니다.

[앵커]
16년 전 순직한 조종사가 생전 모습 그대로 어머니와 재회했습니다. 어제 국방부가 AI 기술을 이용해 가상인간으로 복원한 조종사의 모습을 공개해 화제가 되고 있는데요. 그런데 한편에서는 AI 기술을 이용해 영상을 조작하고 가짜뉴스를 퍼뜨리는 경우도 있어 논란이 되고 있습니다.

AI 기술도 쓰기 나름이라는 생각이 드는데, 규제책은 아직 미비한 상황입니다. 유엔 안전보장이사회에서 이번 달에 관련 논의를 한다는데요. 어떤 내용이 논의되는지 IT 커뮤니케이션 연구소 김덕진 소장과 함께 얘기 나눠보겠습니다. 안녕하십니까. 먼저 최근에 유튜브에서 화제가 된 영상부터 보고 얘기를 해 보도록 하겠습니다. 프랑스 축구 국가대표 음바페가 이강인 선수의 이적설에 대해서 언급한 영상이 화제가 됐는데요. 먼저 보고 얘기를 이어가보겠습니다. 보여주시죠.

[앵커]
이 영상이 큰 화제가 됐던 이유, 우리 축구 팬들의 자존심을 상하게 할 만한 일본 기자의 질문에 이렇게 곧바로 음바페 선수가 고개를 내젓고요. 또 얼굴까지 찡그리면서 응수해 줬기 때문인데요. 얼굴 찡그리는 모습 보셨죠. 알고 봤더니 2년 전 음바페 기자회견 영상을 AI를 이용해서 교묘하게 편집한 영상이었습니다. 그러면 원본 영상과 비교해볼까요.

[앵커]
조작된 영상과 원본 영상을 비교해봤습니다. 원본 영상 봤더니 원래는 이거 프랑스어로 된 인터뷰 질문이었는데 이게 일본 기자의 영어 질문으로 바꿔치기가 된 그런 상황이에요. 너무 교묘한데 어떻게 만든 겁니까?

[김덕진]
이거 그냥 간단한 페이크, 아니면 간단한 트릭이라고 볼 수 있을 것 같습니다. 보셨던 것처럼 기본적으로 영상 자체는 그대로예요. 그리고 실제로 프랑스어로 말한 것도 그대로인데 그 앞에다가 영어로 뭔가 내용을 넣었죠. 그런데 그게 TTS라고 그래서 음성인식기술입니다.

그러니까 뭔가 우리가 자막의 내용을 쓰면 그걸 정말로 영어나 여러 가지로 읽어주는 건데 그런 걸 앞에 넣다 보니까 정말로 이게 이런 실제로 질문을 한 것처럼 느껴지는 거죠. 그다음에 답변이 불어다 보니까 우리가 저 내용에 대해서 정확하게는 모르잖아요.

그러니까 자막에서 마치 이강인 선수를 칭찬한 것처럼 이렇게 넣은 영상이라고 보시면 될 것 같습니다. 실제로 저 외에도 최근에 메시 선수가 뭔가 중국에서 인터뷰를 했는데 그 내용이 원래 전혀 상관이 없는 건데 뭔가 이강인 선수에 대해서 뭔가 이렇게 칭찬하는 것 같은 이런 영상들처럼 소위 뭔가 우리나라에 대해서 아주 좋게 외국 사람들이 얘기하는 이런 영상들이 유튜브에서 약간 합성된 형태로 요즘 올라가고 있다라고 말씀드릴 수 있습니다.

[앵커]
그러니까 이게 문구를 쳐 넣으면 이게 음성으로 변환돼서 실제 현장에서 얘기가 있었던 것처럼 들리게 만들 수 있다. 그런 기술이군요. 그런데 이게 삭제되지 않고 영상이 유튜브에 계속 올라와 있다고 하더라고요. 그러면 저거 계속 믿을 수도 있는 거잖아요.

[김덕진]
맞습니다. 그게 문제가 되는 건데요. 실제로 저 영상 같은 경우에도 말씀하신 것처럼 천만 뷰가 넘었으니까 많은 사람들이 보고 이거 진짜인가라고 놀랄 수 있다는 것이죠. 그런데 이런 것들이 비단 최근에 유튜브 영상뿐만 아니라 여러 가지 이미지나 동영상 형태를 통해서도 많은 사람을 혼란하게 하고 있습니다.

[앵커]
지금 보시는 저 사진도 조작된 거예요?

[김덕진]
맞습니다. 저거 같은 경우에 우리가 생성형이미지라고 하는 최근에 기술이 있죠. 생성형 AI를 통해서 텍스트로 상황을 넣은 거예요. 펜타곤이 폭발한 것 같다, 이런 식으로 텍스트를 넣으면 그걸 활용해서 저렇게 이미지의 형태로 만들어주는 AI 툴들이 최근에 존재합니다.

[앵커]
그러니까 지금 미국 국방부 건물이 폭발하는 그런 사진인데 저게 가짜라는 거죠?

[김덕진]
맞습니다. 정확하게 말하면 생성, 그러니까 만들어낸 거죠. 그러니까 그림과 같은 형태라고 보시면 될 것 같은데 최근에 인공지능 기술이 너무 좋아지다 보니까 뭔가 내가 프롬프트라고 하는 명령어의 형태로 텍스트 몇 줄을 쓰면 저 정도 형태의 이미지가 나오는 거죠. 그런데 저 이미지가 워낙 비슷하다 보니까 저기에다가 SNS의 트위터 글 같은 것, 그래서 이게 실제로 폭발한 것 같다, 이렇게 넣었더니 문제는 뭐냐 하면 최근에 주식 같은 걸 하실 때 보면 인공지능이나 자동으로 주가가 움직이는 이런 프로그램 시스템들이 많단 말이에요.

그러니까 그런 것들이 저게 진짜인 거라고 바로 인지를 한 다음에 바로 주식을 예를 들면 빠르게 파는 겁니다. 그렇게 되니까 실제로 주가가 출렁거리게 되고 그것 때문에 많은 사람들은 이게 진짜인가라고 하니까 같이 실제 경제적인 영향을 미쳤던 상황이라고 볼 수 있을 것 같습니다.

[앵커]
조작된 사진인데 지금 주식시장에도 영향을 미칠 수 있는 아주 위험한 상황이었고. 저것뿐만이 아닙니다. 최근에 조작돼서 논란이 됐던 그런 사진들이 또 있는데 사례를 보면서 얘기를 해볼까요.

[김덕진]
실제로 최근에 이슈가 됐었던 것 중의 하나가 저기 보시는 것처럼 AI가 만든 가짜 교황 사진인데요.

[앵커]
패딩을 입고 있어요.

[김덕진]
그렇죠. 그외에도 선글라스를 끼고 있는 여러 가지 모습들이 나오기도 해서 저렇게 교황님이 패션이 좋은가 했더니 저게 보니까 알고 봤더니 아까 말씀드린 글자를 써서 만든 이미지의 형태였고요.

[앵커]
그렇군요. 교황도 요즘에 저런 패딩을 입나 했는데 그게 아니라는 거죠.

[김덕진]
소위 힙하다라고 표현할 수 있을 것 같지만 그건 아니고요. 그다음에 또 가장 이슈가 됐던 게 도널드 트럼프 전 대통령에 대한 체포 사진이 있었습니다.

[앵커]
경찰에 체포되는 거 아니에요?

[김덕진]
실제로 저걸 보시면 경찰에 소환이 됐으니까 정말 저런가라고 할 수도 있지만 저것도 가짜입니다. 왜냐하면 실제로 트럼프 대통령이 소환되기는 했지만 전 대통령에 대한 예우 차원에서 실제 포토라인에 선 적이 없거든요. 그런데 사람들이 뭔가 저렇게 잡혀간다고 하니까 궁금하니까 상상력을 동원해서 자기가 글자로 텍스트 프롬프터를 쓴 거예요. 그냥 문구를 쳐넣으면 저렇게 만들어낸다는 거죠.

[김덕진]
그렇습니다. 그러다 보니까 저게 어떤 사람들은 재밌다고 하지만 앞뒤의 맥락을 모르는 사람들은 저기에다가 예를 들면 트럼프 전 대통령이 뭔가 경찰에 소환됐다라고 하면 저게 진짜 이미지냐, 이렇게 착각을 하는 거죠.

[앵커]
믿을 수도 있겠네요. 이것뿐만 아니라 최근 논란이 됐던 사진이 있는데 튀르키예 강진이 났을 때 모금을 한다면서 사진을 공개를 했는데 저게 또 가짜 사진이었다는 거죠.

[김덕진]
맞습니다. 저런 게 진짜인지 아닌지 사람들이 헷갈리다가 한 가지 잘못된 것을 발견한 거예요. 저기 자세히 보시면 저 소방관의 손가락이 다섯 개가 아니라 여섯 개인 것을 볼 수 있습니다.

[앵커]
손가락이 왜 6개입니까?

[김덕진]
저게 최근에 만들어지는 생성형 AI들의 한계이기도 한데요. 기존에 있었던 데이터들을 가지고 텍스트를 쳤을 때 이미지가 나오는데 이상하게 그런 것들이 손가락, 발가락 개수를 정확하게 표현을 못 했었어요.

그러다 보니까 저게 6개, 7개 혹은 다리가 2개아니라 3개가 나오는 경우도 있었는데 그런데 저것도 최근에는 빠르게 업데이트돼서 요즘 나오는 이미지들은 저 손가락조차도 5개로 제대로 나오는 것을 볼 수 있습니다.

[앵커]
저런 사진 같은 경우에는 사기 행각에 악용될 수 있는 거잖아요.

[김덕진]
맞습니다. 말씀하신 펀딩이나 이런 데 충분히 악용될 수 있는 사례죠.

[앵커]
그렇군요. 손가락이 6개. 저걸로 저게 가짜인지 진짜인지를 구분할 수 있었는데 요즘에 기술이 발달해서 또 구분이 더 어려워지는 건 아닌가 이런 걱정이 듭니다. AI를 악용한 가짜뉴스에 대해서 저희가 얘기를 하고 있는데 이런 경우만 있는 건 아닙니다. AI 기술이 선한 영향력을 행사하는 사례도 있는데요. 우리 공군에서 16년 전에 순직한 조종사가 엄마를 만났습니다. 화면으로 함께 보시죠.

16년 전 모습 그대로 나타난 아들을 보자 엄마는 눈물이 멈추지 않습니다. 가슴이 먹먹합니다. 고 박인철 소령. 2007년 야간 비행 임무 중에 순직했는데 AI 기술로 복원돼서 어머니와 이렇게 만났습니다. 아버지 박명렬 소령도 1984년 훈련 중에 순직했는데 어머니에게 아버지 소식도 전해 주고요. 또 어머니가 눈물을 흘리니까 울지 말라고 위로를 해 주기도 하고요. AI 기술이 이렇게도 쓰일 수 있구나, 이런 생각이 들었습니다. 어떻게 한 겁니까?

[김덕진]
저도 울컥하고 먹먹해지기는 하는데요. 이게 결국에는 고 박인철 소령의 기존의 데이터들을 활용했다라고 말씀드릴 수 있을 것 같아요. 그러니까 생전에 남겼었던 사진, 영상, 그다음에 그의 목소리가 있을 거잖아요. 그런 것을 인공지능한테 학습을 시켜서 그걸 갖고 만들었다라고 말씀드릴 수 있을 것 같습니다.

그러니까 뭔가 시나리오나 이런 것들 작업을 했고요. 실제로 저게 작업 기간이 6개월 정도 걸렸다고 해요. 그만큼 많은 데이터들을 모았고요. 그다음에 저렇게 보여줬던 것은 딥페이크라고 하는 기술이 들어간 건데 정확하게 표현하면 비슷한 체격의 사람이 있고 얼굴을 합성한 거다라고 말씀드릴 수 있을 것 같아요.

그래서 그 안에서 목소리나 얼굴 표정 이런 것들은 고인이 가지고 있었던 데이터대로 만들고 거기에 있는 내용들 같은 경우에는 기존에 있었던 이분의 여러 가지 데이터의 내용을 갖고 학습해서 만든 기술이다, 이렇게 말씀드릴 수 있을 것 같습니다.

[앵커]
그러면 생전에 촬영했던 영상이라든가 목소리라든가 이런 것들이 활용된 거예요?

[김덕진]
그렇죠. 그러다 보니까 이건 조금 더 시간이 걸렸는데 최근에는 이런 것들을 하나의 서비스로 만들고 있는 곳들도 있어요. 예를 들면 디지털 추모관이라고 그래서 우리가 최근에 한동안 또 유행이 됐었던 게 본인이 자기가 죽기 전에 영정사진 남기는 것 이런 것들이 한번 유행이 되기도 했었잖아요.

이런 것처럼 실제로 내가 내가 아직 죽기 전에 내가 지금 현재 상황에서 촬영을 한다든지 여러 가지 이야기를 남겨서 만약에 내가 고인이 되더라도 내 가족들이 나를 추모할 수 있는 이런 것들에 대한 서비스도 최근에 나오고 있거든요.

그래서 결국 살아있는 데이터 혹은 내가 죽고 나서라도 과거의 데이터를 활용해서 이렇게 복원하는 이런 기술들이 최근에 나오고 있다, 이렇게 말씀드릴 수 있을 것 같습니다.

[앵커]
쉽게 얘기하면 내 영상이나 목소리나 이런 것들 데이터를 많이 남겨놔서 사후에 혹시라도 AI로 가상인간으로 나를 만들 수 있도록 준비를 해둔다, 이런 얘기입니까?

[김덕진]
그렇게 해석해도 될 것 같습니다.

[앵커]
그런 서비스가 요즘에 차츰 나오고 있다는 거군요. AI 기술이 참 쓰기 나름이다. 저희가 앞서 가짜뉴스에 대해서 얘기를 해봤는데 또 지금 보면 그리운 사람을 만나게 할 수 있는 그런 기술이 되기도 하고요.

[김덕진]
양날의 검이라고도 볼 수 있죠, 그래서.

[앵커]
두 가지 얼굴을 갖고 있다는 생각도 드네요. 그런데 관련 제도는 어떤지 이것도 궁금합니다. UN 안전보장이사회에서 처음으로 관련 논의가 이루어진다고 하더라고요.

[김덕진]
맞습니다. 논의가 이루어지는 이유를 설명을 드리면 이들이 이렇게 얘기를 하는 거예요. AI가 고도화됐는데 규제가 없다라고 하는 건 핵전쟁만큼이나 인류에 위협이 될 수 있다는 표현을 합니다. 그러니까 우리가 지금 얘기한 대로 AI라고 하는 것들이 우리에게 어떻게 활용되는지에 따라서 전혀 다르다 보니까 수많은 AI과 관련된 리더들 역시도 이걸 핵과 관련돼서 비유하시는 분들이 많아요.

핵이라고 하는 것들이 원자력이라는 것들이 잘 관리되면 우리에게 좋은 에너지가 될 수 있지만 자칫 잘못하면 이게 아주 위험할 수 있다. 그렇기 때문에 이 부분에 있어서 인류 평화나 안보 관점에서의 위협을 논의하는 회의들이 지금부터 시작되고 있다라고 말씀드릴 수 있을 것 같습니다.

[앵커]
보니까 로봇이라든가 핵무기에 AI 기술이 잘못 쓰일 경우에 대비를 하자, 이런 얘기로도 들리는데 이게 구체적으로 어떤 우려를 하고 있는 겁니까?

[김덕진]
결국 우리가 얘기했던 것처럼 AI가 뭔가 잘 활용되면 엄청난 기회지만 누군가에 의해서 잘못 활용되게 되면 이게 아주 위험할 수 있다라고 하는 양면성에 대한 이야기라고 보시면 될 것 같아요. 제일 대표적으로 최근에 나오고 있는 챗GPT 같은 생성형 AI가 그렇잖아요.

누구에게나 아주, 예를 들면 예전에 영화에서나 볼 수 있었던 자비스 같은 녀석이 누구에게나 있는 거죠. 예전에 아이언맨 같은 아주 중요한 사람들만 쓸 수 있었던 이런 것들이 누구나 쓸 수 있으니까 이걸 사람이 어떻게 쓰느냐에 따라서 충분히 문제가 생길 수 있다는 겁니다.

[앵커]
그리고 이런 게 살상무기 같은 데 명령을 잘못해서 악의적으로 사용될 수도 있고 이런 우려도 하는 상황이라고요?

[김덕진]
네, 충분히 그럴 수 있는 것이죠. 왜냐하면 AI가 어느 정도 자동으로 차단할지라도 그것을 또 돌려서 얘기할 수 있기 때문인데요. 그래서인지 지금 말씀하신 것처럼 유엔 안전보장이사회뿐만 아니라 요즘에 유럽연합에서도 최초로 규제 협상안을 의결하고 있어요.

그래서 이 내용들을 살펴보게 되면 역시 말씀드렸던 AI가 여러 가지로 쓰이기 때문에 위험도를 구분하자. 그래서 구분한 데서 가장 위험한 AI. 예를 들면 안면인식이나 사람들이 가지고 있는 생체 데이터를 활용하는 AI들이 있거든요.

그런 것들은 활용하는 곳과 활용하지 않아야 되는 곳을 구분해서 딱 써야 되는 데만 쓰자, 이런 식의 얘기가 나오고 있고, 그외에 또 최근에 이야기되고 있는 예를 들면 안전과 인권에 큰 위험을 줄 수 있는 부분에 있어서는 정확하게 쓸 수 있을 곳만 구분하자라는 것이고요.

그다음에 이번 유럽연합에서 나온 것 중에 가장 핵심 중의 하나는 바로 챗GPT과 같은 생성형 인공지능인데 결국에는 챗GPT가 글을 쓰든 만들든 그림을 만들든 이것은 무조건 사람이 만든 게 아니라 인공지능이 만든 거다라는 출처를 표기하게 하자라고 하는 것들이 이번에 통과됐다고 보시면 될 것 같습니다.

[앵커]
그러면 가짜뉴스를 걸러내는 데 도움이 될 수도 있겠군요. 그런데 또 궁금한 게 지금 유럽연합에서 이런 AI 관련해서 규제하는 법안의 협상안을 의결했다, 이런 얘기인 거잖아요. 궁금한 게 AI 기술 같은 경우에는 주로 구글이라든가 메타라든가 미국 기업에서 선을 보이는데 이 규제안은 유럽연합이 먼저 나선 것 같아요. 특별한 배경이 있습니까?

[김덕진]
이게 어떻게 보면 그전에 말씀하셨던 플랫폼 기업, 그러니까 SNS나 이런 쪽에서 비슷했던 건데요. 결국에는 EU는 어떤 기술이 없는 상황에서, 그러니까 유럽에 이런 빅테크 회사들이 없잖아요. 결국에는 서비스는 전 세계적으로 하다 보니까 예를 들면 매출이라든지 아니면 그 나라의 개인정보 데이터들을 결국 미국에서 가져간다라고 평가하는 것 같아요.

그러다 보니까 결국에는 미국에 견줄 만한 기술이 없는 상황에서 견제할 수 있는 방안은 결국 이런 규제들이다. 그래서 뭔가 자국의 데이터가 밖으로 빠져나가는 것에 대해서 자칫 엄청나게 큰 벌금을 매긴다든지 아니면 이런 것들에 대한 기술에 대한 책임성을 묻는다든지 이런 형태로 진화하고 있다고 말씀드릴 수 있을 것 같습니다.

[앵커]
그러면 지금 AI 기술에서 선도하고 있는 미국 같은 경우에는 관련된 규제 논의가 이루어지고 있습니까?

[김덕진]
이게 참 흥미로운 건데요. 앞서서 말씀하신 것처럼 우리가 페이스북 나오고 유튜브 나올 때는 생각보다 규제안이 적었거든요. 그런데 최근에 생성형 AI, 그러니까 챗GPT가 나오고 나서부터는 미국에서도 이거 좀 규제해야 되는 것 아니냐라는 얘기들이 나오고 있다는 거예요.

그래서 실제로 인공지능법과 관련해서 2021년 1월부터 해서 수많은 법안들이 이번에 발의가 되고 있고요. 그중에서 실제 지금 AI가 해를 끼치지 않고 의도한 대로 작동할 수 있도록 AI에 이른바 책임성을 부여하는 방안에 대해서 미국에서도 계속 검토 중이다라고 말씀드릴 수 있을 것 같습니다.

그중에서 최근에 가장 대표적으로 하나 흥미로웠던 게 어제인가 나왔던 법이거든요. 이게 뭐냐 하면 뉴욕에서 최근에 보면 채용을 할 때도 AI를 활용하잖아요. 예를 들면 이 사람의 자기소개서나 이런 것들을 AI가 걸러주기도 하고 또 실제로 면접을 인공지능과 면접을 보는 이런 것들이 최근에도 우리나라에도 기술이 있어요.

그래서 사람과 직접적으로 면접을 보는 게 아니라 캠을 통해서 인공지능 면접관하고 면접을 보는 거죠. 그런데 그럴 때 만약에 그 데이터가 잘못됐다라고 하면 사람들이 가지고 있는 편향을 그대로 가질 수 있다는 생각을 하는 거예요. 예를 들면 우리가 그냥 응당 남자들을 뽑는 게 편할 것 같아, 여자들보다.

이런 것들에 대해서 사람은 그런 생각이 있더라도 그래도 사회적인 환경에 따라서 내가 그런 생각이 있어도 그래도 그렇게 하면 안 돼라는 것을 사람은 스스로 결정할 수 있잖아요.

그런데 인공지능은 결국 데이터를 기반으로 결정하다 보니까 이런 것들이 결과적으로 문제가 생길 수 있는 것들이 있다는 것이죠. 그래서 이번에 나온 뉴욕의 법안이 뭐냐 하면 실제로 그래서 너희가 인공지능 서비스를 통해서 채용을 했다면 그 채용 결과를 오픈하라는 거예요.

예를 들면 그렇다고 어떤 이름을 가진 사람까지가 아니라 실제로 AI를 활용했을 때 남자와 여자의 성비가 몇 퍼센트 정도로 채용이 됐다, 아니면 유색인종과 그렇지 않은 사람들, 이런 사람들이 어떻게 됐다, 이런 것들 수를 뽑을 수 있게 법안적으로 이야기해라라는 것들이 이번에 나온 것이죠.

[앵커]
결과를 보고 혹시 보완할 게 있으면 보완을 해야 되니까. 아까 말씀하셨던 것처럼 편향된 그런 인식이 AI가 그대로 반영해서 결과를 낸 것은 아닌지 이런 것도 보완을 해야 되니까. 그런데 지금 말씀 들어보면 AI를 활용해서 면접을 본다거나 이런 기술은 우리나라에도 있다는 거잖아요. 그러면 우리나라도 하루빨리 AI와 관련한 어떻게 관리할 건지 이거 정책이 있어야 할 것 같아요. 법안도 마련을 해야 될 것 같은데 지금 상황 어떻습니까?

[김덕진]
실제로 우리나라에서 2023년 2월에 인공지능기본법이라는 것이 지금 국회 과방위와 법안소위를 통과하긴 했어요. 그리고 전체회의에 상정 대기 중이기는 한데 기본적으로 어쨌든 투자나 인력 이런 것들이 단순히 기업 수준이 아니라 국가 차원에서의 예산이 들어갈 정도의 크기로 지금 전 세계적으로 움직이고 있기 때문에 결국 이것에 대해서 인공지능 기본계획이 수립돼야 된다는 거고요.

제일 가이드의 핵심은 우선 허용하고 사후에 규제를 만드는 것을 원칙으로 하겠다, 지금 이렇게 얘기하고 있는 상황입니다.

[앵커]
AI 기술 발전을 위해서 우선 허용을 하고 사후에 규제하겠다. 그러면 조금 이거 부작용, 우려되는 부분이 있지 않을까 싶은데요.

[김덕진]
이 부분에 있어서 꼭 말씀드리고 싶은 게 있는데요. 최근에 여러 가지 뉴스를 통해서 결국에는 이런 EU나 미국이나 일본 등에서 규제가 나오고 있다라고 하면 말씀하신 것처럼 그러면 그러면 우리도 규제 만들어야 되는 것 아니냐라고 할 수 있지만 이 법의 맥락을 조금 자세히 봐야 됩니다. 법이 정확하게 말하면 두 가지로 갈려 있어요.

이번 법 말고 그전 법들까지 포함해서 말씀드리면, 결국에는 사용하는 것, 그러니까 결과. 그러니까 뭔가 AI가 만들어낸 결과에 대해서는 기업들이 어느 정도 책임을 져야 된다라는 것은 비슷합니다. 그런데 중요한 것은 AI가 결과를 내려면 결국은 공부를 해야 되잖아요.

똑똑하게 공부를 하려면 수많은 데이터를 보고 학습을 시켜야 되잖아요. 그런 부분에 있어서는 오히려 저작권이나 여러 가지 것들에 대해서 전 세계적으로 오히려 면책조항을 주면서까지 공부를 시키고 있다라는 거예요. 그러니까 결국 이거에서 말하는 시사점은 이거죠. 일단은 똑똑하게 만들어야 된다, 인공지능을.

왜냐하면 이게 말씀하셨던 것처럼 양날의 검처럼 이게 좋을 수도 있고 나쁠 수도 있지만 어쨌든 제대로 활용하려면 이걸 똑똑하게 만들어야 된다. 그렇기 때문에 똑똑하게 만드는 데 있어서는 면책권을 줘서라도 거기에 대해서는 열어줘야 된다라는 게 전 세계적인 흐름이고요. 단, 똑똑해진 AI가 뭔가 결과물을 낼 때 거기에 있어서는 기업들에 어느 정도의 책임과 가이드라인이 있어야 된다라는 게 지금 전 세계적인 법안의 흐름이기 때문에 이 부분에 있어서 이 두 가지를 같이 우리나라에서도 고려해야 된다라는 이야기를 드리고 싶습니다.

[앵커]
법안도 그런 취지에 따라서 만들어지고 있는 상황이다, 이런 얘기로 이해가 되는데요. 기술 발전과 또 부작용에 대한 대책, 두 가지 고민이 동시에 필요하다는 생각이 들었습니다. 지금까지 IT 커뮤니케이션 연구소 김덕진 소장과 함께 말씀 나눠봤습니다. 말씀 감사합니다.



※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
YTN 프로그램 개편 기념 특별 이벤트