서울대 AI연구원장 "GPU 대 TPU 경쟁? 삼성전자·하이닉스에 굉장히 중요한 기회"

서울대 AI연구원장 "GPU 대 TPU 경쟁? 삼성전자·하이닉스에 굉장히 중요한 기회"

2025.11.28. 오전 07:46.
댓글
글자크기설정
인쇄하기
AD
■ 방송 : YTN 라디오 FM 94.5 (09:00~10:00)
■ 진행 : 조태현 기자
■ 방송일 : 2025년 11월 28일 금요일
■ 대담 : 서울대학교 AI 연구원장 이재욱 교수

- 구글 제미나이 3.0, 챗GPT 5.1 '인류 마지막시험'으로 일컫는 벤치마크 평가에서 각각 37.5, 30.7로 제미나이 3.0이 앞선 결과 나타나
- 생생형 AI서비스, 춘추전국시대
- TPU, 구글이 만든 AI반도체..2013년부터 개발해 현재 7세대, 2016년 알파고-이세돌 대국 때 알파고 알고리즘 돌린 게 첫 TPU버전
- 구글 TPU, 검색·광고·유튜브·G메일 등 풀 스펙 가능한 유일한 회사, 관련 서비스를 모두 TPU 기반으로 운용해와 안정성 등 최적화 상당히 좋아
- 젠슨 황, TPU 출시에 '우리가 한 세대 앞선다' 주장..'엔비디아 대 비엔비디아' 진영간 경쟁 보여주는 표현
- 그럼에도 GPU 중심의 AI생태계(쿠다)에서 엔비디아 GPU 벗어나기 어려운 '낙인효과'
- 엔비디아 GPU가 독점하는 흔치 않은 상황..GPU 높은 비용 낮추는 대안으로 AI칩 시장 모색 중
- 미중 갈등 속 中, 소프트웨어 하드웨어 자립 위한 드라이브 지속 중
- AI칩 경쟁 속 삼성전자 하이닉스, 굉장한 기회..앞으로 HBM 메모리칩 굉장히 중요한 역할..파운드리, 수혜 가능성

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.





◆ 조태현 : 그동안 인공지능 칩 화면은 엔디비아부터 생각이 났었죠. 엔비디아가 사실상 독점해 왔던 AI 칩 시장에 구글이 도전장을 던졌습니다. 전 세계 국가와 기업들이 GPU를 사려고 엔비디아 앞에서 줄을 서 있는 이런 풍경 이젠 달라지게 될까요? 구글에 이어서 메타나 아마존 오픈 AI 같은 다른 빅테크들도 뒤따라서 자체 칩 개발 속도를 올리고 있다고 합니다. 오늘은 이 인공지능 칩에 대한 이야기 나눠보겠습니다. 서울대학교 AI 연구원장 이재욱 교수와 함께 하겠습니다. 교수님, 나와계십니까?

◇ 이재욱 : 네. 안녕하세요.

◆ 조태현 : 안녕하십니까. 교수님. 제미나이 3.0 이 이야기를 안 할 수가 없겠는데요. 이거 써보셨습니까? 어떻습니까?

◇ 이재욱 : 네. 잘 쓰고 있습니다.

◆ 조태현 : 성능이 기존 AI랑 비교하면 특히 새 GPT랑 비교했을 때 어떤가요?

◇ 이재욱 : 사실 제가 실제로 쓰기에도 좀 체감되는 유의미한 성능 향상들이 있었고요. 그리고 여러 가지 벤치마크들 같은 이 기술적인 성능 수치들이 있는데 사실 구글 제미나이 3.0이 여러 작업에서 좀 유의미한 성능 격차를 보여준 건 사실입니다. 그래서 예를 들어서 최근에 잘 알려진 벤치마크들 중에 그러니까 AI의 성능을 테스트하는 여러 프로그램 벤치마크들이 있는데요. 그중에 인류의 마지막 시험이라고 하는 벤치마크가 있는데요. 이게 굉장히 좀 어렵고 복잡한 추론을 이제 하는 문제거든요. 그 문제에서 ChatGPT 5.1, 그러니까 최신 모델이죠. 최신 모델은 한 30.7 정도를 받았는데 제미나이 3.0은 37.5 그리고 심층 추론 모드까지 이거를 돌리면 한 41까지 올라가서 상당히 유의미한 격차가 있었고 그게 또 7에서 10% 정도라고 하면 그렇게 크지 않아 보일 수도 있는데요. 이게 굉장히 복잡한 작업에서의 차이이기 때문에 상당한 격차로 볼 수 있을 것 같습니다.

◆ 조태현 : 인류의 마지막 시험이라는 단어가 나왔는데요. 이거는 기존 평가에서 AI들이 점수를 높게 받으니까 진짜 어려운 거 내는 이런 시험이라고 이해하시면 되겠습니다. 그러면 구체적으로 이 제미나이 3.0이 어느 측면에서 GPT 이거보다 우위라는 겁니까? 이미지 처리라든지, 코딩이라든지 여러 가지 측면들이 있잖아요. 응 어떤 게

◇ 이재욱 : 써본 느낌으로는 코딩 기능이 상당히 좋아진 것 같고요. 최근에 저희 개발자들 사이에서는 바이브 코딩이라는 개념이 상당히 유행이거든요?

◆ 조태현 : 그게 뭡니까?

◇ 이재욱 : 바이브 코딩이 뭐냐면 예전에는 저희가 AI를 써서 코딩을 할 때 굉장히 정확하고 딱딱한 어떻게 보면 소위 말하는 스펙을 좀 정확하게 지시를 내려줘야 우리가 원하는 코딩이 나오는데요. 요즘은 쉽게 말하면 우리가 무슨 x떡같이 말해도 찰떡같이 알아듣는다 약간 이런 것처럼 저희가 대략적인 의도만 대충 말해줘도 굉장히 행간과 의도를 잘 파악해서 굉장히 좋은 코드를 만들어 주거든요. 그래서 바이브 코딩 같은 코딩 기능이 굉장히 좋아졌고요. 그다음에 또 하나는 보고, 듣고, 쓰는 능력 그러니까 저희 말로는 멀티 모델이라고 하는데요. 예를 들면 비디오나 아니면 음성이나 아니면 문서나 이런 다양한 어떤 종류의 데이터를 통합적으로 이해하고 그거를 처리하는 능력이 상당히 좋아진 것 같습니다. 그래서 예를 들면 우리가 음식을 하는 동영상을 레시피 동영상을 업로드를 하면 그걸 분석해서 문서로 작성을 해준다든지 여러 가지 다양한 통합적인 기능이 굉장히 좋아진 것 같습니다.

◆ 조태현 : 그러니까 노래로 예를 들자면 파형을 정확하게 알려주지 않아도 흥얼거리기만 해도 알아듣는 수준 이렇게 계산이 됐다라고도 비유를 해볼 수 있을 것 같은데요. ChatGPT 오픈 AI 쪽에서는 이번엔 너희들이 앞서가는 게 맞는 것 같다라는 이야기도 했다고 해요. 그런데 그럼에도 불구하고 여전히 ChatGPT의 강점은 남아 있다라는 평가도 있습니다. 교수님께서는 어떻게 보고 계십니까?

◇ 이재욱 : 지금 근데 워낙 지금 여기가 경쟁이 치열한 분야여가지고요. 사실은 이 생성형 AI 서비스 관련해 가지고는 정말 춘추전국시대라고 해도 과언이 아닐 정도로 정말 여러 업체들이 굉장히 총력전을 벌이고 있는 상황입니다. 그래서 제가 생각하기에는 아마 당장 한 달 뒤에 오픈 AI에서 더 새로운 모델을 갖고 발표를 해서 더 높은 성능을 보여준다고 해도 전혀 놀랍지 않을 것 같고요. 저도 여러 가지 모델을 한꺼번에 사용하고 있거든요. 다양한 모델들을 동시에 사용하고 있는데 모델마다 조금 장단점이 있거든요 AI가. 그래서 어떤 AI는 조금 더 검색을 많이 해야 되는 그런 작업에 유리한 AI도 있고, 코딩 작업을 잘하는 AI도 있고, 이미지나 비디오 생성을 더 잘하는 AI도 있고, 이래서 서로 좀 상대적인 비교 우위가 서로 있는 것 같습니다. 그리고 또 한 가지 비용적인 측면도 있는데요. 그래서 일부 모델들은 예를 들면 성능이 굉장히 뛰어나도 그게 예를 들면 유료 구독이라거나 사용에 제약이 있을 수가 있어서 그런 건 또 사용자의 비용 구조나 이런 것들에 따라서 적당한 모델 선택지도 달라질 수 있을 거라고 생각이 됩니다.

◆ 조태현 : 알겠습니다. 조금 전에 인공지능 서비스에 춘추 전국 시대가 왔다 말씀을 해 주셨는데 춘추 전국 시대 이렇게 치열한 경쟁을 벌이는 거는 서비스뿐만이 아니라 칩도 마찬가지인 것 같아요. 인공지능 칩에 대한 이야기를 해 보겠습니다. 지금까지는 필수 요건처럼 필수 조건처럼 GPU를 이야기를 했었는데 이번에 등장한 거 제미나이 3.0에서 등장한 거는 TPU예요. 일단 TPU가 뭡니까?

◇ 이재욱 : TPU는요. 구글에서 자체 데이터센터 수요를 위해서 만든 AI 반도체고요. TPU는 2013년부터 개발을 했고 지금 일곱 번째 버전이 공개가 됐거든요? 그래서 아마 기자님도 기억하시겠지만 2016년에 저희 유명한 알파고하고 이세돌 기사의 대국 기억하시죠?

◆ 조태현 : 기억하죠.

◇ 이재욱 :그때 그 알파고 알고리즘을 돌린 칩이 TPU 첫 번째 버전 칩이에요. 그래서 지금은 일곱 번째 버전까지 발표가 됐는데요. 제미나이나 여러 가지 구글의 다양한 서비스를 구동하는 칩이라고 생각하시면 될 것 같습니다.

◆ 조태현 : GPU랑 비교하면 장점이 뭡니까?

◇ 이재욱 : GPU는요. 그래픽스 프로세싱 유닛(Graphics Processing Unit)이라고 해서 그래픽 처리 장치의 약자죠.

◆ 조태현 : 그렇죠. 게임할 때 쓰는 거죠? 원래?

◇ 이재욱 : 예. 원래 이 칩을 만든 용도는 3D 게임이나 영상 처리 같은 그래픽스 작업을 위해서 만든 칩이거든요. 근데 사람들이 이 칩을 쓰다 보니 이 칩이 그냥 그래픽 처리뿐만이 아니라 비트코인 채굴이나 아니면 AI 같은 다른 알고리즘을 쓰는 데도 굉장히 유용하다는 걸 알게 됐어요. 그래서 약간의 설계 변경과 최적화를 거쳐서 지금 AI 시대의 대표적인 AI 반도체로 자리매김을 하게 된 것이고요. 반대로 TPU는 처음부터 AI 알고리즘을 위해서 만든 특화된 칩입니다. 근데 GPU나 TPU 둘 다 행렬 연산, 특히 행렬 곱에 특화된 칩인데 내부 구조는 상당히 다르고요. 그러니까 TPU를 좀 말씀을 드리자면 일종의 약간 선택과 집중이라고 할까요? 그러니까 GPU는 예를 들면 그래픽도 하고, 그다음에 비트코인 채굴도 하고, AI도 하고, 고성능 과학기술용 컴퓨팅도 하고 여러 가지 범용적인 그런 칩이라고 하면 TPU는 조금 더 AI 쪽에 좀 더 집중을 한 설계라고 볼 수 있을 것 같습니다.

◆ 조태현 : 그러니까 GPU는 쓰다 보니까 인공지능까지 온 거고, TPU는 인공지능에 특화를 해서 개발을 한 것이고 이게 전력 효율 측면에서도 차이가 있다고 그러는데 맞습니까?

◇ 이재욱 : 아무래도 조금 더 특화된 칩이다 보니까 범용적인 GPU보다는 그런 효율적인 면 특히 AI를 돌릴 때는 효율적인 면에서 유리한 면이 있고요. 그리고 다만 한 가지 요즘 최근의 추세는 약간 두 가지 칩이 조금 더 어떻게 보면 서로를 벤치마킹하면서 닮아가는 모양이라고 할까요? 그러니까 조금 더 GPU도 특화된 약간 이런 그런 디자인을 조금 더 채택을 하는 방향으로 가고 있고 반대로 또 TPU나 다른 소위 말해 NPU라고 하는 신경망 처리 장치 비슷한 카테고리의 칩들인데요. 그런 것들도 지금보다 범용적인, 다양한 알고리즘을 커버할 수 있는 그런 방향으로 서로 닮아가는 추세가 있기는 합니다.

◆ 조태현 : 언제나 그런 처음에 나왔을 때 이런 부분들이 있는 것 같습니다. 경쟁하면서 서로 닮아가는 그런 모습들 맞습니다. 구글의 이 TPU 개발, 아까도 말씀하셨던 것처럼 벌써 10년이 넘은 그런 거잖아요. 굉장히 칼을 갈고 있었던 것 같은데 교수님께서 구글 출신이십니까? 저 몰랐는데 지난 10년 동안 어떤 일이 있었던 겁니까?

◇ 이재욱 : 예 구글의 강점은 아무래도 하드웨어하고 소프트웨어하고 서비스까지 풀 스펙을 자체적으로 개발하고 운영할 수 있는 사실은 사실상 거의 유일한 업체라고 볼 수가 있고요. 근데 구글은 지금 말씀하신 대로 저희 지난 10년간 이제 검색이나 광고나 유튜브나 포토나 g메일이나 자체 AI 서비스를 모두 TPU 기반으로 운용을 해왔고 그러다 보니까 이제 시스템의 안정성이나 최적화가 상당히 잘 되어 있습니다. 근데 또 한 가지 더 여기서 중요한 점은 사실 하드웨어를 잘 만드는 거는 어떻게 보면 전체 문제의 AI 인프라 전체에서 한 절반 정도의 문제를 푼 것이고 나머지 절반 또는 혹시 혹은 그것보다 더 이상 되는 부분은 소프트웨어 쪽에 관련된 부분인데 이 부분에서 사실 구글이 굉장히 높은 경쟁력을 갖고 있다고 볼 수 있습니다.

◆ 조태현 : 예. 일단 데이터가 어마어마하게 많을 테니까요.

◇ 이재욱 : 맞습니다.

◆ 조태현 : 알겠습니다. 그런데 구글이 이렇게 TPU하고 제미나이 3.0 나오니까 굉장히 예민하게 반응하는 곳이 있어요. 엔비디아인데요, 주가도 예민하게 반응을 했고요. ‘우리가 한 세대 앞선다’ 이렇게 주장을 하고 있는데 이건 역시 뭐 AI칩 패권을 둘러싼 주도권 싸움 이런 거의 일환이라고 봐야 될까요?

◇ 이재욱 : 네 맞습니다. 사실 이 장면이 저는 그렇게 아주 드문 장면은 아닌데요. 낯선 장면은 아닌데. 사실 TPU 버전 1이 처음 나왔을 때도 젠슨 황 CEO가 비슷한 언론 반박 보도를 냈었어요. 그래서 이게 사실 어떻게 보면 두 업체 간에 또는 엔비디아와 비 엔비디아 진영 간의 경쟁이나 그런 것들은 상당히 드물지 않은 사실 낯익은 장면이고요. 그런데 이번에 엔비디아에서 발표한 언론 보도 자료에서 현재 우리가 실제로 접근을 할 수 있고 사용할 수 있는 칩의 측면에서 본다고 한다면 엔비디아의 주장이 맞습니다. 한 세대 앞선다 이렇게 말씀을 하셨는데요. 다만 더 언급할 게 있다면, 아까 말씀드린 대로 구글의 TPU는 원래 이게 외부에 칩을 팔거나 아니면 이거를 제공하려고 만든 칩이 아니고 내부 자체의 수요를 위해서 만든, 서비스를 구동하기 위해서 만든 칩이기 때문에 실제로 개발을 완료한 시점과 이 칩이 발표되는 시점 사이에 약간의 시간 차이는 있을 수 있다 말씀드릴 수 있을 것 같습니다.

◆ 조태현 : 알겠습니다. 여러 가지 측면에서 엔비디아가 약간 발끈하는 그런 모습들 젠슨 황 CEO가 요즘 짜증도 냈다는 얘기도 들리던데요. 어찌됐든 엔비디아가 GPU 시장 계속 유지할 수 있는 그런 배경을 보자면 역시 쿠다라는 이야기도 나옵니다. 쿠다, 이게 뭡니까?

◇ 이재욱 : 쿠다는요. 엔비디아 GPU에서 소프트웨어 개발을 해야 되잖아요? 어떻게 보면 칩 위에서 돌아가는 소프트웨어 개발을 해야 되는데 엔비디아 GPU에서 코딩을 하는 프로그래머가 사용하는 개발 환경과 소프트웨어 생태계라고 생각하시면 될 것 같습니다. 사실 이 생태계가 되게 강력한 게 뭐냐면 이미 그 GPU 하드웨어에 최적화되어 있는 코드들이 굉장히 많아요. 이미 공개되어 있고 사용할 수 있는 당장 갖다 쓸 수 있는 라이브러리라고 하는데요. 라이브러리라고 하는 코드가 굉장히 많이 있어서 이게 AI뿐만이 아니라 예를 들면 대규모 과학기술 시뮬레이션이라든지, 로보틱스 단백질 구조 분석 등 어떻게 보면 많은 계산을 필요로 하는 그런 알고리즘들이 GPU에 최적화된 라이브러리 형태로 제공이 되고 있어요. 그래서 거대한 소프트웨어 생태계가 있는건데요. 개발자들은 대부분 쿠다 기반으로 AI 개발을 해왔기 때문에 엔비디아 칩을 계속 쓸 수밖에 없는 일종의 약간 낙인 효과가 생기는 겁니다.

◆ 조태현 : 네. 알겠습니다. 그런 측면에서 쿠다가 역시 이쪽을 붙잡아주는 효과도 있는 것 같고요. AI 칩 시장 이렇게 춘추전국시대에 돌입했다라고 앞서서 말씀을 드렸는데요. 그렇다면 앞으로 AI 칩 시장의 경쟁 구도 어떻게 재편될 거라고 보십니까?

◇ 이재욱 : 아까 말씀드린 대로 아까 그 칩, 일단은 설계라는 측면에서 보면 GPU하고 TPU가 서로의 장점을 벤치마킹하면서 좀 닮아가는 모양이 되어가고 있고요. 다만 지금 현재 시장 자체가 조금은 좀 특이한 상황이기는 해요. 왜냐하면 이게 굉장히 큰 AI의 인프라 스트럭처라고 하는 어떻게 보면 이게 수십 조에서 수백 조가 되는 굉장히 큰 산업인데 여기에서 어떻게 보면 NVIDIA라는 한 회사가 좀 독점적으로 어떻게 보면은 이 시장을 장악하고 있는 상황이 사실은 조금은 이게 좀 어떻게 보면 흔치 않은 상황이기는 하거든요. 그리고 워낙 지금 이제 NVIDIA GPU 같은 것들이 이제 비용적으로 좀 비싸기 때문에 사실은 이런 것들을 조금 더 비용을 낮추기 위한 이런 해법으로서 이제 다양한 어떤 대안들이 모색이 될 것 같고요. 그리고 그런 측면에서 봤을 때 이번에 발표한 구글의 TPU나 아니면 소위 말하는 NPU라고 하는 뉴럴 프로세스 유닛, 신경망 처리 장치 칩들이 조금 더 지금보다는 진입할 수 있는 가능성은 충분히 있어 보인다 이렇게 생각이 되고요.
그다음에 또 하나는 미·중 관련해 현재 어떤 정치·경제적인 영향들도 좀 있는데 아마 제가 봤을 때는 그 중국 같은 경우는 아마 자체 플랫폼 쪽으로 상당히 소프트웨어, 하드웨어를 독립하기 위한 자립하기 위한 드라이브를 열심히 하고 있고 어느 정도 그쪽 방향으로도 성과가 있을 수도 있다는 생각이 듭니다. 그래서 지금보다는 다이나믹하게 굉장히 많이 바뀔 것 같고 그리고 어떻게 보면 AI가 굉장히 지금 폭넓게 확산이 될 거라고 예상이 되기 때문에 수요 자체는 견고할 것으로 예상이 되지만 업체 간의 명암은 조금 더 지켜봐야 되지 않나 그런 생각이 듭니다.

◆ 조태현 : AI 경쟁에서 AI 칩 경쟁까지 계속 확대되는 경쟁인데 그렇다면 이런 경쟁 속에 우리 기업들 삼성전자, SK하이닉스 이쪽의 위상, 입지, 미래는 어떻게 될까요?

◇ 이재욱 : 사실은 저는 이게 굉장한 기회가 있다라고 봐요. 왜냐하면 이 AI가 전통적인 예를 들면 우리가 AI가 이렇게 붐을 이루기 전에도 전통적인 클라우드나 데이터 센터가 있었잖아요? 그 전통적인 어떤 데이터 센터나 온라인 서비스들에 비해서 AI 서비스와 AI 인프라 스트럭처가 다른 점 중에 하나가 뭐냐면 메모리하고 스토리지의 역할이 굉장히 중요합니다. 메모리하고 저장 장치 디스크 같은 그런 용량적인 측면이나 아니면 읽고, 쓰기, 속도적인 그런 측면에서 봤을 때 여기가 이 AI에서 이게 굉장히 굉장히 중요하거든요. 그래서 제가 봤을 때는 앞으로도 계속 그 메모리 소위 말하는 HBM이라고 하는 우리 메모리가 굉장히 중요한 역할을 하고 있는데 우리나라가 두 개의 메모리 회사들을 비롯해서 굉장히 어떤 그런 부분에서는 좀 선도적인 역할을 하고 있기 때문에 앞으로도 굉장히 디바이스 메모리, 반도체 측면에서도 많은 기회가 있을 것 같고 그 외에도 또 이제 파운드리나

◆ 조태현 : 생산을 해 줘야 되니까

◇ 이재욱 : 예. 맞습니다. 이게 어떻게 보면 굉장히 AI 인프라 스트럭처를 계속 확대하면서 그 파운드리도 굉장히 수혜를 볼 가능성이 높기 때문에 우리나라의 어떤 반도체 산업의 경쟁력이 앞으로 큰 수혜를 볼 것으로 예상이 되고요. 그리고 우리나라가 여기에서 잘 대응을 한다면 우리나라에도 AI 특히 이런 인프라 스트럭쳐 부분과 관련되어 있는 그런 측면에서 큰 기회들이 있을 것으로 기대하고 있습니다.

◆ 조태현 : 끝으로 하나만 좀 궁금한 거 여쭤볼게요. 말씀하신 것처럼 메모리 반도체 그리고 파운드리 이런 생태계에도 굉장히 큰 영향을 미칠 것이다. 여기까지는 좋은데 이 AI 칩 자체를 우리가 설계하고 내재화할 필요성 이런 것들은 어떻게 보십니까?

◇ 이재욱 : 일단 제가 봤을 때는 우리나라가 잘 할 수 있는 부분 중의 산업적인 경쟁력이 있는 분야 중에 하나라고 생각이 되고요. 그리고 이게 말씀드린 대로 지금 사실은 엔비디아의 약간 독점 구조에 지금 고비용 약간 AI 고비용 구조가 지금 현재 지속되고 있기 때문에 이런 것들을 저희가 조금 더 AI라는 어떤 기술의 어떻게 보면 수혜를 극대화하려고 그러면 지금보다 많이 가격이 내려가야 되거든요. 근데 가격이 내려가야 되고 그렇게 하려고 하면 사실은 이런 말씀드린 이 AI 반도체나 이런 또 메모리 반도체의 역할이 굉장히 중요하고요. 그래서 그런 면으로 보면 충분히 우리나라에서도 이런 것들을 좀 시도해 보고 육성해 볼 만한 그런 가치가 있다고 생각을 합니다.

◆ 조태현 : 알겠습니다. 반도체 파운드리 그리고 AI에 직접 뛰어드는 모델까지 말씀을 해 주셨습니다. 지금까지 서울대학교 AI 연구원장 이재욱 교수와 함께 했습니다. 오늘 말씀 고맙습니다.

◇ 이재욱 : 네. 감사합니다.

YTN 김양원 (kimyw@ytnradio.kr)



[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]