AI, 음성 듣고 자막에 수어까지 '바로바로'

AI, 음성 듣고 자막에 수어까지 '바로바로'

2021.04.20. 오후 11:23
댓글
글자크기설정
인쇄하기
AD
[앵커]
청각 장애인을 위한 자막·수어 방송이 이루어지고는 있지만, 그 비중은 아직 크지 않습니다.

일일이 방송 내용을 받아쳐서 자막을 달거나 수어 통역사가 있어야 하기 때문인데요.

앞으로는 AI가 음성을 듣고 실시간으로 자막이나 수어로 번역해 주는 일이 가능해질 것으로 보입니다.

염혜원 기자입니다.

[기자]
최근 들어 많은 사람들이 스마트 폰을 통해 미디어를 접합니다.

뉴스는 물론, 동영상 등 콘텐츠의 종류도 셀 수 없이 많습니다.

하지만 시청각 장애인들이 이용하기 건 거의 불가능에 가깝습니다.

음성지원이나, 자막, 수어 서비스가 충분하지 않기 때문입니다.

[변승일 / 한국농아인협회장 : 불편한 점은 정보 환경이라든지 그런 걸 듣지 못하는 것이 가장 불편하고요. 자막이 다른 화면과 겹치기 때문에 화면을 깨끗하게 보지 못하는 불편함도 있고요.]

인공지능, AI를 투입해보면 어떨까?

실시간으로 영상 속 음성을 자막으로 바꾸는 것이 1단계.

정부가 지난 2019년부터 개발 중인 이 기술은 스마트폰에 애플리케이션을 깔고 영상을 재생하면 AI가 알아듣고 바로 자막 올려주는 방식입니다.

"먼저 여야 의원들은 재보궐 선거 직전 터진 LH 땅 투기 의혹에 대한…."

여기서 더 나아가 자막 정보를 토대로 아바타가 수어 통역을 해주는 2단계 기술도 개발 중입니다.

수어 아바타는 좀 더 많은 학습을 통해 표정까지 살려내는 것이 관건입니다.

"너무 좋아요. 그런데 표정이 조금 아쉬움이 있고요. 동작이 좀 딱딱한 면이 있습니다."

음성뿐만 아니라 전화 벨소리, 물건 깨지는 소리 등 음향효과도 시각적으로 표현해주고, 시각 장애인들을 위해서는 외국어 콘텐츠를 우리 말로 읽어주는 서비스도 구상 중입니다.

[한상혁 / 방송통신위원장 : 새로운 기술을 사회적 격차 해소에 활용해서 격차를 줄일 수 있는 노력을 해 나간다는 차원에서 큰 의미가 있다고 생각하고요.]

방송통신위원회는 AI 학습량을 늘리고 추가 기술을 개발해 오는 2023년까지 서비스를 상용화하겠다는 목표입니다.

YTN 염혜원[hyewon@ytn.co.kr]입니다.


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]