인공지능 활용한 '딥페이크 영상' 1년 만에 400% 폭증

인공지능 활용한 '딥페이크 영상' 1년 만에 400% 폭증

2024.05.02. 오후 3:17
댓글
글자크기설정
인쇄하기
AD
인공지능 기술을 이용해 가짜로 성적인 사진이나 영상을 만드는 이른바 '딥페이크' 영상물이 1년 만에 4배나 폭증한 것으로 나타났습니다.

방송통신심의위원회는 지난 1월부터 4월까지 K팝 아이돌이나 연예인의 사진을 활용해 만든 성적 허위영상물 4천691건을 적발해, 시정을 요구했다고 밝혔습니다.

방심위는 유명인뿐 아니라 청소년과 일반인을 대상으로 한 성적 허위영상물도 확인되는 등 유포 확산이 우려되는 상황이라고 지적했습니다.

이에 따라 성적인 허위 영상물을 발견한 경우 즉시 방심위로 신고해달라며 유통 사이트 등도 신속히 차단해 피해 최소화에 주력하겠다고 밝혔습니다.


YTN 김태민 (tmkim@ytn.co.kr)

※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
YTN 프로그램 개편 기념 특별 이벤트