가자에서 이란으로...'알고리즘 학살'의 비극

가자에서 이란으로...'알고리즘 학살'의 비극

2026.03.20. 오전 04:58.
댓글
글자크기설정
인쇄하기
AD
[앵커]
AI는 전쟁의 정밀도를 높여 민간인 피해를 최소화한다고 여겨지지만, 실상은 그렇지 않습니다.

인간이 AI의 오류를 의도적으로 무시한 채 버튼만 누르는 기계로 전락하면, 이른바 '알고리즘에 의한 학살'은 피하기 어렵게 됩니다.

고한석 기자가 보도합니다.

[기자]
2023년 10월에 개전해 2년 동안 이어진 이스라엘·하마스 전쟁.

이때 이스라엘이 사용한 AI는 라벤더였습니다.

이스라엘 독립언론과 영국 가디언이 정보 장교 6명의 증언, 비공개 자료 등을 분석한 결과입니다.

라벤더는 하마스 대원을 찾겠다며 가자지구 주민 230만 명의 데이터를 분석해 남성 3만 7천 명을 잠재적 암살 대상으로 분류했습니다.

암살 성공률을 높이기 위해 가족과 함께 있는 자택에서 공격하는 전략을 썼고, 고위 지휘관 한 명을 잡기 위해 민간인 100명의 희생을 허용했습니다.

이스라엘군 정보요원들이 라벤더의 판단에 따라 공격 버튼을 누르는 데 걸린 시간은 고작 20초.

라벤더의 오류 가능성을 알고 있었지만, 무시했습니다.

이 같은 '자동화된 대량 학살'의 결과로 가자지구에서만 3만 명 넘게 죽었고, 이 가운데 어린이와 여성이 70%에 이르렀습니다.

[가산 아부시타 / 국경 없는 의사회 (2023년 10월 20일) : 환자의 40%가 아이들이었고, 대부분 부모 가운데 한 명 또는 모두를 잃은 아이들이었습니다.]

이 위험한 '살상 알고리즘'은 이번 '이란 전쟁'으로 이어지며 규모를 더 키우고 있습니다.

미군은 프로젝트 메이븐 등 다양한 AI 시스템을 사용해 이란 전역에 폭탄을 뿌리고 있습니다.

[카트리나 맨슨 / 블룸버그 국가 안보·기술 전문 기자 (지난 13일) : 만약 AI가 민간인을 구하지 못하거나, 오히려 AI로 인한 오폭 사고가 발생한다면, AI가 전쟁을 더 쉽게 일으키는 것은 아닌지 근본적으로 재검토해야만 합니다.]

기술이 아무리 진보해도 전쟁의 참상은 사라지지 않습니다.

판단을 기계에 맡기는 인간의 무책임까지 겹쳐지면 비극은 더 커질 수밖에 없습니다.

YTN 고한석입니다.


영상편집 : 이은경
디자인 : 윤다솔


YTN 고한석 (hsgo@ytn.co.kr)

※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
AD