AD
전 세계에서 월간 사용자가 10억 명을 넘어서는 유명 SNS 인스타그램이 사용자 보호를 위해 자해 관련 이미지를 모두 삭제한다.
8일 영국 BBC는 아담 모세리(Adam Mosseri) 인스타그램 CEO가 인스타그램 내 자해와 관련된 모든 이미지를 삭제할 계획을 밝혔다고 전했다. 이는 지난 2017년 스스로 목숨을 끊은 14세 소녀 몰리 러셀(Molly Russell)의 사망 사고에 따른 후속 조치다.
당시 사망한 몰리 러셀의 아버지 이안 러셀(Ian Russell)은 몰리가 스스로 목숨을 끊기 전 인스타그램 속 자해 관련 이미지에 지속해서 노출됐으며, 이에 몰리가 영향을 받았다고 주장해왔다.
인스타그램의 새로운 정책이 알려진 후 이안은 "온라인 공간이 어린이들이나 상처 입기 쉬운 이들에게 안전한 공간이 될 수 있도록 소셜미디어들은 책임을 다해야 한다"며 인스타그램의 정책에 환영의 뜻을 밝혔다.
맷 핸콕(Matt Hancock) 영국 보건부 장관 역시 "그런 종류의 이미지들을 삭제하는 것은 인스타그램의 의무"라고 말했다. 이어 "소셜미디어 사용자들을 보호할 의무가 있으며 필요한 경우 법률 제정도 준비해야 한다"고 덧붙였다.
인스타그램은 지금까지 일반 사용자들의 신고 등으로 자해 관련 이미지를 선별해왔다. 그러나 모세리 CEO는 가까운 미래에 사진을 선별할 수 있는 기술을 도입해 이 문제를 해결하겠다고 알렸다.
모세리 CEO에 따르면 인스타그램은 가능한 이른 시일 내에 자해 관련 이미지 제거 작업에 착수할 방침이다. 이번 조치에 따라 향후 인스타그램에서는 자해 관련 이미지의 검색과 추천 역시 금지된다.
YTN PLUS 김성현 기자 (jamkim@ytnplus.co.kr)
"우울감 등 말하기 어려운 고민으로 전문가의 도움이 필요한 경우 자살예방상담전화 1393, 생명의 전화 1588-9191, 청소년 전화 1388 등에 전화하여 24시간 상담을 받을 수 있습니다."
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]