착한 인공지능 만드는 'AI 윤리 원칙'

착한 인공지능 만드는 'AI 윤리 원칙'

2018.03.13. 오전 02:01
댓글
글자크기설정
인쇄하기
AD
[앵커]
인공지능 AI는 인류에게 축복이 될까요, 재앙이 될까요?

세계적 베스트셀러 '사피엔스'의 저자 유발 하리리는 인간이 어떤 의지를 갖고 인공지능을 통제할 것인지에 따라 그 향방이 결정될 것이라고 밝히기도 했는데요.

인류의 삶에 기여 하는 '착한 인공지능'을 만들어 가기 위한 움직임이 세계 각국에서 일고 있습니다.

이성규 기잡니다.

[기자]
지난해 미국 캘리포니아 아실로마에서 열린 컨퍼런스에서 각국 개발자들은 인공지능 개발에 대한 공동의 약속을 처음으로 내놓습니다.

이른바 '아실로마 AI 원칙'은 '착한 인공지능'을 지향하고 있습니다.

이 원칙은 연구 목표를 인류에게 유용하고 이로운 혜택을 주는 인공지능을 개발하는 것이라고 정의하고 있습니다.

또 인공지능이 불러올 위험에 대한 대비가 필요하며, 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다고 규정했습니다.

인공지능이 인류를 위협할 수 있다는 우려를 원천적으로 없애기 위해 전 세계가 함께 노력하자는 겁니다.

스티븐 호킹 박사 등 저명인사 2천여 명이 지지한 이 원칙은 또 인공지능 기술의 지속적인 발전을 위해 그 혜택을 전 인류가 공유해야 한다고 강조합니다.

[조성배 / 연세대 컴퓨터과학과 교수 : 인공지능이 완성됐을 때 인간의 기능을 대신하는 게 되니깐 부를 창출하는 데 도움이 될 텐데 인공지능을 활용하는 사람이 제한된다면 부의 편중이 일어날 수 있어서 어떻게 하면 여러 사람이 인공지능을 잘 활용해서 부를 공유할 수 있을까….]

앞서 구글과 마이크로소프트, 페이스북 등은 인공지능과 관련해 발생하는 윤리적 문제를 해결하기 위해 비영리단체를 결성했습니다.

'파트너십 온 AI'라는 이름의 이 단체는 인간과 AI의 협업을 위한 연구를 지원하고 AI가 인류와 사회에 미치는 영향을 논의하는 토론의 장도 제공합니다.

국내에서는 카카오가 처음으로 AI 윤리헌장을 발표했습니다.

AI 기술의 목표를 인류의 편익과 행복 추구로 명시한 이 헌장은 기술에 따른 혜택이 사회 각 구성원에게 차별 없이 돌아가야 한다고 밝혔습니다.

하루가 다르게 발전하며 의학과 법률, 금융 등 사회 전 분야로 영역을 넓혀가고 있는 AI.

아직 태동 단계지만 AI 윤리원칙을 시작으로 인간과 로봇의 공존을 위한 고민이 사회 전체로 확산하고 있습니다.

YTN 사이언스 이성규[sklee95@ytn.co.kr]입니다.


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]