이 사이트의 기능을 모두 활용하기 위해서는 자바스크립트를 활성화 시킬 필요가 있습니다.
     브라우저에서 자바스크립트를 활성화하는 방법을 참고 하세요.

착한 인공지능 만드는 'AI 윤리 원칙'

동영상시청 도움말

Posted : 2018-03-13 02:01
앵커

인공지능 AI는 인류에게 축복이 될까요, 재앙이 될까요?

세계적 베스트셀러 '사피엔스'의 저자 유발 하리리는 인간이 어떤 의지를 갖고 인공지능을 통제할 것인지에 따라 그 향방이 결정될 것이라고 밝히기도 했는데요.

인류의 삶에 기여 하는 '착한 인공지능'을 만들어 가기 위한 움직임이 세계 각국에서 일고 있습니다.

이성규 기잡니다.

기자

지난해 미국 캘리포니아 아실로마에서 열린 컨퍼런스에서 각국 개발자들은 인공지능 개발에 대한 공동의 약속을 처음으로 내놓습니다.

이른바 '아실로마 AI 원칙'은 '착한 인공지능'을 지향하고 있습니다.

이 원칙은 연구 목표를 인류에게 유용하고 이로운 혜택을 주는 인공지능을 개발하는 것이라고 정의하고 있습니다.

또 인공지능이 불러올 위험에 대한 대비가 필요하며, 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다고 규정했습니다.

인공지능이 인류를 위협할 수 있다는 우려를 원천적으로 없애기 위해 전 세계가 함께 노력하자는 겁니다.

스티븐 호킹 박사 등 저명인사 2천여 명이 지지한 이 원칙은 또 인공지능 기술의 지속적인 발전을 위해 그 혜택을 전 인류가 공유해야 한다고 강조합니다.

[조성배 / 연세대 컴퓨터과학과 교수 : 인공지능이 완성됐을 때 인간의 기능을 대신하는 게 되니깐 부를 창출하는 데 도움이 될 텐데 인공지능을 활용하는 사람이 제한된다면 부의 편중이 일어날 수 있어서 어떻게 하면 여러 사람이 인공지능을 잘 활용해서 부를 공유할 수 있을까….]

앞서 구글과 마이크로소프트, 페이스북 등은 인공지능과 관련해 발생하는 윤리적 문제를 해결하기 위해 비영리단체를 결성했습니다.

'파트너십 온 AI'라는 이름의 이 단체는 인간과 AI의 협업을 위한 연구를 지원하고 AI가 인류와 사회에 미치는 영향을 논의하는 토론의 장도 제공합니다.

국내에서는 카카오가 처음으로 AI 윤리헌장을 발표했습니다.

AI 기술의 목표를 인류의 편익과 행복 추구로 명시한 이 헌장은 기술에 따른 혜택이 사회 각 구성원에게 차별 없이 돌아가야 한다고 밝혔습니다.

하루가 다르게 발전하며 의학과 법률, 금융 등 사회 전 분야로 영역을 넓혀가고 있는 AI.

아직 태동 단계지만 AI 윤리원칙을 시작으로 인간과 로봇의 공존을 위한 고민이 사회 전체로 확산하고 있습니다.

YTN 사이언스 이성규[sklee95@ytn.co.kr]입니다.
댓글등 이미지 배경