구글이 글로벌 자문기구를 발족한 ‘인공지능 윤리’란? [지식용어]
구글이 글로벌 자문기구를 발족한 ‘인공지능 윤리’란? [지식용어]
  • 보도본부 | 이호 기자
  • 승인 2019.03.27 15:59
  • 댓글 0
이 기사를 공유합니다

[시선뉴스 이호] 현지시간으로 26일 켄트 워커 구글 수석 부회장은 미국 샌프란시스코에서 열린 매사추세츠공과대학 콘퍼런스에서 인공지능(AI)을 비롯한 미래기술에 윤리성을 확보하기 위한 글로벌 고문단을 구성했다고 밝혔다. 

첨단기술 외부 자문 협의회(ATEAC)로 명명된 이 기구에는 기술 전문가, 디지털 윤리학자, 공공정책을 입안한 경력이 있는 이들이 포진됐으며 이들은 차세대 기술의 핵심인 AI를 비롯한 제반 신흥기술에서 파생되는 윤리적 문제를 논의하기로 했다.

특히 이 기구에서는 논란이 되는 안면인식, 머신러닝 알고리즘 등이 주요 논의 대상에 포함될 것으로 관측되고 있으며 협의회는 논의 결과를 담은 보고서를 올해 말 발간할 예정이다. 또한 이들은 구글뿐만 아니라 다른 회사, 차세대 기술 연구원들에게도 권고를 전달하기로 했다.

픽사베이
픽사베이

인공지능 윤리란 인공지능을 활용할 때 지켜야 하는 윤리적인 원칙을 지키는 것을 말한다. 

AI는 인간의 사고를 모방하여 지능적인 행동을 취하도록 하는 기술이기 때문에 살상무기에 접목이 되거나 일상에서 사생활 침해, 차별, 불공정 같은 다수의 도덕적 문제를 일으킬 수 있다는 우려를 산다. 하지만 현재까지는 대다수의 국가들이 AI 활용을 기업 자율에 맡기고 있는 실정이다. 

실제로 구글은 무인공격기의 성능을 높이기 위한 미국 국방부의 계획인 '프로젝트 메이븐'에 관여했다가 비판을 받은 뒤 윤리적 AI를 포용하겠다고 선언한 바 있었고 그로 인해 이번 협의회를 발족시킨 것이다. 구글은 현재 AI를 무기 개발에 사용하지 않는다는 등의 내용이 담긴 내부 원칙을 이미 보유하고 있다.

이에 일본 정부는 지난해 AI활용에 있어 지켜야 할 7개의 윤리지침을 발표했다. 
1. AI는 인간의 기본적 인권을 침해하지 않는다. 
2. 누구나 이용할 수 있도록 충실한 교육을 실시한다. 
3. 신중한 개인정보 관리를 한다. 
4. AI의 보안조치를 확보한다. 
5. 공정한 경쟁 환경을 유지한다. 
6. AI를 활용한 기업에 결정과정에 대한 설명 책임을 부과한다. 
7. 국경을 초월한 데이터 이용환경을 정비한다.
일본 정부는 이러한 원칙을 기준으로 삼아 관련 법 정비에도 나설 계획이며 일본에서 활동하는 글로벌 기업들도 해당 원칙을 예외 없이 적용해야 한다.

일본에 이어 구글 역시 인공지능 윤리에 대한 중요성에 대한 고찰을 하기 시작했다. AI의 윤리적 문제는 예전부터 SF영화의 주요 단골 소재였다. 고도화된 AI가 윤리적인 문제에서 이탈해 버리면 인류 멸망의 원인이 된다는 것이다. 기술의 발전과 편리함을 주는 동시에 그만큼 위험도가 클 수 도 있는 인공지능. 우리도 AI를 차세대 기술 발전의 지표로 삼고 있는 만큼 윤리적인 문제를 해결할 수 있는 슬기로운 방법을 모색해야 할 것이다.  


닫기