[시선뉴스 이호 / 디자인 이연선] 최근 A.I(인공지능)를 적용한 자율주행자동차가 시판을 위해 시범주행을 하고 있고 최신 차량들은 자동주행 옵션이 탑재되어 판매되고 있다. 이런 가운데 자율주행자동차의 트롤리 딜레마가 이슈가 되고 있다.

트롤리 딜레마란 윤리학에서의 사고 실험 중 하나로 다섯 사람을 구하기 위해 한 사람을 희생시켜야 하는 것이 도덕적으로 허용이 가능한 지에 대한 고찰이다.

이 실험은 영국의 철학자 필리파 풋(Philippa Foot)과 미국의 철학자 주디스 자비스 톰슨(Judith Jarvis Thomson)이 고안한 사고실험으로 만약 브레이크가 고장 난 트롤리 기차가 달리고 있을 때 그대로 직진을 하면 레일 위에서 일하고 있는 5명의 인부가 사망하게 되고 레일 변환기로 방향을 바꾸면 인부 1명이 사망한다고 가정했을 때 어떤 선택을 하는 것이 윤리적인 가를 묻는 실험이다.

필리파 풋이 처음 이 실험을 했을 때 응답자의 89%는 방향을 바꾸어 5명을 살리고 1명을 희생시켜야 한다고 답했다.

톰슨은 이 실험에서 한 가지 상황을 더했다. 이전 상황과 똑같이 브레이크가 고장 난 트롤리 기차가 달리고 있을 때 그대로 두면 5명의 인부가 사망한다. 그리고 육교 위에는 당신을 포함한 2명의 사람이 있는데 트롤리 기차는 당신의 몸무게로는 멈출 수 없지만 옆에 있는 몸무게가 많이 나가는 사람이 그 위로 떨어지면 확실히 멈출 수 있는 상황이다. 그렇다면 당신은 그 사람을 떠밀어 기차를 세워 5명의 인부를 살릴 것인가?

재미있게도 이 실험의 결과는 첫 번째 실험과는 다른 결과가 나왔다. 이 상황에 대해서는 응답자들의 78%가 옆의 사람을 떠밀어서는 안 된다고 답한 것이다. 위의 실험과 대부분의 조건은 같은데도 불구하고 이번에는 5명이 희생되는 것을 선택했다.

서로 유사한 상황에 희생되는 사람의 숫자는 같은데 왜 다른 결과가 나온 것일까? 그 이유는 살리느냐 죽이느냐에 대한 초점이 서로 다르기 때문이다. 첫 번째 실험에서는 5명의 인부를 ‘살린다’는 것에 초점이 맞춰져 있다면 두 번째 실험에서는 1명의 사람을 ‘죽인다’는 것에 초점이 맞춰져 있다.

첫 번째 실험은 한 사람의 생명을 다섯 사람의 생명을 살리기 위해 희생시킨다는 느낌이지만 두 번째 실험은 다섯 사람을 살리기 위해 한 사람을 죽이는 행위가 된다.

미국의 심리학자 조슈아 그린(Joshua Greene)은 fMRI(기능성 자기공명영상)로 응답자의 뇌 활동도를 조사했는데 첫 번째 실험에서는 이성적인 의사결정에 관여하는 전전두엽 부위가 활성화되었고 두 번째 실험에서는 정서적인 의사결정에 관여하는 편도체 부위가 활성화된 것으로 나타났다. 즉 위 실험은 인간이 윤리적인 선택을 해야 할 때 간접적인 ‘선택’을 하느냐 직접적인 ‘행위’를 하느냐에 따라 뇌가 반응 하는 곳이 달라지고 선택 자체도 달라진다는 것을 보여준 것이다.

이 트롤리 딜레마를 인공지능과 결부시켜 보자. 자율주행자동차와 같이 사람의 생명에 직접적인 영향을 끼칠 수 있는 인공지능 알고리즘은 위 실험과 같이 선택을 해야 하는 상황이 됐을 때 어떤 기준으로 판단을 하게 할지가 중요 이슈다.

일부 자동차 업체들은 상대적 약자인 보행자를 우선으로 한 판단을 하게끔 알고리즘을 구성하였고 일부 업체들은 승객을 우선으로 판단하도록 알고리즘을 구성한다. 또 일부 업체에서는 트롤리 딜레마가 발생하지 않게 사고 방지가 완벽하다고 자신하기도 한다. 운전자의 입장에서는 승객 우선 알고리즘을 원할 것이고 보행자 입장에서는 보행자 우선 알고리즘을 적용할 것을 요구할 것이다. 어찌 됐건 이 기준을 잡아야 할 것인데 이 문제는 아직 인간에게도 딜레마로 남아 있어 섣불리 선택하는 것 자체가 어렵다고 할 수 있다.

인간도 아직 명확한 해답을 찾지 못한 윤리적 선택의 딜레마. 과연 A.I는 이 딜레마마저 극복할 수 있을까? 인간의 윤리적 고뇌를 A.I가 어떻게 받아들이고 답을 낼지 기대와 우려가 동시에 되고 있는 시점이다. 

SNS 기사보내기