1967년 철학자 필리파 풋(Philippa Foot)이 제시한 사례다. 고장난 트롤리(Trolley, 열차의 일종)가 선로 위 작업인부 5명을 향해 돌진하고 있다. 기관사가 선로를 변경하지 않으면 5명은 죽는다. 기관사가 선로를 변경하면 다른 선로 위에 있는 인부 1명이 죽게 된다. 5명을 구하기 위해 1명을 죽인다면 도덕적인가, 1명을 살리기 위해 5명을 죽인다면 도덕적인가. 인공지능(AI)이 트롤리를 운전한다면 어떤 선택을 하도록 알고리즘을 설정해야 할까.
자율주행차량이 현실화하고 있다. 운전자가 브레이크, 핸들, 가속페달을 제어할 필요가 없다. 차량이 도로 상황을 스스로 파악해서 달린다. 주행시스템은 자동차 간 거리를 자동으로 유지한다. 경보시스템은 후진 중 주변 차량을 감지하고 위험을 알린다. 제동시스템은 앞차를 인식하지 못할 경우에 멈추게 한다.
차로이탈 경보 및 차로유지 시스템은 방향지시등 없이 차로를 벗어나는 것을 막는다. 크루즈 컨트롤시스템은 정해진 속도로 차량 간 거리를 유지하며 달리게 한다. 2016년 2월 자동차관리법 개정으로 자율주행차량의 도로주행이 가능해졌다. 현대자동차 제네시스는 가장 먼저 도로주행 허가를 받았다.
자율주행차량은 왜 나왔을까. 기업이 돈을 벌기 위해 나왔을까. 단지 그 목적이면 당장 자율주행사업을 접어야 한다. 2021년 2월24일 경찰청이 발표한 교통사고 사망자는 매년 줄고 있다. 그러나 2020년에만 3079명이다. 이 숫자를 줄이고 없애는데 목적을 둬야 한다.
플라톤은 인간이 도덕적이지 못한 이유를 도덕이 뭔지 모르기 때문이라고 진단했다. 도덕의 본질은 정신세계가 옳바른 삶이라고 했다. 사람에게 도덕을 가르쳐야 하고, 철인정치가 필요하다고 했다. 아리스토텔레스는 인간이 도덕은 무엇인지 알지만 실천을 하지 못한다고 탓했다. 주어진 상황에서 가장 도덕적인 행동을 할 줄 아는 중용과 덕성을 쌓아야 한다고 했다. 헤겔은 뭐라고 했을까. 인간은 도덕을 알고 실천할 수 있다고 했다. 그러나 도덕법칙 간 충돌이 발생하는 것이 문제라고 했다. 옳은 일을 하는 방법이 두 가지 이상 있을 때 어느 것을 선택하는 것이 더욱 도덕적인지, 하나의 도덕을 선택함으로써 다른 도덕을 포기해도 되는지 판단하기 쉽지 않다는 것이다. 니체의 말도 들어보자. 니체는 도덕의 기원을 노예의 주인에 대한 원한 감정(르상티망)이라고 했다. 강자를 상대로 어쩔 수 없이 취해야 하는 포기, 인내, 용서에서 발생하는 분노가 원천이라고 했다. 부도덕한 강자는 하늘의 심판을 받고 자신들은 천국에 간다.
트롤리 사례에서 우리는 사람을 살리는 것이 도덕인 줄 알고 실천할 준비도 돼 있다. 문제는 5명을 구하는 것이 도덕인지 1명을 구하는 것이 도덕인지 모호하다는 것이다. 사람의 가치는 1명이든 5명이든 모두 중요하다. 벤덤의 공리주의를 취해서 5명의 가치가 더 중요하다고 단정할 수 없다. 기관사가 선로를 변경하는 행동을 취해야 도덕인지 가만히 있어야 도덕인지도 문제다. 기관사는 열차를 운전하는 권한과 사람을 다치게 하지 않을 의무가 있다. 아무런 행동에 나서지 않는다고 도덕적이진 않다. 2018년 미국 매사추세츠공대와 하버드대 연구진의 설문조사에선 동물보다 인간, 소수보다 다수, 남자보다 여자, 승객보다 보행자, 범죄자보다 개를 우선하는 경향이 높았다. 이 결과가 도덕적이라고 단정할 수 없다. 트롤리 사례에서 AI가 어떤 결정을 하도록 알고리즘을 짤 필요가 있을까. 미래에는 AI 기술로 트롤리 딜레마 자체를 만들지 말아야 한다. AI가 학습결과를 바탕으로 현장에서 스스로 응급조치를 취할 수 있어야 한다. 그 결과가 정당한지 사후적으로 판단하면 된다. 인명을 중시하는 자율주행기술, 그것이야말로 니체가 말했듯 강자가 지켜야 할 도덕이다.
이상직 법무법인 태평양 변호사('나는 인공지능을 변호한다' 저자) sangjik.lee@bkl.co.kr