[AI 스페셜리포트]<2>인공지능이 일으킨 손해 책임은 어디에?

스페셜리포트<2>인공지능 일으킨 손해는 전자인격이 배상할 것인가?

오병철 인공지능 법제도연구포럼 위원장(연세대 교수 windoh@yonsei.ac.kr )

[AI 스페셜리포트]<2>인공지능이 일으킨 손해 책임은 어디에?

◇코로나19로 야기된 인공지능 로봇과 접촉(contact) 트렌드

2020년을 맞이하기 전까지는 아무도 예상하지 못했던 위기와 혼란이 지구를 덮고 있다. 성미 급한 사람은 이제 세상은 BC(Before 코로나19)와 AC(After 코로나19)으로 구분될 것이라고 한다. 누구도 이 사태가 일어날 것이라고 예상하지 못한 것처럼, 누구도 이 위기가 언제 끝날 것인지 알지 못한다. 명확한 해결책도 없고 또 언제 끝날지도 모르는 위험에서 '사회적 거리두기'로 자신과 사회 전체를 바이러스로부터 지켜내고 있다.

'비접촉(uncontact)'은 세계 트렌드로 빠르게 자리를 잡고 있다. 코로나19로 야기된 비접촉 트렌드는 바이러스에 감염되지 않는 인공지능(AI) 로봇 시대 도래를 재촉할 것이다. 로이터통신에 따르면 이탈리아 북부 한 병원에 한 의사의 아들 이름을 딴 '토미'라는 간호 로봇이 배치돼 의료진을 대신해 환자가 있는 병동을 돌아다니는 임무를 맡고 있다. 아직 의료진을 완벽히 대체할 수준의 AI 소프트웨어(SW)와 로봇 하드웨어(HW)를 갖추지는 않았다. 사회 전 분야에서 AI 로봇 활용에 대한 요구와 기대가 커지면, 일상생활에서 AI 로봇과 접촉이 또 하나의 트렌드로 나타날 것임은 분명하다.

◇AI 로봇이 사고뭉치라면

특정한 분야에서 잘 만들어진 AI 로봇 능력은 인간 전문가를 능가할 수 있음은 알파고의 바둑 실력을 통해 확인했다. 지금 이 시각에도 AI가 주식투자도 하고 진료와 처방과 같은 의료행위도 하며 복잡한 시가지에서 운전도 한다. 특히 전염병이나 방사능으로 오염된 장소나 교전이 벌어지는 전쟁터 같은 극한상황에서는 AI 로봇은 인간으로서 결코 해낼 수 없는 엄청난 능력을 발휘할 수 있다.

그러나 AI와 접촉은 늘 밝은 빛만 있는 것은 아니다. 사람 중에 말썽꾸러기가 있는 것처럼, 문제를 일으키는 AI 로봇이 결코 없다고 단언할 수는 없다. 일종의 '달리는 AI 로봇'이라고 할 수 있는 자율주행 자동차가 교통사고를 일으켰다는 보도는 쉽게 찾아볼 수 있다. 앞서 소개했던 이탈리아의 '토미'와 같은 AI 간호 로봇이 환자에게서 채혈을 하는 중에 갑자기 환자에게 치명적인 상해를 입힌다고 가정해보자. 이제 AI 간호 로봇이 환자에게 발생시킨 손해에 대해 누가 무엇을 근거로 배상책임을 져야 하는가의 까다로운 법률문제가 등장한다.

◇로봇이 일으킨 손해에 대한 과실책임주의 적용의 한계

프랑스 대혁명 이후 오늘날까지 불법행위 영역에서는 과실책임의 원칙이 지배적으로 적용됐다. 즉 법익보유자에게 생긴 손해를 타인에게 전가하기 위해서는 타인의 고의 또는 과실에 의한 위법행위로 인해 손해가 발생한 것이어야만 한다. 만약 손해를 일으킨 자에게 고의 또는 과실이라는 귀책사유가 없는 한, 손해는 법익보유자가 스스로 부담할 수밖에 없다. 과실책임주의를 적용한다면, AI 간호 로봇이 환자에게 치명적인 상해를 입혔을 때 누군가의 고의 또는 과실이라는 귀책사유를 환자가 증명하는 경우에만 손해배상을 받을 수 있다.

현실적으로 환자는 AI 로봇이 자신을 가격하는 작동을 한 것이 누군가의 고의 또는 과실임을 증명할 수 있을까. 환자가 AI 로봇에 내장된 AI 알고리즘을 이해할 수 있을까. 설령 이해한다고 하더라도 그 소스 코드에 접근할 가능성이 있을까. 환자가 AI 알고리즘을 잘못 짠 프로그래머의 과실을 증명하는 것은 기대하기 어렵다. 또 환자가 AI SW가 로봇 HW를 물리적으로 통제하는 장치를 제작한 간호 로봇 회사의 과실을 찾아내서 증명하는 것도 어려운 일이다.

간호 로봇을 구입해 환자를 돌보는 데 활용하는 병원 측에게 과실이 있어서 AI 로봇이 자신에게 상해를 입혔다는 점을 환자가 증명하는 것은 더 어려운 일이다. 왜냐하면, 별도 인간의 조작행위 없이 내재된 AI 알고리즘에 의해 간호 로봇이 작동되기 때문에 병원은 간호 로봇을 구입한 상태 그대로 의료현장에 투입하였을 뿐이기 때문이다.

마치 자율주행 자동차를 구입해 뒷좌석에 탑승한 소유자는 어떠한 조작도 하지 않는 것과 같다. 환자는 고의 또는 과실이라는 규범적인 귀책사유를 증명하기에 앞서서 누구를 가해행위자로 지목할 것인가에서 난관에 봉착하게 될 것이다. 결국, 과실책임주의를 관철하는 한, 환자는 가해행위자의 특정조차 하지 못하고 손해를 스스로 부담하게 될 것이다. 과연 그러한 귀결이 '손해의 공평한 분담'이라는 불법행위법의 이념에 부합한다고 할 수 있을 것인가. '손해의 억울한 감수'가 아닐 수 없다.

◇AI 로봇에 전자인격을 부여해도 문제는 여전히 남아

AI 로봇이 일으킨 손해를 둘러싼 지난한 법률문제 해법은 크게 두 갈래 방향으로 구분해 볼 수 있다. 하나는 AI 로봇에 법적 책임을 지우는 방안이고, 또 다른 하나는 과실책임주의가 아닌 새로운 손해배상의 책임원리를 설정하는 것이다. 먼저 AI 로봇에 배상책임을 전가하는 방안을 살펴보자.

AI 로봇에 이른바 전자인격을 부여해 AI 로봇이 야기한 손해는 AI 로봇이 자기의 책임재산으로 배상하도록 하자는 주장이다. 우리나라에 전자인격에 관한 논의를 촉발시킨 계기는 2017년 EU의 '로봇의 민사법적 규율(Civil Law Rules on Robotics)'이라는 유럽의회 결의안을 발표한 것이었다. 결의안이 마치 EU가 AI 로봇에 전자인격을 인정한 것으로 오해하기도 했으나, 엄밀하게는 '만약 AI 로봇에 대해 전자인격을 적용하는 경우에 영향을 분석할 것을 집행위원회에 촉구한 것'에 불과하다. AI 로봇에 대해 전자인격을 인정해 책임재산으로 손해배상 문제를 해결하자는 입장에 따르면, 자연인이 아닌 법인에도 권리능력을 인정하고 있으므로 AI 로봇에도 권리능력을 인정하지 못할 까닭이 없다고 한다.

그러나 법인이 권리능력 있는 법적 주체가 된다고 하더라도 법인의 구체적인 행위는 그 대표기관인 자연인이 하고 법률효과만 법인에 귀속되는 것이다. 반면에 AI 로봇은 HW 기계장치를 통해 자연인의 관여나 개입 없이 직접 외적인 변화를 가져오는 작동을 한다. 따라서 법인의 경우에는 법인 대표기관인 자연인의 행위를 대상으로 전통적인 귀책사유 판단이 가능하지만, AI 로봇의 작동을 대상으로 해서는 전통적인 귀책사유 판단이 현실적으로 불가능함을 살펴본 바와 같다.

한편으로는 로마제국에서 노예의 경우에 피지배계급으로서 법인격이 없었으나 예외적으로 가재도구와 같은 재산에 대해서는 제한적으로 소유권을 인정받고 상속도 가능했다는 점을 들어서 AI 로봇이 설령 물건이라도 책임재산을 소유할 수 있을 것이라는 견해도 있다.

그러나 노예는 계급사회의 성격상 법적으로는 완전한 법인격이 인정되지 못했지만, 로마 시민과 마찬가지로 혼인도 하고 자녀를 낳아 가족을 이루고 생활했으므로, 일정한 정도의 소유권은 계급적 지배 질서의 재생산을 위해서는 불가피한 것이었다. 하지만 AI 로봇은 혼인이나 출산도 하지 않고 또 가족을 이루지도 않는다. AI 로봇의 본질은 오로지 인간의 편익을 위해 제작돼 작동하는 기계장치일 뿐이다. 따라서 로마 시대의 노예와 AI 로봇을 동일시하는 관점은 수용하기 어렵다.

AI 로봇에 전자인격을 부여해 손해배상책임 주체로 취급하는 방안의 결정적인 문제는 어떻게 전자인격이 자신의 책임재산을 형성할 것인가에 있다. 전자인격이 손해배상책임을 지기 위해서는 반드시 자신의 책임재산을 보유하고 있어야 한다. 만약 전자인격이 채무를 변제할 자력이 없다면 불법행위에 따른 민사책임은 무의미하게 된다. 전자인격이 책임재산을 형성하는 방법은 둘 중 하나일 것이다. 그 하나는 소유자가 전자인격에 책임재산으로 활용하도록 증여하는 것이고, 다른 하나는 전자인격이 스스로 대외적인 경제활동을 하고 그 수입을 자신의 책임재산으로 형성하는 것이다.

먼저 소유자가 전자인격에게 책임재산을 증여하고 그 돈으로 전자인격이 피해자에게 배상한다면, 실질적으로는 소유자가 손해배상책임을 직접 부담하는 것과 아무런 차이가 없다. 불필요하게 우회적인 손해배상일 뿐이다. 전자인격이 보유한 책임재산을 한도로 배상하고 초과하는 손해는 피해자가 부담하도록 유한책임을 인정한다면 실익이 있겠지만, 이는 손해의 '공평한' 분담이라고 볼 수 없다. 이렇게 되면 소유자가 매우 적은 액수만 형식적으로 전자인격의 책임재산으로 증여하고 나서는 유한책임을 주장하는 도덕적 해이 현상까지 초래할 위험이 있다.

그렇다면 전자인격이 대외적인 경제활동을 하고 그 수입을 자신의 책임재산으로 형성하는 것은 어떠한가? 예를 들어 전자인격이 있는 AI 로봇을 소유하는 자가 전자인격을 활용하지 않는 심야에 편의점의 종업원으로 취업시키고 그 임금을 전자인격에게 귀속시키는 것이다. 흥미로운 상상이지만, 실질적으로는 전자인격을 인정하지 않더라도 결과에서는 차이가 없다.

AI 로봇을 물건으로 취급하더라도 소유자가 편의점 종업원으로 작동하도록 편의점 주인에게 AI 로봇을 대여하고 그 차임을 소유자가 갖고, 자신의 물건인 AI 로봇이 야기한 손해도 소유자가 그 차임으로 배상하는 것과 아무런 차이가 없다. 역시 불필요한 우회적인 법리구성일 뿐이다. 만약 소유자 의사에 기하지 아니하고 전자인격이 책임재산을 형성하기 위해 외부적인 경제활동을 한다면 더 큰 문제가 된다. 전자인격이 소유자 통제권을 벗어나거나 소유자 의사에 반하는 임의의 활동을 하는 것이기 때문이다. 소유자가 자는 새벽에 소유자 몰래 집 밖으로 나가서 책임재산 형성을 위한 경제활동을 하고 소유자가 일어나기 전에 집으로 돌아와 아무 일도 없었다는 듯이 앉아 있는 전자인격을 상상하는 것은 끔찍한 일이다.

◇새로운 귀책원리로서 '편익책임주의' 제안

과실책임주의가 불법행위 책임귀속의 원리로 지배해 왔으나, 과학기술이 발달된 현대사회에서는 적용에 한계가 노정됐다. 이에 '고의 또는 과실'이 아니라 다른 책임귀속원리를 찾게 됐다. 먼저 원자력, 가스, 전기, 비행기 등과 같이 아무리 주의를 다해도 손해발생을 완전히 회피하기 어려운 특수한 위험을 내포하는 위험원이 실제로 손해를 발생시켰을 때, 위험원을 지배 관리하고 있고 위험원을 자신의 이익을 위해 의식적으로 운영하는 자가 그 손해를 부담하도록 하는 위험책임주의가 있다.

그러나 AI 로봇은 전통적인 기기에 비해 위험의 크기가 현저히 더 큰 것도 아니고 위험 발생가능성도 더 높다고 보기 어렵다. 오히려 위험 발생 가능성은 인간이 조작하는 기존 기계장치에 비해 낮으리라는 것이 일반적인 통념이다. 예를 들어 자율주행 자동차가 운전자가 조작하는 전통적인 자동차보다 더 위험하다면 자율주행 자동차의 운행을 사회가 허용하지 않을 것임은 명백하다. 그러므로 AI 로봇이 야기한 손해에 대해 위험책임주의를 적용하는 것은 설득력이 약해 보인다.

또 다른 책임원리로서는 이익을 얻는 과정에서 타인에게 손해를 끼치었다면 손해는 이익 중에서 배상하게 하는 것이 공평하다는 보상책임주의가 있다. 즉 보상책임주의는 '이익이 있는 곳에 부담을(Ubi emolumentum ibionus)'이라는 유명한 법언으로 표현된다. 보상책임주의는 주로 사용자와 피용자의 관계 또는 기업적 이익을 중심으로 형성돼온 것이지만, AI 로봇의 경우에는 경제적 이익이 존재한다기보다 생활상의 일상적 편익에 더 가까운 활용이 상당한 비중을 차지할 것으로 생각된다.

보상책임주의 책임 근거는 특정 주체의 전유적인 경제적 이익이 중심인 반면에 AI 로봇은 사회 전체의 효용 극대화를 위한 하나의 시대적 트렌드에 가깝다고 생각된다. 보상책임주의 역시 AI 로봇이 야기한 손해의 배상원리로서는 거리가 있다.

AI 로봇을 도입하는 가장 큰 이유는 인간의 노동력을 대체하는 편익을 누리기 위한 것이다. 전통적 기계장치보다 AI 로봇이 더 안전할 것이라는 신뢰와 로봇이 기존의 인간에 의해 조작되는 기계장치보다 더 편리하다는 인식 그리고 전통적인 기기보다 경제적이라는 판단이 배경을 이룬다. 그러므로 책임귀속의 근거도 특정인이 편익을 추구하기 위해 로봇의 도입을 통해 자신의 행위를 대체한 데서 찾는 것이 타당하다. 즉 로봇의 안전성, 편의성, 효율성을 판단해 로봇을 도입하기로 한 의사결정에서 책임근거를 찾는다면, 이는 기존의 위험책임주의나 보상책임주의와는 완전히 구별되는 것이라고 할 수 있다. 이를 '편익책임(benefit liability)'이라고 명명할 수 있을 것이다. 따라서 AI 로봇이 야기한 손해는 자신을 위해 AI 로봇을 도입해 활용하는 자가 편익을 누리고 있다는 점을 근거로 손해배상책임을 부담하도록 하는 편익책임을 새로운 과책원리로 고려해 볼 필요가 있다.

◇“It's the insurance, stupid”

AI 로봇이 발생시킨 손해에 대해 AI 로봇으로부터 편익을 얻는 자가 배상책임을 부담해야 한다면, 일종의 무과실책임으로 결과책임 성격을 갖기 때문에 손해를 사회화할 필요도 있다. AI 로봇은 하나하나 개성이 있는 주문 제작이라기보다 공장에서 대량으로 동일한 제품으로 생산될 가능성이 크다. 만약 하나의 AI 로봇이 손해를 발생시키는 작동을 했다면, 동일한 종류의 AI 로봇은 모두 그러한 문제를 일으킬 소지가 다분하다. 따라서 AI 로봇의 손해는 대규모로 반복적으로 발생할 위험이 크다.

대규모의 손해를 편익책임주의에 따라 개인이 전부 배상하는 것은 경제적으로 매우 부담이 된다. 자동차 손해보험이 그러하듯 결국 일상생활에 널리 보급된 AI 로봇에 대해서는 보험제도를 통해 손해를 사회화하는 것이 가장 효과적이고 실현 가능한 방안이 될 가능성이 크다. 누가 얼마만큼 보험료를 어떤 기준으로 부담할 것인가를 과학적으로 정교하게 다듬는 것이 새로운 귀책원리를 수립하는 것보다 현실적으로는 더 긴요한 일이 될 수도 있다.