[데스크라인]도덕적 로봇을 생각한다

[데스크라인]도덕적 로봇을 생각한다

‘로봇이 시민권 요구하며 거리 행진!’ ‘군사법원, 로봇해방군을 집단학살 혐의로 기소’ ‘가상거래로봇이 통화시장에서 사재를 축적’

가까운 미래에 볼 뉴스 헤드라인이다. 어쩌면 기자는 기사출고를 서둘러야 할지도 모른다. 인간형 로봇 ‘휴머노이드’가 등장한 지 반세기가 지났다. 아마존은 스스로 판단하는 드론으로 물건을 배송하겠다고 한다. 한국을 비롯한 각국이 자율주행차 개발을 앞다툰다.

인간은 사물을 직접 제어하기 원한다. 제어하지 못한다고 느끼면 불안하다. 자신에 대한 확신이 안 선다. 판단하는 드론과 자율주행차, 그리고 등장할 각종 로봇. 이들 기기가 서서히 인간 제어선을 넘어선다. 이것이 끝이 아니다. 기기와 시스템이 자각하는 지능을 얻게 된다. 이어 인공지능이 인간 지적 능력을 능가할 수 있다. 기술 특이점(AI가 인간지능을 능가하는 시점)이라는 개념이다. 미래학자는 현재 기술진보 수준으로 볼 때 특이점은 2045년 근방이라고 점친다.

똑똑해진 기기·시스템은 딜레마를 안겨준다. 스마트기기와 시스템이 조금 더 스마트해져 인간 제어를 거부하면 어떻게 하는가. 기기, 시스템에 더 많은 자율성을 이양할수록 이 시나리오 발생 가능성은 높다.

이쯤에서 SF작가 아이작 아시모프 ‘로봇 3원칙’이 관여할 것이 확실하다. ①로봇은 인간에게 해를 끼쳐서는 안 된다. 위험에 처한 인간을 모른 척해도 안 된다. ②제1원칙에 위배되지 않는 한, 로봇은 인간 명령에 복종한다. ③제1·2원칙에 위배되지 않는 한, 로봇은 자신을 지킨다.

인간은 로봇으로부터 보호받는다. 적어도 그럴 것으로 기대한다. 규칙 기반 윤리시스템, 아시모프 3원칙은 컴퓨터에 탑재하기 쉽다. 프로그래밍하기 나름이다.

도덕성은 어떤가. 전 세계 종교적 철학적 전통이 깃든 가치와 관심사는 기계에 쉽사리 적용되지 않는다. 흥미롭게도 오늘날 시스템은 스스로 도덕적 결정을 내려야 할 정도로 복잡하다.

전투형 로봇이다. 우리가 만든 스마트 시스템이 등을 돌리지 않을 것이라고 확신하는가. 만약 지능을 가진 전투로봇이 임무 달성을 위해 아군에게 미사일을 발사해야 한다고 결정하면 어찌할 것인가.

나사가 인간을 대신해 미션을 수행토록 하기 위해 미국내 2개 대학에 제공한 로봇 R6.사진=나사
나사가 인간을 대신해 미션을 수행토록 하기 위해 미국내 2개 대학에 제공한 로봇 R6.사진=나사

드론 제조사는 대기 중 충돌 위험을 최소화하기를 원한다. 레이더를 부착하고 공중 장애물을 식별하기 위한 기술을 사용한다. 일정부분 자율 판단기능을 첨가한다. 갑작스런 추락 시 낙하산이 펴지는 방안도 고안했다. 언제 낙하산을 펼지 드론은 결정할 수 있을까.

자율주행자동차가 다른 자동차와 부딪치는 것을 감지했다. 부득이 방향을 바꾸는 순간 보행자와 충돌한다면 어떻게 해야 하는가. 충돌 시 자동차 승객과 다른 자동차 승객 중 누구를 먼저 보호해야 하는가. 어느 보행자와 충돌하는 게 옳은 판단일까. 기계에 부여된 도덕적 문제다. 시스템 제조업체나 조작자, 당국에 법적 책임을 분배하는 문제는 오히려 쉬운 편이다.

아리스토텔레스는 윤리학을 논하며 규칙보다 품성을 강조했다. 좋은 행위는 좋은 품성에서 비롯된다. 인류 번영 목적 역시 덕(德)이 있는 품성 개발이라고 봤다.

인간은 일찍이 자신의 품성을 개발하기 어렵다는 점을 깨달았다. 하물며 컴퓨터나 로봇에 적합한 덕을 개발하는 일이야. 스마트시스템과 로봇, 아리스토텔레스로부터 아시모프를 거쳐 거침없는 속도로 특이점을 향해 내달린다. 인간 도덕성 기원을 살피는 것을 잊은 것은 아닌가.

윤대원 SW콘텐츠부 데스크 yun1972@etnews.com