챗GPT 등장으로 인공지능(AI)에 대한 환상과 공포가 심화되고 있는 것 같다. 하지만, 아직까지 AI는 세상을 구원하거나 세상을 멸망시킬 정도까지 발전하지 못했다는 것이 과학계의 일반 의견이다. 그러므로 지금은 AI에 대한 환상과 공포보다 AI 활용에 대해 고민해야 하는 시기다. 현재 AI 활용 속도는 생각보다 느린 데 이것의 주된 이유는 기술 이슈 때문이 아니라 윤리 이슈 때문이다. 지금 활발하게 논의되고 있는 AI 윤리 관련 이슈는 주로 AI를 만들고 사용하는 과정에서 기존의 법체계와 어떤 지점에서 충돌이 있는가와 AI가 사람들에게 윤리적 영향을 어떻게 그리고 얼마나 주고 있는 가이다. 이러한 이슈들은 당연히 너무 중요하게 다루어져야 하지만 숨겨진 이슈들이 더 있으며, 이렇게 숨겨진 이슈들을 잘 해결하지 못한다면 결국 AI를 활용하는 데 커다란 장애 요인을 만나게 될 것이라는 점도 분명하다.
첫째, 경영학적 이슈다. 예를 들면, 자율주행차가 도입되지 못하고 있는 이유는 기본적으로 기술적인 이슈 때문이 아니라 법적 이슈 때문인데, 자율주행차가 사고를 일으켰을 경우 누구에게 어떻게 얼마나 책임을 지도록 해야 하는가에 대한 법적인 문제를 해결하지 못하고 있기 때문이다. 하지만 이와 함께 경영학적 관점에서 생각해보면, 자율주행차를 팔 때 사고를 회피하는 알고리즘을 대중에게 제시해야 하는 데 운전자 안전을 우선적으로 생각한다고 광고를 해야 할지 아니면 보행자의 안전을 우선적으로 생각한다고 광고를 해야 할지 결정하기 어렵기 때문에 기업의 입장에서 보면 자율주행차의 도입 및 판매를 강력하게 추진하기 힘든 상황인 것이다. 운전자의 안전을 우선적으로 생각한다고 광고를 하면 일반 대중의 비난을 받을 것이고, 보행자의 안전을 우선적으로 생각한다고 광고를 하면 차를 구매하려고 하는 사람들이 구입을 꺼리게 될 것이기 때문이다. 이처럼 AI의 윤리에는 이해관계자별로 다른 관점이 적용될 것이므로 다양한 이해관계자들의 이해관계를 통합적으로 고려하는 것이 필요하다.
둘째, 경제학적 이슈다. 길을 건너는 보행자를 자동차가 친 사고의 경우, 운전자에게 모든 책임을 묻지 않고 보행자에게도 합당한 주의를 했는지를 확인해 보행자의 부주의함에 책임을 묻는 이유는, 게임이론에 의하면, 운전자에게 모든 책임을 지게 하면 운전자와 보행자 모두가 부주의하게 되어 사회적으로 더 나쁜 결과(균형)가 나타나기 때문이다. 또한 법경제학적 관점에 의해 어떤 행위에 대한 법적 책임의 비용과 편익을 따져야 하는 데 운전자에게만 모든 책임을 지우게 되면 사회적 비용이 사회적 편익보다 더 커지기 때문이다. 게다가 더욱 중요하게는 다른 법률과의 상대적 형평성도 고려해서 형량을 결정해야하기 때문이다. 이처럼 AI의 윤리에는 경제학적 관점의 도입이 필요하다.
셋째, 데이터 관련 정치적(또는 형평성) 이슈다. 최근 AI는 어떤 데이터를 확보해 어떻게 학습시킬 것인가가 핵심적인 것인데 데이터 자체에 대한 품질과 데이터를 수집하고 학습시키는 사람들에 대해서는 보통 관심이 없다. 하지만 데이터 품질이 윤리적으로 편향되면 윤리적으로 바람직한 알고리즘을 가지고 있더라도 윤리적으로 편향된 결과가 도출될 것이므로 원천적으로 수집되는 데이터의 윤리적 품질에 대해서 논의가 이루어져야 한다. 또한 이와 함께 이러한 데이터를 수집하고 이것들을 가지고 AI를 학습시키는 사람들의 인권과 처우에 대해서도 관심을 가져야 한다. 현재 이러한 역할을 담당하고 있는 사람들은 저임금 노동력을 제공하고 있는 경우가 많으며 특정 집단이 담당하고 있어 AI의 윤리적 관점에 편향이 발생하게 될 가능성이 높기 때문이다.
AI의 발전은 기술적 장애로 멈추게 되는 것이 아니라 윤리적 장애로 멈추게 될 가능성이 높아졌다. 지금이라도 늦지 않았으니 AI의 윤리에 대한 다양한 관점에서의 논의가 폭넓게 활성화되기를 기대한다.
장대철 KAIST 경영대학 초빙교수 nozajang@gmail.com