최근 사회관계망서비스(SNS)에 한 기사가 올라왔다. '챗GPT'가 어떤 질문이라도 막힘 없이 대답할 수 있는 배경에는 인공지능(AI) 기술이 아니라 사람이 있다는 것이다. AI가 답변을 작성한 게 아니라 수백, 수천명의 사람이 투입돼 AI처럼 답변했다는 내용의 단독 보도였다. 누구라도 혹할 만한 이 내용은 4월 1일 만우절에 공유된 가짜 콘텐츠였다. 이 같은 가짜 콘텐츠가 나올 정도로 챗GPT의 실력은 기존 AI 서비스를 능가한다.
챗GPT가 몇 개월 만에 전 세계 이용자들을 사로잡자 이번엔 'AI 포비아'가 등장했다. 이탈리아 정부는 챗GPT가 청소년에게 부적절한 답변을 제공할 수 있다며 서비스 차단을 선포했다. 일론 머스크 테슬라 최고경영자(CEO)와 일부 학자, 전문가들은 AI 개발을 6개월 미루자는 주장을 했다. AI가 너무 빠른 속도로 발전하고 예측 불가능하니 6개월이라는 시간 동안 윤리, 거버넌스 등 문제에 대비하자는 것이다.
AI 기술은 우리가 생각하는 것보다 빠른 속도로 생활 깊숙이 파고들고 있다. 얼마 전 미국을 다녀온 지인은 미국 은행부터 부동산 계약 등 생활과 밀접한 서비스 상당수가 AI로 대체되고 있다고 전했다. 집 계약 관련 메일을 AI가 작성해서 보내고 메일 하단에 '이 메일은 AI비서가 작성했음'을 표기한다고 한다. 우리나라에서도 머지않은 일이다.
AI 기술과 변화를 두려워하지 말자. AI 기술을 장밋빛으로 포장하자는 얘기가 아니다. 기술을 두려워해선 변화에 대응하기 어렵기 때문이다. AI 개발을 6개월 멈춘다고 해서 6개월 후 상황이 지금과 크게 달라질 가능성은 적다. 무엇보다 이 의견에 얼마나 많은 AI 기업이 동의할까. 6개월이 아니라 6시간이라도 AI 개발을 멈춘다면 기업 경쟁력은 담보하기 어렵다. 오히려 어떻게 하면 6개월 더 빨리 AI 혁신적 서비스와 기술을 선보일지가 업계 최대 관심사다.
서비스 제공자와 이용자 모두 '위드 AI' 시대를 살아갈 역량을 길러야 한다.
서비스 제공자는 이미 가이드를 보유했다. 대기업은 'AI 윤리 가이드라인'을 만들고 정부도 'AI 윤리 원칙'을 발표했다. △인권 보장 △프라이버시 보호 △다양성 존중 △침해 금지 △책임성 △안전성 △투명성 등 AI를 두려워하는 이들이 걱정하는 부분에 대응하는 원칙이다.
문제는 실천이다. 실제 AI 관련 서비스와 기술을 개발하는 기업과 개발자가 이 원칙 또는 가이드라인을 준수하는지가 중요하다. 정부나 시민단체, 이용자가 이 부분을 모니터링하고 지적해야 한다.
이용자는 'AI 리터러시' 역량을 확보해야 한다. AI를 이해하는 능력이다. 미디어 리터러시를 통해 가짜 뉴스를 걸러내고 올바른 뉴스 콘텐츠 습득 역량을 쌓듯 AI도 마찬가지다. 챗GPT가 제대로 된 정보를 제공하는지 분별하고, AI에 휘둘리지 않는 방법을 터득하는 역량이 필요하다.
가 보지 않은 미래여서 두려울 수도 있다. AI로 말미암아 일자리가 사라진다는 걱정도 많다. 한양대 차경진 교수 연구실의 지난해 조사에 따르면 AI로 말미암아 번역가의 일은 더 증가했다. 고급 번역 수요가 늘었고, AI가 번역한 내용을 리라이팅하는 역할도 생겼다.
막연한 두려움은 우리와 미래 세대 모두에게 도움이 되지 않는다. AI와 함께하는 세상은 이미 시작됐다. 어떻게 AI와 함께 살아갈지를 고민하는 것이 더 생산적이다.
김지선기자 river@etnews.com
-
김지선 기자기사 더보기