인공지능(AI) 개발 과정에서 공개된 개인정보를 안전하게 활용하기 위한 가이드라인이 이달 안에 나온다.
개인정보호위원회는 오는 3일 오후 'AI 프라이버시 민·관 정책협의회' 제2차 전체회의를 열고 'AI 개발·서비스를 위한 공개된 개인정보 활용 가이드라인(안)'에 대해 논의한다.
거대언어모델(LLM) 개발의 핵심 원료인 공개 데이터엔 개인정보가 포함돼 있지만, 명확한 규율체계가 없어 회색지대가 발생하고 현장 불확실성이 높았다. 이 때문에 공개 데이터를 안전하게 활용하기 위한 기준 마련이 시급하다는 지적이 제기됐다.
개인정보위는 지난해 11월부터 국내 개인정보 보호법제를 보완하는 가이드라인 마련 작업을 진행해왔다. 민·관 협의회에서 학계·산업계·시민단체·관계부처 등 의견을 수렴하는 등 가이드라인을 가다듬고 있다.
이번 정책협의회에선 공개 개인정보의 안전한 활용 관련 법적·기술적 쟁점 사항과 함께 AI 개발·서비스 단계별로 공개 개인정보를 적법하고 안전하게 처리하기 위한 기준 등을 담은 가이드라인(안) 주요 내용을 공유한다.
개인정보위는 이번 회의에서 민간 전문가·관계부처가 제시한 의견을 검토·반영하고, 개인정보보호위원회 전체회의 등을 거쳐 이달 중 가이드라인을 확정·발표할 방침이다.
김병필 카이스트 교수(데이터 처리기준 분과장)는 “국제적으론 대규모 AI 모형을 학습하기 위한 데이터가 조만간 고갈될 수 있다는 우려까지도 제기되고 있으나 우리는 기존에 축적된 데이터도 충분히 활용하지 못하는 실정”이라며 “온라인상 공개된 정보를 AI 학습에 안전하게 활용할 수 있는 적절한 가이드라인을 통해 현장의 불확실성을 낮출 필요가 있다”고 밝혔다.
공동의장인 배경훈 LG AI연구원장은 “정책협의회가 마련한 가이드라인은 시의적절하게 방향성을 제시하고 있다”며 “다양한 이해관계자들과 협의를 통해 개인정보 보호와 AI 기술발전이 상호 보완적으로 이뤄지는 건강한 생태계를 조성해 나갈 수 있기를 기대한다”고 말했다.
고학수 개인정보위 위원장은 “미국·영국·프랑스 등 주요국도 웹 스크래핑 방식으로 수집한 공개된 개인정보를 안전하게 활용하기 위한 사회적 논의를 본격화하고 있다”며 “국제적 흐름에 발맞춰 혁신을 저해하지 않으면서 국민이 신뢰할 수 있는 기준이 마련될 수 있도록 지속적으로 의견을 수렴해 나가겠다”고 밝혔다.
조재학 기자 2jh@etnews.com
-
조재학 기자기사 더보기