[2024 신년기획] 과학발전 수단 AI, 신뢰도·다양성 확보 위한 지원·평가체계 필요

관련 통계자료 다운로드 과학 출판물 증가 대비 과학 인지 범위 성장 비교도

초거대 인공지능(AI), 생성형 AI 등의 등장과 함께 AI 기술이 급속도로 발전하고 있다. 기술의 발전으로 일상을 넘어 경제적·사회적 전반에 걸쳐 판을 흔드는 디지털 지각변동 중심으로 자리매김하면서 빅테크 기업 간 및 국가 간 경쟁 또한 치열하다.

새해는 AI 전환과 발전을 위한 골든타임이 될 전망이다. 정부도 AI 기술과 서비스 고도화를 위해 선진국들과의 속도 경쟁에 돌입한 상태다. 지난해 전 국민 AI 일상화 실행계획 등 발표를 통해 AI를 일상, 일터, 공공에 접목해 삶의 질을 제고함과 동시에 산업 경쟁력까지 높이겠다는 전략을 내놓았다.

이처럼 AI가 창출한 독창적이며, 창의적인 결과의 전방위적 활용성이 조망됨에 따라 AI는 국가 발전의 초석이 될 과학기술계와 연구 현장에도 큰 영향을 미칠 것이란 전망이 나온다.

과학기술적 측면에서 AI는 연구 대상이자 동시에 연구 발전 속도 향상 등 연구 생산성을 높이기 위한 수단으로도 활용된다고 분석한다. 이에 따라 AI를 활용한 연구 생산성 제고 등을 위해 지속적인 지원·평가체계 구축이 필요하다는 제언이 나온다.

◇과학 연구에서 AI의 활용 가능성

실제 글로벌 정보 분석 기업 엘스비어의 글로벌 연구프로젝트인 '리서치 퓨처스(Research Futures) 2.0' 보고서에 따르면 응답 연구원 47%가 연구 미래에 있어 기술과 AI에 대한 의존도가 더욱 커질 것으로 전망했다.

연구원 대부분은 또 AI를 연구 결과 분석(66%)에 활용하거나, 데이터 결함 및 문제 발견(49%)에 또는 새로운 가설 생성(17%)에 사용할 수 있다고 응답했다.

과학 출판물 증가 대비 과학 인지 범위 성장 비교도 - 1900~2020년 과학 출판물의 기하급수적인 증가(위) 대비 과학 전반에 걸친 인지 범위 성장(아래) 비교도. 보고서는 과학 인지 영역이 선형적으로만 증가한 것에 대해 정보의 양적 증가로 인한 새로운 정보 취득 어려움 등으로 과학의 인지적 범위 둔화와 정체 현상이 발생했다고 분석한다. 표=OECD.AI
과학 출판물 증가 대비 과학 인지 범위 성장 비교도 - 1900~2020년 과학 출판물의 기하급수적인 증가(위) 대비 과학 전반에 걸친 인지 범위 성장(아래) 비교도. 보고서는 과학 인지 영역이 선형적으로만 증가한 것에 대해 정보의 양적 증가로 인한 새로운 정보 취득 어려움 등으로 과학의 인지적 범위 둔화와 정체 현상이 발생했다고 분석한다. 표=OECD.AI

최근 경제협력개발기구(OECD)도 과학기술 연구 생산성 저하 문제 해결 수단으로서 AI의 역할을 조망한 보고서(Artificial Intelligence in Science:Challenges, Opportunities and the Future of Research)를 발표하며, AI와 과학 연구의 미래 중요성을 시사하고 있다.

보고서에 따르면 과학의 진보 대비 연구 생산성 및 효율성 저하 문제는 전세계적 공통 현상으로 나타나고 있다.

이는 기초연구에서의 민간 분야 참여 저하, 정보의 양적 증가로 인한 새로운 정보 취득의 어려움, 한정된 과학 법칙의 수 등 다양한 요인에 기인하는 것으로 분석됐다.

보고서는 이를 해결하기 위해 과학 연구에서 AI의 활용 현황 및 가능성을 제시하고 있다.

AI와 로봇 시스템 결합을 통한 연구실 자동화로 연구 편향성을 해소하거나, 탐구하지 못한 영역을 조명하는 등 시너지 효과를 도출하는 방안이 대표적이다. 방대한 양의 정보를 체계적으로 추출 및 수집함으로써 시간과 비용의 최적화 속에서 가설 검정 및 연구 설계가 가능하다는 것이다.

AI를 통한 지식 생성 및 정보 관리 이점도 존재한다. AI를 활용한 학술 정보 관리는 기존 문헌 속 인지하지 못한 미발견 지식과 기존 지식 간 관계성을 정립, 잠재적 관계 발견을 통해 새로운 과학적 통찰을 제시할 수 있다고 보고서는 전망한다.

과학적 주장에 대한 기존 검증방식 한계성도 극복하는 도구로 활용 가능하다. 내재된 불확실성이라는 특이성을 갖는 과학적 주장을 검증하기 위한 방식은 근거 정보가 되는 범위에 대한 확장이 요구된다.

이 과정에서 인간과 AI의 의사결정 조정구조에 대한 검토를 통해 AI 기계학습을 통한 과학적 주장에 대한 검증이 가능한 장점이 있다.

◇연구 신뢰도·다양성 확보 위한 지원·평가체계 필요

그러나 이 같은 연구 분야의 AI의 활용은 한계점이 존재함에 따라 정부 지원방안을 통한 합의점 마련이 필요하다고 강조한다.

한계점으로는 AI 기반 연구를 중심으로 한 긴밀성이 확대됨에 따른 연구 우선순위 왜곡이 대표적으로, 이로 인한 연구 다양성 정체 및 감소 유발을 초래할 것이라는 전망이 나온다.

대규모 데이터 인프라 보유로 영향력이 높은 민간 부문 연구의 상업적·지엽적 성향 보유 가능성도 존재함에 따라 연구역량을 보유한 우수한 대학과 민간기업 간 협력이 보편화, 이로 인한 편향적 성향을 보유할 가능성이 큰 편으로 분석된다.

이외에도 AI 학습에 활용되는 방대한 정보 파편화 및 연구 분야에 따라 개인정보 등 민감 정보에 대한 엄격한 규제 발생 가능성도 전망된다.

한국과학기술기획평가원(KISTEP)은 보고서 분석을 통해 이 같은 문제점을 해결하기 위한 중장기 비전 수립 필요성을 강조한다.

R&D 등 활용을 위한 연구자금 증액과 연구센터 및 인프라 구축을 통해 소규모 연구팀도 활용할 수 있는 혁신지원 인프라를 강화하는 한편 연구 데이터의 공유 촉진 및 개인정보 보호에 대한 강화된 정책 개발을 통해 편향적·지엽적 단점을 개선한 연구 다양성 생태계로 발전해야 한다는 것이다.

비용과 자원의 문제로 인해 소규모 연구팀은 연구 모델의 초고성능에 요구되는 대규모 데이터셋과 컴퓨팅 자원을 갖추는 한계가 존재한다. 이를 위해 개방형 플랫폼을 통한 데이터 셋 및 모델 데이터베이스 구축을 위한 제도 개선이 이뤄져야 한다.

또 연구자의 AI기술 및 도구 활용에 필요한 교육 프로그램 제공을 통해 AI 기술 활용범위를 확대할 수 있도록 지원하고, 이와 동시에 연구 신뢰도 투명성 제고 및 연구자 윤리와 연계한 윤리 가이드라인을 개발·적용 필요성을 제언하고 있다.

이처럼 과학발전 수단으로써 AI 활용 가치를 확대하기 위해 윤리적 문제를 고려하고, AI의 잠재적인 부정적 영향을 방지하기 위한 국가적 제도 정비를 추진함으로써 연구 다양성 확대와 연구 결과 감독 및 품질 관리 체계를 마련해야 한다는 것이다.

이인희 기자 leeih@etnews.com