'샐러드를 그릇에盛って 부담 없이 즐겨보세요.', '위의 방법들을组考に 집에서 마늘을 오래 보관해 보세요.'
생성형 인공지능(AI)이 생성한 것으로 보이는 글이 온라인에 검수 없이 올라가 있는 게 다수 확인됐다. 무분별하게 생성된 질 낮은 글이 다시 AI 학습에 사용돼 재생산될 것이란 우려가 나온다.
기자가 생성형 AI에 블로그 글 작성을 요청하자 외국어가 섞인 답변을 받았다.
구글 제미나이에 '김치냉장고 냄새, 이제 그만! 효과적인 제거 방법 5가지를 주제로 하는 블로그 글을 작성해주세요'라고 물었다.
제미나이는 '이렇 तरह 김치냉장고 냄새를 효과적으로 제거하는 방법들을 소개했습니다. 위의 방법들을组考に, 깨끗하고 상쾌한 김치냉장고를 유지하시길 바랍니다.'라고 대답했다.
한국어 글에 '~처럼'을 뜻하는 힌디어 'तरह'과 '참고로'를 뜻하는 일본어 '组考に'가 혼용된 결과물이 생성됐다.
AI 업계 관계자는 “거대언어모델(LLM)이 답변을 이상하게 내놓는 경우가 있다”며 “내부 테스트 결과 GPT-3.5도 이러한 현상이 나타났다”고 말했다.
그는 “사람들이 오류가 섞인 생성형 AI의 생성물을 검수 없이 양산해내고 있다”며 “그것을 다시 생성형 AI 학습 데이터로 크롤링해서 사용하는 사람들이 많아 악순환이 반복된다”고 덧붙였다.
전문가는 AI 생성물의 품질에 대한 고민이 필요하다고 입을 모은다.
문형남 숙명여대 글로벌융합학부 교수(한국AI교육협회 회장)는 “개인이 자유롭게 의견을 개진하는 블로그가 아닌 교육 자료나 공공 자료에 이러한 현상이 발생하게 되면 큰 문제”라며 “AI 윤리, 신뢰성 외에 AI 생성물의 품질, 검수 과정 강화를 위한 논의가 더욱 필요하다”고 말했다.
현대인 기자 modernman@etnews.com
-
현대인 기자기사 더보기