오픈AI, 논문·과제에 챗GPT 활용 감지 기술 개발했지만, 공개 안 해

오픈AI
오픈AI

오픈AI가 과제나 논문 등에 학생들이 챗GPT를 부정 사용했는지 검사할 수 있는 기술을 개발했지만, 이를 공개하지 않은 것으로 드러났다.

4일(현지시간) 월스트리트저널(WSJ)에 따르면, 오픈AI는 약 1년간 이 기술의 출시 준비를 해왔으며, 한 내부 관계자는 “버튼만 누르면 된다”며 기술은 이미 개발된 상태라고 전했다.

이 기술에는 이용자에게는 보이지 않지만 챗GPT 생성물 여부를 확인할 수 있는 비가시성 워터마크가 적용됐다. 이를 토대로 전체 문서에 워터마크가 있을 가능성이 얼마나 되는지 점수를 제공하는 방식이다.

이 기술은 99.9%의 정확도로 과제나 논문 작성 등에 사용된 콘텐츠가 챗GPT가 생성한 것인지를 식별해낸다고 이 매체는 전했다.

그러나 오픈AI는 이 기술의 공개 여부를 두고 약 2년 간 내부적으로 논쟁을 해왔으며, 오픈AI는 투명성에 대한 약속과 함께 더 많은 사용자 유치 사이에서 기술 공개 여부를 고심하고 있다고 WSJ은 보도했다.

오픈AI는 이 기술이 영어를 모국어로 사용하지 않는 다른 언어 사용자에게 불리하게 작용할 수 있고, 누군가 이 기술을 악용해 특정 사람이나 그룹을 공격할 수도 있다는 점을 우려하고 있는 것으로 알려졌다.

워터마킹 기술이 영어 텍스트에 특화돼 다른 언어로 번역된 텍스트에서 영어가 아닌 언어 사용자들이 부당하게 의심받을 수 있기 때문이다.

그러나 일선 학교 등에서는 학생들의 AI 부정행위를 막기 위해 이 기술 공개를 원하고 있다고 WSJ은 보도했다.

비영리 단체인 민주주의 기술 센터의 최근 조사에 따르면 학생들이 AI를 이용해 과제를 했다고 생각하는 미국 중고등학교 교사는 59%에 달했다. 이는 1년 17%포인트(P) 상승한 수치다.

이 기술의 효과성은 입증됐지만, 오픈AI는 이용자들의 반발과 기술의 악용 가능성 등을 고려해 아직 공개 여부를 결정하지 못하고 있다고 WSJ은 전했다.

현대인 기자 modernman@etnews.com