바야흐로 2022년, OpenAI가 공개한 챗 GPT의 등장은 우리 사회를 떠들썩하게 만들었습니다. 이후로도 각종 생성형 AI들이 차례로 등장하며 이제 인공지능 기술은 생활에서 떼려야 뗄 수 없는 존재가 되었죠. 각 대학과 기관은 시대의 흐름에 발맞추고자 생성형 AI 활용 가이드라인을 제정하기도 했습니다. 여러분은 생성형 AI를 ‘잘’ 사용하고 계신가요? 과연 중앙대의 생성형 AI 활용은 원활히 이뤄지고 있는지, 그리고 대학 사회와 생성형 AI가 공생할 수 있는 방안은 무엇인지 함께 알아봤습니다. 김현지 기자 local@cauon.net

학생 생성형 AI 사용 의향 약 92% 
질문 생성 교육이 필요한 때


생성형 AI란 이용자의 요구에 따라 결과를 능동적으로 생성해 내는 인공지능 기술이다. 2022년 11월 ‘챗 GPT’가 출현한 이후 생성형 AI는 대학가의 화두가 됐다. 중앙대를 비롯한 대학사회의 구성원들은 생성형 AI를 어떻게 받아들이고 있을지 알아봤다. 

대학사회에 침투한 생성형 AI 
  중대신문이 중앙대 학생 101명을 대상으로 12일~15일 4일간 실시한 설문조사에 따르면, 약 32.67%의 학생이 수업 중 생성형 AI를 사용해본 것으로 나타났다. 생성형 AI로 과제를 수행한 박형배 학생(철학과 4)은 “생성형 AI를 통해 많은 시간이 걸리는 정보 수집 및 재가공을 빠르게 처리할 수 있었다”며 “과제 제출 전 마지막으로 부족한 부분을 자가 진단하기에도 유용했다”고 언급했다. 

  한편 생성형 AI를 사용해보지 않은 학생들 중 약 88.23%가 향후 생성형 AI를 사용할 의향이 있다고 답했다. 그 이유로는 ‘AI 사용이 증가하는 추세이기 때문에’·‘주변에서 많이 사용하는 것으로 보아 유용할 것 같아서’ 등이 제시됐다. 

  학생들의 생성형 AI 사용 빈도는 비교적 낮은 편이었으나 교수들은 이미 다양한 방법으로 생성형 AI를 활용하고 있었다. 심호남 교수(교양대학)는 “챗 GPT·‘ CLOVA X’·‘Gemini’ 등 다양한 생성형 AI를 사용해왔고 논문 작성에도 이용한 적이 있다”고 밝혔다. 신하영 교수(세명대 교양대학)는 “컴퓨터공학 연구에서는 생성형 AI가 수도 없이 많이 쓰이고 있다”며 “생성형 AI 응용 프로그램을 이용하면 통계 프로세서가 없이도 필요한 값을 도출할 수 있기 때문”이라고 언급했다. 

설익은 생성형 AI의 그림자 
  생성형 AI의 유용성에도 불구하고 일각에서는 부작용 또한 지적된다. 대표적으로는 생성형 AI의 작업물과 인간의 작업물을 구분하기가 쉽지 않다는 점이다. 박미애 교수(경북대 인공지능혁신융합대학사업단)는 “인간의 작업물과 생성형 AI의 작업물의 구분은 기술이 발달함에 따라 더 어려워진다”며 “패턴 분석이나 정보의 진위 여부 추적 등을 통해 구별할 수 있긴 하나 생성형 AI의 복잡성은 계속 증가하는 상황”이라고 설명했다. 

  생성형 AI의 결과물의 완성도 또한 향상됨에 따라 이를 악용하는 학생들도 생겨나고 있다. 신하영 교수는 “대표적인 예는 한 문학상 시상에서 과반 이상의 학생이 생성형 AI를 이용해 작품을 출품한 사건”이라며 “심사 과정에서는 완성도가 높더라도 생성형 AI를 사용한 작품은 심사 대상에서 제외시켰다”고 전했다. 

  중앙대도 예외는 아니다. 심호남 교수는 “특정 글에 대한 소감·감상 등을 쓰는 과제에 챗 GPT의 답변을 그대로 입력하는 학생들이 있었다”며 “그러한 경우 내용이 틀리는 일이 빈번히 발생한다”고 전했다. 

  전문가들은 이런 행위가 교육적·윤리적 관점에서 심각하다고 진단한다. 박남기 교수(광주교대 교육학과)는 “생성형 AI에 의존할 경우 뇌의 역량은 발달하지 않는다”며 “단발적인 과제는 수행할 수 있지만 장기적 관점에서 업무를 수행하는 능력은 전혀 성장하지 않는 것”이라고 꼬집었다. 박미애 교수는 “생성형 AI 모델은 기존의 데이터를 기반으로 하기 때문에 지적 재산권의 침해나 개인정보의 무분별한 사용은 물론 고정관념의 증폭도 일으킬 수 있다”며 우려를 표했다. 

  관련 문제의 해소를 위해 여러 대학이 앞다퉈 생성형 AI 가이드라인을 제정했지만 그 약점도 함께 드러나고 있다. 상당수가 강제성이 없기 때문이다. 중앙대 또한 지난해 4월 ‘생성형 AI 활용 가이드라인’을 제정했으나 별도의 제재 수단을 갖추고 있지 않다. 이외에도 여러 대학이 규제나 처벌 방안을 마련하지 않은 것으로 밝혀졌다. 

  일각에서는 가이드라인이 현실적이지 못하다는 지적도 제기됐다. 신하영 교수는 “현재의 가이드라인은 백과사전식 설명에 그치거나 형식적으로만 제시돼 실용적이지 않다”고 말했다. 이어 “현재 국내 대학의 가이드라인은 외국 대학의 가이드라인을 번역하는 수준”이라며 “미국 학생들은 빅데이터 분석이나 외국어 번역 등에 챗 GPT를 사용하는 반면 우리나라 학생들은 작문 과정에서 생성형 AI의 도움을 받는 경우가 많았다”고 국가 상황에 맞는 지침의 필요성을 역설했다. 

  또 다른 문제는 전공 분야에 따른 활용량의 차이다. 설문조사에서 생성형 AI를 사용하지 않는 이유 중 ‘AI와 무관한 학과/수업이라서’라고 응답한 학생은 약 33.82%에 달한다. A학생(정치국제학과 2)은 “전공 특성상 자신의 생각을 묻는 과제가 많아 생성형 AI로부터 도움을 받는 데에 한계가 있다”고 전했다. 신하영 교수 또한 “인문·사회계나 예술 분야의 경우 아직 AI를 교육 과정에 사용하는 경우가 많지 않다”고 말했다. 

  이런 활용량의 차이는 활용 능력의 차이와 이어진다. 박호연 교수(이화여대 컴퓨터공학전공)는 “비이공계 학생들의 경우 관련 지식이 충분치 않아 생성형 AI의 알고리즘을 활용하는 데 제약이 있었다”고 전했다. 

대학도 발을 맞출 때 
  급격한 생성형 AI의 도입에 따른 문제를 해결하기 위해 대학사회의 준비가 요구되고 있다. 첫 번째로 필요한 것은 생성형 AI의 부정 사용을 금지하는 것이다. 이와 관련해 ‘GPTZero’를 비롯한 다양한 생성형 AI 탐지 프로그램이 있으나 그 한계가 명확하다. 박미애 교수는 “생성형 AI는 탐지 프로그램을 피하는 방법을 학습한다”며 “탐지 프로그램의 알고리즘을 방해하는 요소를 활용하거나 약간의 수동 편집을 거치는 방식으로 탐지를 우회할 수 있다”고 말했다. 이어 “작업물을 식별하는 기술도 중요하지만 광범위한 사회적 합의를 이뤄내는 것이 더욱 효율적일 것”이라고 설명했다. 

  생성형 AI에 관한 다양한 문제의 해소를 위해선 가이드라인의 혁신 또한 필요한 상황이다. 박남기 교수는 “표절로 간주되는 사례나 사용이 허용되는 범위 등을 제시하고 그에 상응하는 처벌 또한 규정해야 한다”며 가이드라인의 구체성과 구속력을 강조했다. 신하영 교수도 “사례 연구나 설문조사를 통해 구체적인 상황에 대한 가이드라인을 제공하는 편이 효과적”이라고 현실적인 지침의 필요성을 역설했다. 

  학과별 활용 편차를 극복하는 교육도 요구된다. 신하영 교수는 “요즘 중·고등학생들에게 코딩이 필수화되는 것처럼 생성형 AI 교육은 전공에 상관없이 필요한 일”이라며 “전공과 무관하게 각자가 자신의 요구사항을 생성형 AI에게 논리적으로 명령하는 능력을 길러야 한다”고 주장했다. 

저작권자 © 중대신문사 무단전재 및 재배포 금지