인공지능 시대는 기술의 발전이 학습 환경과 방식을 근본적으로 변화시키면서 새로운 윤리적 문제를 제기하고 있다. 전통적인 학습 윤리의 기준, 예를 들면 표절과 변조, 위조 등, 이전까지는 명확히 구분하거나 감지할 수 있었던 문제들이 현재는 기술의 발전으로 인해 그 경계가 모호해지고 있다. (본문 중)

생성형 AI시대와 현혹되는 학습자1)

 

신하영2)

 

인간 사회의 변화를 무엇이 주도하느냐에 따라서 그 사회를 살아가는 인간의 윤리가 추구되고 탐구되어야 한다. 그렇다면 2023년은 기술 주도 사회라고 하는 데 이견이 없을 것이다. 학교도 이 변화에서 예외는 아니다. 학생들, 특히 늘 개인화된 전자 기기들(스마트폰과 태블릿 혹은 노트북)과 함께 학습하는 대학의 학습자들은 이 변화의 중심에 서 있다. 이 시점에서 기술 주도 사회에서 인공지능의 급격한 발전이 학습자의 윤리적 행위에 어떠한 영향을 미치고 있는지 규명할 필요가 있다.

 

챗GPT3)로 대표되는 생성형인공지능이 발달함에 따라, 기존의 ‘복사+붙여넣기’(copy+paste) 방식과는 다른 ‘자연스럽게 생성된’ 출력 값을 활용하는 것이 가능해졌다. 그리고 입력자의 명령에 따라 각기 다르게 출력된 이 값들을 과제물, 시험 답안지, 연구 논문에 포함시킬 때에는 정보의 출처와 진위, 그리고 원작자의 권리 등 기본적인 윤리적 가치를 확실히 파악하고 실천하기가 어렵다. 이는 인공지능 기술이 텍스트, 이미지, 데이터의 생성과 수정, 그리고 분배 과정을 복잡하게 만들며, 이로 인해 학습자들이 표절, 위조, 변조 등의 윤리적 위배를 의도치 않게 저지를 가능성이 높아진다. 따라서 학습자의 학습 윤리를 어떻게 유지하고 강화할 수 있는지, 그리고 기술의 발전이 학습자의 윤리적 행위에 어떻게 작용하는지에 대한 체계적이고 심층적인 분석이 필요하다.

 

학습 윤리(learning ethics)란, 주로 학부생과 같은 초보 연구자에게 요구되는 학문 탐구 윤리를 의미한다. 학습 윤리는 일반적으로 수행과 감독에 있어서 1) 표절, 2) 변조, 3) 위조, 4) 과제물 구매 및 양도, 5) 중복 제출, 6) 협동 학습에서의 무임승차, 7) 기타 영역으로 분류되며 각각 다음과 같은 내용을 포함한다.

 

1) 표절: 출처를 밝히지 않고 자신이 생산한 것인 양 속이는 행위

2) 변조: 사실을 왜곡해서 기술하거나, 데이터를 조작하는 행위

3) 위조: 거짓 결과 만들어 내기

4) 과제물 구매 및 양도: 다른 사람이 이미 수행한 과제를 구매해서 제출하거나, 자신의 과제를 양도하거나, 실제로 과제물로 제출하는 경우4)

5) 중복 제출: 이미 제출한 과제를 다른 수업에서 제출하거나, 일부를 짜깁기해서 제출하는 것

6) 협동 학습에서의 무임승차: 조별 과제 수행에서 주어진 역할을 이행하지 않는 것

7) 기타: 그 밖에 대리 출석, 무단 조퇴, 시험 부정 행위 등

 

다음은 인공지능 시대에 학습자가 현혹되는 상황, 그리고 이들은 지도하는 교수자가 경험하는 학습 윤리 판별의 어려움을 생각해 보자. 우선, 인공지능 시대 이전의 학습 윤리는 다음과 같은 특징을 가졌다. 첫째, 교수자(teacher) 개인이나 개별 학교 단위에서 학습 윤리 부정행위 추적 및 판별이 가능했다. 둘째, 개별 학교나 수업 단위에서 학습 윤리를 준수하거나 어기는 행위가 가져오는 영향(impact)을 통제하는 것이 가능했다. 마지막으로, 학습 윤리를 지키는 학생, 학습자에게 점수를 잘 주거나 점수를 깎는 식으로 편익(benefit)과 징벌적 처우(penalty)를 제공함으로써 학습 윤리 부정행위에 대한 사후적 조정이 개별 교수자 차원에서 가능했다.

 

 

그러나 인공지능 시대는 기술의 발전이 학습 환경과 방식을 근본적으로 변화시키면서 새로운 윤리적 문제를 제기하고 있다. 전통적인 학습 윤리의 기준, 예를 들면 표절과 변조, 위조 등, 이전까지는 명확히 구분하거나 감지할 수 있었던 문제들이 현재는 기술의 발전으로 인해 그 경계가 모호해지고 있다. 특히, 딥페이크 기술, 데이터 편집 및 변형, 2차 생산물에서의 표절 등은 학습자들이 정보를 재생산하거나 공유하는 과정에서 원본의 구분이나 출처를 추적하기 어렵게 만들고 있다. 이러한 상황은 교수자나 교육자들이 학생들의 작업물의 출처나 진위를 판단하기 어렵게 만들며, 학습 윤리를 판단하는 기존의 프레임워크를 도전하고 있다(신하영, 한송이, 2023). 더불어, 지식 정보의 상거래 플랫폼 출현, 편집 기술의 발달, 그리고 단어 교환기와 같은 도구의 활용은 중복 제출이나 위조의 판별을 복잡하게 만든다. 특히, 모듈화 및 파편화된 지식 정보의 상거래는 학습자들이 과제물 구매 및 양도의 유혹에 노출되게 하며, 온라인 협동 학습 환경에서의 데이터 교환은 개별 학습자의 기여도를 확인하는 것을 더욱 어렵게 만든다. 이러한 도구와 플랫폼은 학습자들에게는 더욱 효율적이고 손쉬운 학습 방식을 제공하지만, 동시에 학습 윤리를 지키는 데 있어 새로운 도전을 제시한다(Holmes, & Porayska-Pomsta, 2022).

 

다음의 <그림 1>은 인공지능 시대 학습 환경 변화에 따라 학습자, 특히 대학 공동체 내 학부생과 대학원생이 현혹되기 쉬운 상황을 위에서 언급한 학습 윤리의 구성 요소별로 정리한 것이다.

그림1. 인공지능 시대 학습자와 교수자가 직면하는 학습 윤리 판별의 어려움

결국, 인공지능 시대의 학습 환경은 교육자들에게 학습 윤리를 유지하고 강조하는 데 있어 새로운 접근 방식과 전략을 요구한다. 기술적 발전과 그에 따른 새로운 윤리적 문제에 대응하기 위해서는 교육자들이 지속적인 연구와 교육, 그리고 대화를 통해 적응하고 대응할 준비가 되어 있어야만 할 것이다. 다음은 앞서 도출된 쟁점을 중심으로 인공지능 시대에 변화된 연구와 학습 환경에 필요한 윤리적 기준의 단서를 제시한 것이다.

 

첫째, 윤리적 기준 확립의 어려움을 극복하기 위해서 연구 기관별, 단위 학교별(school-based) 탄력적 윤리 기준 적용이 필요하다. 인공지능 기술이 너무나 복잡하고 빠르게 변화하고 있기 때문에, 광범위한 행위 주체와 상황에 적용할 단일한 기준을 확립하는 것은 사실상 불가능하다. 이에 따라 개별 연구 분야와 주제, 연구 방법과 실험 대상(인체, 동물, 미생물, 기계, 사회 실험 등)별로 탄력적으로 대응할 수 있는 기관별 프로토콜 마련이 필요하다.

 

둘째, 인공지능이 연구 전 과정에 활용되고 직간접적으로 교육과 연구 환경 전체에 영향을 미치고 있다는 점을 고려하여, 연구 윤리와 학습 윤리 전반에 걸쳐 인공지능 개입 여부 판별을 포괄적으로 적용해야 한다. 최근에는 생성형 AI가 비교적 창의적으로 정보를 조합해서 연구를 부분적으로 혹은 전체적으로 수행하는 경우도 발생하고 있다. 따라서 기존에 연구 주제와 연구 방법에 국한하여 연구 윤리를 적용하는 것에서 적용 범위를 연구의 전 과정과 범위로 확장해야 한다.

 

셋째, 연구 윤리와 학습 윤리를 판별하는 데 있어서 양적, 질적 측면의 혁신이 모두 요구된다. 양적 측면으로는 더 빠르고 효율적인 판별을 위해서 자동 판별을 위한 알고리즘을 개발하고 보급해야 한다. 이때, 현재 한국연구재단이 제공하는 표절 방지 응용 프로그램 ‘카피킬러’(copykiller)의 보편적 활용 사례와 같이 무료로, 혹은 국가 지원을 통해 저렴하게 배포하는 것이 바람직하다. 그러나 동시에 질적인 측면에서 이러한 자동화 판별 시스템에 활용되는 인공지능 자체에 개입되는 편향(bias)을 고려하고, 더 나아가 생명 존엄과 관련한 문제를 다루는 위험을 고려하여 권위 있는 연구 윤리, 학습 윤리 전문가의 정성적 판별이 강화되어야 할 것이다.

 


1) 이 글은 2023년 세명대학교 인문사회과학연구소 추계학술대회 발표 원고에서 발췌한 것이며, 현재 논문 출간을 준비 중이다.

2) 세명대학교 교양대학 교육학 교수, 기윤실 청년위원.

3) 챗GPT(GPT: Generative Pre-trained Transformer)는 Open AI가 만든 딥러닝 프로그램으로 ‘언어를 만들도록 만들어진 인공지능’, 즉, ‘대화형 인공지능 챗봇’을 뜻함(출처: 성균관대학교).

4) 1)-2)의 경우 연구 윤리와 연구/과제물 수행이라는 점에서 비슷하나, 4)의 경우 학생 간의 평가와 관련한 부정행위(cheating)에 가깝다고 할 수 있다.

 

참고 문헌

신하영, 한송이. (2023). AI 시대 교사의 역량에 대한 예비교사의 기대수준과 인식. 교육연구논총, 44(3), 35-68.

Holmes, W., & Porayska-Pomsta, K. (Eds.). (2022). The Ethics of Artificial Intelligence in education: Practices, challenges, and debates. Taylor & Francis.

 

인터넷 자료

성균관대학교>챗GPT 종합안내 홈페이지>챗GPT란?챗GPT 안내

 

* <좋은나무> 글을 다른 매체에 게시하시려면 저자의 동의가 필요합니다. 기독교윤리실천운동(02-794-6200)으로 연락해 주세요.

* 게시하실 때는 다음과 같이 표기하셔야합니다.
(예시) 이 글은 기윤실 <좋은나무>의 기사를 허락을 받고 전재한 것입니다. https://cemk.org/26627/ (전재 글의 글의 주소 표시)

 

<좋은나무>글이 유익하셨나요?  

발간되는 글을 카카오톡으로 받아보시려면

아래의 버튼을 클릭하여 ‘친구추가’를 해주시고

지인에게 ‘공유’하여 기윤실 <좋은나무>를 소개해주세요.

카카오톡으로 <좋은나무> 구독하기

 <좋은나무> 뉴스레터 구독하기

<좋은나무>에 문의·제안하기

문의나 제안, 글에 대한 피드백을 원하시면 아래의 버튼을 클릭해주세요.
편집위원과 필자에게 전달됩니다.
_

<좋은나무> 카카오페이 후원 창구가 오픈되었습니다.

카카오페이로 <좋은나무> 원고료·구독료를 손쉽게 후원하실 수 있습니다.
_

관련 글들

2024.11.25

노벨상을 받은 AI (성영은)

자세히 보기
2024.10.14

딥페이크(Deep Fake) 음란물 소동이 가짜(Fake)가 되지 않으려면(손화철)

자세히 보기
2024.09.11

거짓말의 과학(성영은)

자세히 보기