매주 2-3회 발행되는 <좋은나무>글을 카카오톡으로 받아보시려면(무료),
아래의 버튼을 클릭하여 ‘친구추가’를 해주시고
지인에게 ‘공유’하여 기윤실 <좋은나무>를 소개해주세요
대량의 데이터를 기반으로 구동하는 생성형 인공지능은 아직 해결하지 못한 여러 가지 구조적인 문제를 가지고 있다. 수집되는 데이터의 내용과 데이터를 수집하는 과정, 그리고 개발자 때문에 생기는 정보의 편향성, 자연스러운 언어를 출력하기 위해 사실이 아닌 정보를 제시하는 이른바 ‘할루시네이션 효과’, 데이터 수집의 정당성 혹은 소유권 문제, 표절 및 저작권 문제, 데이터 처리 과정에서의 엄청난 에너지 소비, 인공지능의 사용으로 초래되는 인간의 능력 저하, 양극화와 실업 등은 간단하게 풀릴 문제가 아니다. (본문 중)
손화철(한동대 글로벌리더십학부 교수, 기술철학)
생성형 인공지능 챗GPT3.5가 출시되어 큰 반향을 일으킨 지 1년 만인 2023년 11월 17일 금요일, 챗GPT 개발사인 오픈AI사 이사회는 CEO이자 탁월한 AI 공학자인 샘 올트먼(Sam Altman)을 해임했다. 그러자 이 회사의 대주주인 마이크로소프트가 즉각 반발하며 올트먼을 영입해서 새로운 AI 프로젝트를 시작하겠다는 뜻을 밝혔고, 오픈AI는 주식 가격 하락을 염려한 여러 주체들의 엄청난 비난을 받았다. 특히 오픈AI에서 일하던 770명의 공학자 중 700명이 올트먼이 돌아오지 않으면 본인들도 회사를 나가 마이크로소프트에 합류하겠다는 성명을 발표했다. 결국 1주일도 되지 않아 올트먼의 복귀가 결정되었고 4명으로 구성된 이사회는 1명을 남기고 전원 사임했다.
챗GPT로 생성형 AI의 열풍을 일으키며 많은 사람을 놀라게 한 회사가 왜 이런 해프닝을 겪어야 했을까? 자세한 내용이 알려지지는 않았지만, 이 일은 AI의 개발 속도에 대한 이견과 연관되어 있다는 해석이 많다. 원래 오픈AI는 대기업과 시장 중심으로 인공지능이 개발되어 생기는 부작용을 막고 안전한 인공지능을 개발하자는 취지에서 설립된 회사다. 마이크로소프트가 큰 투자를 하면서 그 본래 의도는 다소 퇴색되었지만, 이사회는 여전히 인공지능 개발의 안정성과 적정성, 그리고 윤리적 운용에 무게를 두고 회사를 운영하려 했다. 올트먼 역시 회사의 창립 당시부터 참여하면서 이런 취지에 동의했으나, 챗GPT가 큰 성공을 거두면서 다음 단계의 개발에 대한 의견 차이가 있었던 것으로 보인다. 이사회는 생성형 인공지능이 가진 잠재적 위험성을 점검하기 위해 개발의 속도를 늦출 것을 원했고, 올트먼은 더 적극적인 인공지능의 개발과 활용을 원했던 것이다.
많은 전문가가 이번 사태를 통해 인공지능에 대한 윤리적 통제가 훨씬 더 어려워졌다고 평가한다. 기술 개발의 시장 경쟁이 격화되면 윤리적 우려들은 무시될 수밖에 없기 때문에 비영리 회사인 오픈AI를 통해 경쟁의 방향을 조정하려 했던 것인데, 실패로 돌아간 셈이다. 특히 우려스러운 것은 오픈AI의 공학자들이 보여준 모습이다. 물론 자신들이 보유한 주식의 가치가 내려가는 것에 대한 우려도 있었겠지만, 가장 앞선 능력을 가진 공학자 집단이 첨단 기술의 윤리적 측면을 상대적으로 가볍게 본 것이기 때문이다.
이미 잘 알려진 것처럼, 대량의 데이터를 기반으로 구동하는 생성형 인공지능은 아직 해결하지 못한 여러 가지 구조적인 문제를 가지고 있다. 수집되는 데이터의 내용과 데이터를 수집하는 과정, 그리고 개발자 때문에 생기는 정보의 편향성, 자연스러운 언어를 출력하기 위해 사실이 아닌 정보를 제시하는 이른바 ‘할루시네이션 효과’, 데이터 수집의 정당성 혹은 소유권 문제, 표절 및 저작권 문제, 데이터 처리 과정에서의 엄청난 에너지 소비, 인공지능의 사용으로 초래되는 인간의 능력 저하, 양극화와 실업 등은 간단하게 풀릴 문제가 아니다. 특정 영역에서 인공지능이 엄청난 능력을 보인다 해도, 그 혜택이 제대로 분배되지 않거나 인공지능의 사용으로 기존의 질서가 무너진다면 재앙적 상황이 초래될 수 있다. 따라서 시간이 걸리더라도 최악의 상황을 면할 수 있는 규제와 합의를 도출하려는 노력이 필요하다.
올트먼 자신이 이런 문제에 대해 상대적으로 둔감하다는 사실을 보여주는 사례가 있다. 인공지능이 작동할 때 어떤 가치관에 기반해야 할 것인가에 대한 물음에 그는 사용자 개개인에게 맞춘 판단을 내리게 인공지능을 학습시킬 수도 있을 것이라 답변했다. 이는 얼핏 매우 그럴듯한 해결책이지만, 엄밀히 따지면 윤리적 판단을 영화의 선택같이 개인의 기호로 격하하여 사실상 무의미한 것으로 취급하는 결과로 이어질 수 있다. 그가 인공지능의 개발에서는 출중한 능력을 가지고 있지만, 자신이 개발하는 인공지능이 가지는 문화적, 사회적, 윤리적, 정치적 여파를 숙고하고 있는 것 같지는 않다. 당장의 해결책이 보이지 않는 문제는 문제가 아니라는 식의 해결 중심의 사고방식을 가졌기 때문일 것이다.
매우 단순해 보이는 기술도 삶의 방식과 맥락, 의미 체계를 바꾼다. 그런데 인공지능은 단순한 도구 정도가 아니라 사람의 지적 능력을 모방하는 엄청난 기술이다. 따라서 이를 개발하는 공학자들은 그 직간접의 결과에 대해 이전과는 다른 차원의 윤리적 감수성을 가져야 한다. 일반 시민과 국가 역시 첨단 기술의 개발을 경제의 논리가 아닌 바람직한 삶의 관점으로 평가하고 적절하게 규제하려는 노력을 해야 한다. 불행히도 명망가와 전문가 중심으로 시작한 오픈AI의 윤리적 인공지능 개발 시도는 실패로 돌아갔고, 여러 각도로 진행 중인 국제사회의 협력도 여전히 미흡해 보인다. 다소 어두운 전망을 할 수밖에 없으나, 바람직한 미래를 준비하는 노력을 멈출 수는 없다. 실패의 가능성이 클 때에도 여전히 옳은 방향을 모색하며 묵묵히 전진하는 것이 인공지능과 인간의 차이이기 때문이다.
* <좋은나무> 글을 다른 매체에 게시하시려면 저자의 동의가 필요합니다. 기독교윤리실천운동(02-794-6200)으로 연락해 주세요.
* 게시하실 때는 다음과 같이 표기하셔야합니다.
(예시) 이 글은 기윤실 <좋은나무>의 기사를 허락을 받고 전재한 것입니다. https://cemk.org/26627/ (전재 글의 글의 주소 표시)
<좋은나무>글이 유익하셨나요?
발간되는 글을 카카오톡으로 받아보시려면
아래의 버튼을 클릭하여 ‘친구추가’를 해주시고
지인에게 ‘공유’하여 기윤실 <좋은나무>를 소개해주세요.