지난 2월 말 개최된 교황청 생명학술원의 학술대회 주제는 “좋은 알고리즘?: 인공지능의 윤리”였다. 교황청은 이에 맞추어 인공지능의 윤리 혹은 알고리즘의 윤리를 요청하는 권고안, “로마가 인공지능 윤리를 요청함”(Rome Call for AI Ethics)을 발표하고, 교황이 이를 직접 제안하였다. (중략) 네 페이지에 불과한 짧은 문건은 우선 인공지능의 엄청난 발달이 초래할 유익을 나열하면서도 그 유익을 모두가 누릴 수 있을지는 아직 결정되지 않았다고 지적한다. (본문 중)

손화철(한동대학교 교수, 기술철학)

 

많은 개신교인들이 가톨릭교회와 교황에 대해 부정적인 인상을 가지고 있지만, 이천 년 동안 이어져 온 가톨릭교회의 위상과 지적 자산은 함부로 무시할 수 없다. 교리적 차이로 인한 반감이야 불가피하다 하더라도, 한국의 개신교인들은 가톨릭이 오늘날 세계에 던지고 있는 중요한 메시지들에 귀 기울이고 그들의 노력을 본받을 필요가 있다. 그중에서도 현대 과학기술에 대한 가톨릭의 문제 제기는 종교를 떠나서 많은 사람들에게 울림을 줄 뿐 아니라, 폭주하는 과학기술을 선도하기 위한 진지한 학문적, 정치적 고민의 계기가 되고 있다. 그 중심에 교황청 생명학술원(Pontifical Academy for Life)이 있다. 이 기관은 요한 바오로 2세에 의해 1994년에 설립된 이래, 생명윤리와 현대 과학기술에 대한 기독교적, 윤리적, 학술적 문제 제기와 대안 제시에 힘써 왔다.

지난 2월 말 개최된 교황청 생명학술원의 학술대회 주제는 “좋은 알고리즘?: 인공지능의 윤리”였다. 교황청은 이에 맞추어 인공지능의 윤리 혹은 알고리즘의 윤리(algor-ethics)를 요청하는 권고안, “로마가 인공지능 윤리를 요청함”(Rome Call for AI Ethics)을 발표하고, 교황이 이를 직접 제안하였다. 여기에 마이크로소프트와 IBM이 뜻을 같이하기로 하여 이 제안이 단순히 종교적인 차원에 머물지 않고 시대의 물음에 답하고 있는 것임을 잘 보여주었다.

 

“Rome Call For AI Ethics”를 발표하는 프란치스코 교황. (출처: AP통신 갈무리)

 

네 페이지에 불과한 짧은 문건은 우선 인공지능의 엄청난 발달이 초래할 유익을 나열하면서도 그 유익을 모두가 누릴 수 있을지는 아직 결정되지 않았다고 지적한다. 인공지능을 비롯한 현대기술은 인간과 환경에 도움이 되는 방식으로 개발되고 제어될 때에만 유익한 것이지, 그렇지 않으면 악용될 소지가 많다는 것이다. 이는 기술진보의 미래에 대해 교황청이 가지고 있는 기본적인 문제의식을 보여주는데, 이는 기술철학자의 입장에서 동의할 만하다. 이런 문제의식에 기초하여 권고안은 인공지능의 개발과 사용이 윤리, 교육, 권리의 측면에서 다음과 같은 숙고에 기반을 두어야 한다고 주장한다.

윤리적 측면에서는 인공지능이 인권과 환경을 지키고 보호하는 방향으로 개발되어야 한다. 이는 인공지능 기술의 발전이 누구도 차별하지 않으며, 인간의 좋음을 그 안에 품고 있어야 하며, 복잡미묘한 생태계를 보호해야 한다는 더 상세한 요구로 이어진다.

교육의 측면에서는 인공지능의 발전으로 모두가 유익을 누리는 데 필요한 교육이 차별 없이 이루어져야 함을 강조한다. 이는 다음 세대의 교육뿐 아니라 기성세대에게 평생교육의 기회를 주는 것을 포함한다. 인공지능이 직업을 없애는 것이 아니라 모두의 창의성을 더 고양하게 하여 누구도 뒤에 남겨지는 일이 없어야 한다는 것이다. 나아가 인공지능의 사회적 윤리적 함의에 대한 교육도 함께 강조한다.

권리의 차원에서는 인공지능이 소수자와 약자를 비롯한 인간의 기본적인 권리를 침해하는 일이 없어야 한다고 주장한다. 인공지능은 인권을 보호하고 평화를 확장하는 방향으로 사용되어야 하고 그 반대가 되어서는 안 된다. 이를 담보하기 위해서는 인공지능의 판단이 어떤 과정을 통해 이루어졌는지에 대한 공개가 기술적, 제도적 측면에서 보장되어야 한다. 기술적 측면은 이른바 설명가능한 인공지능(explainable AI)의 개발을 의미하고, 제도적 측면은 인공지능 사용에 있어서 투명성과 개방성을 보장하고 윤리적인 원칙을 분명히 지키도록 하는 것을 말한다.

이러한 목표들을 성취하기 위해서 교황청은 알고리즘의 개발과 설계 단계부터 윤리적인 원칙을 지키도록 하는 “알고리즘의 윤리(algor-ethics)”를 제안한다. 공학자뿐 아니라 정책입안자, 시민단체와 국제 사회의 협력을 통해 이 윤리의 자세한 내용을 채워가야 할 것인데, 이를 위한 여섯 가지 원칙을 제시하고 있다.

 

  1. 투명성(Transparency): 인공지능 시스템은 원칙적으로 설명가능해야 한다.
  2. 포괄성(Inclusion): 모든 인간의 필요가 고려되어 모든 사람이 유익을 얻고 모든 개인이 자신을 표현하고 발전시킬 수 있는 최상의 조건을 제공 받아야 한다.
  3. 책임성(Responsibility): 인공지능을 설계하고 사용하는 사람들은 책임성과 투명성을 담보해야 한다.
  4. 공평성(Impartiality): 치우친 입장을 가지고 창조하거나 행동하지 않아야 한다. 그럼으로써 공평함과 인간의 존엄을 지킬 수 있다.
  5. 신뢰성(Reliability): 인공지능 시스템은 믿을 수 있게 작동할 수 있어야 한다.
  6. 안전성과 사생활 보호(Security and Privacy): 인공지능 시스템은 안전하게 작동해야 하고 사용자의 사생활을 존중해야 한다.

 

이 제안은 아직 추상적으로 보일 수 있다. 그러나 자본주의 시장의 격렬한 경쟁을 고려할 때 이 제안들은 상당히 급진적이다. 현재 체제에서 인공지능과 관련된 상품과 서비스들은 자연스럽게 부자와 대기업에 유리한 방식으로 설계되고 있기 때문이다. 또한, 인공지능의 판단에 대한 이유를 개인이 알 수 있어야 한다는 것은 현재 인공지능을 통해 추구하는 마케팅의 방향과 일치하지 않는다.

 

ⓒpixabay.

 

기술적인 측면에서도 인공지능 개발자들이 고민해야 할 지점이 많다. 이미 설명가능 인공지능에 대한 많은 연구와 논의가 이루어지고 있기는 하지만, 많은 경우 인공지능의 기술적 신뢰성을 높이는 것이 방점을 둔다. 반면, 이 권고안에서는 설명가능 인공지능의 윤리적 측면을 강조하고 있다.

여기서 제시된 내용을 현실의 다양한 자리에서 구체화하기 위해서는 수많은 논의가 필요한데, 이번 교황청 발표를 통해 그 논의가 촉발된 것은 큰 의미가 있다. 세계 저명 학자들과 큰 기업들이 이 노력에 동참한 것만으로도 바티칸의 무시할 수 없는 영향력을 엿볼 수 있다. 이와 비교하면 개신교는 사실상 입장이 없다고 봐도 과언이 아닌데, 일원화된 조직의 부재라는 명백한 한계를 고려하더라도 부끄러운 일이다.

이번 교황청의 제안은 우리 시대와 미래의 중요한 문제인 인공지능 기술에 대한 고민이 필요함을 잘 보여줄 뿐 아니라, 과학기술의 영역에서 현실의 문법을 비판 없이 따라가고 있는 한국 교회에 경종을 울린다. 사실 이는 한국 교회와 개신교만의 문제가 아니고, ‘닥치고 발전’의 프레임에서 도무지 벗어나지 못하는 한국 사회 전체의 문제이다. 인공지능의 윤리와 기술사회의 미래를 고민하는 것은 조만간 닥칠 우리 삶의 구체적인 필요 때문에도 절실하지만, 좀 더 성숙한 성도, 성숙한 시민이 되기 위한 노력이기도 하다.

 

<좋은나무>글이 유익하셨나요?  

발간되는 글을 카카오톡으로 받아보시려면

아래의 버튼을 클릭하여 ‘친구추가’를 해주시고

지인에게 ‘공유’하여 기윤실 <좋은나무>를 소개해주세요.

카카오톡으로 <좋은나무> 구독하기

<좋은나무> 카카오페이 후원 창구가 오픈되었습니다.

카카오페이로 <좋은나무> 원고료·구독료를 손쉽게 후원하실 수 있습니다.
_
_
_
_

<좋은나무>에 문의·제안하기

문의나 제안, 글에 대한 피드백을 원하시면 아래의 버튼을 클릭해주세요.
편집위원과 필자에게 전달됩니다.
_

관련 글들

2024.11.25

노벨상을 받은 AI (성영은)

자세히 보기
2024.10.14

딥페이크(Deep Fake) 음란물 소동이 가짜(Fake)가 되지 않으려면(손화철)

자세히 보기
2024.09.11

거짓말의 과학(성영은)

자세히 보기