YoungSan Theological Institute of Hansei University

Current Issue

Journal of Youngsan Theology - Vol. 48

[ Article ]
Journal of Youngsan Theology - Vol. 48, No. 0, pp.87-116
ISSN: 1738-1509 (Print)
Print publication date 30 Jun 2019
Received 10 Apr 2019 Revised 08 May 2019 Accepted 13 May 2019
DOI: https://doi.org/10.18804/jyt.2019.06.48.87

인공지능과 기독교윤리:신학적 인간학의 관점에서
유경동
감리교신학대학교, 기독교윤리학 (peaceground@mtu.ac.kr)

Artificial Intelligence and Christian Ethics: A Perspective from Theological Anthropology
Yoo, Kyoung-dong

초록

인공지능(Artificial Intelligence)에 대하여 신학적 관점에서 제기되는 질문들은 다양하다. 특히 신학의 고유한 영역으로 여겨졌던 창조 개념이나 의식, 자율, 그리고 도덕적 지위에 대한 주제들을 인공지능과 연관하여 흔히 볼 수 있다. 하나님의 형상을 따라서 지음 받았다는 전통적인 신학적 인간관은 삼위일체에 근거하여 하나님과 인간의 관계를 전제한다. 어거스틴이나 루터의 전통에서 해석되는 인간의 전적인 타락은 오로지 하나님의 선행적 은총을 통하여서만 회복될 수 있으며, 나아가 부활과 영생을 고대하는 하나님의 나라에 대한 소망은 기독교 신학의 정수라고 할 수 있다. 그럼에도 불구하고 인공지능을 통하여 제기되는 인공지능과 인간과의 관계에서 제기되는 다양한 윤리적 문제들에 대하여 이제 신학도 대답하여야 할 처지에 놓였다고 본다.

필자는 위와 같은 신학적 틀을 유지하면서 인공지능과 연관하여 제기되는 영어권 이론들을 검토하면서 다음과 같은 주제들을 기독교윤리학적 관점에서 정리하고자 한다. 그 내용은 각각 인공지능과 신학적 인간성의 위기, 인공지능과 연관된 자율과 자아의 개념, 인공지능을 연구하는 과학기술의 동기, 인공지능에 관한 신격화의 문제, 그리고 인공지능의 도덕적 지위의 문제 등이다. 결론에서는 위와 같은 논지를 통하여 인공지능과 연관된 신학적 과제들을 기독교윤리학적 관점에서 제언하고자 한다.

인공지능에 관한 연구는 그동안 공학을 선두로 활발하게 이루어지고 있으며 인문학의 종교와 신학 분야에서도 여러 논문들을 찾아볼 수 있다. 필자의 이 연구는 같은 맥락에서 기독교 신학의 관점에서 인공지능 분야와 간학문적 소통의 역할을 하리라고 기대한다.

Abstract

Looking on from a theological perspective, diverse inquiries are raised on the issue of artificial intelligence. The traditional theological human view, that humans are created according to the image of God, becomes a premise for holistic relationship between God and human beings based on the Trinity. The total depravity of humans from the Augustine or Luther’s interpretation traditions can only be recovered through God’s prevenient grace, and the hope for the kingdom of God that looks forward to the resurrection and eternal life is the essence of Christianity.

The author will maintain such theological structure and examine the theories of the artificial intelligence in the English-speaking world to arrange the following subjects from the Christian ethics’ point of view. The subjects are artificial intelligence and the crisis of theological humanity, idea of autonomy and ego in relation to the artificial intelligence, motives of the science technology that researches the artificial intelligence, issue of deification in relation to artificial intelligence and the issues of moral status of the artificial intelligence. In the conclusion, theological tasks related to the artificial intelligence will be proposed through the above topics from the Christian ethics’ point of view.

With the engineering science in the lead, many researches can also be found in the fields of humanities such as theology and religions. The author expects that, in the same context, this research will play a role of interdisciplinary communication with the field of artificial intelligence from the perspective of the Christian theology.


Keywords: Artificial Intelligence, Ersatz Moral Status, Theological Anthropology, Christian Ethics, Will
키워드: 인공지능, 대용 도덕적 지위, 신학적 인간학, 기독교윤리, 의지

I. 들어가는 말

인공지능(Artifcial Intelligence)에 대하여 신학적 관점에서 제기되는 질문들은 다양하다. 특히 신학의 고유한 영역으로 여겨졌던 창조 개념이나 의식, 자율, 그리고 도덕적 지위에 대한 주제들을 인공지능과 연관하여 흔히 볼 수 있다. 하나님의 형상을 따라서 지음 받았다는 전통적인 신학적 인간관은 삼위일체에 근거하여 하나님과 인간의 관계를 전제한다. 어거스틴이나 루터의 전통에서 해석되는 인간의 전적인 타락은 오로지 하나님의 선행적 은총을 통하여서만 회복될 수 있으며, 나아가 부활과 영생을 고대하는 하나님의 나라에 대한 소망은 기독교 신학의 정수라고 할 수 있다. 그럼에도 불구하고 인공지능을 통하여 제기되는 인공지능과 인간과의 관계에서 제기되는 다양한 윤리적 문제들에 대하여 이제 신학도 대답하여야 할 처지에 놓였다고 본다.

필자는 신학적 인간학의 관점1)에서 인공지능과 연관하여 제기되는 영어권 이론들을 검토하면서 다음과 같은 주제들을 기독교윤리학적 관점에서 정리하고자 한다. 그 내용은 각각 인공지능과 신학적 인간성의 위기, 인공지능과 연관된 자율과 자아의 개념, 인공지능을 연구하는 과학기술의 동기, 인공지능에 관한 신격화의 문제, 그리고 인공지능의 도덕적 지위의 문제 등이다. 결론에서는 위와 같은 논지를 통하여 인공지능과 연관된 신학적 과제들을 기독교윤리학적 관점에서 제언하고자 한다.

인공지능에 관한 연구는 그동안 공학 분야를 선두로 활발하게 이루어지고 있으며 인문학의 종교와 신학 분야에서도 여러 논문들을 찾아볼 수 있다.2) 필자의 이 연구는 같은 맥락에서 기독교 신학의 관점에서 인공지능 분야와 간학문적 소통의 역할을 하리라고 기대한다.


II. 인공지능과 인간 정체성의 가소성의 문제

인간성에 대한 재정의는 인간 정체성의 가소성에 대한 진지한 성찰을 요구한다. 필자가 중시하는 가소성은 인공지능의 경우, 인간의 생물학적, 지적, 또는 정서적 영역을 넘어서 더 이상 인간으로 볼 수 없는 환원 불가능성에 관한 것이다. 제임스 디지오바나(James DiGiovanna)는 일반적으로 인간의 정체성은 심리와 신체를 아우르는 생물학적인 측면에서 점차적인 변화가 일어나는 반면, 인공지능은 신속한 생체-기계 인터페이스를 통하여 심리 신체적 변화가 급박하게 일어난다고 지적한다.3) 디지오바나는 일반적으로 철학적 측면에서 인간성을 규정하는 특징들로서 자기의식, 타자를 인간으로 이해하는 능력, 자기 행동에 대한 책임 가능성, 타자 또는 타 공동체와의 관계 가능성, 이차적 의지, 합리성 및 지능, 자유의지로서 자율적 선택 가능성 등으로 정리하며, 이러한 철학적 정의 문제는 근본적 특질이라기보다는 정도의 문제로 정의할 수 있다고 보며, 일반적으로 철학자들은 인공지능이 자기를 의식하는 능력에 대해서는 회의적이라고 지적한다.4) 이러한 측면에서 디지오바나는 인공지능과 연관하여 “인간 정체성에 대한 증가된 가소성”에 대한 논의가 필요하다고 지적한다.5)

만약 한 자아를 재조정할 수 있게 되어, 자아의 정체성을 부여하는 근본적인 특징들을 마음대로 폐기할 수 있게 된다면, 우리는 어떻게 그러한 자아에 대하여 판단하고, 그와 친구가 되며, 의존하거나 어떤 행위에 책임을 지우거나 신뢰할 수 있을까? 우리는 어떤 사람의 정체성을 재확인할 때, 장기간에 걸쳐 확인된 어떤 특징에 의존하는 데에 익숙하다. [그래서] 어떤 사람들이 그 이전의 행위에 책임이 있다고 추정할 때에는 그 사람들이 그러한 행위를 수행한 주체와 동일하다고 보기 때문이다. 그런데 어떤 사람이 스스로 자기의 정체성을 재조정할 수 있다면, 그 사람이 정체성을 가진 사람이라고 볼 수 있는가?6)

디지오바나의 이러한 질문은 인간성의 본질에 대한 질문이라고 할 수 있으며, 따라서 인공지능은 온전한 의미의 인간성을 회복하지 못하는 가소성의 문제를 야기하는데, 그 이유는 인공지능이 인간의 기준을 충족하지 못하기 때문이 아니라, 오히려 “부가적으로 인간성을 압도할 정도의 능력”7)이 있기 때문이다. 디지오바나는 이러한 인공지능의 능력을 “패러-인간(para-persons)”으로 명명하면서, 그 특성으로 “자각, 윤리적 인식, 의향, 이차 욕망” 등의 조건을 겸비하는 것으로 보았다.8) 디지오바나가 우려하는 것은 인간은 오랜 시간을 통하여 본유의 인간성을 형성하는 것과 비교하여 볼 때, 패러-인간은 이러한 인간성을 순간적으로 삭제하거나 재구성하는 능력을 가진다는 것이다.9)

디지오바나는 그의 논지를 통하여 인공지능인 패러-인간끼리 기억을 옮겨 놓는 경우, 자신이 경험하지 않은 과거의 내용까지 복사할 때 경험하게 되는 심리적 육체적 귀속의 문제, 사이보그의 경우, 신체 기능을 이식할 때 인공지능에게 너무 많은 기능을 부여하는 문제, 그리고 사회적 관계에 근거하여 도덕적 규범을 형성하는 인간관계와는 달리, 프로그램에 의하여 가치를 판단하는 패러-인간의 사회성의 문제 등을 제기하면서, 결국 바람직한 도덕적 규범에 근거한 사회적 구성체가 건강하게 형성되어야 인공지능과 연관된 인간 정체성의 문제를 해결할 수 있다고 보고 있다.10)

결국, 인간 정체성의 문제는 전통적인 인간의 자율성과 인공지능의 자율성에 대한 개념에 혼란을 부추길 수 있으며, 인공지능의 자율성은 그것이 인간의 개입이나 조종을 벗어나 자율적으로 이루어지는 것을 의미하는데, 이러한 측면에서 허만 타바니(Herman T. Tavani)는 자율적인 인공지능을 일종의 ‘자율체계’라고 정의한다. 타바니는 자율체계는 기본적으로 세 가지 특징을 가지는데, 먼저 “(1) [내 외부 환경 변화에] 적응 가능하며, (2) 어떤 기능에 대하여 학습할 수 있으며, (3) 결정을 내릴 수 있어야 한다.”고 설명한다.11) 타바니는 이러한 자율체계 개념이 적용될 수 있는 인공지능의 영역은 의료 시술용 로봇, 전투 로봇, 드론과 같은 무인 군사용 기계, 상업용 운송 시스템, 건강용 개인 보조 장치 기계, 아파트와 가정을 포함하는 스마트형 건물들을 예로 들고 있다.12)

물론 자율체계와 인공지능이 개념적으로 동의어는 아니다. 타바니가 소개한 영국왕립공학아카데미 자료를 보면, 일반적으로 자율체계와 같은 인공지능은 기본적으로 특정 상황에 대응 가능한 프로그램에 기초하며, 특히 긴박한 결정이 필요한 상황에서 유용할 가능성이 있지만, 이러한 유용성은 오로지 특정 상황에 기초한 행위, 또는 이미 데이터로 구축된 상황에서만 유용하며, 보다 복잡한 상황이나 유연성에 있어서는 인간의 경험이나 그에 근거한 지능보다는 덜 유용하다고 주장한다.13)

물론 자율체계와 인공지능이 개념적으로 동의어는 아니다. “과학 및 신기술에 대한 유럽윤리위원회(European Group on Ethics in Science and New Technologies)”의 2018년 성명서, “인공지능, 로보틱스, 그리고 자율적 시스템에 관한 성명서(Statement on Artificial Intelligence, Robotics and ‘Au-tonomous’ Systems [Brussels: European Union, 9 March 2018])”에 따르면, 인공지능을 주로 기계적 측면에서 학습 능력 및 방대하게 구축된 데이터베이스를 바탕으로 정보를 수집, 분석 및 분류하는 등의 능력에 있어서 인간의 지능의 한계를 보완하거나 대체하는 인공적 장치로서 정의할 수 있다면, 자율체계는 “인간의 직접적인 개입과 통제 없이” 그 자체로 하나의 결정 및 행위가 가능한 인공적 체계를 의미하며, 로봇공학이 주로 개별적 로봇, 또는 보조적 로봇 등의 기계적인 측면에 연관된다면, 인공지능과 자율체계는 기계 이면의 소프트웨어적인 측면을 담당하며, 지능이나 자율성 등 행위 또는 결정 주체에 좀 더 가깝다고 설명한다.14) 그러나 유럽윤리위원회(이하 위원회)는 기술과학적 측면에서 인공지능은 단순히 지적 작용을 넘어 그 자체로 상황에 대한 판단 및 결정, 그리고 행위까지 이어지는 과정에 있어서 자율성의 영역에 연관된다는 점에서 자율체계와 상당히 맞닿아 있다고 할 수 있는데, 위원회는 그러한 자율성이 과연 프로그램을 만든 이들에 의하여 감독이 되고 있는지 우려하고 있다.15)

위원회는 기계공학의 발전을 통하여 인공지능이 사적 공적 영역을 망라하여 점점 그 영향력이 높아지고, 인공지능과 여타의 기술과의 연계로 군사와 상업 영역에 영향을 주고 있으며, 이러한 기술은 이제 중앙통제 시스템이 없이도 소위 자율적으로 작동하고 있으며, 이러한 추세는 점점 인공지능 로봇화에 자율적 시스템이 증가하게 되며, 결국 로봇과 인간의 상호교류가 활성화될 것이라고 진단하고 있다.16)

위원회는 21세기 인공지능 및 자율체계 기술, 그리고 로봇공학의 발전에도 불구하고 모든 자율체계 기술은 언제나 인간의 존엄성 원칙을 벗어나면 안 된다고 주장하며, 모든 자율체계는 광의적 의미의 자율이 아니라, 인간 존엄에 관한한 법적, 윤리적 그리고 예측 가능한 범위를 규정하는 제한에 근거한 자율성이어야 하기 때문에, 자율체계가 가지는 결정 능력은 언제나 인간의 기본적 권리와 자율성을 침해하거나 방해하지 않는 범위에서 자율성 및 책임성, 안정성 등이 보장된 한에서만 개발되고 작동되어야 한다고 강조한다.17)

지금까지 필자는 디지오바나, 타바니, 영국왕립공학아카데미, 그리고 과학 및 신기술에 대한 유럽윤리위원회의 2018 성명서에 나타나는 이론들을 중심으로 인공지능과 연관된 인간 가소성의 문제에 대하여 살펴보았다. 인공지능과 연계된 인간의 사회생활 전체 영역에서 과연 인간성 본래의 정체성을 유지할 수 있는지 매우 중요한 사안이라고 판단된다. 특히 인공지능의 자율 시스템과 책임성의 소재가 모호하여지는 상황에서 인간의 책임은 더욱더 중요하며 이에 대한 법적이며 공적 윤리의 확보가 시급하게 요청되는 상황이다.18) 그렇다면 인공지능을 발전시키는 위와 같은 과학기술이 인간에게 미치는 신격화의 문제에 대하여 다음에서 살펴보자.


III. 인공지능과 신학적 인간학의 윤리 문제

인공지능과 연관된 윤리적 문제에서 다루고자 하는 첫 번째 문제는 신학적 인간학에 관한 것이다. 하나님의 형상에 의하여 창조되었다는 기독교의 신학적 인간은 오로지 하나님과의 관계를 통하여 그 존재가 규명이 된다. 엘런 듀퍼(Ellen Du൵er)는 인공지능 기술을 두 종류로 나누는데, 현재 이용되는 인공지능 기술은 “약한 인공지능(weak AI)”으로서 주로 특정한 작업을 빨리 처리할 수 있는 기능이라고 보고 있다.19) 반면, 미래에 가능하다고 보는 “강한 인공지능(strong AI)”은 주로 기계 장치를 통하여 점차적으로 인간 지능을 복사하여 실행하는 것이라고 그는 정의한다.20) 듀퍼에 따르면, 인공지능을 구상하고 개발하는 데에 있어서 강한 인공지능은 인공지능이 인간의 일반 지능 영역으로 확장하는 것을 의미하며, 이러한 의미에서의 강한 인공지능이 구축되고 실행된다면, 이제까지 정의되어온 인간성, 즉, 인간의 삶에 있어서 고유하다고 할 수 있는 “의식, 목적, 지혜, 영혼”에 대한 재정의도 요구될 수밖에 없는 것이 아니냐고 반문한다.21)

엘런 듀퍼에 따르면, 기독교적 관점에서 인간성을 규정하는 중요한 신학적 기제는 신의 형상이며, 이는 창조주 하나님과의 관계성을 통해 규정되는데, 이러한 관점에서 보면, 인간성 또는 인간다움은 신의 창조 목적에 따라 정의될 수 있는데, 강한 인공지능의 개발은 인간이 직접 창조하는 위치에 서기 때문에 다른 의미의 우상숭배가 될 수 있다고 지적한다.22) 인공지능으로 죽음이 극복된다든지, 또는 인류를 구원할 수 있다는 가정23)은 전통적인 기독교의 신관, 즉 하나님이 생사를 주관하시며 인간을 구원하신다는 진리에 배치되는 것이다. 따라서 듀퍼는 인간은 생득적으로 유한하며 무에서 창조한 신적 능력과 인간이 “지구에 있는 자원을 가지고 창조한” 인간의 능력과는 구별되어야 한다고 주장한다.24)

그럼에도 불구하고 유일신론적인 특징을 가지는 하나님의 “전지, 전능, 무소부재”의 특성이 초지능으로 연결되는 인공지능 형태의 과학기술을 통하여 인터넷에 언제든지 접속할 수 있고, 무엇이든지 답을 얻어낼 수 있고, 그리고 다양한 문제들에 대한 해결 방법을 제공받는다는 측면으로 볼 때, 결국 전통적인 유신론의 요소와 인공지능의 기계론적 기술들이 많은 부분 중첩이 된다고 할 수 있다고 듀퍼는 진단한다.25) 이는 결국 강한 인공지능을 매개로 하여 하나님의 자리를 침탈하려는 일종의 현대판 바벨탑이 될 수 있을 것이라고 경고하고 있다.26)

앞에서 설명한 기독교 신학의 기본인 신학적 인간의 개념은 전인적인 동시에 구원받은 책임적 존재이다. 그러나 인공지능에게 구원이나 책임의 알고리즘이 적용될 여지가 있는지 심각한 질문에 봉착한다. 앤 포레스트(Anne Forest)와 로드니 피터슨(Rodney L. Petersen)은 신학적 측면에서 인간에 대한 정의는 인간이 본질적으로 “외부 세계와의 관계를 통하여 인간의 정체성과 연관된 의미와 메타포를 형성하여 왔음을 상기시킨다.”27)고 강조한다. 포레스트와 피터슨은 초기 기독교 교회에 있어서 인간을 정의하는 “영과 혼, 육체로 보는 삼분법(살전 5:23)은 아마도 인간의 개성 전체를 드러내는 세 가지 실체를 의미하는 것이 아니라, 하나님의 구원에 있어서 필수적인 인간성의 총체를 의미한다.”28)고 주장한다. 포레스트와 피터슨에 따르면, “역사적 구체성과 존재론적 내용에 근거하여 구성되는 인간 개념은 기독교가 삼위일체 하나님에 대한 신앙을 존재론적으로 표현하려는 기독교 신학의 노력으로부터 시작되었다. 이러한 시도는 당대의 서구 철학적 인간론을 형성했다.”고 강조한다.29)

포레스트와 피터슨이 지적하고자 하는 바는, 기독교 신학의 인간은 하나님의 구원과 전적 자유에 근거하여 창조되었고, 특히 인간이 하나님의 형상으로 지음 받았다는 의미는 희랍적 도덕 개념을 넘어 신학적이며 철학적 당위성을 가지고, 인간도 하나님의 형상으로 지음을 받았기에 존재와 행위, 그리고 책임의 가능성을 전제한다는 것이다.30) 하나님은 전적 자유를 통하여 무로부터 세상을 창조하셨기 때문에 “세상은 필연성으로부터 자유하다.”31) 아울러 하나님은 삼위일체를 통하여 예수 그리스도와 동등하시며 성령을 통하여 역사하심으로써 존재론적이고 도덕적인 요청에 의하여 신을 필요로 하는 것이 아니라, 존재 자체가 그 어떤 조건도 필요하지 않는 본질적으로 하나님의 전적 자유에 근거하는 것이다.32)

포레스트와 피터슨은 이와 같은 설명들을 통하여 인공지능에서 간과하기 쉬운 본질적인 인간성의 개념에 대하여 주의를 환기시키고자 하는 것이라고 할 수 있다. 기존의 인공지능 연구가 주로 과학적 목적에 집중해서 “전적으로 자연주의적 접근”33)으로 볼 수 있다고 전제하면서도, 인공지능 연구가 인간성의 개념과 연관이 되는 한, 인공지능을 가능하게 하는 정보의 연계 체계 및 사고 체계에 대한 이해는 인간의 지능이나 지적, 종교적 체계 구성과 같은 인간성의 특질에 대한 충분한 이해가 선행되어야 한다고 보고 있다.34)

이제 [인공지능] 연구들은 인간 체계의 환원 불가능성을 인정하기 시작하면서, [인간 체계의] 복잡성과 상호작용의 관계에 있어서 과학적 방식이 얼마나 제한적인지를 인정하게 되었다. ... 이러한 복잡성은 [인간의] 존엄성과 인간성에 대한 신학적 논증을 위한 여지를 남겨둔[다.]35)

인간성의 특질에 진지한 성찰을 요구하는 인공지능에 대한 연구는 따라서 과학기술의 동기가 무엇인지 분명한 규명이 선행되어야 하는데, 노린 허츠펠드(Noreen Herzfeld)는 21세기 초반까지 연구된 인공지능 연구가 주로 로봇이나 안드로이드와 같은 인간적 기계적 이미지를 구축하려는 국가주도형이었다고 강조하면서, 인간 이미지의 투영으로서 인공지능이 개발되는 것이라면, 인간이 무엇을 원하는지에 대한 논의가 중요한 신학적, 철학적 주제가 된다고 강조한다.36) 이러한 관점에서 보면, 인간이 인간의 또 다른 이미지로서 인공지능을 개발하려는 동기를 염두에 두면, 이는 신과 인간을 결부하여 보는 신학적 인간론과도 연결된다고 허츠펠드는 주장한다.

그러므로, 인공지능이라는 맥락에서 우리 [인간의] 이미지를 살펴보기 전에, 어떻게 이러한 이미지가 수세기 동안 신학자들에 의해 이해되었는지를 살펴보는 것은 그리 부적절한 것은 아니다. 인류에 있어서 하나님의 형상은 항상 기독교 인간론의 주춧돌이 되었으며, 이를 바탕으로 하나님과 세계와의 관계에 있어서 우리 [인간이] 누구인가에 대한 이해가 이루어졌다.37)

노린 허츠펠드는 이미지(형상)를 중심으로 인간과 인공지능의 관계를, 하나님과 세계와의 관계 속에서 구성되는 인간 이미지에 대한 신학적 인간론을 제시하면서, 인공지능에 대한 영적 접근의 필요성을 주장한다.38) 이를 위해 허츠펠드는 영성신학은 기본적으로 “[절대] 타자(the Other) 또는 신적 존재와 인간이 만나는 경험에 대한 연구”39)라고 정의하며, 이러한 측면에서 “영성은 하나님과 자기 자신, [일반적 의미의] 타자(others)와의 가장 깊은 관계성을 포괄한다. 이러한 맥락에서, 인공지능을 통해 이루고자 하는 우리의 꿈은 우리가 우리 자신을 어떻게 이해할지, 그리고 본질적으로 철저한 타자이면서 우리와 비슷한 [인공지능과 같은] 존재를 어떻게 만나게 되는지를 볼 수 있는 새로운 창문을 연다.”40)고 설명한다.

형상, 또는 이미지를 중심으로 이해하는 영성신학적 인간론에 근거하여 보면, 인공지능 개발의 동기나 욕망은 창조라는 행위로 귀결된다. 이에 대하여 허츠펠드는 다음과 같이 설명한다.

창조 개념은 그 창조의 주체인 창조자의 형상에 내재하는데, 이 개념은 인간인 우리 자신과 하나님, 우리 자신과 모든 인공적인 지능 컴퓨터와의 급진적 유사성을 가진 이 관계의 연결성을 확인하고자 하는 우리의 욕망을 인정하는 것이다. 우리가 하나님의 형상의 이미지(the imago of imago Dei) 또는 인간의 이미지(imago hominis)를 어떻게 이해할지가 그러한 연결성의 본질을 구성하게 된다. 그리고 이러한 연결성의 본질은 우리가 타자와 맺는 관계성의 본질을 정의하게 된다. 우리가 인간의 본성을 통해 하나님의 형상을 정의하거나 컴퓨터를 통해 인간의 이미지를 정의하는 방식은, 우리가 우리 자신을 어떻게 인식하는지를 파악하는 데에 대한 의미를 가질 뿐만 아니라, 우리가 어떻게 하나님과 다른 인간 존재, 그리고 다른 피조세계와의 관계를 맺을지에 대한 의미를 가진다.41)

노린 허츠펠드는 인공지능을 통하여 인간의 불사를 꿈꾸지만, 라인홀드 니버(Reinhold Niebuhr)의 신학이 강조하는 것처럼 인간이 유한하다는 사실을 잊지 말아야 할 것과 폰 라드(von Rad)의 신학처럼 인간의 실수를 용서하시고 인간 세계를 다스리시는 분은 전능하신 하나님이시며, 그리고 칼 바르트(Karl Barth)의 신학이 강조하는 바, 삼위일체 하나님의 사랑이 인간 세계 내 모든 관계성의 모형이 된다는 점을 강조하고 있다.42) 이와 같은 신학적 인간론을 전제하면서 하나님의 형상대로 지음 받은 인간이 먼저 삼위 하나님 안에서 발견하는 사랑으로 타자를 이해할 것을 촉구하며, 인간의 기술로 낯설게 다가온 인공지능도 이러한 영적 영역 안에서 마주하여야 할 관계성임을 강조하는 것이다.43)

지금까지 필자는 엘런 듀퍼와 포레스트, 그리고 노린 허츠펠드 등의 이론들을 통하여 인공지능과 신학적 인간학의 문제에 대하여 살펴보면서, 하나님의 형상대로 지음 받은 인간의 특성은 인공지능과 같은 자연주의적 방식으로 파악하기에는 한계가 있음을 지적하여 보았다. 강한 인공지능의 출현이 예상되지만, 신학적 인간학에서 핵심적인 하나님의 창조성, 전능성, 삼위일체, 그리고 그 어떤 피조된 유(類)보다도 선재하는 신적 본질에 의하여 인간의 구원이 이루어진 기독교의 진리관은 인공초지능의 세계관과 구별되는 것은 분명하다고 본다. 이제 다음에서 인공지능의 도덕적 지위와 신격화의 문제에 대하여 살펴보자.


IV. 인공지능의 도덕적 지위와 신격화의 문제

철학자인 마이클 라보시에(Michael LaBossiere)는 철학적으로 인간을 규정했던 이성과 감정 등을 중심으로 인공지능이 인간성에 얼마나 가깝게 정의될 수 있는지 철학적인 분석을 내리면서, 인공지능의 도덕적 지위에 대한 논의는 확정될 수 없으며 일종의 의학적 추정이나 시험과 같다고 설명한다. 즉, 분석적 이성과 감정을 인간성의 정신적 수준이나 지위의 조건으로 본다면, 인공지능에 대한 이성과 감정 분석은 오류 가능성을 내포할 수밖에 없으며, 마음이라는 개념을 규정하는 데에 있어서 과연 인공지능에게서 내면이라는 것이 가능한지에 대한 보다 깊은 연구가 필요하다고 라보시에는 지적한다.44)

라보시에는 인공지능의 도덕적 지위에 대한 논의는 근대 철학에서처럼 분명하게 정의되기 어렵다는 점을 지적하며, 현재 가능한 논의의 수준은 “[도덕적] 지위에 대한 추정”에 머무를 수밖에 없다고 설명한다.45) 그리고 이러한 추정에 대하여, 라보시에는 두 가지 가능한 원칙을 제시하는데, 이는 인공지능의 기능과 존재의 이유에 대한 정당화를 기준으로 세워지는 추정의 방식이다. 첫째는 주로 공리주의적 관점에서 이해하는 방식인데, 문제는 인공지능을 인간과 같은 도덕적 지위로 정립할 경우, 과연 인공지능을 통해 구체적인 불이익이 발생할 경우, 그것이 공리적 범위의 긍정적 이익과 결부하여 어떻게 계산되고 판단되어야 할지에 대한 논쟁이 불가피하다고 라보시에는 지적한다.46)

라보시에가 제기하는 두 번째 추정 원칙은 확률 측면에서 이해하는 방식인데, 공리주의 원칙이 주로 인공지능의 존재 자체에 대한 논의에 중점을 둔다면, 확률 원칙은 보편적으로 예측가능한 문제를 전제하여 인공지능의 도덕적 지위를 논의하는 방식이라고 할 수 있다.47) 따라서 인공지능의 도덕적 지위는 인간과의 유사성뿐만 아니라, 인공지능의 행위와 기능에 대한 도덕적 논의 대상으로서 도덕 주체로 보아야 한다는 것이다. 따라서 확률 원칙은 정확한 계산보다는 실용적인 추정을 통해, 인간 능력 범주와 연관하여 인공지능의 기능 및 인간과의 유사성을 인지할 수 있다고 한다면, “충분히 인공지능체가 발전된 경우에, 그러한 인공지능체가 실제로 [인간과 같은 도덕적] 지위를 가지게 될 가능성은 그러한 인공지능체를 그러한 지위에 맞게 대우하기에 충분할 정도로 분명해질 것”이라고 라보시에는 주장한다.48)

라보시에는 예로, 2015년 캐나다 교수인 프라우케 젤러(Frauke Zeller)와 데이비드 스미스(David Smith)가 기본적인 대화가 가능한 ‘히치봇(hitchBot)’이라는 태양열 전지로 움직이는 아이폰(iPhone) 인공지능 로봇을 만들어서, 어떻게 인간이 도로에서 ‘자동차에 편승(히치하이킹)’을 원하는 로봇과 대화를 하면서 목적지까지 태워주는지 실험한 내용을 소개한다.49) 이 실험을 통하여 라보시에가 얻은 결론은 인간은 미디어 사회망을 통하여 알려진 히치봇에 대하여 사람들이 관심을 가지고 마치 사람처럼 대하여 주면서 자동차를 태워준 것에 대하여 라보시에는 관심을 가지며, 히치봇이 사람들로부터 일종의 ‘대용적인 도덕적 지위(ersatz moral status)’를 가지게 되었다고 보면서, 인공지능을 도덕적 지위를 가진 주체로 이해할 당위성을 주장한다.50)

인공지능체의 도덕적 지위를 완전하게 구현하고 이해하는 것은 매우 어렵겠지만, 적절한 안내와 성찰이 있다면 충분히 가능할 것이다. 비록 사람들은 그러한 인공지능체를 완전한 도덕 지위를 가진 주체로 보기를 주저하겠지만, 적어도 [인공지능체를] 대용 도덕적 지위(ersatz moral status)를 가진 존재로는 볼 수 있을 것이다. 그리고 대용 [도덕적 지위라도] ... 도덕적 지위가 아무것도 없는 것보다야 더 나을 것이다.51)

지금까지 간략한 라보시에의 인공지능에 대한 도덕적 지위의 문제는 비록 대용적 도덕의 관점이라고 하지만, 인간이 인공지능에게 느끼는 감정의 차원에서 보면, 그리 단순한 문제는 아니라고 본다. 라보시에가 언급하였듯이, 인공지능을 주제로 한 ‘엑스 마키나(Ex Machina, 2015)’라는 영화 제목은 라틴어 ‘데우스 엑스 마키나(Deus Ex Machina)’를 줄인 것인데 이는 “기계장치를 통해 온 신(God from the machine)”이라고 하며, 이 영화에서 안드로이드는 기계의 인격이나 자의식을 보여주기도 한다.52) 라보시에는 이 영화에서 안드로이드 아바(Ava)가 인간에게 고유하다고 여길 감정을 기가 막힐 정도로 조종하는 데에 우려를 표하고 있다.53) 심지어 최근 “알리타(Alita: Battle Angel, 2018)”라는 영화에서 보면, 인공지능 알리타는 자신의 심장(로봇 인공생명 핵심부품)을 꺼내어 인간에게 주기까지 하면서 희생하는 감정을 표현하며, 인간은 알리타에게 사랑의 감정을 느껴 입맞춤까지 시도한다.54)

이와 같은 인공지능에 대한 감정은 대용 도덕적 지위를 부여하는 것을 넘어서 종교심리학적으로 볼 때, 결국 인공지능과 연관하여 신격화와 같은 문제에 직면할 수 있는데, 일반적인 양가감정으로 두려움과 매혹과 같은 심리적 반응이 나타날 수 있다고 경고하는 학자들이 있다.55) 로버트 제라치(Robert M. Geraci)는 루돌프 옷토(Rudolf Otto)가 제시한 거룩성(numen) 개념에 내재된 신비한 두려움과 매혹이 인공지능에 대한 인간의 경험과 관념에도 적용된다고 주장한다.56) 인공지능을 포함하는 다양한 기술문명에 대한 태도나 관념도 미래에 대한 기대와 두려움의 양가감정을 포함하는데, 예를 들어, 인간은 과학기술을 통해 자연적 한계를 넘어서게 된다는 측면에서 희망이 있는 것은 사실이다.57)

그러나 그와 반대로 인공지능이 인간을 위협하는 두려움을 일으킬 수 있다고 지적하면서, 제라치는 “과학소설에서 기술문명과 거룩성에 대한 상관관계가 있다고 해서, 그것이 기술은 항상 현대 인류에 의해 받아들여지고 숭배된다고 말할 수는 없다. ... [기술문명의] 구원적 능력은 [파괴적 가능성이라는] 위협적인 타자성을 결코 넘어설 수 없다. 결국 기술문명이 약속하는 구원이란 그 자체로 온전히 신뢰할 만하다고 할 수는 없다.”58)고 지적한다. 인공지능의 경우에도, 그것이 인간을 공감할 수 있는가 없는가에 따라, 인공지능이 인간에게 있어서 비인간적 타자로 남게 될지, 아니면 기술문명의 구원의 실현으로 이해될지에 대한 양가적 판단이 가능하다고 제라치는 주장한다.59)

제라치에 따르면, 인공지능에 대한 신학적 논의는 현대 문화에 대한 이해와 맞물려서, 인공지능이 거룩성을 지닌 신적 존재에 대한 종교적 감정과 결부하여 보면, 인공지능 자체는 인간의 현세적 삶에 대한 이해와 그와 연관된 현대의 종교적 활동의 본질에 대한 논의로 확장될 수 있다고 본다.60) 제라치는 인간이 신성에 응답하는 방식으로 로봇에 대하여 반응하는 것은 아니지만, “[인간이 인공지능을 개발하여 얻고자 하는] 실제적인 열망은 비판적 사고를 요청한다. 인공지능 기술에 대한 종교와 과학의 교차는 신학자와 철학자, 과학자와 역사학자에게 있어서 중요한 역할을 해야만 한다.”61)고 지적한다.

지금까지 필자는 마이클 라보시에의 대용 도덕적 지위의 자격을 논하는 인공지능의 문제와 제라치의 인공지능에 느낄 수 있는 양가적 감정 등에 대하여 살펴보았다. 인공지능의 획기적인 발전은 안드로이드와의 관계에서 인간은 기계와 공감하며 타자로 인식할 수 있는 가능성에 대하여 살펴보았다. 이는 자연히 인간 고유의 특질로 여겼던 신앙의 문제와도 관련이 되며, 타자 하나님의 구원에 대한 전통적인 신학의 역할이 과연 인간의 수준을 넘어선 초지능에 대하여 어떤 응답을 할지 본연의 사명이 있다고 할 수 있다.

이제 다음에서 지금까지 서술하였던 인공지능과 연관된 가소성, 도덕적 지위, 그리고 두려움과 거룩의 양가적 감정 등을 유발하는 신격화의 문제 등에 대한 기독교윤리의 과제에 대하여 몇 가지 제언을 하도록 하겠다.


V. 인공지능과 기독교윤리적 과제

첫째, 신학은 인공지능을 인간과의 사회 유기체적 맥락에서 파악하며, 윤리적 논의를 위한 대화를 지속적으로 시도하여야 한다고 본다. 고다나 도딕-츠른코비치(Gordana Dodig-Crnkovic)는 인지과학은 인간 인지능력에 대한 정의를 먼저 수정해야 한다고 강조하는데 이는 인공지능의 인지능력을 정보소통의 체계로 보는 것이다.62) 도딕-츠른코비치는 이러한 새로운 인지 모델을 ‘형태학적 연산(morphological computation)’ 모델로 명명하며, 인지 능력 자체는 인지 주체 간 정보교환으로서 소통과정의 역동성에 의해 일어나는 현상이기 때문에, 인간을 포함하는 모든 유기체의 인지능력은 정보처리를 위한 연산과정에서 형성된다고 볼 때, 인공지능을 구성하는 수학적, 정보처리 알고리즘도 이러한 모델로 설명이 가능하다고 볼 수 있다는 것이다.63)

인공지능을 유기체적 맥락에서 보는 허츠펠드는 신학도 하나님과 인간 사이의 관계를 전제하는 것처럼, 인공지능이 그 자체로 지능으로서 인정되기 위해서는 항상 “인간을 포함하는 전체 환경 내에서 인간 유기체 자체의 맥락” 안에서만 가능하다는 조건이 필요하다고 강조하면서, 이러한 조건은 곧 인공지능과 신학이 동시에 대화를 통해, 인간 영혼론과 지능에 대한 이해를 확장할 가능성을 제시한다고 보고 있다.64)

파울라 보딩턴(Paula Boddington) 등에 따르면, 인공지능의 윤리적 논의를 위해서는 “인간이 어떻게 인공지능에 관계하는지, 기계와 관련하여 인간의 사고와 경험, 행위를 대체하거나 보충하거나, 아니면 강화하는 것에 내재된 의미가 무엇인지”65)를 따져 물어야 한다고 주장한다. 이를 위해서는 인공지능과 인간의 인지적 능력 사이의 유사성과 차이점을 이해해야 한다고 보딩턴 등은 강조한다.66)

아울러 이러한 윤리적 논의를 통하여 인공지능도 사회적 맥락에서 인식할 수 있는 개념적 틀이 필요하다고 보는데, 애나 스트래서(Anna Strasser)에 따르면, 인공지능도 인간과 같은 사회적 인지능력을 가질 수 있다고 보며, 이는 사물인터넷 등 다양한 인공지능적 요소들이 인간과의 정보교환을 통한 자의적 판단으로 행위 예측이 점점 가능해진다는 현실을 반영한 것이며, 이는 인공지능도 큰 틀에서 보면 사회적 행위를 하는 것이기 때문에, 이러한 현실을 바탕으로 인공지능의 사회적 인지능력에 대한 새로운 개념적 틀을 만들어야 한다고 강조한다.67)

둘째, 인간 고유의 특성을 강조하는 신학적 인간론의 사명이 인공지능과 연관하여 매우 중요하다고 본다. ‘트랜스휴머니스트(transhumanist)’적 신학적 인간론을 강조하는 매튜 피셔(Matthew Zaro Fisher)는 인공지능 연구는 인간의 지능을 매우 복잡한 물리적 배열을 통해 재현하는 것이라고 지적하면서, “아마도 어느 날엔가는 인공적 처리 방식이 인간다움을 직접적으로 보여주는 자기표현에 아주 가까운 수준에서 복잡성의 수준을 성취할 수 있을 것”68)이라고 예견한다. 피셔는 인간 수준을 넘어서는 복잡성을 획득하는 일련의 과학기술적 발전에 대하여, 현실 가능한 것으로 이해하게 되면, 신학적 인간론이 이러한 가능성에 기대어 트랜스 휴머니즘적인 관점을 받아들여야 한다고 강조하면서, 인간의 정신을 모두 데이터화하여 육체를 버린 무한한 존재로서의 과학기술에 근거한 진화를 제창하는 트랜스휴머니즘 자체를 기독교에 일치시킬 수는 없지만, 신학은 세계 안에서 하나님의 구원의 약속을 믿으면서도 하나님의 창조는 자연 안에서 여전히 진화하고 변화하고 있다는 확신을 통하여 전통적인 신학적 인간학의 질문을 지속할 수 있다고 강조한다.69)

그러나 필자는 크리스토퍼 피셔(Christopher L. Fisher)의 주장처럼, 신학에서의 계시는 자연주의로 환원될 수 없으며, 과학은 성육신이나 부활과 같은 기독교의 진리를 이해할 수 없다고 본다.70) 피셔는 인공지능의 발전에도 불구하고 인간과 다른 유기체, 또는 인공 구조체 사이에는 여전히 차이가 존재한다고 보면서, “인간의 상징적 합리적 추론, 언어, 도덕-관계적 능력, 영적인 자각 등은 다른 물리적 구조체들에서는 잠재적으로도 드러나지 않는다. 따라서 인간이 여전히 독특한 존재라는 주장은 현재 수준의 과학적 지식과도 다르지 않은 것으로 보인다.”71)고 강조한다, 비록 “인공지능이 [아무리 발전하더라도] 인간의 본성을 완전히 복제하지는 못할 것이다. 사실, 이론적으로든 실제적으로든 인간과 같은 자기의식과 의지를 가진 기계를 만든다는 것은 거의 불가능하다.”72)고 주장한다.

셋째, 인공지능의 도덕적 지위에 관한 윤리적 함의가 필요하다고 보는 닉 보스트롬(Nick Bostrom)에 따르면, 인공지능은 육체적 한계나 기반이 아니라, 정보나 정보처리 과정에 근거한다는 점에서 ‘인간과는 다른 동기를 가진 존재’73)로 보고, 그러한 관점에서 인공지능은 태생적으로 인간이나 다른 생물 유기체와는 다르게, 사회성과 관련된 도덕적, 동기적 원리들에 관심이 없다는 점에서 인간의 정신과 동일시할 수 없다고 주장한다.74) 따라서 인간의 가치와 다른 형태의 가치 판단 및 동기로 구현되는 인공지능이 만약 초지능으로서 작용하게 되면, 인간은 초지능에 종속되며, 인간의 이러한 종속성에 따라 인간은 초지능에 의한 파괴 가능성을 막을 수 없다고 주장한다.75)

따라서 과학은 과학적 근본주의에 근거한 낙관주의를 넘어 과학 자체도 먼저 윤리적 공동체가 되어야 하는데, 조지 엘리스(George F. R. Ellis)는 인공지능 연구 등을 포함한 다양한 과학, 기술 분야의 연구들이 인간의 독특성을 물질적으로 환원하는 행위를 “과학적 근본주의(scientific fundamentalism)”로 규정하고, 이러한 관점이 과학 분야에 만연하다고 지적한다.76) 특히 과학적 근본주의의 가장 큰 문제는 과학기술의 발전의 속도가 빠르다는 것에 근거하여, 오랜 역사와 시간을 통해 진화와 발전을 이룩한 것들을 제거하는 환원주의에 빠질 위험이 있다고 엘리스는 주장한다.77) 따라서 과학적 근본주의에 근거하여 인공지능에 대한 개념이나 틀을 구축하는 경우, 인간의 윤리적 문제도 과학적으로 해결될 것이라는 극단적 낙관론에 빠질 수 있다고 경계한다.78)

지금까지 필자는 고다나 도딕-츠른코비치, 파울라 보딩턴, 크리스토퍼 피셔, 매튜 피셔, 닉 보스트롬, 그리고 조지 엘리스의 인공지능에 관한 담론을 통하여 인공지능의 사회적 유기체적 특성, 인공지능의 도덕적 지위와 이에 대응하는 신학적 인간학의 사명, 그리고 과학적 근본주의의 한계 등에 대하여 살펴보았다. 필자는 이런 이론들을 통하여 인공지능의 과학적 진보에 대하여 일정 부분 인정하면서도, 신학의 사명은 신학적 인간학을 중시하고 인공지능을 포함하는 윤리적 공동체의 과제가 무엇이 되어야 할지 함의하였다. 이제 다음에서 결론으로 몇 가지 제언하고자 한다.


VI. 나가는 말

필자는 지금까지 인공지능에 관한 다양한 이론들을 서구의 영어권 사상가들을 통하여 살펴보았다. 인공지능을 사회 유기체적 관점에서 인간과의 소통방식으로 이해하는 것은 이제 필연적이기 때문에, 인공지능의 사회적 기능을 공리적으로 접근하여 대용 도덕적 지위를 부여하고, 그 역할을 분명하게 제한할 필요성이 있다고 본다. 이런 관점에서 기독교윤리학은 인공지능의 도덕적 지위에 대한 개념과 인공지능의 책임 그리고 인공지능의 사회적 기능들이 기독교 공동체와 신도들의 종교생활에 어떤 영향을 줄지 지속적인 연구가 필요하다고 본다. 필자는 인공지능과 연관하여 트랜스휴머니즘적 함의에 한계가 있다고 보면서도, 기독교 신학이 담지하여 온 고유의 신학적 윤리 요소들, 즉, 자율과 자유, 영혼, 중생, 회개, 갱신, 그리고 영적 변화와 개혁 등에 관하여 신학은 지속적으로 인공지능과 연관하여 응답하여야 한다고 본다. 이를 위하여 기독교윤리학은 4차 산업과 연관된 인공지능의 과학주의를 극복할 수 있는 담론을 형성하는 일에 노력하여야 한다고 보면, 이는 범 교회·교단적으로 그리고 신학 내의 학제 간 학문적 협력이 필요하다고 본다.


Notes
1) 필자가 강조하고자 하는 ‘신학적 인간학’은 인공지능과 연관된 다양한 과학적 이론들을 ‘신학적 관점’에서 조명하는 입장을 의미한다. 따라서 필자는 4차 산업과 연관된 인공지능의 이론들을 검토하면서 신학과 통섭하는 관점을 취하되, 인공지능의 한계를 지적하면서 이를 극복하는 기독교윤리 공동체를 조명한다.
2) 필자가 DBpia를 통하여 ‘인공지능’을 주제어로 검색한 결과, 총 2,865개의 논문이 있으며, 이 중 인문학은 245개, 그리고 인문학 안에서 ‘종교와 신학’은 42개의 논문이 있다. 4차 산업과 연관하여 기독교 교육, 목회 상담, 영성, 선교 분야의 논문들을 볼 수 있으며, 기독교윤리적 관점에서 논문은 김동환의 “AI(인공지능)에 대한 신학적 담론의 형성 및 방향 모색” (『신학연구』제68집 [2016]: 35-60)이 있다. 김동환은 노린 허츠펠드의 이론을 중심으로 트랜스휴먼에 있어서 간과해서는 안 될 인간의 ‘피조성’을 강조하고 있다. DBpia, http://www.dbpia.co.kr/# (2019년 4월 7일 검색).
4) 디지오바나는 철학적 관점에서의 인간성의 특징을 정리하였으며 인공지능에 대한 회의적인 관점은 Bostrom을 인용한다. Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (Oxford: Oxford University, 2014), Ch. 2; Ibid., 307 재인용.
6) Ibid.
7) Ibid.
8) Ibid. 필자는 영어 ‘para-person’에서 ‘para’라는 단어는 “질이 다른, 부(副), 또는 준(準)”의 개념이라고 보며, “인공지능의 기술이 적용되어 인간처럼 사고하고 행위하는 인간형 로봇”의 경우에 불려질 수 있는 적절한 단어라고 보고, 번역에 있어서는 영어 발음 그대로 ‘패러’(para)로 사용한다.
9) Ibid., 308-309.
10) Ibid., 309-18.
11) 자율체계에 대한 일반적 정의에 있어서, 타바니는 영국왕립공학아카데미(Royal Acad-emy of Engineering) 2009년 보고서 2쪽을 참조한다. The Royal Academy of Engi-neering, Autonomous Systems: Social, Legal and Ethical Issues (London: the Royal Acad-emy of Engineering, 2009), 2; Herman T. Tavani, “Ethical Aspects of Autonomous Systems,” Michael Decker and Mathias Gutmann, eds., Robo- and Informationethics: Some Fundamentals (Zürich/Berlin: LIT Verlag, 2012), 91 재인용.
15) Ibid., 6.
16) Ibid., 7.
17) Ibid., 16-19. 위원회의 성명서는 구체적으로 인공지능 시스템에서 주의하여야 할 요소로서 (1) 인간 존엄성, (2) 자율, (3) 책임, (4) 정의와 평등, 그리고 연대, (5) 민주주의, (6) 법과 책무의 규칙, (7) 안보와 안정, 육체와 정신적 청렴, (8) 정보 보호와 사적 영역 보장, (9) 지속성 등을 강조하고 있다. 영어 성명서에서 다루는 주요 주제 9가지 제목을 정리하였다.
18) 위원회도 이와 같은 노력을 주장하고 있다. Ibid., 20.
19) Ellen Duffer, “As Artificial Intelligence Advances, What are its Religious Implications?,” Religion & Politics (August 29, 2017): 2, https://religionandpolitics.org/2017/08/29/as-artificial-intelligence-advances-what-are-its-religious-implications/ (2018년 10월 30일 검색). 엘런 듀퍼는 “Religion & Politics”의 편집장이다. 참고로 듀퍼의 글은 총 6페이지로 구성되어 있으며, 페이지 인용은 해당 자료에 명기되어 있는 것을 기입하였다.
20) Ibid., 2. 듀퍼는 ‘강한 인공지능’이 “인공일반지능(AGI, artificial general intelligence)”으로도 명명될 수 있다고 설명한다.
21) Ibid.
22) Ibid., 3. AI가 우상이 될 수 있다는 관점은 듀퍼가 Russell Bjork를 인용하며 별도의 재인용 출처는 없다.
23) Ibid. 듀퍼는 Russell Bjork의 주장을 간략한다.
24) Ibid. 듀퍼는 인공지능을 통하여 성적 가해자나 신용불량자들을 가려내는 것이라든지, 또는 교회에서 페이스북 알고리즘(Facebook algorithms)을 통하여 감동적인 이야기로 기도나 자선을 이끌어 낼 수 있으며, 기독교 공동체 내 신학적 방향을 정향하는 데에 도움이 될 수 있다고 본다. 이와 같은 주장은 J. Nathan Matias의 관점을 듀퍼가 빌려서 설명하는데, 재인용 출처는 없다(ibid., 4).
25) Ibid., 5. 듀퍼는 이와 같은 관점을 설명하기 위하여 Randall Reed를 예로 들며, 별도의 재인용 출처는 없다.
26) Ibid. 듀퍼는 재인용으로 Garner를 언급하는데, 출처는 없다.
27) Joseph Weizenbaum, Computer Power and Human Reason (New York: W. H. Freeman, 1976), 277; Anne Forest and Rodney L. Petersen, “Identity, Formation, Dignity: The Impacts of Artificial Intelligence upon Jewish and Christian Understandings of Personhood,” Rodney L. Petersen and Nancy M. Rourke, eds., Theological Literacy for the Twenty-First Century (Grand Rapids: W. B. Eerdmans, 2002), 71 재인용. 포레스트와 피터슨은 이와 같은 주장을 하면서 “컴퓨터는 세상의 다양한 면모를 이해할 수 있도록 우리들을 돕는 강력하면서 새로운 메타포이다.”라고 강조하는 Joseph Weizenbaum을 인용한다.
28) Petersen and Rourke, eds., Theological Literacy for the Twenty-First Century, 74. 포레스트와 피터슨은 영과 혼, 그리고 육의 삼분법을 주장하는 근거로 신명기 6장 5절의 “너는 마음을 다하고 뜻을 다하고 힘을 다하여 네 하나님 여호와를 사랑하라”는 말씀을 참조하고 있다고 각주에서 밝히고 있다.
29) Ibid., 75.
30) John D. Zizioulas, Being as Communion: Studies in Personhood and the Church (Crest-wood, NY: St. Vladmir’s Seminary Press, 1997), 31-35; Ibid., 76-77 재인용. 포레스트와 피터슨은 Zizioulas를 인용하여 설명한다.
31) Zizioulas, Being as Communion, 39; Petersen and Rourke, eds., Theological Literacy for the Twenty-First Century, 77 재인용. 포레스트와 피터슨은 Zizioulas를 인용한다.
32) Zizioulas, Being as Communion, 40; Petersen and Rourke, eds., Theological Literacy for the Twenty-First Century, 77 재인용.
33) Petersen and Rourke, eds., Theological Literacy for the Twenty-First Century, 77.
34) Ibid.
35) Ibid.
37) Ibid., 6.
38) Ibid., 8-9. 필자는 이하 번역을 하면서, 일반적으로 ‘하나님의 형상’(image of God)에서 ‘형상’(image)은 그 의미가 한국 학계에서 신적 속성을 가진 것으로 파악하지만, 인공지능과 연관된 ‘인간의 이미지’(image of the human)는 신성의 개념은 없다고 본다. 따라서 번역에서 신에게는 ‘형상’, 인간에게는 ‘이미지’로 구별하여 번역하였음을 밝힌다. 노린 허츠펠드는 그의 글에서 ‘하나님의 형상의 이미지(the imago of imago Dei)’와 ‘인간 이미지(imago hominis)’로 구별하는데 필자의 관점에서는 일종의 해석학적 의미가 들어가 있다고 본다. 인간에게는 하나님과의 관계에서 ‘image’가 하나님의 ‘형상’이지만, 인공지능에게는 인간을 통하여 투영된 기계적 이미지이기 때문에 ‘하나님의 형상의 이미지’(the imago of imago Dei)로 번역하는 것이 적절하다고 판단한다.
39) Ibid., 8.
40) Ibid.
41) Ibid., 9. 노린 허츠펠드는 하나님의 형상을 ‘이성’과 ‘섭정’, 그리고 ‘관계’라는 관점에서 각각 라인홀드 니버(Reinhold Niebuhr)의 실재적 입장, 게르하르트 폰 라드(Gerhard von Rad)의 하나님의 섭정을 강조하는 기능적 해석, 그리고 칼 바르트(Karl Barth)의 삼위일체론에 근거한 관계론적 해석으로 접근하여 해석한다(ibid., 16-32). 참조로 노린 허츠펠드가 설명하는 세 학자의 재인용 자료에서 각 학자의 주요 저서는 간략하면 다음과 같다: Niebuhr, The Nature and Destiny of Man, Vol. 1; Von Rad, “Divine Likeness in the Old Testament”; Karl Barth, Church Dogmatics, Vol. 3. 보다 자세한 내용은 각주를 참조하시오.
43) Ibid., 94-95.
45) Ibid., 299.
46) Ibid., 299-300.
47) Ibid., 300.
48) “HitchBOT 2016,” HitchBOT, http://mir1.hitchbot.me/; Ibid., 300-301. 재인용. 참조로 ‘히치봇(HitchBOT)’은 2015년 캐나다 동부에서 서부까지 26일을 걸려서 6000km 거리를 사람들의 도움으로 횡단하였지만, 같은 해 7월 미국 매사추세츠주에서 샌프란시스코까지 가는 여정에서 어떤 사람이 필라델피아에서 수리할 수 없을 정도로 망가뜨려서 2주 만에 끝났다고 한다. 히치봇에 관한 한글 소개는 다음을 참조하였다. http://blog.naver.com/PostView.nhn?blogId=ilikebetter&logNo=220497447656 (2019년 4월 7일 검색).
49) Ibid., 302-303.
50) Ibid.
51) Ibid., 304.
52) 영화에 대한 해설은 다음을 참조하였다. https://brunch.co.kr/@sierra/6 (2019년 4월 8일 검색).
53) Ibid., 298.
54) 한국에서 영화 ‘알리타(Aliata)’는 2019년 2월 5일 개봉되었으며, 영화에 대한 평은 필자가 직접 감상하고 쓴 후기이다.
56) Ibid., 964. 제라치는 루돌프 옷토의 Das Heilege (The Idea of the Holy, 1917/1923) 1, 7, 8쪽의 내용을 인용하면서 설명하고 있다. 루돌프 옷토(Rudolf Otto)의 거룩성 개념에 대하여 한글 자료는 다음을 참조하시오. 루돌프 옷토,『성스러움의 의미』길희성 역 (서울: 분도출판사, 2007).
58) Ibid. 제라치는 이러한 주장에 대한 배경으로 칼 마르크스(Karl Marx)의『정치경제학 비판의 기초』(The Grundrisse)를 각주 8에서 설명한다. Karl Marx, The Grundrisse, David McClellan, trans. (London: Macmillan, 1971), 138; Ibid., 978 재인용. 마르크스는 인간으로부터 기계를 중시하는 노동으로 전환되는 경우, 인간의 가치보다 인간을 대체한 기계를 중시하는 비인간화를 통하여 물신의 가능성을 예견하였는데, 이러한 경향은 결국 인간이 로봇을 물신화하는 추이와 다르지 않다고 제라치는 강조한다.
60) Ibid., 976.
61) Ibid., 977.
63) Ibid., 20.
64) Noreen L. Herzfeld, “Human and Artificial Intelligence: A Theological Response,”Nancy Murphy and Christopher C. Knight, eds., Human Identity at the Intersection of Science, Technology and Religion (Burlington, VT: Ashgate, 2010), 129-30. 허츠펠드는 신학적 인간학에서 중요한 인간의 영혼은 인간의 정신적 기능과 또한 지능의 관계적 속성과 함께 이해되어야 하는 것처럼, 마찬가지로 인공지능도 독립적인 것이 아니라 유기체적 관점에서 이해하여야 한다고 강조한다.
66) Ibid., 570.
69) Ibid.
71) Ibid.
72) Ibid., 300-301.
74) Ibid.
75) Ibid., 84.
78) 엘리스는 과학적 근본주의를 적자생존의 사회진화론과 같은 맥락에서 반대하는 입장을 견지한다. 그 사상적 배경은 다음과 같다. Richard Weikart, From Darwin to Hitler: Evolutionary Ethics, Eugenics, and Racism in Germany (New York: Palgrave Macmillan, 2004); Ellis, “Fundamentalism in Science, Theology, and the Academy,” 63 재인용.

References
1. 루돌프옷토, (2007), 『성스러움의 의미』, 길희성, 서울, 분도출판사.
2. Atkins, P. W., (1995), “The Limitless Power of Science.” in Nature’s Imagination: The Frontiers of Scientific Vision, J., Cornwell, Oxford, Oxford University Press, p122-32.
3. Boddington, Paula, Peter Millican, and Michael Wooldridge, (2017), “Minds and Machines Special Issue: Ethics and Artificial Intelligence.”, Minds and Machines, 27(4), p569-74.
4. Bostrom, Nick, (2012), “The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents.”, Minds and Machines, https://nickbostrom.com/superintelligentwill.pdf, 2019년 4월 10일 검색, 22(2).
5. Bostrom, Nick, (2014), Superintelligence: Paths, Dangers, Strategies, Oxford, Oxford University.
6. Decker, Michael and Mathias Gutmann, eds, (2012), Robo- and Informationethics: Some Fundamentals, Zürich/Berlin, LIT Verlag.
7. DiGiovanna, James, (2017), “Artificial Identity.”, Patrick, Lin, Ryan, Jenkins, Keith, Abney, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, New York, Oxford University Press, p307-21.
8. Dodig-Crnkovic, Gordana, (2018), “Cognition as Embodied Morphological Computation.”, Vincent, C. Müller, Philosophy and Theory of Artificial Intelligence 2017, Basel, Springer Nature, p19-23.
9. Duffer, Ellen, 2017, Aug, 29, “As Artificial Intelligence Advances, What are its Religious Implications?.”, Religion & Politics, https://religionandpolitics.org/2017/08/29/as-artificial-intelligence-advances-what-are-its-religious-implications/, 2019년 4월 7일.
10. Ellis, George F. R., (2010), “Fundamentalism in Science, Theology, and the Academy.”, Nancy, Murphy, Christopher, C. Knight, Human Identity at the Intersection of Science, Technology and Religion, Burlington, VT, Ashgate.
11. European Group on Ethics in Science and New Technologies, (2018), Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems. Brussels: European Union, https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf/, 2019년 4월 7일.
12. Fisher, Christopher L, (2010), Human Significance in Theology and the Natural Science: An Ecumenical Perspective with Reference to Pannenberg, Rahner, and Zizioulas, Eugene, OR, Pickwick.
13. Fisher, Matthew Zaro, (2015), “More Human than the Human? Toward a ‘Transhumanist’ Christian Theological Anthropology.”, Calvin, Mercer, Tracy, J. Trophen, Religion and Transhumanism: The Unknown Future of Human Enhancement, Santa Barbara, Praeger, p23-38.
14. Geraci, Robert M, (2007), “Robots and the Sacred in Science and Science Fiction: Theological Implications of Artificial Intelligence.”, Zygon, 42(4), p961-80.
15. Herzfeld, Noreen L, (2002), In Our Image: Artificial Intelligence and the Human Spirit, Min-neapolis, Fortress.
16. LaBossiere, Michael, (2017), “Testing the Moral Status of Artificial Beings; or ‘I’m going to Ask You some Questions ...’”, Patrick, Lin, Ryan, Jenkins, Keith, Abney, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, New York, Oxford University Press, p293-306.
17. Lin, Patrick, Ryan Jenkins, and Keith Abney, eds, (2017), Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, New York, Oxford University Press.
18. Murphy, Nancy, Christopher, C Knight, (2010), Human Identity at the Intersection of Science, Technology and Religion, Burlington, VT, Ashgate.
19. Petersen, Rodney L, Nancy, M. Rourke, (2002), Theological Literacy for the Twenty-First Century, Grand Rapids, W. B. Eerdmans.
20. Strasser, Anna, (2018), “Social Cognition and Artificial Agents.”, Vincent, C. Müller, Philosophy and Theory of Artificial Intelligence 2017, Basel, Springer Nature.
21. The Royal Academy of Engineering, (2009), Autonomous Systems: Social, Legal and Ethical Issues, London, The Royal Academy of Engineering.
22. Zizioulas, John D, (1997), Being as Communion: Studies in Personhood and the Church, Crestwood, New York, St. Vladmir’s Seminary Press.
23. “인공지능” , DBpia, http://www.dbpia.co.kr/#, 2019년 4월 7일.
24. “HitchBOT 2016”, HitchBOT, http://mir1.hitchbot.me/; http://blog.naver.com/PostView.nhn?blogId=ilikebetter&logNo=220497447656, 2019년 4월 7일.
25. https://brunch.co.kr/@sierra/6. 2019년 4월 8일 검색.