인간의 창조물, 인공지능과의 동행을 위한 철학적 성찰
『인공지능의 윤리학』 이중원 편·저자 인터뷰
먼 미래에 만약 인간처럼 자유의지를 갖고 이에 의거해 행동하는 인공지능이 등장한다면, 인간에게처럼 책임을 물을 수 있을 겁니다. 그렇더라도 인공지능이 인간과 동일할 수는 없기에, 책임 개념의 확장 가능성을 철학적으로 검토하는 것이 필요하다고 생각합니다. (2020.06.16)
‘포스트휴먼 시대의 인공지능 철학’ 시리즈 제1권 『인공지능의 존재론』(2018)의 연구성과를 바탕으로 하는 후속 연구작 『인공지능의 윤리학』이 출간됐다. 왜 인공지능의 윤리학일까? 전통적으로 윤리학이라 하면 인간의 윤리학, 엄밀히 말해 도덕적 사고와 행위의 유일한 주체인 인간의 윤리학이었다. 인간 외의 타자들은 도덕적 주체로서가 아니라 도덕적 대상으로만 간주되었다. 인간만이 도덕성과 자율성 그리고 자유의지를 지니고 있고 따라서 인간만이 행위에 대해 책임질 수 있다고 보았기 때문이다. 하지만 자기 스스로 학습을 통해 자율적으로 사고하고 행동할 줄 아는 새로운 존재자인 인공지능(로봇)의 등장은 전에 없던 질문들을 계속해서 던져주고 있다. AI 개발과 그 윤리에 대한 문제를 흥미롭게 풀어나가는 『인공지능의 윤리학』은 이 같은 질문에 대한 탐구와 근래에 다가올 인공지능과의 공존 방향성을 제시하고 있다.
『인공지능의 윤리학』은 자율주행자동차부터 윤리적 인공지능 로봇까지 광범위한 AI를 다루고 있는데요. 어느 기점부터의 AI를 또 다른 타자로 볼 수 있을까요?
AI가 또 다른 타자로 인식되려면 아무래도 인격체여야 합니다. 철학자들은 오래전부터 인간과 인격체를 구분해 왔습니다. 그렇다면 AI가 어떤 능력을 갖춰야 인격체로 간주될 수 있을까요? 이 질문에 2016년 유럽의회의 법률위원회는 로봇에 관한 민법규정 초안을 제시하며 가장 정교한 자율형 로봇의 잠재적인 법적 지위를 ‘전자인격체(electronic persons)’라고 규정했습니다. 그러니까 로봇이 ‘현명한 자율적 결정을 내리거나 제3자와 독립적으로 상호작용하는 경우’ 인격성을 부여하는 등 법적인 차원에서 특정한 권리와 의무를 가질 수 있다고 본 것입니다.
여기서 ‘현명한 자율적 결정’이나 ‘제3자와의 독립적 상호작용’이 의미하는 바를 좀 더 명확히 할 필요가 있습니다. 현명한 결정과 독립적 상호작용을 할 줄 아는 인격체가 되려면, 기호[인간은 신경전기신호, AI(로봇)는 디지털기호]로 처리된 언어 및 행위 정보 하나하나의 의미를 간파하고 그 의미에 기반해 사고하고 판단하는 능력이 필요합니다. 한마디로 인간처럼 (빅데이터상의 패턴을 인지하지 못하더라도) 개별정보의 의미를 이해하고 범주화를 통해 효율적으로 사고하는 개념적 사유능력이 필요합니다.
교수님께서는 물리학과를 졸업하고 과학철학 전공으로 박사 학위를 받으셨어요. 물리학으로 시작해 철학으로, 인공지능에 대한 고찰로 나아간 계기가 있으신가요?
제가 대학원에서 물리학을 공부하던 시절에 일반상대성 이론에 관한 수업을 들은 적이 있습니다. 일반상대성 이론의 꽃이라 할 수 있는 아인슈타인의 (중력)장방정식이 나옵니다. 이 방정식을 수학적으로 풀고 물질의 분포에 따라 시간과 공간이 변화한다는 물리적 해석을 덧붙이는 일은 그나마 어느 정도 납득될 수 있습니다. 하지만 유형의 물질이 무형의 공간과 시간에 어떻게 (인과적? 혹은 다른 물리적?) 영향을 줄 수 있는지 그 메커니즘에 대한 이해는 결코 쉽지 않습니다. 이를 이해하려면 자연에서 일어나는 현상에 대한 물리적인 해석 너머, 자연의 본질에 관한 존재론적 고찰, 바로 세계 자체에 대한 보다 근원적인 자연철학적 고찰이 필요합니다.
인공지능에 대한 관심은 2008년 정부에서 추진하던 로봇윤리헌장을 제정하는 프로젝트에 참여하며 갖게 되었어요. 2016년 자기주도적인 심화학습이 가능한 알파고가 등장해 이세돌을 이긴 떠들썩했던 역사적인 사건 이후로 적극적으로 관심을 갖고 연구해 오고 있습니다. 인공지능에 관한 철학적 관심, 특히 인공지능의 존재론적 지위에 관한 철학적 고찰은, 달리 보면 인간과 인공지능 로봇 간의 독특한 관계 설정으로부터 야기되는 인간의 정체성 문제, 휴머니즘 문제로 연결되며 이를 보다 폭넓게 반추해 보는 계기가 되었지요.
책을 읽으며 몇몇 부분에서는 AI뿐만 아니라 어떤 조직체나 사상 자체로도 치환해 볼 수 있겠다고 느껴졌습니다. 이처럼 의식이나 방향성을 가진 법적 인격에 대한 윤리적 판단이 앞으로 AI를 규정할 때 어떤 도움을 줄 수 있을까요?
AI에게 법적인 차원에서 어떤 인격적 지위나 도덕적 지위를 부여하려는 것은, AI가 자율성을 지니고 있는데다 그 활동이 인간에게 윤리적으로나 사회적으로 매우 민감한 이해관계를 제기하는 매우 중요한 사회적 행위자이기 때문입니다. 인간에게 어떤 사회적·윤리적 영향을 끼치는 판단과 행위를 한다면, 그것이 인간의 삶에 어떤 가치와 의미를 부여하게 된다면, 그러한 존재자는 자연적 존재자이건 인공적 존재자이건 인간에게 분명 어떤 사회적·도덕적 지위를 갖는 존재자로 다가올 수 있습니다.
자율적인 심화학습 능력을 갖춘 지금의 AI만 보더라도 사실상 인간의 생활세계 곳곳에서 일어나는 실제적인 사회적 관계들을 총체적으로 반영한 빅데이터를 학습하는 만큼, AI(로봇)는 이러한 정보에 근거해 사고하고 판단하며 행동하는 하나의 자율적인 사회적 행위자, 달리 말해 사회적 관계의 맥락 안에서 형성된 인격성을 지닌 인격체로 충분히 볼 수 있습니다.
개인적으로 책임, 책무성을 중심으로 AI에 다가간 7장이 정말 흥미로웠습니다. 여러 사항을 대조해 AI의 행위를 평가해야 한다고 끝맺으셨는데, 이 복잡한 윤리 프레임 속에서 언젠가 인공지능 또한 책임의 주체로 떠오를 날이 올까요?
어떤 방식으로 AI(로봇)에게 책임을 묻는 것이 가능하고 또 바람직할까요? 2단계로 나눠 생각해 볼 수 있습니다. 우선 현재나 가까운 미래의 약인공지능(로봇)에 대해서는 책임 개념 대신 책무(accountability) 개념을 도입해 적용하는 것이지요. 일반적으로 AI(로봇)가 사고를 일으켰을 때, 우리는 일차적으로 AI(로봇)에게 사고에 대한 합당한 설명은 충분히 요구할 수 있습니다. 의사결정 과정에 어떤 내용이 중대한 역할을 했는지, 알고리즘 작동에는 이상이 없었는지 등 AI(로봇)가 자체적으로 의사결정 과정을 분석해 오류를 식별할 수 있다면 설명에의 의무를 책무로 부과할 수 있겠지요. 이를 토대로 관련 책임자인 인간에게 최종적으로 책임을 물으면 되니까요.
하지만 먼 미래에 만약 인간처럼 (완벽한) 자유의지를 갖고 이에 의거해 행동하는 강인공지능(로봇)이 등장한다면, 인간에게처럼 책임을 물을 수 있을 겁니다. 그렇더라도 강인공지능(로봇)이 인간과 동일할 수는 없기에, 인간에 전적으로 적용되어 온 전통적인 책임 개념을 인간이 아닌 다른 자율적 행위자에게도 확대 적용할 수 있도록 책임 개념의 확장 가능성을 (동서양을 막론하고) 철학적으로 검토하는 것이 필요하다고 생각합니다.
AI 윤리를 동아시아철학으로 다가간 파트 또한 눈길을 끕니다. 어찌 보면 첨단 기술과는 생경한 듯한데, 동아시아철학은 어떻게 AI 윤리의 실마리를 제시할 수 있을까요?
AI 윤리는 크게 두 가지로 나누어 볼 수 있습니다. 하나는 소극적 의미의 AI 윤리인데, AI(로봇)가 인간의 삶에 심대한 영향을 끼치는 도구적 기계인 만큼 인간이 AI(로봇)의 연구개발과 제조 및 사용 과정에서 지켜야 할 인간의 윤리입니다. 다른 하나는 적극적 의미의 윤리인데, AI(로봇)에게 일정한 수준의 도덕적 지위를 부여해 (인간에 못 미치지만) 인간과 유사한 또 하나의 도덕적 주체로서 AI(로봇) 스스로가 지켜야 할 윤리입니다.
소극적 AI 윤리의 경우 동아시아 철학은 서양 철학과 입장이 크게 다르지 않지만, 적극적 AI 윤리에 대해서는 동아시아 철학이 서양 철학에 비해 상대적으로 호의적입니다. 서양 철학은 데카르트, 칸트 등에서 드러나듯이 이성, 감성, 자유의지, 도덕성과 같은 인격성을 주로 인간에게 배타적으로 부여하는 인간중심주의가 주류를 이루고 있습니다.
반면 동아시아 철학의 경우 인간중심주의는 상대적으로 약합니다. 동아시아 철학은 인간뿐 아니라 인간이 아닌 존재자들에게도 도덕적 본성을 부여한다고 말할 수 있습니다. 또한 동아시아 철학은 존재자들이 서로 유기적으로 긴밀하게 연결되어 있다는 유기적 상관관계도 강조합니다. 특히 행위자의 행동은 온전히 행위자의 독단적인 결단에 의한 것만이 아니라 다른 행위자들과의 상관관계, 나아가 다양한 외부 환경과의 교류를 통해 생겼다고 봄으로써, 행위의 결과에 따른 윤리 문제를 관계론적 관점에서 접근하려고 합니다.
‘포스트휴먼 시대의 인공지능 철학’ 시리즈는 총 3부작 기획이라고 들었습니다. 지금까지 존재론과 윤리학을 다룬 책이 나왔는데요. 후속작은 어떤 내용이 주를 이루게 될까요?
지금 세 번째로 기획 중인 책의 제목은 『인공지능의 인간학』입니다. 마지막 3권의 문제의식은 이렇습니다. 인공지능의 인격체로서의 존재론적 본성은 인간이 그간 경험하지 못한 생활세계의 근본적인 변화를 야기할 것입니다. 가깝게는 삶의 양식의 근본적인 변화, 인공지능의 오남용이 가져올 부정적인 사회적 영향에서 멀게는 인공지능의 사회적 행위와 그에 따른 책임 문제, 더 멀게는 인간과 인공지능 간의 감성적 대화와 교감이 가져올 상호관계의 재정립 문제 등등으로 이어질 것입니다. 또한 인공지능과의 공존을 위해서는 인공지능을 바라보는 우리의 인식 변화와 함께, 제기된 문제들에 효과적으로 대응하기 위한 사회적 거버넌스 체계를 구축하는 것이 중요합니다. 그래서 포스트휴먼 시대의 한 축을 구성하는 기계(AI 로봇)의 인간화 경향을 중심으로 그 흐름과 이로 인해 야기되는 사회적인 문제를 주로 다룰 것입니다.
끝으로 4차 산업혁명을 맞이하며 다양하게 AI를 활용할, 그리고 관련 업계에 참여하게 될 독자들에게 인공지능 접근에서 어떤 방향성을 가지면 좋을지 조언 부탁드립니다.
지금 우리는 인공지능 시대에 살고 있습니다. 인간의 육체적 활동을 뛰어넘어 인간의 지적·정신적 활동까지 대신해 줄 뿐 아니라, 인간과 감성적으로 교류하거나 인간의 언어를 이해하고 대화를 나누는 (아직은 특정 영역에 국한되지만) AI(로봇)가 속속 등장하고 있습니다. 특히 인간에게만 고유한 것으로 간주되었던 능력(감성, 이성, 자율성 등)이 기계에서도 구현 가능한 시대, 그래서 기계가 (일정 수준이지만) 인간처럼 스스로 생각하고 행동할 수 있는 주체로서의 자율적인 행위자가 되는 시대라고 말할 수 있습니다.
또한 AI(로봇)에 대한 사회적 수용성을 높여야 하는데 선제적으로 두 가지 작업이 필요해 보입니다. 하나는 AI(로봇)의 정체성이 무엇인지 규명하고 그에 적합한 존재적 지위를 사회적·법적 제도의 틀 안에서 공식적으로 부여하는 것입니다. 앞서 유럽의회에서 ‘전자인격체’로 법적 지위를 규정했던 것처럼 말이지요. 다른 하나는 AI(로봇)의 등장이 인간의 삶에 끼치는 긍정적인 영향 외에, 부정적 측면에 대한 윤리적·법적·사회적 영향 평가를 사전에 실시해 그에 따른 사회적 위험을 최소화하는 것입니다. 융합적 관심과 지혜가 그 어느 때보다 필요한 시점입니다.
* 이중원 서울대학교 물리학과에서 학사와 석사 학위를 취득하고, 같은 대학원 과학사 및 과학철학 협동과정에서 과학철학으로 이학박사 학위를 받았다. 현재 서울시립대학교 철학과 교수로 재직 중이다. |
추천기사
관련태그: 인공지능의 윤리학, 이중원 작가, 인공지능, 철학적
출판사에서 제공한 자료로 작성한 기사입니다. <채널예스>에만 보내주시는 자료를 토대로 합니다.