인간과 AI의 공존을 위한 대안의 모색

원본은 2019년 10월에, 한글본은 2021년 6월에 출판되었다. 왼쪽은 아마존 킨들 버전 표지이고 오른편은 한글 버전 표지이다.

최근 스튜어트 러셀 교수(Stuart Russell, UC Berkeley)가 또 하나의 역작을 냈다. 1995년 그가 구글의 피터 노빅(Peter Norvig)과 함께 출간한 Artificial Intelligence: A Modern Approach(옆 사진)는 AI에 관해 가장 널리 사용되는 교과서가 되었으며, 내 수업에서도 AI의 정의와 관련된 몇개의 장(chapter)이 소개되었다.

새 저서에서 러셀 교수가 제시한 주장을 간략히 요약하면 다음과 같다: 1) 머지않은 미래에 초지능(super-intelligence) AI가 출현할 것이다. 2) 그것은 인류에 중대한 위협이 될 수 있다. 3) 그러나 우리가 지금부터 AI의 개발 방향을 잘 잡아간다면 인간과 AI가 평화롭게 공존할 수 있을 것이다. 4) 그 방향은 “증명가능하게 이로운 AI(provably beneficial AI)”로 집약된다.

인공지능(Artificial Intelligence, AI)은 지능을 지닌 기계(intelligent machine)이다. 인공이라는 수식어는 자연발생적이 아니라 누군가(대체로 인간)에 의해 만들어졌다는 의미이고 지능이라는 명사와 합쳐져서 지능을 지닌 기계라는 특정한 의미를 지니게 된다. 여기서 기계는 물리적 외형을 가질 수도 있고 컴퓨터에 탑재된 소프트웨어일 수도 있다.  문제는 지능이 무엇인가 혹은 지능을 지녔다는 의미가 무엇인가이다.

러셀 교수는 지능을 다음과 같이 정의한다. “대강 말하자면, 한 존재는 자신이 하는 일이 자신이 지각해온 것을 토대로 자신이 원하는 것을 성취할 가능성이 있는 한 지적이다”(Roughly speaking, an entity is intelligent to the extent that what it does is likely to achieve what it wants, given what it has perceived)(p. 33. 이 글에서 인용 표기는 한글 버전의 쪽이다). 이 정의에는 인지(perception), 행동(action), 목표의 성취(achievement of objectives)라는 세 가지 요소가 담겨있다. 즉, 어떤 존재가 자신의(혹은 주어진) 목표를 갖고 있으며, 그와 관련해서 환경을 파악하고 그 목표를 성취하기 위해 행동하면 그 존재는 지적이(intelligent)라고 규정할 수 있다는 것이다.

필자는 지능에 관한 이 정의를 지지한다. 사실 필자는 3년 전에 지능에 대해 그와 유사한 정의를 내린 적이 있다(지능이라는 이름의 개임(4)). 당시에 필자는 환경에서의 생존을 모든 존재의 공통적이고 근본적인 목표로 보았기 때문에 지능을 환경으로부터의 도전에서 살아남는 능력이라고 규정하였다. 러셀 교수의 정의는 필자의 것보다 더욱 다양한 목표를 포용할 수 있다는 장점을 갖고 있다.

러셀은 현재 인공지능의 연구와 산업 분야에서 통용되고 있는 ‘표준적인 모형'(standard model of AI)에 이의를 제기한다. 그것은 인간이 부여한 정해진 목표를 기계가 최적화한다는 모형이다. 기계는 목표와 데이터가 주어지면, 목표로부터의 오차(사실 오차 제곱, 비용함수라고 부름)를 최소화하는 방식으로 학습하여 성취 능력을 향상시킬 수 있다. 최근에는 주어진 보상체계에 의지해서 기계 스스로 능력을 높여나가는 강화학습 모형이 널리 사용되고 있다. 

러셀은 실제로 초지능 AI(일반적 AI, general AI라고도 불림)의 개발을 목표로 하는 연구자나 기업이 존재하고 있고, 설령 그것을 목표로 삼지 않더라도 연구자들이 특수한 용도의 AI를 개발하는 과정에서 초지능 AI가 출현할 수 있다고 지적한다.

문제는 만약 궁극적으로 인간에 의해 통제받도록 설계되지 않으면 초지능 AI는 인간의 이익보다 AI 자신의 이익을 우선적으로 추구할 수도 있으며, 인간의 통제를 완전히 벗어날 수 있다는 것이다. 인간은 AI의 전기 코드조차 뽑지 못할 수도 있다. AI는 그러한 인간의 시도를 거부하고 방해할 수 있기 때문이다. 러셀에 의하면 현재의 표준 모형에 의한 AI의 연구와 개발은 언젠가 그러한 통제불능의 초지능 AI의 출현을 초래할 가능성이 높다.

초지능 AI의 관점에서 보면 그 AI의 표준 모형이야말로 AI 연구의 잘못된 길의 출발점이라는 것이 그의 주장이다. 그는 완전히 자율적인 초지능 AI의 출현을 차단하는 대안으로 그 표준모형을 대체할 지적이면서 이로운 기계(intelligent and beneficial machine) 모형을 제시한다. ‘지적인 기계(intelligent machine)’만으로는 충분하지 않다는 것이다. 그것은 지적인 동시에 반드시 ‘이로운 기계(beneficial machine)’이어야 한다.

러셀은 이로운 기계를 만들기 위한 세 가지 원칙을 제시한다. 첫째, 기계의 목적은 오로지 인간 선호의 실현을 최대화하는 것(이타성의 원칙)이어야 하며, 둘째, 기계는 그 선호가 무엇인지 처음에는 확실히 알지 못하고(겸손의 원칙), 셋째, 인간의 선호에 관한 정보의 궁극적 원천은 인간의 행동이다(인간 관찰의 원칙). 다시 말하면, AI는 어떤 경우에도 자신 혹은 자신의 존재를 인간의 선호보다 우위에 두어서는 안되며, AI는 목표에 대한 판단이 헷갈릴 때는 그것을 인간에게 묻거나 인간의 행동에 대한 관찰을 통해서 파악해야 한다. 어떤 경우에도 인간의 선호를 다 알고 있듯이 행동해서는 안된다는 것이다. 

러셀은 그러한 ‘증명가능하게 이로운’ AI 모형의 장래에 관해 낙관적이다. 그는 무엇보다 그러한 AI 모형이 표준적인 AI 모형보다 투자 기업들에게 더 매력적이며, 또한 인간의 선호를 학습하는데 필요한 자료가 아주 풍부하기 때문이라는 것이다.

이상은 책에 제시된 러셀 교수의 주장에 대한 간략한 요약이다. 그 책에 대한 요약은 아니다. 그 책에는 AI 발전에 관한 전망, AI의 오용에 대한 논의, 초지능 AI에 관한 다양한 주장과 태도에 대한 비판 등 AI와 관련된 다양하고 많은 논쟁과 그에 대한 논리적 검증이 제시되어 있다.

그 책에는 AI의 미래에 관해 다소 지루할 정도로 다양한 논의가 제시되고 있다. 어떤 독자는 그런 논의가 흥미롭다고 느낄 것이고 나아가 어떤 독자는 그러한 논의로부터 참신한 발상을 얻을 수도 있을 것이다. 여기서도 그러한 논의를 모두 사상하고 러셀 교수의 주장만 간추려 보았다. 그것만으로도 그 책은 충분한 가치를 지닌다고 생각되기 때문이다. (2021-07-25).  

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 항목은 *(으)로 표시합니다

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.