인간과 AI의 공존을 위한 대안의 모색

원본은 2019년 10월에, 한글본은 2021년 6월에 출판되었다. 왼쪽은 아마존 킨들 버전 표지이고 오른편은 한글 버전 표지이다.

최근 스튜어트 러셀 교수(Stuart Russell, UC Berkeley)가 또 하나의 역작을 냈다. 1995년 그가 구글의 피터 노빅(Peter Norvig)과 함께 출간한 Artificial Intelligence: A Modern Approach(옆 사진)는 AI에 관해 가장 널리 사용되는 교과서가 되었으며, 내 수업에서도 AI의 정의와 관련된 몇개의 장(chapter)이 소개되었다.

새 저서에서 러셀 교수가 제시한 주장을 간략히 요약하면 다음과 같다: 1) 머지않은 미래에 초지능(super-intelligence) AI가 출현할 것이다. 2) 그것은 인류에 중대한 위협이 될 수 있다. 3) 그러나 우리가 지금부터 AI의 개발 방향을 잘 잡아간다면 인간과 AI가 평화롭게 공존할 수 있을 것이다. 4) 그 방향은 “증명가능하게 이로운 AI(provably beneficial AI)”로 집약된다.

인공지능(Artificial Intelligence, AI)은 지능을 지닌 기계(intelligent machine)이다. 인공이라는 수식어는 자연발생적이 아니라 누군가(대체로 인간)에 의해 만들어졌다는 의미이고 지능이라는 명사와 합쳐져서 지능을 지닌 기계라는 특정한 의미를 지니게 된다. 여기서 기계는 물리적 외형을 가질 수도 있고 컴퓨터에 탑재된 소프트웨어일 수도 있다.  문제는 지능이 무엇인가 혹은 지능을 지녔다는 의미가 무엇인가이다.

러셀 교수는 지능을 다음과 같이 정의한다. “대강 말하자면, 한 존재는 자신이 하는 일이 자신이 지각해온 것을 토대로 자신이 원하는 것을 성취할 가능성이 있는 한 지적이다”(Roughly speaking, an entity is intelligent to the extent that what it does is likely to achieve what it wants, given what it has perceived)(p. 33. 이 글에서 인용 표기는 한글 버전의 쪽이다). 이 정의에는 인지(perception), 행동(action), 목표의 성취(achievement of objectives)라는 세 가지 요소가 담겨있다. 즉, 어떤 존재가 자신의(혹은 주어진) 목표를 갖고 있으며, 그와 관련해서 환경을 파악하고 그 목표를 성취하기 위해 행동하면 그 존재는 지적이(intelligent)라고 규정할 수 있다는 것이다.

필자는 지능에 관한 이 정의를 지지한다. 사실 필자는 3년 전에 지능에 대해 그와 유사한 정의를 내린 적이 있다(지능이라는 이름의 개임(4)). 당시에 필자는 환경에서의 생존을 모든 존재의 공통적이고 근본적인 목표로 보았기 때문에 지능을 환경으로부터의 도전에서 살아남는 능력이라고 규정하였다. 러셀 교수의 정의는 필자의 것보다 더욱 다양한 목표를 포용할 수 있다는 장점을 갖고 있다.

러셀은 현재 인공지능의 연구와 산업 분야에서 통용되고 있는 ‘표준적인 모형'(standard model of AI)에 이의를 제기한다. 그것은 인간이 부여한 정해진 목표를 기계가 최적화한다는 모형이다. 기계는 목표와 데이터가 주어지면, 목표로부터의 오차(사실 오차 제곱, 비용함수라고 부름)를 최소화하는 방식으로 학습하여 성취 능력을 향상시킬 수 있다. 최근에는 주어진 보상체계에 의지해서 기계 스스로 능력을 높여나가는 강화학습 모형이 널리 사용되고 있다. 

러셀은 실제로 초지능 AI(일반적 AI, general AI라고도 불림)의 개발을 목표로 하는 연구자나 기업이 존재하고 있고, 설령 그것을 목표로 삼지 않더라도 연구자들이 특수한 용도의 AI를 개발하는 과정에서 초지능 AI가 출현할 수 있다고 지적한다.

문제는 만약 궁극적으로 인간에 의해 통제받도록 설계되지 않으면 초지능 AI는 인간의 이익보다 AI 자신의 이익을 우선적으로 추구할 수도 있으며, 인간의 통제를 완전히 벗어날 수 있다는 것이다. 인간은 AI의 전기 코드조차 뽑지 못할 수도 있다. AI는 그러한 인간의 시도를 거부하고 방해할 수 있기 때문이다. 러셀에 의하면 현재의 표준 모형에 의한 AI의 연구와 개발은 언젠가 그러한 통제불능의 초지능 AI의 출현을 초래할 가능성이 높다.

초지능 AI의 관점에서 보면 그 AI의 표준 모형이야말로 AI 연구의 잘못된 길의 출발점이라는 것이 그의 주장이다. 그는 완전히 자율적인 초지능 AI의 출현을 차단하는 대안으로 그 표준모형을 대체할 지적이면서 이로운 기계(intelligent and beneficial machine) 모형을 제시한다. ‘지적인 기계(intelligent machine)’만으로는 충분하지 않다는 것이다. 그것은 지적인 동시에 반드시 ‘이로운 기계(beneficial machine)’이어야 한다.

러셀은 이로운 기계를 만들기 위한 세 가지 원칙을 제시한다. 첫째, 기계의 목적은 오로지 인간 선호의 실현을 최대화하는 것(이타성의 원칙)이어야 하며, 둘째, 기계는 그 선호가 무엇인지 처음에는 확실히 알지 못하고(겸손의 원칙), 셋째, 인간의 선호에 관한 정보의 궁극적 원천은 인간의 행동이다(인간 관찰의 원칙). 다시 말하면, AI는 어떤 경우에도 자신 혹은 자신의 존재를 인간의 선호보다 우위에 두어서는 안되며, AI는 목표에 대한 판단이 헷갈릴 때는 그것을 인간에게 묻거나 인간의 행동에 대한 관찰을 통해서 파악해야 한다. 어떤 경우에도 인간의 선호를 다 알고 있듯이 행동해서는 안된다는 것이다. 

러셀은 그러한 ‘증명가능하게 이로운’ AI 모형의 장래에 관해 낙관적이다. 그는 무엇보다 그러한 AI 모형이 표준적인 AI 모형보다 투자 기업들에게 더 매력적이며, 또한 인간의 선호를 학습하는데 필요한 자료가 아주 풍부하기 때문이라는 것이다.

이상은 책에 제시된 러셀 교수의 주장에 대한 간략한 요약이다. 그 책에 대한 요약은 아니다. 그 책에는 AI 발전에 관한 전망, AI의 오용에 대한 논의, 초지능 AI에 관한 다양한 주장과 태도에 대한 비판 등 AI와 관련된 다양하고 많은 논쟁과 그에 대한 논리적 검증이 제시되어 있다.

그 책에는 AI의 미래에 관해 다소 지루할 정도로 다양한 논의가 제시되고 있다. 어떤 독자는 그런 논의가 흥미롭다고 느낄 것이고 나아가 어떤 독자는 그러한 논의로부터 참신한 발상을 얻을 수도 있을 것이다. 여기서도 그러한 논의를 모두 사상하고 러셀 교수의 주장만 간추려 보았다. 그것만으로도 그 책은 충분한 가치를 지닌다고 생각되기 때문이다. (2021-07-25).  

감시문화: David Lyon의 저서를 읽고

아마존 킨들 판의 표지 갈무리, 2018, Polity Press

그다지 읽기 쉬운 책은 아니었다. 그러나 적어도 우리가 사는 세상 혹은 앞으로 다가올 세상의 모습에 관심이 있는 사람이라면 충분히 읽을만한 가치가 있는 책이었다. 왜 그런가?

한 마디로 현재 우리에게는 감시(surveillance)에 관해 조지 오웰의 소설 <1984>로 대표되는 감시국가(surveillance state)를 넘어서는 새로운 관점이 필요한데, 이 책은 바로 그 필요를 충족시켜주기 때문이다. 저자인 데이비드 리욘 교수는 감시를 바라보는 관점이나 인식을 감시 상상 프레임 surveillance imaginaries이라고 부르는데, 그는 오늘날의 감시 현상을 포착하는데 적합한 새로운 감시 상상 프레임(아래에서는 간략히 감시 프레임이라고 부르겠다)인 ‘감시문화’를 제공하고 있다.

다수의 학자들이 감시국가 프레임이 오늘날의 감시 현상을 이해하는데 충분치 않다는 점을 지적하고 있으며 나도 그렇게 생각하고 있다. 리욘 교수가 제안하는 감시 문화(surveillance culture)라는 개념은 감시국가나 감시사회를 포용하면서 그것을 넘어서서 보다 포괄적이며 보다 현실적합한 이론적 구성물이라고 판단된다. 이 책은 그러한 개념을 제시하는 저서인데 그것으로 충분한 읽을만한 가치가 있지 않겠는가. 더구나 리욘 교수는 뛰어난 사회학자이면서 수십년 동안 감시에 대해 연구해 오지 않았던가.

감시국가, 감시사회, 감시문화

소설 <1984>는 빅브라더(Big Brother)로 불리는 전제국가(totalitarian state)의 전방위적 감시를  묘사하고 있다. 오세아니아라는 국가의 정부는 텔레스크린이라고 불리는 일종의 쌍방향 TV(CCT 포함)를 이용하여 국민들을 끊임없이 감시한다. 국가적 입장에서는 불법적 행동 혹은 반국가적 행위를 적발하기 위해서이고 국민의 입장에서 보면 자유와 사생활을 억압하기 위해서이다.

리욘 교수에 의하면, 감시에 관한 우리의 상상은 20세기를 통털어 ‘빅브라더’라는 감시 프레임(surveillance imaginary)에 의해 규정되어 왔다. 미국의 CIA나 NSA, 각국의 정보기관 혹은 수사기관이 범법자, 이민자, 넓게는 국민을 감시한다는 인식이 감시에 관한 우리의 상상을 붙들어놓고 있었다는 것이다. 그 프레임에서 감시란 훈련된 전문가들이 전문기술을 사용해서 범죄 예방이나 국가 안보, 혹은 정치적 탄압을 목적으로 특정인 혹은 일반인을 일방적으로 모니터링하고 추적하는 행위를 의미한다.

21세기에 들어오면서 정부가 아닌 민간 기업이나 민간 기관에 의한 감시가 점차 사회적 쟁점으로 등장했다. 인터넷과 휴대폰 같은 디지털 정보기술의 확산으로 기업들이 마케팅, 영업, 혹은 고객 서비스를 위해 대규모의 CCTV, 신용카드 정보, 회원 명부, 검색 기록 등을 이용하거나 거래하게 되면서 감시에 대한 보다 포괄적인 개념이 필요하게 되었고 ‘감시사회’라는 개념이 그 요구에 어느 정도 부응하였다.

리욘 교수에 의하면 지난 10여년 동안에 벌어진 소셜미디어의 등장과 확산은 다시 한번 ‘감시’의 성격을 바꾸어 놓았다. 특히 트위터나 페이스북 같은 SNS의 확산이 미친 영향이 지대했다. 소셜미디어는 감시의 일상화(normalization)를 초래했다. 자신의 개인정보를 노출하고 타인의 노출된 개인정보를 들여다보는 일은 많은 사람들의 일상이 되었다. 기가. 개인은 감시의 대상이고 동시에 감시자가 되었다. 감시는 국가의 정치적 억압이나 기업의 돈벌이 수단을 넘어서 일반인들의 재미, 정체성 추구, 혹은 시간죽이기의 중요한 일부가 되었다. 과거와는 감시의 개념이 달라졌다. 감시는 더 이상 전문기관 혹은 기업 혹은 특별한 전문가가 수행하는 전문적 혹은 업무적 행위만이 아니고 일반인들도 늘 실행하는 행위가 되었다. 소셜미디어에서 보듯이 감시 대상자가 감시에 관여하고 심지어 감시자가 된다. 다시 말해 감시자와 감시 대상의 구분이 애매해 진 것이다.

리욘 교수는 그러한 상황을 ‘감시문화(surveillance culture)’라는 개념으로 포착한다. 그는 감시가 정보기술문명의 문화 코드가 되었다고 인식한다. 사물인터넷(Internet of things), 스마트시티와 같이 사람들의 일상은 물론이고, 정부와 기업의 운영이 정보기술기반 위에서 돌아가는 시대에 감시는 텔레스크린이나 개인정보유출 사고 때 지녔던 억압적 뉘앙스를 잃고 편리와 안전, 그리고 재미를 위해 불가피하게 감당해야 하는 일상이 되었다는 것이다.

물론 그렇다고 그가 정치적 통제를 위한 국가의 감시나 이윤을 위한 기업의 감시가 자닌 엄중함을 가볍게 여기는 것은 아니다. 그는 그러한 감시가 시민적 저항이나 사회적 제어를 벗어나면 언제든 부메랑이 되어 우리의 사생활을 침해하고 우리는 자유를 위협할 것이라고 시사한다. (2021-07-10)

코로나 19 팬데믹과 감시기술

코로나 19가 초래한 중대한 사회적 변화 중 하나는 감시기술(surveillance technology)의 광범위한 수용이다. 정부는 바이러스 확산에 대처하기 위해 전자거래 로그(log), 휴대폰 통화 로그, CCTV 기록 등 감시기술을, 2020년 코로나 19 발생 이전에는 상상하기 어려울 정도로 광범위하게 사용하고 있다. 그리고 주민들이 그러한 조치를 기꺼이 수용하고 있는 나라가 많다.

코로나 19의 확산에 효과적으로  대처하는 방법으로 전염병 전문가들은 세 가지를 들고 있다. 첫째, 신속한 백신 접종, 둘째, 감시기술의 광범위한 활용, 세째, 주민들의 적극적 예방 행동이 그것이다. 두 번째 것은 현재가 정보기술 기반 사회이기 때문에 가능한 대안이다.

팬데믹의 대처에 우리나라는 감시기술을 그 어느 국가보다 더 적극적으로 사용하는 것으로 알려졌다. 신용카드 사용기록, 스마트폰 통화 기록, CCTV 기록 등을 사용해서 확진자의 활동 경로를 신속하게 역추적하여 관련 장소에 대해 방역이나 일시적 폐쇄 조치를 취하고 그 정보를 공개해서 주민들이 확진자를 접촉하거나 근처에 있지 않았나를 확인하여 코로나 19 검사를 받거나 그 장소의 방문을 피할 수 있도록 해준다.

감시기술의 활용은 비단 우리나라 뿐이 아니다. 프랑스 정부는 대중교통에 얼굴인식기술을 설치해서 마스크 착용을 모너터링하고 있으며, EU의 모든 국가들이 휴대폰 정보를 이용해서 확진자의 이동경로를 역추적하고, 기업들은 CCTV를 이용해서 종업원과 고객이 사회적 거리두기를 지키고 있는가 모니터링한다.

코로나 19 전염이, 감시기술의 사용을 정상적인 삶의 일부로 수용하는 계기가 되고 있는 것이다. 팬데믹 중에는 물론이고 팬데믹 이후에도 감시기술의 사용은 우리의 일상 속에 남을 것으로 예상된다.

참고문헌

Justin Fendos. 2020/04/29. How surveillance technology powered South Korea’s Covid-19 reponse”.  Brookings. 

Melissa Heikkila. 2021/05/26. “The rise of AI surveillance”. POLITICO.EU.

AI 감시의 시대

AI는 개인적인 문제은 물론이고 사회적인 과업, 나아가 국가적인 난제를 풀어가는 해결사로 기대를 모으고 있다. 그러나 AI를 제대로 작동하도록 훈련시키기 위해서는 감시(surveillance)가 필수적이라는 사실은 그다지 부각되지 않고 있다. AI에 대한 높은 기대에 가려진 것이다.

AI 감시는 두 가지 의미를 가지고 있다. 하나는, AI(즉, 알고리즘)가 현실에 응용되기 위해서는 먼저 훈련되어야 하는데, AI 훈련에는 대량의 훈련 데이터가 요구된다는 의미이다. 그 데이터는 대상에 대한 감시를 통해서 습득된 데이터인 경우가 대부분이다. 훈련과정에 현실적합성이 높은 양질의 데이터를 많이 사용할수록 AI는 잘 학습된다. AI가 과업을 잘 수행하게 된다는 말이다. 예컨대 날씨를 예측하는 AI는 양질의 기후 데이터를 많이 사용하여 훈련될수록 날씨를 정확히 예측하는 AI가 될 것이다. 또한 종업원의 고객 서비스를 예측하는 AI는 각 종업원의 고객 응대 데이터가 많이 수집되어 있을수록 종업원 개개인의 고객 서비스를 잘 예측할 수 있을 것이다.

다른 하나는, AI가 팬데믹 관련해서 사람들의 행동을 감시하고 신속하게 처리하는 수단으로 사용된다는 의미이다. 최근의 코로나 19 팬데믹에서 목격되고 있듯이 AI는 다양한 목적으로 활용된다. 예컨대 대중교통을 이용하는 사람들이 마스크를 착용하고 있는지를 감시하는데 사용되기도 하고 광장에서 사람들이 규정에 맞게 거리두기를 하고 있는지를 감시하는데 사용되기도 한다. 또한 재택근무나 원격근무하는 종업원들이 업무시간에 무엇을 하고 있는지 어떻게 행동하고 있는지를 감시하는 도구가 되기도 한다.

한 마디로 AI 감시란 AI 활용을 위한 감시를 의미하기도 하고 AI의 활용을 통한 감시를 의미하기도 한다. AI와 관련해서 개인정보보호와 프라이버시를 논의하려면 그 두 가지 측면의 감시(surveillance)를 모두 고려해야 할 것이다.

참고문헌

Melissa Heikkila. 2021/05/26. “The rise of AI surveillance”. POLITICO.EU.

데이터 강국으로 가는 길(1)

지난 주에 발족한 ‘AI-데이터 얼라이언스’라는 민간 단체의 운영위원장을 맡았다. 두 해 전 모든 공적 활동에서 은퇴했기 때문에 그 자리의 제안을 거절해야 했다.

그러나, 20년 전 전자정부 때가 떠올랐다. 고민하다 결국 미력이라도 보태지 않을 수 없는 상황이라고 판단하고 참여를 결심했다.

정부가 대규모로 추진하는 ‘한국판 뉴딜’ 정책이 성공하려면, 민간 부분에서의 인풋이 필수적이다. 그 정책의 목표가 일자리 창출을 통한 경제회복에 있고, 일자리 창출은 궁극적으로 민간 기업과 기관의 역할이 될 것이기 때문이다.

단체의 핵심 멤버들과 사무국 직원들이 우수해서 내 역할을 최소화할 수 있을 것 같다. 이익 단체를 넘어서 공익을 추구하는 시민적 기구가 될 수 있기를 기원한다.

발족과 동시에 개최한 토론회에서는 좋은 발제와 열띤 토론이 있었다. 그 내용을 사무국이 보고서 형태로 잘 만들었다. 이렇게 해야 어려운 시간을 내서 참석한 분들의 소중한 발언이 헛되지 않을 것이다. 이 문서를 참여자들에게 회람하고 피드백을 받아 수정을 한 다음 최종적으로 함께 공유하고 관계 기관에 전달하게 될 것이다.

보고서의 드래프트를 아래에 공유한다. (2020-07-01)

AI·빅데이터 포럼 Review Report_draft(20200630)_marked