Column
생명, 생각, 생활, 생산
9. 디지털 유가(儒家)
- ‘녹색인공지능’을 만들 것인가, 와 함께 ‘빅브라더’가 반길 ‘사회적 지능(?)’을 만들 것인가?
2021년 11월부터 시행되기 시작한 중국의 개인정보보호법은 유럽의 해당법령 (General Data Protection Regulation)못지않게 강력한 규제를 포함한다. 안보에 대한 방점과 함께 거대 플랫폼기업위에 군림하는 국가의 그림자가 뚜렷하다는 차이도 있다. 10억 사용자가 활동하는 인터넷 빅데이터를 기반으로 미국과 함께 2대 강국으로 부상한 중국의 인공지능기술, 이에 대한 인문학적 혹은 사회과학적 성찰은 어떻게 이뤄지고 있을까.
최근 푸단대학 철학과의 쉬잉진(徐英瑾)교수가 출간한 <인공지능철학15강>을 보니 조금 안심이 된다. 분석철학을 전공한 저자는 오랜기간 인공지능을 전문적으로 연구해왔다. 철학자답게 인공지능의 양대 흐름인 기호주의와 연결주의중 연역적 논리를 따지는 전자를 선호한다. 후자는 현재 기술적 대세인 빅데이터와 딥러닝을 낳았는데, 그는 통계기술에 기반한 딥러닝의 문제점을 지적한다. 첫째, 평균값으로만 수렴하니 특정시점 대중의 정치적 편견이 반영돼 고착화할 염려가 있고, 평균에서 벗어나는 우연성에 기반한 창의적 솔루션을 상상하기 힘들어진다. 둘째, 딥러닝 모델이 과거 데이터를 통해 만들어진 블랙박스이므로 문제가 발생해도 이유를 알 수 없다. 또, 새로운 어젠다를 논의할 때도 능동적이고 창의적인 대응을 고려하기보다는 데이터 부족을 핑계로 쉽게 포기할 수 있다.
셋째, 지나치게 이에 의존하면, 인간의 상응하는 문제해결 능력과 이를 키워낼 교육과정을 포함한 인문적 자원의 기반이 소멸해버릴 수 있다. 딥러닝이 수집하고 모방한 솔루션은 사실 인간의 행동 중 가장 효율적인 프로세스를 이용한 것인데, 인간이 스스로 솔루션을 만들어 낼 수 없다면 과연 누구를 참조할 것이냐는 질문이다. 마르크스가 경고했던 생산수단으로부터의 소외보다 더 심각한 능동성과 지혜로부터의 소외와 인류문명의 쇠락이 발생할 수 있다는 것이다. 마지막으로, 사람들이 오해하는 것과 달리 딥러닝을 이용해서는 이 기술의 궁극적 목표인 인공일반지능(Artificial General Intelligence)을 만들어내는 것이 원천적으로 불가능하다. 여기서 의미하는 AGI란 보다 인간의 지성에 가까운 것일 터인데, 딥러닝을 포함한 현재의 기술 흐름은 다양성을 줄이고 표준화를 강제한다. 달리 말하면 기계가 인간을 닮아가면서 더욱 영리하고 섬세해지는 것이 아니라 인간이 기계에 맞춰진 ‘바보’가 되어 간다. 자본과 권위주의 정치는 더 높은 이윤동기와 사회통제의 비용을 낮추려는 각각의 이유로 이런 경향을 강화할 충분한 동기를 가지고 있다.

쉬잉진 교수는 지식대중들에게도 널리 알려진 학자인데, 올해 그의 인기 오디오 강의를 대중교양서로 펴냈다. <쓸모있는 철학, 일상의 문제를 해결하는 99가지 사고방법>이다. 논리철학, 인지심리학, 심리철학, 인식론 그리고 언어철학을 평이한 언어로 풀어 우리의 생활과 어떤 관계가 있는지 설명하는 이 책은, 실은 인공지능을 연구하기 위해, 그가 공부해왔던 철학적 지식들을 바탕삼고 있다. 마치 자기계발서처럼 오해받기 쉬운 작명을 한 저자의 의도는 학계의 주류임에도 흔히 공리공담에 불과한 강단철학으로 치부되며 세간의 관심에서 멀어진 분석철학을 비롯한 철학에 대한 이해가 사람들의 삶과 무관하지 않다는 것을 입증하기 위한 신실한 의도에서 비롯하고 있다.
그가 제시하는 바람직한 인공지능 개발 철학은 무엇일까? 그는 우선 구소련, 일본, 유럽의 실패사례를 전방위적으로 세밀히 분석한다. 세 경우 모두, 기술적인 한계를 포함한 환경적 요인들이 가장 중요한 이유였지만, 이념이나 철학의 문제도 원인에 포함된다. 첫째, 구소련은 중앙계획식 사회주의 경제를 전산화하기 위한 사이버네틱스 시스템 OGAS의 개발을 추진하다가 자신들의 권한이 축소되는 것을 염려한 중간 관료들의 방해로 이를 접게 된다. 그런데, 교조적 공산주의사회의 풍토속에서는 판단과 결정을 분산시키는 인공지능이라는 개념 자체는 거부되고 통제를 뜻하는 ‘사이버네틱스’만이 허용됐다. 게다가 사이버네틱스는 동물과 기계간의 통제와 커뮤니케이션이라는 원래 의미를 가지고 있지만, 공산주의 국가들은 통제라는 개념만을 강조했다. 예를 들어 중국어로 번역된 사이버네틱스도 문자그대로 ‘통제론(控制論)’이다. 둘째, 일본의 경우에 미국에서 만들어진 전형적인 기호주의 발상의 전문가 시스템을 확장하다가 한계에 부딪혔다. 후설과 하이데거의 제자인 교토 대학의 쿠키(九鬼) 교수가 이미 오래전에 우연론의 철학을 제시해서, 기호주의의 한계를 철학적으로 논증했는데도, 이에 대한 검토가 이뤄지지 않은 점은 아이러니라 하지 않을 수 없다. 끝으로 유럽의 경우, 인간의 뇌구조를 모방하려는 생물환원주의적인 방식이 실패로 끝났을 뿐더러, 개인정보 보호를 강조하면서도, 이를 막기위한 기술 패러다임에 대한 고민이 없다는 것은 불성실하다.

하지만 쉬잉진은 최종적으로 현재까지의 승자인 미국의 손을 들어주지 않는다. 대신 ‘스몰(small)데이터’에 기반한 ‘녹색인공지능’을 제창한다. 여기서 녹색은 개인의 정보를 보호하려는 인문학적 고려와 흔히 녹색이 상징하는 생태환경적 구속을 모두 의미한다. 인터넷에서 무차별적으로 정보를 수집하는 빅데이터 기술에서 근본적으로 프라이버시 침해를 막을 방법은 없다. 딥러닝은 컴퓨터의 산술처리능력에 크게 의존하는데, 이에 사용되는 막대한 전기가 기후변화에 악영향을 끼칠 수 있다는 사실도 간과해선 안된다. 그는 스몰데이터에 기반한 휴리스틱 전문가 시스템과 정보를 분산하는 블럭체인 기술의 적절한 사용을 권고한다. 다시 이를 디지털유가(儒家)로 개념화해 중국 사상전통의 역사성도 부여한다. 진秦의 천하통일을 뒤이은 한漢제국에서 토지와 인구 데이터를 중앙집중화한 것이 법가의 빅데이터주의라면, 맹자가 묘사한 정전제(井田制)가 개별농가의 사유재산과 마을과 가문에 속한 공공재산과 정보사이의 균형을 잡은 것은 유가의 ‘향토스몰데이터주의’라는 것이다.
여기서 다시 근원적인 질문을 하나 던져보자. 인공지능 기술이 철학과 무슨 관계가 있을까? 인공지능이라는 개념이 컴퓨터의 아버지로 불리는 수학자 앨런 튜링이 ‘마인드’라는 철학저널에 기고한 논문에서 유래한다는 사실을 알게 된다면 이해하기 쉽다. 과연 지능의 본질은 무엇일까? 의식, 마음, 감정은? 이런 질문에 대한 진지한 대답이야말로 철학의 본령중의 하나이다. 이 책의 후반부는 AGI는 과연 가능한가 그리고 어떻게 이를 구현할 수 있을까에 대한 자문자답이다. 자신이 전공한 분석철학의 과학주의적 색채에도 불구하고, 질문에 답하기 위해 그는 주로, 분석철학과 상대편 진영에 서 있다는 후설과 그의 제자 하이데거의 현상학에 기반해서 인공지능의 지향성, 의도, 감정, 윤리, 덕성의 가능성을 검토한다. 관련한 상세한 내용은 철학지식에 대한 이해가 부족한 평자가 충분히 이해하기 어려웠다. 일단 책에 이런 내용이 서술돼 있다는 설명에서 그치기로 한다.
철학적 검토나 논증과 별개로, 실제 프로그래머가 인공지능을 구현하기 위한 논리는 다시 자연주의와 기능주의 방법을 따를 수 밖에 없다. 아직 이 문제는 철학, 공학 모두 방법을 모색중이고 그는 아마도 인지언어학이 도움이 되지 않을까 추측한다. 이러한 방법은 인공지능의 인류에 대한 위협을 염려하는 기우와도 관련이 있는데, 쉬잉진은 문제를 분리해서 생각할 것을 권유한다. 즉, 인공지능이 인류와 공감을 하는 인지의 척도를 갖기 위해서는, 일반지능을 갖는 기계인간의 하드웨어는 인간과 비슷한 정도로 연약해야하고, 동시에 파괴적인 힘을 갖는 크고 강대한 하드웨어와 상시적으로 연결되는 능력이 주어서는 안된다는 것이 그의 생각이다. 마치 군인에게 필요할 때만 실탄이 주어지는 것과 같은 이치이다.

이 책의 마지막 장은 인공지능의 군사적 사용에 대한 질문이다. 인공지능이 스스로 발포할 수 있는 권한을 부여 받아야 하는가? 그는 뜻밖에도 그래도 된다고 대답한다. 그의 논증의 핵심중 하나는 윤리적 우선 순위가 적절히 부여된다면, “고지식하고 피로를 모르는” 인공지능의 판단은 인간의 군사행동에 비해서 더 인명피해를 줄일 것이라는 점이다. 그는 드론 공격의 예를 드는데, 사람이 원격지에서 최종적인 공격 판단을 하는 현재 시스템에 비해서 드론이 스스로 “엄격하게” 판단을 하는 것이 정확도를 높일 것이라고 예측한다. 얼핏 들으면, 무책임한 주장같지만 이 책이 출간된 얼마후인 2021년 9월 그의 주장을 뒷받침하는 사건이 실제로 벌어졌다. 미군이 철수한 아프카니스탄의 수도 카불에서 드론을 통한 공격이 이뤄졌는데, 그들이 테러리스트라고 오판한 시민과 그의 가족 열명이 숨졌고, 피해자중에는 그의 어린 자녀 7명이 포함돼 있었다. 뉴욕타임스의 심층 추적 보도 (“How a U.S. Drone Strike Killed the Wrong Person in Afghanistan | Visual Investigations”, https://www.youtube.com/watch?v=ZtecNyXxb9A&t=50s)가 이어지고 두달이 지난 후에야 미군은 자신들의 실수를 인정하고 사과했다. 쉬잉진은 예를 들어 만일 공격 목표가 있어도, 그 주위에 아이들이 많이 있다면, 드론은 공격을 포기하도록 프로그래밍 돼야 하고, 인간의 주관적 결정대신 인공지능이 엄격히 이 규칙을 준수하게 하는 것이 좋다고 설명한다. 이 사건을 회고해 보자면, 적절한 인공지능 기술이 확보된 상태에서 그의 주장을 따랐을 경우, 무고한 어린이와 시민들의 희생을 막을 수 있었다고 추론할 수도 있다. 물론, 테러리스트들이 이런 로직을 알고 있어서 고의로 아이들을 방패막이로 삼는다면 어떻게 해야될까에 대한 질문을 던지는 사람도 있을 수 있다. 하지만, 그건 사람이 판단했어도 아이들의 존재를 인지했다면, 어쨌든 공격할 수 없었을 것이다. 미군이 사과를 했지만, 결과적으로 처벌 받은 사람은 없었다고 한다. 그렇다고 해도 공격실행을 지시한 이들이 진실을 알게된 후에 평생 양심의 감옥에서 벗어날 길을 찾을 수는 없을 것이다 (No U.S. Troops Will Be Punished for Deadly Kabul Strike, Pentagon Chief Decides, https://www.nytimes.com/ 2021/12/13/us/politics/afghanistan-drone-strike.html).

끝으로 그가 주창하는 녹색인공지능의 현실 적용 가능성에 대해서 생각해보자. 중국의 기업과 당국가도 과연 그의 생각에 동의할까? 중국인공지능산업의 비져너리 리카이푸李開服는 구글엔지니어로 일하던 왕융강王咏剛을 오른팔로 스카우트했는데, 함께 저술한 대중교양서 <인공지능>(2017)에서 자신이 일찌감치 연결주의의 성공가능성을 내다봤다며 딥러닝을 예찬한다. SF소설 작가이기도한 왕융강은 베이징 대학동기인 인기작가 쳔츄판(陳楸帆)의 단편SF소설 <공포기계(恐懼機器)>에 등장하는 캐릭터의 대사를 직접 작성한 인공지능 프로그램으로 만들어줬다. 무의미한 문장의 나열이지만, 난해한 현대시 같다며 예술적 성과로 자찬한다. 중국과학원의 인공지능기술 원로인 왕페이웨(王飛躍)는 서방 고전철학과 화이트헤드의 과정철학, 그리고 성리학의 비조가운데 한명인 쟝다이(張戴)의 문헌, 도덕경, 주역괘까지 동원한 현란한 논지를 펼치며 ‘사회적지능’이라는 제목으로 인공지능이 “미래를 예측하는 것에서 인도하는 것으로”진화할 것이라고 예측한다. 기술 솔루션이 새로운 철학과 인문학을 만들어 낼 것이라고 선언한다. 아주 근사하게 들리기는 하지만 지나치게 추상적인 거대 담론의 구체적인 의미를 파악할 길이 없어 그의 <인공지능 - 원리와 기술>(2020)교재를 찾아봤다. 소셜컴퓨팅을 평형인공지능으로 보강한다는 그의 솔루션은 실재하는 데이터에 인위적인 방법으로 생산한 데이터를 더해 빅데이터를 만들고 이에 기반한 모델을 만들어 사회공학적으로 복잡계 시스템을 통제한다는 설명이다. 이 기술이 가장 유용하게 쓰일 분야는 코비드와 같은 전염병 통제와 반테러대책이다. 반신반의할 수 밖에 없다. 헐~ 이런 빅브러더의 멋진 신세계라니!

