인공지능 AI가 무슨 잘못인가? 국가가 문제이지 > 미제스에세이

본문 바로가기
미제스에세이
  • 전체보기

인공지능 AI가 무슨 잘못인가? 국가가 문제이지

페이지 정보

작성자 운영자 작성일18-04-16 19:40 조회937회 댓글0건

본문

인공지능 AI가 무슨 잘못인가? 국가가 문제이지

Per Bylund, 2018.04.09 (배진영 역)


22008b211d8f217ad22b539e7dc70042_1523875033_7532.jpg그래서 저는 “당신은 이 컴퓨터를 신뢰합니까?(Do you trust this computer?)”라는 영화를 보았습니다. 이 영화는 인공지능(Artificial Intelligence: AI)의 선과 악을 탐구하는 영화입니다. 선과 악을 다루고 있지만, 분명히 그 초점은 AI를 통제하지 않고 내버려 두면 그것이 초래할지 모르는 ‘TEOTWAWK(우리가 아는 바와 같은 세상의 종말)’에 맞추고 있습니다. 


그런데 이상한 것은 TEOTWAWK AI의 예가 ‘자율 무기(autonomous weapon)’와 ‘가짜 뉴스’라는 점입니다. 가짜 뉴스는 AI가 어떻게 소수의 지지를 받는 독재자가 정권을 장악할 길을 제공할 수 있는가 하는 이유 때문입니다. 저는 이 모두를 이해하고 심지어 두려워하지만, 이 예들 속에 한 가지 공통적인 것이 있는데, 그것은 AI가 아니라는 점입니다. 


그것은 바로 국가입니다. 국가를 장악하려는 국가의 군대와 그 집단만이 ‘살인 로봇(killer robots)’에 관심을 갖고 있을 뿐입니다. 살인 로봇은 이들 집단에/을 의해/위해 개발되고 있습니다. 가짜 뉴스와 ‘부당한 영향’ 문제 또한 국가 위의 권력에 관한 것입니다. 어떤 무기나 어떤 가짜 뉴스도 AI를 필요로 하지 않습니다. 그런데 영화는 이상하게 꼬아 그것을 AI의 문제로 만들고 있습니다. 더욱 나쁜 것은 영화가 AI의 가장 큰 문제는 그것이 규제되지 않고 있다는 것으로 끝맺고 있다는 점입니다.


그러나 이것은 완전히 잘못된 논리입니다. 국가가 문제의 공통 분모인데 그것이 동시에 해결자라니요? 그 대신 국가는 우리를 다음과 같이 믿게 합니다: 구글(Google)이 우리의 웹 검색을 추적하고 페이스북(Facebook)이 우리의 친구와 신념을 안다는 것이 문제다(“자동화 무기가 그러하기 때문에?”)라고 말입니다. 그것이 추한 것에는 나도 동의하지만, 어떤 기업도 삶과 죽음에 대해 요구하지 않습니다. 사실 기업은 가장 냉혹한 규제가 존재하는 곳에서 생산활동을 합니다. 그곳은 바로 시장입니다. 기업은 돈을 벌기 위해 투자를 합니다. 돈은 오직 다음과 같은 두 가지 방법 중에 하나를 통해 획득될 수 있습니다. 하나는 사람들이 원하고 기꺼이 지불하고자 하는 것을 제공함으로써(오펜하이머(Oppenheimer)의 ‘경제적’ 수단) 이고, 다른 하나는 사람들의 의지에 반해 그것을 빼앗음으로써(‘정치적’ 수단) 입니다. 기업은 전자에 따라 작동합니다. 그것은 기업이 소비자의 자비에 기댐을 의미합니다. 그러나 국가는 후자에 따라 작동합니다.


나는 사람들의 감정을 자극하고 ‘가짜 정보’로 그들을 속이는 등 그런 능력에 문제가 없다고 말하는 것이 아닙니다. 나는 그 영화가 방 안에 있는 코끼리를 놓치고 있으면서 오히려 그것이 해결책이라고 제안하고 있음을 말하고 있을 뿐입니다. 


그 논리는, 이념에 기반을 두고 있지 않다면, 희망 어린 생각에 불과하며, 거기에 있는 것이 명백히 무엇인지를 알려고 하는 것을 거부하는 것입니다. 그 해결책은 단순히 해결책이 아닙니다. 구글이나 페이스북이 데이터를 선별하고 사람들에게 그들이 듣고 싶은 것을 제공하기 위해 AI를 이용하는 방법을 국가가 규제한다면, 이것은 또한 미국 국방부(DOD: Department of Defense)) 또는 미국 국가안보국(NSA: National Security Agency)에도 그리고 이들이 소비자로부터 자발적으로 수집한 것이 아니라 비밀리에 수집한 데이터에도 적용된다고 사람들이 생각하게 될 것입니다. 후자는 자율 무기에서 사용될 개연성이 아주 높습니다. 그 영화는 이런 일이 일어날 수 있다고 말하기는 합니다. 그러나 그 문제를 심각히 다루고 있지는 않습니다.


정치적 수단과 오페하이머의 경제적 수단 간의 차이를 보여주기 위해, 최근에 있었던 두 가지 신용 위기를 생각해보십시다. ‘케임브리지 애널리티카(Cambridge Analytical)’의 붕괴로 인해 페이스북 주가가 급락했으며 이것이 주주들에게 수십억 달러의 손실을 입히게 되자, 페이스북은 즉시 사업 변경을 했습니다. 그 가치는 그 웹 사이트와 그것의 앱을 사용하여 계속 컨텐츠를 공유하기 위해 기꺼이 지불하고자 하는 것에 근거합니다. #페이스북삭제(#DeleteFacebook) 해시태그 운동이 주주들에게 해를 끼쳤습니다. 이것을 영화 스노우든(Snowden)에 의해 드러났던 것과 비교해 봅시다. 국가가 모든 사람들을 염탐하지 않나요? 기업들은 데이터를 부분적으로 수집합니다. 그 기업들은 이를 위해 요구되는 사항을 준수해야 할 뿐만 아니라 법적으로 그것에 관해 어느 누구에게도 발설하지 말아야 할 책임을 강요 받고 있습니다. 물론 약간의 누수가 많은 사람들의 감정을 흔들어 놓은 것은 사실입니다. 그러나 “은밀한 국가”의 감시에는 어떤 일이 일어났습니까? 아마도 아무것도 일어나지 않았습니다. 아마도 약간의 새로운 경로가 생긴 것을 제외하고는, 그리고 일어난 문제들을 통제하기 위해 더 많은 돈이 들어가는 것 말고는 말입니다. 


어느 쪽이 더 문제가 많은가요? 소비자의 신용(정말로 변덕스럽지만)에 종속되는 ‘경제적’ 수단인가요, 아니면 통찰력과 감시에 구애 받지 않고 비밀스러운 데다 우리가 원하든지 말든지 간에 그 비용을 우리에게 떠넘기면서 전혀 책임도 지지 않는 ‘정치적’ 수단인가요?


‘정치적’ 수단이 어떻게 자율 무기와 동시에 국가 권력을 유지하고/요구하는 것에 관심을 갖고 이 모두를 목표로 삼는지를 추가로 말씀드리겠습니다. 두 수단 중 그 어떤 것도 유토피아적인 완벽한 해결책이 아님은 분명합니다. 그러나 하나는 분명히 내장된 통제 메커니즘을 갖고 있습니다. 왜냐하면 그것은 가치에 기반을 두고 있기 때문입니다. 그러나 다른 것은 그렇지 않습니다. 심지어 그것은 완전한 비밀 속에 행해지며 우리가 그 비용을 (비자발적으로) 지불해야 하는 것에 기반을 두고 있습니다. 그런데, 영화 속에서 ‘정치적’ 수단만이 (‘유일한’) 해결책으로 다루어지고 있습니다. 그것은 아마도 사람들의 확증 편향(confirmation bias)에 기대고 있는 듯합니다. 왜냐하면 우리는 학교에서 국가는 “우리 편”이라고 배워왔고 또 그렇게 믿고 싶어하기 때문입니다. 좋습니다. 그러나 우리를 감시하고 자율 무기를 만드는 것은 우리가 아닙니다. 사실, 자율 무기의 “개발 중단”이라는 정치적 결정이 내려질 것이라고는 쉽게 믿겨지지 않습니다. 정반대로 말함에도 불구하고 그들이 계속하지 않을 것이라고 누가 정말로 믿겠습니까?


사실은 이렇습니다. 단순한 거짓말과 가장됨에는 내리막이 없습니다. 그러나 그것이 심각하여 사람들이 어떤 기업을 신뢰하지 않게 되면 그 기업은 한 순간에 쓸려 없어질 수 있습니다. 그 기업의 가치는 날아가 버립니다. 그래서 이 영화의 논리는 현실에서 쉽게 작동되지 않으며, 그래서 그 영화는 의미가 없습니다. 그러나 이것이 인간 지능(human intelligence)의 국가라면, 우리의 손에 들어 있는 데이터로부터 결론을 논리적으로 도출해내려는 우리의 능력을 생각하게 될 것이고, 그러면 “우리 수준”에서 생각하는 기계를 만드는 것은 전혀 어려운 일이 아닙니다. 기계가 실제의 패턴을 인식하여 이로부터 결론을 도출해내는 것은 어렵지 않을 수 있습니다.


나는 영화 제작자들이 다음과 같이 경제학의 기초도 모른다고 해도 놀라지않을 것입니다: 자동화는 보다 적은 비용으로 우리에게 더 많은 가치를 창출하기 때문에, 그들은 자동화를 거대한 문제로 지적한다. 우리는 일자리를 잃게 될 것이다. 아! 안돼. 오늘 월요일 아침 이에 관해 생각해보세요. 



글쓴이) Per Bylund

오클라호마(Oklahoma) 주립대학교 기업가정신 학부 Entrepreneurship & Records-Johnston Professor of Free Enterprise 조교수

옮긴이) 배진영(인제대 국제경상학부 교수)

원문) https://mises.org/power-market/what-makes-ai-dangerous-state 



미제스에세이와 각종 안내를 정기적으로 받고자 하시는 분은 메일링서비스를 신청해주세요.

  • Contact