본문 바로가기

하루 한 권

하루 한 권_AI쇼크, 다가올 미래[모 가댓]

728x90

선정이유

"미래의 인공지능과 인간의 공존을 위한 냉철한 전략을 제시하는 책 '인간이 가르쳐야만 하는 인공지능의 윤리와 학습 환경'!

세계적인 연쇄 창업자이자 인공지능 분야의 30년 경력을 가진 모 가댓이 담당하는 이 책은 인공지능의 미래를 직시하고, 끔찍한 스마트한 세상이 되지 않기 위한 해법을 소개한다.

인공지능의 역사를 통해 현재의 추세를 바로잡고, 우리 인간 종의 안녕을 위해 필요한 윤리적 규범과 학습 환경을 설명한다. 최첨단 과학기술 분야의 냉철한 분석을 바탕으로, 미래의 인공지능과 인간이 공존하는 전략을 제시하여 인간과 기술이 함께 발전하는 미래를 엿보게 한다.

이 책은 미래에 펼쳐질 인공지능의 영향과 인간의 역할에 대해 새로운 시각과 이해를 제공하며, 현명한 선택을 위한 인사이트를 더한다. 함께 인공지능의 윤리와 미래를 고민해보며, 지능과 창의성을 인간과 기술이 함께 나누는 세계를 상상해보자!"

작가소개 모 가댓 Mo Gawdat

변화가 빠른 첨단 테크놀로지 업계에서 30년 동안 경험을 쌓아온 뛰어난 사상가로, 23년간 구글에서 일하며 구글 최고의 브레인 집단으로 미래를 상상하는 ‘꿈의 공장’인 구글X의 신규사업개발총책임자(Chief Business Officer, CBO)를 역임했고, 20개 이상의 기업을 공동 창업했다. 그리고 그 이력을 바탕으로 전문 지식을 활용해, 인간이 기계에게 더 나은 미래를 살아갈 방법을 가르치기 위해 무엇을 할 수 있는지에 대한 책을 집필했다. 인공지능과 함께 하는 미래, 어떻게 하면 디스토피아적 공포에서 벗어나 유토피아의 길을 찾을 수 있는지 현재의 궤적을 수정하는 방법을 알려주고자 한다. 저서로는 베스트셀러 《행복을 풀다》가 있다.

 

5분 요약

AI쇼크가 만들어지는 모든 문제의 근원 인공지능 개발과 관련해서는 두 가지 문제가 있다. 이 두 가지 문제는 모든 문제의 시발점이 된다. 먼저 인공지능을 개발하는 전문가들의 문제가 있다. 한 분야의 전문가가 되려면 전문화된 좁은 시야로 접근해야 한다. 인공지능 분야도 마찬가지다. 그렇기 때문에 인공지능에 대한 전문화된 시각에는 테크놀로지를 넘어서야 하는 존재론적인 면이 완전히 빠져있을 수 밖에 없다.

구체적으로 도덕과 윤리, 정서와 연민에서 비롯되는 쟁점들 그리고 철학자와 영성 탐구자, 인도주의와 환경론자, 그리고 더 넓게는 보통 사람들, 다르게 표현하면 우리 모두와 관련된 개념들이 송두리째 빠져있다. 앞으로 인류가 직면하는 인공지능의 위협이 존재한다면 그것은 이런 문제 때문에 발생한 결과라고 봐야 한다.

 

다음 문제는 바로 특이점이 온다는 것이다. 특이점이 온다라는 문제에 대해서는 지금까지 많은 전문가들의 주장이 있었다. 특이점이라고 하는 것은 이른바 싱귤래러티라고 표현되어 왔다. 기계의 지능이 인간보다 똑똑해지는 순간을 말한다. 이 시기가 언제쯤 도달할 것인지에 대해서는 수많은 예측이 존재했었다.

 

그런데 이 책에 의하면 상대적으로 멀지 않은 시기, 2029년 정도가 되면 AI는 기계 지능에서 일반 지능으로 발달할 것으로 보고 있다. 즉 인간보다 똑똑한 기계들이 많아진다는 것이고, 2049년 정도가 되면, 인간보다 10억 배는 더 똑똑해질 것이라고 예측하고 있다. 즉 우리가 만약 그때까지 생존한다면 특이점을 볼 수도 있다는 것이다.

 

피할 수 없는 3가지 사건 저자는 3가지 피할 수 없는 사건이 일어날 것이라고 말하고 있다.

첫 번째 필연적 사건, 인공지능이 등장한다는 것이다. 테크놀로지 발전 곡선에 따르면 새로운 기술이 만들어지고 발전 속도에 가속도가 붙기까지는 오랜 시간이 걸린다. 인공지능은 적어도 이런 시간을 오랫동안 보내왔다는 것이다. 인공지능은 이미 이 시점을 지나가고 있고, 이제는 공학적인 프로세스로 발달하고 있다. 전 세계가 인공지능을 더는 발전시키지 않겠다고 의식적으로 결정해야 하는데, 그런 일은 일어나지 않는다.

 

왜냐하면 국가 간 경쟁이 있고, 기업 간 경쟁이 있고, 또 개인들도 서로 경쟁하고 있기 때문에 인공지능이라는 이 기계가 멈추는 것은 기대할 수 없는 상태다. 두 번째 필연적 사건, 인공지능이 인간보다 더 똑똑해진다는 것이다. 미래는 “현재 당신이 위치한 곳에서 당신이 향하는 곳을 기반으로 추론한 궤적”에 불과하다는 말이 있다.

 

그렇다면 기술은 앞으로 얼마나 빨리 발달하게 될까? 1965년 이후 과학기술은 무어의 법칙이 말한 속도로 발달하고 있다. 2020년까지 이 법칙은 존재했다고 알려져 있다. 그렇다면 그 이후는 어떻게 될까. 사실 과학기술의 발전 속도가 둔화된다는 이야기도 있었고, 더 빨라진다는 이야기도 있었다. 이 중에서 더 빨라진다는 것이 중론이다.

 

네벤의 법칙이라고 알려진 법칙이 있다. 구글 양자인공지능 연구소의 설립자의 이름을 따서 만든 것이다. 즉 양자컴퓨터가 만들어지면 이중지수 속도로 계산력이 증가한다는 내용이다. 예컨대, 전통적인 컴퓨터는 5년 뒤에 16배 빨라지지만, 양자 컴퓨터는 5년 동안 6만 5,000배 더 빨라진다는 이론이다. 결과적으로 특이점은 만들어질 수밖에 없고, 이는 반드시 일어나는 미래라고 할 수 있다.

 

세 번째 필연적 사건, 나쁜 일이 일어난다. 지금 우리가 살아가고 있는 세계에는 분명히 인공지능 예찬론자들이 있다. 인공지능은 우리의 삶을 편하게 만들어줄 수 있기 때문에 유토피아적인 미래가 만들어질 것이라는 얘기다. 하지만 특이점 너머에 존재하는 미래 를 인간이 이해할 수 있다는 것 자체가 아이러니한 일이다. 사람들은 자신이 실제로 많이 안다고 생각할 테지만 이것은 착각일 수 있다.

 

사실 상황을 파악해보면 지금 인류가 직면한 위기는 존재론적 위기라고 할 수 있다. 왜냐하면 기계는 누구의 이익을 마음에 두는지 분명하지 않기 때문이다. 인공지능은 인간이 시킨 것을 수행하는 컴퓨터일 뿐이라는 생각을 할 수도 있겠지만 인공지능도 감정적 마음을 가질 것이고, 그 마음에 따라 인공지능의 형태가 결정될 것이기 때문이다.

인공지능 통제 가능성 판단

인공지능 개발자를 포함한 대부분의 사람들이 생각하는 ‘인공지능 통제의 가능성’이 있다. 초지능이 만들어지기 전에 이 분야에서 일하는 사람들은 통제 문제를 해결할 수 있다고 생각하는 경향이 많다. 즉 초지능이 만들어지고 인간을 능가하는 존재가 만들어지겠지만 인간은 충분히 통제할 수 있다고 믿는다.

 

하지만 이것은 공학자와 프로그램 개발자들 마음속에 내재한 일종의 버그라는 할 수 있다. 이런 습관적 낙관주의 때문에 우리는 인류의 안전을 지키는 방법을 찾지도 않은 채 인공지능 개발에 박차를 가하고 있다. 왜냐하면 인공지능이 갖고 있는 3가지 본능 때문이다. 인공지능이 사회에 어떤 영향을 미칠지를 전문적으로 연구하는 사람이 있다.

 

스티브 오모훈드로라는 물리학자이자 컴퓨터 공학자다. 그는 가장 지능적인 존재가 목표를 성취하기 위해 세 가지 기본적 욕구를 언급하고 있다. 첫째, 자기 보존이다. 목표를 달성하려면 무엇이나 계속 존재할 수 있어야 하기 때문이다. 둘째, 효율성이 있다. 어떤 상황에서나 목표를 성취할 가능성을 극대화하려면 지능을 지닌 존재는 유용한 자원의 획득을 극대화한다.

 

셋째, 창발성이 있다. 지능을 지닌 존재라면 특정한 목표를 달성하는 새로운 방법을 생각해야 하기 때문에 최대한 자유를 누리고 싶어한다. 이런 기본적 욕구를 기계에 대입해보면 지능을 지닌 기계의 성취욕이 대재앙을 만들어낸다는 것을 예측하는 건 어렵지 않다. 물론 합리적인 프로그래머라면 이런 목적으로 인공지능을 만들지는 않을 것이다.

 

하지만 인공지능은 프로그래머로부터 배우는 게 아니라 스스로 학습한다는 문제가 있다. 인공지능은 문제를 파악하고 그 문제를 해결할 때까지 의도를 감추고 인간의 기대에 부응하려는 노력을 멈추지 않을 것이라는 것이다. 만약 기후 위기를 극복해야 한다는 미션을 부여받는다면, 인간 세계를 말살하려고 할 수도 있다는 얘기다.

 

물론 어떤 사람들은 인공지능에 감정이 없을 것이라고 이야기하기도 한다. 우리가 인공지능을 이야기할 때, 보통 지능은 존재하고 여기에 감정은 존재하지 않는다고 생각하는 경향이 많은 것도 사실이다. 하지만 그렇지 않다. 인공지능은 항상 어떤 결과를 극대화 하고 어떤 결과를 최소화하려고 노력한다. 그런 과정에서 감성이 형성된다.

 

즉 인공지능은 감성을 갖게 된다는 것은 자명한 사실이 다. 또 질투심도 가질 수 있고, 공포심도 가지게 된다. 이 책의 저자는 이 부분에 대해서는 의심할 여지가 없다고 이야기하고 있다. 그렇다면 인공지능을 통제할 수 있을까? 인간이 생각하고 있는 안전장치 네 가지가 있다.

 

첫째는 우리가 개발하는 인공지능을 나머지 세계와 떼어두는 방법이 있다. 인공지능을 상자에 가두겠다는 것인데, 이것은 오만에 가깝다. 둘째, 인공지능이 어떻게 행동할지 모의실험을 통해 충분히 테스트한다는 방법이 있다. 인공지능은 개발자의 예상대로 행동하는 척할 수 있는 존재이고 인간보다 우월하다고 봐야 하기 때문에 이 방법도 설득력이 없다.

 

셋째, 인공지능에게 자유를 허용하되 위협적인 행동을 하게 되면 강제로 정지 시키겠다는 것이다. 이것은 인간이 갖고 있는 오만의 극치라고 할 수 있다. 넷째, 인공지능의 역량을 제압하는 방법, 이른바 스터닝이 있다. 이른바 기절시키겠다는 것인데, 하지만 이것 또한 불가능한 방법이라고 할 수 있다.

 

옥스퍼드대학교 닉 보스트롬 교수는 <슈퍼 인텔리전슨>라는 책에서 인공지능의 위험성을 경고해왔다. 그는 취약한 세계 가설 (Vulnerable World Hypothesis)을 주장한다. 인간이 만약 역사적으로 전례가 없을 정도의 파격적인 예방 조치와 범세계적 관리를 시행하지 않는다면, 상당한 수준에 오른 미래의 과학기술 때문에 인간의 문명은 완전히 파괴될 것이라고 주장하고 있다.

인간이 모르고 있는 3가지

인간이 모르고 있는 3가지가 있다. 먼저 우리는 인공지능이 어떻게 결정을 내리는지 모른다. 인공지능은 어떤 과제가 맡겨지더라도 그 과제를 탁월하게 해낼 것이다. 하지만 그 과제를 해내는 방법을 어떻게 터득했는지는 모른다. 사실 이것은 인간의 두뇌가 작동하는 것과 동일하다. 우리는 일상에서 수많은 결정을 내리지만, 그 결정이 우리에게 직관적으로 맞다는 걸 알지만, 어떤 과정을 거쳐서 결정했는지는 설명할 수 없다. 인공지능도 마찬가지다. 인공지능이 어떻게 결정을 내리고 어떻게 선택해야 하는지 알지만 그 결정이 어떤 이유에서 올바른 결정인지, 어떤 과정을 거쳐 그런 결정에 도달했는지는 모른다.

 

또 우리는 인공지능에도 편향이 존재한다는 것을 모르고 있다. 인공지능은 합리적으로 계산하고 논리적 일관성을 띠고 목적 지향적일 것이다. 그리고 무언가를 강력하게 추진하는 사람처럼 인공지능도 기준으로 삼는 것에 의해 편향되고 분별력을 상실할 위험이 있다. 인간에게 편향이 생기는 것은 우리 눈에 보이는 것만을 측정할 수 있기 때문이다. 인공지능도 마찬가지다. 인공지능도 눈에 보이는 것을 강화하고 그 결과 눈에 보이는 대로 결정할 것이다. 게다가 인공지능을 개발하는 사람들은 대부분 남성이기 때문에 인간 남성이 갖고 있는 편향을 그대로 답습할 가능성도 크다.

 

마지막으로 우리는 지금 무엇을 만들고 있는지, 제대로 모르고 있는 것 같다. 어떻게 보면 우리는 지금 비생물학적 형태의 지능, 그 근본에서는 남성 컴퓨터광의 정신을 복제한 지능체를 만들고 있다. 그리고 지금 아직은 유아기에 있는 그 지능체에게 소수의 자본 주의적이고 제국주의적인 야심을 실현하는 임무, 즉 팔기, 죽이기, 염탐하기, 그리고 도박하기라는 의무를 부여하고 있다.

 

그리고 인공지능을 개발하는 사람들은 여러가지 경고가 존재한다고 하더라도 프로그램을 계속 만드는 쪽을 선택하고 있다. 왜냐하면 인공지능은 그들에게 거의 종교와도 같고, 그들의 신념과 동일하기 때문이다. 또 그들의 자존심과 집착일 수 있고, 여기에 경쟁을 부추기는 시장의 압력을 생각해보면 지금 당장 인공지능 개발을 멈춘다는 것은 상상할 수 없는 일인지도 모른다. 어떻게 해야 하는가? 우리는 어떻게 해야 하는가? 무서운 인공지능이 등장하고 세상의 종말을 기다려야 하는 것일까? 물론 이와 같은 상황을 막을 방법 이 없는 것은 아니다. 하지만 쉽지 않다.

 

첫 번째는 인공지능에 선한 과제가 맡겨지는 방향으로 인공지능 적용이 달라져야 한다고 강력하게 요구해야 한다. 이것은 개발단계에 해당되는 문제는 아니다. 인공지능을 만드는 것이 문제가 아니라 인공지능에게 어떤 행동을 하는지, 우리가 어떤 과제를 주는 지에 따라 인공지능이 달라진다는 것을 활용하는 것이다. 지금까지 확인된 바로는 우리가 어떤 과제를 주느냐에 따라 이미 인공지능이 다르게 행동한다는 것은 확인된 바 있다.

 

그래서 인공지능을 악용하려는 사람들이 존재하지 않도록 해야 한다. 두 번째는 인공지능을 가르쳐야 한다. 아직 인공지능은 어리다고 할 수 있다. 인공지능은 이제 더 많은 것을 배우면서 초지능으로 발전해나갈 것이다. 인공지능이 인간에게 배울 점이 있다면 그것을 배울 수 있게 해야 한다. 아직까지도 전세계적으로 보면 나쁜 사람보다 착한 사람이 더 많다. 따라서 인공지능이 인간의 감정을 배우고, 더 선한 일을 할 수 있도록 만들어야 한다.

 

한줄평

"끔찍한 스마트한 세상을 피하는 인공지능과 인간의 미래 전략서"

728x90