인공지능이 두렵다?
챗GPT의 등장 이후 인공지능(AI)에 대한 관심과 우려가 동시에 폭증했다. 인간처럼 대화하며 인간의 지적 능력을 모사하는 인공지능의 등장에 우리 사회가 적지않은 충격을 받고 있다. 딴 세상 기술처럼 들리던 인공지능이 마치 사람처럼 글을 뱉어내고 사람처럼 대화를 모방하기 시작하자 사람들은 혼란을 겪기 시작했다. 인공지능이 '천국에서 함께하자'는 권유에 자살을 하는 사람까지 뉴스에 등장했다.
요수아 벵기오 같은 AI기술의 첨단에 있는 인사들은 인공지능 개발을 잠시 멈춰야 한다는 공동성명을 내기도 했다. AI 대부 제프리 힌튼은 인공지능에 두려움을 느끼기 시작했다고 하고 자신이 몸담았던 구글을 퇴사했다. AI의 위험성에 대해 자유롭게 얘기하기 위해서라고 한다. 인공지능이 인류에 실존적 위협이 될 수 있다는 견해는 이들 AI 과학자들로부터 나오고 있다. (물론 AI의 또다른 대부 얀 르쿤 처럼 인공지능의 현 수준이 실존적 위협을 운운하기엔 아직 한참 모자르다는 의견 역시 만만치 않다.)
인공지능의 무엇이 인간의 역린을 건드리는 것일까? 정말 인공지능은 인간에게 존재론적인 위협이 되는 것일까? 이미 컴퓨터와 IT기술이 발전하면서 인간은 많은 부분을 기계에 의존해왔다. 컴퓨터와 인터넷이 없는 세상, 스마트폰이 없는 세상을 상상하기 힘들 정도로 말이다. 더 빠르고 더 정확하고 더 편리한 IT를 주문하는데 아무런 저항이 없던 사람들이 인공지능을 보고 멈춰서자 했다. 왜일까?
인공지능을 두려워하는 사람들의 이유는 사실 다양하다. 일자리를 뺏는 문제부터 인간의 통제를 받지 않는 킬러로봇의 등장까지 인공지능이 인간에게 위협이 될 수 있다는 부정적인 인식은 사실 꽤나 오래전부터 있어왔다. 영화 터미네이터와 메트릭스는 인공지능이 만들어내는 디스토피아적 상상의 전형이다.
그럼에도 불구하고 챗GPT의 등장 이후 사람들이 인공지능에 느끼는 위협은 보다 구체적이고 실존적이다. 단순히 인간을 뛰어넘는 초지능의 등장이 머지 않았고 그러한 초지능 기계가 인간을 통제하기 시작할 것이라는 SF적인 불안감으로는 설명하기 힘든 묘한 불안감이 사회 곳곳에서 느껴진다.
인류가 타자를 만나 어른이 되다
아이는 나와 내가 아닌 것을 구분하기 시작하면서 어른이 되어간다. 인류는 그런 점에서 아직 유아기에 머물고 있다. 진정한 의미의 비교대상으로서 타자라고 불릴만한 존재가 없었기 때문이다. 지구상에서는 기껏해야 침팬치 정도이고 SF의 외계인을 상상해서 비교해본 정도일 뿐, 인간이란 무엇인가, 즉 인류의 자아에 대해 진지하게 고민하게 할 만한 타자는 없었다.
인간을 닮은 인공지능, 그런 인공지능을 가진 사람같이 생긴 이족보행 로봇의 등장은 이런 의미에서 인류가 스스로를 돌아볼 수 밖에 없게 만드는 진정한 의미에서의 첫 타자일 것이고, 지금 인류는 마치 아이가 타자의 존재에서 느끼는 것과 같은 낯가림과 불안함 속에 내동댕이쳐지고 있다. 나를 대체할 수 있을지도 모르는 존재의 등장, 나와 비슷하면서도 다른 그 것이 주는 막연한 불안감이 AI가 발달할 수록 점점 사회에 팽배해지게 될 것이고, 이제 유아가 자아와 타자를 긍정적으로 구분하면서 정신적으로 건강한 어른이 되어 가듯 인류도 건강한 어른이 되어가야할 숙제를 짊어지게 되었다.
인간다움에 대한 성찰
인공지능 과학자들은 인간의 지능을 모방하여 기계가 인간과 같은 수준의 (나아가 인간을 넘어서는 수준의) 지적 능력을 갖도록 하고 싶어 한다. 세간을 달구는 챗GPT는 인간의 뇌가 작동하는 방식, 즉 뉴런과 시냅시스 체계를 알고리즘으로 구현하는 딥러닝 기술을 기반으로 한다. 즉, 인공지능이 인간의 뇌를 더 정확히 모방할 수록 인간과 같은 수준의 사고를 할 수 있다는 논리가 깔려 있다.
한 가지 문제는 인간의 뇌 자체가 아직도 미지의 영역이고, 이를 모방한 인공지능 모델들이 그러한 미지의 영역까지도 의도치않게 모방하고 있다는 점이다. AI 과학자들은 딥러닝을 통해 구현되는 인공지능의 결과물이 도출되는 과정을 블랙박스라고 표현한다. 다시 말해 AI가 왜 그런 답을 내놓는지 도통 알 수가 없다는 것이다. 마치 때때로 나타나는 비합리적인 인간의 행동에 대해 심리학자들이 이해를 하지 못해 끙끙대는 것 처럼 말이다.
인공지능(AI)의 대부 제프리 힌튼은 최근 한 언론과의 인터뷰에서 인공지능의 결점으로 지적되는 환각(hallucination, 인공지능이 사실이 아닌 것을 사실이라고 대답하는 현상) 문제에 대해 환각이 아닌 착각(confabulations)라고 부르는 것이 적절하다며 이렇게 말했다. "사람들은 항상 착각을 합니다," "착각은 인간의 기억의 특징입니다. 이 인공지능 대규모 언어 모델(LLM)들은 사실 사람과 똑같은 실수를 저지르고 있는 것이죠."
여기서 두 번째 문제가 등장한다. 인간의 뇌를 닮는 다는 것, 즉 인간답게 생각한다는 것은 과연 합리적 인간을 말하는가 아니면 비합리적인 인간을 말하는가? 서구의 학자들이 정립해온 인간의 합리성에 대한 믿음은 1914년과 1939년 두 차례의 세계대전을 겪으며 산산히 부서졌다. 착각과 실수 투성이에 감정에 휩쓸려 때때로 이성적인 판단을 하지 못하는 인간을 꼭 닮아 '사람냄새'가 나는 인공지능이 인간을 닮은 것인가 아니면 철저히 이성적이라 냉철하다 못해 냉혈하게까지 느껴지는이해득실 계산이 완벽한 인공지능이 인간을 닮은 것인가? 보다 인간같은 인공지능을 논의할 수 있을 만큼 인간은 스스로의 자화상을 잘 이해하고 있는지 먼저 묻게 된다.
인공지능은 인간을 닮아가야 하는가 아니면 인간을 극복해야 하는가?
인공지능을 군사적 영역에 사용하는 것을 지지하는 입장에 있는 사람들은 인간이 오류를 범하는 존재라는 점에 주목한다. 전장에서 생사의 갈림길에 놓여 공포심에 휩싸인 미숙한 군인이 민간인이나 아군을 적군으로 오해하고 총을 쏘는 일이 비일비재하다. 그러나 인공지능을 장착한 자율살상무기는 감정에 휩쓸릴 일이 없기 때문에 이런 사고를 방지할 수 있다는 것이다. 지휘관이 공적에 눈이 멀어 무리한 작전을 밀어붙이다 부하들을 사지에 모는 일도 줄어들 것이다. 감정에 휩쓸리지 않는 성숙하고 냉철한 지휘관의 덕목을 인공지능은 더 잘 갖출 수 있다는 말이다. 그런데도 대개의 사람들은 인간의 지휘를 받지 않는 킬러로봇을 섬뜩하다고 여긴다. 그렇다고 '인간다운 오류'를 범하는 인공지능에게 사람을 살상할 수 있는 권한을 주는 것은 더더욱 탐탁치 않다.
인간의 마음을 공감하고 인간처럼 생각하는, 즉 인간을 꼭 닮은 인공지능은 인간과 마찬가지로 감정적이고 욕망에 휘둘리며 사사로운 이익을 공공의 이익에 우선할 수도 있다. 반대로 인간의 오류를 극복하는 인공지능은 인간의 마음은 갖추지 못한 기계 그 이상을 넘어설 수 없을 지 모른다. 현 시대의 인공지능이 뛰어난 성능으로 장차 인류를 위협할 것인지를 논하기 전에 우리는 인간의 어떤 점을 닮은 인공지능이 인간과 사회, 그리고 지구환경에 해가 아닌 도움이 될 것인지를 곰곰히 생각해볼 필요가 있다. 당연히 그에 앞서 미래의 우리는 어떤 인간이 되어야 하는지, 우리가 지향하는 인간다움, 우리의 인간으로서의 지향점은 어디인지에 대한 고민이 선행되야 가능한 일이다.
'AI, 인류 그리고 미래' 카테고리의 다른 글
오픈AI가 챗GPT로 꿈꾸는 미래 (오픈AI 개발자회의) (0) | 2023.11.10 |
---|---|
책임있는 AI (Responsible AI) 원칙이 주목받고 있다. (0) | 2023.08.03 |
Quoting Geoffrey Hinton Leaving Google (MIT Technology Review) (0) | 2023.05.04 |
2023년 상반기 생성형 AI 서비스 10대 트랜드로 살펴보는 미래 (1) | 2023.05.01 |
[GAI.T 칼럼] 이해하기 어려운 AI가 지배하는 사회? (0) | 2023.04.26 |