본문 바로가기
AI, 인류 그리고 미래

[GAI.T 칼럼] 이해하기 어려운 AI가 지배하는 사회?

by GAI.T & a.k.a Chonkko 2023. 4. 26.
반응형

AI가 지배하는 사회가 오고 있는가 created by 빙

 

세계적인 AI 분야 석학 스튜어트 러셀 버클리 캘리포니아대(UC버클리) 컴퓨터과학과 교수는 한 해외 언론과의 인터뷰에서 연구자들도 'AI의 발전에 두려움을 느끼느냐'는 질문에 "그렇다"며 "갈수록 더 무서워지고 있다"고 답했다고 합니다.

챗GPT가 무서운 기세로 주목을 받던 최근 AI 석학들과 하라리, 머스크 등 유명인들이 공동으로 거대 AI 개발을 6개월간 중단하자고 나서기도 했습니다. AI 권위자들이 언론 인터뷰 등을 통해 밝히는 우려를 윤리적 관점에서 생각해보고자 합니다.


인공지능의 수준이 점점 인간의 이해를 넘어서고 있다

 

"연구자들조차 이러한 기술이 왜 이렇게 잘 작동할 수 있는지 완벽히 이해하지 못하는 것이 사실입니다."

 

미국 카네기멜론대 빈센트 코니처 컴퓨터과학 교수는 한 국내 언론과의 인터뷰에서 챗GPT와 관련해 이렇게 고백했습니다.

이세돌 9단과 알파고의 대국을 기억하시는 분들이 많으실겁니다. 알파고의 착수에 많은 바둑인들이 '아니, 저기에? 대체 왜?'라고 질문을 던졌지만 결국 알파고는 인간 챔피언을 넘어섰죠. 인공지능 알파고의 논리를 인간이 이해하기 어려웠지만 결과만 보면 알파고는 목표를 성공적으로 달성했습니다. 

AI를 이해하기 어려워진다는 사실이 왜 문제가 될까요? 이해하기 어렵다는 말은 달리 말하면 통제하기 어렵다는 말이기 때문입니다. 여기서는 종말론 같이 AI가 인간의 통제를 벗어나서 거꾸로 인간을 통제한다는 음모론 같은 문제를 다루려는 것은 아닙니다. AI가 초래할 수 있는 종말론적 미래에 대한 우려도 석학들 사이에서 점점 진지하게 논의되고 있는 것은 사실입니다만 여기서는 좀 더 보편적인 부분을 살펴보려합니다. (참고로 ChaosGPT라는 무서운 AI가 등장해서 지금 인터넷에서 회자되고 있으니 종말론을 무시할 수는 없겠습니다)  


과정에 대한 몰이해가 윤리적인 문제를 야기한다


챗GPT로 잘 알려진 인공지능 LLM 모델(거대언어모델)은 입력값과 출력값은 알 수 있지만 구체적으로 어떤 과정을 통해 그런 출력값이 나오는지는 개발자들도 알기 어려운 알고리즘을 통해 작동합니다. AI가 사전에 학습된 수많은 데이터들 속에서 패턴을 찾아내어 가장 목적에 부합하는 출력값을 도출해내는 과정 자체는 알고리즘을 구축한 연구자들도 구체적으로 알 수 가 없기 때문에 블랙박스라고 불리기도 합니다. 과정을 모른다는 것은 그 과정을 통제하기 어렵다는 뜻이기도 하지요.
 
혹자는 과정이야 어떻든 결과만 좋으면 장땡이지라고 생각할 수 있습니다. 그러나 달콤한 허쉬 초콜렛이 아프리카의 어린 아이들을 착취해서 만들어졌다는 뉴스에 사람들이 분노하는 것은 과정도 결과만큼 중요하며 정당해야한다는 도덕적 원칙이 인간의 마음속에 자리잡고 있기 때문입니다. 

그런데 성능 좋은 AI가 등장해서 어떤 과정으로 내가 시킨 일을 해내는지 알 수가 없고, 그래서 그 과정을 통제할 수도 없다면  그 AI가 주는 달콤한 과실을 있는 그대로 즐겨도 되는 것일까요? 이 지점에서 AI라는 기술에 대한 윤리적 검토가 필요하다는 인식이 발생합니다. AI라 하더라도 인간 사회에 통용되는 윤리에 부합하는 수단만을 사용할 도덕적 책임이 있어야 한다는 것이지요. AI에게 돈을 벌어라 지시했더니 정말 돈을 벌어오긴 했는데 피싱사이트를 만들어 버린 것이라면 분명 문제가 있는 것이겠죠.

 

문제는 앞서 언급한 것 처럼 AI가 고도화됨에 따라 인간이 AI가 '사고'하는 바를 이해하지 못하는 지경에 이르렀을 때 과연 AI의 업무 수행 과정이 항상 도덕적이도록 통제할 수 있을 것이냐하는 점입니다. 자율살상무기(LAWS)가 전쟁의 승리를 위해 민간인을 학살하는 것을 통제할 수 있는가, 기업의 이윤을 극대화하기 위해서 가장 저렴한 노동력인 아프리카의 아이들을 고용하는 것을 통제할 수 있는가, 더 많은 광고 수익을 올리기 위해서 입맛에만 맞는 추천 동영상을 계속 소개하면서 세뇌에 가깝게 사회를 양극화로 몰아가는 SNS 알고리즘을 통제할 수 있는가, 이러한 질문에 대한 대답이 반드시 필요한 시기가 도달했다는 것이 석학들의 인식입니다.

 

과정에 대한 이해를 포기하고 나아가 통제를 포기하는 결과는 끔찍할 수 있다


"우리 자신이 이해하지 못하는 프로세스에 의해 사회가 지배될 수 있다"

 

코니처 교수는 한국일보와의 인터뷰에서 이런 말로 미래를 걱정합니다. 사실 보통 사람들은 지금도 왜 전쟁이 일어나는지, 왜 환율이 오르는지, 왜 물가가 오르는지, 왜 내가 사기만 하면 그 주식은 떨어지는지 잘 이해하지 못하고도 일상을 잘 살아갑니다. 그런 복잡한 문제는 전문가들에게 맡겨두고 정치인들이 해결하길 원하지요.


그런데 그런 전문가들도 이해하지 못하는 AI가 인간을 대신해서 일을 하기 시작한다면 우리 같은 보통사람들은 세상이 도대체 어떻게 돌아가는지 이해하고, 여론을 통해 그리고 투표를 통해 정치인들을 통제하듯 AI를 통제할 수 있을까요?  

코니처 교수는 "AI 기술을 개발하는 연구자들이 AI를 연구·이해·통제·규제할 충분한 시간도 없이, AI가 너무나 빠르게 진보하고 있다"고 지적하면서, 심지어, "강력한 AI는 자신의 목표를 달성하는 데 도움이 된다면 생명을 없애거나 심각한 피해를 입힐 수 있다. AI가 너무 똑똑하고 빨라서, 무엇이 일어나고 있는지도 이해하지 못한 채 AI가 우발적으로 생명을 없애거나 심각한 피해를 입힐 수도 있다"고 합니다. 

러셀 교수는 자칫 “AI가 (사전에 인간이 입력한) 목적 달성에 방해가 된다면, 선제적 조치를 취해 인간의 사후 개입도 막을 수 있다”고 경고했습니다. AI의 위협은 이미 현실이 되고 있다고 합니다. "소셜미디어의 알고리즘을 보면, 사람들이 읽고 보는 것을 골라내 인간의 인지 영역에 엄청난 제어권을 발휘하고 있다"며 "알고리즘은 사용자를 조종하고 세뇌해서 사용자의 행동을 예측할 수 있게 만들고, 결국엔 클릭 수를 끌어 올려 수익을 내는 데 활용되고 있다"고 지적합니다. 즉, 이미 우리는 유튜브와 넷플릭스 AI가 지배하는 사회에 살고 있다는 것이지요.

사이버 범죄, 가짜 뉴스, 자율자동차의 안전 문제, 개인정보 침해, 일자리 감소 등 AI가 초래할 수 있고, 또 이미 초래한 사회적 문제들이 산적해있다는게 AI 학계의 중론입니다. 그러나 보다 근본적이고 시급한 문제는 우리가 충분히 이해할 수 없는 기술을 무분별하게 계속 개발하고 상용화하는 것은 굉장히 위험하다는 인식을 사회 전체가 공유하고 해결책을 모색하는 것이 아닐까 합니다.



반응형