상세 컨텐츠

본문 제목

인공지능 무기(자율살상무기)가 인간보다 더 윤리적일 수 있는가?

AI, 인류 그리고 미래/군사적 AI 거버넌스

by GAI.T & a.k.a Chonkko 2023. 4. 12. 17:14

본문

자율살상로봇의 고민?

 

인공지능 무기의 도래

우크라이나 전쟁, 중동 분쟁 등에 인공지능 무기가 투입되고 있다는 뉴스가 들린다. 인공지능 무기 또는 자율살상무기가 인류의 전쟁사의 방향을 바꾸는 게임체인저가 될 것이라는 예측은 더 이상 예측이 아닌 현실이 되고 있다. 반면 로봇 전문가, 인공지능 전문가 부터 미국 국방부 등 여러 나라의 정부 부처 관계자, 법학자, 윤리학자, 정치가 등 다양한 배경의 사람들이 서로 다른 입장과 이해관계 속에서 인공지능 무기에 대해 의견을 표명하고 있지만 아직 쟁점 조차 완전한 체계는 잡혀있지 않다. 논의는 진행 중이고 더 뜨겁게 진행될 것이다. 

 

몇 년이 지난 글이기는 하지만 로봇계의 거장이자 인공지능 로봇 무기를 조심스럽지만 지지하고 있는 조지아 공대의 로널드 아킨스 교수의 아래 인터뷰에서 제기된 논점들은 몇 년이 지났지만 여전히 국제적으로 합의되지 못하고 있다는 점에서 인공지능 무기를 둘러싼 쟁점을 파악하는데 좋은 시작점이다. 

https://www.sisain.co.kr/news/articleView.html?idxno=32601  

 

결론부터 말하면, 아킨스 교수의 입장은 인공지능 무기가 어떤 면에서 오히려 전장에서 감정적이고 비논리적이며 시야가 좁은 인간 전투원보다 더 윤리적일 가능성이 높다는 것이다.  물론 인공지능 무기를 설계하는 단계에서 기술적으로 극복해야할 점과 어떤 윤리적 기준을 주입할 것인지를 결정해야하는 외부적 노력이 필요하다는 현재의 한계 또한 인정하고 있다. 

 

아래에서는 아킨스 교수의 인터뷰를 바탕으로 인공지능 무기를 둘러싼 쟁점을 간략히 정리해서 생각해보고자 한다. 

 

인공지능 무기를 둘러싼 쟁점

 

인공지능 무기에 대한 쟁점의 지향점은 결국 인공지능 무기를 이미 정립된 전쟁에 관한 국제법(전쟁법)만으로 통제할 수 있는가 아니면 인공지능의 특별한 기능때문에 새로운 통제 규범이 필요한가를 결정하는데 있다.  

이미 확립된 전쟁법과 윤리의 틀로 통제가 가능한가?

 

인공지능 무기 체계(또는 자율살상무기 또는 킬러 로봇 등 부르는 명칭은 다양하다)를 현재 확립된 법과 규범으로 통제가 가능한가라는 질문은 의무와 책임 두 측면에서 논의할 수 있다. 즉, 첫째, 자율성을 장착한 인공지능 무기가 법과 윤리를 준수해야한다는 '전투원'으로서의 의무를 제대로 이행할 수 있는가, 둘째, 만약 인공지능 무기가 현존하는 국제법을 어겼을 경우 그에 대한 책임은 누가 질 것인가가 핵심 쟁점이다.

 

인공지능 무기 체계와 관련된 인도주의적 국제법, 전쟁법, 전쟁윤리 등의 내용적 측면에 대해서는 윤리철학적 차원의 다소 복잡한 논의가 필요하기 때문에 다른 글로 미뤄두고 여기서는 상기 두 측면에서 도출되는 쟁점에 대해서만 간략히 소개하고자 한다.     

 

일단 기본 전제는 인공지능 무기 또는 자율살상무기(킬러 로봇)이 동원된 전쟁에서도 인간의 전쟁에서 적용되는 것과 같은 정도로 국제법의 원칙이 강제되어야 한다는 점이다.  이러한 전제 하에 두 가지 핵심쟁점에 대해 살펴보자.   

 

인공지능 무기의 국제법적 의무 이행 가능성

첫째, 전투원의로서의 법적 의무 이행 가능성에 대해 아킨스 교수를 비롯하여 인공지능 무기 찬성론자들은 넘어야할 기술적 한계가 있지만 윤리적으로 지켜야할 원칙과 규칙이 무엇인지 설계단계에서 확실하게 주입할 수 있다면 오히려 감정에 휘둘리는 인간 전투원보다 의무를 더 잘 이행할 수 있다고 주장한다. 

 

예를 들어 전쟁법 중 차별의 원칙(principle of disrimination),  즉 전투원과 비전투원(민간인을 포함)을 구분할 수 있는가의 문제는 아직 난점이 있지만 식별 기술 등이 발전함에 따라 향후 최소한 인간 전투원보다는 더 정확하게 비전투원을 구분해낼 수 있는 수준에 오를 것이며, 그래서 적 전투원 이외의 사상자를 최소화할 수 있는 가능성을 현재보다 비약적으로 높일 수 있다는 것이다. 인간 전투원은 전투 상황에서 두려움, 적대감, 과도한 자기방어 등 여러 감정기제로 인해 민간인을 전투원으로 오인하고 살상하는 사례가 왕왕 발생하는데 감정에서 자유로운 로봇은 이런 오인을 할 가능성이 매우 적다.   

 

다만, 인공지능 무기가 윤리적 요구를 처리하면서도 적의 전투원보다 전투력에 지장을 받지 않도록 만들 수 있는가, 즉 윤리적 요구 처리를 위한 연산과정이 전투력에 부담이 되지 않을 만큼 충분히 경량화할 수 있는가라는 기술적인 부분은 엔지니어들이 담당해야한다. 반면, 엔지니어들의 개발 과정에 드는 비용 뿐 아니라 전투상황에서 인공지능 무기의 윤리적 요구 처리로 적국에 비해 발생하는 전투력의 손해 등을 정책결정자들이 자발적으로 감수하겠는가라는 측면에서 국제법적인 강제가 필요한 지점이 발생한다. 

 

인공지능 무기의 국제법 위반 행위에 대한 책임 소재

책임소재는 법에서 매우 중요한 주제이다. 법을 위반한 주체에 대해 책임을 묻고 처벌을 하지 못한다면 법의 실효성이 없는 것이기 때문이다. 이런 측면에서 인공지능 무기가 설계상의 오류나 조종하는 사람의 오류 등 여하한 이유로 국제법을 위반하였을 경우 국제사회가 이에 대해 책임 소재를 분명히 할 수 있어야 한다는 점은 인공지능 무기 개발에서 반드시 해결되어야 하는 쟁점이다. 

 

이과 관련, 아킨스 교수는 인간의 고의성은 입증하기 어렵지만 로봇의 행위는 코드를 분석하여 쉽게 고의성을 식별하는 것이 가능하여 투명성이 높아지기 때문에 인공지능 무기에 대한 법위반 책임 소재를 가리는 것이 더 용의하다고 주장한다. 여기서 고의성이란 법적인 책임을 묻기 위한 하나의 지표인데 일반적인 형법에서 살인의 고의성 여부로 살인죄에 대한 형량이 크게 달라지는 것 처럼 전쟁법 위반 행위, 혹은 전쟁범죄에 대해서도 고의성이 있었는지가 중요하다.

 

그러나 여러 전쟁범죄 재판 사례에서 보듯 인간의 고의성을 판단하는 것은 쉽지 않은 문제다. 피고가 사실은 민간인인 줄 알면서 살상해놓고 나는 정말 전투원인 줄로 착각했다고 주장하면 머리속을 들여다 볼 수도 없고 거짓말임을 입증하기가 어려운 것이다. 반면, 인공지능 무기의 행위는 분석이 용이한 알고리즘의 코드를 따르기 때문에 코드를 분석하면 왜 그런 행위를 했는지를 투명하게 밝혀내는 것이 이론적으로는 가능하다.    

 

같은 이유에서 아킨스 교수는 머신러닝(기계학습)처럼 결정과정을 인간이 알기 어려운 체계는 군사로봇에 사용하는 것을 제한할 필요가 있다는데 동의한다. 결정과정을 알기 어렵다는 것은 결국 책임소재를 판별하기가 어렵다는 뜻이기 때문이다. 

 

자율성과 의미있는 인간의 개입 논쟁

아킨스 교수의 인터뷰에는 다루고 있지 않지만 책임의 문제와 연관된 또 하나의 쟁점은 인공지능 무기의 자율성(autonomous)과 의미있는 인간의 개입(meaningful human control)에 대한 개념 논쟁이다. 어느 정도까지 인공지능 무기가 자율성을 가지고 있을때 이를 '자율살상무기'라고 규정할 것인가라는 문제는 결국 허용되는 인공지능 무기와 금지되는 인공지능 무기를 판단하는 기준에 대한 논의다. 나아가 허용되는 자율성을 논하기 위해 '의미있는 인간의 개입'이 반드시 필요하다는 논리로 이어지면서 어느 정도의 개입이 '의미있는' 개입인가라는 논쟁이 파생된다. 

 

자율성과 인간 개입 논쟁의 기저에는 인공지능 무기의 행위에 대한 법적, 나아가 윤리적 책임은 궁극적으로 인간이 져야한다는 인간중심 사고가 확고히 자리잡고 있다. 즉, 기계는 인간과 달리 자유 의지를 지닌 윤리적 주체가 아니기 때문에 로봇에게 책임을 물을 수는 없는 노릇이니 최소한 배후의 인간에게 책임을 물을 수 있는 수준에서 자율성이 허용되어야 하고, 책임을 물을 수 있는 정도의 인간의 개입도 남겨두어야 한다는 것이다. 

 

물론 자율성과 인간의 의미있는 개입 문제는 책임소재 이전에 기계가 스스로 인간을 살상할 수 있다는 개념 자체에서 오는 인간의 두려움과 살상무기에 대한 인간의 통제력을 잃어서는 안된다는 위기의식의 발로이기도 하다. 아킨스 교수도 로봇이 현장상황에 맞춰 스스로 판단하고 행동하는 것은 위험하다고 지적하고 있다. 

 

기타 생각해볼 쟁점

 

인공지능 무기의 도입으로 사상자에 대한 우려가 줄어 전쟁의 부담이 줄면 정책결정자들이 더욱 쉽게 전쟁을 결정하지는 않을지, 인공지능 무기가 테러집단이나 비국가 행위자에게 손쉽게 확산될 수 있는 것은 아닌지 등 부수적인 논쟁 들도 있으나 이는 인공지능 무기 자체에만 국한되는 문제라기보다는 새로운 기술이 개발되고 새로운 무기에 적용되면 언제든 고려해야하는 문제인 만큼 현 단계에서 자세히 다룰 실익은 없어 보인다. 

 

또한 근본적으로 윤리적 딜레마에 대해 로봇이 어떤 결정을 내릴 것인가라는 문제, 예를 들어 전투의 승리를 위해 민간인의 피해를 감수하는 결단과 전쟁범죄의 간극을 정하는 것, 즉 전장에서 윤리적 가치를 어떻게 비교, 평가, 결정할 것인가의 문제는 우리 인간들도 '딜레마'라고 부르는 윤리학의 범위이지 로봇공학의 문제는 아니다. 아킨스 교수의 말 처럼 이는 로봇공학자가 아니라 법률가, 철학자, 정치가가 고민하고 로봇에게 우선순위를 분명히 알려줘야 하는 문제이다.

 

다만, 실전에 인공지능 무기가 투입되기 시작한 현실을 감안한다면 그동안 미뤄왔던 윤리적 딜레마에 대해 우리 인간 스스로 하루 빨리 해답을 내놓아야 하는 티핑 포인트에 다다른 것일 지 모르겠다. 기술의 진보가 사상의 진보를 앞서가면 터미네이터와 같은 암울한 미래가 다가오지 말란 법이 없다.   

 

 

반응형

관련글 더보기