상세 컨텐츠

본문 제목

[GAI.T 칼럼] AI 기반 자율무기와 윤리기준

AI, 인류 그리고 미래/군사적 AI 거버넌스

by GAI.T & a.k.a Chonkko 2023. 11. 6. 15:35

본문

제1회 AI 안전 정상회의가 11.1 영국 블레츨리에서 개최되었다. 28개국이 동참한 '블레츨리 선언'은 'AI는 위험하다'라는 점을 인식하자는 것이 핵심이다. 이렇게 위험한 AI를 위험하게 사용하는 방법 중 하나가 바로 자율무기체계 개발이다.

 

자율무기체계(AWS) 또는 자율살상무기체계(LAWS) 개발 경쟁이 주요 군사선진국을 중심으로 심화되고 있다. 미래전은 AI에 기반한 자율무기가 지배할 것이라는 예측이 현실화되고 있다. 시뮬레이션 전투에서 인간 파일럿을 압도적으로 이겨버린 AI 파일럿에 대한 뉴스는 이제 새로울 것도 없다.

 

물론 자율무기의 등장이 전쟁을 무조건 암울하게 만드는 것은 아니다. 많은 우려에도 불구하고, 사실 AI의 도입은 전쟁에서 인간이 범하는 수많은 실책과 판단오류를 획기적으로 줄일 수 있다. 오폭 등으로 인한 민간인 피해을 줄이고, 두려움이나 분노에 이성을 잃은 지휘관보다 애꿎은 아군의 희생을 줄일 수 있는 가능성도 높아진다. 인간 대신 전투를 치러주는 자율무기 덕에 사랑하는 나의 형제, 자매, 친구가 전투에참여해서 목숨을 잃을 가능성도 줄어든다. 이렇게 생각해보면 자율무기의 등장은 오히려 반길만한 소식이다.    

 

그러나, 여전히  자율무기의 등장은 윤리적인 딜레마를 제기한다. 무엇보다, 인간의 생사여탈권을 신도 사람도 아닌 기계가 가져간다는 부분 하나 만으로도 자율무기에 대한 인간의 반감은 충분히 이해할 만 하다.

 

게다가 최근 AI 개발의 추세가 거대언어모델(LLM)과 딥러닝 등 생성AI를 기반으로 하고, 이러한 생성AI가 결과값을 생성하는 과정은 (현재 기술 수준에서는) 개발자들 조차 정확하게 추적해낼 수 없다. 즉, 자율무기가 과연 인간이 의도한대로만 작동할 것인가, 의도한 표적만을 선정해서 의도한 교전만을 수행한다고 확신할 수 있는가에 대한 확신이 아직은 없다는 점에서 자율무기는 아직  정말로 자율적이어서는 곤란하다.  

 

자율무기가 인간과 함께 또는 홀로 싸우는 전장은 확정된 미래다. 그리고 올 수 밖에 없는 미래라면 통제할 수 있어야 한다.  군사 동맹인 NATO는 자율무기를 포함하는 군사적 목적의 AI 이용을 규제하는 6가지 원칙을 발표했다. 

법준수 (Lawfulness), 책임성(Responsiblity/Accountability), 설명/추적가능성(Explainablity/Traceability), 신뢰성(Reliability), 통제가능성(Governability), 그리고 편향최소화(Bias Mitigation) 이렇게 6가지 원칙을 통해 국방분야에서의 AI 사용을 규제하자는 것이다. 나토 뿐 아니라 EU, UN, OECD 등 국제기구나 미국 등 군사선진국들도 군사분야에서의 AI를 보다 신뢰할 수 있는 방식으로 책임감 있게 사용하기 위한 윤리원칙과 가이드라인을 발표하고 있다.

 

대개 유사한 내용을 담고 있는 이러한 원칙들은 기본적으로 인간이 자율무기를 통제할 수 있어야하고, 인간이 자율무기의 행위에 책임을 질 수 있어야 한다 점으로 귀결된다. AI기반 자율무기체계가 신뢰할 수 있고, 안전하며, 설명이 가능하고, 법규를 따를 수 있어야하고, 편향성이 없어야 한다는 것은 결국 그 정도 기술 수준은 갖춰야 내가 통제하는 것이 의미있다는 이야기이고, 의미있는 통제가 가능해야 비로소 책임진다는 행위가 의미를 지닌다는 것이다. 최소한 내가 원하는 방향과 원하는 속도로 움직일 수 있는 차량에 탑승해야 교통사고가 나더라도 내가 책임을 질 수 있다. 차량 자체의 문제로 급발진 사고가 발생했는데 그걸 운전자더러 책임지라고 하는 건 옳지 않다는 뜻이다.    

 

아직 AI 기술 수준은 완전한 의미의 자율무기를 구현하기에 부족하고, 인간의 통제와 책임을 논하기에도 너무 이른 감이 있다. 그럼에도 불구하고 국제사회에서는 소위 살아있는 문서 (living document), 즉 기술발전 단계에 따라 계속 수정/보완하고 진화해나가는 문서라는 명분 하에서 윤리원칙이나 가이드라인을 앞다퉈 발표하고 있다. 규제를 통한 경쟁국의 기술견제라는 정치적 목적도 다분히 느껴지는 대목이다. 물론 이른 것이 늦은 것보다 낫다. 그리고 AI 개발 속도는 상상을 초월할 만큼 빠르다는 점에서 국제사회가 여차하면 밟을 수 있는 브레이크를 마련한다는 것은 환영할 만하다.

 

반응형

관련글 더보기