상세 컨텐츠

본문 제목

책임있는 AI (Responsible AI) 원칙이 주목받고 있다.

AI, 인류 그리고 미래

by GAI.T & a.k.a Chonkko 2023. 8. 3. 17:59

본문

인공지능(AI)의 진화가 무서운 속도로 진행되면서 AI의 위험성을 경고하는 목소리도 함께 높아지고 있다. 

아직까지는 AI가 인류를 위협할 만한 수준에는 한참 미치지 못하며 지금은 규제가 아니라 개발에 힘쓸 때라는 목소리도 만만치 않지만 지금 수준에서도 충분히 위험할 수 있으니 어느 정도 규제가 필요하다는 사회적인 합의가 전세계적으로 이루어지고 있는 추세다.

 

이러한 추세에서 부각되고 있는 용어가 바로 책임있는 AI (Responsible AI)이다. RAI라는 약어로 쓰이는데 마이크로소프트, 구글 등 AI 관련 대기업과 미국 국방부 등 각 나라 정부에서도 RAI 원칙을 발표하고 있다. 

 

RAI는 새로운 용어는 아니다. 꽤 오래 전부터 도덕적 책임이라는 철학적 개념으로 논의되어 왔다. 그러나 본격적으로 RAI가 주목을 받기 시작한 것은 Microsoft가 2018년 RAI를 자사의 AI 원칙으로 채택하면서부터라고 보는 시각이 많다. 

 

 

Responsible AI Principles and Approach | Microsoft AI

Explore how Microsoft puts responsible AI principles into practice.

www.microsoft.com

Microsoft의 6가지 책임 있는 AI 원칙

Microsoft의 웹페이지에는 자사의 RAI 원칙을 아래와 같이 설명하고 있다.

Microsoft의 6가지 책임 있는 AI 원칙은 회사 전체의 모든 AI 노력의 토대를 마련합니다. 
공정성(fairness) – Microsoft AI 시스템은 서비스 품질, 리소스 가용성, 인구통계, 문화 또는 기타 요인에 따른 고정관념의 가능성을 최소화하도록 설계되었습니다.
신뢰성 및 안전성(Reliability and Safety) – Microsoft AI 시스템은 세상에 해를 끼치지 않도록 Microsoft의 디자인 아이디어, 가치 및 원칙과 일치하는 방식으로 개발되었습니다.
개인 정보 보호 및 보안(Privacy and Security) – AI 시스템을 개발하고 교육하는 데 데이터에 대한 의존도가 높아짐에 따라 데이터가 유출되거나 공개되지 않도록 요구 사항을 설정했습니다.
포용성(Inclusiveness) – Microsoft의 AI 시스템은 전 세계 커뮤니티에 권한을 부여하고 참여해야 하며 이를 위해 Microsoft는 서비스가 부족한 소수 커뮤니티와 협력하여 AI 시스템을 계획, 테스트 및 빌드합니다.
투명성(Transparency) – AI 시스템을 만드는 사람들은 AI를 사용하는 방법과 이유에 대해 개방적이어야 하며 시스템의 한계에 대해 개방적이어야 합니다. 또한 모든 사람이 AI 시스템의 동작을 이해해야 합니다.
책임(Accountability) – 모든 사람은 기술이 세상에 미치는 영향에 대해 책임을 집니다. Microsoft의 경우 이는 Microsoft가 지속적으로 원칙을 제정하고 Microsoft가 수행하는 모든 작업에서 이를 고려하고 있음을 의미합니다.

 

Microsoft 의 원칙들을 보면 책임있는 AI(RAI)라는 것이 결국 윤리와 법적 측면을 아우르는 일종의 우산 같은 개념임을 알 수 있다. 즉, 책임(Responsiblity)이라는 용어 아래 사람들이 AI를 신뢰하기 위해 갖춰야하는 최소한의 가치들을 선별해 놓은 것이 바로 책임있는 AI(RAI) 원칙이라고 볼 수 있다.

 

 

 

What is Responsible AI? | Definition from TechTarget

Learn about responsible AI and why it's important. Examine how it's designed, its principles and how it's implemented.

www.techtarget.com

 RAI에 대한 합의된 정의는 없는 것처럼 보이나, AI 전문 사이트인 TechTarget에 따르면 RAI는 안전하고, 믿을만 하며, 윤리적인 방식으로 AI를 개발하고 사용하려고 하는 일종의 접근법이다. 좀 더 쉽게 말하면 AI를 개발하고 사용할때 사람이나 사회, 그리고 지구에 위험이 되지 않도록 책임을 지자는 것이다. 

 

RAI의 구체적인 내용 역시 채택하고 있는 기관이나 나라에 따라 조금씩 다르지만 대개 공정성(fairness), 투명성(transparency), 책임(accountability), 프라이버시 보호(privacy) 그리고 안전성(safety)을 포함한다. 다시 말하면 AI의 위험성을 통제하기 위해서 필요한 여러 가치들이 있지만 위의 5가지 정도가 국제적으로 합의되고 있는 최소한도의 가치라고 볼 수 있을 것 같다.

 

유네스코에서 채택한 AI 윤리 합의에서는 그 서문에 국가들의 책임(Responsiblility)라는 표현을 쓰고 있고, , OECD나 여러 국제기구에서도 AI 윤리와 규범을 이야기할때 책임있는 AI라는 용어를 채택하고 있으며, 미국 국방부 등 각국 정부 차원에서도 AI의 책임있는(Responsible) 사용을 원칙으로 채택하고 있는 등 RAI는 점차 AI 윤리, 규제 등에서 대표적인 용어로 자리매김하고 있는 추세다.

 

채택하는 국가나 기관의 입장에 따라 구체적인 원칙의 내용은 아직 다르지만 결국 국제사회가 합의하는 책임있는 AI 원칙이 나오는 날이 머지 않아보인다.

 

다음 글에서는 RAI의 구체 원칙들이 어떤 의미를 지니는지 조금 상세히 다뤄볼 예정이다.

 

 

 

 

 

 

 

 

반응형

관련글 더보기