AI & 미래 기술 트렌드 분석

AI 기반 국방 시스템의 윤리적 한계

dohaii040603 2025. 5. 6. 03:36

1. 국방에 도입되는 AI 기술 – 무기에서 판단까지

21세기에 들어서면서 군사 분야는 빠르게 자동화되고 있으며, 그 중심에는 인공지능(AI) 기술이 자리하고 있다. 국방 시스템에서 AI의 도입은 무기의 정밀도 향상, 전략적 의사결정의 속도 개선, 병력 손실 최소화 등 실질적인 이점을 제공하고 있다. 예를 들어, AI는 드론이나 자율 무기 시스템의 타격 목표를 자동으로 탐지하고 분석하는 기능, 대규모 위성 영상에서 적군의 위치를 실시간으로 식별하는 분석 시스템, 전장 시뮬레이션을 통한 작전 시나리오 예측 등의 형태로 활용되고 있다. 이러한 기술은 병력 운용의 효율성과 생존 가능성을 높이며, 인간이 감당하기 어려운 정보 처리 속도를 구현함으로써 현대전에서 전략적 우위를 확보할 수 있는 핵심 수단으로 인식된다.

그러나 AI의 군사적 활용은 단순한 기술 진보를 넘어 정치적, 윤리적, 인도주의적 차원의 논란을 낳고 있다. 특히 자율무기시스템(Autonomous Weapons Systems, AWS)이 인간의 직접적인 개입 없이 목표를 탐지하고, 타격하고, 제거하는 전 과정을 수행할 수 있게 되면서, “누가 살고 누가 죽는지를 기계가 판단하게 되는 것”에 대한 근본적인 윤리적 물음이 제기되고 있다. 이는 단순히 ‘무기의 효율성’ 문제가 아니라, 전쟁과 살상의 결정권이 인간에게서 기계로 넘어가는 심대한 문명적 전환을 의미한다. 특히 AI가 학습한 데이터에 편향이 있을 경우, 특정 인종, 문화, 지역을 적으로 간주하고 자동 표적화할 위험성도 존재한다.

AI 국방 시스템의 핵심은 ‘인간의 판단 능력’을 보완하는 것이지만, 이 보완이 곧 결정권의 위임으로 전이될 때 발생하는 윤리적 공백은 심각하다. ‘죽음에 대한 결정’을 인간이 아닌 기계가 수행한다면, 이는 국제인도법에서 금지하는 무차별 공격이나 비전투원 피해의 가능성을 높인다. 그럼에도 불구하고 세계 강대국들은 AI 무기 경쟁에서 앞서기 위해 개발을 가속화하고 있으며, 이로 인해 국제사회는 규제의 공백과 윤리적 합의 부족이라는 문제에 직면하게 된다.

AI 기반 국방 시스템의 윤리적 한계


2. 자율살상무기(LAWS)의 논란 – 인간 통제의 종말?

AI 기반 국방 시스템에서 가장 논쟁적인 주제는 **자율살상무기(Lethal Autonomous Weapons Systems, LAWS)**이다. 이는 인간의 지시 없이 목표를 식별하고 공격할 수 있는 무기 시스템을 의미한다. 현재 일부 국가는 ‘인간이 최종 타격 결정을 내리는 수준’의 반자율 시스템을 운영하고 있으나, 완전 자율화된 시스템에 대한 개발도 이미 진행 중이다. 이와 관련하여 UN 및 국제인도법 전문가들은 LAWS가 인간 존엄성과 국제 전쟁법을 위협할 수 있다는 경고를 지속적으로 내놓고 있다. 국제사회는 “인간이 인간을 죽이는 결정을 내려야 한다”는 원칙을 고수해왔으며, 자율무기는 그 원칙의 근간을 흔드는 기술이다.

국제적 우려를 반영하듯, 2013년부터 유엔 차원에서는 LAWS 금지 혹은 규제에 대한 논의가 이어지고 있다. 30개국 이상이 자율살상무기에 대해 선제적인 금지를 촉구하고 있으며, 2021년에는 Human Rights Watch와 Stop Killer Robots 연합이 ‘인간 통제 원칙(Meaningful Human Control)’을 강조하며 국제 협약 체결을 요구하는 캠페인을 펼치기도 했다. 그러나 미국, 러시아, 중국 등 군사 기술 강국들은 기술적 우위와 전략적 우려를 이유로 국제 협약에 소극적인 태도를 보이고 있다. 이들 국가는 자율무기의 실전 배치를 공식화하지는 않았지만, 사실상 부분적으로 실전 테스트 및 운용에 돌입한 상태다.

이러한 움직임은 ‘살상 결정에 인간이 개입할 수 없을 때, 그 결과에 대한 책임은 누구에게 있는가?’라는 근본적 물음을 야기한다. 기계가 민간인을 오폭했을 경우, 책임은 프로그래머에게 있는가, 제조사에게 있는가, 혹은 국방부에게 있는가? 아직까지도 이에 대한 명확한 법적·윤리적 기준은 존재하지 않는다. 더욱이 AI는 학습 데이터를 바탕으로 판단을 내리는 만큼, 실제 전투 상황에서의 오판 가능성을 완전히 배제할 수 없다. 이는 기술의 불완전성과 윤리적 한계가 상호작용하면서 전쟁의 법적 책임 구조를 혼란스럽게 만들 수 있는 중대한 변수로 작용한다.

3. AI 국방 시스템의 편향성과 인권 문제

AI가 판단의 중심에 서게 되면서, 기존의 사회적 편견이나 인종·문화적 편향이 군사 시스템 내로 고스란히 이식되는 문제도 우려되고 있다. AI는 학습 데이터에 의존하기 때문에, 군사 목적의 인공지능이 특정 지역이나 특정 인구군을 자동적으로 ‘위협’으로 간주할 가능성도 있다. 이는 실질적으로 무고한 민간인을 표적화하거나 특정 지역 공동체를 반복적으로 감시하는 결과로 이어질 수 있다. 특히 감시형 AI 기술이 국방과 내치(치안) 사이의 경계를 흐릴 때, 민주주의 국가 내에서도 시민의 자유권이 침해될 가능성이 존재한다.

예를 들어, 이스라엘은 AI 기반 표적 식별 시스템 ‘하바나’를 가자지구 내 작전에 활용한 것으로 알려졌으며, 이는 전술적 효율성은 높였지만 민간 피해도 동반되었다는 평가를 받았다. 미국 역시 CIA 드론 작전에 AI 기술을 도입하여 테러리스트 색출 작업을 수행해왔지만, 이로 인해 수많은 민간인 사망자가 발생한 사실이 국제사회에 의해 고발된 바 있다. AI 기술의 효율성과 치명성은 동전의 양면처럼 작용하며, 그 피해가 ‘전쟁 상대’가 아니라 비전투원에게 집중될 경우, AI 국방 시스템은 국제법 위반의 수단이 될 수 있다.

더 나아가, AI 국방 기술이 독재 정권이나 권위주의 국가에 도입될 경우, 국내 반체제 세력을 무력으로 억압하거나, 내부 감시 수단으로 활용될 수 있는 위험성도 존재한다. 이는 국방 기술이 인권을 보호하기는커녕, 억압의 수단으로 변질될 수 있다는 경고이기도 하다. AI는 ‘효율적인 무기’이기도 하지만, 동시에 ‘윤리적 제어 없이 사용되었을 때 가장 위험한 무기’가 될 수도 있다는 점에서, 그 기술적 설계뿐 아니라 정치적 운용 맥락까지도 윤리 검토 대상이 되어야 한다.

4. 규범적 대응과 기술 윤리의 방향

AI 기반 국방 시스템의 윤리적 한계를 보완하기 위해서는 단순히 기술적 해법을 넘어서 법·제도적 안전장치와 국제적 협약 체계 마련이 필수적이다. 무엇보다 ‘의미 있는 인간 통제(Meaningful Human Control)’ 원칙을 명문화하여, 모든 자율무기 시스템이 작동 전에 인간의 승인과 해석을 거치도록 의무화해야 한다. 이는 자율성이 높아질수록 더 정교한 통제 체계를 병행하는 구조를 의미한다. 기술적으로는 설명 가능한 AI(Explainable AI), 오작동 대비 수동제어 시스템, 훈련 데이터의 검증 체계 강화 등이 필요하다. 윤리적으로는 AI 무기의 사용 조건, 대상 제한, 피해 최소화 전략이 명확하게 설계되어야 한다.

국제적으로는 유엔을 중심으로 한 자율무기 금지조약 혹은 윤리 가이드라인의 제정이 시급하다. 이미 2019년 유럽 의회는 완전 자율무기 시스템을 반대하는 결의안을 채택했으며, UN 차원에서도 ‘킬러 로봇 금지’ 캠페인이 지속되고 있다. 그러나 기술 보유국의 이해관계가 상충되기 때문에, 실질적인 조약 체결을 위해서는 군사 기술에 대한 공동 감시체계, 국제 인증제도, 군비 투명성 확보 장치가 동반되어야 한다. 동시에 시민사회의 감시 기능과 비정부기구(NGO)의 활동은 민주적 통제와 여론 형성의 핵심 요소로 작용한다.

무엇보다도 중요한 것은, AI 국방 기술의 개발과 운용 주체들이 ‘죽음의 결정은 인간이 내려야 한다’는 근본 윤리를 벗어나지 않도록 책임 있게 행동하는 것이다. 기술은 중립적이지 않으며, 사용하는 주체에 따라 윤리성과 폭력성의 경계가 뒤바뀔 수 있다. AI가 사람보다 빠르고 정확할지라도, 인간 생명의 가치와 판단을 대신할 수는 없다. 따라서 군사 AI 기술은 결코 ‘무책임한 전쟁 자동화’의 도구가 되어서는 안 되며, 그 진보는 윤리의 통제를 전제로 해야만 지속 가능하다. 그렇지 않을 경우, 인류는 효율성의 이름으로 통제 불가능한 살상 도구를 손에 쥐게 될 것이다.