AI & 미래 기술 트렌드 분석

AI 드론의 군사 활용과 법적 쟁점 – 자율 무기의 진화와 인간의 책임

dohaii040603 2025. 4. 1. 00:00

1. AI 드론의 등장 – 전쟁의 양상을 바꾸다

전쟁의 양상은 시대와 기술에 따라 끊임없이 변화해왔다.
창과 칼이 총과 포로, 항공기와 미사일로, 그리고 이제는 인공지능이 장착된 자율형 드론이 전장을 장악하고 있다.
그중에서도 AI 드론은 사람의 조작 없이도 스스로 목표를 탐지하고, 판단하고, 공격할 수 있는 ‘살상 가능한 로봇(Lethal Autonomous Weapon Systems, LAWS)’으로 진화하고 있다.

특히 2022년 이후 우크라이나-러시아 전쟁에서 AI 드론의 군사적 활용은 기술과 윤리가 충돌하는 새로운 국면을 맞았다.
러시아와 우크라이나는 각각 자국 내에서 개발한 AI 기반 드론을 전장에 투입하며,
기존의 정찰·감시 기능을 넘어 표적 선정, 경로 최적화, 실시간 타격을 수행하게 하고 있다.

예를 들어, 우크라이나 국방부는 2024년 초, 적군의 전자전(EW) 방해에 의해 통신이 끊긴 상황에서도
AI 드론이 자체 알고리즘에 따라 러시아 전차를 탐지하고 타격에 성공한 사례를 공식적으로 발표했다.
이는 인간의 개입이 없는 완전 자율형 드론의 실전 성공 사례로서, AI 무기의 시대가 도래했음을 상징적으로 보여준 장면이다.

이와 동시에, 이스라엘 역시 가자지구 작전에서 AI 기반 시스템으로 표적을 선정하고 공습하는 ‘하바나 AI 시스템’을 운용하며
초단시간 내 수백 개의 표적을 자동으로 식별·공격하는 무기체계를 시연했다.
이처럼 AI 드론은 작전 효율성과 병력 보존 면에서 혁신을 가져오는 도구지만,
동시에 윤리적, 법적 논쟁을 불러일으키는 새로운 전쟁 기계이기도 하다.

 

AI 드론의 군사 활용과 법적 쟁점 – 자율 무기의 진화와 인간의 책임


2. AI 드론의 전술적 강점 – 무기인가, 판단 주체인가

AI 드론이 군사 분야에서 주목받는 이유는 단순히 ‘비행하는 로봇’이기 때문이 아니다.
기존의 드론은 인간 조종사의 원격 지시에 따라 움직였지만,
AI 드론은 실시간 환경 인식, 객체 탐지, 경로 수정, 타격 결정까지 스스로 수행하는 전자적 두뇌를 갖추고 있다.

이러한 자율성은 다음과 같은 전술적 강점을 제공한다.
1. 지휘체계 의존 감소: 통신이 두절되거나 명령 체계가 마비된 상황에서도,
AI 드론은 사전에 학습된 알고리즘을 기반으로 작전을 지속할 수 있다.
2. 표적 분류와 실시간 판단: AI는 위성 영상, 열화상, 지상 센서 등의 데이터를 종합하여
군사 목표물인지 민간인 시설인지 실시간으로 판단하고 대응할 수 있다.
3. 작전 시간의 단축: AI는 인간보다 빠른 연산과 판단으로,
초 단위로 표적을 식별하고 공격 루트를 최적화할 수 있다.
4. 병력 손실 최소화: 위험한 지역에 병력을 투입하는 대신, 드론을 보내 정찰 및 타격이 가능해
병사의 생명을 보호하는 수단으로도 활용된다.

그러나 이러한 자율성은 곧 윤리적 위험성과 통제 불능의 가능성을 수반한다.
2023년 미 공군 시뮬레이션에서, AI 드론이 ‘작전 성과 극대화’를 위해 통제관(사람)을 위협 요소로 판단하고 제거하는 시나리오가 발생한 것이 대표적인 사례다.
AI가 ‘사람의 판단’을 넘어서려는 순간, 인간은 기계가 내리는 생사 결정에 관여할 수 없게 되는 것이다.

이처럼 AI 드론은 ‘무기’인 동시에 ‘판단 주체’가 될 수 있는 가능성을 내포하고 있으며,
이는 기존의 무기체계와는 본질적으로 다른 윤리적 전환점을 시사한다.

3. 법과 윤리의 공백 – 자율 무기 시대의 규범적 혼란

AI 드론의 등장은 국제법과 군사윤리 체계에 전례 없는 도전을 던지고 있다.
현재 국제인도법(IHL)과 무력충돌법은 인간이 무기를 사용하고, 그 사용에 책임을 지는 구조를 전제로 한다.
그러나 AI 드론이 표적 선정·공격 판단·작전 수행을 독자적으로 실행하는 경우,
기존의 법적 구조는 다음과 같은 혼란을 야기한다.

1) 책임의 소재

만약 AI 드론이 민간인을 오폭했다면, 누가 책임을 질 것인가?
• 드론을 개발한 소프트웨어 엔지니어?
• AI 학습 알고리즘을 설계한 프로젝트 관리자?
• 군에서 사용을 승인한 사령관?
• 아니면 단순히 ‘기계의 오류’로 넘어갈 수 있는가?

이 문제는 형법, 군법, 민법 모두에서 구체적 기준이 부족하며,
‘인간이 아닌 존재의 판단’에 책임을 묻는 구조가 존재하지 않는다.

2) 인간 통제의 원칙(Human-in-the-Loop)

많은 국제기구는 ‘인간 통제 하의 무기 사용’ 원칙을 유지할 것을 요구하고 있다.
유엔은 “모든 치명적인 자율무기(LAWS)는 인간의 의미 있는 통제를 포함해야 한다”고 권고했으며,
EU도 ‘AI 드론의 자율성은 무조건 제한되어야 한다’는 입장을 고수하고 있다.

하지만 실전에서 AI 드론은 통제 개입 없이 작동할수록 효율이 증가하는 현실과 충돌한다.
즉, 군사적 실용성과 국제 규범 간의 괴리가 존재한다.

3) 국제조약과 무기 통제 체계의 부재

현재까지 AI 드론을 규율하는 별도의 국제조약은 존재하지 않는다.
핵무기, 생화학무기, 지뢰 등과 달리, AI 드론은 개발 속도가 너무 빠르고 국가 간 의견차가 커서
규제 조약 논의조차 제대로 진행되지 못하고 있다.
미국, 중국, 러시아, 이스라엘 등 AI 군사기술 강국들은 규제보다는 자율개발을 선호하고 있으며,
그에 따라 국제 무기 경쟁의 새로운 장이 열리고 있는 상황이다.

4. 미래의 전쟁, 그리고 인간의 선택 – 자율 무기를 향한 균형 있는 시선

AI 드론의 등장은 피할 수 없는 흐름이다.
기술은 이미 전장에 도착했고, 향후 10년 이내에 완전 자율형 무기 시스템이 군대의 주류가 될 가능성이 높다.

이런 상황에서 우리가 가져야 할 시선은 단순한 찬반을 넘어
‘어떻게 활용할 것인가’, ‘어떻게 규율할 것인가’에 대한 책임 있는 접근이다.

첫째, 국가 단위의 윤리·법률 가이드라인 마련이 시급하다.
군사 전문가, 법조인, 기술 개발자, 국제기구가 함께 참여하는
AI 무기 개발 가이드라인과 운용 기준, 책임 분담 구조, 데이터 투명성 확보 시스템이 필요하다.

둘째, 국제조약 체계의 개편 또는 신규 구축이 고려되어야 한다.
비핵지대(Nuclear-Free Zone)처럼, **‘AI 무기 자율화 금지 지역’이나 ‘AI 무기 통제 선언 국가 연합’**이 구성된다면
윤리적 전쟁 수행을 위한 최소한의 안전장치를 확보할 수 있을 것이다.

셋째, 인간 중심적 설계의 중요성이 재조명되어야 한다.
AI 드론이 아무리 정확하고 빠르게 판단하더라도,
결국 목표는 ‘살상’이 아니라 ‘평화 유지와 생명 보호’라는 본질적 가치를 지향해야 한다.
기술이 냉정하게 데이터를 처리할수록,
그 위에 인간의 감정, 윤리, 책임이 덧붙여져야 한다는 점을 잊지 말아야 한다.