1. 적대적 공격이란 무엇인가 – 인공지능의 허점을 찌르는 그림자 적대적 공격(Adversarial Attack)은 인공지능 시스템이 입력 데이터를 잘못 해석하도록 고의적으로 왜곡된 데이터를 주입하는 공격 방식이다. 이러한 공격은 표면적으로 인간이 인식하기에 거의 구분되지 않는 사소한 노이즈나 픽셀 변형만으로도 AI 시스템을 오작동하게 만들 수 있다는 점에서 매우 치명적이다. 예를 들어 자율주행차의 이미지 인식 시스템이 정지 신호를 제한 속도 표지판으로 오인하게 만들거나, 안면 인식 시스템이 얼굴을 다른 사람으로 오인하도록 조작하는 것이 이에 해당한다. 특히 딥러닝 기반의 이미지 분류기, 음성 인식 시스템, 자연어 처리 모델 등 대부분의 AI 기술들이 이러한 공격에 취약하다는 연구 결과들이 속속 발표되며..