1. AI가 ‘판단’을 할 때, 인간은 무엇을 통제할 수 있는가? 인공지능(AI)이 인간의 삶에 깊이 스며들면서, 우리는 점점 더 많은 ‘판단의 순간’을 기계에게 위임하고 있다. 자율주행차가 보행자와 탑승자의 생명을 놓고 선택해야 하는 순간, AI 의료 진단 시스템이 암 여부를 판단하는 순간, 채용 알고리즘이 지원자의 합격 여부를 결정하는 순간까지 – 이러한 순간들은 단순한 기술 작동이 아닌 도덕적 선택을 수반하는 의사결정이다. 문제는, 이 판단의 결과가 누군가에게 피해를 줄 경우 그 책임을 누구에게 물어야 하느냐는 질문이 생긴다는 점이다. 예를 들어, 자율주행차가 교차로에서 어린이를 치는 사고를 냈다면 이는 자동차 제조사의 책임인가, AI 알고리즘 개발자의 책임인가, 데이터를 수집한 회사의 책임인가, ..