1. 프롬프트 인젝션은 모델 취약점이 아니라 경계 설계의 실패다프롬프트 인젝션이라는 개념이 처음 알려졌을 때, 많은 팀은 이를 모델의 문제로 받아들였다. 모델이 너무 순진해서 사용자 입력을 그대로 믿는다거나, 지시를 구분하지 못한다는 식의 해석이 뒤따랐다. 그러나 실제 운영 환경에서 반복적으로 드러난 사실은 조금 다르다. 프롬프트 인젝션 사고의 대부분은 모델이 약해서 발생한 것이 아니라, 모델이 어떤 입력을 받아도 되는지 정의되지 않은 채 외부와 직접 연결되었기 때문에 발생한다.LLM은 본질적으로 텍스트를 이해하고 따르는 시스템이다. 입력 안에 지시가 섞여 있으면, 그것을 구분해서 거부하는 것이 아니라 “의미 있는 텍스트”로 처리하려 한다. 이는 결함이라기보다 설계 의도에 가깝다. 문제는 이 특성을 고려..