AI가 강조되고, 데이터를 기반으로한 BM 들이 더 많이 나오면서 xAI (Explainable AI) 중요성 또한 올라가고 있다. 사실 값만 잘 예측하면 되긴하지만, AI 자체에 소모되는 인프라 비용 등을 경영측에 설득하기 위해서, 그리고 해당 예측값이 DA 분야와 어떤 방식으로 결합할 수 있는지를 다른 부서 등에 설명 및 협업하려면 이런 '설명 가능한 AI'가 중요해지는 거라고 생각한다. 물론 관련 팀원 또한 해당 Feature Importance 같은 지표를 통해 모델을 직관적으로 개선하기도 더 쉽다. 따라서 일반적인 예측이나 분류작업에는 NN 모델보다는 Classical ML이 더 많이 채택되고 있다. 이런 XAI 중 가장 대중적으로 쓰이는 것이 SHAP (SHapley Additive exPl..