Che cos'è shap?
Interpretabilità e spiegabilità del modello utilizzando SHAP (SHapley Additive exPlanations). Utilizzare questa abilità quando si spiegano le previsioni dei modelli di machine learning, si calcola l'importanza delle funzionalità, si generano grafici SHAP (cascata, sciame d'api, barra, dispersione, forza, mappa termica), si esegue il debug di modelli, si analizza la distorsione o l'equità del modello, si confrontano modelli o si implementa un'intelligenza artificiale spiegabile. Funziona con modelli basati su alberi (XGBoost, LightGBM, Random Forest), deep learning (TensorFlow, PyTorch), modelli lineari e qualsiasi modello black-box. Fonte: ovachiever/droid-tings.