.. blogpost:: :title: Plan pour la session du 21 :keywords: interprétabilité, biais éthniques :date: 2020-02-21 :categories: session Importance des variables * feature importance * When training a tree we can compute how much each feature contributes to decreasing the weighted impurity. * que dire des variables corrélées ? * permutation importance * On permute les valeurs dans une colonne de features, on mesure la perte en performance par rapport au score sans permutation. * `Random Forest `_ * Dépendances partielles * Partial dependence of a feature (or a set of features) corresponds to the average response of an estimator for each possible value of the feature. * `Partial dependance plots `_ Interprétation locales * `LIME (Local Interpretable Model-Agnostic Explanations) `_ * Approximer localement la prédiction d'un modèle par un modèle interprétable (comme une régression Lasso), cela revient en quelque sorte à calculer le gradient du modèle en chaque feature pour un point donnée. * .. image:: lime.png * Simplifier l'analyse en groupant les variables (pixels) si trop de variables * `SHAP (SHapley Additive exPlanations) `_ * Value d'une variable : on calcule l'espérance de la prédiction en tirant aléatoirement des valeurs pour cette variable (loi marginal), on fait la différence avec la prédiction moyenne. * Lire `Interpretable Machine Learning `_ * .. image:: shap.png * `CounterFactual `_ * Dérivées partielles * La prédiction est Y, on souhaite Z, quelle est le plus petit changement dans X pour avoir Z ? Ethique * `Machine Learning éthique `_ * `aequitas `_ Transfer Learning * `Transfer Learning `_