:orphan: |rss_image| **2020-02 - 1/1** :ref:`Blog ` :ref:`session (28) ` .. |rss_image| image:: feed-icon-16x16.png :target: ../_downloads/rss.xml :alt: RSS ---- .. index:: 2020-02 .. _ap-month-2020-02-0: 2020-02 - 1/1 +++++++++++++ .. blogpostagg:: :title: Plan pour la session du 21 :date: 2020-02-21 :keywords: interprétabilité,biais éthniques :categories: session :rawfile: 2020/2020-02-21_session.rst Importance des variables * feature importance * When training a tree we can compute how much each feature contributes to decreasing the weighted impurity. * que dire des variables corrélées ? * permutation importance * On permute les valeurs dans une colonne de features, on mesure la perte en performance par rapport au score sans permutation. * `Random Forest `_ * Dépendances partielles * Partial dependence of a feature (or a set of features) corresponds to the average response of an estimator for each possible value of the feature. * `Partial dependance plots `_ Interprétation locales * `LIME (Local Interpretable Model-Agnostic Explanations) `_ * Approximer localement la prédiction d'un modèle par un modèle interprétable (comme une régression Lasso), cela revient en quelque sorte à calculer le gradient du modèle en chaque feature pour un point donnée. * .. image:: lime.png * Simplifier l'analyse en groupant les variables (pixels) si trop de variables * `SHAP (SHapley Additive exPlanations) `_ * Value d'une variable : on calcule l'espérance de la prédiction en tirant aléatoirement des valeurs pour cette variable (loi marginal), on fait la différence avec la prédiction moyenne. * Lire `Interpretable Machine Learning `_ * .. image:: shap.png * `CounterFactual `_ * Dérivées partielles * La prédiction est Y, on souhaite Z, quelle est le plus petit changement dans X pour avoir Z ? ... .. blogpostagg:: :title: Plan pour la session du 14 :date: 2020-02-14 :keywords: séries temporelles :categories: session :rawfile: 2020/2020-02-14_session.rst * séries temporelles (:epkg:`statsmodels`), prédictions, tendance, lissage, saisonnalité (:epkg:`prophet`), voir `lissage exponentiel `_, changement de tendances, le module peut tenir compte des jours fériés, `SSA `_, `Application of the singular-spectrum analysis to change-point detection in time `_, `Singular Spectrum Analysis `_ * `quelques jeux de données `_ * `clustering à Chicago `_ * :ref:`enediscartesrst` .. blogpostagg:: :title: Régression Lasso, Ridge :date: 2020-02-07 :keywords: ridge,lasso,API :categories: session :rawfile: 2020/2020-02-07_sklapi.rst Le notebook :ref:`2020-02-07sklapirst` reprend ce qui a été développé durant la dernière session, à savoir la régression Ridge, Lasso qui permet de sélectionner les variables, puis l'API de *scikit-learn* et une façon de créer ses propres modèles. ---- |rss_image| **2020-02 - 1/1** :ref:`2022-01 (1) ` :ref:`2022-02 (4) ` :ref:`2022-09 (1) ` :ref:`2023-01 (2) ` :ref:`2023-02 (3) `