.. image:: pyeco.png :height: 20 :alt: Economie :target: http://www.xavierdupre.fr/app/ensae_teaching_cs/helpsphinx/td_2a_notions.html#pour-un-profil-plutot-economiste .. image:: pystat.png :height: 20 :alt: Statistique :target: http://www.xavierdupre.fr/app/ensae_teaching_cs/helpsphinx/td_2a_notions.html#pour-un-profil-plutot-data-scientist .. _l-ml-skgael: Machine learning, cours de Gaël Varoquaux +++++++++++++++++++++++++++++++++++++++++ `Gaël Varoquaux `_ est un des concepteurs de `scikit-learn `_. Les cours nécessitent quelques `notions mathématiques et informatiques `_. * machine learning et `scikit-learn `_ (`tutoriels sur scikit-learn `_), * *Quelques extraits.* Par définition les plus proches voisins ne font pas d'erreur sur la base d'apprentissage, l'apprentissage consiste à forcer le modèle à faire des erreurs. `Overfitting `_ et `régularisation `_. Erreur `L2 `_ et pénalisation `L1 `_. `RandomizedPCA `_, `GridSearch `_, `LassoCV `_. `Choosing the right estimator `_. Les `notes de lectures `_ (`Gaël Varoquaux `_) sont disponibles sur GitHub et reprise ici : .. toctree:: :maxdepth: 1 ../notebooks/license_sklearn_ensae ../notebooks/00_introduction_machine_learning_and_data ../notebooks/01_data_manipulation ../notebooks/02_basic_of_machine_learning_with_scikit-learn ../notebooks/03_supervised_classification ../notebooks/04_supervised_regression ../notebooks/05_measuring_prediction_performance ../notebooks/06_unsupervised_dimreduction ../notebooks/07_application_to_face_recognition ../notebooks/08_validation_and_learning_curves La série d'articles suivante est tirée de :epkg:`Freakeconometrics` revient sur les propriétés des modèles de classification et régression illustrées avec le langage :epkg:`R` : :ref:`Séries d'articles sur les modèles linéaires `. Enfin, les deux notebooks suivant regroupent les termes principaux, ceux qu'il faut avoir retenus si on veut comprendre le machine learning. .. toctree:: :maxdepth: 1 ../specials/machine_learning ../notebooks/td2a_eco_regressions_lineaires *Notebooks* .. toctree:: :maxdepth: 1 ../notebooks/td2a_cenonce_session_3A ../notebooks/td2a_correction_session_3A ../notebooks/td2a_cenonce_session_3B ../notebooks/td2a_correction_session_3B ../notebooks/td2a_cenonce_session_4A ../notebooks/td2a_correction_session_4A ../notebooks/td2a_ml_text_features ../notebooks/td2a_ml_text_features_correction ../notebooks/ml_scikit_learn_simple ../notebooks/ml_scikit_learn_simple_correction *MOOC - cours* * `Scikit-learn course `_ *Lectures* * `API design for machine learning software: experiences from the scikit-learn project `_ * `Économétrie & Machine Learning `_ * `A Visual Introduction to Machine Learning `_ * `Quelques astuces pour faire du machine learning `_ * `A Tour of Machine Learning Algorithms `_ * `12 Algorithms Every Data Scientist Should Know `_ *(2016/06)* * `10+2 Data Science Methods that Every Data Scientist Should Know in 2016 `_ *(2016/06)* * `Complete Guide to Parameter Tuning in XGBoost (with codes in Python) `_ *(2016/08)* * `XGBoost: A Scalable Tree Boosting System `_, Tianqi Chen, Carlos Guestrin * `Round Robin Classification `_ * `ANN-Benchmarks: A Benchmarking Tool for Approximate Nearest Neighbor Algorithms? `_ * `Time for a Change: a Tutorial for Comparing Multiple Classifiers Through Bayesian Analysis `_ * `Neighbourhood Components Analysis `_ * `Unbiased Measurement of Feature Importance in Tree-Based Methods `_ *Livres* * `Python Data Science Handbook `_ * `The Elements of Statistical Learning `_ : la bible que tout le monde recommande : *Comprendre* * `Explaining the Success of AdaBoost and Random Forests as Interpolating Classifiers `_ *Modules* * :epkg:`scikit-learn` * :epkg:`statsmodels` * :epkg:`XGBoost` Et quelques autres comme : * `annoy `_