.. image:: pyeco.png
:height: 20
:alt: Economie
:target: http://www.xavierdupre.fr/app/ensae_teaching_cs/helpsphinx/td_2a_notions.html#pour-un-profil-plutot-economiste
.. image:: pystat.png
:height: 20
:alt: Statistique
:target: http://www.xavierdupre.fr/app/ensae_teaching_cs/helpsphinx/td_2a_notions.html#pour-un-profil-plutot-data-scientist
.. _l-ml-skgael:
Machine learning, cours de Gaël Varoquaux
+++++++++++++++++++++++++++++++++++++++++
`Gaël Varoquaux `_
est un des concepteurs de
`scikit-learn `_.
Les cours nécessitent quelques
`notions mathématiques et informatiques `_.
* machine learning et `scikit-learn `_
(`tutoriels sur scikit-learn `_),
* *Quelques extraits.* Par définition les plus proches voisins ne font pas d'erreur sur la base d'apprentissage,
l'apprentissage consiste à forcer le modèle à faire des erreurs. `Overfitting `_ et
`régularisation `_.
Erreur `L2 `_ et pénalisation `L1 `_.
`RandomizedPCA `_,
`GridSearch `_,
`LassoCV `_.
`Choosing the right estimator `_.
Les `notes de lectures `_
(`Gaël Varoquaux `_) sont disponibles sur GitHub et reprise
ici :
.. toctree::
:maxdepth: 1
../notebooks/license_sklearn_ensae
../notebooks/00_introduction_machine_learning_and_data
../notebooks/01_data_manipulation
../notebooks/02_basic_of_machine_learning_with_scikit-learn
../notebooks/03_supervised_classification
../notebooks/04_supervised_regression
../notebooks/05_measuring_prediction_performance
../notebooks/06_unsupervised_dimreduction
../notebooks/07_application_to_face_recognition
../notebooks/08_validation_and_learning_curves
La série d'articles suivante est tirée de
:epkg:`Freakeconometrics` revient sur les propriétés
des modèles de classification et régression illustrées
avec le langage :epkg:`R` :
:ref:`Séries d'articles sur les modèles linéaires `.
Enfin, les deux notebooks suivant regroupent les termes principaux,
ceux qu'il faut avoir retenus si on veut comprendre
le machine learning.
.. toctree::
:maxdepth: 1
../specials/machine_learning
../notebooks/td2a_eco_regressions_lineaires
*Notebooks*
.. toctree::
:maxdepth: 1
../notebooks/td2a_cenonce_session_3A
../notebooks/td2a_correction_session_3A
../notebooks/td2a_cenonce_session_3B
../notebooks/td2a_correction_session_3B
../notebooks/td2a_cenonce_session_4A
../notebooks/td2a_correction_session_4A
../notebooks/td2a_ml_text_features
../notebooks/td2a_ml_text_features_correction
../notebooks/ml_scikit_learn_simple
../notebooks/ml_scikit_learn_simple_correction
*MOOC - cours*
* `Scikit-learn course `_
*Lectures*
* `API design for machine learning software: experiences from the scikit-learn project `_
* `Économétrie & Machine Learning `_
* `A Visual Introduction to Machine Learning `_
* `Quelques astuces pour faire du machine learning `_
* `A Tour of Machine Learning Algorithms `_
* `12 Algorithms Every Data Scientist Should Know `_ *(2016/06)*
* `10+2 Data Science Methods that Every Data Scientist Should Know in 2016 `_ *(2016/06)*
* `Complete Guide to Parameter Tuning in XGBoost (with codes in Python) `_ *(2016/08)*
* `XGBoost: A Scalable Tree Boosting System `_, Tianqi Chen, Carlos Guestrin
* `Round Robin Classification `_
* `ANN-Benchmarks: A Benchmarking Tool for Approximate Nearest Neighbor Algorithms? `_
* `Time for a Change: a Tutorial for Comparing Multiple Classifiers Through Bayesian Analysis `_
* `Neighbourhood Components Analysis `_
* `Unbiased Measurement of Feature Importance in Tree-Based Methods `_
*Livres*
* `Python Data Science Handbook `_
* `The Elements of Statistical Learning `_ :
la bible que tout le monde recommande :
*Comprendre*
* `Explaining the Success of AdaBoost and Random Forests as Interpolating Classifiers `_
*Modules*
* :epkg:`scikit-learn`
* :epkg:`statsmodels`
* :epkg:`XGBoost`
Et quelques autres comme :
* `annoy `_