:orphan: |rss_image| **2017-02 - 1/1** :ref:`Blog ` :ref:`machine_learning (3) ` .. |rss_image| image:: feed-icon-16x16.png :target: ../_downloads/rss.xml :alt: RSS ---- .. index:: 2017-02 .. _ap-month-2017-02-0: 2017-02 - 1/1 +++++++++++++ .. blogpostagg:: :title: Adam :date: 2017-02-16 :keywords: gradient :categories: machine learning :rawfile: 2017/2017-02-16_gradient.rst `Adam `_ n'est pas le personnage de la saison 4 de `Buffy contre les vampires `_ mais un algorithme de descente de gradient : `Adam: A Method for Stochastic Optimization `_. Si vous ne me croyez pas, vous devriez lire cette petite revue `An overview of gradient descent optimization algorithms `_. Un autre algorithme intéressant est `Hogwild `_, asynchrone et distribué. Bref, a unicorn comme disent les anglais. ---- |rss_image| **2017-02 - 1/1** :ref:`2016-08 (1) ` :ref:`2017-02 (1) ` :ref:`2018-08 (1) ` :ref:`2019-05 (1) ` :ref:`2020-08 (1) `