:orphan: |rss_image| **2020-10 - 1/1** :ref:`Blog ` .. |rss_image| image:: feed-icon-16x16.png :target: ../_downloads/rss.xml :alt: RSS ---- .. index:: 2020-10 .. _ap-month-2020-10-0: 2020-10 - 1/1 +++++++++++++ .. blogpostagg:: :title: Infinite dans une conversion de float64 en float32 :date: 2020-10-25 :keywords: python,mémoire :categories: numpy :rawfile: 2020/2020-10-25_numpyinf.rst C'est le genre de petits détails numériques qui font qu'un calcul échoue sans qu'on se doute le plus souvent qu'une erreur s'est glissée quelque part. Le type `float32` est très utilisé dans le cas des réseaux de neurones profonds car le calcul peut alors être fait sur CPU et GPU. Dans le cas du machine learning classique, avec :epkg:`scikit-learn`, c'est le type `float64` est qui le plus souvent utilisé. Dès lors, il arrrive qu'on doivent convertir des réels d'un type à l'autre. ... ---- |rss_image| **2020-10 - 1/1** :ref:`2017-07 (1) ` :ref:`2018-03 (1) ` :ref:`2018-04 (1) ` :ref:`2018-10 (1) ` :ref:`2020-10 (1) `