:orphan: |rss_image| **2019-05 - 1/1** :ref:`Blog ` :ref:`machine_learning (3) ` .. |rss_image| image:: feed-icon-16x16.png :target: ../_downloads/rss.xml :alt: RSS ---- .. index:: 2019-05 .. _ap-month-2019-05-0: 2019-05 - 1/1 +++++++++++++ .. blogpostagg:: :title: Les maths, ça bugge moins quand même :date: 2019-05-05 :keywords: inégalités :categories: machine learning :rawfile: 2019/2019-05-05_maths.rst Trouver un bug dans un millier de lignes de codes, c'est rarement le jeu qui apporte le plus de joie excepté peut-être le moment l'erreur surgit sur l'autel comme la mariée apparaît dans l'église. Les bugs font souvent de mauvais mariages et de très bons divorces. Le pire survient après avoir découvert qu'ils se sont de nouveau invités dans le pâté et le fromage. Je me suis amusé avec les régressions linéaires :ref:`l-reglin-variations`, quantiles et par morceaux. Et je me suis retrouvé un jour avec une question existencielle à propos d'une régression logistique qui ressemblait visuellement beaucoup à un diagramme de Voronoï tant est si bien que je me suis demandé s'ils étaient jumeaux ou simplement parent (:ref:`l-lrvor-connection`). Je recycle quelques vieilles idées qui m'ont ramené au temps que j'ai passé chez Yahoo :ref:`l-graph_distance`. Et celui-là aussi :ref:`l-k-algo-gest` dont je trouve l'idée toujours aussi séduisante. J'ai dû fixer quelques erreurs dans :ref:`l-roc-theoritically` car, j'ai beau faire, je n'arrive toujours pas à retenir la définition de *False Positive Rate*... C'est quand le prédicteur dit blanc alors que c'est noir ou l'inverse. Bref, je n'insiste plus, je suis un dyslexique du classifieur. Je me suis amusé dans d'autres domaines : :epkg:`Predictable t-SNE`, :epkg:`Visualize a scikit-learn pipeline`, :epkg:`Regression with confidence interval`. ... ---- |rss_image| **2019-05 - 1/1** :ref:`2016-08 (1) ` :ref:`2017-02 (1) ` :ref:`2018-08 (1) ` :ref:`2019-05 (1) ` :ref:`2020-08 (1) `