From 7ba4287399c57dc3e6a4a4786914043a0bb0b559 Mon Sep 17 00:00:00 2001 From: Richard Dern Date: Wed, 26 Nov 2025 01:07:16 +0100 Subject: [PATCH] =?UTF-8?q?Ajout=20d'une=20transition=20=C3=A0=20la=20conc?= =?UTF-8?q?lusion?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/10 - Modèles non linéaires/index.md | 6 +++++- 1 file changed, 5 insertions(+), 1 deletion(-) diff --git a/docs/10 - Modèles non linéaires/index.md b/docs/10 - Modèles non linéaires/index.md index 0cc8b52..4ef6a5c 100644 --- a/docs/10 - Modèles non linéaires/index.md +++ b/docs/10 - Modèles non linéaires/index.md @@ -21,6 +21,7 @@ Le script : ## Lecture rapide des résultats (validation) ![](./figures/models_tree_mae_validation.png) + ![](./figures/models_tree_rain_validation.png) - Température : le gradient boosting est meilleur que la forêt sur le très court terme (MAE ≈0,13 à +10 min), mais reste derrière les modèles linéaires du chapitre 9 (MAE ≈0,14 à +60 min avec Ridge). La sous‑utilisation des données d’apprentissage (1/10) pèse sur la performance. @@ -29,4 +30,7 @@ Le script : ## Conclusion provisoire -Ces modèles non linéaires apportent de la flexibilité mais, avec un apprentissage allégé pour tenir le temps de calcul, ils ne battent pas les baselines ni les modèles linéaires sur les horizons courts. Pour progresser, il faudra soit élargir l’échantillon d’apprentissage (temps de calcul plus long), soit régler finement les hyperparamètres, soit enrichir les features (ou combiner les deux), tout en vérifiant que le gain justifie l’effort. +Ces modèles non linéaires apportent de la flexibilité mais, avec un apprentissage allégé pour tenir le temps de calcul, ils ne battent pas les baselines ni les modèles linéaires sur les horizons courts. Pour progresser, il faudra soit élargir l’échantillon d’apprentissage (temps de calcul plus long), soit régler finement les hyperparamètres, soit enrichir les features (ou combiner les deux). + +À ce stade, les modèles non-linéaires "naïfs" que l'on a implémenté ici travaillent pendant plusieurs minutes et ne sont pas capables de faire mieux que les modèles vus précédemment. +Je doute donc qu'il soit pertinent de creuser le sujet, mais cela a aiguisé ma curiosité pour des modèles existants, pré-entraînés, tels que Chronos, d'Amazon.