1

Ajout d'une transition à la conclusion

This commit is contained in:
Richard Dern 2025-11-26 01:07:16 +01:00
parent 9a393972eb
commit 7ba4287399

View File

@ -21,6 +21,7 @@ Le script :
## Lecture rapide des résultats (validation) ## Lecture rapide des résultats (validation)
![](./figures/models_tree_mae_validation.png) ![](./figures/models_tree_mae_validation.png)
![](./figures/models_tree_rain_validation.png) ![](./figures/models_tree_rain_validation.png)
- Température : le gradient boosting est meilleur que la forêt sur le très court terme (MAE ≈0,13 à +10 min), mais reste derrière les modèles linéaires du chapitre 9 (MAE ≈0,14 à +60 min avec Ridge). La sousutilisation des données dapprentissage (1/10) pèse sur la performance. - Température : le gradient boosting est meilleur que la forêt sur le très court terme (MAE ≈0,13 à +10 min), mais reste derrière les modèles linéaires du chapitre 9 (MAE ≈0,14 à +60 min avec Ridge). La sousutilisation des données dapprentissage (1/10) pèse sur la performance.
@ -29,4 +30,7 @@ Le script :
## Conclusion provisoire ## Conclusion provisoire
Ces modèles non linéaires apportent de la flexibilité mais, avec un apprentissage allégé pour tenir le temps de calcul, ils ne battent pas les baselines ni les modèles linéaires sur les horizons courts. Pour progresser, il faudra soit élargir léchantillon dapprentissage (temps de calcul plus long), soit régler finement les hyperparamètres, soit enrichir les features (ou combiner les deux), tout en vérifiant que le gain justifie leffort. Ces modèles non linéaires apportent de la flexibilité mais, avec un apprentissage allégé pour tenir le temps de calcul, ils ne battent pas les baselines ni les modèles linéaires sur les horizons courts. Pour progresser, il faudra soit élargir léchantillon dapprentissage (temps de calcul plus long), soit régler finement les hyperparamètres, soit enrichir les features (ou combiner les deux).
À ce stade, les modèles non-linéaires "naïfs" que l'on a implémenté ici travaillent pendant plusieurs minutes et ne sont pas capables de faire mieux que les modèles vus précédemment.
Je doute donc qu'il soit pertinent de creuser le sujet, mais cela a aiguisé ma curiosité pour des modèles existants, pré-entraînés, tels que Chronos, d'Amazon.