1

7.7 KiB
Raw Permalink Blame History

Conclusion

Ce que les données racontent

En partant dune simple station météo branchée sur InfluxDB, on a fini par disposer dun jeu de données propre, minuté, enrichi de quelques métadonnées (saison, position du soleil…). Les premiers graphiques, puis les corrélations binaires et multiples, ont montré que le signal colle plutôt bien à ce que la physique et la météorologie attendent : lhumidité qui baisse quand la température monte, la pression qui ne bouge que lentement, le vent qui se renforce dans les situations dépressionnaires, la lumière qui seffondre sous les nuages, etc. Autrement dit, les capteurs, les scripts et les traitements ne racontent pas nimporte quoi : les grandes tendances sont cohérentes avec les mécanismes connus, dans les limites de notre période couverte (mars→novembre) et de labsence de contexte synoptique.

Des modèles prédictifs… peu convaincants

Une fois ce socle posé, lobjectif était daller plus loin : construire un petit cadre prédictif local capable dannoncer, au pas de la station, la température, le vent et la pluie à plusieurs horizons (T+10 min, +60 min, +6 h, +24 h). On a testé des baselines simples (persistance, climatologie horaire, moyennes mobiles), puis des modèles linéaires régularisés, des modèles non linéaires (arbres, forêts, gradient boosting) et enfin un modèle de type foundation comme Chronos-2, appliqué en zéro-shot sur la série de la station.

Le constat est assez net :

  • les baselines « bêtes » restent très difficiles à battre sur la température et le vent à très court terme, surtout la persistance, qui fait déjà un excellent travail jusquà quelques heures ;
  • les modèles locaux plus sophistiqués gagnent parfois quelques dixièmes de degré ou de km/h, mais rarement de quoi justifier la complexité, et ils échouent à faire mieux que la persistance pour la pluie ;
  • Chronos small, même réglé prudemment, fournit un signal exploitable sur la température et un peu sur le vent pour les horizons très courts (quelques heures), mais se dégrade vite dès quon séloigne, et reste faible sur la pluie.

En résumé, ni les modèles « maison », ni Chronos ne permettent, dans cette configuration, de construire un outil de prévision local robuste, général et fiable sur tous les horizons et toutes les variables. Ils montrent des choses intéressantes, mais restent loin dune solution utilisable au quotidien.

Retour sur lobjectif initial

Lobjectif annoncé au départ était modeste, mais ambitieux : dépasser le simple plaisir de posséder une station météo pour exploiter réellement ses données, mettre en évidence des principes scientifiques, et concevoir un petit outil prédictif local. Sur les deux premiers points, le contrat est plutôt rempli : on a vérifié que les grandes relations attendues sont bien présentes, on a vu où elles se cassent faute de données manquantes (hiver absent, pas de champ de pression régional, pas de nébulosité, etc.), et on a posé un cadre danalyse reproductible avec des scripts clairs.

Sur le volet prédictif, en revanche, lobjectif nest pas atteint : les modèles localement entraînés restent fragiles et peu convaincants dès quon sort des cas « faciles », et même un modèle généraliste comme Chronos ne transforme pas magiquement la série locale en prévisions fiables pour la pluie ou les horizons plus lointains. Cela ne veut pas dire que lexercice était inutile ; au contraire, cétait loccasion de se confronter concrètement aux limites de ce que lon peut faire avec une seule station et quelques mois de données.

Au passage, ça a été loccasion de samuser avec Python : pipeline de préparation, génération de graphiques, scripts danalyse, première approche de l'utilisation de l'IA avec des données concrètes et produites localement, tests de modèles… Même si rien nest « prêt à lemploi » pour faire tourner une mini-météo locale, le chemin a été instructif et agréable.

Ce que cela dit de la prévision météo

Travailler sur ce jeu de données rappelle une évidence que lon oublie facilement : prévoir le temps nest pas simple. En tant quhumains, on a des intuitions — « ça va rester sec », « ça va se couvrir », « le vent va se lever » — qui ne sont pas forcément mauvaises, surtout quand on connaît bien son environnement. Mais dès quon demande à un modèle mathématique de faire la même chose, on se heurte à plusieurs réalités :

  • la météo locale dépend de phénomènes qui dépassent largement ce que voit une station : dynamique synoptique, topographie, humidité en altitude, nuages, etc. ;
  • plus on séloigne spatialement du point dobservation, plus on profite de modèles globaux qui intègrent ces informations, et donc plus les prévisions tendent à être stables à grande échelle ;
  • même les meilleurs modèles opérationnels, nourris de données massives et de calcul haute performance, se trompent encore régulièrement : lincertitude fait partie du jeu.

Dans ce contexte, rester humble est indispensable. Une simple série locale, aussi bien nettoyée soitelle, ne suffit pas à démontrer le « déterminisme complet » de la météo ; au contraire, elle met plutôt en lumière la part dinformation manquante, et elle est colossale. Montrer que, en pratique, la météo est entièrement déterministe à léchelle qui nous intéresse demanderait bien plus de données, de capteurs, de modèles et de temps de calcul que ce quon a ici.

Mot de fin

Ce projet naboutit pas à un modèle de prévision local prêt à lemploi, mais il remplit une autre fonction : celle dun carnet dexploration. On y voit comment des données réelles, avec leurs trous et leurs biais, peuvent être préparées, visualisées, confrontées à la physique, puis poussées jusquà leurs limites prédictives. Si un lecteur a envie de reprendre ce travail, dajouter des sources externes, de tester dautres modèles ou simplement de tracer de nouveaux graphiques, tant mieux : la station continue denregistrer, et lhistoire ne sarrête pas ici.

Pour finir sur une note plus légère, un petit script de curiosité :

python "docs/12 - Conclusion/scripts/plot_weekday_profiles.py"

calcule les moyennes de température, dhumidité, de pression atmosphérique, de luminance et de vitesse du vent pour chaque jour de la semaine, puis normalise ces valeurs pour attribuer un score de « confort » entre 0 et 1 à chaque jour : plus chaud et lumineux, moins humide et moins venteux, et une pression jugée « confortable » quand elle reste proche des valeurs habituelles plutôt quen situation très basse ou très élevée. Il produit dabord le profil moyen par jour de semaine cidessous, puis un graphique de score global qui met en évidence le jour objectivement le plus favorable selon ces critères. Enfin, une petite série de graphiques radar montre, pour chaque jour, comment se répartissent les scores des différentes variables (température, humidité, pression, lumière, vent).

Profils moyens par jour de semaine

Score global par jour de semaine

Objectivement, le meilleur jour de la semaine par chez moi est le vendredi !