_ ,
Ęâ . Ę âčâ ,- - âč . Ę â
____ â Ę.._ ⥠_____ ____ _ _ _ _||_ _ '
/ ___|â âč / \ | ___|| _ \. Ęâ / \ ⥠| \ | | ' || < \, \\ ,._-_ '\\/\\
\___ \ / _ \ | |_ | |_) | / _ \ | \| | || âč /-|| || || â. || ;'
___) | / ___ \ | _| | _ < âč/ ___ \ | |\ | |, (( || || || ||/
|____/ /_/ \_\|_| Ę .|_| \_\/_/ \_\|_| \_| _-/ \/\\ \\ \\, |/
SAFRAN Fairy . Ę. Ę âč â. (
-_-
Pipeline automatisé de téléchargement, traitement et publication des données SAFRAN-ISBA-MODCOU (SIM2) au format NetCDF pour chaque variable disponible pour l'ensemble de la période de réanalyse depuis meteo.data.gouv.fr vers un bucket S3 public avec catalogue STAC et vers Recherche Data Gouv.
Afin d'améliorer la réutilisabilité et en raison d'une accessibilité et d'une interopérabilité technique limitées des données dans leur format d'origine (CSV volumineux), ce projet automatise les étapes de :
- Téléchargement des fichiers CSV depuis l'API Météo-France
- Décompression des archives
.csv.gz - Découpage par variable climatique
- Conversion en NetCDF avec métadonnées
- Reconstruction des séries temporelles (historical/previous/latest)
- Publication sur un bucket S3 public avec génération d'un catalogue STAC pour la découvrabilité et l'interopérabilité des données
- Publication sur un dépÎt de données de l'entrepÎt Recherche Data Gouv
in dev â Ce projet ajoute aux donnĂ©es d'origine l'Ă©vapotranspiration calculĂ©e selon la mĂ©thode de Hargreaves Ă partir des tempĂ©ratures minimales et maximales de la rĂ©analyse SAFRAN afin de continuer de rĂ©pondre au besoin exprimĂ© dans le cadre du projet Explore2.
Trois fichiers NetCDF par variable pour optimiser la performance et la fraßcheur des données :
| Type | Description | Période couverte | Fréquence MAJ | Stabilité |
|---|---|---|---|---|
| historical | Chronique historique stable | 1958 â N-10 ans | Jamais | â Stable |
| previous | DĂ©cennie en cours (mois complets) | N-10 ans â mois dernier | Mensuelle | đ Mise Ă jour mensuelle |
| latest | DonnĂ©es les plus rĂ©centes | N-10 ans â aujourd'hui | Quotidienne | ⥠Mise Ă jour quotidienne |
26 variables climatiques quotidiennes sur grille Lambert II étendu (8 km) :
| Variable | Description | Unité |
|---|---|---|
PRENEI |
Précipitations solides | mm |
PRELIQ |
Précipitations liquides | mm |
T |
Température moyenne | °C |
TINF_H |
Température minimale | °C |
TSUP_H |
Température maximale | °C |
FF |
Vent moyen | m/s |
HU |
Humidité relative | % |
| ... | ... | ... |
Voir resources/safran_variables.csv pour la liste complĂšte.
- Python 3.10+
- NCO (NetCDF Operators) :
sudo apt install nco
# Cloner le dépÎt
git clone https://github.com/lou-heraut/safran-fairy.git
cd safran-fairy
# Installation
python -m venv .python_env
source .python_env/bin/activate
pip install -r requirements.txtVoir INSTALL.md pour l'installation détaillée sur serveur Linux.
# Pipeline complet
make run-all
# Ătapes individuelles
make run-download # Télécharger les nouvelles données
make run-decompress # Décompresser
make run-split # Découper par variable
make run-convert # Convertir en NetCDF
make run-merge # Fusionner temporellement
make run-upload # Publier sur S3
make run-ui # Générer et uploader le catalogue STAC
make run-clean # Nettoyer les anciennes versions
# Configuration du bucket S3 (une seule fois)
make run-setup# Installation du service
sudo make install-service
# Vérifier le statut
make service-status
# Suivre les logs en temps réel
make service-logsLe service s'exécute quotidiennement à 02:00 UTC.
# Logs en temps réel
make service-logs
# Statut du service
make service-status
# Logs de la derniÚre exécution
make service-logs-last-run
# Statistiques sur les données
make data-statssafran_fairy/
âââ download.py # TĂ©lĂ©chargement depuis meteo.data.gouv.fr
âââ decompress.py # Extraction des .csv.gz
âââ split.py # DĂ©coupage par variable
âââ convert.py # Conversion CSV â NetCDF
âââ merge.py # Fusion temporelle
âââ upload.py # Publication S3
âââ catalog.py # GĂ©nĂ©ration catalogue STAC
âââ clean.py # Nettoyage des anciennes versions
00_data-download/ # Fichiers .csv.gz bruts téléchargés
01_data-raw/ # Fichiers .csv décompressés
02_data-split/ # Fichiers .parquet par variable
03_data-convert/ # Fichiers .nc individuels
04_data-output/ # Fichiers .nc fusionnés (historical/previous/latest)
05_catalog/ # Fichiers JSON du catalogue STAC
Les données sont accessibles via le catalogue STAC :
https://radiantearth.github.io/stac-browser/#/external/https://s3-data.meso.umontpellier.fr/safran-fairy-data/stac-data/catalog.json
Maintenu par Lou Heraut (INRAE, UR RiverLy, Villeurbanne, France)