Thierry Castel

Regional climate, Variability, Climate Change Impacts

All posts in one long list


M2SEME UE6.2

UE6.2 Downscaling Climatique Statistique

Après avoir présenté les principes de la désagrégation climatique dynamique et statistique nous appliquerons la méthode de descente d’échelle statistique Quantile Mapping. Nous mobiliserons cette méthode pour désagréger les simulations climatiques globales CMIP6. Le projet d’intercomparaison de modèles couplés (CMIP) s’est développé sous l’égide du Programme mondial de recherche sur le climat. Ces données mobilisées dans le cadre des rapports du GIEC par la communauté internationale sont accessibles via divers portails de service climatique. Nous mobiliserons le portail Européen Climate4Impact pour récupérer ces données climatiques. Il vous est au préalable demandé de vous créer un compte sur ce portail pour accéder aux données.

Les scripts, les données des stations Météo-France et un article sont à récupérer ici

Le travail se découpe en 5 principales étapes :

1-Récupération et post-traitement des données de Tn, Tx et Pluie de CMIP6 et des stations Météo-France

La descente d’échelle et le débiaisage des données se fera sur la région Bourgogne Franche-Comté

Pour la lecture et la récupération des données CMIP6 nous utiliserons le package R : ncdf4

Les étapes de cette partie sont illustrées pour la température minimale Tn et sont présentées sur le Notebook_CMIP6

2-Ajustement et application des fonctions de transfert par percentile

Nous utiliserons le package R : qmap qui implémente la méthode du Quantile Mapping

Les étapes de cette partie sont illustrées pour la température minimale Tn et sont présentées sur le Notebook QMapping

3-Récupération et post-traitement des données projetées CMIP6 SSP585

Les étapes de cette partie sont illustrées pour la température minimale Tn et sont présentées sur le Notebook CMIP6SSP

4-Application du modèle de Quantile-Mapping ajusté pour les données projetées

Les étapes de cette partie sont illustrées pour la température minimale Tn et sont présentées sur le Notebook_QMappingSSP

5-Quelle évolution des températures et des pluies pour la région BFC à l’horizon 2070-2100 ?

Après application de la méthode vous évaluerez quelles évolutions des températures et des pluies sont projetées pour la région BFC. Vous regarderez cela pour la trajectoire SSP585 (voire SSP245) et pour plusieurs modèles.

Module SIG : TP2 CLC Lez

La zone tampon de 1000m autour du Lez est d’une superficie de 5627,58 ha. En terme d’occupation du sol et en réponse au point 4 du TP2 SIG cette zone tampon se compose comme suit :

CODE_06_CL surface nomenclature Surface_ha
112 19308244.82 Tissu urbain discontinu 1930.824
242 8073580.64 Systèmes culturaux et parcellaires complexes 807.358
221 6005744.33 Vignobles 600.574
521 3987138.38 Lagunes littorales 398.714
324 3145883.3 Forêt et végétation arbustive en mutation 314.588
421 2939275.88 Marais maritimes 293.928
121 2927480.35 Zones industrielles et commerciales 292.748
313 2294857.79 Forêts mélangées 229.486
312 1350873.04 Forêts de conifères 135.087
141 1348635.66 Espaces verts urbains 134.864
523 1234969.01 Mers et océans 123.497
211 1197005.26 Terres arables hors périmètres d’irrigation 119.701
243 835749.1 Territoires principalement occupés par l’agriculture avec présence de végétation naturelle 83.575
132 394284.2 Décharges 39.428
142 282048.84 équipements sportifs et de loisirs 28.205
422 267528.43 Marais salants 26.753
331 249571.98 Plages dunes et sable 24.957
321 220649.63 Pelouses et pâturages naturels 22.065
131 121242.72 Extraction de matériaux 12.124
111 91011.14 Tissu urbain continu 9.101
CLC Lez

R2D2C: M05 Interpolation Spatiale

Interpolation spatiale mécaniste :

  • Dans le cadre de ce travail nous nous posons les deux problèmes suivants :
  • Arriver à partir de données/mesures ponctuelles à produire une information continue à une résolution cible donnée
  • Utiliser le résultat de l'interpolation pour un travail d'analyse spatiale sur QGIS

Vous utiliserez votre portable et les logiciels R et QGIS

Les librairies (packages) R à installer en amont sont :

  • bootstrap
  • sf

Le script, les données et la documentation

L’ensemble des fichiers est à récupérer ici

Le notebook vous permet de prendre connaissance des principale étapes de l’interpolation spatiale mécaniste que nous mettrons en oeuvre.

La démarche est illustrée pour les Tmax annuelles. Vous pouvez en amont essayer de tester l’ensemble de la démarche sur votre machine.

Données d’occupation du sol Corine Land Cover clc

Vous aurez en plus des deux couches présentes dans le fichier BDBourgogneRGF93.gpkg à utiliser les données CLC. Vous chercherez à identifier pour les principaux types d’occupation du sol l’amplitude des changements climatiques sur les : Tmax, Tmin et la pluie.

Nous reviendrons pas à pas sur les différentes étapes de la démarche.

Notebook TP UE4 Climat : de la donnée à l'adaptation

Notebooks des TPs de l’UE4

TP#1 EDA : Analyse Exploratoire des Données ici

Ce Notebook présente les travaux qui suite à la première séance vise à : 1) Lire les données Drias avec R, 2) Mettre en forme ces données, 3) Faire le calcul des moyennes annuelles et mensuelles, 4) Comparer ces données avec des données observées étant au pas de temps mensuel, 5) Evaluation des données Drias, calcul des statistiques (R2, RMSE, biais, régression linéaire).

TP Réserve Utile

Ce TP est conduit avec QGIS. Les actions : lire la carte de réserve utile (format raster Geotiff) à la résolution de 50m pour toute la Bourgogne. Une carte des points de grille Drias a été créée à partir des coordonnées récupérées lors du TP#1. La réserve utile est calculé pour chaque point de grille. La carte est enregistrée au format shapefile pour être ensuite récupérée sous R.

TP#2 Kc : Calcul du coefficient cultural ici

Récupération de Kc au pas de temps mensuel pour 4 occupations du sol. Interpolation de ces données mensuelles au pas de temps journalier. 3 méthodes d’interpolation sont testées. Cette démarche est à appliquer sur les données de Kc de l’occupation du sol que vous avez choisi.

TP#3 ETP : Calcul de l’EvapoTranspiration Potentielle ici

On cherche à calculer pour chaque point de grille Drias et à partir des données climatiques simulées l’ETP qui sera comparée à l’ETP récupérée. Nous utiliserons l’équation de Hargreaves basée sur les températures min et max, la latitude et le jour de l’année. Cette équation est implémentée dans une fonction.

  • Vous chercherez également à compléter les données en récupérant le Kc pour chaque jour et la réserve utile pour chaque point de grille.

  • A l’issu de ce TP toutes les données nécessaires pour le calcul du Bilan Hydrique doivent être regroupées dans une dataframe qu’il faudra sauvegarder.

TP#4 BH : Calcul du Bilan Hydrique/jour/point de grille ici

Dernière étape qui vise à calculer le Bilan Hydrique à partir des données climatiques Drias, du Kc et de la réserve utile i.e. taille du réservoir. Une fois le calcul effectué vous explorerez les résultats en traçant le bilan hydrique et d’autres variables.

  • A partir de là vous aurez en main toutes les étapes pour (re)produire le calcul du bilan sur vos données Drias et de Kc qui dépendent de votre choix.

Il conviendra enfin de réfléchir à des indices synthétiques pertinent qui permettront 1) de synthétiser l’information sur le BH et 2) en utilisant ces indices calculés sur le période historique (1975-2005) et sur les périodes projetées (2035-2050 et 2070-2100) d’évaluer l’impact du CC sur ce bilan.

UE4 Climat : de la donnée à l'adaptation

L’UE Climat s’articule autour de séquences assurées par des intervenant(e)s sur les thèmes indiqués dans le tableau ci-dessous. Ces séquences seront complétées par une mise en application qui suivra la progressivité de l’UE et illustrera les différents points abordés par les intervenant(e)s. Pour cela un applicatif centré sur «Impact du changement climatique sur la ressource en eau en Bourgogne Franche-Comté» servira de fil conducteur.

Thèmes Intervenants extérieurs heures  
Services et portails climatiques Agnès Tamburini, Météo-France 2  
Impacts hydriques et hydrologiques Eric Sauquet, IRSTEA 6  
Impacts sur les agro-écosystèmes Annabelle Larmure, AgroSup 3  
Regard et actions des CA face au CC Jérome Lamonica, CA Région BFC 2  
       
Applicatif Intervenants heures  
Impacts CC sur la ressource en eau B. Bois, S. Zito et T. Castel 27  
       

Hydro

En amont de l’applicatif il vous est demandé de réaliser les taches suivantes :

  1. vous inscrire sur le portail DRIAS de Météo-France afin de pouvoir lancer lors de la première séance la récupération des données climatiques qui seront utilisées pour l’applicatif;
  2. récupérer des données environnementales sur les sites suivants :
    • IGN pour les limites administratives ou ici pour le Modèle numérique de Terrain;
    • CLC pour les données d’occupation du sol Corine Land Cover;
    • RU attention ce lien est temporaire;

La mise en oeuvre de l’applicatif mobilisera les outils logiciels SIG QGIS et de traitement de données et statistiques R. Pour ce dernier nous conseillons de l’utiliser via un environnement interactif de développement du type RStudio par exemple.

L’ensemble des cours et des TD/TP se feront dans la salle informatique du CRC (4ème étage) et/ou en salle 206 (2ème étage) de l’aile sud du bâtiment Sciences Gabriel sur le campus de l’univ. de Bourgogne.

Seule l’intervention de Agnès Tamburini se fera par visio conférence. Cela sera dans l’amphi Ampère (aile nord) bâtiment Sciences Gabriel.

Enfin nous vous demandons :

  1. la lecture du document suivant BH qui contextualise l’objectif de l’applicatif et qui présente les principes et les détails du modèle de bilan hydrique simplifié qui sera utilisé;
  2. récupération diaporama UE4 utilisé comme support introductif à l’UE.
  3. récupération des scripts, Notebooks, données climatiques stationnelles et documentation/supports pour les TPs

Notebook TP#1 UE4 Climat : de la donnée à l'adaptation

Notebooks des TPs de l’UE4

TP#1 EDA : Analyse Exploratoire des Données ici

Ce Notebook présente les travaux qui suite à la première séance vise à : 1) Lire les données Drias avec R, 2) Mettre en forme ces données, 3) Faire le calcul des moyennes annuelles et mensuelles, 4) Comparer ces données avec des données observées étant au pas de temps mensuel, 5) Evaluation des données Drias, calcul des statistiques (R2, RMSE, biais, régression linéaire).

TP Réserve Utile

Ce TP est conduit avec QGIS. Les actions : lire la carte de réserve utile (format raster Geotiff) à la résolution de 50m pour toute la Bourgogne. Une carte des points de grille Drias a été créée à partir des coordonnées récupérées lors du TP#1. La réserve utile est calculé pour chaque point de grille. La carte est enregistrée au format shapefile pour être ensuite récupérée sous R.

M2 SEME: SIG traitement de données spatiales

Analyse spatiale de données géographiques : Pollution au phosphore dans un bassin versant

Objectifs pédagogiques :

  • Savoir analyser des Données spatiales avec QGIS;
  • Construire une stratégie (i.e. démarche méthodologique) d’analyse spatiale;
  • Mettre en œuvre cette stratégie avec QGIS pour cartographier un risque de pollution diffuse d’origine agricole à l’échelle d’un bassin versant;
  • Acquérir les bases de la géostatistique pour évaluer la cohérence spatiale de données;
  • Développer un regard critique sur la qualité des données spatialisées, leurs intérêts et leur limites, en particulier dans le cadre d’analyses environnementales;
  • Exploiter la complémentarité QGIS/R;

La présentation de l’applicatif, du support de TP et des données qui sont à récupérer ici

Séance 1

  • Introduction à la problématique de pollution diffuse d’origine agricole sur le Bassin Versant étudié;
  • Travail collégial sur le modèle de risque de fuite en phosphore établit par le consortium qui a traité le cas;
  • Classification des niveaux de risque;
  • Construction collégiale de la stratégie pour produire une cartographie du risque;
  • Mise en oeuvre de la démarche d’analyse spatiale pour l’identification des niveaux de risque;

Séance 2

  • Poursuite de la mise en oeuvre;
  • Traitement des données pour identifier les niveaux de risque;

Séance 3

  • Finalisation des traitements;
  • Production des résultats et de la carte du risque;

Nous reviendrons au cours du TP sur les différentes étapes.

M2 SEME: séries temporelles analyse avec R

Pour rappel :

  • avec R les # permettent de mettre des commentaires dans le code
  • Pour l'assignement dans un objet on peut utiliser <- ou =
  • Parmis les fonctions très utiles pour explorer les données : class, str, dim, head, tail

Les librairies à installer pour le TP sont :

  • trend
  • xts

Le script, les données et de la docs sont à récupérer ici : data

Le notebook vous permet de prendre connaissance des différentes étapes, de commencer à tester le code sur votre machine.

Nous reviendrons au cours du TP sur les différentes étapes.

M2 SP2G: séries temporelles analyse avec R

Pour rappel :

  • avec R les # permettent de mettre des commentaires dans le code
  • Pour l'assignement dans un objet on peut utiliser <- ou =
  • Parmis les fonctions très utiles pour explorer les données : class, str, dim, head, tail

Les librairies à installer pour le TP sont :

  • trend
  • xts

Le script, les données et de la docs sont à récupérer ici : data

Le notebook vous permet de prendre connaissance des différentes étapes, de commencer à tester le code sur votre machine.

Nous reviendrons au cours du TP sur les différentes étapes.

R2D2C : remise à niveau R

Environnement et outils de traitement des données

L’outils logiciel préconisé est R qui permet le traitement avancé des données numériques et leur analyse statistique. Outre qu’il implémente l’état de l’art des méthododes statistiques, R offre la possibilité de tracer les données et de produire des figures de qualité. La mise en oeuvre de ces fonctionnalités est délicate à partir de l’éditeur natif de R. Pour cela différent environnement de développement intégré encore appelés IDE (Interactive Development Environment) ont été développés afin d’améliorer la prise en main, l’efficacité et les échanges. Parmis les IDE utilisés avec R nous pouvons vous en conseiller deux :

  • RStudio qui est un IDE spécifique à R et qui offre une version opensource pour Windows assez facilement installable;
  • Jupyter un IDE ‘universel’ s’appuyant sur le concept de notebook qui facilite la publication, les échanges et la ré-utilisation du code. L’installalation sous Windows n’est pas directe et nécessite d’installer la plateforme Anaconda;

Installation de R + RStudio ou R + Jupyter via Anaconda

R + RStudio

Pour Windows :

  1. récupérer les exécutables (i.e. .exe) de R et RStudio via les liens ci-dessus;
  2. installer R en utilisant les options proposées par défaut;
  3. installer RStudio en double cliquant sur l’exécutable et suivre les étapes.

Anaconda

L’installation est quasi identique pour windows, linux et macOS. Nous présentons ci-dessous les principales étapes de la récupération à l’intallation. Nous montrons comment créer un nouvel environnement avec R et Jupyterlab.

  • Récupération d’Anaconda

Anaconda

  • Installation d’Anaconda

Une fois le fichier exécutable (‘Anaconda3-2021.05-Windows-x86_64.exe’) cliquer deux fois dessus pour lancer l’installation

install1 install2 install3
  • Anaconda Navigator -> menu démarrer

Anaconda apparaît après l’installation dans votre menu démarrer. Il faut lancer Anaconda Navigator pour gérer les environnements et l’intallation des packages. install1

Anaconda propose un environnement isolé afin de gérer les dépendances et la version des logiciels. C’est pour cela qu’il nécessite à minima 3Go d’espace disque.

  • Anaconda Navigator -> Interface

L’interface anaconda de base propose par défaut une séries de logiciel installés ou à installer en fonction des besoins. install1

Cet environnement de base est très stable. En contrepartie ce ne sont pas les versions les plus récentes des logiciels qui sont proposées. Pour avoir des versions plus récentes il faudra ajouter un liens (Channels).

  • Anaconda Navigator -> Channels

On vous propose d’ajouter le Channel ou lien conda-forge qui pointe sur les versions plus récentes et propose plus de logiciels install1

Ce Channel est maintenu par une large communauté issue du monde open-source permet de créer de nouveaux environnements opérationnels pour vos besoins. Dans notre cas on vous propose une fois le Channel ajouter de créer un nouvel environnement avec un version plus récente de R, Jupyterlab et le noyau (kernel) de R pour jupyterlab.

  • Anaconda Navigator -> Création d’un nouvel environnement

On vous propose d’ajouter le Channel ou lien conda-forge qui pointe sur les versions plus récentes et propose plus de logiciels. Ici on active l’intallation de R et python. Anaconda va se baser sur le Channel conda-forge pour les versions des logiciels. install1

Après sa création on va pouvoir ajouter les logiciels et packages dont on a besoin et notamment jupyterlab et les libraries spécifiques en plus des librairies de base.

  • Anaconda Navigator -> Installation de logiciel et librairies

Sélectionner votre nouvel environnement recherche dans les logiciels et librairies non installés jupyterlab et les libraries R listées plus bas dans la page. install1

Après cette opération vous pouvez retourner sous Home et à partir de votre nouvel environnement vous pouvez lancer Jupyterlab. Jupyterlab vous permet d’ouvrir le notebook et lancer bloc de code. Pour cela il vous faudra récupérer les données via le lien ci dessous et modifier dans le notebook le chemin d’accès aux données .

Les librairies à installer pour le TP sont :

  • sf, leaps, relaimpo

Script et données

docs, données et scripts sont à récupérer ici : data

Le notebook vous permet de prendre connaissance des différentes étapes, de commencer à tester le code sur votre machine.

Nous reviendrons au cours de la séance sur les différentes étapes.

R2D2C : remise à niveau R

Environnement et outils de traitement des données

L’outils logiciel préconisé est R qui permet le traitement avancé des données numériques et leur analyse statistique. Outre qu’il implémente l’état de l’art des méthododes statistiques, R offre la possibilité de tracer les données et de produire des figures de qualité. La mise en oeuvre de ces fonctionnalités est délicate à partir de l’éditeur natif de R. Pour cela différent environnement de développement intégré encore appelés IDE (Interactive Development Environment) ont été développés afin d’améliorer la prise en main, l’efficacité et les échanges. Parmis les IDE utilisés avec R nous pouvons vous en conseiller deux :

  • RStudio qui est un IDE spécifique à R et qui offre une version opensource pour Windows assez facilement installable;
  • Jupyter un IDE ‘universel’ s’appuyant sur le concept de notebook qui facilite la publication, les échanges et la ré-utilisation du code. L’installalation sous Windows n’est pas directe et nécessite d’installer la plateforme Anaconda;

Installation de R + RStudio ou R + Jupyter via Anaconda

R + RStudio

Pour Windows :

  1. récupérer les exécutables (i.e. .exe) de R et RStudio via les liens ci-dessus;
  2. installer R en utilisant les options proposées par défaut;
  3. installer RStudio en double cliquant sur l’exécutable et suivre les étapes.

Anaconda

L’installation est quasi identique pour windows, linux et macOS. Nous présentons ci-dessous les principales étapes de la récupération à l’intallation. Nous montrons comment créer un nouvel environnement avec R et Jupyterlab.

  • Récupération d’Anaconda

Anaconda

  • Installation d’Anaconda

Une fois le fichier exécutable (‘Anaconda3-2021.05-Windows-x86_64.exe’) cliquer deux fois dessus pour lancer l’installation

install1 install2 install3
  • Anaconda Navigator -> menu démarrer

Anaconda apparaît après l’installation dans votre menu démarrer. Il faut lancer Anaconda Navigator pour gérer les environnements et l’intallation des packages. install1

Anaconda propose un environnement isolé afin de gérer les dépendances et la version des logiciels. C’est pour cela qu’il nécessite à minima 3Go d’espace disque.

  • Anaconda Navigator -> Interface

L’interface anaconda de base propose par défaut une séries de logiciel installés ou à installer en fonction des besoins. install1

Cet environnement de base est très stable. En contrepartie ce ne sont pas les versions les plus récentes des logiciels qui sont proposées. Pour avoir des versions plus récentes il faudra ajouter un liens (Channels).

  • Anaconda Navigator -> Channels

On vous propose d’ajouter le Channel ou lien conda-forge qui pointe sur les versions plus récentes et propose plus de logiciels install1

Ce Channel est maintenu par une large communauté issue du monde open-source permet de créer de nouveaux environnements opérationnels pour vos besoins. Dans notre cas on vous propose une fois le Channel ajouter de créer un nouvel environnement avec un version plus récente de R, Jupyterlab et le noyau (kernel) de R pour jupyterlab.

  • Anaconda Navigator -> Création d’un nouvel environnement

On vous propose d’ajouter le Channel ou lien conda-forge qui pointe sur les versions plus récentes et propose plus de logiciels. Ici on active l’intallation de R et python. Anaconda va se baser sur le Channel conda-forge pour les versions des logiciels. install1

Après sa création on va pouvoir ajouter les logiciels et packages dont on a besoin et notamment jupyterlab et les libraries spécifiques en plus des librairies de base.

  • Anaconda Navigator -> Installation de logiciel et librairies

Sélectionner votre nouvel environnement recherche dans les logiciels et librairies non installés jupyterlab et les libraries R listées plus bas dans la page. install1

Après cette opération vous pouvez retourner sous Home et à partir de votre nouvel environnement vous pouvez lancer Jupyterlab. Jupyterlab vous permet d’ouvrir le notebook et lancer bloc de code. Pour cela il vous faudra récupérer les données via le lien ci dessous et modifier dans le notebook le chemin d’accès aux données .

Les librairies à installer pour le TP sont :

  • gstat, maptools, rgdal, spatstat, classInt, RColorBrewer

Script et données

docs sont à récupérer ici : data

Le notebook vous permet de prendre connaissance des différentes étapes, de commencer à tester le code sur votre machine.

Nous reviendrons au cours du TP sur les différentes étapes.

Module Systèmes d'Information Géographique

TP#1 initiation aux SIG avec QGIS

les supports pour ce TP sont ici

Nous attendons à ce que vous conduisiez ce TP pas à pas et en autonomie. L’idée est qu’ensuite par 1/2 quart de promo en présentiel et distanciel nous revenions sur les points qui posent questions ou nécessitent une clarification.

Notebook TP UE4 Climat : de la donnée à l'adaptation

Notebooks des TPs de l’UE4

TP#1 EDA : Analyse Exploratoire des Données ici

Ce Notebook présente les travaux conduits dans les première séances qui ont visé entre autres à : 1) Récupérer les données Drias, 2) Lire les données Drias avec R, 3) Mettre en forme ces données, 4) Faire le calcul des moyennes annuelles et mensuelles, 5) Comparer ces données avec des données observées étant au pas de temps mensuel, 6) Evaluation des données Drias , calcul des statistiques (R2, RMSE, biais, régression linéaire).

TP Réserve Utile

Ce TP a été conduit avec QGIS. Les actions conduites ont permis de lire la carte de réserve utile (format raster Geotiff) à la résolution de 50m pour toute la Bourgogne. Une carte des points de grille Drias a été créée à partir des coordonnées récupérées lors du TP#1. La réserve utile a ensuite été calculé pour chaque point de grille. La carte a été enregistrée au format shapefile pour être ensuite récupérée sous R.

TP#2 Kc : Calcul du coefficient cultural ici

Récupération de Kc au pas de temps mensuel pour 4 occupations du sol. Interpolation de ces données mensuelles au pas de temps journalier. Pour cela 3 méthodes d’interpolation ont été appliquées. Cette démarche sera à appliquer sur les données de Kc de l’occupation du sol que vous avez choisi.

TP#3 ETP : Calcul de l’EvapoTranspiration Potentielle ici

Ce TP sera conduit au cours des séances du lundi 9 novembre et du mardi 10 novembre en distanciel. On cherchera à calculer pour chaque point de grille Drias et à partir des données climatiques simulées l’ETP. Nous utiliserons l’équation de Hargreaves basée sur les températures min et max, la latitude et le jour de l’année. Cette équation est implémentée dans une fonction.

  • Vous chercherez également à compléter les données en récupérant le Kc pour chaque jour et la réserve utile pour chaque point de grille.

  • A l’issu de ce TP toutes les données nécessaires pour le calcul du Bilan Hydrique seront disponibles dans le dataframe ‘mydrias’.

TP#4 BH : Calcul du Bilan Hydrique/jour/point de grille ici

Dernière étape qui vise à calculer le Bilan Hydrique à partir des données climatiques Drias, du Kc et de la réserve utile i.e. taille du réservoir. Une fois le calcul effectué vous explorerez les résultats en traçant le bilan hydrique et d’autres variables.

  • A partir de là vous aurez en main toutes les étapes pour (re)produire le calcul du bilan sur vos données Drias et de Kc qui dépendent de votre choix.

Il conviendra enfin de réfléchir à des indices synthétiques pertinent qui permettront 1) de synthétiser l’information sur le BH et 2) en utilisant ces indices calculés sur le période historique (1975-2005) et sur la période projetée (2070-2100) d’évaluer l’impact du CC sur ce bilan.

UE4 Climat TP#1 : de la donnée à l'adaptation

L’UE Climat s’articule autour de séquences assurées par des intervenant(e)s sur les thèmes indiqués dans le tableau ci-dessous. Ces séquences seront complétées par une mise en application qui suivra la progressivité de l’UE et illustrera les différents points abordés par les intervenant(e)s. Pour cela un applicatif centré sur «Impact du changement climatique sur la ressource en eau en Bourgogne Franche-Comté» servira de fil conducteur.

Thèmes Intervenants extérieurs heures  
Services et portails climatiques Agnès Tamburini, Météo-France 2  
Impacts hydriques et hydrologiques Eric Sauquet, IRSTEA 6  
Impacts sur les agro-écosystèmes Annabelle Larmure, AgroSup 3  
Regard et actions des CA face au CC Céline Buche, CA Région BFC 2  
       
Applicatif Intervenants heures  
Impacts CC sur la ressource en eau B. Bois, S. Zito et T. Castel 27  
       

En amont de l’applicatif il vows est demandé de réaliser les taches suivantes :

  1. vous inscrire sur le portal DRIAS de Météo-France afin de pouvoir récupérer lors de la première séance les données climatiques qui seront utilisées pour l’applicatif;
  2. récupérer des données environnementales sur les sites suivants :
    • IGN pour les limites administratives et le Modèle numérique de Terrain;
    • CLC pour les données d’occupation du sol Corine Land Cover;

La mise en oeuvre de l’applicatif mobilisera les outils logiciels SIG QGIS et de traitement de données et statistiques R. Pour ce dernier nous conseillons de l’utiliser via un environnement interactif de développement du type RStudio par exemple.

Les librairies R à installer pour le TP sont :

  • xts
  • spatstat
  • sp
  • lattice

L’archive .zip contenant les scripts, les données et la documentation peut être récupérée ici

pdf du diaporama

Climat-Sol

Quelques éléments sur le cours de climatologie du module Climat-Sol à Agrosup Dijon

Climat, variabilité et changement climatique

Points qui seront abordés :

Dynamique du climat large échelle

Variabilité climatique large échelle

Changement climatique

Climat, Agro-Climatologie, Impact sur le cycle de l’eau

Eléments du bilan radiatif

Cycle de l’eau régional

Impact du réchauffement climatique sur la ressource en eau

Pluie et Evapo-Transpiration

Les supports au format pdf peuvent être récupérés ici ou sur héliantice.

M2 SEME: SIG traitement de données spatiales

Analyse spatiale de données géographiques : Pollution au phosphore dans un bassin versant

Objectifs pédagogiques :

  • Savoir analyser des Données spatiales avec QGIS;
  • Construire une stratégie (i.e. démarche méthodologique) d’analyse spatiale;
  • Mettre en œuvre cette stratégie avec QGIS pour cartographier un risque de pollution diffuse d’origine agricole à l’échelle d’un bassin versant;
  • Acquérir les bases de la géostatistique pour évaluer la cohérence spatiale de données;
  • Développer un regard critique sur la qualité des données spatialisées, leurs intérêts et leur limites, en particulier dans le cadre d’analyses environnementales;
  • Exploiter la complémentarité QGIS/R;

La présentation de l’applicatif, le support du TP et les données sont à récupérer ici

Séance 1

  • Introduction à la problématique de pollution diffuse d’origine agricole sur le Bassin Versant étudié;
  • Travail collégial sur le modèle de risque de fuite en phosphore établit par le consortium qui a traité le cas;
  • Classification des niveaux de risque;
  • Construction collégiale de la stratégie pour produire une cartographie du risque;
  • Mise en oeuvre de la démarche d’analyse spatiale pour l’identification des niveaux de risque;

Séance 2

  • Poursuite de la mise en oeuvre
  • Traitement des données pour identifier les niveaux de risque;

Séance 3

  • Finalisation des traitements;
  • Production des résultats et de la carte du risque;

Nous reviendrons au cours du TP sur les différentes étapes.

M2 SEME: séries temporelles analyse avec R

Pour rappel :

  • avec R les # permettent de mettre des commentaires dans le code
  • Pour l'assignement dans un objet on peut utiliser <- ou =
  • Parmis les fonctions très utiles pour explorer les données : class, str, dim, head, tail

Les librairies à installer pour le TP sont :

  • trend
  • xts

Le script, les données et de la docs sont à récupérer ici : data

Le notebook vous permet de prendre connaissance des différentes étapes, de commencer à tester le code sur votre machine.

Nous reviendrons au cours du TP sur les différentes étapes.

R2D2C: R remise à niveau

Pour rappel :

  • avec R les # permettent de mettre des commentaires dans le code
  • Pour l'assignement dans un objet on peut utiliser <- ou =
  • Parmis les fonctions très utiles pour explorer les données : class, str, dim, head, tail

Les librairies à installer pour le TP sont :

  • gstat
  • maptools
  • rgdal
  • spatstat
  • classInt
  • RColorBrewer

Le script, les données et claques

docs sont à récupérer ici : data

Le notebook vous permet de prendre connaissance des différentes étapes, de commencer à tester le code sur votre machine.

Nous reviendrons au cours du TP sur les différentes étapes.

Support intervention Lionel Bargeot

Lien vers support

Les supports de l’intervention de Lionel Bargeot sont ici

---

---

Bienvenue

Bienvenue

Ce site s’adresse pour le moment aux élèves de la dominante R2D2C et du Master 2 SEME. Cela s’élargira au fur et à mesure aux autres publics auprès desquels j’interviens régulièrement. Ce site est en cours de construction et j’espère qu’il sera régulièrement alimenté par des notes de cours, des documents, des notebook et des données nécessaires pour la réalisation des TD et des TP qui accompagnent mes interventions sur les SIG et les sciences du climat. Il pourra également contenir le recension d’un article ou d’un ouvrage plus d’autres informations diverses et j’espère utiles. Vous trouverez également des informations concernant mes activités d’enseignement et de recherche.

---

---

UE4 Climat : de la donnée à l'adaptation

L’UE Climat s’articule autour de séquences assurées par des intervenant(e)s sur les thèmes indiqués dans le tableau ci-dessous. Ces séquences seront complétées par une mise en application qui suivra la progressivité de l’UE et illustrera les différents points abordés par les intervenant(e)s. Pour cela un applicatif centré sur «Impact du changement climatique sur la ressource en eau en Bourgogne Franche-Comté» servira de fil conducteur.

Thèmes Intervenants extérieurs heures  
Services et portails climatiques Agnès Tamburini, Météo-France 2  
Impacts hydriques et hydrologiques Eric Sauquet, IRSTEA 6  
Impacts sur les agro-écosystèmes Annabelle Larmure, AgroSup 3  
Regard et actions des CA face au CC Céline Buche, CA Région BFC 2  
       
Applicatif Intervenants heures  
Impacts CC sur la ressource en eau B. Bois, S. Zito et T. Castel 27  
       

En amont de l’applicatif il vows est demandé de réaliser les taches suivantes :

  1. vous inscrire sur le portal DRIAS de Météo-France afin de pouvoir récupérer lors de la première séance les données climatiques qui seront utilisées pour l’applicatif;
  2. récupérer des données environnementales sur les sites suivants :
    • IGN pour les limites administratives et le Modèle numérique de Terrain;
    • CLC pour les données d’occupation du sol Corine Land Cover;
    • RU attention ce lien est temporaire;

La mise en oeuvre de l’applicatif mobilisera les outils logiciels SIG QGIS et de traitement de données et statistiques R. Pour ce dernier nous conseillons de l’utiliser via un environnement interactif de développement du type RStudio par exemple.

L’ensemble des cours et des TD/TP se feront dans la salle 206 et/ou 210 site au ème étage de l’aile sud du bâtiment Sciences Gabriel sur le campus de l’UB.

Enfin nous vous demandons :

  1. la lecture du document suivant BH qui contextualise l’objectif de l’applicatif et qui présente les principes et les détails du modèle de bilan hydrique simplifié qui sera utilisé;
  2. récupération diaporama UE4.

UE4: R climate data practices

Comment récupérer et lire des données climatiques issues du site de service climatique Drias de Météo-France. Au préalable il faut ouvrir un compte (gratuit) pour accéder aux données librement. Les détails de l’utilisation seront vus en séance de TP.

Pour rappel :

  • avec R les # permettent de mettre des commentaires dans le code
  • Pour l'assignement dans un objet on peut utiliser <- ou =
  • Parmis les fonctions très utiles pour explorer les données : class, str, dim, head, tail
## file data from drias : 'tasmintasmaxrstr_metro_CNRM_Aladin_histo_QT_REF_19750101-20051231_1810161527930443.KEYu11UB3Ax3u02D2uxu0D0.zip'
## unzip produces the file : 'tasmintasmaxrstr_metro_CNRM_Aladin_histo_QT_REF_19750101-20051231.txt'
## skip value is estimate by counting header lines up to the data
mydrias <- read.csv("tasmintasmaxrstr_metro_CNRM_Aladin_histo_QT_REF_19750101-20051231.txt", header = FALSE, skip=53)
colnames(mydrias) <- c("date","idpt","lat","lon","alti","Tn","Tx","RR") 
## A adapter en fonction de l'ordre que vous avez précisé lors de l'extration des données sur le site Drias
head(mydrias)
A data.frame: 6 × 8
dateidptlatlonaltiTnTxRR
<chr><int><dbl><dbl><int><dbl><dbl><dbl>
101/01/1975937846.22183.94455302 0.2 7.33.58
201/02/1975937846.22183.94455302 6.4 7.50.00
301/03/1975937846.22183.94455302 0.5 8.30.00
401/04/1975937846.22183.94455302 1.6 3.81.00
501/05/1975937846.22183.94455302-0.3 1.50.13
601/06/1975937846.22183.94455302 0.8-0.60.51
hist(mydrias$Tn)

png

Pour la suite nous vous renvoyons sur le notebook