Thèse soutenue

Quantification d'incertitude par réduction du modèle de dispersion atmosphérique appliquée à l'accident nucléaire de Fukushima

FR  |  
EN
Auteur / Autrice : Ngoc Bao Tran Le
Direction : Isabelle HerlinVivien MalletIrène Bourdin-Korsakissok
Type : Thèse de doctorat
Discipline(s) : Mathématiques appliquées
Date : Soutenance le 10/06/2021
Etablissement(s) : Sorbonne université
Ecole(s) doctorale(s) : École doctorale Sciences mathématiques de Paris centre (Paris ; 2000-....)
Partenaire(s) de recherche : Laboratoire : Institut de Radioprotection et de Sûreté Nucléaire (IRSN) (Fontenay-aux-Roses ; 2002-....)
Jury : Président / Présidente : Matthias Beekmann
Examinateurs / Examinatrices : Sylvie Thiria, Pierre Pinson
Rapporteurs / Rapporteuses : Bertrand Iooss, Céline Helbert

Résumé

FR  |  
EN

En cas d'accident nucléaire pouvant impliquer un rejet de radionucléides dans l'environnement, l'IRSN utilise des modèles de dispersion atmosphérique pour prédire les conséquences sanitaires et environnementales et préconiser des actions de protection de la population. En phase post-accidentelle (une fois les rejets effectués dans l'environnement), les simulations complètent les mesures de terrain pour l'évaluation des effets à court et à long terme sur l'environnement et la santé humaine. Les modèles de dispersion atmosphérique calculent, sur un domaine donné, les concentrations de radionucléides dans l'atmosphère, les quantités déposées au sol, ainsi que les débits de dose provenant du rayonnement gamma émis par les radionucléides présents dans l'air et au sol. Les prévisions issues de ces simulations sont entachées de grandes incertitudes, en raison de la connaissance limitée des données d'entrée (prévisions météorologiques et terme source), des paramètres physiques des modèles de dispersion (vitesses de dépôt, coefficients de diffusion, coefficients de lessivage, etc.) et des approximations numériques de ces modèles. Le but de cette thèse est de mettre en place des méthodes permettant d'attribuer des densités de probabilité (PDF -- probability density functions) aux erreurs inconnues sur les variables d'entrée et de calibrer ces PDF à l'aide d'observations de terrain. Ces méthodes ont été appliquées à la catastrophe nucléaire de Fukushima, en utilisant un modèle de dispersion opérationnel de l'IRSN et des mesures de radioactivité collectées pendant ou après la catastrophe. Dans les processus d'évaluation et d'étalonnage (calibration), nous avons utilisé des observations radiologiques de l'activité dans l'air, des dépôts et du débit de dose collectées au Japon. Les méthodes de calibration nécessitent un grand nombre d'appels au modèle, de sorte que le temps de calcul est beaucoup trop élevé pour pouvoir utiliser le modèle physique complet. Pour contourner ce problème, nous avons construit un métamodèle, c'est-à-dire une approximation mathématique du modèle physique, fondé sur l'émulation statistique. Nous avons utilisé deux méthodes d'interpolation: les RBF --- fonctions de base radiale --- et le krigeage (processus gaussiens). L'une des difficultés a été de représenter l'incertitude liée aux variables météorologiques. Ces variables sont de grande dimension (2D ou 4D variables en temps), et leurs incertitudes sont dépendantes de l'espace et du temps, et corrélées entre elles. Pour les représenter, nous avons utilisé un ensemble de 50 prévisions météorologiques fournies par le centre européen de prévision météorologique (CEP), construites pour échantillonner les variables météorologiques incertaines. Nous avons paramétré les champs météorologiques comme une combinaison linéaire convexe de l'ensemble des prévisions, ce qui a soulevé un certain nombre de difficultés dans la conception d'un plan d'expérience, dans la métamodélisation et dans le processus de calibration. De même, neuf termes source, représentant des séquences de rejets dans l'atmosphère compatibles avec les observations dans l'environnement lors de l'accident de Fukushima, et issus de la littérature, ont été combinés avec des poids aléatoires. Une étude comparative a montré que le temps de construction et d'exécution de RBF était assez faible, avec une émulation acceptable des résultats issus du modèle complet. Le krigeage, plus lent, a donné de meilleurs résultats et a permis en outre d'obtenir un écart type de l'erreur de prédiction. Cet écart type a été évalué par comparaison à un ensemble de résultats de simulations généré spécifiquement pour la vérification (et non utilisé pour la construction de l'émulateur). Les métamodèles ont ensuite été utilisés dans une procédure de calibration d'ensemble. Dans un premier temps, une optimisation déterministe a été réalisée. Le but était de trouver le meilleur ensemble de paramètres qui minimise [...]