Principe de défaillance fonctionnelle et marges de sûreté probabilistes : Obstacles à leur application à l’évaluation des systèmes de mise à l’arrêt

Résumé d’exposé technique présenté à :
Congrès international de 2015 sur les progrès des centrales nucléaires (ICAPP 2015)
Nice, France
Du 3 au 6 mai 2015

Préparé par :
Dumitru Serghiuta et John Tholammakkil
Commission canadienne de sûreté nucléaire

Résumé

Le résultat des évaluations de sûreté est souvent un ensemble complexe d’exigences visant la conception et le fonctionnement d’un système. La conformité aux exigences est habituellement jugée comme garante de l’absence de « risque indu ». Toutefois, le terme « risque indu » demeure non quantifié dans les évaluations déterministes de sûreté. La présomption est que la satisfaction des exigences garantit une protection adéquate, c’est-à-dire que le risque (non quantifié) est suffisamment faible. L’évaluation probabiliste des risques (EPR) a traditionnellement été utilisée pour compléter l’évaluation déterministe en quantifiant le risque et pour déterminer ses principaux contributeurs. Cependant, alors que l’impact de la redondance a été modélisé et quantifié, les marges de sûreté ne sont pas prises en compte explicitement dans l’EPR. Il est donc difficile de juger de l’impact quantitatif de la variation des marges sur le risque que représente une centrale.

Un examen de la situation et des tendances actuelles indique que l’on approche de niveau 3 de fiabilité et que l’application du principe de « défaillance fonctionnelle » dans le domaine de la quantification des marges et de l’évaluation de l’impact de la variation des marges sur le risque gagnent en popularité et que l’industrie et les organismes de réglementation montrent de l’intérêt. Une défaillance fonctionnelle est définie comme l’incapacité d’un système à remplir sa mission en raison d’écarts par rapport à son comportement . Dans un cadre de fiabilité de la physique, une défaillance fonctionnelle survient chaque fois que la « charge » appliquée dépasse la « capacité » . Dans cette EPR, on a assigné la valeur 0 à la probabilité de défaillance fonctionnelle pour une séquence réussie et la valeur 1 pour les autres conditions, en fonction des résultats d’analyse ou de jugements d’ingénierie déterministes, afin de comparer les valeurs caractéristiques de charge et de capacité. Cependant, même en cas de réussite de la séquence, il demeure possible qu’une défaillance fonctionnelle se produise parce que la charge et la capacité sont caractérisées par des distributions ou des fonctions de densité de probabilité qui leur sont propres en raison de leurs incertitudes. À l’opposé, dans un processus d’endommagement du cœur, il est possible que la probabilité de défaillance fonctionnelle soit inférieure à l’unité.

Le recours à une démarche de fiabilité de niveau 3 et à la notion de probabilité de défaillance fonctionnelle pourrait servir de base pour définir des valeurs de marges de sûreté qui incluraient une limite pour la probabilité de défaillance fonctionnelle, ce qui serait conforme à la définition d’une conception basée sur la fiabilité, pour laquelle la probabilité de défaillance est inférieure à une valeur acceptable . Il peut également permettre une quantification du niveau de confiance, par modélisation et quantification des incertitudes explicites, et fournir un meilleur cadre pour la représentation de la conception réelle et l’optimisation des marges de conception dans un modèle intégré probabiliste-déterministe soumis à des contraintes fréquence/conséquence et à des exigences déterministes de défense en profondeur.

Lorsque le principe de probabilité de défaillance fonctionnelle est appliqué, l’effet des changements touchant l’efficacité d’un système de protection sur le niveau de sécurité, ou à l’inverse sur le risque, peut être quantifié par l’introduction de la défaillance fonctionnelle dans une procédure en fonction du risque ou une EPR complète. Dans un premier temps, et afin d’étudier comment une procédure pratique fonctionnerait dans une application, on a effectué une étude de faisabilité limitée avec une approche stochastique déterministe fondée sur la représentation des incertitudes par des probabilités subjectives afin d’établir des valeurs limites de probabilité de défaillance fonctionnelle et des marges de sûreté probabilistes pour un incident PERCARM postulé dans un réacteur CANDU.

Ce document traite de certains obstacles clés relevés pour la mise en pratique du principe de défaillance fonctionnelle à l’évaluation de marges de sûreté probabilistes. Une formulation tenant compte du risque est d’abord introduite en utilisant le modèle de type « fromage suisse ». Parmi les principaux obstacles s’opposant au calcul d’estimations réalistes des probabilités de dépassement de limites (réglementaires), on compte :

  • le degré de confiance prédictive des outils d’analyse – Lorsque des modèles validés sont appliqués au-delà de la portée des expériences de validation des limites, comment peut-on quantifier la confiance dans ces résultats? La plupart des codes informatiques actuels sont basés sur des modèles développés il y a 30 à 40 ans en suivant des objectifs différents. Ceux-ci peuvent ne pas convenir et satisfaire les exigences de la tentative actuelle de quantification de l’exactitude et de la précision, tandis que le développement de nouveaux modèles prend du temps. Il est nécessaire d’élaborer une mesure pour quantifier le compromis entre la fidélité aux données (exactitude quantifiée), la robustesse à l’incertitude et la confiance prédictive.
  • la dimensionnalité élevée de l’espace d’incertitude – Le nombre de paramètres à prendre en considération dans l’analyse de l’incertitude pourrait rendre les calculs intraitables. Mais, les procédures formelles actuelles de sélection des phénomènes et des paramètres clés peuvent ne pas convenir pour des applications complexes mettant en jeu des simulations multidisciplinaires au niveau des sous-systèmes et des systèmes.
  • la quantification des incertitudes et analyse de sensibilité – Il est nécessaire de formuler des lignes directrices pour l’élaboration d’un cadre adéquat qui comprenne ces deux éléments complémentaires.
  • la sélection de modèle statistique et d’algorithme – La possibilité de distributions à queues lourdes et le recours à l’inférence statistique et à l’interprétation de la probabilité de défaillance matérielle (fréquentiste) contre la probabilité de défaillance fonctionnelle (épistémique) nécessitent la justification du modèle statistique et de l’algorithme sélectionnés.

En conclusion, il est nécessaire d’effectuer d’autres recherches dans ce domaine et le recours à des méthodes déterministes–probabilistes pourrait constituer une étape intermédiaire raisonnable.

Pour obtenir une copie du document correspondant au résumé, veuillez communiquer avec nous par courriel à cnsc.info.ccsn@canada ou composer le 613-995-5894 ou le 1-800-668-5284 (au Canada). Veuillez fournir le titre et la date du résumé.

Dernière mise à jour :