Sie sind auf Seite 1von 8

Études probabilistes de sûreté

par Jacques BRISBOIS


Assistant du Chef du Département d’Évaluation de Sûreté à l’Institut de Protection
et de Sûreté Nucléaire

1. Méthode d’évaluation de la fréquence de fusion du cœur


d’un réacteur nucléaire .......................................................................... B 3 831 - 3
1.1 Événements initiateurs................................................................................ — 3
1.2 Définition des séquences accidentelles. Arbres d’événements............... — 3
1.3 Fiabilité des systèmes ................................................................................. — 4
1.3.1 Données de fiabilité des composants. Défaillances
de mode commun .............................................................................. — 4
1.3.2 Fiabilité humaine ................................................................................ — 5
1.4 Méthode de quantification.......................................................................... — 6
1.5 Évaluation des incertitudes......................................................................... — 7
2. Conduite d’un projet ............................................................................... — 7
3. Applications des études probabilistes de sûreté............................ — 7
3.1 Résultats de l’étude probabiliste de sûreté des réacteurs nucléaires
du palier 900 MW......................................................................................... — 7
3.2 Amélioration du niveau de sûreté des installations existantes ............... — 8
3.3 Facteurs d’importance des équipements .................................................. — 8
3.4 Utilisation des études probabilistes pour les réacteurs futurs ................ — 8
Références bibliographiques ......................................................................... — 8

es installations nucléaires présentent des risques spécifiques dus aux rejets,


L en fonctionnement accidentel, de produits radioactifs dangereux dans l’envi-
ronnement. La prise en compte de ces risques, lors de leur conception, est faite
en s’appuyant sur le concept de défense en profondeur qui conduit à mettre en
œuvre une série de lignes de défense indépendantes, de telle façon que le rejet
de produits radioactifs ne puisse se produire que si l’on a une perte simultanée
de plusieurs d’entre elles. Les études probabilistes de sûreté visent à évaluer
la fréquence annuelle de destruction de ces barrières ainsi que les rejets de
produits radioactifs associés et leurs conséquences sur la population
environnante.
Bien que les premières études aient été effectuées en Grande-Bretagne dans
les années 60-70, le développement de cette technique a débuté avec l’étude
dirigée par le Professeur Rasmussen et publiée en 1975 [1]. Cette étude,
commandée par l’Atomic Energy Commission (AEC) américaine, visait à
comparer les risques encourus par la population du fait des réacteurs nucléaires
avec les risques industriels et naturels. En fait, il est apparu rapidement que les
domaines d’application de cette étude étaient beaucoup plus larges, car elle
permettait d’apprécier les composantes élémentaires du risque, et mettait donc
en évidence les points forts et les points faibles de la conception des réacteurs
8 - 1995

nucléaires étudiés.
Cette étude suscita à l’époque beaucoup de critiques, car elle remettait en cause
partiellement certaines méthodes déterministes de conception. Cela conduisit
la Nuclear Regulatory Commission (NRC) à demander au Professeur Lewis
d’effectuer une expertise de cette étude [2] qui conclut que la méthodologie
proposée était correcte, en estimant toutefois que les incertitudes étaient sous-
B 3 831

évaluées, mais qu’en tout état de cause ce type d’étude était susceptible d’appor-
ter des éléments importants d’appréciation de la sûreté.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Génie nucléaire B 3 831 −1
ÉTUDES PROBABILISTES DE SÛRETÉ _______________________________________________________________________________________________________

En fait, ce n’est qu’après l’accident de Three Mile Island, en 1979, que le dévelop-
pement de cette technique a pris un essor considérable.
En 1994, une étude probabiliste de sûreté a été effectuée ou est en cours pour
chaque centrale nucléaire de puissance dans le monde. Dans les étapes de ce
développement, il convient de citer l’étude publiée par la NRC en 1990, portant
sur l’évaluation des risques de cinq réacteurs américains et qui représente l’état
de l’art de cette technique [3].
En France, Électricité de France et l’Institut de Protection et de Sûreté Nucléaire
ont effectué respectivement les études probabilistes de sûreté pour les réacteurs
à eau sous pression d’une puissance électrique de 1 300 MW et de 900 MW [4]
[5]. Compte tenu de la standardisation des réacteurs français, ces études couvrent
en fait l’ensemble du parc nucléaire.
Bien que, dans leur principe, les études probabilistes de sûreté soient envisa-
geables pour toutes les installations nucléaires ou chimiques, le développement
de cette technique a porté essentiellement sur les réacteurs nucléaires, et plus
particulièrement sur les réacteurs à eau ordinaire. On peut noter que des études
de ce type ont été réalisées à l’étranger sur des réacteurs à haute température
et à neutrons rapides.
Pour les réacteurs nucléaires, le relâchement des produits radioactifs ne peut
se produire en quantités significatives que si l’on a, d’une part, une fusion du
combustible et, d’autre part, une défaillance de la barrière de confinement. C’est
pour cette raison que l’on distingue différents niveaux de l’étude :
— niveau 1 : fusion du cœur ;
— niveau 2 : relâchement des produits de fission ;
— niveau 3 : dommages sur le public (exprimés le plus souvent en termes de
probabilité annuelle de mort ou de cancer par individu vivant à
proximité de l’installation).
La présentation faite ci-après porte uniquement sur la méthodologie utilisable
pour l’étude de niveau 1 qui fait l’objet d’un consensus international, alors que
l’état de l’art des études de niveau 2 et 3 ne semble pas encore consolidé.
C’est aux États-Unis que le développement de cette technique est le plus
avancé, notamment en ce qui concerne l’étude des agressions externes (incendie
et séisme) ainsi que les études de niveau 2 et niveau 3. La NRC a en effet demandé
à tous les exploitants nucléaires de réaliser des évaluations de risque incluant
les agressions internes et externes pour leurs installations afin d’estimer leur
vulnérabilité vis-à-vis des accidents graves et de proposer éventuellement des
améliorations de conception et d’exploitation pour porter remède aux points
faibles mis en évidence.
Ces études sont pratiquement terminées à l’heure actuelle et font l’objet d’une
analyse par la NRC qui doit en tirer des conclusions génériques sur l’amélioration
éventuelle du niveau de sûreté des réacteurs en exploitation.
Dans les autres pays industrialisés ayant un programme nucléaire, le dévelop-
pement de ces études se déroule en suivant le développement américain. Il est
aujourd’hui reconnu que les réévaluations de sûreté des réacteurs nucléaires
effectuées périodiquement devront s’appuyer sur des évaluations probabilistes.
Pour ce qui concerne les réacteurs nucléaires de la prochaine génération, les
autorités de sûreté de tous les pays exigent maintenant qu’une étude de niveau
1 et quelquefois de niveau 2 ou 3 soit effectuée lors de la conception du réacteur
avant le début de la construction. Cette étude doit être actualisée pendant la phase
de réalisation et intégrée au rapport de sûreté.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
B 3 831 −2 © Techniques de l’Ingénieur, traité Génie nucléaire
______________________________________________________________________________________________________ ÉTUDES PROBABILISTES DE SÛRETÉ

1. Méthode d’évaluation Pour être complète, une étude probabiliste de sûreté doit intégrer
l’ensemble des connaissances issues des études de conception, des
de la fréquence de fusion règles générales d’exploitation, du retour d’expérience et des
analyses du comportement humain, en particulier sur les simula-
du cœur d’un réacteur teurs de situations accidentelles.

nucléaire
1.1 Événements initiateurs
Dans un réacteur nucléaire, trois fonctions de sûreté doivent être
maintenues en permanence pour garantir l’intégrité du combustible
nucléaire : Ce sont des événements qui entraînent une évolution de l’état du
réacteur nécessitant l’intervention manuelle ou automatique des
— la fonction réactivité du cœur, qui permet d’assurer le contrôle
systèmes de protection ou de sauvegarde.
de la puissance du réacteur ;
— la fonction inventaire en eau du circuit primaire, qui permet La liste des événements initiateurs est établie à partir de la liste
d’assurer le transport de la chaleur à l’eau du circuit de des accidents de dimensionnement, des études probabilistes simi-
refroidissement ; laires et du retour d’expérience. Bien qu’il ne soit pas possible d’en
— la fonction évacuation de la puissance résiduelle due aux prouver l’exhaustivité totale, l’utilisation de plusieurs méthodes
produits de fission, qui permet d’extraire la chaleur vers la source permet de recenser les événements les plus importants. Les événe-
froide. ments initiateurs sont regroupés par familles, chaque famille étant
un ensemble d’événements conduisant à un même arbre
À partir de la détermination des événements susceptibles de
d’événements.
perturber chacune des trois fonctions de sûreté, une liste d’accidents
de dimensionnement de l’installation est établie et des systèmes de Il est important de définir ces événements pour tous les états du
protection et de sauvegarde sont conçus pour maintenir ces fonc- réacteur rencontrés lors de l’exploitation, y compris les états à l’arrêt
tions et permettre de ramener le réacteur à l’arrêt sûr. pour lesquels les études montrent que le risque peut être significatif.
Les études probabilistes de sûreté visent à déterminer la fré- Une liste type d’événements initiateurs à considérer pour un réac-
quence de fusion du cœur due à la perte d’une de ces fonctions. teur à eau sous pression est donnée à la figure 2.
Il est important de définir précisément l’événement de fusion du La détermination de la fréquence des événements initiateurs
cœur, sachant qu’il existe plusieurs modes de dégradation envisa- repose en priorité sur l’analyse de l’expérience d’exploitation des
geables. Pour les réacteurs à eau, on définit en pratique, selon les réacteurs étudiés ou de réacteurs similaires. Pour les événements
séquences accidentelles, la fusion du cœur par les critères suivants : rares qui n’ont jamais été observés, tels que la rupture complète
— découvrement du cœur du réacteur sans moyen de renoyage ; du circuit primaire, on effectue généralement une estimation de la
— rupture de la cuve du réacteur ; fréquence à 50 % de confiance à partir du nombre d’années
— accident majeur de réactivité conduisant à une dispersion du cumulées de fonctionnement sans défaillance.
combustible.
L’événement dont on cherche à évaluer la probabilité est un événe-
ment rare pour lequel on ne dispose pas de statistiques expérimen- 1.2 Définition des séquences
tales. Le principe est alors de décomposer cet événement en accidentelles. Arbres d’événements
enchaînement d’événements de fréquence observable.
Les grandes étapes d’une étude probabiliste sont schématisées Afin de construire tous les scénarios pouvant conduire à la
sur la figure 1. Il faut noter que ces étapes sont fortement dépen- fusion du cœur, la méthode classiquement utilisée est celle des
dantes entre elles et que la démarche est essentiellement itérative. arbres d’événements.

Figure 1 – Démarche d’une étude probabiliste de sûreté de niveau 1


Figure 2 – Liste type d’événements initiateurs

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Génie nucléaire B 3 831 −3
ÉTUDES PROBABILISTES DE SÛRETÉ _______________________________________________________________________________________________________

Un arbre d’événements est un schéma logique permettant de La détermination des données de fiabilité doit se faire à partir de
définir les séquences accidentelles à partir d’un événement initia- l’analyse détaillée de l’expérience d’exploitation. Cela implique
teur, en considérant le succès ou l’échec des systèmes mis en qu’un système formalisé de recueil et d’analyse des pannes des
œuvre pour arrêter la progression de l’accident. La figure 3 donne composants soit mis en place sur les installations.
un exemple de construction d’arbre d’événements. La situation est particulièrement favorable en France, pour les
La construction des arbres prend en compte les dépendances réacteurs à eau ordinaire qui constituent un parc standardisé. Si cela
fonctionnelles entre les systèmes. De plus, compte tenu de l’impor- n’est pas possible (cas d’installation unique), il est nécessaire
tance des erreurs humaines dans la conduite accidentelle, il est d’utiliser des banques génériques de fiabilité dont il est difficile
recommandé de considérer le succès ou l’échec des interventions d’évaluer la représentativité pour l’installation étudiée. La figure 5
de l’opérateur, au même titre que ceux des systèmes. représente certaines données de fiabilité utilisées dans les études
Chaque branche de l’arbre, qui constitue une séquence acciden- probabilistes françaises pour les matériels électromécaniques.
telle, doit faire l’objet d’une étude thermohydraulique pour déter-
miner si elle conduit ou non à la fusion du cœur. Cette étude permet
de définir la nature précise de la mission de chaque système (délai
maximal de mise en service, configuration minimale nécessaire).

1.3 Fiabilité des systèmes


Pour chaque système impliqué dans les séquences accidentelles,
il est nécessaire d’effectuer une analyse détaillée de son fonction-
nement et de ses modes de défaillances.
Les méthodes utilisées sont les méthodes classiques de fiabilité
(cf. article Fiabilité [E 1 420] dans le traité Électronique), la modéli-
sation la plus courante étant celle par arbre de défaillance (figure 4a).
Un arbre de défaillance est un schéma logique permettant de relier,
par une méthode déductive, la défaillance du système aux événe-
ments élémentaires susceptibles de l’entraîner.
Pour les systèmes subissant un changement d’état pendant la
durée de leur mission, et notamment les systèmes réparables, on
utilise généralement une représentation par graphe de Markov
(figure 4b).

1.3.1 Données de fiabilité des composants.


Défaillances de mode commun

■ Les paramètres de fiabilité nécessaires à la quantification d’un


composant sont :
• γ taux de défaillance à la sollicitation ;
• λ taux de défaillance en fonctionnement ;
• µ taux moyen de réparation.

Figure 4 – Méthodes classiques de fiabilité :


Figure 3 – Arbre d’événements dans le cas d’une perte totale modélisation par arbre de défaillance ou graphe de Markov
d’eau alimentaire des générateurs de vapeur

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
B 3 831 −4 © Techniques de l’Ingénieur, traité Génie nucléaire
______________________________________________________________________________________________________ ÉTUDES PROBABILISTES DE SÛRETÉ

■ Il est important de prendre en compte les défaillances, désignées


par le terme défaillances de mode commun, qui sont des
défaillances pouvant affecter plusieurs composants redondants
pendant la durée de la mission du système, et qui ont pour origine
des erreurs de conception, de fabrication, de montage ou de main-
tenance.
Plusieurs approches ont été proposées, l’approche utilisée dans
les études françaises reposant sur la méthode du facteur β mise au
point par Atwood. La probabilité de défaillance de k composants
parmi n est égale à :
n
( γ ou λ ) ⋅ β k

n
β k peut être déterminé à partir de la connaissance par le retour
i
d’expérience et le jugement d’expert des valeurs β i avec i  n .
2 3 4
Les valeurs β 2 , β 3 , β 4 pour différents composants sont données
dans le tableau ci-contre. On constate que l’augmentation de la
redondance améliore peu la fiabilité du système. (0)

2 3 4
Composant 2 3 4
Capteur 0,05 (1,3) 0,02 0,01
Groupe électrogène Diesel 0,03 (3)
Pompes 0,05 (1,3) 0,02 0,01
Vannes électriques 0,06 (1,5) 0,02 0,01
Vannes pneumatiques 0,07 (1,5) 0,02 0,01
Valeurs entre parenthèses : facteur d’erreur à 90 % de confiance

1.3.2 Fiabilité humaine

Les interventions humaines présentent des caractéristiques qui


rendent impossible un traitement systématique et logique, comme
dans le cas des matériels. On peut noter, en effet, que les possibilités
d’intervention humaine sont très importantes, que le succès d’une
action dépend fortement du contexte (information, stress), que les
Figure 5 – Données de fiabilité
erreurs humaines sont souvent récupérables, qu’elles dépendent
pour les matériels électromécaniques actifs
beaucoup les unes des autres.
Pour tenir compte de ces aspects très particuliers, la démarche
doit s’effectuer en plusieurs étapes : Dans les études françaises, la quantification des erreurs préacci-
dentelles s’effectue par la formule suivante :
— identification des interventions humaines potentielles ;
— estimation de l’impact et sélection des interventions P = P B × P NR
significatives ;
— analyse détaillée ; avec PB probabilité de base estimée à 3 × 10–2 par intervention
— quantification ; à partir du retour d’expérience,
— intégration dans l’étude probabiliste de sûreté. P NR probabilité de non-récupération estimée en classant
D’une manière générale, la plus large part possible doit être faite les situations en quatre catégories en fonction des
au retour d’expérience pour identifier les erreurs potentielles, pour éléments favorisant la récupération : (0)
quantifier leur fréquence par une statistique directe, pour élaborer
des modèles permettant d’extrapoler l’expérience à d’autres Classe Éléments favorisant la récupération P NR
situations.
1 Alarme de catégorie 1 sur verrine (alarme de 10–3
Les principales sources d’informations sont les incidents réels, les première importance).
enquêtes ou interviews spécifiques et les observations recueillies
lors des essais sur simulateur en situation accidentelle. Modification importante de la valeur d’un para-
2 mètre relevé à chaque quart. 10–2
■ Interventions humaines préaccidentelles Requalification après intervention.
Condamnation administrative.
Cette catégorie est constituée par les interventions humaines au
cours d’opérations de maintenance, de test ou de conduite normale, Test périodique de fréquence 1 mois.
qui peuvent contribuer soit à l’indisponibilité d’un système, soit à Anomalie détectable par les vérifications
l’occurrence d’un événement initiateur. L’identification s’effectue lors prévues lors des changements d’état de l’instal- 10–1
3 lation.
de l’étude de la fiabilité d’un système.
Indicateur de position en salle de commande.
Alarme de catégories autres que 1.
4 Aucun des facteurs ci-dessus 1

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Génie nucléaire B 3 831 −5
ÉTUDES PROBABILISTES DE SÛRETÉ _______________________________________________________________________________________________________

■ Interventions humaines en situations accidentelles


Cette catégorie comprend, d’une part, les interventions du type
diagnostic et prise de décision et, d’autre part, la réalisation des
actions. Il convient de prendre en compte, de manière détaillée,
l’organisation des équipes de conduite et l’intervention des différents
acteurs.
C’est ainsi que, pour les centrales françaises, il est nécessaire de
séparer les actions de l’équipe de conduite des actions de l’ingénieur
de sûreté qui est appelé par l’équipe de conduite en cas d’accident
et qui peut effectuer un diagnostic indépendant de l’équipe.
● Rôle de l’équipe de conduite
L’activité de l’équipe de conduite peut être divisée en deux phases :
une phase de diagnostic et une phase de conduite.
— La phase de diagnostic inclut la détection de l’accident, le
diagnostic et la prise de décision (choix d’une consigne accidentelle).
L’ensemble de ces opérations a été quantifié en constituant des
courbes donnant la probabilité d’échec en fonction du temps dont
disposent les opérateurs pour intervenir. La figure 6 donne ces
courbes, établies à partir de 200 essais sur simulateur représentatifs Figure 6 – Modèle de diagnostic : courbes établies à partir de 200
de l’organisation de la conduite qui était en place en 1990. Pour des essais sur simulateur (organisation de conduite de 1990)
changements significatifs de l’organisation de la conduite ou des
procédures de conduite, il est nécessaire d’effectuer de nouveaux
essais sur simulateur représentatifs de la situation réelle. 1.4 Méthode de quantification
— La phase de conduite durant la situation accidentelle peut être
traduite par une liste d’actions clés. Il est nécessaire de quantifier Un arbre d’événements est constitué de séquences accidentelles
la probabilité d’échec de réalisation de ces actions. Dans les études issues d’un événement initiateur et représentant la défaillance de
françaises, on utilise la formule : certains systèmes de sûreté. Si ces événements sont indépendants,
la fréquence associée à chaque séquence est le produit des proba-
P = P B K j P NR
bilités de défaillance de systèmes par la fréquence de l’événement
avec PB probabilité de base estimée à 6 · 10 – 2 (essais initiateur. La fréquence de fusion du cœur associée à un événement
simulateurs), initiateur est alors la somme des fréquences associées à chacune
des séquences. Mais ces événements ne sont pas nécessairement
Kj facteur de contexte valant 1/3, 1 ou 3, selon que les indépendants : il peut exister des interactions entre eux. Celles-ci
circonstances sont favorables, moyennes ou sont de deux types :
défavorables,
— interactions fonctionnelles : les événements génériques cor-
P NR probabilité de non-récupération estimée à partir des respondant à la défaillance de systèmes sont généralement modé-
éléments favorisant la récupération : (0) lisés par des arbres de défaillance. Les événements de base
constituant ces arbres peuvent être communs à plusieurs d’entre eux
(tableaux électriques alimentant des composants de systèmes
P NR P NR différents, source froide refroidissant plusieurs systèmes) ;
Facteurs de récupération
delai < 30’ délai > 30’ — interactions temporelles : l’instant de démarrage d’un système,
Alarme et redondance explicite (1)....... 10–1 3 · 10–1 sa durée de fonctionnement, peuvent être fonction de la durée de
bon fonctionnement et de la durée d’indisponibilité d’un autre
Alarme..................................................... 3· 10–1 3 · 10–1 système, dans le cas de système redondant fonctionnant en normal
Redondance explicite (1) ....................... 3· 10–1 10–1 secours. De plus, il peut y avoir un délai entre la défaillance d’un
système et l’atteinte de la fusion du cœur, qui peut être mis à profit
Pas de facteur de récupération ............. 6 · 10–1 6 · 10–1
pour réparer le système défaillant. La non-prise en compte de défail-
(1) Redondance explicite : lorsque la consigne exige un contrôle de l’action lances temporelles peut conduire à des calculs exagérément
considérée par un second opérateur. conservatifs.
Aucune méthode connue à l’heure actuelle ne permet de prendre
● Rôle de l’ingénieur de sûreté en compte simultanément et rigoureusement les deux types
L’objectif est de prendre en compte les possibilités de récupération d’interaction dans l’évaluation probabiliste. Aussi utilise-t-on des
par l’ingénieur de sûreté qui établit un diagnostic indépendant de méthodes approchées dans des conditions validées, pour certains
l’équipe de conduite. Cela nécessite de quantifier la probabilité arbres d’événements. Deux grands types de méthodes sont en fait
d’absence de cet ingénieur (s’il n’est pas de quart), ainsi que la employés :
probabilité d’échec dans l’application des procédures ultimes mises — la méthode de traitement explicite des redondances fonction-
en œuvre dans ces situations dégradées. L’analyse des essais sur nelles (logiciels Lesseps) ;
simulateur a conduit à proposer des valeurs de probabilité d’échec — la méthode par fusion booléenne (codes Risk-Spectrum, Cafta,
relativement élevées (10–1 pour un délai > 30’, 3 × 10–1 pour un délai SETS).
< 30’), compte tenu des inévitables phénomènes de dépendance
entre l’équipe d’opérateurs et l’ingénieur de sûreté. ■ Logiciel Lesseps [6]
Il faut noter que la mise en œuvre des nouvelles procédures par Développé par Électricité de France, il permet de quantifier les
état, dites procédures APE, nécessitera ue requantification complète séquences accidentelles d’une étude probabiliste. En fait, il assure
de ces facteurs de récupération à l’aide d’essais sur simulateurs l’enchaînement des résultats de fiabilité des systèmes intervenant
adaptés. dans chaque séquence évaluée, soit à l’aide d’une modélisation par
arbre de défaillance (code Phamiss [7]), soit par graphe de Markov
(code MARK-SMP développé par la société Elf-Aquitaine, code GSI
développé par Électricité de France).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
B 3 831 −6 © Techniques de l’Ingénieur, traité Génie nucléaire
______________________________________________________________________________________________________ ÉTUDES PROBABILISTES DE SÛRETÉ

Les dépendances fonctionnelles sont traitées en isolant, dans ■ Il est important de fixer précisément, dès le lancement du projet,
l’arbre d’événements, les événements communs à plusieurs les spécifications détaillées de l’étude qui ont des conséquences
systèmes. La fiabilité de chaque système est calculée à partir de la sur le type de modélisation retenue. Il convient de définir :
recherche des coupes minimales (ensembles de composants dont — la nature des résultats de base recherchés ;
la défaillance conduit à la perte du système) à partir desquelles on — le besoin d’évaluer les incertitudes ;
exprime la fiabilité en fonction du temps par un polynôme ; cela — les utilisations envisagées, et en particulier les types d’études
permet de traiter les interactions temporelles entre systèmes telles de sensibilité aux données utilisées ;
que celles décrites précédemment. — le niveau d’informatisation ;
L’inconvénient majeur de cette méthode réside dans l’impossibilité — les possibilités de modification de la modélisation.
de déterminer les coupes minimales d’une séquence accidentelle
■ Il est important d’assurer une cohérence d’ensemble de l’étude, au
créée par la défaillance concomittante de plusieurs systèmes, infor-
niveau des hypothèses et des méthodes générales. Cela conduit à
mation qui peut s’avérer précieuse dans les utilisations des études.
mener en parallèle les analyses des différentes séquences acciden-
■ Méthodes par fusion booléenne [8] telles. La solution qui semble la mieux adaptée consiste à
Pour chaque séquence accidentelle, on réalise la fusion d’un décomposer le projet en phases distinctes.
certain nombre d’arbres de défaillance. La fusion est l’opération qui Dans la phase préliminaire, on modélise le fonctionnement de
consiste à mettre sous la même porte ET tous les événements de l’installation (arbres d’événements, arbres de défaillance) et on effec-
tête des arbres de défaillance de la séquence, et à restructurer un tue une préquantification qui permet notamment d’éliminer des
nouvel arbre dont on calcule ensuite les coupes minimales. Lorsque séquences de probabilité trop faible.
la séquence accidentelle implique le bon fonctionnement d’un À l’issue de cette phase, qui conduit à soulever des questions de
système, il convient de ne retenir, parmi les coupes minimales, que toute nature, on effectue dans une deuxième phase les études
celles qui sont compatibles avec cette situation. nécessaires pour y répondre (études thermohydrauliques, analyse
Cette méthode, qui traite convenablement les dépendances fonc- spécifique de l’expérience d’exploitation, essais sur simulateur, etc.).
tionnelles, ne permet de traiter les interactions temporelles qu’à Enfin, la quantification définitive est effectuée dans la phase finale.
l’aide d’approximations. Cela étant, l’avantage majeur réside dans
sa facilité d’utilisation, notamment sur micro-ordinateur, et sa capa- Il est important que l’étude soit complètement documentée, de
cité à effectuer des études paramétriques de sensibilité aux diffé- manière à conserver les approches qui ont été effectivement mises
rentes données du modèle. en œuvre pour résoudre les problèmes.
■ Compte tenu de la complexité d’un tel projet, il est indispensable
de mettre en place une procédure d’assurance qualité spécifique
au projet. On peut distinguer trois niveaux d’assurance qualité :
1.5 Évaluation des incertitudes — premier niveau : c’est l’équipe de projet qui diffuse des rapports
visés par le chef de projet ;
L’objectif est d’évaluer les incertitudes sur les résultats finaux, à — deuxième niveau : un comité technique est responsable des
partir des incertitudes affectant les données élémentaires. Il est très actions formalisées au titre de l’assurance qualité ;
difficile d’évaluer les incertitudes résultant de la modélisation de — troisième niveau : vérification du bon respect de la procédure.
fonctionnement des systèmes et du manque d’exhaustivité de la De plus, la pratique internationale conduit souvent à mettre en
démarche de détermination des événements initiateurs. Aussi, dans place un contrôle externe indépendant de l’entreprise, afin d’obtenir
la pratique, l’évaluation se fait en tenant compte uniquement des le meilleur consensus sur les hypothèses les plus importantes.
incertitudes sur les données de fiabilité, la fréquence des évene-
ments initiateurs et la fiabilité humaine.
Pour ce qui concerne les données résultant d’une statistique
d’événements observés, on utilise généralement la loi du χ2. 3. Applications des études
Pour ce qui concerne la fiabilité humaine, les incertitudes sont
évaluées par jugement d’expert.
probabilistes de sûreté
La propagation des incertitudes dans le calcul est généralement
effectuée par une méthode de Monte-Carlo, à partir d’un ensemble 3.1 Résultats de l’étude probabiliste
simplifié de séquences accidentelles ou de coupes minimales. de sûreté des réacteurs nucléaires
du palier 900 MW
À partir de la méthodologie décrite précédemment, deux études
2. Conduite d’un projet probabilistes de sûreté ont été réalisées en France et publiées en
1990 : l’une par l’Institut de Protection et de Sûreté Nucléaire sur les
réacteurs nucléaires du palier 900 MW, l’autre par Électricité de
Une étude probabiliste de sûreté d’un réacteur nucléaire est une France sur la tranche Paluel 3 du palier 1 300 MW.
étude lourde et complexe, nécessitant des moyens humains
Pour les réacteurs de 900 MW, les contributions de chaque famille
importants pendant plusieurs années. Elle doit donc être conduite
à la fréquence annuelle de fusion du cœur évaluée à 5 × 10–5/an sont
avec les méthodes de gestion d’un projet.
données ci-après. (0)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Génie nucléaire B 3 831 −7
ÉTUDES PROBABILISTES DE SÛRETÉ _______________________________________________________________________________________________________

Famille d’événements initiateurs Contribution 3.3 Facteurs d’importance


des familles des équipements
Petites brèches du circuit primaire .......................... 34,6 %
À partir de la modélisation de l’installation faite dans l’étude, il
Perte de la source froide ultime ............................... 19,1 %
est possible d’apprécier l’importance de chaque équipement ou de
Brèches de taille intermédiaire chaque action humaine.
du circuit primaire ..................................................... 10,5 % On peut définir plusieurs types de facteurs d’importance. Dans la
Transitoires primaires et secondaires pratique, deux d’entre eux sont utilisés :
(dont l’introduction d’eau non borée) ..................... 9,1 % — le facteur d’importance par diminution de risque :
Transitoires sans arrêt d’urgence ............................ 8,7 %
P1 – P2
Perte totale d’eau alimentaire F x = --------------------
des générateurs de vapeur....................................... 5,1 % P1

Rupture de tubes de générateur avec P 1 fréquence initiale de fusion du cœur,


de vapeur ................................................................... 4,7 % P 2 fréquence de fusion du cœur en supposant que la fiabilité
Grosse brèche du circuit primaire ........................... 4,7 % du composant x est de 1.
Rupture des tuyauteries secondaires ...................... 1,9 % Ce facteur permet d’apprécier les gains envisageables en cas
d’amélioration de la fiabilité des différents composants ;
Perte totale des alimentations électriques .............. 1,6 %
— le facteur d’importance par augmentation de risque :

Pour les réacteurs de 1 300 MW de conception plus récente, Élec- P3 – P1


G x = --------------------
tricité de France a évalué cette fréquence à 10–5/an. Les études P1
françaises ont mis en évidence, ce qui était nouveau, l’importance
des situations à l’arrêt dont la contribution à la fusion du cœur a avec P 3 fréquence de fusion du cœur, en supposant que la fiabilité
été évaluée à 1/3 pour les réacteurs de 900 MW et à la moitié pour du composant x est 0.
les réacteurs de 1 300 MW. Elles ont également mis en évidence les Ce facteur permet d’apprécier l’importance de l’indisponibilité de
risques potentiels liés aux possibilités d’accident de réactivité induits composants. En particulier, il est utile pour déterminer la conduite
par l’injection d’eau non borée dans le cœur du réacteur. à tenir en cas d’indisponibilité survenant lors de l’exploitation du
Il faut noter que ces résultats ont conduit l’exploitant à mettre en réacteur.
œuvre sans délai des modifications de conception visant à réduire
les risques mis ainsi en évidence, ce qui illustre l’intérêt de la réalisa-
tion de telles études. 3.4 Utilisation des études probabilistes
pour les réacteurs futurs
3.2 Amélioration du niveau de sûreté Il est apparu que les études probabilistes, utilisées essentiellement
des installations existantes pour améliorer le niveau de sûreté des réacteurs existants, pouvaient
également être mises en œuvre lors de la conception des nouveaux
réacteurs, surtout pour les projets qui dérivent des installations exis-
L’étude probabiliste de sûreté intègre, comme on l’a vu, l’ensemble tantes. Cela nécessite de définir une modélisation évolutive du réac-
des éléments ayant un rôle vis-à-vis de la prévention de la fusion teur qui est complétée au fur et à mesure de l’avancement de la
du cœur. L’analyse des résultats obtenus permet donc d’identifier conception. Les projets américains et le projet franco-allemand EPR
les points faibles de l’installation et de définir les améliorations ont décidé d’inclure ce type d’étude dans leur processus de
susceptibles de diminuer la fréquence calculée de fusion du cœur. conception.
C’est pour cette raison que ce type d’étude est l’outil indispensable Une telle approche permet alors de concevoir l’installation en
pour effectuer les réévaluations de la sûreté des installations exis- visant à respecter un objectif de fréquence de fusion du cœur. C’est
tantes et, dans la pratique, chaque réacteur nucléaire dans le monde ainsi que les concepteurs des réacteurs futurs se sont fixés un objectif
a fait ou fera l’objet d’une telle étude. de 10–6/réacteur/an, ce qui représente une diminution d’un facteur
10 par rapport aux réacteurs existants.
L’outil probabiliste, qui était originellement destiné à évaluer les
risques, devient donc maintenant un outil de conception qui devrait
permettre une meilleure optimisation des systèmes en éliminant les
points faibles de la conception.

Références bibliographiques

[1] USNRC. – Reactor safety study : an [4] Étude probabiliste de sûreté d’une tranche [7] TERPSTRA (K.), DEKKER (N.H.) et Van DRIEL
assessment of accident risks in US commer- du Centre de Production Nucléaire de Paluel (G.). – PHAMISS - A reliability computer
cial nuclear power plants. WASH 1400 1 300 MWe. Électricité de France, mai 1990. program for phased mission analysis and risk
(NUREG 75/014), oct. 1975. [5] Étude probabiliste de sûreté des réacteurs à analysis. ECN 83, Netherlands Energy
[2] LEWIS (H.W.) et al. – Risk assessment review eau sous pression de 900 MWe. IPSN/CEA, Research Fondation.
group report to the US Nuclear Regulatory avril 1990. [8] WORREL (R.B.) et STACK (D.W.). – A SETS
Commission. NUREG 0400, sept. 1978. [6] MOLINÉRO (J.). – Produit logiciel Lesseps : user’s manual for the fault tree analyst Sandia
[3] Severe accident risks : an assessment for five présentation générale. EPS, INFO 010 A, laboratories. NUREG/CR 0465.
US nuclear power plants. NUREG 1150. avril 1989.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
B 3 831 −8 © Techniques de l’Ingénieur, traité Génie nucléaire

Das könnte Ihnen auch gefallen