Download as pdf or txt
Download as pdf or txt
You are on page 1of 167

Par Ayyoub IMAKHLAF

Application des diagrammes de décision binaires


pour l’analyse des arbres de défaillance cohérents et
non-cohérents en présence d’incertitudes

Thèse présentée
pour l’obtention du grade
de Docteur de l’UTC

Soutenue le 11 mars 2021


Spécialité : Technologies de l’Information et des Systèmes :
Unité de recherche Heudyasic (UMR-7253)
D2599
Application des diagrammes de décision
binaires pour l’analyse des arbres de
défaillance cohérents et non-cohérents en
présence d’incertitudes
Ayyoub IMAKHLAF

Spécialité : Technologies de l'Information et des Sytèmes

Pour obtenir le grade de docteur


Date de soutenance : 11/03/2021
Rapporteurs:
Eric CHATELET
Professeur des universités, Université de technologie de Troyes, Laboratoire de
Modélisation et Sûreté des Systèmes
Jérémie Guiochet
Maître de conférences (HDR), Université Paul Sabatier Toulouse 3, Laboratoire
d’Analyse et d’Architecture des Systèmes UMR CNRS 8001
Examinateurs:
Walter SCHÖN
Professeur des universités, Université de Technologie de Compiègne, Heuristique
et Diagnostic des Systèmes Complexes UMR CNRS 7253
Georges Oppenheim
Professeur des universités, Université Gustave Eiffel Paris-Est, Laboratoire
d’Analyse et de Mathématiques Appliquées UMR CNRS 8050
Julie BEUGIN
Chargée de recherche, Université Gustave Eiffel Paris-Est, Laboratoire Evaluation
des Systèmes de Transports Automatisés et de leur Sécurité
Sébastien DESTERCKE
Chargé de recherche CNRS - HDR, Université de Technologie de Compiègne,
Heuristique et Diagnostic des Systèmes Complexes UMR CNRS 7253
Directeur de thèse:
Mohamed SALLAK
Maître de conférences (HDR), Université de Technologie de Compiègne,
Heuristique et Diagnostic des Systèmes Complexes UMR CNRS 7253

Université de Technologie de Compiègne


Heudiasyc UMR CNRS 7253
Table des matières

Table des matières i

Liste de figures v

Liste de tableaux vii

Acronymes 1

Notations 3

Publications 5

1 Introduction Générale 7
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Problématique de la thèse . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Positionnement scientifique du problème . . . . . . . . . . . . . . 10
1.5 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Organisation du mémoire . . . . . . . . . . . . . . . . . . . . . . . 19

I Background et état de l’art 21

2 Probabilité d’occurrence d’évènements et facteurs d’importance 25


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Etat de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Arbre de Défaillance (AdD) . . . . . . . . . . . . . . . . . . 27
2.2.2 Diagramme de Décision Binaire (BDD) . . . . . . . . . . . . 30
2.2.3 Facteurs d’importance . . . . . . . . . . . . . . . . . . . . . 32
2.3 Algèbre booléenne . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Notions élémentaire de l’évaluation probabiliste des évènements in-
désirables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
ii Table des matières

2.4.1 Arbre de défaillance . . . . . . . . . . . . . . . . . . . . . . 38


2.4.2 Fonction de structure . . . . . . . . . . . . . . . . . . . . . . 39
2.4.3 Cohérence des arbres de défaillance . . . . . . . . . . . . . 40
2.4.4 Probabilité d’occurrence de l’évènement indésirable . . . . . 42
2.5 Diagrammes de Décision Binaire (BDD) . . . . . . . . . . . . . . . 44
2.5.1 Construction d’un Diagramme de Décision Binaire . . . . . 45
2.5.2 Diagramme de Décision Binaire Ordonné . . . . . . . . . . . 46
2.5.3 Diagramme de Décision Binaire Ordonné Réduit . . . . . . 47
2.5.4 Calcul de probabilité d’occurrence de l’évènement indésir-
able avec le Diagramme de Décision Binaire . . . . . . . . . 49
2.6 Facteurs d’importance . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.6.1 Facteur d’importance de Birnbaum . . . . . . . . . . . . . . 52
2.6.2 Facteurs d’importance pour les systèmes non-cohérents . . . 54
2.6.2.1 Facteur d’Andrews et Beeson . . . . . . . . . . . . 54
2.6.2.2 Facteur d’Aliee et al. . . . . . . . . . . . . . . . . . 56
2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3 Théories de l’incertain 59
3.1 Etat de l’art et positionnement . . . . . . . . . . . . . . . . . . . . . 59
3.2 Théorie des probabilités . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.1 Méthodes Monte Carlo . . . . . . . . . . . . . . . . . . . . . 62
3.3 Fonctions de croyance . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.1 Fonction de Masse . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.2 Fonction de Probabilité Inférieure . . . . . . . . . . . . . . . 64
3.3.3 Fonction de Probabilité Supérieure . . . . . . . . . . . . . . 65
3.3.4 Règle de Combinaison, Marginalisation et Extension . . . . 66
3.3.4.1 Règle de combinaison conjonctive . . . . . . . . . 66
3.3.4.2 Extension . . . . . . . . . . . . . . . . . . . . . . . 67
3.3.4.3 Marginalisation . . . . . . . . . . . . . . . . . . . 67
3.4 Théorie des fonctions de Croyance appliquée à l’estimation de la
probabilité d’occurrence d’un évènement indésirable . . . . . . . . 68
3.4.1 Données de base . . . . . . . . . . . . . . . . . . . . . . . . 68
3.4.1.1 Modélisation de la structure de l’AdD dans le cadre
de la théorie des fonctions de croyance . . . . . . 68
3.4.1.2 Estimation des probabilités d’occurrence des évène-
ments de base . . . . . . . . . . . . . . . . . . . . 69
3.4.2 Estimation de la probabilité d’occurrence de l’évènement in-
désirable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Table des matières iii

3.4.2.1 Méthode brute . . . . . . . . . . . . . . . . . . . . 73


3.4.2.2 Cas d’un arbre de défaillance cohérent . . . . . . . 78
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

II Contributions 81

4 Probabilité d’occurrence de l’évènement indésirable 87


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.2 Belief BDD Method . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.3 Imprecise BDD Method . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.3.1 Cohérence des évènements de base . . . . . . . . . . . . . . 100
4.3.2 Imprecise BDD Method . . . . . . . . . . . . . . . . . . . . 103
4.4 Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.4.1 Description de l’AdD étudié . . . . . . . . . . . . . . . . . . 110
4.4.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.4.2.1 Méthode exacte . . . . . . . . . . . . . . . . . . . 114
4.4.2.2 Méthode des Simulations de Monte Carlo . . . . . 115
4.4.2.3 Belief BDD Method . . . . . . . . . . . . . . . . . 120
4.4.2.4 Imprecise BDD Method . . . . . . . . . . . . . . . 120
4.4.3 Discussion et analyse des résultats . . . . . . . . . . . . . . 120
4.4.4 Analyse de sensibilité . . . . . . . . . . . . . . . . . . . . . 121
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

5 Facteurs d’importance 125


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
5.2 Extension du facteur de Birnbaum aux arbres de défaillance non-
cohérents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.3 Calcul du facteur d’importance en utilisant les diagrammes de déci-
sion binaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.3.1 Première méthode . . . . . . . . . . . . . . . . . . . . . . . 131
5.3.2 Deuxième méthode . . . . . . . . . . . . . . . . . . . . . . . 135
5.4 Facteurs d’importance imprécis pour les arbres de défaillance co-
hérents et non-cohérents . . . . . . . . . . . . . . . . . . . . . . . . 139
5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

6 Conclusions et Perspectives 145


6.1 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
iv Table des matières

Références 151
Liste de figures

2.1 AdD du système S . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39


2.2 Description de l’environnement [Contini et al., 2008] . . . . . . . . 41
2.3 AdD proposé dans [Contini et al., 2008] . . . . . . . . . . . . . . . . 42
2.4 Construction du BDD en utilisant le Théorème 3 . . . . . . . . . . . . 46
2.5 Première règle de réduction . . . . . . . . . . . . . . . . . . . . . . . 48
2.6 Deuxième règle de réduction . . . . . . . . . . . . . . . . . . . . . . 48
2.7 Deux BDDs de φ pour deux différents ordres de variables . . . . . . . 49
2.8 BDD de l’AdD donné par la Figure 2.3 . . . . . . . . . . . . . . . . . 51
2.9 AdD non-cohérent où on voit l’impact du consensus . . . . . . . . . 56
3.1 Méthode brute . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.2 AdD de l’Exemple 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3 BDD de l’AdD donné par la Figure 3.2 . . . . . . . . . . . . . . . . . 79
4.1 Les BDDs ΨΩT ({0}), ΨΩT ({1}) et ΨΩT (ΩT ) . . . . . . . . . . . . . . . 93
4.2 BDD ΨΩ1 ×Ω2 ×ΩT (Aconf ) . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.3 Les BDDs ΨΩ2 ×ΩT (A110 ), ΨΩ2 ×ΩT (A111 ) et ΨΩ2 ×ΩT (A112 ) . . . . . . . . . . 95
4.4 Les BDDs ΨΩT (A220 ), ΨΩT (A221 ) et ΨΩT (A222 ) . . . . . . . . . . . . . . . 95
4.5 Les BDDs ΨΩT (A230 ), ΨΩT (A231 ) et ΨΩT (A232 ) . . . . . . . . . . . . . . . 95
4.6 AdD de l’Exemple 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.7 Belief BDD Method appliquée sur l’AdD donné par la Figure 4.6 . . . . 99
4.8 BDD de l’AdD donné par la Figure 4.6 . . . . . . . . . . . . . . . . . 109
4.9 AdD de l’APCS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.10 Récapitulatif graphique des résultats obtenus . . . . . . . . . . . . . 120
5.1 Première règle pour la construction de φ(X/Xi =1 ) . . . . . . . . . . . 132
5.2 Deuxième règle pour la construction de φ(X/Xi =1 ) . . . . . . . . . . . 133
5.3 Première règle pour la construction de φ(X/Xi =0 ) . . . . . . . . . . . 133
5.4 Deuxième règle pour la construction de φ(X/Xi =0 ) . . . . . . . . . . . 134
5.5 BDD de l’AdD donné par la Figure 4.6 . . . . . . . . . . . . . . . . . 136
5.6 Calcul des facteurs d’importance des évènements de base de l’AdD
donné par la Figure 4.6 (Première Méthode) . . . . . . . . . . . . . . 137
5.7 Calcul des facteurs d’importance des évènements de base de l’AdD
donné par la Figure 4.6 (Deuxième Méthode) . . . . . . . . . . . . . 138
5.8 Calcul des facteurs d’importance des évènements de base de l’AdD
donné par la Figure 4.6 dans le cas imprécis . . . . . . . . . . . . . . 141
Liste de tableaux

2.1 Table de vérité du "ET" logique, le "OU" logique et le "XOR" logique . 34


2.2 Table de vérité du "NON" logique . . . . . . . . . . . . . . . . . . . . 35
2.3 Les trois portes fondamentales d’un AdD . . . . . . . . . . . . . . . . 38
2.4 Probabilité d’occurrence des évènements de base de l’AdD de l’Exemple
2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.5 Facteurs d’importance pour l’AdD de la Figure 2.1 . . . . . . . . . . 53
2.6 Table de vérité de l’AdD donné par la Figure 2.9 . . . . . . . . . . . . 57
2.7 Classement des évènements de base . . . . . . . . . . . . . . . . . . 57
2.8 Classement des évènements de base . . . . . . . . . . . . . . . . . . 57
3.1 Données de base de l’AdD donné dans la Figure 3.2 . . . . . . . . . 75
3.2 L’extension des fonctions de masse des évènements de base . . . . . 75
3.3 Les éléments focaux de la nouvelle fonction de masse obtenue après
1 ↑Ω1 ×Ω2 2 ↑Ω1 ×Ω2
combinaison de mΩ1 et de mΩ
2 . . . . . . . . . . . . . . . 76
3.4 Les éléments focaux de la nouvelle fonction de masse étendue à P(Ω1 ×
Ω2 × ΩT ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5 Les éléments focaux de la nouvelle fonction de masse obtenue après
combinaison avec mconf . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.6 Les éléments focaux de la nouvelle fonction de masse . . . . . . . . . 77
3.7 Les éléments focaux de la fonction de masse obtenue après la combi-
2 ↑Ω2 ×ΩT
naison de mt1 et de mΩ
2 . . . . . . . . . . . . . . . . . . . . . 78
4.1 Les éléments focaux de mt1 avant la marginalisation . . . . . . . . . 89
4.2 Les éléments focaux de mt1 . . . . . . . . . . . . . . . . . . . . . . . 89
4.3 Les éléments focaux de mtj+1 . . . . . . . . . . . . . . . . . . . . . . 90
4.4 Les BDDs obtenus par récurrence et les masses associées . . . . . . . 93
4.5 Données de base de l’AdD donné dans la Figure 3.2 . . . . . . . . . . 93
4.6 Les données de base de l’AdD donné dans la Figure 4.6 . . . . . . . 98
4.7 Les évènements de base de l’AdD donnés par la Figure 4.9 et leurs
probabilités d’occurrence telles qu’elles sont données dans [Zhang
and Mei, 1987] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.8 Les bornes des intervalles qui encadrent les probabilités d’occurrence
des évènements de base ainsi que leurs cohérences . . . . . . . . . . 114
4.9 Récapitulatif des résultats obtenus en appliquant la méthode exacte,
la méthode des simulations de Monte Carlo, Belief BDD Method et
Imprecise BDD Method . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.10 Récapitulatif des résultats obtenus en appliquant la méthode exacte,
Belief BDD Method et Imprecise BDD Method en ajoutant q à la borne
supérieure des intervalles qui encadrent les probabilités d’occurrence
de tous les évènements de base . . . . . . . . . . . . . . . . . . . . . 122
Acronymes

SdF Sûreté de fonctionnement


AdD Arbre de Défaillance
BDD Diagramme de Décision Binaire
EI Évènement Indésirable
FND Forme Normale Disjonctive
Notations

ET Évènement indésirable (EI)


XT Variable aléatoire booléenne qui donne l’état de l’EI :
XT = 0 si l’EI ne s’est pas produit, XT = 1 sinon
ΩT Univers de XT : ΩT = {0, 1}
Ei Évènement de base i
Xi Variable aléatoire booléenne qui donne l’état de Ei
Xi = 0 si Ei ne s’est pas produit, XT = 1 sinon
Ωi Univers de Xi : Ωi = {0, 1}
Xi Négation de Xi
∧ Porte logique "ET"
∨ Porte logique "OU"
⊕ Porte logique "XOR"
Θ = (Ω1 , . . . , Ωn ) Produit cartésien des Ωi
Θ/Ωj Produit cartésien des Ωi sauf Ωj
X = (X1 , . . . , Xn ) Multiplet des variables aléatoires booléennes Xi (i = 1 . . . n)
qui donne l’état de tous les évènements de base Ei (i = 1 . . . n)
X/Xi =1 Multiplet des variables aléatoires booléennes qui donne
l’état de tous les évènements de base sachant que Xi = 1
X/Xi =0 Multiplet des variables aléatoires booléennes qui donne
l’état de tous les évènements de base sachant que Xi = 0
X Θ/Ωi projection de X sur Θ/Ωi
φ Fonction de structure
pi Probabilité d’occurrence de Ei à un instant t
qi Probabilité de la non-occurrence de Ei à un instant t
P Probabilité d’occurrence de ET un instant t
P/Xi =1 Probabilité d’occurrence de ET sachant que Ei s’est produit
P/Xi =0 Probabilité d’occurrence de ET sachant que Ei ne s’est pas produit
P/Xi Probabilité d’occurrence de ET indépendamment de l’état de Ei
4

arc0 Arc discontinue


arc1 Arc continue
a = Γ(Xi , a0 , a1 ) Nœud a indexé par Xi sachant que a0 (respectivement a1 )
est le nœud pointé par arc0 (respectivement arc1 )
φ(X/Xi =0 ) Cofacteur négatif de Shannon
φ(X/Xi =1 ) Cofacteur positif de Shannon
Bi Facteur d’importance de Birnbaum de l’évènement de base Ei
AB
Bi Facteur d’importance d’Andrews et Beeson de l’évènement de base Ei
ΦABGT
i Indicateur de criticité de l’évènement de base Ei
ABGT
Ii Facteur d’importance d’Aliee de l’évènement de base Ei
P(Ω) Ensemble de tous les sous-ensembles de Ω
mi Fonction de masse de l’évènement Ei définie sur P(Ωi )
mT Fonction de masse de l’EI définie sur P(ΩT )
pi Probabilité inférieure de l’évènement de base Ei
pi Probabilité supérieure de l’évènement de base Ei
P Probabilité inférieure de l’EI
P Probabilité supérieure de l’EI
m1 ∩ 2 Résultat de la combinaison conjonctive entre m1 et m2
Ω1 ↑Ω1 ×Ω2
m1 Extension de m1 de P(Ω1 ) à P(Ω1 × Ω2 )
Ω1 ×Ω2 ↓Ω1
m1 Marginalisation de m1 de P(Ω1 × Ω2 ) à P(Ω1 )
mconf Fonction de masse qui modélise la structure de l’AdD
ConXi Conjonction où Xi apparaît
Xi
Con Conjonction où X i apparaît
Con(Xi ,X i ) Conjonction où ni Xi ni X i apparaissent
Publications

– Imakhlaf. A, and Sallak.M, An extended BDD method for the assessment of


system reliability under aleatory and epistemic uncertainties, ESREL, Pro-
ceeding of ESREL 2016, pp. 2751–2756, September 2016.

– Imakhlaf. A, Hou. Y,and Sallak.M, Evaluation of the reliability of non-coherent


systems using Binary Decision Diagrams, 20th IFAC World Congress, IFAC-
PapersOnLine, Volume 50, Issue 1, pp 12243–12248, july 2017.

– Imakhlaf. A, and Sallak.M, Une nouvelle approche pour l’analyse des arbres
de défaillance non-cohérents en présence d’incertitudes, 12éme congrès de
"QUALITA", Aout 2017.

– Imakhlaf. A, and Sallak.M, Birnbaum’s measure extension for non-coherent


systems based on BDD, 2018 Annual Reliability and Maintainability Sympo-
sium (RAMS),pp 1–7, janvier 2018.

– Imakhlaf. A, and Sallak.M, Birnbaum’s Importance measure extended for


non-coherent systems, International conférence on belief functions, pp 112–
120, September 2018.

– Sallak.M, Imakhlaf. A, and Hou. Y, chapter 6, Reliability Assessment un-


der Aleatory and Epistemic Uncertainty, Book "Advances in Mathematics
Research", Volume 24, ISBN: 978-1-53612-766-9, pp 125–174, 2017
Chapter 1

Introduction Générale

1.1 Introduction
Le développement continu de notre société est accompagné par l’augmentation
du nombre de situations dangereuses ainsi que les risques de défaillance des
systèmes. Par conséquent, les industries doivent éliminer, ou réduire tout au moins,
l’occurrence de toute situation qui peut amener à des pertes humaines ou qui
peut être nuisible à l’environnement ou à l’entreprise. C’est dans cette perspective-
là que les experts réalisent des études de sûreté de fonctionnement (SdF). Une
démarche méthodologique de l’étude de SdF peut être résumée par les points
suivants :

1. Définition du système.

2. Réalisation de l’analyse fonctionnelle externe.

3. Identification des événements redoutés et des situations dangereuses.

4. Réalisation de l’analyse fonctionnelle interne.

5. Détermination des modes de défaillance (AMDE).

6. Construction des arbres de défaillance (AdD).

7. Analyse des modes communs.

8. Quantification des AdDs.

9. Analyse de la criticité des évènements de base.

Indépendamment de la taille et du type d’un système et malgré les avancées


technologiques, sa défaillance est inévitable. Cela peut être le résultat d’une détéri-
oration naturelle de ses composants, d’une erreur humaine, d’un facteur environ-
nemental, d’un défaut de conception, etc. Autrement dit, on considère qu’une
défaillance du système peut être causée par la défaillance d’une combinaison de
8

ses composants, ou d’une manière plus générale par l’occurrence d’un ensemble
d’évènements de base. En pratique, on voudrait éviter la défaillance d’un système
pour différentes raisons : prévenir une situation dangereuse, satisfaire un niveau
de performance requis, maintenir un niveau de production, etc. Pour y arriver, on
doit étudier tous les évènements de base qui peuvent affecter le système ainsi que
la manière avec laquelle ils le font.
L’objectif de cette thèse est de s’attaquer aux deux derniers points de l’étude de
SdF. Dans le cas de la quantification des AdDs le but est de calculer la probabilité
d’occurrence de l’évènement indésirable représenté par l’AdD. Quant au dernier
point, il est traité dans les cas où la probabilité d’occurrence de l’évènement in-
désirable ne répond pas aux attentes requises. Dans ce cas, on cherchera à réduire
les probabilités d’occurrence des évènements de base pour pouvoir satisfaire fi-
nalement aux attentes requises.
En premier lieu, nous nous sommes posé la question suivante : "quelle est la
probabilité d’occurrence d’un évènement indésirable si les probabilités d’occurrence
de ses évènements de base sont imprécises ?" Autrement dit si ces probabilités
sont données sous forme d’intervalles. En tentant de répondre à cette question
nous nous sommes rendu compte que la difficulté provient de la structure de
l’AdD qui lie cet évènement indésirable à ses évènements de base. En effet, les
AdDs se décomposent en deux catégories : AdDs cohérents et AdDs non-cohérents.
Prendre en considération les AdDs non-cohérents dans le cas où les probabilités
d’occurrence des évènements de base sont imprécises crée un réel défi calculatoire
et répondre à ce défi fût la principale motivation de cette thèse.
D’un autre côté, les AdDs non-cohérents créent aussi un défi au niveau du
dernier point de l’étude de SdF : faire une analyse critique des évènements de
base. Concernant ce point, un travail de recherche est nécessaire, que ce soit dans
le cas où les probabilités d’occurrence des évènements de base sont imprécises
mais aussi dans le cas où elles sont précises. La contribution de cette thèse est de
proposer des méthodes pour pouvoir répondre à la première question qu’on s’est
posée, mais aussi de proposer des solutions pour calculer les facteurs d’importance
des évènements de base d’un AdD non-cohérent et ceci dans le cas : précis et
imprécis.

1.2 Contexte
Cette thèse a été réalisée au laboratoire HeuDiaSyC (HEUristique et DIAgnostic
des SYstèmes Complexes), une unité mixte de recherche entre l’Université de
Technologie de Compiègne et le CNRS. Elle a été financée dans le cadre du projet
1.3. PROBLÉMATIQUE DE LA THÈSE 9

Averroès qui coordonne l’opération de relais entre les bourses d’excellence du


Ministère de l’enseignement supérieur et de la recherche scientifique Algérien
et les laboratoires Français. Ce projet a pour finalité la formation de docteurs
algériens afin qu’ils puissent occuper des postes d’enseignement et de recherche
dans les universités algériennes.
Les travaux de cette thèse s’inscrivent dans le cadre des travaux menés depuis
une dizaine d’années par l’équipe SCOP du laboratoire Heudiasyc en SdF. Le
principe directeur de ces travaux de recherche est la gestion et la propagation des
différents types d’incertitudes dans les études de SdF et d’analyse de risques. En
particulier, SCOP se concentre sur les problèmes de représentation et de modélisa-
tions fonctionnelles et dysfonctionnelles des systèmes en présence d’incertitudes,
ainsi que la propagation et la quantification de l’incertitude relative aux données
de défaillance des composants de ces systèmes. Son objectif final est de con-
tribuer à l’utilisation des différentes théories des incertitudes (probabilités impré-
cises, fonctions de croyance, ensembles flous, etc.) dans le domaine de la SdF et
d’analyse de risques.

1.3 Problématique de la thèse


La méthode des AdDs est aujourd’hui l’une des méthodes les plus utilisées dans les
analyses de SdF des systèmes. Elle a pour objectif le recensement des causes en-
traînant l’apparition des évènements indésirables et de calculer leurs probabilités
d’occurrence. Elle constitue donc un moyen de représentation de la logique des
défaillances et d’identification des points faibles de la conception. Dans les études
quantitatives des AdDs, les probabilités définies pour les évènements de base, afin
de calculer la probabilité d’occurrence de l’évènement sommet de l’arbre, sont sou-
vent précises et considérées comme étant parfaitement déterminables. Néanmoins,
les problèmes réels sont difficilement appréhendés par une connaissance précise
des probabilités en jeu. Ce problème de précision dans la connaissance des valeurs
des probabilités est connu et traité de diverses manières. La modélisation des
probabilités par un intervalle est une forme simple et séduisante de l’imprécision.
D’un autre côté, la modélisation par des fonctions de masses représente aussi une
forme convaincante de représentation de l’imprécision bien que plus difficilement
appréhendée par les spécialistes que les probabilités sous forme d’intervalle. Dans
cette thèse, nous allons utiliser les deux représentations, nous rappelons, néan-
moins, qu’il existe une bijection entre les deux. Notons que de nombreux auteurs
ont reconnu le fait que les probabilités ne sont pas très bien adaptées à la modéli-
sation de la notion de méconnaissance et l’incertitude épistémique [Paté-Cornell,
10

1996]. Ils ont donc proposé des cadres mélangeant les théories des ensembles et
des probabilités, afin de pouvoir mieux gérer l’incertitude épistémique. La théorie
des fonctions de croyance, qui représente un cadre plus général que la théorie des
probabilités classique, est la théorie qui sera utilisée pour gérer les imprécisions
dans ce manuscrit.
Cette thèse aborde la problématique générale de la prise en compte des in-
certitudes relatives aux probabilités d’occurrence des évènements de base d’un
AdD qu’il soit cohérent ou non-cohérent. Notre première problématique concrète
consiste à adapter ces deux théories à l’utilisation des BDDs pour les études quanti-
tatives des AdDs. Cette problématique concerne aussi bien les AdDs cohérents que
non-cohérents.
D’un autre côté, lors de l’analyse quantitative d’un AdD, il est essentiel de
pouvoir identifier les évènements de base qui ont le plus d’impact sur l’occurrence
de l’évènement indésirable. En pratique, cette identification se fait au moyen des
facteurs d’importance, qui cherchent à mesurer l’effet de l’occurrence ou de la non-
occurrence d’un évènement de base sur l’occurrence de l’évènement indésirable.
Les facteurs d’importance d’un évènement de base cherchent donc à mesurer
l’amplitude de modification de la probabilité d’occurrence de l’évènement indésir-
able, conditionnellement à l’évènement de base étudié. Ce type d’étude est souvent
proposé dans le cas des AdDs cohérent, mais n’est pas assez évoqué dans le cas des
AdDs non-cohérents.
Dans le cas particulier où les probabilités d’occurrence des évènements de base
sont imprécises, les facteurs d’importance deviennent des intervalles plutôt que
des valeurs précises. Il devient essentiel de revoir la manière de les calculer dans
ce cas, que l’AdD soit cohérent ou non-cohérent.

1.4 Positionnement scientifique du problème


Pour situer dans quel cadre général se positionnent les travaux de la thèse, nous
nous sommes basés sur les hypothèses formulées par Cai pour définir un modèle
de fiabilité associé aux théories de l’incertain [Cai, 2012]. En effet, Cai a considéré
que dans le cadre des théories de l’incertain, il y avait quatre types de modèles de
fiabilité possible :

• PROBIST : modèle basé sur la théorie des probabilités et sur le fait que les
composants ont seulement deux états.

• PROFUST : modèle basé sur la théorie des probabilités et sur le fait que l’état
d’un composant peut être flou.
1.4. POSITIONNEMENT SCIENTIFIQUE DU PROBLÈME 11

• POSBIST : modèle basé sur la théorie des possibilités et sur le fait que les
composants ont seulement deux états.

• POSFUST : modèle basé sur la théorie des possibilités et sur le fait que l’état
d’un composant peut être flou.

Il est bien de noter que les modèles de Cai paraissent insuffisants du fait de
ne considérer que les théories des : probabilités classiques (précises), possibilités
et des ensembles flous, en omettant les travaux qui portent sur d’autres théories
de l’incertain comme la théorie des probabilités imprécises (au sens de Walley),
«rough set» théorie, la théorie des fonctions de croyance, etc. D’un autre côté, le
modèle de Cai ne distingue pas les systèmes binaires des systèmes multi-états dont
le traitement est totalement différent.
Par conséquent, nous définissons notre propre modèle IMPROBIST qui repose
sur les hypothèses fondamentales suivantes :

• Hypothèse I : Nous disposons des vraisemblances d’occurrences des évène-


ments de bases sous forme de masses de croyances ou de probabilités impré-
cises.

• Hypothèse II : L’évènement sommet ainsi que les évènements de base ne


peuvent avoir que deux états; l’état d’occurrence ou l’état de non-occurrence.

Hypothèse I : théories de l’incertain


En ce qui concerne la première hypothèse, nous allons étayer les arguments
qui nous ont incités à faire un tel choix. En effet, la théorie des probabilités
est aussi appelée théorie des probabilités précises car elle représente la proba-
bilité d’occurrence d’un évènement par une valeur précise. C’est la théorie la plus
utilisée dans le domaine de la SdF et c’est pour cela que nous allons détailler
ces inconvénients de notre point de vue. En effet, pour pouvoir modéliser un
phénomène par cette théorie il est nécessaire de disposer d’informations précises
et consistantes sur ce phénomène, ce qui se traduit par un grand échantillon de
données complètes. Or, ça arrive qu’on se retrouve dans différentes situations
où ces conditions ne sont pas vérifiées, on peut citer par exemple le cas des
évènements rares ou des évènements hypothétiques. Dans pareilles situations,
la solution adoptée est de supposer une distribution à priori pour l’évènement
étudié, mais cela crée davantage d’incertitudes par rapport à ce qu’on avait au
départ. Ce type d’incertitudes est appelés incertitudes épistémiques. Malgré, les
solutions proposées dans la littérature comme par exemple les modèles à priori
imprécis de Dirichlet, ce genre de proposition ne nous semble pas encore assez
12

mûre vu la complexité des calculs de distribution que cela induit. Un deuxième


argument est le fait de proposer une théorie qui distingue clairement les incerti-
tudes aléatoires des incertitudes épistémiques. Nous rappelons que les incertitudes
épistémiques sont des incertitudes qui découlent d’un manque d’information et qui
peuvent être réduites si on prend le temps d’étudier l’évènement modélisé. Alors
que dans la théorie des probabilités précises nous ne distinguons pas entre ce type
d’incertitudes et les incertitudes aléatoires. En fait, dans cette théorie on considère
que tout est aléatoire. L’une des conséquences directes de cette confusion est le fait
de modéliser l’ignorance totale et l’équiprobabilité de la même manière.
Pour pallier ces inconvénients, la théorie des probabilités imprécises a été intro-
duite principalement pour pouvoir distinguer entre les incertitudes épistémiques
et aléatoires. Dans le cadre de cette théorie, on se permet de représenter la prob-
abilité d’occurrence d’un évènement par une famille de distribution et non pas
par une seule. Par conséquent, on se retrouve finalement avec des intervalles de
probabilités au lieu d’une probabilité précise ce qui est à notre avis plus proche
des situations réelles qu’on puisse rencontrer. Naturellement, prendre en compte
des probabilités en forme d’intervalle au lieu d’une valeur précise complique les
choses que ce soit au niveau calculatoire ou théorique.
Une autre théorie est aussi utilisée pour pallier ces mêmes inconvénients, elle
est appelée la théorie des fonctions de croyance. Dans cette théorie, on essaie de
donner un degré de confiance à chaque sous-ensemble de l’univers de toutes les
possibilités pour l’évènement étudié. Dans le cadre de cette théorie le degré de
confiance affecté à un ensemble ne dépend pas du degré de confiance affecté à
ces singletons mais seulement à cet ensemble. Cela permet de quantifier notre
degré de confiance en un ensemble même si on ignore tout sur les singletons qui
le constituent. Il existe deux interprétations des fonctions de croyance : une in-
terprétation probabiliste et une interprétation non-probabiliste. Dans la première,
on s’intéresse à l’évaluation des bornes d’un intervalle, appelées probabilités in-
férieure et supérieure. En d’autres termes, on ne cherche plus la valeur de la
probabilité d’occurrence d’un évènement mais plutôt à trouver un intervalle qui
la contient, en cherchant à réduire sa longueur au maximum. La deuxième in-
terprétation consiste en la modélisation des croyances au travers d’une fonction
définie sur l’ensemble des sous-ensembles de l’univers des possibilités. Notons
qu’être dans l’une ou l’autre de ces interprétations n’est pas problématique car
on dispose de formules qui nous permettent de passer d’une interprétation à une
autre et vice-versa.
Notons qu’il existe plusieurs autres théories avec leurs propres avantages et
inconvénients. Mais, on s’est contenté ici de parler des limites de la théorie des
1.4. POSITIONNEMENT SCIENTIFIQUE DU PROBLÈME 13

probabilités précises tout en expliquant les raisons de notre choix de la théorie


des fonctions de croyance sans rentrer dans les détailles et les controverses des
autres théories. Nous rappelons que le but de ce travail n’est pas de confronter les
théories de l’incertain ou de les comparer.
En effet, nous avons opté pour la théorie des fonctions de croyance dans ce tra-
vail. Principalement, à cause de l’existence des deux interprétations : probabiliste
et non-probabiliste. La première étant plus intuitive, elle permet de représen-
ter d’une manière simple les incertitudes épistémiques et aléatoires. La seconde
est moins intuitive mais dispose d’un bagage théorique conséquent qui permet
de faire certaines prouesses qui n’étaient pas possibles avec les autres théories.
L’autre raison de ce choix est le fait de pouvoir passer d’une interprétation à une
autre simplement en appliquant des règles de transformation ce qui fait qu’on
puisse modéliser un phénomène facilement avec l’interprétation probabiliste et
puis de faire les calculs en changeant d’interprétation et puis de revenir vers
l’interprétation probabiliste une fois le calcul terminé pour présenter les résultats
dans un contexte plus abordable. Une autre raison qui a motivé notre choix est le
travail qui a été effectué par d’autres chercheurs dans le cadre de cette théorie pour
répondre à l’une des deux questions qu’on s’est posées dans ce travail. En effet, le
laboratoire HeuDiaSyC dispose de compétences solides dans l’utilisation de cette
théorie initiée par les travaux du professeurs Thierry Denœux dans le domaine de
l’intelligence artificielle [Denoeux, 1995]. Ensuite, plusieurs autres chercheurs du
laboratoire les ont utilisé dans la sûreté de fonctionnement [Qiu et al., 2014],
[Martinez et al., 2015], [Rangra et al., 2017]. Il est pertinent d’utiliser cette
théorie pour répondre à notre problématique et analyser ses avantages et ses
inconvénients dans ce cadre.
Hypothèse II : binaire vs multi-états
Une des principales étapes des études d’un système est le choix d’un modèle
d’état des composants et du système: binaire ou multi-état. Un choix binaire ne
permet de définir que deux états dans les performances système : composants/sys-
tème en état de fonctionnement ou Composant/systèmes en état de défaillance.
Le modèle binaire est adéquat pour étudier les conséquences d’une défaillance
du système, même s’il ne nous permet pas d’étudier les processus qui aboutissent
progressivement à une défaillance du système. Par contre, un choix multi-état ne
souffre pas de ce défaut mais le traitement est plus compliqué et ne peut être
adapté qu’en utilisant les chaines de Markov.
Nous avons choisi modèle binaire pour deux raisons :
• Nos contributions se veulent non seulement dédiées aux calculs de fiabilité
de systèmes mais aussi la quantification des événements indésirables en
14

général qui ne peuvent avoir par définition que deux états : occurrence ou
non-occurrence.

• Le choix de la méthode des arbres de défaillance impose le choix du modèle


binaire même si ces dernières années quelques travaux sont apparues pro-
posant le traitement des systèmes multi-états par le biais d’AdD associés à
des modèles Markoviens au niveau des événements de bases.

Arbre de Défaillance (AdD) Nous avons vu qu’il y avait plusieurs façons de


représenter un système dans le cadre de la sûreté de fonctionnement. Le plus
simple et le plus utile étant les représentations graphiques, nous avons décidé
d’étudier les arbres de défaillance car nous trouvons qu’ils permettent de bien
cerner les situations étudiées, mais surtout parce qu’ils sont très utilisés dans
l’étude de sécurité et de fiabilité des systèmes statiques (des systèmes où l’ordre
d’apparition des évènements de base n’ont pas d’impact sur l’occurrence de l’évènement
indésirable). Cela est dû principalement à la simplicité de leur construction, en
effet il est ainsi formé de niveaux successifs d’événements qui s’articulent par
l’intermédiaire de portes logiques. En adoptant cette représentation et la logique
déductive et booléenne qui lui est propre, il est possible de descendre de l’événement
indésirable à des événements de base, indépendants entre eux qui suivant une cer-
taine logique provoquent l’occurrence de l’évènement indésirable. L’un des avan-
tages de cette façon de représenter le système et cela est la motivation principale
de notre choix est le fait de pouvoir représenter un évènement et son complémen-
taire. Notons que pouvoir représenter de telles situations est très utiles surtout
dans les études de sécurité où les deux peuvent avoir un impact sur l’occurrence de
l’évènement indésirable. Notons aussi que pouvoir considérer un évènement et son
contraire est l’une des limites des travaux qui ont été effectué pour calculer la prob-
abilité d’occurrence d’un évènement indésirable en présence d’imprécision dans
les probabilités d’occurrence des évènements de base. Les arbres de défaillances
sont très répandus dans l’ingénierie de sûreté des industries à risques : aérospatial,
ferroviaire, nucléaire, naval, chimique etc. Ils peuvent être utilisés comme un outil
d’évaluation de la conception. Ils permettent d’identifier les scénarios conduisant
à des accidents dans les phases amont du cycle de vie d’un système et peuvent
éviter des changements de conception d’autant plus coûteux qu’ils sont tardifs.
Ils peuvent aussi être utilisés comme un outil de diagnostic, prévoyant la ou les
défaillances des composants la ou les plus probables lors de la défaillance d’un
système.
Arbre de Défaillance : analyse quantitative
En ce qui concerne la partie calculatoire, nous avons opté pour les diagrammes
1.4. POSITIONNEMENT SCIENTIFIQUE DU PROBLÈME 15

de décision binaire qui permettent de représenter symboliquement mais surtout


d’une manière compacte les fonctions booléennes. Ce qui fait que l’évaluation
probabiliste des AdDs devient un problème linéaire par rapport à la taille du
diagramme de décision binaire qui le représente. En plus, ils permettent de traiter
les AdDs cohérents et non cohérents avec la même complexité. On note qu’ils sont
répandus dans tous les domaines où les fonctions booléennes sont centrales et
cela est dû à leurs rapidités de calcul et à l’optimisation de stockage de données,
particulièrement le domaine de la sûreté de fonctionnement où ils sont le moteur
de plusieurs logiciels d’analyse. Cela permet, dans la littérature, de traiter de gros
arbres de défaillance complexes en un temps raisonnable. Un autre intérêt de
ces diagrammes est qu’ils permettent de faire différentes opérations booléennes
directement sur le graphe sans que la complexité deviennent exponentielle. Les
diagrammes de décision binaires ont aussi l’avantage d’être canoniques ce qui
permet de tester l’équivalence et la satisfiabilité. Notons que ces diagrammes sont
aussi bien utiles pour le calcul de la probabilité d’occurrence de l’évènement in-
désirable que le calcul des facteurs d’importance.
Facteurs d’importance
Il est souvent utile d’associer à chaque évènement de base d’un AdD un en-
semble de mesures permettant de rendre compte de l’importance qu’il occupe vis-
à-vis des mesures de la probabilité d’occurrence de l’évènement indésirable. Ces
mesures sont appelées facteurs d’importance. Quand on effectue une analyse quan-
titative d’un AdD, il est important de pouvoir répondre à la question suivante : à
quel évènement de base devrions-nous nous intéresser pour réduire la probabilité
d’occurrence de l’évènement indésirable. Les facteurs d’importance sont très im-
portants dans toute étude de sûreté de fonctionnement où on cherche à réduire la
probabilité d’occurrence d’un évènement indésirable que ce soit pour respecter des
normes imposées par des organismes gouvernementaux ou les exigences imposées
par une entreprise à son produit. Dans ce cadre-là, le facteur d’importance de
Birnbaum est le plus approprié pour identifier les évènements de base qui peuvent
réduire significativement la probabilité d’occurrence de l’évènement indésirable.
En plus, il est central à plusieurs autres facteurs d’importance utilisés dans la
littérature. Notons que le seul reproche que nous pouvons faire à ce facteur est
le fait de ne traiter que les arbres de défaillance cohérents. C’est pour cette raison,
nous avons traité ce problème dans cette thèse pour pouvoir les étendre aux arbres
de défaillance non-cohérents. D’un autre côté et pour rester dans le même esprit
de ce travail, nous avons aussi proposé quelques pistes pour traiter des facteurs
d’importance dans le cas où les probabilités d’occurrence des évènements de base
sont imprécises. En effet, prendre en compte la présence de l’imprécision dans les
16

probabilités d’occurrence des évènements de base rend le facteur d’importance de


Birnbaum inutilisable car il est défini seulement pour le cas précis. Or, la question
de réduire la probabilité d’occurrence de l’évènement indésirable demeure perti-
nente même dans le cas imprécis et elle nécessite de s’y attarder dans le but de
proposer une réponse satisfaisante à ladite question. C’est pour cette raison que
plusieurs facteurs d’importance imprécis on été introduits dans le cadre des autres
théories de l’incertain. Mais, nous avons noté l’absence de travaux dans le cadre
de la théorie des fonctions de croyance. Nous avons aussi remarqué que les BDDs
n’ont pas été utilisé dans ce contexte et cela malgré leurs avantages.
Conclusion
Dans nos travaux, nous n’avons pas cherché à proposer des algorithmes perfor-
mants pour calculer les résultats escomptés, ni à améliorer les temps d’exécution.
Nous avons plutôt proposé des solutions qui peuvent intégrer les algorithmes
de diagrammes de décision binaire déjà disponibles. Nous n’avons pas non plus
comme objectif d’opposer les théories de l’incertain dans le cadre de la sûreté de
fonctionnement. Nous avons conscience des différentes divergences d’opinions de
la communauté. Nous avons fait des choix relatifs à ce qui a été proposé dans la
littérature pour répondre à cette problématique, en étudiant particulièrement les
limites de ce que nous avons trouvé. Il était donc naturel de continuer ces travaux
dans le même cadre où ils ont été introduits par d’autres chercheurs.
Toutefois, cette recherche ne vise pas non plus uniquement à développer une
nouvelle méthode d’évaluation des AdDs en présence d’imprécision. En effet, l’originalité
de notre recherche tient en ce que nous mettons l’accent sur la facilité d’utiliser
notre méthode et son efficacité. Mais surtout sur le fait de pouvoir traiter des AdDs
non-cohérents.
Pour récapituler, dans nos travaux, nous nous intéressons aux AdDs où on
utilise des mesures de probabilités imprécises ou des fonctions de masse pour
modéliser les probabilités d’occurrence des évènements de base. En outre, et par
souci de simplification, ces évènements ne doivent avoir que deux états de fonc-
tionnement.

1.5 Contributions
Dans cette thèse, nous allons proposer cinq contributions originales :

1 Deux méthodes pour calculer la probabilité d’occurrence d’un évènement


indésirable donné par un AdD. Notons que l’AdD peut-être cohérent ou
non-cohérent et que les probabilités d’occurrence des évènements de base
1.5. CONTRIBUTIONS 17

peuvent être imprécises (sous forme d’intervalles).

2 Une méthode pour calculer la probabilité d’occurrence de l’évènement in-


désirable lorsque la structure logique de l’AdD qui le défini n’est pas parfaite-
ment connue.

3 Une réinterprétation de la définition de base d’un facteur d’importance défini


uniquement pour les AdDs cohérents. Cette réinterprétation nous permettra
d’étendre ce facteur pour traiter les AdDs non-cohérents.

4 Une méthode qui permet de calculer les facteurs d’importance dans le cas où
les probabilités d’occurrence des évènements de base sont imprécises.

5 Le traitement d’un AdD non-cohérent d’un système réel. Une étude d’efficacité
de nos méthodes a aussi été menée pour mettre la lumière sur les forces et
les faiblesses de chaque méthode proposée.

En premier lieu nous allons reprendre une méthode définie dans le cadre
de la théorie des fonctions de croyance. Cette méthode fait intervenir quelques
opérations de base de cette théorie : la combinaison d’information, l’extension et la
marginalisation. Le résultat final peut être écrit facilement sous forme d’intervalle.
Le souci avec cette méthode est le fait qu’elle soit très complexe (elle est de l’ordre
de 3n , n étant le nombre d’évènements de base de l’AdD traité). Ce qui fait qu’au-
delà de quelques évènements de base elle devient rapidement impraticable sous sa
forme actuelle. Le but de notre travail était de la rendre plus abordable d’un point
de vue calculatoire pour qu’on puisse l’utiliser sur des AdDs de tailles raisonnables
(plus de 30 évènements de base). C’est pour cette raison que nous avons eu l’idée
de la combiner avec les diagrammes de décision binaire (BDD), ce qui a donné
lieu à Belief BDD Method. Utiliser les BDDs nous a permis de réduire d’une manière
drastique le nombre et le type d’opérations utilisées : en utilisant les BDDs faire
une combinaison de l’information donne directement un résultat marginalisé sur
le bon ensemble, ce qui veut dire que la marginalisation n’est plus une étape dans
le calcul. On a même remarqué que la combinaison ne s’obtient plus après des
calculs fastidieux mais uniquement par deux extractions à partir du BDD et une
opération booléenne entre deux BDDs.
Même si Belief BDD Method est beaucoup moins complexe que la méthode
proposée dans la littérature, elle nécessite la génération de plusieurs BDDs avant
d’obtenir le résultat final. Nous avons alors travaillé sur une méthode alternative
pour réduire ce nombre à un seul graphe. Des méthodes basées sur les diagrammes
de décision ternaire ont été étudiées mais elles n’ont pas été traitées dans ce
18

manuscrit car le travail n’est pas encore assez mature pour être présenté, que ce
soit sur les fondements théoriques ou l’implémentation. Par ailleurs, nous avons
développé une méthode qui généralise la méthode qui a été définie uniquement
pour les AdDs cohérents. L’idée de base de cette deuxième méthode que nous
proposons est de chercher ce qui fait qu’un AdD soit non-cohérent ou pas. Nous
nous sommes alors concentrés sur le lien entre la cohérence de l’AdD et de ses
évènements de base et de ce point de vue, les évènements de base peuvent être
classés en trois catégories : évènements de base cohérents positifs, évènements
de base cohérents négatif et évènements de base non-cohérents. Cette classifica-
tion nous a permis de réduire la complexité du problème traité. La méthode que
nous proposons, appelée Imprecise BDD Method, est similaire, d’un point de vue
calculatoire, à une méthode qui permet de calculer la probabilité d’occurrence de
l’évènement indésirable dans le cas où les probabilités d’occurrence des évène-
ments de base sont toutes précises.
Un des avantages de Belief BDD Method est qu’elle permet de traiter le cas où
la structure de l’AdD n’est pas parfaitement connue. Cela permet de modéliser des
situations où on a un doute sur la structure proposée ou des situations où on hésite
entre deux structures logiques différentes.
Deux exemples d’AdDs non-cohérents tirés de la littérature seront étudiés pour
tester et analyser l’efficacité de nos méthodes tout en les comparant à d’autres
méthodes plus classiques qui traitent le même problème.
En second lieu, nous allons proposer une nouvelle interprétation de la notion
de facteur d’importance de Birnbaum grâce à laquelle nous pourrons utiliser la
compacité des BDDs pour pouvoir calculer d’une manière efficace les facteurs
d’importance des évènements de base d’un AdD non-cohérent. Cette réinterpré-
tation de la définition de base du facteur d’importance de Birnbaum découle
directement de la différence entre la structure d’un AdD cohérent et celle d’un AdD
non-cohérent. Cette différence se résume par le fait que dans un AdD cohérent
la non-occurrence d’un évènement de base et le fait que l’évènement de base
en question n’ait pas d’impact sur l’évènement indésirable sont modélisés de la
même manière. Cette confusion a un impact sur les AdDs non-cohérents où la non-
occurrence d’un évènement de base n’est pas la même chose que le fait qu’il n’ait
pas d’impact sur l’évènement indésirable. Nous allons proposer une réécriture du
facteur d’importance de Birnbaum qui permet de distinguer ces deux situations ce
qui nous permettra d’éviter la confusion créée et ainsi traiter les AdDs cohérents
et non-cohérents sans que la cohérence de l’AdD ait un impact sur le calcul.
Ensuite, pour prendre en considération les probabilités d’occurrence imprécises
des évènements de base, nous combinerons une méthode de calcul des facteurs
1.6. ORGANISATION DU MÉMOIRE 19

d’importance de Birnbaum avec une des méthodes développées pour calculer la


probabilité d’occurrence d’un évènement indésirable pour pouvoir calculer les
facteurs d’importance dans le cas imprécis.
La liste des publications durant cette thèse est donnée par :

– Imakhlaf. A, and Sallak.M, An extended BDD method for the assessment of


system reliability under aleatory and epistemic uncertainties, ESREL, Pro-
ceeding of ESREL 2016, pp. 2751–2756, September 2016.

– Imakhlaf. A, Hou. Y,and Sallak.M, Evaluation of the reliability of non-coherent


systems using Binary Decision Diagrams, 20th IFAC World Congress, IFAC-
PapersOnLine, Volume 50, Issue 1, pp 12243–12248, july 2017.

– Imakhlaf. A, and Sallak.M, Une nouvelle approche pour l’analyse des arbres
de défaillance non-cohérents en présence d’incertitudes, 12éme congrès de
"QUALITA", Aout 2017.

– Imakhlaf. A, and Sallak.M, Birnbaum’s measure extension for non-coherent


systems based on BDD, 2018 Annual Reliability and Maintainability Sympo-
sium (RAMS),pp 1–7, janvier 2018.

– Imakhlaf. A, and Sallak.M, Birnbaum’s Importance measure extended for


non-coherent systems, International conférence on belief functions, pp 112–
120, September 2018.

– Sallak.M, Imakhlaf. A, and Hou. Y, chapter 6, Reliability Assessment un-


der Aleatory and Epistemic Uncertainty, Book "Advances in Mathematics
Research", Volume 24, ISBN: 978-1-53612-766-9, pp 125–174, 2017

1.6 Organisation du mémoire


Ce mémoire de thèse est organisé en six chapitres, regroupés en deux parties,
visant à rappeler l’état de l’art et formaliser la problématique scientifique, à dévelop-
per les contributions énoncées en matière de modélisation et de calculs et à les
illustrer sur des cas numériques représentatifs des problématiques industriels.
L’état de l’art est présenté dans la première partie où on introduit les concepts
théoriques indispensables à la bonne compréhension des résultats proposés dans
cette thèse. La première partie est constituée de deux chapitres : Le deuxième
chapitre donne un petit récapitulatif des notions de la SdF qui seront utilisées
dans ce travail ainsi que le concept des BDDs. Le troisième chapitre quant à lui
20

présente la théorie des fonctions de croyance, théorie sur laquelle se basent tous
les résultats que nous avons développés.
Dans la deuxième partie nous présenterons les principaux résultats développés
dans cette thèse :
Nous retrouverons dans le chapitre 4 deux méthodes développées pour es-
timer la probabilité d’occurrence de l’évènement indésirable d’un AdD cohérent
ou non-cohérent, sachant que nous considérons que les probabilités d’occurrence
des évènements de base peuvent être imprécises.
Dans le chapitre 5 nous nous intéresserons à la dernière étape de la démarche
méthodologique de l’étude de SdF. Nous proposerons une nouvelle vision des
facteurs d’importance des AdDs cohérents qui nous permettra de les étendre aux
AdDs non-cohérents. Cette extension sera accompagnée par des méthodes basées
sur les BDDs pour calculer l’importance des évènements de base d’un AdD non-
cohérent dans les cas précis et imprécis.
Finalement, nous terminerons par nos conclusions ainsi que les perspectives de
ce travail.
Part I

Background et état de l’art


23

Dans cette partie nous présenterons les notions de base indispensables à la


bonne compréhension du travail effectué dans cette thèse. Elle se décompose en
deux chapitres :
Dans le premier chapitre, on commence par parler de l’état de l’art des AdDs,
des BDDs et des facteurs d’importance. On traitera plus en détail la notion d’arbre
de défaillance qui est une représentation graphique intuitive de la structure logique
qui lie les états des différents évènements de base à l’état de l’évènement in-
désirable (EI). On détaillera aussi le concept des diagrammes de décision binaire
qui permet d’évaluer la probabilité d’occurrence d’un EI représenté par un ar-
bre de défaillance. Finalement, le chapitre se termine par un rappel des facteurs
d’importance.
Dans le deuxième chapitre, nous allons introduire la théorie des fonctions
de croyance appliquée à l’analyse des AdDs. Nous présenterons quelques notions
générales de cette théorie : définitions, opérations etc. Ainsi que quelques méth-
odes d’estimation de la probabilité d’occurrence de l’évènement indésirable d’un
arbre de défaillance définies dans le cadre de cette théorie.
Chapter 2

Probabilité d’occurrence
d’évènements et facteurs
d’importance

2.1 Introduction
Selon la norme ISO 31000:2009 [ISO, 2009], le risque est défini comme " l’effet
de l’incertitude sur les objectifs ". Il est souvent caractérisé en référence à des
événements et des conséquences potentiels ou à une combinaison des deux. Il peut
être considéré aussi comme l’association des quatre facteurs suivants : un danger,
sa probabilité d’occurrence, sa gravité et son acceptabilité. Le danger étant un
événement redouté (pour lui-même et pour ses conséquences), le "risque" ne se
confond donc pas avec le danger, mais résulte de ce que ce danger a une certaine
probabilité de se manifester et entraînerait des conséquences d’une certaine grav-
ité. La criticité d’un risque résulte de la combinaison de son impact (ou sa gravité)
et de sa probabilité d’occurrence.
Le risque est un élément omniprésent dans les processus industriels. Des ac-
cidents tels que Fukushima au Japon (2011), l’incendie à la raffinerie d’Amuay
au Venezuela (2012), le déraillement d’un train au Québec (2013), ou le crash
du vol 5017 d’Air Algérie (2014), peuvent aboutir à des pertes massives de vies
humaines ainsi que des retombés inadmissibles sur l’écologie. Notre société, étant
très industrialisée, nous impose la réduction, autant que possible, des risques.
C’est pour cette raison que l’analyse de risque est devenue une partie intégrale
et indissociable à prendre en compte dans le fonctionnement plusieurs industries.
L’analyse des risques est devenue un souci majeur durant la Seconde Guerre
mondiale, quand en Allemagne on développait les projets de missiles V1 [Bazovsky,
2004]. À partir de là, différentes techniques ont été développées dans le but
de réduire les risques qui proviennent de certaines industries comme l’industrie
nucléaire, les transports, l’industrie militaire, etc. Parmi ces techniques on peut
26 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

citer l’analyse préliminaire des dangers, la méthode du diagramme de succès, la


méthode du diagramme causes-conséquences, la méthode des arbres de défail-
lance, la méthode de l’espace des états, etc.
Dans cette thèse nous nous intéressons à la méthode des arbres de défaillance
où on cherchera à identifier un ensemble d’évènements indésirables (EI) dont
l’apparition est incertaine. Ces évènements peuvent avoir comme conséquence la
défaillance d’un système, un impact environnemental inacceptable, une perte de
vies humaines, un surcoût inenvisageable, etc. Le risque alors représentera la com-
binaison entre un EI, sa probabilité d’occurrence et la gravité de ses conséquences.
L’état d’un EI dépend de l’état d’un ensemble d’évènements de base, suivant
une structure logique bien définie. Un évènement de base est un évènement an-
odin s’il est pris indépendamment du reste, mais qui provoquera l’occurrence de
l’EI s’il se produit en même temps que d’autres évènements de base. La structure
logique dont on parle représentera le lien entre l’état de l’ensemble des évène-
ments de base et l’occurrence de l’EI : c’est ce qu’on appelle un arbre de défaillance.
Notons que chacun des évènements de base peut être considéré lui-même comme
un évènement qui dépend d’un autre ensemble d’évènements de base; il sera alors
appelé évènement intermédiaire.
De tels évènements font partie de notre vie quotidienne. Cela peut aller de
l’explosion de la batterie d’un simple jouet à un accident dans une centrale nu-
cléaire. Sachant que ces évènements restent probables et vu notre incapacité à
éliminer les incertitudes sur leurs occurrences, on ne pourra donc jamais connaître
avec certitude l’état de l’EI dans le futur. C’est pour cette raison qu’on cherchera
à calculer la probabilité d’occurrence de l’EI dans le but de la réduire à un seuil
acceptable imposé par des normes.
Pour y arriver il faudra étudier, d’un côté, l’effet des états des évènements de
base sur l’état de l’EI. D’un autre côté, il faudra estimer les probabilités d’occurrence
des différents états de ces évènements de base pour pouvoir les propager afin de
calculer la probabilité d’occurrence de l’EI.
On voit bien que deux types d’analyses se distinguent quand on s’attaque à ce
genre de problématique :

• L’analyse qualitative dans laquelle on détermine d’une part l’ensemble d’évènements


de base qui ont un effet sur l’état de l’EI, et de l’autre, la structure logique
qui lie les différents états des évènements de base à l’état de l’EI. Cette partie
est souvent donnée sous la forme d’une représentation graphique.

• L’analyse quantitative doit être faite une fois l’analyse qualitative terminée.
Cette analyse consiste, d’un côté, en l’estimation des probabilités d’occurrence
2.2. ETAT DE L’ART 27

des différents états des évènements de base. D’un autre côté et une fois que
les probabilités de base auraient été bien définies, les probabilités d’occurrence
des différents états du système vont être calculées.

Une fois la probabilité d’occurrence d’un EI calculée, un travail peut être fait
dans le cas où on a des exigences à satisfaire comme par exemple une borne
supérieure à ne pas dépasser pour la probabilité d’occurrence dudit évènement.
Dans ce cas-là, un travail doit être fait pour identifier les évènements de base
les plus pertinents et qui contribuent le plus à l’occurrence de l’EI pour pouvoir
réduire la probabilité d’occurrence de l’EI.
Dans la suite de ce chapitre, nous allons présenter la notion d’arbres de dé-
faillance (AdD) qui est une représentation graphique intuitive de la structure
logique qui lie les états des différents évènements de base à l’état de l’EI. Ensuite
nous allons rappeler une des méthodes d’évaluation probabiliste d’un AdD. Cette
méthode étant limité dans certains cas, nous allons introduire le concept des
diagrammes de décision binaire (BDD) qui permet de mieux évaluer la probabilité
d’occurrence d’un EI en transformant l’AdD. En dernier lieu, nous allons présenter
des facteurs d’importance qui permettent d’ordonner les évènements de base par
rapport à leurs contributions à l’occurrence de l’EI dans le but d’identifier les
évènements de base les plus critiques.

2.2 Etat de l’art

2.2.1 Arbre de Défaillance (AdD)


L’analyse des AdDs est une méthode très utilisée pour analyser les risques liés
aux problématiques de la sécurité. Les méthodes d’analyse des AdDs comprennent
une grande variété de techniques de modélisation et d’analyse, supportées par un
large éventail d’outils logiciels. Dans cette thèse on s’intéresse uniquement aux
AdDs standards (appelés aussi AdDs statiques). Néanmoins, il existe aussi d’autres
types d’AdD tels que :

• Les AdDs dynamiques qui modélisent les défaillances en incluant l’aspect


temporel, ce qui permet de modéliser des systèmes dont la défaillance ne
dépend pas uniquement d’une configuration d’évènements de base mais aussi
de l’ordre d’apparition de ces évènements de base [Dugan et al., 1990].

• Les AdDs où l’indépendance des évènements de base n’est pas vérifiée comme
les évènements de base qui ont des causes communes ou les évènements de
28 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

base dont l’occurrence est influencée par l’état d’un ou de plusieurs autres
évènements de base ([Buchacker et al., 1999], [Twigg et al., 2000], [Vaurio,
2002]).

• Les AdDs réparables qui sont considérés comme étant un moyen d’analyser
les stratégies de réparation des systèmes après une panne. Ce qui permet de
modéliser des systèmes réels tout en proposant les meilleures stratégies de
réparation, mais l’inconvénient de ce type d’arbres est qu’ils ne permettent
pas de faire des analyses quantitatives en utilisant des méthodes combina-
toires [Bobbio and Raiteri, 2004].

Différents types d’analyses peuvent être effectuées sur un AdD :

• L’analyse qualitative où on cherche à énumérer les coupes minimales ou les


chemins minimaux. Cette analyse englobe aussi l’identification des causes
communes de défaillance.

• L’analyse quantitative discrète où on cherche à calculer la probabilité d’occurrence


de l’EI donné par l’AdD à partir des probabilités d’occurrence des évènements
de base sans considérer leurs évolutions dans le temps. On fixe un instant t
et on estime la probabilité d’occurrence de tous les évènements de base à
cet instant pour pouvoir calculer la probabilité d’occurrence de l’EI au même
instant t.

• Contrairement à l’analyse quantitative discrète, dans une analyse quantita-


tive continue on cherche une mesure de probabilité qui donne la probabilité
à un instant t quelconque.

• Le calcul des facteurs d’importance qui permettent de classer les évènements


de base par rapport à leurs contributions à l’occurrence de l’évènement EI.
On peut aussi chercher à voir l’importance des coupes minimales ou d’une
manière générale d’un groupe d’évènements de base. Il existe d’autres types
de facteur d’importance relatif aux coûts de réparation par exemple.

Dans la suite nous nous sommes concentrés uniquement sur l’état de l’art des
facteurs d’importance et l’analyse quantitative discrète des AdDs standards que
nous appellerons simplement AdD dans tout ce qui va suivre.
Les AdDs se décomposent aussi en deux catégories : les AdDs cohérents et les
AdDs non-cohérents. Dans les AdDs cohérents, on n’utilise que des portes "ET" et
"OU" (et éventuellement d’autres portes comme "k/n" mais elles s’écrivent toutes
avec une combinaison de "ET" et "OU"). Cela veut dire qu’on suppose à priori qu’il
2.2. ETAT DE L’ART 29

n’existe aucune configuration où la non-occurrence d’un évènement de base Ei ne


soit indispensable pour avoir l’occurrence de l’EI. Or, avec des systèmes de plus
en plus complexes, on est parfois amené à prendre en considération l’apport que
peut avoir la non-occurrence d’un évènement sur l’EI et donc on sera amené à
introduire la porte "NON" dans un AdD. Par conséquent, l’utilisation d’une telle
porte peut faire perdre à l’AdD sa monotonie et le rendre non-cohérent. Fussell
[Fussell, 1974] a donné un AdD non-cohérent où on trouve deux évènements
mutuellement exclusifs qui proviennent de la présence de deux circuits électriques
reliés par un commutateur. Quelques années plus tard, Lapp et Powers avaient
étudié un AdD non-cohérent d’un processus de refroidissement d’acide nitrique
avant de le faire réagir avec du benzène pour former du nitrobenzène [Lapp
and Powers, 1977]. Au début des années 80, Amendola et al. avaient modélisé
une procédure de maintenance au moyen d’un AdD non-cohérent [Amendola
et al., 1980]. L’exemple abordé dans leur papier détermine l’indisponibilité d’un
système de sécurité redondant en considérant une procédure de maintenance. Cet
exemple a montré que l’utilisation d’une porte "NON" facilite la modélisation et la
quantification. On retrouve aussi un cas d’étude réel d’un système avec un AdD
non-cohérent qui représente la défaillance d’un système de contrôle de puissance
automatique d’un réacteur nucléaire expérimental [Zhang and Mei, 1987], où ils
ont calculé la probabilité d’occurrence de l’EI. Nous avons également quelques
AdDs non-cohérents parmi les AdDs du projet Aralia [Rauzy, 1995]. En l’an 2000,
Andrews a démontré que dans certains cas on est obligé d’utiliser la porte "NON",
ce qui fait que le traitement des AdDs non-cohérents devient pertinent et indis-
pensable [Andrews, 2000]. Dans [Contini et al., 2008], les auteurs ont étudié
l’utilisation des AdDs non-cohérents dans une application liée à la sécurité. Ils ont
aussi énuméré plusieurs exemples d’AdDs non-cohérents présents dans la littéra-
ture.
En pratique, il n’y a aucune différence entre un AdD cohérent et un AdD non-
cohérent quand il s’agit de calculer la probabilité d’occurrence de l’EI dans le
cas où les probabilités d’occurrence des évènements de base sont précises. Par
conséquent, il est nécessaire de connaitre les probabilités d’occurrence de tous
les évènements de base pour pouvoir calculer celle de l’EI. Cependant, il est sou-
vent difficile de les estimer d’une manière précise. Cela arrive dans des situations
où on ne dispose pas d’assez d’information pour faire une inférence statistique
([Jackson et al., 1982], [Aven, 2008]). Par conséquent, en l’absence de données
précises, il peut être nécessaire de travailler avec des estimations approximatives
des probabilités d’occurrence. Toutefois, pour incorporer l’imprécision dans les
valeurs estimées on les traite comme des variables aléatoires avec des distributions
30 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

de probabilités connues [Commission, 1975].


Dans l’analyse d’incertitude classique, les estimations ponctuelles des événe-
ments primaires sont remplacées par des distributions de probabilités ce qui per-
met de déduire une distribution de probabilité pour la probabilité d’occurrence de
l’EI. Cependant, une méthode analytique peut s’avérer difficile et les simulations
peuvent nécessiter un temps d’exécution considérable et au final, le résultat obtenu
pourrait ne pas être assez conservatif pour garantir l’encadrement de la solution
exacte. Curcurù et al. ont proposé une méthode pour calculer le taux de défaillance
de l’EI en présence d’imprécision [Curcurù et al., 2013]. Néanmoins, leur travail
ne traite pas les AdDs non-cohérents qui sont le point central de ce travail.
Les méthodes proposées dans cette thèse sont définies dans le cadre de la
théorie des fonctions de croyance et permettent de répondre à cette problématique
qui concerne la présence d’imprécision au niveau des probabilités d’occurrence des
évènements de base. Notre but est d’arriver à traiter les AdDs statiques cohérents
et non-cohérents dans la perspective de donner un intervalle qui englobe la so-
lution exacte mais en étant le moins conservatif possible. Nous avons repris la
méthode proposée dans [Martinez et al., 2015] que nous avons combiné avec les
diagrammes de décision binaire pour réduire sa complexité en tirant profit de leur
compacité. La deuxième méthode proposée est inspirée de la méthode proposée
dans [Jacob et al., 2011] qui nécessite de répéter 2n fois la même exécution avec
des données différentes pour arriver à la solution exacte. Nous proposons une
méthode basée sur le même principe mais qui nécessite de faire seulement 2 fois
l’exécution. Par contre le résultat obtenu sera plus large que le résultat exact mais
garanti.

2.2.2 Diagramme de Décision Binaire (BDD)


Les BDDs ont été utilisés pour encoder et manipuler les fonctions booléennes. Ils
ont été introduits par Lee [Lee, 1959] pour étudier les circuits commutateurs et
popularisés par Akers [Akers, 1978]. Quelques années plus tard, Bryant [Bryant,
1986] a démontré l’importance de l’ordre des variables dans un BDD, ce qui a
permis d’avoir une représentation canonique et de manipuler efficacement les fonc-
tions booléennes. La taille d’un BDD peut varier d’une taille linéaire jusqu’à une
taille exponentielle par rapport au nombre de variables. Toutefois, trouver le bon
ordre pour un BDD est un problème NP-complet [Bollig and Wegener, 1996]. C’est
pour cela que des chercheurs ont proposé différentes heuristiques pour réduire sa
taille ([Friedman and Supowit, 1987], [Bouissou et al., 1997], [Singhal, 2012]).
En parallèle, Rudell avait proposé un algorithme pour réordonner les variables de
2.2. ETAT DE L’ART 31

telle sorte à ce que la taille du BDD soit de plus en plus petite [Rudell, 1993]. Dans
nos travaux, nous n’avons pas traité ce problème. Néanmoins, il suffit d’utiliser
une des heuristiques disponibles dans la littérature pour imposer un ordre avant
l’exécution.
Bryant a aussi proposé plusieurs algorithmes opérants directement sur le graphe
pour faire des opérations booléennes avec les BDDs [Bryant, 1986]. En 1990,
Brace et al. [Brace et al., 1990] ont proposé une implémentation efficace basée sur
l’opérateur if-then-else et les tables de hachage. D’autres implémentations offrant
des améliorations significatives ont vu le jour depuis : une implémentation basée
sur des diagrammes de décision binaire partagés a été proposé dans [Minato et al.,
1990]. Somenzi a aussi développé un package qui n’a pas cessé d’être amélioré
pour manipuler des BDDs [Somenzi, 2009]. Depuis, les BDDs ainsi que leur format
général appelé Diagrammes de Décision Multivalués ont été utilisés avec succès
dans une grande variété d’applications comme la vérification de circuits [Burch
et al., 1994], la représentation des chaines de Markov compactes [Hermanns
et al., 1999], génération et le stockage des réseaux de pétri [Miner and Ciardo,
1999], vérification symbolique de modèle [Burch et al., 1992]. Cela a motivé
leur introduction dans les études de fiabilité. En 1993, Rauzy [Rauzy, 1993] a
expliqué comment utiliser les BDDs dans les analyses quantitatives et qualitatives
des AdDs binaires en se basant sur les travaux de Brace et al. [Brace et al., 1990].
Dans la même année, Coudert et Madre les ont aussi utilisés dans le calcul des
impliquants premiers des AdDs cohérents et non-cohérents [Coudert and Madre,
1993]. Minato a aussi défini les ZBDDs qui sont un type de BDD avec une nouvelle
règle de réduction [Minato, 1993]. Ils ont été utilisés plus tard pour encoder les
coupes minimales [Shin-Ichi, 1996].
Depuis, des algorithmes basés sur les BDDs ont été proposés et améliorés pour
calculer la probabilité d’occurrence de l’EI mais aussi pour calculer les facteurs
d’importance et les coupes minimales des AdDs cohérents ([Sinnamon and An-
drews, 1997] [Dutuit and Rauzy, 2001]).
Remenyte et Andrews ont fait une étude comparative des différentes méthodes
proposées et ils ont conclu qu’une méthode hybride entre la méthode développée
dans [Rauzy, 1993] et une autre développée dans [Way and Hsia, 2000] est le
meilleur compromis entre le temps d’exécution et la taille du BDD ([Remenyte
and Andrews, 2006] [Remenyte-Prescott and Andrews, 2008]).
Dans la suite nous nous concentrerons seulement sur les BDDs car nous traitons
seulement les AdDs binaires. Les Diagrammes de Décision Multivalués ont aussi
été exploré principalement les Diagrammes de Décision Ternaire mais le travail
réalisé n’est pas assez rigoureux pour le joindre à ce manuscrit. Notons que l’objectif
32 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

de cette thèse est l’adaptation des BDDs avec les théories de l’incertain et non pas
leur développement. Néanmoins, tous les travaux que nous proposerons tout au
long de ce manuscrit sont basés sur les BDDs. Nous avons alors développé nos
propres algorithmes pour tester nos méthodes. Notons que les solutions proposées
ne dépendent pas d’une implémentation particulière des BDDs et peuvent être
intégrées dans toute implémentation des BDDs qui existe dans la littérature. C’est
pour cette raison que l’aspect algorithmique n’est pas abordé dans ce manuscrit
surtout que nous ne proposons aucune innovation dans ce domaine.

2.2.3 Facteurs d’importance


Une fois l’analyse quantitative effectuée on peut être amené à chercher à améliorer
le résultat obtenu. Par conséquent, il est utile de classer les évènements de base
pour distinguer les évènements de base qui ont le plus d’influence sur l’occurrence
de l’EI. Le premier travail dans ce sens date de 1969 quand Birnbaum a proposé
un facteur qui associe une valeur entre 0 et 1 à chaque évènement de base d’un
AdD cohérent, dans le but d’identifier les plus critiques vis- à-vis l’occurrence de
l’EI [Birnbaum, 1968] (le plus important étant celui dont la valeur associée est la
plus proche de 1). L’inconvénient de ce facteur est qu’il ne tient pas compte de la
probabilité d’occurrence de l’évènement de base dont on calcule l’importance, ce
qui fait que parfois on peut associer à deux évènements de base la même valeur et
ce même si l’un des deux a plus d’impact sur l’occurrence de l’EI. Cet inconvénient
fut la motivation de Lambert pour proposer un autre facteur quelques années
plus tard qui tient justement compte de la probabilité d’occurrence de l’évènement
[Lambert et al., 1975]. Il existe aussi deux autres facteurs largement utilisés : Risk
Achievement Worth et Risk Reduction Worth [Vasseur and Llory, 1999]. Dutuit et
Rauzy ont proposé différents algorithmes basés sur les BDDs pour calculer ces fac-
teurs d’importance. Ils ont aussi étudié les facteurs d’importance des évènements
intermédiaires [Dutuit and Rauzy, 2001]. Notons que tous les facteurs présentés
précédemment ont deux points en commun : ils ne sont utilisables que sur les
AdDs cohérents et ils nécessitent la connaissance de l’ensemble des probabilités
d’occurrence de tous les évènements de base. C’est pour cette raison que différents
facteurs d’importance incertains ont été introduits, de même pour les facteurs
d’importance non-cohérents.
Plus spécifiquement, plusieurs facteurs d’importance ont été introduits dans
le cadre de la théorie des ensembles flous : les auteurs de [Furuta and Shiraishi,
1984] ont proposé une mesure d’importance qu’ils ont appelé Fuzzy Importance
Measure (FIM) qui permet de quantifier la contribution des évènements de base
2.2. ETAT DE L’ART 33

quand leurs états ne peuvent être connus précisément. Dans [Sallak et al., 2008],
les auteurs ont utilisé les ensembles flous pour tenir compte des incertitudes lors de
l’évaluation du niveau d’intégrité de sécurité des systèmes de sécurité instrumen-
tés et le calcul des facteurs d’importance flous. Récemment, Borgonovo et Smith
ont aussi proposé un facteur épistémique basé sur le Risk Achievement Worth
[Borgonovo and Smith, 2012]. Sallak et al. ont pris en compte les incertitudes
épistémiques et ils ont proposé une extension des facteurs d’importance tradi-
tionnels comme le facteur d’importance de Birnbaum, Risk Achievement Worth
ou Risk Reduction Worth. Les extensions proposées sont données en utilisant
l’arithmétique d’intervalle et l’arithmétique affine [Sallak et al., 2013].
D’un autre côté, la première extension du facteur d’importance de Birnbaum
pour l’adapter aux AdDs non-cohérents a été introduite par Jackson [Jackson,
1983]. Quelques années plus tard Andrews et Beeson ont démontré par un petit ex-
emple que le facteur proposé par Jackson ne donne pas le bon ordre d’importance
et ils ont alors proposé leur propre extension du facteur de Birnbaum aux AdDs
non-cohérents [Andrews and Beeson, 2003b]. L’extension proposée par Andrews
et Beeson est jusqu’à aujourd’hui l’extension de référence quand il s’agit des AdDs
non-cohérents. Néanmoins, cette extension a un défaut car elle ne donne le bon
résultat que si on respecte une restriction relative aux consensus qui vont être
expliqués dans la sous-section suivante. Une autre extension a vu le jour dernière-
ment, elle est proposée par Vaurio [Vaurio, 2016]. Cette extension est équivalente
à celle d’Andrews lorsqu’il s’agit des AdDs cohérents mais elle est différente quand
l’AdD analysé est non-cohérent. En 2017, Aliee et al. [Aliee et al., 2017] ont
proposé une autre extension totalement équivalente à celle proposée par Andrews
et Beeson et qui à notre avis la meilleure extension proposée jusqu’ici. Cependant
elle nécessite la construction d’une nouvelle fonction booléenne à partir de la
fonction de structure de l’AdD.
Dans nos travaux nous nous sommes intéressés aux deux limites citées précédem-
ment. En premier lieu, nous allons étudier les facteurs d’importance de Birnbaum
pour pouvoir les étendre aux AdDs non-cohérents en supposant que les proba-
bilités d’occurrence des évènements de base sont précises. Nous considérons que
l’extension proposée par Andrews et Beeson permet de bien ordonner les évène-
ments de base d’un AdD non-cohérent. Notre but est de trouver un moyen plus
simple pour atteindre le même résultat et cela sans se préoccuper des consensus.
L’extension que nous allons proposer va être aussi comparé à celle proposée par
Aliee et al. qui est aussi équivalente à celle d’Andrews et de Beeson et qui ne
dépend pas non plus des consensus. L’extension que nous allons proposer est
basée sur une réinterprétation de la définition standard du facteur d’importance
34 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

de Birnbaum, cette nouvelle réinterprétation nous permet de l’étendre pour qu’il


puisse être appliqué sur un AdD quelconque indépendamment de sa cohérence.
En second lieu, nous allons étendre les facteurs d’importance définis pour les
AdDs non-cohérents de telle sorte à ce qu’ils soient utilisés quand les probabilités
d’occurrence des évènements de base sont imprécises.

2.3 Algèbre booléenne


Dans cette section nous donnons un bref aperçu des notations de l’algèbre booléenne
qui vont être utilisées dans la suite.

Définition 1. Une variable booléenne notée par Xi est définie sur l’ensemble Ωi =
{0, 1}. X est utilisé pour noter le multiplet (X1 , . . . , Xn ) des variables booléennes
X1 , . . . , X n .
On a X ∈ Θ où Θ = Ω1 × . . . × Ωn = {0, 1}n . Θ représente le produit cartésien des
ensembles Ω1 , . . . , Ωn .
Notons X Θ/Ωi la projection du multiplet X sur l’ensemble Θ/Ωi qui est donné par
Ω1 × . . . × Ωi−1 × Ωi+1 × . . . × Ωn = {0, 1}n−1 . X Θ/Ωi est alors égale à
(X1 , . . . , Xi−1 , Xi+1 , . . . , Xn ). On note aussi respectivement X/Xi =0 et X/Xi =1 les mul-
tiplets (X1 , . . . , Xi−1 , 0, Xi+1 , . . . , Xn ) et (X1 , . . . , Xi−1 , 1, Xi+1 , . . . , Xn ).

Définition 2. Une fonction booléenne notée φ est une fonction définie sur {0, 1}n
dans {0, 1}. Elle associe à un multiplet une valeur égale à 0 ou 1. On considère que
φ est basée sur les opérateurs suivants : le "ET" logique, le "OU" logique, le "NON"
logique et le "XOR" logique. Les opérateurs logiques "OU", "ET" et "XOR" sont des
opérateurs binaires alors que le "NON" est un opérateur unitaire. On note X1 "ET" X2
par X1 ∧ X2 , X1 "OU" X2 par X1 ∨ X2 , X1 "XOR" X2 par X1 ⊕ X2 et "NON" de X1 par
X1 . Notons qu’il existe d’autres opérateurs logiques mais dans la suite on n’utilisera
que les quatre déjà cités qui sont donnés par les tables de vérités suivantes :

X1 X2 X1 ∧ X2 X1 ∨ X2 X1 ⊕ X2
0 0 0 0 0
0 1 0 1 1
1 0 0 1 1
1 1 1 1 0

Table 2.1 – Table de vérité du "ET" logique, le "OU" logique et le "XOR" logique

Définition 3. Une proposition booléenne est une affirmation formée d’un assem-
blage d’opérations logiques et de variables aléatoires à laquelle on peut clairement
2.3. ALGÈBRE BOOLÉENNE 35

X1 X1
0 1
1 0

Table 2.2 – Table de vérité du "NON" logique

attribuer la valeur 1 ou la valeur 0. Une proposition A satisfait par définition les


axiomes suivants :

• Principe de l’identité : si A = 1 alors A = 1 et si A = 0 alors A = 0.

• Principe de non-contradiction : on ne peut pas avoir A = 1 et A = 0 en même


temps.

• Principe du tiers exclus : A est soit égale à 1 ou à 0, il n’existe pas une autre
valeur possible pour A.

Définition 4. Une conjonction est une opération basée sur l’opérateur binaire "ET".
Elle permet de lier plusieurs propositions booléennes A1 , . . . , Am par l’opérateur logique
"ET". En d’autres mots, une conjonction est égale à 1 si et seulement si chacune des
propositions A1 , . . . , Am est égale à 1.

Définition 5. Une disjonction est une opération basée sur l’opérateur binaire "OU".
Elle permet de lier plusieurs propositions A1 , . . . , Am par l’opérateur logique "OU".
En d’autres mots, une disjonction est égale à 1 si et seulement si au moins une des
propositions A1 , . . . , Am est égale à 1.

Dans la suite, le terme conjonction fera référence aux conjonctions qui lient
seulement des propositions de type Xi ou X i alors qu’une disjonction lie seulement
des propositions de type conjonction.

Définition 6. Une forme normale disjonctive (FND) est une écriture normalisée
d’une fonction booléenne. Cette normalisation consiste en la réécriture de la fonction
booléenne comme étant une disjonction de conjonctions et où la négation ne peut être
utilisé que sur les variables Xi . Elle est obtenue en utilisant les différentes équivalences
logiques comme les lois de Morgan, la distributivité,...
En d’autres mots, une fonction booléenne φ doit être écrite sous la forme suivante
:
∨∧n
φ(X) = ( Xia )
i=1

Où a ∈ {−1, 0, 1}, Xi1 = Xi , Xi0 = 1 et Xi−1 = X i .


36 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

φ(X1 , . . . , X2n ) = (X1 ∨ X2 ) ∧ . . . ∧ (X2n−1 ∨ X2n ) (2.1)

Notons que dans quelques cas le fait de réécrire une fonction booléenne sous une
FND peut mener à un allongement exponentiel de la fonction. Prenons par exemple la
fonction φ donnée par l’Equation 2.1, la FND de cette fonction possède 2n termes.

φ(X1 , . . . , X2n ) = (X1 ∧ X3 ∧ X5 ∧ . . . ∧ X2n−1 ) ∨ (X2 ∧ X3 ∧ X5 ∧ . . . ∧ X2n−1 ) ∨ . . .

On termine cette section en définissant des consensus par rapport à une vari-
able booléenne Xi . Le concept du consensus a été introduit pour la première fois
par Archi Blake en 1938 [Blake, 1938]. Le théorème du consensus permet de
simplifier une formule booléenne [Brown, 2012].

Théorème 1. Le théorème du consensus, appelé aussi la règle du consensus, est


l’identité suivante :

(X1 ∧ X2 ) ∨ (X 1 ∧ X3 ) ∨ (X2 ∧ X3 ) = (X1 ∧ X2 ) ∨ (X 1 ∧ X3 ) (2.2)

La conjonction X2 ∧ X3 est appelé résolvant ou consensus des termes X1 ∧ X2 et


X 1 ∧ X3 .

En d’autres termes, on parle de consensus dans une FND quand on retrouve


une variable X1 dans une conjonction et X 1 dans une autre. Dans ce cas, le
consensus des deux conjonctions est la conjonction des deux sans X1 ni X 1 . D’une
manière plus formelle, si on note ConXi la conjonction où on retrouve Xi et
ConX i la conjonction où on retrouve X i , alors le consensus par rapport à Xi est
conXi ∧ conX i avec ConXi = Xi ∧ conXi et ConX i = X i ∧ conX i .
D’une manière générale, les consensus par rapport à Xi sont donnés par
(∨ ) (∨ )
conX
l
i
∧ conXi
l
l l

Sachant que toutes les conjonctions où on retrouve Xi sont données par


∨ ∨
Con Xi
= X i ∧ Xi
l conl et que toutes les conjonctions où on retrouve X i sont
l l
∨ ∨
données par l Conl = X i ∧ l conX
Xi
l .
i

Si on a, par exemple,

φ(X1 , . . . , X6 ) = (X1 ∧ X2 ) ∨ (X1 ∧ X3 ) ∨ (X 1 ∧ X4 ) ∨ (X 1 ∧ X5 ) ∨ (X2 ∧ X6 ) (2.3)


2.3. ALGÈBRE BOOLÉENNE 37

alors

ConX
l
1
= (X1 ∧ X2 ) ∨ (X1 ∧ X3 )
l

ConX
l
1
= (X 1 ∧ X4 ) ∨ (X 1 ∧ X5 )
l

Par conséquent, les consensus par rapport à X1 sont donnés par


(∨ ) (∨ )
conX
l
1
∧ conX
l
1
= (X2 ∨ X3 ) ∧ (X4 ∨ X5 )
l l

(∨ ) (∨ )
Notons que la FND de l conX1
l ∧ l con X1
l dans ce cas est donnée par :

(∨ ) (∨ )
conX
l
1
∧ conX1
l = (X2 ∧ X4 ) ∨ (X2 ∧ X5 ) ∨ (X3 ∧ X4 ) ∨ (X3 ∧ X5 )
l l

∨ (X ,X )
Dans la suite nous allons noter l Conl i i la disjonction de toutes les con-
jonctions où Xi et X i n’apparaissent pas. Parmi ces conjonctions on retrouve
tous les consensus par rapport à Xi plus les autres conjonctions où Xi et X i
n’apparaissent pas par défaut. Par conséquent, on a pour tout Xi :
∨ (∨ ∨ ) ∨
(X ,X ) (Xi ,X i )
Conl i i ∨ conX
l
1
∧ conX
l
1
= Conl
l l l l

∨ (X ,X )
Notons que le terme l Conl i i n’est pas évident à retrouver car il est censé
englober les consensus par rapport à Xi sachant que, par définition, la présence
ou l’absence d’un consensus n’a pas d’effet sur la valeur de φ. Par conséquent,
l’ensemble des conjonctions d’une FND où les Xi et X i n’apparaissent pas ne
∨ (X ,X )
donne pas forcément l Conl i i car ce dernier doit prendre en compte aussi
tous les consensus par rapport à Xi qui sont aussi des conjonctions où Xi et X i
n’apparaissent pas. Si on reprend par exemple la fonction φ donnée par l’Equation
∨ (X ,X )
2.3 alors l Conl i i n’est pas égale à X2 ∧ X6 mais il est plutôt donné par :
∨ (Xi ,X i )
Conl = (X2 ∧ X4 ) ∨ (X2 ∧ X5 ) ∨ (X3 ∧ X4 ) ∨ (X3 ∧ X5 ) ∨ (X2 ∧ X6 )
l

D’une manière générale, la FND de toute fonction booléenne φ peut être écrite
par rapport à une variable Xi comme suit :
∨ ∨ ∨ (Xi ,X i )
φ(X1 , . . . , Xn ) = l ∨
ConX l ∨
ConX Conl
i i

l l l
38 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

2.4 Notions élémentaire de l’évaluation probabiliste


des évènements indésirables

2.4.1 Arbre de défaillance


Un arbre de défaillance (AdD) détermine les diverses combinaisons possibles d’évènements
de base qui entraîneront la réalisation d’un EI. Un AdD est une structure ar-
borescente dont la racine est l’EI et les feuilles sont les évènements de base. En
partant de l’EI, l’arbre se développera en des évènements intermédiaires ; ces
évènements intermédiaires se développeront eux aussi successivement jusqu’aux
feuilles (évènements de base) [Vesely et al., 1981].
Chaque évènement intermédiaire possède une porte logique qui représente le
lien entre les évènements directement liés audit évènement intermédiaire. Il existe
trois portes logiques fondamentales : la porte "ET", la porte "OU" et la porte "NON".
Ces trois portes sont données dans la Table 2.3. En réalité, il existe d’autres types
de porte comme par exemple le "XOR", le "VOTEUR", etc.. Notons que toutes ces
portes peuvent s’écrire comme une combinaison des portes fondamentales.

Symbole Type Notation Description

L’évènement de sortie se produit si tous


"ET" ∧
les évènements d’entrées se produisent

L’évènement de sortie se produit si au moi-


"OU" ∨
ns un des évènements d’entrées se produit

L’évènement de sortie se produit si


"NON"
l’évènement d’entrée ne se produit pas

Table 2.3 – Les trois portes fondamentales d’un AdD

Exemple 1. Prenons par exemple, un système S dont la défaillance dépend de la


défaillance de ses 5 composants C1 , . . . , C5 , suivant la structure logique suivante : S
tombe en panne si le composant C3 tombe en panne (évènement de base E3 ), ou si
C1 et C5 tombent en panne simultanément (évènements de base E1 et E5 ), ou si C2
et C4 tombent en panne simultanément (évènements de base E2 et E4 ). L’arbre de
2.4. NOTIONS ÉLÉMENTAIRE DE L’ÉVALUATION PROBABILISTE DES ÉVÈNEMENTS INDÉSIR-
ABLES 39

défaillance pour l’évènement "le système S ne fonctionne pas" est donné par la Figure
2.1.

Figure 2.1 – AdD du système S

Dans la suite, un EI sera noté ET , sachant qu’à un instant t donné, soit ET


se produit soit il ne se produit pas. L’état de ET est représenté par une variable
aléatoire booléenne XT définie sur ΩT = {0, 1}, où XT = 1 si ET se produit et
XT = 0 sinon. De plus, un EI dépend par définition d’un ensemble de n évène-
ments de base. Ces évènements de base sont supposés être indépendants. Nous
noterons ces évènements de base Ei avec i = 1, . . . , n. Ils seront représentés par
des variables aléatoires booléennes, notées respectivement Xi avec i = 1, . . . , n.
Ces variables aléatoires sont définies sur l’univers Ωi = {0, 1}, où Xi = 1 si Ei se
produit et Xi = 0 sinon.

2.4.2 Fonction de structure

Comme nous l’avons précisé précédemment, un EI dépend d’un ensemble d’évènements


de base. Cette dépendance est donnée par une fonction appelée fonction de struc-
40 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

ture. Cette fonction est définie sur Θ dans Ω par :


{
1 si ET s’est produit
φ(X) =
0 sinon

La fonction de structure est obtenue directement à partir de l’AdD en partant du


sommet et en faisant une décomposition successive aux niveaux inférieurs jusqu’à
atteindre les évènements de base.
Reprenant l’arbre de défaillance donné dans la Figure 2.1. L’évènement in-
désirable ET est "le système S ne fonctionne pas". Cet évènement dépend de
5 évènements de base E1 , E2 , E3 , E4 et E5 . Sa fonction de structure est obtenue
comme suit:

φ(X) = G1 ∨ X3 ∨ G2
= (X1 ∧ X5 ) ∨ X3 ∨ (X2 ∧ X4 ) (2.4)

2.4.3 Cohérence des arbres de défaillance


Les AdDs peuvent être classés en deux catégories distinctes: les AdDs cohérents et
les AdDs non-cohérents. Un AdD est cohérent s’il satisfait les deux conditions de
cohérence décrites ci-dessous.

Définition 7. (Première condition) Un AdD est monotone si sa fonction de structure


est croissante, i.e.

∀i ∈ {1, . . . , n}, ∀X−i ∈ Θ/Ωi , φ(X/Xi =1 ) ≥ φ(X/Xi =0 )

Définition 8. (Deuxième condition) Un évènement de base Ei est pertinent si :

∃X−i ∈ Θ/Ωi , φ(X/Xi =1 ) ̸= φ(X/Xi =0 )

En d’autres mots, Ei est pertinent s’il existe au moins une combinaison de X−i telle
que l’état de l’EI est différent selon que Ei se produit ou non.

Définition 9. Un AdD est cohérent s’il est monotone et que tous ses évènements
de base sont pertinents. Tout AdD qui ne satisfait pas l’une des deux conditions de
cohérence (Définition 7 et Définition 8) est un AdD non-cohérent.

Dans les AdDs cohérents, on n’utilise que des portes "ET" et "OU". Cela veut dire
qu’on suppose à priori qu’il n’existe aucune configuration où la non-occurrence
d’un évènement de base Ei ne soit indispensable pour avoir l’occurrence de l’EI.
2.4. NOTIONS ÉLÉMENTAIRE DE L’ÉVALUATION PROBABILISTE DES ÉVÈNEMENTS INDÉSIR-
ABLES 41

Or, avec des systèmes de plus en plus complexes, on est parfois obligé de prendre
en considération l’apport que peut avoir la non-occurrence d’un évènement sur
l’EI. Dans ce cas, on sera amené à introduire la porte "NON" dans un AdD. Par
conséquent, l’utilisation d’une telle porte peut faire perdre à l’AdD sa monotonie
et le rendre non-cohérent. Dans le cadre de cette thèse, nous considérons que tous
les évènements de base sont pertinents et donc un AdD non-cohérent se résume à
un AdD dont la fonction de structure n’est pas monotone.

Figure 2.2 – Description de l’environnement [Contini et al., 2008]

Exemple 2. Nous allons reprendre l’AdD proposé dans [Contini et al., 2008] où
les auteurs ont étudié la probabilité qu’un individu mal intentionné accède à un local
dans le but de saboter un système X qui s’y trouve. Le système en question est composé
de deux sous-systèmes redondants X1 et X2 . On suppose que ces deux sous-systèmes
fonctionnent d’une manière indépendante. X1 et X2 peuvent représenter par exemple
deux sources d’énergies qui alimentent un autre bâtiment. Le système X se trouve à
l’intérieur d’un bâtiment B qui dispose d’un unique point d’accès censé être fermé à
clé. Le bâtiment B se trouve dans un espace privé A entouré par un grillage avec une
unique porte. On suppose aussi que les deux espaces A et B sont surveillés par un
système d’alarme (cf. Figure 2.2).
Les auteurs se sont intéressés à la vulnérabilité de ce système en cas d’attaque
préméditée et ils ont proposé l’AdD donné par la Figure 2.3.
Par souci de simplicité, les auteurs ont essayé de proposer un AdD simple. Ils
ont considéré aussi que les évènements de base sont indépendants. Cet AdD est non-
cohérent, sa non-cohérence provient de la présence de deux porte "XOR" : G6et G8. Ces
portes "XOR" sont indispensables car on est face à certains évènements qui ne peuvent
pas survenir simultanément (franchir une porte ou sauter le grillage par exemple) ce
qui fait que la porte "OR" soit inappropriée.
42 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

Figure 2.3 – AdD proposé dans [Contini et al., 2008]

2.4.4 Probabilité d’occurrence de l’évènement indésirable

Nous avons vu précédemment comment modéliser la défaillance d’un système.


Ensuite, une fois que l’AdD a été construit et que les probabilités d’occurrence
des évènements de base ont été bien définies, il restera à calculer la probabilité
d’occurrence de l’EI. Dans ce qui suit, nous calculerons la probabilité d’occurrence
de l’EI en utilisant le principe d’inclusion-exclusion, connu aussi par la formule de
Poincaré.
Nous nous intéresserons à la probabilité d’occurrence de l’EI, qu’on notera P.
elle est définie par :
P = P (XT = 1)
2.4. NOTIONS ÉLÉMENTAIRE DE L’ÉVALUATION PROBABILISTE DES ÉVÈNEMENTS INDÉSIR-
ABLES 43

Vu que l’état de l’EI dépend de l’état de l’ensemble de ces évènements de base,


alors P dépend des probabilités d’occurrence des évènements de bases Ei , qu’on
notera pi . Sachant que l’état de l’EI est lié à l’état de l’ensemble des évènements
de base par la fonction de structure φ alors la probabilité d’occurrence de l’EI sera
donnée par :
P = P (φ(X) = 1)

Pour calculer cette probabilité nous allons utiliser le principe d’inclusion-exclusion


qui requiert avant tout que φ soit écrite sous une FND. Supposons que c’est le cas,
on aura alors :

Théorème 2. (Principe d’inclusion-exclusion) Soit (X1 , . . . , Xn ) un multiplet de vari-


able aléatoire définie dans Θ, nous avons :
(N )
∨ ∑ ∧
P Conj = 1 = (−1)|S|−1 P ( Conj ) (2.5)
j=1 S⊆{1,n} j∈S
S̸=∅

Où N est le nombre de conjonction de φ. On rappelle qu’une conjonction, notée Con,



est donnée par Conj = ni=1 Xia avec a ∈ {−1, 0, 1}, Xi1 = Xi , Xi0 = 1 et Xi−1 = X i .

Exemple 1

Reprenant l’AdD donné dans la Figure 2.1 dont la fonction de structure est donnée
par l’Equation 2.4. Cette fonction est déjà écrite sous une FND alors en lui appliquant
le principe d’inclusion-exclusion (cf. Théorème 2) on trouve :

P (φ(X) = 1) =P (X1 ∧ X5 = 1) + P (X3 = 1) + P (X2 ∧ X4 = 1)−


P (X1 ∧ X5 ∧ X3 = 1) − P (X1 ∧ X5 ∧ X2 ∧ X4 = 1)−
P (X3 ∧ X2 ∧ X4 = 1) + P (X1 ∧ X5 ∧ X3 ∧ X2 ∧ X4 = 1)

Comme par hypothèse les Xi sont indépendants alors :

P = p1 p5 + p3 + p 2 p4 − p1 p5 p3 − p 1 p5 p2 p4 − p3 p 2 p4 + p 1 p5 p3 p2 p4 (2.6)

Notons que le développement d’une probabilité selon le principe d’inclusion


exclusion peut s’avérer complexe vu le caractère exponentiel de ce problème. Par
conséquent, traiter des AdDs avec un grand nombre de coupes minimales en
utilisant ce principe atteint rapidement ces limites. En 1992, Madre et Coudert
[Coudert and Madre, 1992] ont utilisé les BDDs pour représenter les coupes mini-
males des fonctions booléennes. Ce travail a permis une année plus tard de traiter
44 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

des AdDs qui ont jusqu’à 1020 coupes minimales en quelques secondes [Coudert
and Madre, 1993]. En 1993, Rauzy a montré d’une manière détaillée que les
BDDs étaient bien adaptés pour traiter qualitativement et quantitativement des
AdDs avec un nombre important de coupes minimales [Rauzy, 1993].

2.5 Diagrammes de Décision Binaire (BDD)

La complexité accrue des systèmes industriels de l’ère moderne a amené au perfec-


tionnement des techniques de calcul de probabilités. Ces systèmes, étant de plus
en plus grands, nécessitent des techniques de représentation plus développées et
des méthodes plus performantes pour faire des analyses quantitatives de leurs
défaillances.
Les Diagrammes de Décision Binaire ont été utilisés pour encoder et manipuler
les fonctions booléennes. Ils ont été introduits par Lee [Lee, 1959] et popularisés
par Akers [Akers, 1978] qui a proposé deux manières de les construire :

• D’un côté, il décrit comment transformer une table de vérité en un BDD.

• D’un autre côté, il décrit comment les obtenir directement à partir d’une
expression booléenne en utilisant la formule de Shannon [Shannon, 1949].

À partir de là et grâce à leur compacité, ils ont été largement utilisés dans
une grande variété d’applications. En particulier dans la conception assistée par
ordinateur des circuits logiques, l’optimisation combinatoire, l’intelligence artifi-
cielle, ainsi que tous les problèmes qui peuvent être exprimés par un ensemble
d’opérations sur un ensemble de fonctions booléennes.
Quelques années plus tard, Bryant [Bryant, 1986] a démontré l’importance de
l’ordre des variables dans le BDD. Il a aussi proposé plusieurs algorithmes opérants
directement sur le graphe pour faire des opérations booléennes. Depuis, plusieurs
travaux ont été effectués pour réduire la taille d’un BDD ([Friedman and Supowit,
1987], [Singhal, 2012]). Dans le cadre de cette thèse nous ne nous sommes pas
intéressés à cette problématique. Les travaux effectués lors de cette thèse n’ont
pas pour but d’optimiser les algorithmes qui transforment un AdD en un BDD
mais plutôt de développer des méthodes qui utilisent les BDDs pour calculer la
probabilité d’occurrence de l’EI et les facteurs d’importance en considérant les
AdDs cohérents et non-cohérents.
2.5. DIAGRAMMES DE DÉCISION BINAIRE (BDD) 45

2.5.1 Construction d’un Diagramme de Décision Binaire


Dans cette section, nous allons commencer par donner quelques définitions de
base de la théorie des graphes. Ensuite nous allons présenter une méthode brute
pour la construction d’un BDD utile à la compréhension de la suite de cette thèse.
Notons que la méthode de construction proposée est donnée dans un but péda-
gogique et qu’en pratique la construction se fait en applicant les règles de réduc-
tion présentées un peu plus loin.

Définition 10. Un graphe orienté est un ensemble d’objets connectés entre eux par
des liens. Les objets sont appelés des nœuds et les liens sont appelés des arcs. Un graphe
orienté est acyclique s’il ne possède pas de circuit. Autrement dit si en partant d’un
nœud il n’est pas possible de revenir au même nœud en suivant un chemin.

Définition 11. Un Diagramme de Décision Binaire (BDD) est un graphe orienté


et acyclique, tel que :

1. Il existe une racine et deux nœuds terminaux, notés 0 et 1.

2. Chacun des nœuds non terminaux est indexé par une variable et possède deux
nœuds fils, un des deux est pointé par un arc continue arc1 et l’autre par un arc
discontinue arc0 .

On définit la fonction Γ qui associe à chaque triplet (Xi , a0 , a1 ) le nœud parent a


indexé par Xi et possédant deux nœuds fils : a0 et a1 pointés respectivement par
arc − 0 et arc − 1.
On définit aussi les fonctions index, high et low telles que pour chaque nœud
a = Γ(Xi , a0 , a1 ) nous avons index(a) = Xi , high(a) = a1 et low(a) = a0 .

Comme nous l’avons expliqué précédemment, les BDDs sont basés sur la for-
mule de décomposition de Shannon.

Théorème 3. Soit φ une fonction booléenne définie sur Θ dans Ω. Nous avons :

φ(X) = (Xi ∧ φ(X/Xi =1 )) ∨ (X i ∧ φ(X/Xi =0 ))

φ(X/Xi =1 ) est appelé le cofacteur positif de Shannon et φ(X/Xi =0 ) est appelé le cofac-
teur négatif de Shannon.

À partir du Théorème 3, le BDD d’une fonction booléenne φ sera construit


d’une manière récurrente en partant de la racine jusqu’à atteindre l’un des nœuds
terminaux 0 ou 1. Concrètement, on commence par fixer une variable qui sera
l’index de la racine. À partir de cette racine on aura deux arcs : l’arc arc1 pointera
46 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

X1

φ(1, X2 , . . . , Xn ) φ(0, X2 , . . . , X3 )

X1

X2 X2

φ(1, 1, . . . , Xn ) φ(1, 0, . . . , Xn ) φ(0, 1, . . . , Xn ) φ(0, 0, . . . , Xn )

X1

X2 X2

X3 .. X3 X3 .. X3
. .

Xn−1 ... Xn−1

Xn Xn Xn Xn

1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0

Figure 2.4 – Construction du BDD en utilisant le Théorème 3

vers le BDD du cofacteur positif de Shannon et l’arc arc0 pointera sur le BDD du
cofacteur négatif de Shannon. Notons que les deux cofacteurs de Shannon sont des
fonctions booléennes qui ne dépendent plus de la variable Xi . On continue donc de
la même manière en décomposant chacun des deux cofacteurs de Shannon d’une
manière récurrente en choisissant à chaque fois une nouvelle variable jusqu’à ce
que l’on arrive aux nœuds terminaux de φ (cf. Figure 2.4).

2.5.2 Diagramme de Décision Binaire Ordonné


L’idée de Bryant [Bryant, 1986] était de s’imposer une restriction lors de la con-
struction du BDD. Cette restriction est de fixer un ordre de variables avant la
construction. Ensuite, il faut respecter cet ordre dans tous les chemins qui partent
de la racine et se terminent par un des nœuds terminaux. Nous noterons Xi < Xj
si le nœud indexé par Xj apparaît après le nœud indexé par Xi dans tous les
chemins du BDD. Un BDD est appelé Diagramme de Décision Binaire Ordonné
(OBDD) s’il est construit en se fixant un ordre à priori X1 < . . . < Xn .
2.5. DIAGRAMMES DE DÉCISION BINAIRE (BDD) 47

2.5.3 Diagramme de Décision Binaire Ordonné Réduit


Tout l’intérêt d’un BDD est le fait qu’il représente d’une manière compacte tous
les états d’une fonction booléenne. Cependant, le BDD que nous avons présenté
jusqu’à présent n’est pas compacte. En réalité, il existe quelques règles qui perme-
ttent de le réduire. On commence d’abord par définir la notion de sous-graphe
isomorphe:

Définition 12. Deux sous graphes F et G d’un OBDD sont isomorphes s’il existe une
fonction bijective σ qui associe à chaque nœud a de F un unique nœud a′ de G tel que
: index(a) = index(a′ ), high(a) = high(a′ ) et low(a) = low(a′ ).

Quand on observe un OBDD, on remarque qu’il existe beaucoup de nœuds


équivalents, i.e. des nœuds donnés par la même fonction Γ. On peut voir par
exemple qu’un BDD possède 2n nœuds terminaux, n étant le nombre de variables
de la fonction booléenne représentée par le BDD. Or, ces nœuds terminaux peuvent
être réduits à deux : le nœud terminal indexé par 0 et le nœud terminal indexé par
1. Si on remonte au niveau des nœuds indexés par Xn . On retrouve 2n−1 nœuds, ces
nœuds se décompose en quatre types de nœuds : Γ(Xn , 0, 0), Γ(Xn , 0, 1), Γ(Xn , 1, 0)
et Γ(Xn , 1, 1). Par conséquent, l’ensemble des 2n−1 nœuds indexés par Xn peuvent
être représentés seulement par quatre nœuds : Γ(Xn , 0, 0), Γ(Xn , 0, 1), Γ(Xn , 1, 0)
et Γ(Xn , 1, 1).
Une autre réduction supplémentaire est que Γ(Xn , 0, 0) et Γ(Xn , 1, 1) sont des
nœuds inutiles est peuvent être remplacés par les nœuds indexés, respectivement,
par 0 et 1, car l’état de la variable Xn n’a aucun impact sur le résultat final qui sera
égal à 0 si c’est le nœud Γ(Xn , 0, 0) ou à 1 dans le cas du nœud Γ(Xn , 1, 1). D’une
manière générale, il existe deux règles de réduction qui permettent de réduire
d’une façon drastique la taille du OBDD.

Définition 13. Un OBDD est appelé un Diagramme de Décision Binaire Ordonné


et réduit (ROBDD) si on ne peut plus lui appliquer les deux règles suivantes :

• Première règle : s’il existe deux sous graphes du OBDD isomorphes, alors un
des deux doit être supprimé (cf. Figure 2.5).

• Deuxième règle : si un nœud pointe vers le même nœud fils avec ces deux arcs
arc0 et arc1 , alors le nœud doit être supprimé (cf. Figure 2.6).

D’une manière plus formelle, un OBDD est un ROBDD s’il ne possède pas de
sous-graphes isomorphes et que pour tout nœud a = Γ(Xi , a0 , a1 ) nous avons a0 ̸=
a1 . Dans la suite nous désignerons par BDD les ROBDD.
48 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

X1 X1

X2 X2 X2

1 0 1 0 1 0

Figure 2.5 – Première règle de réduction

X1

X2

X2
1 0

1 0

Figure 2.6 – Deuxième règle de réduction

L’ordre des variables est important lors de la construction d’un BDD car il
influence généralement la taille du BDD. Prenant par exemple la fonction donnée
par l’Equation 2.7

φ(X) = (X1 ∧ X2 ) ∨ (X3 ∧ X4 ) ∨ (X5 ∧ X6 ) (2.7)

Le nombre de nœuds du BDD de cette fonction est différent selon l’ordre choisi :
dans la Figure 2.7(a) on a un BDD avec un ordre de X1 < X2 < X3 < X4 < X5 <
X6 et dans la Figure 2.7(b) on a le BDD avec l’ordre X1 < X3 < X5 < X2 < X4 <
X6 . Dans cet exemple, l’ordre des variables a un impact important sur la taille du
BDD dans le premier cas on a construit un BDD avec 6 nœuds alors que le second
en a 14.
Les algorithmes pour trouver l’ordre optimal sont tous exponentiels. Il existe
plusieurs heuristiques pour trouver un bon ordre ou tout au moins éviter le pire.
Dans le cadre de cette thèse nous ne nous intéressons pas à cet aspect-là.
Notons que la méthode de construction proposée dans la section 2.5.1 n’est
donnée qu’à titre explicatif dans le but de comprendre le concept du BDD. En
réalité, le meilleur moyen pour construire un ROBDD est d’appliquer les règles de
réduction au fur et à mesure que les nœuds du BDD sont créés. D’un autre côté, il
faudra stocker les fonctions des sous-graphes isomorphes pour ne pas les parcourir
à chaque fois.
2.5. DIAGRAMMES DE DÉCISION BINAIRE (BDD) 49

X1 X1

X2 X3 X3

X3 X5 X5 X5 X5

X4 X2 X2 X2 X2

X5 X4 X4

X6 X6

1 0 1 0
(a) (b)

Figure 2.7 – Deux BDDs de φ pour deux différents ordres de variables

2.5.4 Calcul de probabilité d’occurrence de l’évènement indésir-


able avec le Diagramme de Décision Binaire

Nous avons vu que pour calculer la probabilité d’occurrence d’un EI l’utilisation du


principe d’inclusion-exclusion est impraticable quand les AdDs sont grands. Dans
ce qui va suivre nous allons présenter une méthode pour calculer cette probabilité
en utilisant les BDDs.
À partir de la formule de décomposition de Shannon (cf. Théorème 3), la
probabilité d’occurrence d’un EI dont la structure est donnée par φ, est donnée
par la formule suivante :

P = pi P/Xi =1 + (1 − pi )P/Xi =0 (2.8)

Où P/Xi =1 = P (φ(X/Xi =1 ) = 1) et P/Xi =0 = P (φ(X/Xi =0 ) = 1).


Sachant que φ(X/Xi =1 ) et φ(X/Xi =0 ) sont les cofacteurs positif et négatif de φ
suivant la variable Xi et que ces deux cofacteurs peuvent aussi être décomposés
par la même formule mais suivant une autre variable Xj , alors P sera calculée
50 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

en appliquant successivement la formule de Shannon pour toutes les variables


X1 , . . . , Xn . Or, cette décomposition donne justement le BDD de φ, donc pour
calculer P il suffit de parcourir les chemins du BDD qui partent de la racine en
direction du nœud terminal 1, en sommant les produits des probabilités obtenus
dans chaque chemin, sachant que les arcs arc1 et arc0 d’un nœud indexé par Xi
correspondent respectivement à pi et (1 − pi ). D’une manière plus formelle, la
probabilité P est donnée par la formule suivante :
∑ ∏
P= YN pN + (1 − YN )(1 − pN ) (2.9)
ch∈P N ∈ch

Où P est l’ensemble des chemins qui partent de la racine vers le nœud terminal 1,
YN = 1 si l’arc1 du noeud N d appartient au chemin ch, YN = 0 si l’arc0 du noeud
N d appartient au chemin ch et pN la probabilité d’occurrence de l’évènement de
base indexé dans le noeud N d.
Notons que cette façon de calculer P n’est utile que dans le cas où le BDD est
déjà construit. En réalité, P est calculée au fur et à mesure que le BDD se construit
et est obtenue directement au moment où le BDD est totalement construit.

Évènement(Ei ) Nom Probabilité d’occurrence(pi )


E1 X1 corrompu 0.8
E2 X2 corrompu 0.99
E3 Système d’alarme défaillant 0.5
E4 Serrure cassée 0.01
E5 Porte ouverte par erreur 0.001
E6 Sauter le grillage 0.4
E7 Franchir la porte 0.3
E8 Porte défoncée 0.35
E9 Porte ouverte par une clé 0.1

Table 2.4 – Probabilité d’occurrence des évènements de base de l’AdD de l’Exemple 2

Exemple 2

Nous allons reprendre l’Exemple 2 dans le but de calculer la probabilité d’occurrence


de l’EI en utilisant les BDDs. Nous allons aussi reprendre les mêmes probabilités
d’occurrence des évènements de base proposées par Contini et al. (cf. Table 2.4). Le
BDD de cet AdD est donné dans la Figure 2.8. Ce qui donne, en appliquant l’Equation
2.9 et quelques factorisations, la probabilité d’occurrence de l’EI donnée par l’Equation
2.10.
2.6. FACTEURS D’IMPORTANCE 51

X2

X1

X3

X5

X4

X9

X8 X8

X7

X6 X6

1 0

Figure 2.8 – BDD de l’AdD donné par la Figure 2.3

P =p2 p1 p3 p5 p7 (1 − p6 ) + p2 p1 p3 p5 (1 − p7 )p6 + p2 p1 p3 (1 − p5 )p4 p7 (1 − p6 )+


p2 p1 p3 (1 − p5 )p4 (1 − p7 )p6 + p2 p1 p3 (1 − p5 )(1 − p4 )(1 − p9 )p8 p7 (1 − p6 )+
p2 p1 p3 (1 − p5 )(1 − p4 )(1 − p9 )p8 (1 − p7 )p6 + p2 p1 p3 (1 − p5 )(1 − p4 )p9
(1 − p8 )p7 (1 − p6 ) + p2 p1 p3 (1 − p5 )(1 − p4 )p9 (1 − p8 )(1 − p7 )p6
P =0.07046 (2.10)

2.6 Facteurs d’importance


Une fois P calculée et sachant que c’est la probabilité d’occurrence d’un EI, une
question s’impose : est-ce que cette probabilité est acceptable ? Si la réponse est
non, alors il faudra la réduire. Pour y arriver il faudra intervenir au niveau des
évènements de base pour réduire leurs probabilités d’occurrence afin d’avoir une
probabilité acceptable d’occurrence de l’EI. À ce niveau, il est logique de se de-
mander si c’est vraiment indispensable de réduire les probabilités d’occurrence de
52 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

tous les évènements de base ? La réponse est évidemment non, car il suffit parfois
de réduire la probabilité d’occurrence d’un seul évènement de base pour atteindre
un seuil acceptable pour la probabilité d’occurrence de l’EI. Par conséquent, il est
utile de classer les évènements de base pour distinguer les évènements de base
qui ont le plus d’influence sur l’occurrence de l’EI. Le premier travail dans ce sens
date de 1969 quand Birnbaum a proposé un facteur qui associe une valeur entre
0 et 1 à chaque évènement de base d’un AdD cohérent, dans le but de les classer
par importance [Birnbaum, 1968] (le plus important étant celui dont la valeur
associée est la plus proche de 1).
Dans cette thèse, nous allons proposer une nouvelle interprétation du facteur
d’importance de Birnbaum. Cette nouvelle interprétation nous permettra de don-
ner notre propre extension qui sera aussi totalement équivalente à celle d’Aliee
et. al.[Aliee et al., 2017] et donc, par extension, à celle d’Andrews et de Bee-
son[Andrews and Beeson, 2003a]. Nous allons aussi voir comment nous pourrions
étendre cette extension dans le but de proposer un facteur incertain défini dans le
cadre de la théorie des fonctions de croyance. Dans la suite, nous allons parler du
facteur de Birnbaum, l’extension d’Andrews et de celle d’Aliee qui vont être utiles
au développement de nos travaux.

2.6.1 Facteur d’importance de Birnbaum


Birnbaum fut le premier à proposer un tel classement [Birnbaum, 1968]. Il a
introduit une formule quantitative avec laquelle on associe à chaque évènement
de base un nombre calculé à partir de la fonction de structure de l’AdD et des
probabilités d’occurrence des évènements de base. Ce nombre est entre 0 et 1
sachant que plus le nombre est grand plus l’évènement est important. Notons que
La mesure introduite par Birnbaum n’est utilisable que sur les AdDs cohérents.
L’importance d’un évènement de base Ei , notée Bi , est calculée à partir de P
en dérivant par rapport à pi :
∂P
Bi = (2.11)
∂pi
Bi peut être interprétée comme étant le taux auquel la probabilité d’occurrence de
l’EI augmente quand la probabilité d’occurrence de Ei augmente.
D’un autre côté, en reprenant la formule de P donnée par l’Equation 2.8 et vu
que P/Xi =1 ainsi que P/Xi =0 ne dépendent pas de pi alors Bi sera donné par :

Bi = P/Xi =1 − P/Xi =0 (2.12)

Vu sous cet angle, Bi peut aussi être interprétée comme étant la différence entre
2.6. FACTEURS D’IMPORTANCE 53

la probabilité d’occurrence de l’EI, sachant l’occurrence de Ei et la probabilité


d’occurrence de l’EI sachant la non-occurrence de Ei .

Exemple 1

Reprenant l’AdD donné dans la Figure 2.1, la probabilité d’occurrence de l’EI, P, est
donnée par l’Equation 2.6 :

P = p 1 p5 + p3 + p2 p4 − p 1 p5 p 3 − p1 p5 p2 p4 − p3 p2 p4 + p1 p5 p3 p2 p 4

En appliquant une des deux Equations 2.11 ou 2.12 et en prenant des probabilités
d’occurrence à titre indicatif, on obtient les résultats donnés dans la Table 2.5.

Ei pi Bi
E1 0.01 p5 − p5 p3 − p5 p2 p4 + p5 p3 p2 p4 = 0.0050
E2 0.013 p4 − p1 p5 p4 − p3 p4 + p1 p5 p3 p4 = 0.0199
E3 0.007 1 − p1 p5 − p2 p4 + p1 p5 p2 p4 = 0.9997
E4 0.02 p2 − p1 p5 p2 − p3 p2 + p1 p5 p3 p2 = 0.0129
E5 0.005 p1 − p1 p3 − p1 p2 p4 + p1 p3 p2 p4 = 0.0099

Table 2.5 – Facteurs d’importance pour l’AdD de la Figure 2.1

En observant ces résultats, on en conclut que E3 est le plus important des évène-
ments. Ce qui était prévisible car on voit bien dans l’AdD que E3 a un impact direct
sur le EI contrairement aux autres évènements (E3 est la seule coupe minimal d’ordre
1).
De la même manière qu’avec le calcul de P, les BDDs ont aussi été utilisés pour
calculer le facteur de Birnbaum des évènements de base. La méthode pour obtenir
le facteur d’importance avec les BDDs est basé sur l’Equation 2.12 en utilisant,
notamment, les deux probabilités conditionnelles P/Xi =1 et P/Xi =0 . Formellement,
ces deux probabilités sont données à partir du BDD par les deux Equations 2.13 et
2.14 :  
∑  ∏ ∏ 

P/Xi =1 =  p j (1 − p j  1Xi ∈P +
)) (2.13)
 + −
 ch
ch∈P Xj ∈Pch Xj ∈Pch
Xj ̸=Xi Xj ̸=Xi
 
∑  ∏ ∏ 

P/Xi =1 =  pj (1 − pj )) 1Xi ∈P − (2.14)
 + −
 ch
ch∈P Xj ∈Pch Xj ∈Pch
Xj ̸=Xi Xj ̸=Xi

Où P est l’ensemble des chemins qui partent de la racine vers le nœud terminal
54 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

1, Pch
+
est l’ensemble des indexes des nœuds présents dans le chemin ch avec leur

arc − 1 et Pch est l’ensemble des indexes des nœuds présents dans le chemin ch
avec leur arc − 0.
Notons que pour les systèmes cohérents, il existe d’autres facteurs d’importance
qui sont définis à partir de celui de Birnbaum. Dans le cadre de cette thèse, on
s’intéresse uniquement au facteur de Birnbaum et de son extension aux systèmes
non-cohérents.

2.6.2 Facteurs d’importance pour les systèmes non-cohérents

2.6.2.1 Facteur d’Andrews et Beeson

Andrews et Beeson [Andrews and Beeson, 2003a] ont généralisé le facteur de


Birnbaum pour pouvoir tenir compte des AdDs non-cohérents ce qui n’était pas
possible avec la première définition proposée par Birnbaum. Les auteurs ont pro-
posé de quantifier la contribution de l’occurrence d’un évènement de base ainsi de
sa non-occurrence :
D’un côté, la contribution de l’occurrence d’un évènement de base Ei , notée
BiW ,
est calculée à partir de P en dérivant par rapport à pi :

∂P
BiW = (2.15)
∂pi

BiW peut être interprétée comme étant le taux auquel la probabilité d’occurrence
de l’EI augmente quand la probabilité d’occurrence de Ei augmente.
D’un autre côté, la contribution de la non-occurrence d’un évènement de base
Ei , notée BiF , est calculée à partir de P en dérivant par rapport à qi , qi étant la
probabilité de la non-occurrence de Ei i.e. qi = P (X i = 1) :

∂P
BiF = (2.16)
∂qi

BiF peut être interprétée comme étant le taux auquel la probabilité d’occurrence de
l’EI augmente quand la probabilité de la non-occurrence de Ei augmente, autrement
dit quand la probabilité d’occurrence de Ei diminue.
Finalement, le facteur proposé par Andrews et Beeson est défini comme étant
la somme de BiW et de BiF donnée par les Equations 2.15 ou 2.16 :

BiAB = BiW + BiF (2.17)

Ce facteur est une extension naturelle de la première interprétation du facteur


2.6. FACTEURS D’IMPORTANCE 55

de Birnbaum. Cette interprétation, rappelons-le, est que le facteur de Birnbaum


quantifie la contribution de l’occurrence d’un évènement de base Ei à l’occurrence
de l’EI, ce qui correspond à la contribution total de l’état de Ei à l’état de l’EI
quand on traite les systèmes cohérents. Or, dans le cas des systèmes non-cohérents
un évènement de base Ei peut contribuer à l’occurrence de l’EI avec son occur-
rence ainsi que sa non-occurrence et puisqu’à un instant donné t un évènement
ne peut être que dans un seul état, alors il faudra quantifier la contribution de
l’occurrence ainsi que celle de la non-occurrence pour avoir la contribution totale
de Ei . C’est dans cette perspective que Andrews et Beeson ont introduit leur fac-
teur qui somme la contribution de l’occurrence d’un évènement et la contribution
de sa non-occurrence.
L’inconvénient de ce facteur est qu’il dépend de l’existence ou non du con-
sensus (cf. le théorème 1) dans la fonction de structure utilisée pour calculer
P, ce qui donne des résultats différents selon l’expression booléenne de la fonc-
tion de structure utilisée. Concrètement, le consensus représente un ensemble
d’évènements de base qui provoqueront implicitement l’occurrence de l’EI. Ils ont
un impacte implicite car ça dépendra quand même de l’évènement de base dont
la variable a été supprimée (ça dépend de l’évènement mais pas de son état) i.e.
prenant l’AdD donnée par la Figure 2.9 : La fonction de structure de cet AdD
est φ(X1 , X2 , X3 ) = (X 1 ∧ X2 ) ∨ (X1 ∧ X3 ). Le fait d’avoir X1 et X1 dans deux
conjonctions implique l’existence du consensus qui, dans ce cas, est égal à X2 ∧ X3 .
En analysant la structure de l’AdD on voit bien que l’occurrence de E2 et de E3
n’implique pas directement l’occurrence de l’EI. Par contre, sachant que E1 ne
peut se retrouver qu’en un des deux états, occurrence ou non-occurrence et ce à
tout instant t, on se rend compte que l’occurrence de E2 et de E3 suffisent pour
obtenir l’occurrence de l’EI.
Dans cet exemple on se retrouve avec deux fonctions de structure équivalentes
(cf. Table 2.6).
À partir des deux fonctions de structure φ(X) = (X 1 ∧ X2 ) ∨ (X1 ∧ X3 ) et
ψ(X) = (X 1 ∧ X2 ) ∨ (X1 ∧ X3 ) ∨ (X2 ∧ X3 ), on calcule P en utilisant l’Equation 2.5,
on obtient :

P φ = q1 p2 + p1 p3
Pψ = q1 p2 + p1 p3 + p2 p3 − q1 p2 p3 − p1 p2 p3

On a évidemment Pφ = Pψ et ceci quelles que soient les valeurs des probabilités


d’occurrence des trois évènements de base. Par contre, le calcul des BiAB abouti à
des résultats différents selon la fonction choisie. Ces résultats donnent même des
56 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

Figure 2.9 – AdD non-cohérent où on voit l’impact du consensus

classements différents (cf. Table 2.7).


Andrews et Beeson ont bien précisé qu’il fallait faire attention lorsqu’on calcule
B AB et qu’il fallait considérer tous les consensus pour avoir le bon classement.

2.6.2.2 Facteur d’Aliee et al.

Récemment, Aliee et al. ont proposé un facteur basé sur l’indicateur de criticité
[Aliee et al., 2017]. Ils ont démontré que leur facteur donnait exactement les
mêmes résultats que celui d’Andrews et de Beeson quand il est calculé avec la
bonne fonction de structure (la fonction où le consensus est pris en compte)..
Les auteurs ont commencé par proposer ce qu’ils ont appelé l’indicateur de
criticité. Cet indicateur est donné pour chaque évènement de base par l’Equation
2.18 :

ΦABGT
i = (φ(X/Xi =1 ) ∧ φ(X/Xi =0 )) ∨ (φ(X/Xi =1 ) ∧ φ(X/Xi =0 )) (2.18)

Cet indicateur identifie, d’un côté, les X Θ/Ωi (on rappelle que X Θ/Ωi est la projec-
2.6. FACTEURS D’IMPORTANCE 57

X1 X2 X3 (X 1 ∧ X2 ) ∨ (X1 ∧ X3 ) (X 1 ∧ X2 ) ∨ (X1 ∧ X3 ) ∨ (X2 X3 )


0 0 0 0 0
0 0 1 0 0
0 1 0 1 1
0 1 1 1 1
1 0 0 0 0
1 0 1 1 1
1 1 0 0 0
1 1 1 1 1

Table 2.6 – Table de vérité de l’AdD donné par la Figure 2.9

E1 pi BiAB avec φ BiAB avec ψ Classementφ Classementψ


E1 0.51 p2 + p3 = 0.55 p2 + p3 − 2p2 p3 = 0.40 1 3
E2 0.25 q1 = 0.49 q1 = 0.49 3 2
E3 0.3 p1 = 0.51 p1 = 0.51 2 1

Table 2.7 – Classement des évènements de base

tion de X sur Θ/Ωi ) tels que l’occurrence de l’évènement de base Ei soit suffisante
et nécessaire pour l’occurrence de l’EI, on dira que l’occurrence de l’évènement Ei
est critique pour l’occurrence de l’EI. D’un autre côté, il identifie aussi les X Θ/Ωi tels
que la non-occurrence de l’évènement de base Ei est suffisante et nécessaire pour
l’occurrence de l’EI, on dira que la non-occurrence est critique pour l’occurrence
de l’EI.
À partir de cet indicateur les auteurs ont proposé un facteur, noté IiABGT , défini
par l’Equation 2.19 :
IiABGT = P (ΦABGT
i = 1) (2.19)

Ce facteur peut être interprété comme étant la probabilité que l’état de l’évènement
de base Ei soit critique pour l’occurrence de l’EI.
Les auteurs ont démontré que ce facteur coïncide avec celui de Birnbaum dans
le cas des systèmes cohérents. Ils ont aussi démontré qu’il coïncide aussi avec le
facteur d’Andrews et de Beeson si ce dernier est calculé avec la bonne fonction de
structure (la fonction où le consensus est pris en compte)..

E1 pi ΦABGT
i IiABGT Classement
E1 0.51 (X3 ∧ X 2 ) ∨ (X2 ∧ X 3 ) p2 + p3 − 2p2 p3 = 0.40 3
E2 0.25 X1 q1 = 0.49 2
E3 0.3 X1 p1 = 0.51 1

Table 2.8 – Classement des évènements de base


58 CHAPTER 2. PROBABILITÉ D’OCCURRENCE D’ÉVÈNEMENTS ET FACTEURS D’IMPORTANCE

On pourrait reprendre l’exemple donné pour le facteur d’Andrews et de Beeson.


Nous allons considérer intentionnellement la fonction de structure φ(X) = (X 1 ∧
X2 ) ∨ (X1 ∧ X3 ) où le consensus X2 ∧ X3 n’apparaît pas. Les résultats sont donnés
dans la Table 2.8. Cela coïncide parfaitement avec les résultats donnés par le
facteur d’Andrews et de Beeson calculés avec la bonne fonction de structure (la
fonction où le consensus est pris en compte).
Pour récapituler, le facteur d’Andrews et de Beeson d’un évènement de base Ei
est faux si les consensus par rapport à Xi n’apparaissent pas dans la fonction de
structure. Par contre, le facteur d’Aliee est toujours vrai.

2.7 Conclusion
Nous avons résumé dans ce chapitre les concepts basiques pour le calcul de prob-
abilité d’occurrence d’un EI. Nous avons aussi présenté les Diagrammes de Déci-
sion Binaire qui sont une partie centrale de cette thèse. Ces diagrammes ont été
largement utilisés récemment en raison de leur compacité. C’est pour cette raison
que nous avons décidé de les utiliser dans les méthodologies développées pour
répondre à la problématique à laquelle nous nous sommes intéressés. Le dernier
point abordé est le concept des facteurs d’importance qui permettent d’ordonner
les évènements de base pour savoir quel évènement de base contribue le plus à
l’occurrence de l’EI.
L’objectif de cette thèse est de pouvoir relaxer certaines des hypothèses de
départ, principalement le fait que les probabilités d’occurrence des évènements de
base soient précises, ce qui n’est pas forcément le cas. Quoique, le fait de prendre
en compte des probabilités imprécises ne pose plus de défis calculatoires ou de
recherche, mais quand on combine cette relaxation avec la prise en compte des
systèmes non-cohérents, on crée un réel obstacle que ce soit au niveau du calcul
de probabilité d’occurrence de l’EI ou au niveau de la classification des évènements
de base. Nous allons essayer dans ce qui va suivre de pousser la recherche aussi
loin que possible dans ce cadre-là.
Cette imprécision supposée à propos des probabilités d’occurrence des évène-
ments de base est la raison de l’adoption de la théorie des fonctions de croyance
que nous allons présenter dans le Chapitre 2 et qui nous accompagnera tout au
long de ce travail.
Chapter 3

Théories de l’incertain

3.1 Etat de l’art et positionnement


Les incertitudes sont omniprésentes dans les différents aspects de notre vie quo-
tidienne, qu’elles viennent de ce qui est naturellement aléatoire ou d’un manque
de connaissance ou même d’une perception ambigüe. Généralement, on ne leur
accordent pas vraiment de l’importance vu qu’elles n’impactent pas d’une manière
significative notre vie, mais dans d’autres secteurs plus sensibles au risque elles
doivent être parfaitement maîtrisées et réduites le plus possible.
Généralement quand on cherche à étudier l’occurrence d’un évènement en
fonction du temps, on a besoin d’avoir une connaissance suffisante sur la vari-
abilité naturelle de ce comportement. Par conséquent, si on est familier avec un
tel comportement on pourra le modéliser à l’aide d’une distribution de probabilité.
Or, dans plusieurs cas on se retrouve face à des évènements dont on a peu ou pas
de retour d’expérience comme les évènements rares par exemple.
Plusieurs chercheurs se sont intéressés à cette problématique et ont proposé de
classer les incertitudes en plusieurs types qui doivent être traitées différemment
[Camerer and Weber, 1992] [Aven, 2010] [Blockley, 2013]. Une des classifica-
tions les plus répandues est de classer les incertitudes en deux catégories : les
incertitudes aléatoires et les incertitudes épistémiques [Paté-Cornell, 1996]. Le
premier type d’incertitudes vient de la variabilité naturelle d’un phénomène. Ce
type d’incertitude est irréductible et objectif. Le deuxième type d’incertitudes, par
contre, est réductible car il est dû à un manque d’information. Ce qui fait que
plus on dispose de données plus l’effet des incertitudes épistémiques est réduit. Ce
type d’incertitudes est dit subjectif car il est lié à la quantité d’information dont
on dispose et comme les observateurs d’un évènement ne disposent pas forcément
des mêmes informations alors l’effet de leurs incertitudes épistémiques serait plus
ou moins réduit [Apostolakis, 1999].
Dans la théorie des probabilités, on confond ces deux types d’incertitudes.
L’ignorance est représentée dans le cadre de cette théorie en appliquant le principe
60 CHAPTER 3. THÉORIES DE L’INCERTAIN

de l’indifférence [Keynes, 1921], i.e. en l’absence d’information tous les différents


résultats d’une expérience auraient la même probabilité d’occurrence. Or, une
telle représentation ne fait pas la différence entre l’ignorance et l’équiprobabilité.
De l’autre côté, la théorie des fonctions de croyance distingue les incertitudes
épistémiques et les incertitudes aléatoires et représente d’une manière explicite
l’ignorance. D’autres théories de l’incertain ont été proposées pour traiter séparé-
ment les incertitudes épistémiques et aléatoires, les plus connues sont : la théorie
des ensembles flous, la théorie des possibilités et la théorie des probabilités impré-
cises, etc.
La méthode la plus rudimentaire qu’on peut utiliser pour pouvoir propager
l’incertitude épistémique du niveau des probabilités d’occurrence des évènements
de base au niveau de la probabilité d’occurrence de l’EI est celle basée sur l’arithmétique
d’intervalles. Néanmoins, souvent cette méthode n’est pas pertinente car le résultat
obtenu est souvent trop conservatif, i.e. il est souvent plus large que l’intervalle
[0, 1] [Abrahamsson, 2002]. D’autres travaux ont été effectués dans le cadre de
la théories des ensembles flous [Tanaka et al., 1983], mais cette théorie n’est pas
encore largement adoptée dans l’analyse des AdDs. Certaines critiques ont été
dirigées contre les principes fondamentaux de cette méthodologie, notamment les
règles d’inférences floues ne sont pas claires, ce qui pose des problèmes car on peut
utiliser différents niveau de conservatisme dans une analyse. Même si le résultat
obtenu n’est pas aussi conservative que celui obtenu par l’arithmétique d’intervalle,
il peut tout de même être trop conservatif dans certain cas. Principalement, lorsque
les variables se répètent beaucoup. Les méthodes les plus répandues sont les
méthodes basées sur les simulation de Monte Carlo [Rubinstein and Kroese, 2016].
Elles ont la particularité d’être simples à mettre en œuvre et simples à compren-
dre. Le souci avec ces méthodes c’est qu’elles nécessitent d’avoir accès à de nom-
breuses informations empiriques, par exemple des informations explicites sur les
distributions de toutes les variables. Cela nous oblige à formuler un bon nombre
d’hypothèses de départ qui sont souvent discutables. L’autre souci c’est que dans
les modèles complexes, les calculs peuvent être fastidieux et les exigences en calcul
croissent rapidement. Mais le principal défaut à notre avis de cette méthode réside
dans le fait que le résultat obtenu n’est pas garanti. Autrement dit, l’intervalle
obtenu est strictement inclus dans l’intervalle exact qu’on doit trouver. Enfin, une
méthode brute définie dans le cadre de la théorie des fonctions de croyance qui
permet d’avoir la solution exacte dans certains cas, quand l’AdDs est cohérents ou
un intervalle pas trop conservatif quand l’AdD est non-cohérent [Martinez et al.,
2015]. Le souci c’est que la méthode est trop complexe et les exigences en calcul
vont croitre d’une manière exponentielle. Cette méthode a été améliorée dans
3.2. THÉORIE DES PROBABILITÉS 61

[Martinez et al., 2015] pour que dans le cas cohérent le résultat soit obtenu avec
la même complexité que si on n’avait pas d’incertitude épistémique. Par contre,
en ce qui concerne les AdDs non-cohérent le problème reste exponentielle [Jacob
et al., 2011].
Les solutions proposées dans ce manuscrit traitent tous les types d’AdDs in-
dépendamment de leur cohérence ou non. Elle sont aussi définies dans le cadre
de la théorie des fonctions de croyance : la première méthode proposée permet de
reprendre la méthode brute pour la combiner avec les BDDs pour réduire sa com-
plexité et la seconde permet de réduire le problème de la présence d’incertitude
épistémique à un problème où il y en a pas, comme ce qui a été fait dans [Martinez
et al., 2015]. Dans la suite, nous allons donner un petit rappel de la théorie des
probabilités classique. Ensuite nous allons parler plus en détail de la théorie des
fonctions de croyance.

3.2 Théorie des probabilités


Pendant l’antiquité le hasard a été utilisé dans un but ludique, les jeux de dés
présents dans l’Égypte ancienne en sont un parfait exemple. Il n’a été étudié qu’à
partir du XVIIe siècle quand Blaise Pascal et Pierre de Fermat ont eu une corre-
spondance en 1654 autour du problème des partis. Trois ans après la résolution
du problème par les deux protagonistes, Christian Huygens a publié le premier
traité sur la théorie des probabilités : De ratiociniis in ludo aleae (1657) [Huygens,
1980]. Il a fallu attendre le début du siècle dernier pour qu’Andreï Kolmogorov
pose rigoureusement les fondements mathématiques de la théorie dans son livre
Grundbegriffe des Warscheinlichkeitrechnung (1933) [Kolomogoroff, 2013].

Définition 14. Un espace probabilisable est le couple (Ω, A) où Ω est un ensemble


appelé univers et A est une tribu sur l’univers Ω. Les éléments de la tribu A sont
appelés évènements.
Un espace probabilisable est dit espace probabilisé si on lui associe une mesure
de probabilité P , qui associe à un évènement quelconque de la tribu A un nombre
réel, on le note (Ω, A, P ). Une mesure de probabilité doit satisfaire les trois axiomes
de Kolmogorov suivants :

• Pour tout évènement A de la tribu A on a 0 ≤ P (A) ≤ 1.

• La probabilité de l’univers doit être égale à 1, i.e. P (Ω) = 1.

• Toute famille dénombrable d’événements deux à deux disjoints A1 , A2 , . . . doit


∑+∞
satisfaire l’additivité dénombrable, i.e. P (∪+∞
i=1 Ai ) = i=1 P (Ai ).
62 CHAPTER 3. THÉORIES DE L’INCERTAIN

Définition 15. Les évènements A1 , . . . , An sont indépendants si pour tout I ⊂ {1, . . . , n}


on a
∩ ∏
P ( Ai ) = P (Ai )
i∈I i∈I

Cette théorie est dite précise car elle associe une mesure de probabilité précise
et unique à chaque évènement de la tribu. Autrement dit, il faudra avoir assez
d’information sur le phénomène concerné et il faudra que l’information soit com-
plète pour qu’une modélisation soit rigoureuse autrement elle sera critiquable et
pas forcément crédible. Or, en pratique on peut tomber sur des situations où ce
n’est pas possible d’avoir assez d’information, comme les évènements rares ou des
situations où les observations ont été censurées. Dans ces situations, on utilise
souvent la méthode des simulation Monte Carlo.

3.2.1 Méthodes Monte Carlo

Les méthodes Monte Carlo sont des méthodes algorithmiques qui ont pour but de
calculer une valeur numérique approchée d’une variable inconnue. Le nom Monte
Carlo fait référence aux jeux de hasards, il a été inventé par Nicholas Métropolis
[Metropolis and Ulam, 1949].
On fait appel à une méthode Monte Carlo quand on veuille calculer une quan-
tité l inconnue. On suppose alors que l est l’espérance d’une variable aléatoire
X. Si on arrive à simuler des variables aléatoire X1 , . . . , Xn indépendantes et
identiquement distribuées de même loi que X, alors la loi des grands nombres
nous assure, pour n assez grand, que :
∑n
Xi
l≈ i=1
n

D’une manière générale, si on s’intéresse à la valeur de E[f (X1 , . . . , Xd )], où


X1 , . . . , Xd sont des variables aléatoires, alors on simulera n fois chacune des vari-
ables aléatoires X1 , . . . , Xd . Cela nous permettra d’avoir n simulation de f (X1 , . . . , Xd )
et par la même occasion, on aura
∑n
i=1 f (X1 , . . . , Xd )
E[f (X1 , . . . , Xd )] =≈
n

L’inconvénient des méthodes Monte Carlo est qu’il faudra rajouter plus d’incertitudes.
Car dans le cas où nous ne connaissons pas les lois des variables aléatoires il faudra
les imposer à priori.
3.3. FONCTIONS DE CROYANCE 63

3.3 Fonctions de croyance

La théorie des fonctions de croyance, appelée aussi théorie de Dempster-Shafer, a


été introduite par Dempster en 1967 [Dempster, 1968] et développée par Shafer
quelques années plus tard [Shafer, 1976]. Cette théorie est basée sur la notion
de preuve (evidence en anglais). Le but est de combiner différentes preuves pour
estimer la probabilité d’occurrence d’un évènement. Son principe de base est de
représenter l’information dont on dispose en associant un degré de confiance à
des sous-ensembles de l’univers Ω. La différence avec la théorie des probabilités
classiques réside dans le fait que dans cette dernière on associe des valeurs à tous
les singletons de Ω. Ensuite, la probabilité d’un sous-ensemble de Ω est calculée à
partir des probabilités des singletons grâce au concept de l’additivité dénombrable.
Or, dans la théorie des fonctions de croyance on associe des valeurs à tous les sous-
ensembles de Ω indépendamment des valeurs associées aux singletons de Ω. Le
calcul de masses jointes est fait par le biais de règles de combinaison.
Il existe deux interprétations des fonctions de croyance : une interprétation
probabiliste et une interprétation non-probabiliste. La première est issue des travaux
de Dempster où on s’intéresse à l’évaluation des bornes d’un intervalle, appelées
probabilités inférieure et supérieure. En d’autres termes, on ne cherche plus la
valeur de la probabilité d’occurrence d’un évènement mais plutôt à trouver un
intervalle qui la contient, en cherchant à réduire sa longueur au maximum.
D’un autre côté, la deuxième interprétation est apparue quelques années plus
tard avec les travaux de Shafer où il propose une théorie qui possède ses propres
axiomes et où elle n’est plus dérivée de la théorie des probabilités. Shafer est parti
des travaux de Dempster pour modéliser les croyances au travers d’une fonction
de masse définie sur l’ensemble des sous-ensembles de Ω.
Dans le cadre de cette théorie, avoir l’une ou l’autre interprétation ne pose
pas vraiment de problème, en raison de la bijection qui existe entre les bornes
de l’intervalle et la fonction de masse, ce qui donne une certaine liberté pour se
positionner. En outre, nous considérons davantage l’interprétation probabiliste de
la théorie, mais ceci ne nous empêche pas d’utiliser les fonctions de masse pour
pouvoir exploiter les opérations définies dans cette théorie.
Dans ce qui va suivre, nous allons introduire le formalisme mathématique de
la théorie des fonctions de croyance appliqué à l’analyse des AdDs. Nous nous
contenterons d’introduire seulement les concepts qui seront utilisés dans la suite.
Nous allons aussi accompagner ce cadre théorique par un exemple simple d’un
AdD cohérent pour illustrer les différents concepts de la théorie.
64 CHAPTER 3. THÉORIES DE L’INCERTAIN

3.3.1 Fonction de Masse


Un univers Ω est un ensemble fini de tous les états possibles d’un phénomène aléa-
toire. Dans le cadre de cette thèse, on s’intéresse à des évènements à états binaires:
occurrence et non-occurrence. Donc, l’univers d’un évènement Ei est Ωi = {0, 1},
où 0 représente la non-occurrence de Ei et 1 représente son occurrence.
Une fonction de masse m est une application définie sur P(Ω) dans [0, 1]
sachant que P(Ω) est l’ensemble de tous les sous-ensembles de Ω. Une fonction de
masse associe à chaque élément de P(Ω) une valeur entre 0 et 1 telle que :

m(A) = 1 (3.1)
A∈P(Ω)

Notons que tout sous-ensemble de Ω est appelé élément focal A si sa masse est
strictement positive, i.e. m(A) > 0.
m(A) quantifie la croyance qu’on peut avoir dans le fait que A représente la
réalité et ceci indépendamment de ce que on peut associer aux sous-ensembles
de A. Si on s’intéresse à l’état d’un évènement de base Ei d’un AdD et sachant
que son univers est Ωi = {0, 1}, alors P(Ωi ) = {∅, {0}, {1}, Ωi }. Dans ce cas-
là, mi ({0}) donne la croyance qu’on a dans le fait que Ei ne se produise pas et
mi ({1}) donne la croyance qu’on a dans le fait que Ei se produise, m(Ωi ) donne
la croyance qu’on a dans le fait que Ei ne peut avoir qu’un état parmi les deux
états possibles : occurrence ou non-occurrence sachant qu’on ne peut pas préciser
lequel. En d’autres termes, mi (Ωi ) représente le fait qu’on ignore totalement l’état
de Ei sachant que l’état est soit l’occurrence soit la non-occurrence. Enfin, mi (∅)
représente la croyance qu’on a dans le fait que Ei peut être dans un état inconnu
autre que l’occurrence ou la non-occurrence. Dans le cadre de cette thèse et pour
tout ce qui suivra, pour chaque évènement Ei on a mi (∅) = 0. Autrement dit on
suppose qu’aucun autre état possible n’est admis pour un évènement.
Dans les travaux de Shafer, m(∅) est toujours nulle ce qui correspond à un
monde fermé, un monde où l’univers est exhaustif. Récemment, Smets avait con-
sidéré la possibilité d’avoir un monde ouvert i.e. le cas où m(∅) > 0 [Smets, 1992].

3.3.2 Fonction de Probabilité Inférieure


Le but de nos travaux est d’estimer la probabilité d’occurrence de l’EI en prenant
en compte les incertitudes épistémiques ce qui implique que les probabilités soient
imprécises. Dans le cadre de la théorie des fonctions de croyance, on peut représen-
ter cette imprécision par un intervalle dans lequel on est sûr d’avoir la probabilité
3.3. FONCTIONS DE CROYANCE 65

recherchée. La borne inférieure de cet intervalle, appelée probabilité inférieure,


quantifie la croyance totale qu’on peut avoir dans le fait qu’un sous-ensemble A de
Ω contient la réalité. La différence entre la probabilité inférieure et la fonction de
masse est que cette dernière concerne A et seulement A alors que la première fait
intervenir A ainsi que tous ses sous-ensembles. La probabilité inférieure, notée P ,
est une application définie sur P(Ω) dans [0, 1]. Elle est donnée par l’Equation 3.2:

P (A) = m(B) (3.2)
B⊆A

Autrement dit, si on cherche à borner P (A) alors sa borne inférieure est donnée par
la somme des croyances qu’on peut avoir dans le fait que la réalité soit représentée
par A ou un de ses sous-ensembles.
Comme nous l’avons précisé dans l’introduction, il existe une bijection entre la
masse et les bornes de l’intervalle. Nous avons défini P à partir de m, l’inverse est
aussi possible (cf. Equation 3.3 ) :

m(A) = (−1)|A\B| P (B) (3.3)
B⊆A

Où |A\B| représente le cardinal de A\B = A − B.

3.3.3 Fonction de Probabilité Supérieure


La borne supérieure de l’intervalle qui encadre la probabilité recherchée est don-
née par la fonction probabilité supérieure appelée aussi plausibilité, notée P .
Cette fonction est définie sur P(Ω) dans [0, 1], elle est donnée par l’Equation 3.4 :

P (A) = m(B) (3.4)
B∩A̸=∅
B∈P(Ω)

Cette fonction quantifie le maximum de croyance qu’on peut affecter à un sous-


ensemble A de Ω. Autrement dit c’est la somme des masses des sous-ensembles de
Ω qui partagent avec A une part de vérité. D’une manière générale, cette fonction
représente la croyance totale qu’on peut avoir dans le fait que la réalité n’est
pas représenté par A. D’ailleurs, c’est à partir de là que découle le lien entre les
fonctions de probabilités inférieure et supérieure :

P (A) = 1 − P (A) (3.5)


P (A) = 1 − P (A) (3.6)
66 CHAPTER 3. THÉORIES DE L’INCERTAIN

Ce qui donne le lien entre P et m (cf. Equation 3.7 ) :



m(A) = (−1)|A\B| (1 − P (B)) (3.7)
B⊆A

Dans cette thèse, notre but est de calculer la probabilité d’occurrence de l’EI
ou plutôt les bornes de l’intervalle qui l’encadre. Autrement dit, nous voudrions
calculer les bornes de l’intervalle qui encadre la probabilité d’occurrence P de l’EI :

P et P. À partir de l’Equation 3.2 on obtient que P = B⊆{1} mT (B) = mT ({1}) et

de l’Equation 3.4 P = B∩{1}̸=∅ mT (B) = mT ({1}) + mT (ΩT ). Ce qui donne avec
l’Equation 3.1 P = 1 − mT ({0}) car 1 = mT ({0}) + mT ({1}) + mT (Ω).
Donc pour résumer, la borne inférieure de l’intervalle qui encadre la probabilité
d’occurrence de l’EI est mT ({1}), la borne supérieure est 1 − mT ({0}) et mT (ΩT ) =
1 − mT ({0}) − mT ({1}) représente la taille de l’intervalle.

3.3.4 Règle de Combinaison, Marginalisation et Extension


Il existe dans le cadre de la théorie des fonctions de croyance différentes règles de
combinaison qui permettent de fusionner ou de regrouper l’information détenue
par différentes fonctions de masse en une seule fonction.
Il existe deux situations où on peut être amené à combiner des fonctions de
masse :

• Si pour le même phénomène on dispose de plusieurs fonctions de masse


issues de sources différentes (plusieurs experts par exemple), alors on com-
bine ces fonctions en une seule fonction de masse qui récapitulera l’ensemble
des informations détenues par les différentes fonctions de masse. Cet aspect-
là n’est pas traité dans cette thèse, il est considéré comme un travail prélimi-
naire et indispensable dans le cas où on dispose de plusieurs sources d’information.
Dans nos travaux, nous considérons que pour chaque phénomène, en l’occurrence
pour chaque évènement de base, on ne dispose que d’une fonction de masse.

• Une fois que les fonctions de masse des évènements de base sont bien définies,
elles doivent être combinées entre le but de calculer la fonction de masse
pour l’EI. C’est sur cet aspect que cette thèse est centrée.

3.3.4.1 Règle de combinaison conjonctive

Dans la suite nous utiliserons la règle de combinaison conjonctive. Cette règle


permet de combiner deux fonctions de masse m1 et m2 en une seule, notée m1 ∩ 2 .
Les deux fonctions de masse m1 et m2 doivent impérativement être définies sur le
3.3. FONCTIONS DE CROYANCE 67

même ensemble P(Ω). La nouvelle fonction de masse obtenue sera aussi définie
sur le même ensemble et donnée par l’Equation 3.8:

m1 ∩ 2 (A) = m1 (B)m2 (C), ∀A ⊆ Ω (3.8)
B∩C=A

Cette règle utilisable dans le cas où on est sûr des informations détenues par les
deux fonctions de masse m1 et m2 . La fonction de masse m1 ∩ 2 représentera alors
l’information détenue par m1 et m2 . D’autres règles existent dans la littérature
[Sentz and Ferson, 2002], comme la règle de combinaison disjonctive qui permet
de représenter l’information détenue par m1 ou m2 . Dans le cadre de cette thèse
nous utiliserons uniquement la règle de combinaison conjonctive.

3.3.4.2 Extension

La condition pour l’utilisation de la règle de combinaison conjonctive est que les


deux fonctions de masse m1 et m2 soient définies sur le même ensemble P(Ω).
Supposons que m1 soit définie sur P(Ω1 ) et que m2 soit définie sur P(Ω2 ), alors
pour pouvoir combiner ces deux fonctions de masse il faudra les étendre à P(Ω1 ×
Ω2 ). Cette extension est donnée par l’Equation 3.9:
{
1 ↑Ω1 ×Ω2
m1 (A) si B = A × Ω2
mΩ
1 (B) = , ∀A ⊆ Ω1
0 sinon
{
m2 (A) si B = Ω1 × A
m2Ω2 ↑Ω1 ×Ω2 (B) = , ∀A ⊆ Ω2 (3.9)
0 sinon

3.3.4.3 Marginalisation

L’opération inverse de l’extension qui permet de définir une fonction de masse


sur P(Ω1 ) à partir d’une fonction de masse définie sur P(Ω1 × Ω2 ) est appelée
marginalisation. La fonction de masse obtenue est donnée par l’Equation 3.10:

mΩ1 ×Ω2 ↓Ω1 (A) = mΩ1 ×Ω2 (B) (3.10)
B⊆Ω1 ×Ω2 , P roj(B↓Ω1 )=A

sachant que P roj(B ↓ Ω1 ) = {a ∈ Ω1 |∃b ∈ Ω2 , (a, b) ∈ B}.


68 CHAPTER 3. THÉORIES DE L’INCERTAIN

3.4 Théorie des fonctions de Croyance appliquée à


l’estimation de la probabilité d’occurrence d’un
évènement indésirable
Dans ce qui suit, nous présenterons des méthodes pour calculer la probabilité
d’occurrence de l’EI dans le cadre des fonctions de croyance. Il s’agit des méthodes
qui ont inspiré le travail présenté dans ce manuscrit, le but étant de les améliorer
et de les étendre aux AdDs non-cohérents. On commencera par présenter quelques
situations qui peuvent nous amener à avoir des probabilités imprécises (données
sous forme d’intervalles ou avec des fonctions de masse). Ensuite nous présen-
terons une méthode, dite brute, qui permet de combiner les différentes fonctions
de masse dont nous disposerons au début de l’analyse d’un AdD dans le but de
construire la fonction de masse de l’EI. Finalement, nous allons présenter une
simplification proposée dans [Martinez et al., 2015] pour estimer la probabilité
d’occurrence de l’EI d’un AdD cohérent.

3.4.1 Données de base


Le calcul de la probabilité d’occurrence de l’EI nécessite la connaissance de deux
informations indispensables : la structure de l’AdD et les probabilités d’occurrence
de tous les évènements de base mis en évidence par l’AdD.

3.4.1.1 Modélisation de la structure de l’AdD dans le cadre de la théorie des


fonctions de croyance

Avant de parler des probabilités d’occurrence des évènements de base il faut savoir
de quels évènements de base il s’agit. Il se trouve que ces derniers ne seraient
connus qu’une fois l’AdD construit. D’une manière générale, pouvoir construire un
AdD nous permet de répondre à deux questions :

• Quels sont les évènements de base qui ont un effet sur l’occurrence de l’EI ?

• Quelle est la structure qui lie l’occurrence ou la non-occurrence de ces évène-


ments de base à l’occurrence de l’EI ?

Dans nos travaux nous considérons qu’on peut rencontrer un des trois cas suivants
lorsqu’on veut analyser un AdD :

Premier cas C’est le cas le plus simple et le plus répandu. C’est celui où on dispose d’un
AdD fourni par une source sûre. Dans ce cas-là, l’AdD sera représenté par
3.4. THÉORIE DES FONCTIONS DE CROYANCE APPLIQUÉE À L’ESTIMATION DE LA PROBABIL-
ITÉ D’OCCURRENCE D’UN ÉVÈNEMENT INDÉSIRABLE 69

une fonction de masse mconf qui possède un seul élément focal A donné par
l’Equation 3.11 :

A = {(X1 , . . . , Xn , XT ) ∈ Θ × ΩT , φ(X1 , . . . , Xn ) = XT } (3.11)

où φ est la fonction de structure de l’AdD. Sachant que mconf possède un


seul élément focal A et qu’on est sûr de la structure de l’AdD alors on a
mconf (A) = 1.

Deuxième cas Reprenant le cas précédent mais considérant que la source qui a fourni
l’AdD n’est plus aussi sûre. Dans ce cas-là, l’AdD sera représenté par une
fonction de masse mconf qui possède deux élément focaux A et A′ donnés
respectivement par l’Equation 3.11 et Θ × ΩT où mconf (A) < 1 quantifie
la confiance qu’on peut accorder à la source qui a fourni l’AdD et 1 =
mconf (A) + mconf (A′ ).

Troisième cas À partir du deuxième cas nous pouvons aller encore plus loin, supposons que
nous avons r sources (experts) et que chacune présente un AdD différent.
Dans cette situation, l’ensemble des r AdDs sera représenté par une fonction
de masse mconf possédant r éléments focaux notés Ai , avec 1 ≤ i ≤ r. Ils
sont donnés par l’Equation 3.12 :

Ai = {(X1 , . . . , Xni , XT ) ∈ Θ × ΩT , φi (X1 , . . . , Xni ) = XT } (3.12)

où φi est la fonction de structure de l’AdD proposé par la i-ème source et


mconf (Ai ) quantifie la confiance qu’on peut accorder à cette source.

3.4.1.2 Estimation des probabilités d’occurrence des évènements de base

Que l’on soit dans le premier, le deuxième, ou le troisième cas donnés précédem-
ment, les évènements de base seraient bien connus et déterminés. Il restera alors
à estimer la probabilité d’occurrence de chacun de ces évènements. Si on dispose
d’une quantité de données suffisante sur l’occurrence d’un évènement de base Ei
alors sa probabilité d’occurrence est calculée d’une manière précise et on a :


 mi ({0}) = P (Xi = 0)
mi ({1}) = P (Xi = 1)


mi (Ωi ) = 0

Il peut arriver parfois que l’on ne dispose pas de données suffisantes pour es-
timer avec précision la probabilité d’occurrence d’un évènement de base. Prenant
70 CHAPTER 3. THÉORIES DE L’INCERTAIN

l’exemple extrême où nous n’avons pas du tout de données sur l’occurrence d’un
évènement de base Ei alors tout ce qu’on peut dire est que sa probabilité d’occurrence
pi est entre 0 et 1, on écrit alors:


 mi ({0}) = 0
mi ({1}) = 0


mi (Ωi ) = 1

Dans la suite nous allons exposer quelques situations qui peuvent amener à des
estimations imprécises de la probabilité d’occurrence d’un évènement de base Ei ,
i.e. mi (Ωi ) > 0 :

1 Approche subjective : il peut arriver parfois qu’on ne puisse pas estimer


la probabilité d’occurrence d’un évènement pour diverses raisons (absence
de données, évènement hypothétique etc.). Faire appel à des experts dans
ce genre de situations peut s’avérer pertinent. Donc plutôt que de donner
une valeur fixe à la probabilité d’occurrence de l’événement, ça serait plus
sûr pour l’expert de donner un intervalle qui encadre la probabilité, quitte à
donner [0, 1] dans le cas d’ignorance totale.

Parfois les experts sont plus disposés à donner un taux de défaillance λ.


L’avantage est qu’en supposant une distribution exponentielle (i.e. on sup-
pose que λ est constant), ce taux nous permet d’avoir la probabilité d’occurrence
de l’évènement en fonction du temps, i.e. p(t) = 1 − e−λt . Cependant, il
n’est pas toujours possible de connaitre la valeur de λ d’une manière précise.
Dans ce cas, l’expert donnera un intervalle [λ, λ] qui borne la vraie valeur
de λ. Cela aboutira à une fonction de probabilité inconnu mais encadrée
par deux fonctions : p(t) = 1 − e−λt et p(t) = 1 − e−λt . Pour revenir à une
analyse quantitative discrète il suffit de fixer t = t0 pour avoir un intervalle
qui encadre p, i.e. p ∈ [1 − e−λt0 , 1 − e−λt0 ] [Almond, 1995].

On a alors la fonction de masse qui sera donnée en fonction du temps comme


suit : 
−λt

 mi ({0})(t) = e
mi ({1})(t) = 1 − e−λt


mi (Ωi )(t) = e−λt − e−λt

Cela correspond, en fixant le t à t0 , a :


3.4. THÉORIE DES FONCTIONS DE CROYANCE APPLIQUÉE À L’ESTIMATION DE LA PROBABIL-
ITÉ D’OCCURRENCE D’UN ÉVÈNEMENT INDÉSIRABLE 71


−λt0

 mi ({0})(t0 ) = e
mi ({1})(t0 ) = 1 − e−λt0


mi (Ωi )(t0 ) = e−λt0 − e−λt0
Dans la suite, on considère que t est fixe ce qui nous permettra de construire
les fonctions de masses des évènements de base. Cela nous permettra de
calculer la fonction de masse de l’EI pour avoir un intervalle qui encadre sa
probabilité d’occurrence.

Une telle approche est très critiquée car très subjective, mais aussi parce
qu’il existe différents aspects à prendre en compte [O’Hagan et al., 2006]
comme par exemple le choix de l’expert. Doit-on prendre l’expert qui a conçu
l’AdD ou d’autres experts du domaine mais qui n’ont pas intervenue dans
la modélisation ? On peut aussi se poser la question du nombre d’experts
nécessaire pour valider une telle estimation. Cette approche reste néanmoins
pertinente principalement face à un manque de données.

2 Approche fréquentiste : Considérons que nous puissions expérimenter l’occurrence


de Ei et supposons que nous fassions l’expérience x fois. Alors une approxi-
mation basique de la probabilité d’occurrence pi de l’évènement de base Ei
est donnée par l’Equation 3.13 [Neyman, 1937] :

xobs
pi = (3.13)
x

où xobs est le nombre de fois où nous avons observé Ei .

Maintenant supposons que nous n’ayons pas observé Ei i.e. xobs = 0, alors en
appliquant l’Equation 3.13 on trouve que pi = 0. Or, ceci n’est pas forcément
vrai, on préférera dire que : [ ]
1
pi ∈ 0,
x
Autrement dit on admet que Ei peut survenir mais comme nous ne l’avons
pas observé sur x expérimentations alors on suppose que sa probabilité
1
d’occurrence est inférieure à et en l’absence de plus d’information alors
x
1
on prend tout l’intervalle [0, ], on écrit alors :
x

 1

 m ({0}) = 1 −
 i x
mi ({1}) = 0



 mi (Ωi ) = 1
x
72 CHAPTER 3. THÉORIES DE L’INCERTAIN

3 Données censurées : Maintenant supposons que sur les x expérimentations


nous avons observé Ei xobs fois. Par contre nous avons perdu une partie des
données : nous avons xcen expérimentations où on ne sait pas si Ei s’est
produit ou pas.

Nous allons définir p0i et p1i comme suit :

p0i = P (Xi = 1, sachant la non-occurrence de


Ei dans aucune des expérimentations perdues)
p1i = P (Xi = 1, sachant l’occurrence de Ei
dans chacune des expérimentations perdues)

On voit bien que pi est encadré par p0i et p1i ce qui donne :

pi ∈ [p0i , p1i ]
[ ]
xobs xobs + xcen
pi ∈ ,
x x
On écrit alors : 
 xobs + xcen

 mi ({0}) = 1 −
 x
xobs
mi ({1}) =

 x

 mi (Ωi ) = xcen
x

3.4.2 Estimation de la probabilité d’occurrence de l’évènement


indésirable

Une fois la structure de l’AdD modélisée par une fonction de masse et que toute
l’information détenue sur les différents évènements de base est représentée par
leurs fonctions de masse respectives, il nous reste à calculer la fonction de masse
de l’EI qui représentera la croyance finale qu’on aura dans le fait que l’EI se produit.

Dans la suite, nous présenterons d’une méthode qui permet d’obtenir la fonc-
tion de masse de l’EI en combinant les différentes fonctions de masse qui représen-
tent les données de départ. Ensuite, nous clôturerons ce chapitre en présentant le
résultat proposé dans [Martinez et al., 2015] qui permet de réduire, sous certaines
conditions, la complexité de la méthode brute.
3.4. THÉORIE DES FONCTIONS DE CROYANCE APPLIQUÉE À L’ESTIMATION DE LA PROBABIL-
ITÉ D’OCCURRENCE D’UN ÉVÈNEMENT INDÉSIRABLE 73

3.4.2.1 Méthode brute

La méthode brute consiste en la combinaison des fonctions de masse mi des


évènements de base Ei et de la masse de configuration mconf en utilisant la règle
de combinaison conjonctive. L’utilisation de cette règle est conditionnée par le
fait que toutes les fonctions de masse soient définies sur le même ensemble, donc
pour pouvoir l’utiliser il faudra étendre chaque fonction de masse mi de l’ensemble
P(Ωi ) à l’ensemble P(Θ). Ensuite, il sera nécessaire d’étendre le résultat de la
combinaison des fonctions de masse des évènements de base de l’ensemble P(Θ)
à l’ensemble P(Θ × ΩT ) pour pouvoir combiner m avec mconf . Finalement, on
réduira par projection la nouvelle fonction de masse obtenue à l’ensemble P(ΩT )
(Equation 3.10). Ce qui donne formellement :
(( )Θ↑Θ×ΩT )Θ×ΩT ↓ΩT
1 ↑Θ
mT = mΩ
1 ∩ ... ∩ mnΩn ↑Θ ∩ mconf (3.14)

Où Θ = ×ni=1 Ωi .
Un récapitulatif des étapes de cette méthode tiré de [Martinez et al., 2015] est
donné dans la Figure 3.1.
L’inconvénient de cette méthode provient de la combinaison conjonctive des
fonctions de masse des évènements de base car la nouvelle fonction de masse
obtenue aura au maximum 3n éléments focaux, n étant le nombre d’évènements
de base. Par conséquent, pour les grands AdDs la quantité de calculs et la taille
des éléments focaux augmentent rapidement et d’une manière exponentielle. Pour
pâlir à ce problème les auteurs ont proposé de modifier cette méthode. Leur
proposition est de combiner les fonctions de masse des évènements de base mi
avec mconf une à une en marginalisant après chaque combinaison à un ensemble
de dimension inférieure. D’une manière plus formelle la proposition est donnée
par la formule récurrente suivante:



 m = mconf
 t0 ( Ω ↑×n Ω ×Ω )×nj=i+1 Ωj ×ΩT ↓×nj=i+2 Ωj ×ΩT
∩ mti
i+1 j=i+1 j T
mti+1 = mi+1 (3.15)



mT = mtn

Exemple 3. Considérons l’AdD donné par la Figure 3.2. C’est un AdD d’un système
qui sera défaillant si l’évènement E1 ainsi que l’évènement E2 se produisent. Sup-
posant que les probabilités d’occurrence p1 et p2 des évènements de base E1 et E2 sont
imprécises, elles sont données par : p1 ∈ [0.05, 0.1] et p2 ∈ [0.08, 0.1]. Les fonctions de
74 CHAPTER 3. THÉORIES DE L’INCERTAIN

Figure 3.1 – Méthode brute

Figure 3.2 – AdD de l’Exemple 3

masse m1 et m2 des évènements de base E1 et E2 ainsi que la fonction de masse qui


3.4. THÉORIE DES FONCTIONS DE CROYANCE APPLIQUÉE À L’ESTIMATION DE LA PROBABIL-
ITÉ D’OCCURRENCE D’UN ÉVÈNEMENT INDÉSIRABLE 75

modélise la structure de l’arbre mconf sont données par la Table 3.1.

m1 ({0}) = 0.90
E1 m1 ({1}) = 0.05
m1 (Ω1 ) = 0.05
m2 ({0}) = 0.90
E2 m2 ({1}) = 0.08
m2 (Ω2 ) = 0.02
La structure de l’AdD mconf ({(0, 0, 0), (0, 1, 0), (1, 0, 0), (1, 1, 1)}) = 1

Table 3.1 – Données de base de l’AdD donné dans la Figure 3.2

L’application de la méthode brute sur l’AdD donné dans la Figure 3.2 se fait comme
suit :

• Nous calculons l’extension de m1 et de m2 à l’ensemble P(Ω1 × Ω2 ) (cf. Table


3.2).
1 ↑Ω1 ×Ω2
mΩ1 ((0, Ω2 )) = 0.90
1 ↑Ω1 ×Ω2
E1 mΩ1 ((1, Ω2 )) = 0.05
Ω1 ↑Ω1 ×Ω2
m1 ((Ω1 , Ω2 )) = 0.05
Ω2 ↑Ω1 ×Ω2
m2 ((Ω1 , 0)) = 0.90
Ω2 ↑Ω1 ×Ω2
E2 m2 ((Ω1 , 1)) = 0.08
Ω2 ↑Ω1 ×Ω2
m2 ((Ω1 , Ω2 )) = 0.02

Table 3.2 – L’extension des fonctions de masse des évènements de base

1 ↑Ω1 ×Ω2 2 ↑Ω1 ×Ω2


• Nous calculons, ensuite, la combinaison de mΩ
1 et de mΩ
2 . On aura
alors une nouvelle fonction de masse m1 ∩ 2 (A) qui possède 32 = 9 éléments
focaux donnés par la Table 3.3.

• La fonction de masse m1 ∩ 2 (A) doit être étendue à l’ensemble P(Ω1 ×Ω2 ×ΩT ), ce
qui donnera une nouvelle fonction de masse m1Ω∩1 ×Ω2
2 ↑Ω1 ×Ω2 ×ΩT
dont les éléments
focaux sont donnés par la Table 3.4.

• L’avant dernière étape se résume à combiner la fonction de masse m1Ω∩1 ×Ω 2


2 ↑Ω1 ×Ω2 ×ΩT

obtenue précédemment et la fonction de masse mconf qui modélise la structure


de l’AdD. Ce qui donnera une nouvelle fonction de masse dont les éléments
focaux sont donnés par la Table 3.5.
(( )Ω1 ×Ω2 ↑Ω1 ×Ω2 ×ΩT )
Ω1 ↑Ω1 ×Ω2 Ω2 ↑Ω1 ×Ω2
• Pour finir la fonction de masse m1 ∩ mn ∩ mconf
doit être marginalisée à P(ΩT ) ce qui donnera la fonction de masse mT de l’EI
76 CHAPTER 3. THÉORIES DE L’INCERTAIN

Élément focal masse


(0, 0) 0.90 · 0.90 = 0.810
(0, 1) 0.90 · 0.08 = 0.072
(1, 0) 0.05 · 0.90 = 0.045
(1, 1) 0.05 · 0.08 = 0.004
(0, Ω2 ) 0.90 · 0.02 = 0.018
(1, Ω2 ) 0.05 · 0.02 = 0.001
(Ω1 , 0) 0.05 · 0.90 = 0.045
(Ω1 , 1) 0.05 · 0.08 = 0.004
(Ω1 , Ω2 ) 0.05 · 0.02 = 0.001

Table 3.3 – Les éléments focaux de la nouvelle fonction de masse obtenue après
combinaison de m1Ω1 ↑Ω1 ×Ω2 et de mΩ
2
2 ↑Ω1 ×Ω2

Élément focal masse


(0, 0, ΩT ) 0.810
(0, 1, ΩT ) 0.072
(1, 0, ΩT ) 0.045
(1, 1, ΩT ) 0.004
(0, Ω2 , ΩT ) 0.018
(1, Ω2 , ΩT ) 0.001
(Ω1 , 0, ΩT ) 0.045
(Ω1 , 1, ΩT ) 0.004
(Ω1 , Ω2 , ΩT ) 0.001

Table 3.4 – Les éléments focaux de la nouvelle fonction de masse étendue à P(Ω1 × Ω2 ×
ΩT )

donnée par l’Equation 3.16.




 mT ({0}) = 0.81 + 0.072 + 0.045 + 0.018 + 0.045 = 0.990
mT ({1}) = 0.004 (3.16)


mT (ΩT ) = 0.001 + 0.004 + 0.001 = 0.006

Donc, avec les données de départ on obtient que la probabilité d’occurrence de


l’EI est encadrée par l’intervalle [0.004, 0.010].

D’un autre côté, si on applique la méthode brute améliorée on obtient le même


résultat avec des calculs moins longs et moins complexes :

• On commence par étendre la fonction de masse m1 de l’évènement de base E1 à


P(Ω1 ×Ω2 ×ΩT ), on obtient alors une nouvelle fonction de masse m1Ω1 ↑Ω1 ×Ω2 ×ΩT
3.4. THÉORIE DES FONCTIONS DE CROYANCE APPLIQUÉE À L’ESTIMATION DE LA PROBABIL-
ITÉ D’OCCURRENCE D’UN ÉVÈNEMENT INDÉSIRABLE 77

Élément focal masse


(0, 0, 0) 0.810 · 1 = 0.810
(0, 1, 0) 0.072 · 1 = 0.072
(1, 0, 0) 0.045 · 1 = 0.045
(1, 1, 1) 0.004 · 1 = 0.004
(0, Ω2 , 0) 0.018 · 1 = 0.018
(1, Ω2 , ΩT ) 0.001 · 1 = 0.001
(Ω1 , 0, 0) 0.045 · 1 = 0.045
(Ω1 , 1, ΩT ) 0.004 · 1 = 0.004
(Ω1 , Ω2 , ΩT ) 0.001 · 1 = 0.001

Table 3.5 – Les éléments focaux de la nouvelle fonction de masse obtenue après
combinaison avec mconf

donnée par l’Equation 3.17.


 Ω ↑Ω ×Ω ×Ω

 m1
1 1 2 T
((0, Ω2 , ΩT )) = 0.90
Ω1 ↑Ω1 ×Ω2 ×ΩT
m1 ((1, Ω2 , ΩT )) = 0.05 (3.17)

 Ω1 ↑Ω1 ×Ω2 ×ΩT
m1 ((Ω1 , Ω2 , ΩT )) = 0.05

1 ↑Ω1 ×Ω2 ×ΩT


• Ensuite, on combine mΩ
1 avec mt0 = mconf , ce qui donne une nouvelle
fonction de masse dont les éléments focaux sont donnés par la Table 3.6.

Élément focal masse


{(0, 0, 0), (0, 1, 0)} 0.90 · 1 = 0.90
{(1, 0, 0), (1, 1, 1)} 0.05 · 1 = 0.05
{(0, 0, 0), (0, 1, 0), (1, 0, 0), (1, 1, 1)} 0.05 · 1 = 0.05

Table 3.6 – Les éléments focaux de la nouvelle fonction de masse

• Cette fonction de masse doit être marginalisée à P(Ω2 × ΩT ) pour donner mt1 .
D’un autre côté, la fonction de masse m2 de l’évènement de base E2 doit être
étendue à P(Ω2 × ΩT ) pour pouvoir la combiner avec mt1 . Les deux nouvelles
fonctions de masse définies sur P(Ω2 × ΩT ) sont données par les Equations 3.18
et 3.19.  Ω ↑Ω ×Ω

 m2
2 2 T
((0, ΩT )) = 0.90
Ω2 ↑Ω2 ×ΩT
m2 ((1, ΩT )) = 0.08 (3.18)

 Ω2 ↑Ω2 ×ΩT
m2 ((Ω2 , ΩT )) = 0.02


 mt1 ({(0, 0), (1, 0)}) = 0.90
mt1 ({(0, 0), (1, 1)}) = 0.05 (3.19)


mt1 ({(0, 0), (1, 0), (1, 1)}) = 0.05
78 CHAPTER 3. THÉORIES DE L’INCERTAIN

• Le résultat de la combinaison entre mt1 et de m2Ω2 ↑Ω2 ×ΩT est une fonction de
masse dont les éléments focaux sont donnés par la Table 3.7.

Élément focal masse


(0, 0) 0.90 · 0.90 + 0.90 · 0.05 + 0.90 · 0.05 = 0.900
(1, 0) 0.08 · 0.90 = 0.072
(1, 1) 0.08 · 0.05 = 0.004
(1, ΩT ) 0.08 · 0.05 = 0.004
(Ω2 , 0) 0.02 · 0.90 = 0.018
(Ω2 , ΩT ) 0.02 · 0.05 + 0.02 · 0.05 = 0.002

Table 3.7 – Les éléments focaux de la fonction de masse obtenue après la combinaison de
2 ↑Ω2 ×ΩT
mt1 et de mΩ2

• Finalement, la fonction de masse mT de l’EI est donnée par mt2 obtenue après
la marginalisation de la fonction de masse obtenue dans le point précédent. La
fonction de masse mT est donnée par l’Equation 3.20.


 mT ({0}) = 0.9 + 0.072 + 0.018 = 0.990
mT ({1}) = 0.004 (3.20)


mT (ΩT ) = 0.004 + 0.002 = 0.006

Cette fonction de masse est la même que celle obtenue avec la méthode brute.
Donc, finalement, la probabilité d’occurrence de l’EI est encadrée par l’intervalle
[0.004, 0.010].

La version améliorée de la méthode brute permet de réduire la complexité.


Néanmoins, cette version nécessite encore beaucoup de calculs et devient inadap-
tée aux grands AdDs. Sous certaines conditions, on peut utiliser une autre méthode
moins complexe qui permet d’avoir le résultat plus rapidement.

3.4.2.2 Cas d’un arbre de défaillance cohérent

Les auteurs de [Martinez et al., 2015] ont étudié certains cas particuliers pour pou-
voir réduire la complexité de la méthode brute ou la méthode brute améliorée. Ils
ont démontré, que dans le cas d’un AdD cohérent, l’intervalle qui encadre la prob-
abilité d’occurrence de l’EI peut être obtenu directement à partir des intervalles
qui encadrent les probabilités d’occurrence des évènements de base sans passer
par les fonctions de masse et la combinaison conjonctive. Grâce à la croissance
de la fonction de structure d’un AdD cohérent, on trouve que, d’un côté, la borne
inférieure P de l’intervalle qui encadre la probabilité d’occurrence de l’EI dépend
3.4. THÉORIE DES FONCTIONS DE CROYANCE APPLIQUÉE À L’ESTIMATION DE LA PROBABIL-
ITÉ D’OCCURRENCE D’UN ÉVÈNEMENT INDÉSIRABLE 79

X1

X2

1 0

Figure 3.3 – BDD de l’AdD donné par la Figure 3.2

uniquement des bornes inférieure pi des intervalles qui encadrent les probabilités
d’occurrence des évènements de base Ei . D’un autre côté, la borne supérieure P ne
dépend que des bornes supérieures pi des intervalles qui encadrent les probabilités
d’occurrence des évènements de base. Le lien entre P et pi ainsi que le lien entre P
et pi est le principe d’inclusion-exclusion (Théorème 2). En utilisant les BDDs, les
bornes P et P sont alors données par les Equations 3.21 et 3.22:
∑ ∏ ∏
P= pi (1 − pi ) (3.21)
ch∈P Xi ∈P + −
ch Xi ∈Pch

∑ ∏ ∏
P= pi (1 − pi ) (3.22)
ch∈P Xi ∈P + −
ch Xi ∈Pch

Où P est l’ensemble des chemins qui partent de la racine vers le nœud terminal
1, Pch
+
est l’ensemble des indexes des nœuds présents dans le chemin ch avec leur

arc − 1 et Pch est l’ensemble des indexes des nœuds présents dans le chemin ch
avec leur arc − 0.

Exemple 3

Nous allons reprendre l’Exemple3. Comme l’AdD de l’exemple est cohérent alors nous
lui appliquerons les Equations 3.21 et 3.22 pour obtenir le résultat final. Le BDD de
l’AdD donné par la Figure 3.2 est donné dans la Figure 3.3.
À partir du BDD de la Figure 3.3 et en appliquant les Equations 3.21 et 3.22 on
trouve que :
P = p1 p2 = 0.05 · 0.08 = 0.004

P = p1 p2 = 0.1 · 0.1 = 0.01

On retrouve l’intervalle [0.004, 0.01] obtenu dans la partie précédente.


En utilisant les BDDs, l’analyse d’un AdD cohérent dans le cadre des fonctions
de croyance se résume à un double parcours du BDD de l’AdD. Ce qui donne
80 CHAPTER 3. THÉORIES DE L’INCERTAIN

l’intervalle qui encadre la probabilité d’occurrence de l’EI. Par contre, cette méth-
ode n’est pas valable dans le cas d’un AdD non-cohérent. Nous allons voir un ex-
emple dans le chapitre suivant où on obtient un intervalle dont la borne inférieure
est supérieure à sa borne supérieure. Dans ce cas-là on ne peut que revenir à la
méthode brute améliorée pour pouvoir encadrer la probabilité d’occurrence de
l’EI.

3.5 Conclusion
Dans ce chapitre, nous avons introduit les notions essentielles de la théorie des
probabilités et de la théorie des fonctions de croyance. Nous nous sommes concen-
trés sur les notions utilisées dans cette thèse qui sont indispensables à la bonne
compréhension du travail réalisé dans ce manuscrit. Nous avons présenté les no-
tions de fonction de masse, fonction de probabilité inférieure et fonction de prob-
abilité supérieure. La règle de combinaison conjonctive qui permet de manipuler
les fonctions de masses ainsi que les notions d’extension et de marginalisation ont
aussi été présentées.
Ensuite, nous avons présenté quelques méthodes développées dans le cadre de
la théorie des fonctions de croyance pour estimer la probabilité d’occurrence d’un
EI. La première et la deuxième méthode sont basées sur des concepts propres à
la théorie des fonctions de croyance. La dernière permet d’étendre les méthodes
développées dans le cadre des probabilités classiques à la théorie des fonctions de
croyance. Nous avons aussi mis en évidence les limites de chacune de ces trois
méthodes.
Dans ce qui suit, nous reprendrons la méthode brute améliorée et nous allons
la combiner avec les BDDs dans le but de proposer une nouvelle méthode qui
exploite la compacité des BDDs pour réduire la complexité des calculs.
Part II

Contributions
83

Dans cette partie nous allons présenter les différents résultats auxquels nous
sommes parvenus tout au long du travail effectué lors de cette thèse. On rappelle
que nous nous sommes intéressés à deux aspects d’une étude de sûreté de fonc-
tionnement :
D’un côté, on cherche à estimer la probabilité d’occurrence d’un évènement
indésirable. Cette probabilité dépend essentiellement de deux choses : la structure
logique qui lie l’occurrence ou la non-occurrence d’un ensemble d’évènements de
base à l’occurrence de l’EI et les probabilités d’occurrence de chacun des évène-
ments de base.
La connaissance précise de ces données est indispensable pour pouvoir es-
timer la probabilité d’occurrence de l’EI. Or, il peut arriver que la probabilité
d’occurrence d’un évènement de base ne soit pas précise voir inconnue. Dans
ce genre de situation, la probabilité d’occurrence d’un évènement de base sera
donnée par un intervalle qui encadre la vraie probabilité qui est inconnue. Par
conséquent, il faudra trouver une manière d’estimer la probabilité d’occurrence
de l’EI dans ce genre de situation. Les méthodes proposées dans ce genre de
situation dépendent da la cohérence de la structure logique qui lie l’occurrence
de l’EI à l’occurrence et la non-occurrence de l’ensemble des évènements de base:
si cette structure est cohérente alors le calcul est simple et il est aussi complexe
que le cas précis où toutes les probabilités sont connues. Par contre, si elle est
non-cohérente alors les solutions disponibles à ce problème sont de complexité
exponentielle. Notons que nous considérons seulement les évènements binaires i.e.
un évènement ne peut se trouver que dans une situation possible entre occurrence
et non-occurrence.
D’un autre côté, connaitre la probabilité d’occurrence d’un EI n’est pas satis-
faisant parfois. Dans certain cas, on voudrait identifier les évènements de base les
plus important. Autrement dit, les évènements qui contribuent le plus à l’occurrence
de l’EI que ce soit par leurs occurrences ou par leurs non-occurrences. Cela va être
utile dans le cas où on voudrait améliorer la probabilité d’occurrence de l’EI d’une
manière optimale, ça permet aussi d’identifier les évènements de base les plus
sensibles qu’il faudra surveiller pour éviter l’EI.
Pour pouvoir faire cette analyse on a besoin des mêmes informations que
précédemment : connaitre la structure et les probabilités d’occurrence de tous
les évènements de base. À ce niveau par contre, on se retrouve face à deux prob-
lèmes: Comme précédemment il faut qu’on puisse traiter le cas où les probabilités
d’occurrence des évènements de base sont données par des intervalles et en plus
il faut aussi adapter les outils qui permettent de le faire dans le cas précis car ces
outils ont été introduits seulement pour les structures cohérentes.
84 partie II. Contributions

Pour résumer Le but de nos travaux est de répondre aux deux questions suiv-
antes:

1. Quelle est la probabilité d’occurrence d’un EI donné par un arbre de défail-


lance non-cohérent si les probabilités d’occurrence de ses évènements de
base sont imprécises (données par des intervalles) ?

2. Comment réduire d’une manière optimale la probabilité d’occurrence de l’EI


pour répondre à des exigences requises ? En considérant les AdDs cohérents
et non-cohérents et en tenant compte de l’imprécision au niveau des proba-
bilités d’occurrence des évènements de base.

La réponse à la première question constitue le cœur du chapitre 4. Dans ce chapitre,


nous allons proposer deux méthodes qui nous permettrons de répondre à cette
question :
L’un des problèmes majeurs liés aux fonctions de croyances réside dans la com-
plexité élevée des opérations de base (la combinaison, l’extension et la marginalisa-
tion) lors de l’utilisation de la méthode brute. En effet, cette méthode requiert des
calculs de l’ordre de 3n en terme de complexité. Par conséquent, elle reste adaptée
pour un nombre très limité d’événements de base. Toutefois, lors du passage
à l’échelle, elle atteint rapidement ses limites. Pour pallier ce problème, nous
proposons Belief BDD Method qui combine la méthode brute avec les BDDs. Dans
cette méthode, les éléments focaux sont représentés par des BDDs. Cela permet
d’une part de réduire de manière drastique le nombre d’opérations et d’autre part
de s’affranchir d’un certain type d’opérations devenus inutiles. En effet, l’étape de
combinaison se réduit grâce à notre méthode à deux extractions à partir du BDD et
une opération booléenne entre les deux BDDs extraits. Par ailleurs, cette étape de
combinaison retourne un résultat marginalisé sur le bon ensemble. Par conséquent,
la marginalisation n’est plus une étape nécessaire. De même le résultat est obtenu
sans passer par l’extension des fonctions de masse.
Par ailleurs, nous avons développé une méthode qui généralise la méthode
présentée dans la sous-section 3.4.2.1,qui a été définie uniquement pour les AdDs
cohérents. L’idée de base de la deuxième méthode que nous proposons est de
chercher ce qui fait d’un AdD un AdD non-cohérent. Nous nous sommes alors
concentrés sur le lien entre la cohérence de l’AdD et ces évènements de base et
de ce point de vue, les évènements de bas peuvent être classés en trois catégories:
évènements de base cohérents positifs, évènements de base cohérents négatif et
évènements de base non-cohérents. Cette classification nous a permis de réduire la
complexité du problème traité. La méthode que nous proposons, appelée Imprecise
BDD Method, est similaire à une méthode qui permet de calculer la probabilité
85

d’occurrence de l’EI dans le cas précis. Cependant, ce résultat suppose que la


cohérence des évènements de base soit connue par hypothèse et cette partie de
l’étude n’a pas été traité dans ce travail. Le principe de base est d’étudier l’impact
de chaque catégorie d’évènement de base sur l’EI pour pouvoir les traiter chacune
séparément.
Dans la littérature, certains travaux se sont intéressés à l’optimisation de la
méthode brute en essayant de l’étudier sous d’autres angles. C’est le cas notam-
ment du résultat présenté dans la sous-section 3.4.2.2. Cependant, cette méthode
ne traite que le cas où les AdDs sont cohérents. Dans le cadre de nos travaux,
nous proposons une généralisation de cette méthode, afin de prendre en compte
également le cas des AdDs non-cohérents. Pour cela, nous nous sommes parti-
culièrement intéressés au lien entre les événements de base et la cohérence d’un
AdD. Ces événements peuvent être classés en trois catégories : évènements de base
cohérents positifs, évènements de base cohérents négatifs et évènements de base
non-cohérents. À partir de cette classification, et en supposant que la cohérence
des événements de base est connue, nous proposons la méthode Imprecise BDD
Method qui étudie l’impact de chaque catégorie d’événements de base sur l’EI afin
de les traiter séparément. Cette méthode réduit considérablement la complexité
du problème traité, car cela est semblable au calcul de la probabilité d’occurrence
de l’EI dans le cas précis.
Dans le chapitre 5 nous allons traiter la deuxième question considérée. Nous
proposons une nouvelle interprétation de la notion du facteur d’importance de
Birnbaum. Cette nouvelle interprétation est justifiée par le fait qu’il existe une
différence entre la structure d’un AdD cohérent et un AdD non-cohérent. En effet,
l’absence d’impact d’un évènement de base Ei et l’impact de la non-occurrence
de cet événement sont modélisés de la même manière dans le cas d’un AdD
cohérent. Or, ce n’est pas le cas pour un AdD non-cohérent. Par conséquent, afin
de prendre en compte cette différence, nous proposons une réécriture du facteur
d’importance de Birnbaum qui permet de distinguer ces deux cas de figure. Cela
permet de réécrire le facteur de Birnbaum d’une nouvelle manière qui permet de
les utiliser sur des AdDs non-cohérent. Cela permet aussi d’utiliser la compacité
des diagrammes de décision binaire pour pouvoir calculer d’une manière efficace
les facteurs d’importance des évènements de base d’un AdD non-cohérent. Les
AdDs cohérents et non-cohérents sont donc traités sans que leur cohérence n’ait
un impact sur le calcul. Par ailleurs, afin de prendre en compte les probabilités
d’occurrence imprécises des évènements de base, nous proposons de combiner
une méthode de calcul des facteurs d’importance proposé dans la littérature et
Imprecise BDD Method pour pouvoir calculer les facteurs d’importance dans le cas
86 partie II. Contributions

imprécis.
Chapter 4

Probabilité d’occurrence de
l’évènement indésirable

4.1 Introduction
Dans ce chapitre nous nous intéresserons au problème suivant : considérons un
EI, nous disposons d’un AdD qui identifiera, d’un côté, l’ensemble des évènements
de base impliqués dans l’occurrence de l’EI et d’un autre côté la structure logique
qui lie l’occurrence ou non de ces évènements de base à l’occurrence de l’EI. En
d’autres mots l’AdD peut être cohérent ou non-cohérent. Nous disposons aussi
des probabilités d’occurrence de tous les évènements de base données sous forme
d’intervalles. Notons que le fait d’ignorer totalement la valeur de la probabilité
d’occurrence d’un évènement de base Ei n’est pas un handicap car il suffira de con-
sidérer que pi ∈ [0, 1]. Notons aussi que le fait d’avoir une probabilité d’occurrence
d’un évènement de base Ei précise ne pose pas non plus de problème car on
considèrera que pi ∈ [pi , pi ].
À partir de ces informations nous souhaitons calculer la probabilité d’occurrence
de l’EI et à défaut de la calculer nous voudrions l’encadrer par un intervalle.
Effectivement, nous pourrions dire tout simplement que P ∈ [0, 1] mais un EI est
par définition un évènement dont la probabilité doit être la plus petite possible et
dire que cette probabilité peut être égale à 1 est inutile. Le but est d’avoir intervalle
qui ne soit pas trop conservatif et dont la borne supérieure est assez petite pour
pouvoir tolérer l’EI dans une analyse de sûreté de fonctionnement.
Dans la suite nous présenterons deux méthodes qui vont permettre de traiter
ce problème. La première méthode n’est autre que la méthode brute améliorée
présentée dans le chapitre précédent combinée avec les BDDs, ce qui nous permet-
tra d’améliorer sensiblement la complexité des calculs. Pareillement à ce qui a été
fait avec les AdDs cohérents, la deuxième méthode est une tentative de simplifier
la méthode brute améliorée par l’utilisation de deux formules simples mais cette
fois pour traiter les AdDs cohérents et non cohérents. Nous allons introduire le
88 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

principe de la cohérence des évènements de base. cela nous permettra de proposer


une formule générale équivalente à celle proposée par Sallak et al. [Martinez et al.,
2015] quand l’AdD est cohérent mais qui sera valable aussi dans le cas d’un AdD
non-cohérent.

4.2 Belief BDD Method


La première méthode que nous proposons est basée sur la méthode brute améliorée
donnée par l’Equation 3.15 combinée aux BDDs. Nous avons écrit dans le chapitre
3 qu’il existe deux interprétations des fonctions de croyance. Le problème que nous
traitons dans ce chapitre est basé sur l’interprétation probabiliste des fonctions
de croyance. Autrement dit le but est de trouver un intervalle qui encadre la
probabilité d’occurrence de l’EI à partir des intervalles qui encadrent les prob-
abilités d’occurrence des évènements de base. Grâce aux bijections introduites
dans le chapitre 3, nous avons vu que les intervalles de probabilité peuvent être
représentés par des fonctions de masse et vice versa (Les Equations 3.2, 3.3, 3.4 et
3.7). Dans la suite nous allons utiliser des fonctions de masse obtenues à partir
des intervalles qui encadrent les probabilités d’occurrence des évènements de
base pour trouver la fonction de masse de l’EI. Enfin, l’intervalle qui encadre la
probabilité d’occurrence de l’EI sera construit à partir de la fonction de masse de
l’EI.
Le principe de Belief BDD Method est de représenter les éléments focaux de
la fonction de masse mconf qui représente l’AdD par des BDDs, pour qu’en suite
nous puissions faire les opérations de base de la théorie des fonctions de croyance
utilisées dans la méthode brute améliorée directement sur ces BDDs qui représen-
tent les éléments focaux de mconf . Rappelons la formule récurrente donnée par
l’Equation 3.15 :


 m = mconf
 t0 ( Ω ↑×n Ω ×Ω )×nj=i+1 Ωj ×ΩT ↓×nj=i+2 Ωj ×ΩT
∩ mti
i+1 j=i+1 j T
mti+1 = mi+1



mT = mtn

Le but de la méthode est de pouvoir construire mT donnée par mtn d’une


manière récurrente à partir de mt0 = mconf . Nous commencerons par traiter
le premier cas de la sous-section 3.4.1.1 : nous rappellerons que dans ce pre-
mier cas la fonction de masse mconf possède un seul élément focal Aconf qui
représente la structure sûre (sans incertitudes) de l’AdD fourni par une source
sûre, i.e. mconf (Aconf ) = 1. Nous traiterons les deux autres cas ensuite. L’élément
4.2. BELIEF BDD METHOD 89

focal Aconf est donc donné par l’équation suivante :

Aconf = {(X1 , . . . , Xn , XT ) ∈ Θ × ΩT , φ(X1 , . . . , Xn ) = XT } (4.1)

tel que φ est la fonction de structure de l’AdD traité.


L’idée de Belief BDD Method vient du fait qu’en utilisant la règle de combinaison
conjonctive entre une fonction de masse qui possède un élément focal (un sous-
ensemble) Aconf ⊆ Θ × ΩT avec une fonction de masse m1 qui possède les trois
éléments focaux suivants :

{(0, Ω2 , . . . , Ωn , ΩT )}
{(1, Ω2 , . . . , Ωn , ΩT )}
{(Ω1 , Ω2 , . . . , Ωn , ΩT )}

alors on obtient systématiquement une nouvelle fonction de masse avec trois


éléments focaux qui sont donnés par la Table 4.1.

Élément focal masse


{(X1 , . . . , Xn , XT ) ∈ Aconf , X1 = 0} mconf (Aconf )m1 ({0})
{(X1 , . . . , Xn , XT ) ∈ Aconf , X1 = 1} mconf (Aconf )m1 ({1})
{(X1 , . . . , Xn , XT ) ∈ Aconf , X1 = 0}∪
mconf (Aconf )m1 (Ω1 )
{(X1 , . . . , Xn , XT ) ∈ Aconf , X1 = 1}

Table 4.1 – Les éléments focaux de mt1 avant la marginalisation

Par conséquent, après la marginalisation sur Ω2 × . . . × Ωn × ΩT , les éléments


focaux de mt1 seront donnés par la Table 4.2.

Élément focal masse


{(X2 , . . . , Xn , XT ) ∈ Ω2 × . . . × Ωn × ΩT , tel que
mconf (A)m1 ({0})
(0, X2 , . . . , Xn , XT ) ∈ Aconf }
{(X2 , . . . , Xn , XT ) ∈ Ω2 × . . . × Ωn × ΩT , tel que
mconf (A)m1 ({1})
(1, X2 , . . . , Xn , XT ) ∈ Aconf }
{(X2 , . . . , Xn , XT ) ∈ Ω2 × . . . × Ωn × Ω∪T , tel que
(0, X2 , . . . , Xn , XT ) ∈ Aconf }
mconf (Aconf )m1 (Ω1 )
{(X2 , . . . , Xn , XT ) ∈ Ω2 × . . . × Ωn × ΩT , tel que
(1, X2 , . . . , Xn , XT ) ∈ Aconf }

Table 4.2 – Les éléments focaux de mt1

D’une manière générale si une fonction de masse mtj possède lj élément focal:
A1 , A2 , . . . , Alj alors la fonction de masse mtj+1 possèdera 3lj éléments focaux
90 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

donnés par la Table 4.3 :

Pour i = 1, . . . , lj
Élément focal Masse
{(Xj+2 , . . . , Xn , XT ) ∈ Ωj+2 × . . . × Ωn × ΩT , tel que
mtj (Ai )mj+1 ({0})
(0, Xj+2 , . . . , Xn , XT ) ∈ Ai }
{(Xj+2 , . . . , Xn , XT ) ∈ Ωj+2 × . . . × Ωn × ΩT , tel que
mtj (Ai )mj+1 ({1})
(1, Xj+2 , . . . , Xn , XT ) ∈ Ai }
{(Xj+2 , . . . , Xn , XT ) ∈ Ωj+2 × . . . × Ωn × ∪ΩT , tel que
(0, Xj+2 , . . . , Xn , XT ) ∈ Ai }
mtj (Ai )mj+1 (Ωj+1 )
{(Xj+2 , . . . , Xn , XT ) ∈ Ωj+2 × . . . × Ωn × ΩT , tel que
(1, Xj+2 , . . . , Xn , XT ) ∈ Ai }

Table 4.3 – Les éléments focaux de mtj+1

Dans la suite, les éléments focaux d’une fonction de masse mtj+1 qui en possède
3lj , seront notés comme suit, pour tout i = 1, . . . , lj :

(j+1)0
Ai =
{(Xj+2 , . . . , Xn , XT ) ∈ Ωj+2 × . . . × Ωn × ΩT , tel que (0, Xj+2 , . . . , Xn , XT ) ∈ Ai }
(j+1)1
Ai = (4.2)
{(Xj+2 , . . . , Xn , XT ) ∈ Ωj+2 × . . . × Ωn × ΩT , tel que (1, Xj+2 , . . . , Xn , XT ) ∈ Ai }
(j+1)2
Ai = (4.3)
{(Xj+2 , . . . , Xn , XT ) ∈ Ωj+2 × . . . × Ωn × ΩT , tel que (0, Xj+2 , . . . , Xn , XT ) ∈ Ai }
∪{(Xj+2 , . . . , Xn , XT ) ∈ Ωj+2 × . . . × Ωn × ΩT , tel que(1, Xj+2 , . . . , Xn , XT ) ∈ Ai }
(4.4)

La méthode que nous proposons a pour but de réduire la complexité de la méth-


ode brute améliorée et ceci en tenant compte des observations faites précédem-
ment tout en profitant de la compacité de BDDs. Autrement dit, nous proposons
un moyen qui permet d’avoir les éléments focaux de mtj+1 directement à partir
des éléments focaux de mtj en utilisant les BDDs sans faire des combinaison, des
marginalisation ou des extension.
Pour commencer, nous allons définir BDD1Θ×ΩT comme étant l’ensemble des
BDDs de la famille des fonctions booléennes {1Aconf , tel que Aconf ⊆ Θ × ΩT },
sachant que 1Aconf est définie sur Θ × ΩT dans {0, 1} et donnée par l’Equation 4.5.
{
1 si X ∈ Aconf
1Aconf (X) = (4.5)
0 sinon
4.2. BELIEF BDD METHOD 91

D’une manière plus formelle, l’ensemble BDD1Θ×ΩT est donné par l’Equation 4.6.

BDD1Θ×ΩT = {BDD de la fonction f , tel que f ∈ {1Aconf , tel que Aconf ⊆ Θ×ΩT }}
(4.6)
Pour rappel dans le cas traité ici, mconf possède un seul élément Aconf donné par
l’Equation 4.1.

Ensuite, considérons la fonction ΨΘ×ΩT définie sur Θ × ΩT dans BDD1Θ×ΩT et


donnée par l’Equation 4.7.

ΨΘ×ΩT (Aconf ) = B1Aconf (4.7)

Où B1Aconf est le BDD de la fonction booléenne 1Aconf . Nous rappelle que le


mot BDD représente les diagrammes de décision binaire ordonnés et réduits. Par
conséquent, la fonction Ψ est bijective. Autrement dit, elle associe un unique BDD
à chaque sous ensemble de Θ × ΩT . Cette fonction est utile pour faire des allers-
retours entre les éléments focaux des fonctions de masse et les BDDS. Nous allons
l’utiliser pour associer un BDD a l’élément focal de la fonction de masse mconf pour
qu’en suite faire le parallèle avec les observations données précédemment. Le but
ici est de partir du BDD ΨΘ×ΩT (Aconf ) pour en extraire les BDDs suivants :

ΨΩ2 ×...×Ωn ×ΩT (A110 )

ΨΩ2 ×...×Ωn ×ΩT (A111 )

ΨΩ2 ×...×Ωn ×ΩT (A112 )

où A110 , A111 et A112 sont donnés par les Equations 4.2, 4.3 et 4.4.

Le but étant de retrouver ces trois BDDs directement à partir du BDD ΨΘ×ΩT (Aconf )
sans passer par la fonction Ψ, sans faire la combinaison conjonctive ni la marginali-
sation ni l’extension. En d’autres mots, sans faire la moindre opération non-relative
aux BDDs.

Ces trois BDDs peuvent effectivement être récupéré directement à partir de


ΨΘ×ΩT (Aconf ). Le premier BDD ΨΩ2 ×...×Ωn ×ΩT (A110 ) est le BDD du cofacteur négatif
de Shannon de la fonction booléenne 1Aconf . Le second BDD ΨΩ2 ×...×Ωn ×ΩT (A111 ) est
le BDD du cofacteur positif de Shannon) de la même fonction booléenne 1Aconf .
Autrement dit ce sont, respectivement, les BDDs dont la racine est le nœud pointé
par l’arc discontinue arc − 0 et l’arc continue arc − 1 de la racine du ΨΘ×ΩT (Aconf ).
Quant au troisième BDD il est obtenu directement à partir de ΨΩ2 ×...×Ωn ×ΩT (A110 )
92 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

et de ΨΩ2 ×...×Ωn ×ΩT (A111 ), il est donné par l’Equation 4.8.

ΨΩ2 ×...×Ωn ×ΩT (A112 ) = ΨΩ2 ×...×Ωn ×ΩT (A110 ) ∨ ΨΩ2 ×...×Ωn ×ΩT (A111 ) (4.8)

En effet, on a :

ΨΩ2 ×...×Ωn ×ΩT (A112 ) = ΨΩ2 ×...×Ωn ×ΩT (A110 ∪ A111 )


= B1 1 ∪ 11
A10 A1

= B1 1 ∨1 11
A10 A1

= B1 1 ∨ B1 1
A10 A11

D’une manière générale si une fonction de masse mtj possède lj élément focal
A1 , A2 , . . . , et Alj alors nous aurons lj BDDs qui correspondent aux fonctions
booléennes 1A1 , 1A2 , . . . , 1Alj . À partir de ces BDDs nous obtiendrons 3lj BDDs
qui seront les images des éléments focaux de la fonction de masse mtj+1 par la
fonction ΨΩj+2 ×...×Ωn ×ΩT . Les 3lj BDDs de la fonction de masse mtj+1 sont donnés
comme suit, pour tout i = 1, . . . , lj :

(j+1)0
ΨΩj+2 ×...×Ωn ×ΩT (Ai )
(j+1)1
ΨΩj+2 ×...×Ωn ×ΩT (Ai ) (4.9)
(j+1)0 (j+1)1
ΨΩj+2 ×...×Ωn ×ΩT (Ai ) ∨ ΨΩj+2 ×...×Ωn ×ΩT (Ai )

(j+1) (j+1)
Où ΨΩj+2 ×...×Ωn ×ΩT (Ai 0
) et ΨΩ2+1 ×...×Ωn ×ΩT (Ai 1
) sont les BDDs des deux co-
facteurs négatif et positif de Shannon de la fonction booléenne 1Ai .
Pour résumer la Belief BDD Method consiste à transformer l’ensemble Aconf
donné par l’Equation 4.1 en un BDD avec la fonction ΨΘ×ΩT donnée par l’Equation
4.7. Ensuite à partir de ce BDD on extrait 3 BDDs donnés par :

ΨΩ2 ×...×Ωn ×ΩT (A110 )

ΨΩ2 ×...×Ωn ×ΩT (A111 )

ΨΩ2 ×...×Ωn ×ΩT (A010 ) ∨ ΨΩ2 ×...×Ωn ×ΩT (A111 )

Nous continuons ainsi par récurrence en extrayant 3 BDDs de chaque BDD


obtenu dans l’étape précédente comme précisé par les Equations 4.9. On continue
la récurrence jusqu’à l’obtention des BDDs qui représentent les éléments focaux
4.2. BELIEF BDD METHOD 93

{0}, {1} et ΩT de mT donnés par :

ΨΩT ({0})
ΨΩT ({1})
ΨΩT (ΩT )

Pour calculer les masses mT ({0}) et mT ({1}), on procède en partant de ΨΘ×ΩT (Aconf )

XT XT

1 0 1 0 1

Figure 4.1 – Les BDDs ΨΩT ({0}), ΨΩT ({1}) et ΨΩT (ΩT )

à qui on associe mconf (Aconf ) = 1 puis on associe des masses à tous les BDDs
générés selon le modèle présenté dans la Table 4.4.

Pour j = 1, . . . , n et i = 1, . . . , lj−1
BDD masse
j0
ΨΩj+1 ×...×Ωn ×ΩT (Ai ) mtj−1 (Ai )mj ({0})
j1
ΨΩj+1 ×...×Ωn ×ΩT (Ai ) mtj−1 (Ai )mj ({1})
ΨΩj+1 ×...×Ωn ×ΩT (A1 ) ∨ ΨΩj+2 ×...×Ωn ×ΩT (A1 ) mtj−1 (Ai )mj (Ωj )
j0 j1

Table 4.4 – Les BDDs obtenus par récurrence et les masses associées

Une fois que chaque BDD aurait une masse associée alors on somme les masses
associées à ΨΩT ({0}) pour avoir mT ({0}), on somme les masses associées à ΨΩT ({1})
pour avoir mT ({1}) et pour finir on sommes les masse associées à ΨΩT (ΩT ) pour
avoir mT (ΩT ).

m1 ({0}) = 0.90
E1 m1 ({1}) = 0.05
m1 (Ω1 ) = 0.05
m2 ({0}) = 0.90
E2 m2 ({1}) = 0.08
m2 (Ω2 ) = 0.02

Table 4.5 – Données de base de l’AdD donné dans la Figure 3.2

Pour récapituler, Belief BDD Method se synthétise comme suit :


94 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

• On construit le BDD de l’élément focal de mconf et on lui associe la masse de


cette élément focal qui, dans ce cas-là, est égale à 1.

• À partir du BDD précédent on extrait trois BDD : les deux BDDs dont la racine
sont les nœuds pointés par les arcs du BDD original ainsi que la disjonction
de ces deux BDDs. On associe à chacun des trois une valeur calculer suivant
la Table 4.4.

• On répète l’étape précédente pour chacun des BDDs obtenus précédemment


et ainsi de suite jusqu’à l’obtention de l’un des BDDs de la Figure 4.1.

• mT ({0}), mT ({1}) et mT (ΩT ) sont alors données en sommant respectivement


les valeurs associées aux BDDs ΨΩT ({0}), ΨΩT ({1}) et ΨΩT (ΩT )

Exemple 3

Nous allons reprendre l’AdD de l’Exemple 3 donné par la Figure 3.2, ainsi que les
fonctions de masse m1 et m2 des évènements de base E1 et E2 données par la Table
3.1, qu’on rappelle ci-dessus. Pour appliquer Belief BDD Method, on commence par
construire le BDD ΨΩ1 ×Ω2 ×ΩT (Aconf ) donné dans la Figure 4.2, sachant que

Aconf = {(0, 0, 0), (0, 1, 0), (1, 0, 0), (1, 1, 1)}

X1

X2

XT XT

1 0

Figure 4.2 – BDD ΨΩ1 ×Ω2 ×ΩT (Aconf )

À ce BDD nous associeront la masse mconf (Aconf ) qui dans ce cas est égale à 1. De
plus nous allons en extraire les 3 BDDs donnés par les Equations 4.9 (cf. Figure 4.3).
Le premier BDD ΨΩ2 ×...×Ωn ×ΩT (A110 ) représente l’élément focal {0} de la fonction
de masse mT de l’EI car il est égal à ΨΩT ({0}). Les deux autres ne sont pas encore
arrivés au bout de la récurrence et donc nous appliquerons sur chacun des deux BDDs
4.2. BELIEF BDD METHOD 95

1 · 0.05 = 0.05 1 · 0.05 = 0.05

X2 X2

1 · 0.90 = 0.90

XT XT XT XT

1 0 1 0 1 0

Figure 4.3 – Les BDDs ΨΩ2 ×ΩT (A110 ), ΨΩ2 ×ΩT (A111 ) et ΨΩ2 ×ΩT (A112 )

le même processus que nous avons appliqué sur ΨΩ1 ×Ω2 ×ΩT (Aconf ) et on obtient les
BDDs donnés dans les deux Figures 4.4 et 4.5.

0.05 · 0.90 = 0.045 0.05 · 0.08 = 0.004

XT XT

0.05 · 0.02 = 0.001

1 0 1 0 1

Figure 4.4 – Les BDDs ΨΩT (A220 ), ΨΩT (A221 ) et ΨΩT (A222 )

0.05 · 0.90 = 0.045

XT

0.05 · 0.08 = 0.004 0.05 · 0.02 = 0.001

1 0 1 1

Figure 4.5 – Les BDDs ΨΩT (A230 ), ΨΩT (A231 ) et ΨΩT (A232 )

Enfin, nous avons obtenu 3 BDDs qui représentent l’élément focal {0} de la fonc-
tion de masse mT de l’EI, c’est les BDDs qui sont égaux à ΨΩT ({0}) (les BDD :
ΨΩ2 ×ΩT (A110 ), ΨΩT (A220 ), ΨΩT (A230 )). Nous avons aussi obtenu 3 BDDs qui représen-
tent l’élément focal ΩT de la fonction de masse mT de l’EI, ces trois BDDs sont égaux
à ΨΩT (ΩT ) (les BDD : ΨΩT (A222 ), ΨΩT (A231 ), ΨΩT (A232 )). Enfin, un seul qui représente
l’élément focal {1} de la fonction de masse mT de l’EI(ΨΩT (A221 )). Ce qui donne comme
résultat la fonction de masse de l’EI :
96 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE



 mT ({0}) = 0.9 + 0.045 + 0.045 = 0.990
mT ({1}) = 0.004


mT (ΩT ) = 0.001 + 0.004 + 0.001 = 0.006
Enfin, on conclut que la probabilité d’occurrence de l’EI donné par l’AdD de la Figure
3.2 est P ∈ [0.004, 0.010], sachant que p1 ∈ [0.05, 0.10] et que p2 ∈ [0.08, 0.10]. Notons
que si on avait considéré que p1 = 0.10+0.05
2
et p2 = 0.10+0.08
2
alors P = 0.00675 ∈
[0.004, 0.01]. On rappelle aussi que dans le chapitre 3 nous avons obtenu exactement
le même intervalle en appliquant la méthode brute définie dans le cadre de la théorie
des fonctions de croyance sur le même AdD. Nous avons aussi obtenu le même résultat
en utilisant la sous-section 3.4.2.2.

Incertitude sur la structure de l’arbre de défaillance

Pour étendre Belief BDD Method aux deuxième et au troisième cas de la sous-
section 3.4.1.1, on remarquera que mT ({0}), mT ({1}), ainsi que mT ({ΩT ) sont
écrites comme le produit de mconf (Aconf ) par une autre quantité. Cette remarque
nous permet d’étendre notre méthode au cas où l’EI est donné par un unique AdD
sachant que la source n’est pas sûre à 100%. Nous avons vu que dans ce cas-là mconf
aura deux élément focaux : Aconf qui représentera la structure de l’AdD et dont la
masse mconf (Aconf ) < 1 représentera le degré de confiance accordé à la source de
l’AdD et Ω1 × . . . × Ωn × ΩT dont la masse représentera le doute. Dans ce cas-là
le calcul se fera de la même manière que dans le premier cas, la seule différence
apparait lors du calcul des masses des trois premiers BDDs obtenus. Dans le cas
précédent on avait effectué une multiplication par 1 des trois premières valeurs,
alors qu’ici on multiplie par mconf (Aconf ) qui est par définition inférieur à 1. Notons
qu’à partir de l’élément focal Ω1 × . . . × Ωn × ΩT on n’obtiendra ni l’élément focal
{0} ni {1}. Autrement dit, la masse de Ω1 × . . . × Ωn × ΩT n’interviendra pas dans
le calcul de mT ({0}) ni dans le calcul de mT ({1}) mais seulement dans le calcul
de mT (ΩT ).
Le troisième cas qui représente une situation où on dispose de k AdDs différent
pour le même EI sachant que chacun de ces AdDs est donnés avec un degré de
confiance. Ce cas se traite d’une manière similaire à celle du premier cas, on
appliquera la méthode utilisée dans le premier cas sur chacun des éléments focaux
de mconf qui représentent un des AdDs proposés. Par conséquent, on commencera
la méthode avec k BDDs. Ensuite, à partir de chacun de ces BDDs on obtient 3
autres BDDs à qui on associe les valeurs en suivant la Table 4.4. Pour finir, on
sommera toutes les fonctions de masse obtenues à partir de tous les éléments
4.2. BELIEF BDD METHOD 97

focaux de mconf pour obtenir la fonction de masse de l’EI.

Figure 4.6 – AdD de l’Exemple 4

Exemple 4. Considérons un deuxième exemple d’un AdD non-cohérent donné par


la Figure 4.6. C’est l’AdD d’un système qui sera défaillant seulement si l’évènement
E1 ainsi que l’évènement E2 se produisent ou si des deux évènements E1 et E3 ne
se produisent pas. Les probabilité d’occurrence des évènements de base E1 , E2 et E3
de cet AdD sont encadrées par trois intervalles donnés comme suit: p1 ∈ [0.01, 0.03],
p2 ∈ [0.10, 0.10] et p3 ∈ [0.90, 0.99]. De ces intervalles on construit les fonctions de
masses des évènements de base m1 , m2 et m3 . Ces fonctions de masse ainsi que la
fonction de masse qui modélise la structure de l’arbre mconf sont données par la Table
4.6.
Pour finir il suffit seulement de construire le BDD ΨΩ1 ×Ω2 ×Ω3 ×ΩT (Aconf ) avec
Aconf = {(0, 0, 0, 1), (0, 0, 1, 0), (0, 1, 0, 1), (0, 1, 1, 0), (1, 0, 0, 0), (1, 0, 1, 0), (1, 1, 0, 1), (1, 1, 1, 1)})
et de lancer Belief BDD Method. Le déroulement du calcul est détaillé dans la Figure
4.7. Enfin, il suffit de sommer les différentes masses du BDD ΨΩT ({0}) pour trouver
mT ({0}) = 0.89820 et de sommer les différentes masses du BDD ΨΩT ({1}) pour
98 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

m1 ({0}) = 0.97
E1 m1 ({1}) = 0.01
m1 (Ω1 ) = 0.02
m2 ({0}) = 0.90
E2 m2 ({1}) = 0.10
m2 (Ω2 ) = 0
m3 ({0}) = 0.01
E3 m3 ({1}) = 0.90
m3 (Ω2 ) = 0.09
mconf ({(0, 0, 0, 1), (0, 0, 1, 0), (0, 1, 0, 1), (0, 1, 1, 0),
La structure de l’AdD
(1, 0, 0, 0), (1, 0, 1, 0), (1, 1, 0, 1), (1, 1, 1, 1)}) = 1

Table 4.6 – Les données de base de l’AdD donné dans la Figure 4.6

trouver mT ({1}) = 0.01072. Par conséquent, on trouve que dans le cas de cet exemple
nous avons P ∈ [0.01072, 0.10180].
Si on refais le même exemple mais en considérant que mconf (Aconf ) = 0.9 et
mconf (Ω1 × . . . × Ωn × ΩT ) = 0.1 on retrouve que P ∈ [0.00965, 0.19162] ce qui cor-
respond à l’intervalle qu’on aurait obtenu si on avait simplement multiplié mT ({0})
et mT ({1}) par 0.9. Un dernier constat qu’on peut faire est que [0.01072, 0.10180] ⊂
[0.00965, 0.19162]. Ce qui nous permet de conclure que l’incertitude sur la structure de
l’AdD a un grand impact sur l’incertitude qu’on aura sur la probabilité d’occurrence
de l’EI. Dans cet exemple, l’incertitude qu’on avait sur la probabilité d’occurrence de
l’EI représentée par la largeur de l’intervalle qui encadre cette probabilité a doublé
après l’insertion de 10% de doute sur la structure de l’AdD ce qui est logique.
Notons que si on avait appliqué naïvement la méthode expliquée dans la sous-
section 3.4.2.2 sans tenir compte de la condition d’application de cette méthode (la
cohérence de l’AdD), alors on aurait obtenu un intervalle dont la borne inférieur
est plus grande que la borne supérieure : [0.100, 0.0127]. Ce résultat est évidement
absurde et prouve l’intérêt d’étudier différemment les AdDs non-cohérents.

Discussion

On voit bien qu’avec Belief BDD Method, on évite d’utiliser toutes les opérations de
combinaison, de marginalisation ou d’extension qui vont être remplacées par deux
extractions de BDDs et une opération booléenne entre les deux BDDs extraits. La
différence principale entre les deux méthodes vient de la compacité des BDDs, ce
qui permet de réduire le nombre de récurrences dans plusieurs cas. Cette réduction
est assurée pour n’importe quel AdD ce qui réduit considérablement le nombre
d’éléments focaux calculés avant d’arriver à la fonction de masse mT de l’EI.
4.2. BELIEF BDD METHOD 99

Ce que nous pouvons reprocher à cette méthode est le nombre particulièrement


grand des BDDs générés lors du processus de récurrence. Ce nombre est directe-
ment lié à la taille du BDD principal, ce qui fait que sa réduction est équivalente

E1

E2

E3

ET ET

1 0
E2

E3 E3
E2 E3

ET ET
ET ET ET ET

1 0
1 0 1 0
1 · 0.01 = 0.01 1 · 0.97 = 0.97 1 · 0.02 = 0.02

ET ET 1
0.02 · 0 = 0
1 0 1 0

0.01 · 0.9 = 0.009 0.97 · 0.01 = 0.0097 E3 E3

ET ET

1 0 1 0 ET ET

0.01 · 0.1 = 0.001 0.97 · 0.9 = 0.873


1 0 1 0
1 1 0.02 · 0.1 = 0.002 0.02 · 0.9 = 0.018
0.01 · 0 = 0 0.97 · 0.09 = 0.0873

ET 1 1 ET

0.002 · 0.9 = 0.0018 0.018 · 0.01 = 0.00018


1 0 1 0
1 1
0.002 · 0.01 = 0.00002 0.018 · 0.9 = 0.0162
0.002 · 0.09 = 0.00018 0.018 · 0.09 = 0.00162

Figure 4.7 – Belief BDD Method appliquée sur l’AdD donné par la Figure 4.6
100 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

à la réduction de la taille d’un BDD et ce problème n’a pas été traité dans cette
thèse. Une autre manière de réduire le nombre de BDDs générés est d’enregistrer
les résultats intermédiaires pour ne pas explorer le même BDD plusieurs fois, mais
on génère quand même un grand nombre de BDDs. Dans la suite, nous allons
essayer de contourner ce problème de nombre de BDDs générés dans le but de
proposer une méthode plus optimale qui permet d’avoir un résultat intéressant
avec un seul BDD. Nous nous sommes focalisés sur la nature des évènements de
base ainsi qu’à la façon avec laquelle ils impactent l’occurrence de l’EI, ce qui nous
a permis de proposer une deuxième méthode pour trouver un encadrement de la
probabilité d’occurrence de l’EI.

4.3 Imprecise BDD Method


Dans [Martinez et al., 2015], les auteurs ont démontré que la méthode brute
proposée précédemment peut être réduite à deux formules : les Equations 3.21
et 3.22. Par contre, cela est valable seulement dans le cas des AdDs cohérents.
La première formule pour calculer la borne inférieure de l’intervalle qui encadre
la probabilité d’occurrence de l’EI et la deuxième formule pour calculer la borne
supérieure du même intervalle. Le but de cette section est de réduire de la même
manière la méthode brute mais cette fois en prenant en compte les AdDs non-
cohérents et cohérents.
Nous allons nous concentrer sur les évènements de base pour étudier leurs
impacts sur l’occurrence de l’EI. Le but est de classer les évènements de base selon
la manière avec laquelle ils contribuent à l’occurrence de l’EI pour pouvoir les
traiter en conséquence.

4.3.1 Cohérence des évènements de base


Nous avons vu précédemment que la non-cohérence d’un AdD non-cohérent est
due à l’introduction de la porte "NON" dans les AdDs. L’existence d’une telle porte
amène à des fonctions de structure où on retrouve des variables de la forme x, ce
qui fait que cette fonction de structure peut perdre sa croissance. Par conséquent,
la relation (Equations 3.21 et 3.22) entre la borne inférieure P de l’intervalle
qui encadre la probabilité d’occurrence de l’EI et les bornes inférieures pi des
intervalles qui encadrent les probabilités d’occurrence des évènements de base
Ei ne peut plus être correcte. Ce qui est le cas aussi pour la relation entre la
borne supérieure P et les bornes supérieures pi des intervalles qui encadrent les
probabilités d’occurrence des évènements de base Ei .
4.3. IMPRECISE BDD METHOD 101

On propose de commencer par classer les évènements de base en deux caté-


gories : les évènements de base qui se retrouvent sous une porte "NON" et les
évènements qui ne sont jamais sous une porte "NON". Formellement, Un évène-
ment de base Ei appartiendra à la deuxième catégorie si et seulement si l’égalité
donnée par l’Equation 4.10 est vérifiée.

∀X Θ/Ωi ∈ Θ/Ωi , φ(X/Xi =1 ) ≥ φ(X/Xi =0 ) (4.10)

Nous appellerons les évènements de base qui vérifient cette inégalité les évène-
ments de base cohérents positifs. Ils ont la particularité de contribuer à l’occurrence
de l’EI seulement par leurs occurrences. Dans un AdD cohérent, tous les évène-
ments de base sont cohérents positifs, ce qui est une conséquence directe de la
croissance de la fonction de structure.

En ce qui concerne la première catégorie, les évènements de base qui sont sous
une porte "NON" se décomposent en deux sous-catégories : les évènements de base
qui sont toujours sous une porte "NON" et les évènements de base qui sont parfois
sous une porte "NON" et parfois ne le sont pas. D’une manière plus formelle, un
évènement de base Ei appartient à la première sous-catégorie si l’égalité donnée
par l’Equation 4.11 est vérifiée.

∀X Θ/Ωi ∈ Θ/Ωi , φ(X/Xi =1 ) ≤ φ(X/Xi =0 ) (4.11)

Nous appellerons les évènements de cette catégorie évènements de base co-


hérents négatifs. Contrairement aux évènements de base cohérents positifs, les
évènements de base cohérents négatifs contribuent à l’occurrence de l’EI par et
seulement pas leur non-occurrence. La particularité de ces évènements est qu’ils
peuvent être transformés en des évènements cohérents positifs. Pour cela il suffit
de considérer l’évènement de base complémentaire de l’évènement de base Ei au
lieu de l’évènement de base Ei dans l’AdD. Si on remplace tous les évènements de
base cohérents négatifs par leurs complémentaires on retrouve un AdD cohérent.

La dernière catégorie représente les évènements de base qui sont parfois sous la
porte "NON" et parfois non sont appelés les évènements de base non-cohérents.
Un évènement de base Ei est appelé non-cohérent si sa cohérence dépend de l’état
du reste des autres évènements de base. Autrement dit, si il a le comportement
d’un évènement de base cohérent positif selon une certaine configuration X Θ/Ωi de
l’état du reste des évènements de base et qu’il a le comportement d’un évènement
de base cohérent négatif selon une deuxième et différente configuration X Θ/Ωi .
D’une manière plus formelle, un évènement de base Ei est un évènement de base
102 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

non-cohérent si:

∃X Θ/Ωi ∈ Θ/Ωi , φ(X/Xi =1 ) < φ(X/Xi =0 ) (4.12)


∃X ′Θ/Ωi ∈ Θ/Ωi , ′
φ(X/X ′
i =1

) > φ(X/X ′
i =0
) (4.13)

C’est ce type d’évènements qui donnent le caractère non-cohérent à un AdD. En


d’autres mots, un AdD est non-cohérent s’il a au moins un évènement de base non-
cohérent. Les évènements non-cohérents sont des évènements qui contribuent à
l’occurrence de l’EI par leur occurrence ainsi que leur non-occurrence.
Prenant à titre d’exemple l’AdD donné par la Figure 4.6, cet AdD possède les
trois types d’évènement de base :

• L’évènement de base E2 est un évènement de base cohérent positif car il n’y a


aucun porte "NON" en dessus de lui. En d’autres termes, comme φ(X/X2 =1 ) =
X1 ∨ (X1 ∧ X3 ) et φ(X/X2 =0 ) = (X1 ∧ X3 ) alors on a φ(X/X2 =1 ) ≥ φ(X/X2 =0 )
et ceci quel que soit l’état des évènements de base E1 et E3 . On voit bien
que l’évènement de base E2 contribue uniquement avec son occurrence à
l’occurrence de l’EI. Autrement dit, tant que l’évènement de base E2 ne se
produit pas, l’évènement intermédiaire G1 n’aura aucun impact sur l’occurrence
de l’EI.

• L’évènement de base E3 est un évènement de base cohérent négatif car il y a


une porte "NON" au-dessus de lui. En d’autres termes, comme φ(X/X3 =1 ) =
X1 ∧ X2 et φ(X/X3 =0 ) = (X1 ∧ X2 ) ∨ (X1 ) alors on a φ(X/X3 =1 ) ≤ φ(X/X3 =0 )
et ceci quel que soit l’état des évènements de base E1 et E2 . On voit bien
que l’évènement de base E3 contribue uniquement avec sa non-occurrence
à l’occurrence de l’EI; tant que l’évènement de base E3 se produit alors
l’évènement intermédiaire G2 ne se produira pas et n’aura donc aucun im-
pact sur l’occurrence de l’EI.

• L’évènement de base E1 est non-cohérent car si l’évènement de base E2 se


produit l’occurrence de l’évènement de base E1 provoquera l’occurrence de
l’EI. D’un autre côté, si l’évènement de base E3 ne se produit pas alors la
non-occurrence de l’évènement de base E1 provoquera l’occurrence de l’EI.
En d’autre termes, pour la configuration (X2 = 1 et X3 = 1) nous avons
φ(X/X1 =1 ) > φ(X/X1 =0 ) et pour la configuration (X2 = 0 et X3 = 0) nous
avons φ(X/X1 =1 ) < φ(X/X1 =0 ).

Ce principe de classification des évènements de base n’est pas nouveau. Contini


et al. on fait la même décomposition [Contini and Matuzas, 2010]. Par contre, son
4.3. IMPRECISE BDD METHOD 103

intérêt est plus important dans une analyse où la croissance de la fonction de struc-
ture a un impact directe sur le résultat. C’est dans ce contexte que nous l’utiliserons
pour calculer les bornes de l’intervalle qui encadre la probabilité d’occurrence de
l’EI à partir des bornes des intervalles qui encadrent les probabilités d’occurrence
de ces évènements de base.

4.3.2 Imprecise BDD Method


Prendre en compte la cohérence des évènements de base nous permet d’étudier
la fonction P qui représente la probabilité d’occurrence de l’EI. En utilisant la dé-
composition de Shannon nous pouvons conclure que P est monotone par rapport
à chaque variable pi . En effet, pour tout évènement de base Ei la fonction est
donnée par :

P = pi P/Xi =1 + (1 − pi )P/Xi =0
= pi [P/Xi =1 − P/Xi =0 ] + P/Xi =0

Pour étudier le comportement de la fonction P par rapport à pi , il suffit de la


dériver par rapport à pi , ce qui donne :

∂P
= P/Xi =1 − P/Xi =0
∂pi
∂P
Si est positive alors la fonction P est croissante par rapport à pi alors que si
∂pi
∂P
∂pi
est négative alors la fonction P est décroissante par rapport à pi . On sait par
définition que si un évènement de base Ei est un évènement de base cohérent
positif alors φ(X/Xi =1 ) ≥ φ(X/Xi =0 ) donc P/Xi =1 ≥ P/Xi =0 . De la même manière,
si l’évènement de base Ei est un évènement de base cohérent négatif alors on a
φ(X/Xi =1 ) ≤ φ(X/Xi =0 ) et donc P/Xi =1 ≤ P/Xi =0 .
Cette analyse nous permet de dire que la fonction P est croissante par rapport
à pi si l’évènement de base Ei est cohérent positif et elle est décroissante si Ei
est cohérent négatif. Autrement dit, la borne inférieure de l’intervalle qui encadre
la probabilité d’occurrence de l’EI P dépend de la borne inférieure de l’intervalle
qui encadre la probabilité d’occurrence de l’évènement de base Ei si ce dernier est
cohérent positif ou de la borne supérieur de l’intervalle s’il est cohérent négatif. De
même pour la borne supérieure de l’intervalle qui encadre P qui va dépendre de
la borne supérieure de l’intervalle qui encadre pi si Ei est cohérent positif ou de sa
borne inférieure s’il est cohérent négatif.
Les complications commencent quand on a affaire à un évènement de base
104 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

non-cohérent où on ne peut, à priori, qu’affirmer que la fonction P est monotone


sans pouvoir dire si elle est croissante ou décroissante. Car même si la dérivée
de P par rapport à pi ne dépend pas de pi (Ei étant un évènement de base non-
cohérent), le signe de cette dérivée dépendra de la valeur des autres variables
p1 , . . . , pi−1 , pi+1 , . . . , pn . Ce qui fait qu’on ne peut pas dire à priori de quoi dépen-
dra la borne supérieure P ni la borne inférieure P de l’intervalle qui encadre P
et donc on est obligé de calculer P une fois en utilisant la borne inférieure pi de
l’intervalle qui encadre pi et une autre fois en utilisant sa borne supérieure pi pour
prendre la plus petite des deux. De la même manière, on calcule P une fois avec
la borne inférieure pi de l’intervalle qui encadre pi et une autre fois avec sa borne
supérieure pi et prendre la plus grande des deux.
Plus le nombre d’évènements de base non-cohérents est grand plus le nombre
d’opérations à faire pour obtenir les bornes de l’intervalle qui encadre P est grand.
D’une manière plus précise, si on a r évènements de base non-cohérents alors
il faudra calculer la borne inférieure de l’intervalle qui encadre la probabilité
d’occurrence de l’EI 2r fois en utilisant toutes les combinaisons possibles des bornes
inférieures et supérieures qui encadrent les probabilités d’occurrence des r évène-
ments de base non-cohérents, puis prendre la plus petite valeur obtenue. On aura
à faire le même nombre d’opérations pour avoir la borne supérieure P.
On peut calculer P et P en utilisant 2r+1 le BDD de l’AdD, r étant le nombre
d’évènements de base non-cohérents de l’AdD. P et P seront alors données par les
Equations 4.14 et 4.15 [Jacob et al., 2011].

[
∑ ∏
P= min YN pN + (1 − YN )(1 − pN ) ·
pN ∈{pN ,pN } avec N ∈coh+/−
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN pN + (1 − YN )(1 − pN ) (4.14)
N ∈ch∩coh+/−

[
∑ ∏
P= max YN pN + (1 − YN )(1 − pN ) ·
pN ∈{pN ,pN } avec N ∈coh+/−
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN pN + (1 − YN )(1 − pN ) (4.15)
N ∈ch∩coh+/−
4.3. IMPRECISE BDD METHOD 105

Où P est l’ensemble des chemins qui partent de la racine vers le nœud terminal
1, coh+ est l’ensemble des nœuds indexés par un évènement de base cohérent
positif, coh− est l’ensemble des nœuds indexés par un évènement de base cohérent
négatif, coh+/− est l’ensemble des nœuds indexés par un évènement de base non-
cohérent. Notons que YN = 1 si l’arc − 1 du nœud N appartient au chemin ch,
YN = 0 si l’arc − 0 du nœud N appartient au chemin ch, pN la borne inférieure de
l’intervalle qui encadre la probabilité d’occurrence de l’évènement de base indexé
dans le nœud N , pN la borne supérieure de l’intervalle qui encadre la probabilité
d’occurrence de l’évènement de base indexé dans le nœud N .

Cette méthode donne le plus petit intervalle qui encadre la probabilité d’occurrence
de l’EI P, c’est ce qu’on appellera méthode exacte. Cependant, plus r est grand plus
cette méthode est impraticable à cause du nombre exponentielle de fois où on
doit parcourir le BDD. Par contre, si on accepte d’être plus tolérant sur la taille de
l’intervalle, alors la complexité de cette méthode peut être sensiblement réduite.
On rappelle que ce problème de complexité provient des évènements de base non-
cohérents où on ne peut pas savoir à priori si c’est la borne inférieure de l’intervalle
qui intervient dans le calcul ou si c’est la borne supérieure. Néanmoins, on sait que
pN ≥ pN , car pN est soit égale à pN ou à pN qui est par définition supérieure ou
égale à pN . On sait aussi que pN ≤ pN , car pN est soit égale à pN ou à pN qui est par

définition inférieure ou égale à pN . Ce qui nous permet de dire que [P, P] ⊆ [P′ , P ]

où P′ et P sont données par les Equations 4.16 et 4.17.

[
∑ ∏

P = YN pN + (1 − YN )(1 − pN ) ·
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN pN + (1 − YN )(1 − pN ) (4.16)
N ∈ch∩coh+/−

[
′ ∑ ∏
P = YN pN + (1 − YN )(1 − pN ) ·
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN pN + (1 − YN )(1 − pN ) (4.17)
N ∈ch∩coh+/−
106 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

Preuve

′ ′
L’équation [P, P] ⊆ [P′ , P ] est justifiée par le fait que P′ − P ≤ 0 et que P − P ≤ 0.
En effet, on a :
[
∑ ∏

P −P= min YN pN + (1 − YN )(1 − pN ) ·
pN ∈{pN ,pN } avec N ∈coh+/−
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN (pN − pN ) + (1 − YN )(1 − pN − (1 − pN )))
N ∈ch∩coh+/−

Par conséquent, P′ − P ≤ 0 car pN ≥ pN et pN ≤ pN et cela quel que soit la valeur



de pN . On démontre d’une manière équivalente que P − P ≤ 0. Par conséquent,
on peut en déduire le résultat énoncé.

Pour calculer l’incertitude créée avec cette simplification il faudra calculer P−P′

et P − P. Or, on a vu qu’il n’est pas évident de calculer P et P. Alors on se propose
d’utiliser un intervalle [P”, P”] qui vérifie [P”, P”] ⊆ [P, P]. Cet intervalle une fois
′ ′
défini nous permettra de borner P−P′ et P −P par P”−P′ et P −P” respectivement.

On rappelle que pN ≤ pN et pN ≥ pN . Par conséquent, P” et P” données par les


Equations 4.18 et 4.19 vérifient la propriété recherchée, i.e. [P”, P”] ⊆ [P, P].

[
∑ ∏
P” = YN pN + (1 − YN )(1 − pN ) ·
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN pN + (1 − YN )(1 − pN ) (4.18)
N ∈ch∩coh+/−

[
∑ ∏
P” = YN pN + (1 − YN )(1 − pN ) ·
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN pN + (1 − YN )(1 − pN ) (4.19)
N ∈ch∩coh+/−
4.3. IMPRECISE BDD METHOD 107

Preuve

On a P − P” ≤ 0 et que P” − P ≤ 0. En effet, on a :
[
∑ ∏
P − P” = min YN pN + (1 − YN )(1 − pN ) ·
pN ∈{pN ,pN } avec N ∈coh+/−
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN (pnNN − pN ) + (1 − YN )(1 − pnNN − (1 − pN )))
N ∈ch∩coh+/−

Par conséquent, P − P” ≤ 0 car pN ≥ pN et pN ≤ pN et cela quel que soit la valeur


de pN . On démontre d’une manière équivalente que P” − P ≤ 0. Par conséquent,
on peut en déduire le résultat énoncé.

À partir des Equations 4.16, 4.17, 4.18 et 4.19 on obtient les deux inégalités
suivantes :

P − P′ ≤ P” − P′
[
∑ ∏
≤ YN pN + (1 − YN )(1 − pN ) ·
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN )·
N ∈ch∩coh−
]

YN (pN − pN ) + (1 − YN )[(1 − pN ) − (1 − pN )]
N ∈ch∩coh+/−

′ ′
P − P ≤ P − P”
[
∑ ∏
≤ YN pN + (1 − YN )(1 − pN ) ·
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN )·
N ∈ch∩coh−
]

YN (pN − pN ) + (1 − YN )[(1 − pN ) − (1 − pN )]
N ∈ch∩coh+/−
108 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

Ce qui donne après simplification les Equations 4.20, 4.21:


[
∑ ∏
P − P′ ≤ YN pN + (1−YN )(1 − pN )·
ch∈P N ∈ch∩coh+

YN pN + (1−YN )(1 − pN )·
N ∈ch∩coh−
]

(pN − pN ) (4.20)
N ∈ch∩coh+/−

[
′ ∑ ∏
P −P≤ YN pN + (1−YN )(1 − pN )·
ch∈P N ∈ch∩coh+

YN pN + (1−YN )(1 − pN )·
N ∈ch∩coh−
]

(pN − pN ) (4.21)
N ∈ch∩coh+/−

Les deux inégalités 4.20 et 4.21 permettent de conclure que l’incertitude générée
par l’utilisation des Equations 4.16 et 4.17 dans le calcul des bornes de l’intervalle
qui encadre la probabilité d’occurrence de l’EI P dépend principalement de la taille
des intervalles qui encadrent les probabilités d’occurrence des évènements de base
non-cohérents.

Imprecise BDD Method consiste à utiliser les Equations 4.16 et 4.17 pour cal-
culer les bornes de l’intervalle qui encadre P. Si le résultat est trop large, on
considère l’évènement de base non-cohérent dont la probabilité est encadrée par
l’intervalle le plus large et on utilise les Equations 4.14 et 4.15 avec j = j1 .
Si le résultat est toujours trop large on réutilise les Equations 4.14 et 4.15 en
considérant plus d’un évènement de base non-cohérent, en prenant toujours les
évènements de base non-cohérents dont les intervalles sont les plus larges.

Cette méthode est plus rapide que Belief BDD Method. Par contre, le résul-
tat peut être trop large (éventuellement plus large que l’intervalle [0, 1]) mais la
possibilité de le réduire fait en sorte que cette méthode reste plus intéressante
que la première car elle permet de contrôler l’incertitude générée. Notons qu’un
travail préalable à cette méthode est nécessaire pour pouvoir l’utiliser. En effet,
nous avons considéré que la cohérence des évènements de base est connue ce qui
n’est pas le cas en pratique. La classification des évènements de base peut s’avérer
difficile, nous ne nous sommes pas penchés sur ce problème-là.
4.3. IMPRECISE BDD METHOD 109

Exemple 4

Nous allons reprendre l’Exemple 4 dont l’AdD est donné par la Figure 4.6. On rappelle
que c’est l’AdD d’un système qui sera défaillant seulement si l’évènement E1 ainsi que
l’évènement E2 se produisent ou si des deux évènements E1 et E3 ne se produisent pas.
On rappelle aussi que les probabilité d’occurrence des évènements de base E1 , E2 et E3
de cet AdD sont encadrées respectivement par les intervalles suivant : p1 ∈ [0.01, 0.03],
p2 ∈ [0.10, 0.10] et p3 ∈ [0.90, 0.99]. Nous pouvons constater aisément que E1 est un
évènement de base non-cohérent, E2 est un évènement de base cohérent positif et E3
est un évènement de base cohérent négatif.

E1

E2

E3

1 0

Figure 4.8 – BDD de l’AdD donné par la Figure 4.6

Le BDD de cet AdD est donné par la Figure 4.8, on peut voir qu’on a deux chemins
à partir de la racine jusqu’au nœud terminal 1 : un qui passe par les 1 − arcs des
nœuds indexés par E1 et par E2 et un autre qui passe par les 0 − arcs des nœuds
indexés par E1 et par E3 . En utilisant les Equations 4.16 et 4.17 on obtient que les
bornes de l’intervalle qui encadre la probabilité d’occurrence de l’EI sont :

P′ = p1 p2 + (1 − p1 )(1 − p3 )


P = p1 p2 + (1 − p1 )(1 − p3 )

En remplaçant par les bornes des probabilités d’occurrence données on obtient P ∈


[0.01070, 0.10200]. Rappelons qu’avec Belief BDD Method, on a obtenu P ∈ [0.01072, 0.10180].
On voit bien que l’intervalle obtenu par Imprecise BDD Method est légèrement plus
large que l’intervalle obtenu par Belief BDD Method. Ce qui était prévisible car nous
avions un évènement de base non-cohérent. Dans cet exemple, il est beaucoup plus
intéressant d’utiliser Imprecise BDD Method au lieu de Belief BDD Method car les
deux intervalles résultats ne sont pas sensiblement différents, La différence étant de
l’ordre de 10−3 , elle est liée essentiellement à l’incertitude sur p1 qui est faible. Mais,
évidemment, ça dépend toujours du domaine d’application et du fait d’accepter une
110 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

marge d’erreur de 10−3 ou non.

4.4 Validation
Dans cette section, nous proposons une étude d’efficacité de nos méthodes : Belief
BDD Method et Imprecise BDD Method, en comparaison avec une méthode exacte
et la méthode des simulations de Monte Carlo. Nous considérons que l’efficacité se
traduit par un résultat garanti et qui ne soit pas trop conservatif. Un résultat d’une
méthode est garanti si l’intervalle obtenu par cette méthode englobe le résultat
obtenu en utilisant la méthode exacte. En ce qui concerne le conservatisme, nous
allons définir un taux de conservatisme du résultat d’une méthode comme étant
le rapport entre la différence entre la largeur de l’intervalle de cette méthode
et la largeur de l’intervalle obtenu par la méthode exacte, et la largeur de ce
dernier. Ensuite, nous allons faire une analyse de sensibilité en augmentant la
taille des intervalles qui encadrent les probabilités d’occurrence des évènements
de base dans le but de voir l’impact de cette augmentation sur le taux de con-
servatisme. Nous allons étudier un exemple réel d’un AdD non-cohérent qui a
été l’objet d’une étude faite dans [Zhang and Mei, 1987]. Le choix de cet AdD
est dû en premier lieu à sa non-cohérence mais aussi au fait qu’il ait une taille
raisonnable (19 évènements de base dont 12 évènements de base non-cohérents).
Nous calculerons à chaque fois le temps d’exécution de toutes les méthodes, ce
temps est donné seulement à titre comparatif. Ce temps d’exécution est relatif à la
manière avec laquelle nous avons implémenté les différentes méthodes sachant
que toutes les méthodes dépendent des BDDs et que les BDDs sont à chaque
fois créés en utilisant les mêmes programmes. Par conséquent, utiliser d’autres
algorithmes plus performants d’implémentation de BDDs pourrait améliorer le
temps d’exécution de chacune des méthodes considérées mais n’aura aucun impact
sur les résultats de comparaison des méthodes. Notons que ces résultats ont été
obtenus en utilisant une machine avec un processeur Intel(R) Core(TM) i7-5500U
CPU @ 2.4GHz 2.40GHz et une limite de 16 Go de mémoire installé (RAM).

4.4.1 Description de l’AdD étudié


L’EI décrit par l’AdD de notre exemple est la défaillance d’un système de contrôle
de puissance d’un réacteur nucléaire expérimentale, noté APCS. Ce système a
pour mission de garantir une valeur fixe de la puissance d’un réacteur. Il est
constitué d’une tige de commande (Control Rod), une machine à courant continue
(DC Motor), Excitor, un commutateur (switch) et deux boucles de rétroaction.
4.4. VALIDATION 111

L’APCS est considéré comme étant défaillant si au moins un des six évènements
suivants se produit : la défaillance de l’Excitor, du DC Motor, ou de la tige de
commande. Ces trois évènements sont considérés comme étant des évènements
de base (notés respectivement E1 , E2 et E3 ). Les trois évènements restants sont
des évènements intermédiaires (G1 , G2 et G3). Les deux boucles de rétroaction
sont similaires et elles sont toutes les deux liées au Switch, par conséquent une
des deux est en standby. Une boucle est constituée de sept composants : 3 re-
lais électromagnétiques, un comparateur et son alimentation, un amplificateur et
une chambre d’ionisation. La chambre d’ionisation envoie un courant électrique
I au comparateur qui va le comparer à un courant électrique standard I0 lié à
la puissance souhaitée du réacteur. La différence I − I0 est ensuite envoyée à
l’amplificateur qui va l’envoyer à travers le Switch vers l’Excitor qui va le transférer
au DC Motor qui va soulever ou baisser la tige de commande pour ajuster la
puissance du réacteur. D’autres détails techniques sont disponibles dans [Zhang
and Mei, 1987].
Dans la suite, nous allons seulement considérer la défaillance de l’APCS. Nous
avons vu que l’occurrence de l’un des évènements E1 , E2 ou E3 provoquera L’EI.
Nous avons vu aussi que l’occurrence de l’un des évènements intermédiaires G1 ,
G2 ou G3 provoquera l’occurrence de l’EI. Les évènements G1 et G3 correspondent
respectivement à la défaillance de la boucle 1 et la boucle 2. Une boucle est
considéré comme défaillante si elle tombe en panne et que le Switch bascule
vers elle. Une boucle tombe en panne si au moins un des évènements suivants se
produit : la défaillance de l’amplificateur, la défaillance de la chambre d’ionisation,
la défaillance de l’alimentation du comparateur, la défaillance du comparateur, la
défaillance d’un des trois premiers relais et la défaillance du dernier relais. La
défaillance du premier, deuxième, et troisième relais sont notées respectivement
E4 , E5 , et E6 dans le cas de la première boucle et E7 , E8 et E9 dans le cas de la
seconde boucle. La défaillance de l’amplificateur de la première boucle est notée
E10 . Celle de l’amplificateur de la seconde est notée E11 . La défaillance de la
chambre d’ionisation de la première boucle est notée E12 . Celle de la seconde est
notée E13 . La défaillance de l’alimentation du comparateur de la première boucle
est notée E14 . Celle de la seconde est notée E15 . La défaillance du comparateur
de la première boucle est notée E16 . Celle de la seconde est notée E17 . Pour
finir La défaillance du dernier relais de la première boucle est notée E18 , celle
de la seconde est notée E19 . D’un autre côté, le Switch bascule vers une boucle
si ces trois premiers relais ainsi que son amplificateur, sa chambre d’ionisation
et l’alimentation de son comparateur sont fonctionnelles. Le dernier évènement
intermédiaire G2 qui provoquera l’EI se produira si un des évènements suivants
112 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

Figure 4.9 – AdD de l’APCS


4.4. VALIDATION 113

: E4 , E5 , E6 , E10 , E12 ou E14 se produit en même temps qu’un des évènements


suivants : E7 , E8 , E9 , E11 , E13 ou E15 . À partir de cela, les auteurs du papier ont
donné l’AdD donné par la Figure 4.9. Les probabilités d’occurrence des évènements
de base de cet AdD sont aussi disponibles dans [Zhang and Mei, 1987]. Elles sont
données dans la Table 4.7. La probabilité d’occurrence de l’EI en considérant les
données de base proposées sont alors égales à 0.00650 [Zhang and Mei, 1987].

Ei Nom de l’évènement de base Ei pi


E1 Défaillance de l’Excitor 0.0020
E2 Défaillance du DC Motor 0.0009
E3 Défaillance de la tige de commande 0.0009
E4 Défaillance du relais 1 0.0009
E5 Défaillance du relais 2 0.0009
E6 Défaillance du relais 3 0.0009
E7 Défaillance du relais 4 0.0009
E8 Défaillance du relais 5 0.0009
E9 Défaillance du relais 6 0.0009
E10 Défaillance de l’amplificateur 1 0.0099
E11 Défaillance de l’amplificateur 2 0.0099
E12 Défaillance de la chambre d’ionisation 1 0.0196
E13 Défaillance de la chambre d’ionisation 2 0.0196
E14 Défaillance de l’alimentation 1 0.0099
E15 Défaillance de l’alimentation 2 0.0099
E16 Défaillance du comparateur 1 0.0004
E17 Défaillance du comparateur 2 0.0004
E18 Défaillance du relais 7 0.0099
E19 Défaillance du relais 6 0.0099

Table 4.7 – Les évènements de base de l’AdD donnés par la Figure 4.9 et leurs probabilités
d’occurrence telles qu’elles sont données dans [Zhang and Mei, 1987]

Nous allons traiter le même AdD mais en supposant que les probabilités d’occurrence
des évènements de base ne sont plus précises. Concrètement, nous allons utiliser
des probabilités d’occurrence des évènements de base données par la Table 4.7 et
nous allons y insérer de l’imprécision. Dans certain cas, les nouvelles probabilités
imprécises sont sous forme d’ intervalles centrés autour des probabilités initiales
données par la Table 4.7. Dans d’autre cas, les probabilités initiales peuvent être la
borne inférieure ou supérieure de l’intervalle des nouvelles probabilités imprécises.
Nous avons aussi pris en compte des évènements de base avec des probabilités
précises. Les tailles des intervalles proposés sont de l’ordre de 10−3 . Ce choix est dû
au fait que les probabilités initiales sont en générale de l’ordre de 10−2 . Nous allons
voir plus tard, l’impact des tailles des intervalles sur le résultat final quand il y a
beaucoup d’imprécision. Les intervalles qui encadrent les probabilités d’occurrence
114 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

des évènements de base Ei sont donnés par la Table 4.8 (+ correspond aux évène-
ments de base cohérents positifs et +/− correspond aux évènements de base non-
cohérents).

Ei pi pi Cohérence Ei pi pi Cohérence
E1 0.002 0.007 + E11 0.005 0.01 +/-
E2 0 0.001 + E12 0.0196 0.02 +/-
E3 0.0005 0.0015 + E13 0.0196 0.02 +/-
E4 0.0005 0.0015 +/- E14 0.0005 0.001 +/-
E5 0.0005 0.0015 +/- E15 0.0005 0.001 +/-
E6 0.0005 0.0015 +/- E16 0.0004 0.0004 +
E7 0.0005 0.0015 +/- E17 0.0004 0.0004 +
E8 0.0005 0.0015 +/- E18 0.0005 0.001 +
E9 0.0005 0.0015 +/- E19 0.0009 0.0015 +
E10 0.005 0.01 +/-

Table 4.8 – Les bornes des intervalles qui encadrent les probabilités d’occurrence des
évènements de base ainsi que leurs cohérences

4.4.2 Résultats

Dans la suite, nous allons calculer les bornes de l’intervalle qui encadre la prob-
abilité d’occurrence de l’EI en utilisant différentes méthodes : méthode exacte,
méthode des simulations de Monte Carlo, Belief BDD Method et Imprecise BDD
Method. Les résultat vont être discutés et comparés dans la sous-section 4.4.3.

4.4.2.1 Méthode exacte

Description de la méthode
Chercher l’intervalle exact revient à chercher les bornes P et P de l’intervalle
le moins conservatif possible qui englobe toutes les probabilités d’occurrence pos-
sibles de l’EI obtenues en fixant les probabilités d’occurrence des évènements de
base p1 , . . . , pn dans les intervalles de départ [p1 , p1 ], . . . , [p1 , p1 ]. Nous avons déjà
vu que pour obtenir cette probabilité, il fallait calculer 2r+1 les probabilités P, r
étant le nombre d’évènements de base non-cohérents (cf. la sous-section 4.3.2). P
est alors égale à la plus petite valeur calculée de P et P est égale à la plus grande
valeur calculée de P. On rappelle les Equations 4.14 et 4.15 qui nous permettent
4.4. VALIDATION 115

d’obtenir P et P en utilisant les BDDs :


[
∑ ∏
P= min YN pN + (1 − YN )(1 − pN ) ·
pN ∈{pN ,pN } avec N ∈coh+/−
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN pN + (1 − YN )(1 − pN )
N ∈ch∩coh+/−

[
∑ ∏
P= max YN pN + (1 − YN )(1 − pN ) ·
pN ∈{pN ,pN } avec N ∈coh+/−
ch∈P N ∈ch∩coh+

YN pN + (1 − YN )(1 − pN ) ·
N ∈ch∩coh−
]

YN pN + (1 − YN )(1 − pN )
N ∈ch∩coh+/−

Où P est l’ensemble des chemins qui partent de la racine vers le nœud terminal 1,
coh+ est l’ensemble des nœuds indexés par un évènement de base cohérent positif,
coh− est l’ensemble des nœuds indexés par un évènement de base cohérent négatif,
coh+/− est l’ensemble des nœuds indexés par un évènement de base non-cohérent,
YN = 1 si l’arc − 1 du nœud N appartient au chemin ch, YN = 0 si l’arc − 0
du nœud N appartient au chemin ch, pN la borne inférieure de l’intervalle qui
encadre la probabilité d’occurrence de l’évènement de base indexé dans le nœud
N , pN la borne supérieure de l’intervalle qui encadre la probabilité d’occurrence
de l’évènement de base indexé dans le nœud N .
Résultat
Avec les données de notre exemple l’intervalle exact de la probabilité d’occurrence
de l’EI est égal à [0.00410, 0.01210]. Notons que le temps d’exécution pour obtenir
cet intervalle est de 126 secondes. Dans la suite, nous allons voir ce que nous
obtiendrons comme intervalle qui encadre la probabilité d’occurrence de l’EI en
utilisant la méthode des simulations de Monte Carlo et nos deux méthodes.

4.4.2.2 Méthode des Simulations de Monte Carlo

Description de la méthode
Le résultat obtenu avec la méthode des simulations de Monte Carlo dépend
sensiblement de la loi du tirage des probabilités. Utiliser cette méthode pour
répondre à notre problème revient à suivre les étapes suivantes :
116 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

1 Supposer à priori une loi pour chaque chaque probabilité d’occurrence pi


d’un évènement de base Ei . Les lois qui sont souvent utilisées sont : la loi
uniforme, la loi triangulaire, la loi normal, la loi lognormal, la loi du χ2 , la loi
Bêta et la loi Gamma. Les lois triangulaire et uniforme sont des lois définies
sur des intervalles ce qui fait qu’elle modélise une situation où on est sûr que
la probabilité d’occurrence pi est dans l’intervalle. Quant au autres lois elles
sont définies sur un domaine infini. Par conséquent pour les utiliser il faudra
construire des intervalles de confiance au niveau 1 − α de telle sorte à ce que
cette intervalle soit le même que l’intervalle qui représente la probabilité
d’occurrence pi .

2 Générer une configuration de probabilités d’occurrence p1 , . . . , pn , n étant


le nombre d’évènement de base de l’AdD traité. Les pi sont générées d’une
manière aléatoire suivant les lois choisies à priori.

3 Calculer la probabilité d’occurrence de l’EI à partir des pi générées aléatoire-


ment dans l’étape 2 en utilisant les BDDs.

4 Répéter N fois les étapes 2 et 3 jusqu’à ce que N soit suffisamment grand.


Ces N valeurs représenteront un échantillon des probabilités d’occurrence
de l’EI.

5 Supposer une loi à priori pour la probabilité d’occurrence de l’EI. Si cette loi
est une loi définie sur un intervalle alors on pourra conclure que la plus petite
valeur calculée dans l’étape 4 représente la borne inférieure de l’intervalle
qui encadre la probabilité d’occurrence de l’EI. La borne supérieure est don-
née par la plus grande valeur calculée dans cette même étape. Par contre,
si la loi est une loi définie sur un domaine infini alors on conclura que
l’intervalle qui encadre la probabilité d’occurrence de l’EI est l’intervalle de
confiance obtenu à un niveau 1 − α.

Loi avec un domaine fini


Il est évident qu’avec cette méthode le résultat obtenu est inclus strictement
dans l’intervalle obtenu par la méthode exacte, on peut démontrer que si N tend
vers l’infini alors le résultat des simulations tend vers l’intervalle exact. Pour fixer
la valeur des probabilités d’occurrence des évènements de base il faudra supposer
que la probabilité d’occurrence d’un évènement de base suit une certaine loi sur
l’intervalle qui l’encadre. Dans la suite, nous allons supposer que la valeur de la
probabilité d’occurrence pi d’un évènement de base Ei suit une loi triangulaire. On
rappelle qu’une loi triangulaire possède 3 paramètres ai , bi et ci et que sa fonction
4.4. VALIDATION 117

de densité est donnée par :





2(x−ai )
si ai ≤ x ≤ ci
 (bi −ai )(ci −ai )
2(bi −x)
f (x) = si ci ≤ x ≤ bi


(bi −ai )(bi −ci )
 0 sinon

Les paramètres ai et bi représentent les bornes de l’intervalle qui encadrent la


probabilité recherchée et le paramètre ci représente la valeur la plus semblable
de cette dernière. Cette loi va nous permettre de générer des nombres pi qui
appartiennent à l’intervalle [pi , pi ] tout en contrôlant la médiane des pi générées. La
loi triangulaire est utilisé quand on a aucune information sur la loi d’une variable
aléatoire mais qu’on sait quelle est la plus petite valeur prise par cette variable,
quelle est la plus grande valeur et quelle est la valeur la plus vraisemblable. Cette
loi est facile à implémenter grâce à sa linéarité. Dans la suite, nous allons faire des
simulations pour toutes les probabilités pi des évènements de base Ei mis à part
p16 et p17 que nous avons supposées précis dans notre exemple (cf. la Table 4.8).
D’une manière plus formelle, on suppose que chaque pi suit une loi triangulaire
de paramètres ai = pi , bi = pi et on va étudier différent cas où on va varier ci . Plus
concrètement nous allons étudier trois cas : ci = (ai + bi )/2, ci = ai + 0.0001 et
ci = bi − 0.0001.
Nous allons voir en premier lieu les résultats obtenu en faisant 1000 simula-
tions:

• Dans le cas ci = (ai +bi )/2, l’intervalle qui encadre la probabilité d’occurrence
de l’EI P est égal à [0.00548, 0.01067].

• Dans le cas ci = ai +0.0001, l’intervalle qui encadre la probabilité d’occurrence


de l’EI P est égal à [0.00462, 0.01037].

• Dans le cas ci = bi −0.0001, l’intervalle qui encadre la probabilité d’occurrence


de l’EI P est égal à [0.00584, 0.01150].

En augmentant le nombre de simulations de 1000 à 10000 on obtient les résul-


tats suivants :

• Dans le cas ci = (ai +bi )/2, l’intervalle qui encadre la probabilité d’occurrence
de l’EI P est égal à [0.00503, 0.01110].

• Dans le cas ci = ai +0.0001, l’intervalle qui encadre la probabilité d’occurrence


de l’EI P est égal à [0.00455, 0.01080].
118 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

• Dans le cas ci = bi −0.0001, l’intervalle qui encadre la probabilité d’occurrence


de l’EI P est égal à [0.00529, 0.01167].

Loi avec un domaine infini


Nous allons supposer maintenant que que la valeur de la probabilité d’occurrence
pi d’un évènement de base Ei suit une loi normale dont la moyenne est égale au
centre de l’intervalle qui encadre la probabilité d’occurrence pi . La variance est
donné relativement au niveau de confiance qu’on veut avoir en supposant que
l’intervalle de confiance de la moyenne est l’intervalle qui encadre la probabilité
p +p
d’occurrence pi . Autrement dit, si on a pi qui suit N (mi , σi2 ) alors mi = i 2 i et
mi −p
σ = u1−α/2i . Notons que u1−α/2 est le quantil de la loi normale.
En partant de ces lois nous allons simuler n fois les valeurs p1 , . . . , p19 , puis
nous allons calculer la valuer de la probabilité d’occurrence de l’EI pour chaque
simulation. Ensuite, nous allons supposer que la probabilité d’occurrence de l’EI
suit une loi normale. Par la suite, nous allons construire un intervalle de confiance
pour la moyenne et c’est cet intervalle qui sera considéré comme étant l’intervalle
qui encadre la probabilité d’occurrence de l’EI.
Pour n = 1000 et pour différent α on a les résultat suivant :

• Dans le cas où α = 0.1, l’intervalle de confiance qui encadre la probabilité


d’occurrence de l’EI P est égal à [0.0055, 0.0107].

• Dans le cas où α = 0.05, l’intervalle de confiance qui encadre la probabilité


d’occurrence de l’EI P est égal à [0.0054, 0.0108].

• Dans le cas où α = 0.01, l’intervalle de confiancequi encadre la probabilité


d’occurrence de l’EI P est égal à [0.0052, 0.0110].

Si on auguemante le nombre de simulation alors on obtient pour n = 10000 :

• Dans le cas où α = 0.1, l’intervalle de confiance qui encadre la probabilité


d’occurrence de l’EI P est égal à [0.0055, 0.0107].

• Dans le cas où α = 0.05, l’intervalle de confiance qui encadre la probabilité


d’occurrence de l’EI P est égal à [0.0055, 0.0107].

• Dans le cas où α = 0.01, l’intervalle de confiancequi encadre la probabilité


d’occurrence de l’EI P est égal à [0.0055, 0.0107].

Notons que les temps d’exécution dans le cas de 1000 simulations est d’environ
31 secondes chacune et que le temps d’exécution dans le cas de 10000 simulations
est de 310 secondes, alors que pour le cas N = 100000 le temps d’exécution est de
4.4. VALIDATION 119

3100 secondes. Néanmoins, on remarque que malgré l’augmentation du nombre


de simulations le résultat ne change pas énormément comparé au résultat obtenu
par la méthode exacte et en considérant le temps d’exécution nécessaire. Nous
n’avons pas testé plus de simulations car même si le résultat qu’on aurait obtenu
est égal à l’intervalle exact, le temps nécessaire à l’exécution n’est pas raisonnable.

Méthodes Résultats
Méthode Exacte [0.00410, 0.01210]
(N = 1000)
(1) Monte Carlo Loi triangulaire
[0.00548, 0.01067]
(pi , pi , (pi + pi )/2)
(N = 10000)
[0.00503, 0.01110]
(N = 1000)
(1)
[0.00462, 0.01037]
(pi , pi , pi + 0.0001)
(N = 10000)
[0.00455, 0.01080]
(N = 1000)
(3) Monte Carlo Loi triangulaire
[0.00584, 0.01150]
(pi , pi , pi − 0.0001)
(N = 10000)
[0.00529, 0.01167]
(N = 1000)
[0.00536, 0.01066]
Monte Carlo Loi normale α = 0.1
(N = 10000)
[0.00550, 0.01070]
(N = 100000)
[0.00549, 0.01071]
(N = 1000)
[0.00553, 0.01060]
Monte Carlo Loi normale α = 0.05
(N = 10000)
[0.00548, 0.01067]
(N = 100000)
[0.00549, 0.01068]
(N = 1000)
[0.00555, 0.01079]
Monte Carlo Loi normale α = 0.01
(N = 10000)
[0.00541, 0.01065]
(N = 100000)
[0.00548, 0.01067]
Belief BDD Method [0.00410, 0.01212]
Imprecise BDD Method [0.00410, 0.01212]

Table 4.9 – Récapitulatif des résultats obtenus en appliquant la méthode exacte, la


méthode des simulations de Monte Carlo, Belief BDD Method et Imprecise BDD Method
120 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

Probabilité
0.01210

0.00410
Méthode

N=100000, α = 0.1

N=10000, α = 0.05

N=10000, α = 0.01
N=1000, α = 0.05

N=1000, α = 0.01
N=1000, α = 0.1
(1) MC Loi triangulaire

(2) MC Loi triangulaire

(3) MC Loi triangulaire


Belief BDD Method

Imprecise BDD Method

MC Loi Normal

MC Loi Normal

MC Loi Normal
MC Loi Normal

MC Loi Normal

MC Loi Normal
N=10000

N=10000

N=10000

Figure 4.10 – Récapitulatif graphique des résultats obtenus

4.4.2.3 Belief BDD Method

L’utilisation de Belief BDD Method sur l’AdD en prenant en compte les intervalles
donnés par la Table 4.8 nous permet de trouver les bornes d’un intervalle qui
englobe l’intervalle obtenu par la méthode exacte et donc par la même occasion la
probabilité d’occurrence de l’EI inconnue P. L’intervalle obtenu avec cette méthode
est [0.00410, 0.01212] avec un temps d’exécution égal à 0.4 seconde.

4.4.2.4 Imprecise BDD Method

L’utilisation de Imprecise BDD Method sur l’AdD en prenant en compte les inter-
valles donnés par la Table 4.8 nous permet de trouver les bornes d’un intervalle qui
englobe l’intervalle obtenu par la méthode exacte et donc par la même occasion la
probabilité d’occurrence de l’EI inconnue P. L’intervalle obtenu avec cette méthode
est [0.00410, 0.01212] avec un temps d’exécution égal à 0.06 seconde.

4.4.3 Discussion et analyse des résultats


Un récapitulatif des résultats obtenus en utilisant les différentes méthodes présen-
tées précédemment est donné par la Table 4.9 et la Figure 4.10.
En observant ces différents résultats on voit très bien qu’aucun des intervalles
4.4. VALIDATION 121

obtenus avec la méthode des simulations de Monte Carlo ne permet d’englober


la solution exacte. Ce constat reste valide indépendamment de la loi utilisée pour
simuler les probabilités d’occurrence des évènements de base et indépendamment
du nombre de simulations effectuées. Cela est dû au fait qu’avec des simula-
tions on ne fait que tester différentes valeurs de probabilités prises dans un in-
tervalle suivant une loi donnée et le seule moyen d’avoir la solution exacte c’est de
faire une infinité de simulations. Ce qui n’est pas possible si on veut garantir un
délai d’obtention raisonnable des résultats. Notons aussi que le meilleur intervalle
obtenu ne couvre que 78% de l’intervalle exacte ce qui est à notre avis insuffisant
pour opter pour cette méthode. On précise que cet intervalle est obtenu avec la loi
triangulaire sachant que le meilleur intervalle obtenu avec la loi normale ne couvre
que 65% de l’intervalle exacte. On observe aussi pour la loi normale une absence
de cohérence que ce soit par rapport à l’augmentation du nombre de simulation
ou les différents α considéré.
Par contre, Belief BDD Method et Imprecise BDD Method sont toutes les deux
des méthodes garanties. On remarque dans cet exemple, que Belief BDD Method et
Imprecise BDD Method fournissent le même résultat. Ce résultat englobe le résultat
exact avec un taux de conservatisme égal à 0.25%.

4.4.4 Analyse de sensibilité


Considérons le même AdD avec les mêmes probabilités d’occurrence pour les
évènements de base. Nous allons augmenter la borne supérieure de tous les inter-
valles qui encadrent les probabilités d’occurrence des évènements de base avec une
valeur q pour voir l’impact sur les résultats obtenus avec les différentes méthodes
(les résultats obtenus avec la méthode des simulations de Monte Carlo ne seront
plus considérés car ils ne sont pas garantis dans tous les cas). Nous avons décidé
de ne pas modifier les bornes inférieures parce qu’elles sont déjà trop petites et
les réduire davantage ne nous permet pas d’observer un changement significatif
au niveau de la largeur de l’intervalle final. Les résultat obtenus sont donnés
dans la Table 4.10 avec un arrondi à 10−5 . Cet arrondi a été choisi car il est
suffisant pour voir la différence entre les méthodes étudiées et avoir davantage
de précision ne donnerait pas plus d’information à ce niveau. On voit aussi que
les résultats obtenus par Belief BDD Method ne sont pas trop conservatif. Le taux
de conservatisme reste stable (autour de 5%). La question reste ouverte quant à la
raison de la stabilité de cette méthode. Par contre, Imprecise BDD Method n’est pas
aussi stable mais le taux de conservatisme reste raisonnable. Il faut aussi souligner
que tous les intervalles obtenus sont garantis et englobent tous l’intervalle exact
122

Carlo.

Méthode Exacte Belief BDD Method Imprecise BDD Method


résultat [0.0041041, 0.15453] [0.0039772, 0.15985] [0.0039409, 0.16533]
q = 0.025
taux de
0% 3.62% 7.28%
conservatisme
résultat [0.0041041, 0.30041] [0.0038723, 0.31461] [0.0037995, 0.34841]
q = 0.05
taux de
0% 4.87% 16.30%
conservatisme
résultat [0.0041041, 0.43653] [0.0037804, 0.45831] [0.0036706, 0.55146]
q = 0.075
taux de
0% 5.11% 26.68%
conservatisme
résultat [0.0041041, 0.55637] [0.0037002, 0.58273] [0.0035532, 0.76581]
q = 0.1
taux de
0% 4.85% 38.02%
conservatisme

qui encadrent les probabilités d’occurrence de tous les évènements de base


BDD Method et Imprecise BDD Method en ajoutant q à la borne supérieure des intervalles
Table 4.10 – Récapitulatif des résultats obtenus en appliquant la méthode exacte, Belief
contrairement aux résultats obtenus avec la méthode des simulations de Monte
CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE
4.5. CONCLUSION 123

4.5 Conclusion
Dans ce chapitre, nous avons proposé deux méthodes basées sur les BDDs pour
calculer les bornes de l’intervalle qui encadre la probabilité d’occurrence de l’EI
dans le cas où les probabilités d’occurrence de ces évènements de base ne sont pas
connues d’une manière précise mais données par des intervalles.
Nous avons tenté de proposer des méthodes applicables sur tout AdD sans
aucune restriction. Belief BDD Method est basée sur une méthode proposée dans la
littérature dans le cadre de la théorie des fonctions de croyance, que nous avons
adaptée aux BDDs pour exploiter leur compacité afin de réduire la complexité de
cette méthode. Le souci avec cette méthode est qu’elle génère un grand nombre de
BDDs, ce qui fait qu’elle nécessite beaucoup trop de mémoire. Nous avons cherché
à l’améliorer en réduisant le nombre de BDDs générés principalement en utilisant
les Diagrammes de Décision Ternaire. Ce travail aboutira sur deux autres méthodes
basées sur les Diagrammes de Décision Ternaire mais il n’est pas assez mature pour
le joindre à cette thèse alors nous avons préféré ne pas l’inclure dans ce manuscrit.
Les méthodes basés sur les diagrammes de décision ternaire nécessite l’extension
de la logique binaire à une logique ternaire de telle sorte à ce qu’elle modélise
notre problème. Cette extension crée aussi un défi pour implémenter une méthode
qui nous permettra d’avoir le même résultat que Belief BDD Method en utilisant un
unique diagramme de décision ternaire. Belief BDD Method nous a permis aussi de
prendre en compte l’incertitude sur le modèle et de traiter donc des situations où
on a un doute sur la structure de l’AdD ou des situations où on dispose de plusieurs
AdD pour décrire le même EI.
La deuxième méthode proposée est inspirée d’une méthode proposée pour
les AdDs cohérents où on obtient les deux bornes de l’intervalle qui encadre la
probabilité d’occurrence en parcourant deux fois le BDD de l’AdD (une fois pour
calculer la borne inférieure et une fois pour calculer la borne supérieure). Nous
avons réussi à proposer une méthode équivalente pour les AdDs non-cohérents
dans laquelle on se concentre sur le comportement des évènements de base, ce qui
a permis de les classer en trois catégories. Chacune de ces catégories est traitée à
part dans le calcul des bornes inférieure et supérieure de l’intervalle qui encadre la
probabilité d’occurrence de l’EI. Le souci avec cette méthode est que dans sa forme
la plus simple on peut tomber sur des intervalles trop larges, ce qui nécessite
de refaire les calculs plusieurs fois afin de réduire la taille de l’intervalle final.
Cependant, cette solution reste un bon compromis entre précision et complexité.
Le deuxième souci avec cette méthode est que la classification des évènements
de base n’est pas triviale car en pratique la cohérence des évènements de base
124 CHAPTER 4. PROBABILITÉ D’OCCURRENCE DE L’ÉVÈNEMENT INDÉSIRABLE

n’est pas connue à priori, ce qui fait qu’un travail préalable est nécessaire avant
l’utilisation de Imprecise BDD Mehtod.
Nous avons aussi étudier en détail un exemple d’application réel tiré de la lit-
térature. Nous avons opposé nos méthodes à d’autres méthodes qui traite le même
problème. Nous nous sommes intéressés particulièrement à l’étude de l’efficacité
de nos méthodes. Cette efficacité a été vu de deux points de vue : premièrement,
nous avons cherché à voir et démontré sur un exemple la garantie de nos résultats.
Puis, nous avons étudier la stabilité de nos méthodes (une méthode est stable
si les résultats ne sont pas sensible à l’augmentation des imprécisions dans les
probabilités d’occurrence des évènements de base). Nous avons vu que nos deux
méthodes garantissaient le résultat exact et qu’en plus Belief BDD Method est stable
dans le cas d’étude traité et que Imprecise BDD Method l’était relativement. Nous
les avons aussi comparé à la méthode des simulations de Monte Carlo qui ne
garantie pas le résultat exact. Toutes les méthodes proposées sont basées sur les
BDDs, mais comme le but de cette thèse n’est pas d’optimiser ou d’améliorer les
techniques d’implémentations des BDDs alors nous ne les avons pas comparées
avec d’autres algorithmes. Nous avons seulement essayé d’analyser l’efficacité de
nos méthodes sur des AdDs assez grands.
Chapter 5

Facteurs d’importance

5.1 Introduction

Les facteurs d’importance sont utilisés dans une grande variété de domaines où on
cherche à évaluer l’importance relative de différents paramètres. Dans les travaux
réalisés dans cette thèse, nous nous intéressons essentiellement à l’importance des
évènements de base dans un AdD. Le but étant de savoir quels sont les évènements
de base qui influencent le plus l’occurrence de l’EI. Cette influence dépend unique-
ment de l’occurrence des évènements de base dans le cas des AdDs cohérents,
mais dans le cas des AdDs non-cohérents les évènements de base contribuent par
leur occurrence ainsi que par leur non-occurrence à l’occurrence de l’EI. Cette
différence crée de réelles difficultés dans le traitement des AdDs non-cohérents et
rend les facteurs d’importance définis généralement pour les AdDs cohérents inutil-
isables. Dans la suite, nous commencerons par modifier l’interprétation donnée au
facteur de Birnbaum depuis son introduction. La nouvelle interprétation que nous
introduirons nous permettra de donner une reformulation du facteur d’importance
donné par Andrews et Beeson considéré comme l’équivalent du facteur de Birn-
baum pour les AdDs non-cohérents. Nous allons aussi démontrer que cette re-
formulation est équivalente au facteur proposé par Aliee et al. qui sera utilisé
dans la deuxième partie de ce chapitre. Cette deuxième partie rentre dans l’esprit
de cette thèse où on s’intéresse à des probabilités imprécises. Nous présenterons
une méthode qui consiste à combiner une des méthodes du Belief BDD Method
4 avec le facteur d’importance proposé par Aliee et al. dans le but de calculer le
facteur d’importance des évènements de base dans le cas où leurs probabilités
d’occurrence sont encadrées par des intervalles.
126 CHAPTER 5. FACTEURS D’IMPORTANCE

5.2 Extension du facteur de Birnbaum aux arbres de


défaillance non-cohérents

Dans la suite, nous proposerons une nouvelle interprétation du facteur d’importance


de Birnbaum. Cette nouvelle interprétation modifiera l’interprétation probabiliste
de ce facteur. Ce qui va nous permettre après de l’étendre facilement aux AdDs
non-cohérents.
Le facteur d’importance de Birnbaum d’un évènement de base Ei , notée Bi , est
donné par l’Equation 2.11 que nous rappellerons ici :

∂P
Bi =
∂pi

Selon cette formule, Bi peut être interprété comme étant le taux avec lequel la
probabilité d’occurrence de l’EI augmente quand la probabilité d’occurrence de
l’évènement de base Ei augmente.
Une simplification de la formule précédente donne une deuxième manière de
calculer Bi donné par l’Equation 2.12 que nous rappellerons comme suit :

Bi = P/Xi =1 − P/Xi =0

Concentrons-nous justement sur la simplification qui nous permettra de passer


de l’Equation 2.11 à l’Equation 2.12. On a :
( )
P = P φ(X) = 1
(( ) ( ) )
= P Xi ∧ φ(X/Xi =1 ) ∨ X i ∧ φ(X/Xi =0 ) = 1

= pi P/Xi =1 + (1 − pi )P/Xi =0

Ce raisonnement nous permet d’écrire que ∂p∂P


i
= P/Xi =1 − P/Xi =0 . Ce qui donne
la deuxième manière pour calculer Bi et comme conclusion la deuxième interpréta-
tion du facteur de Birnbaum. Or, même si le raisonnement est correct la conclusion
ne l’est pas. En effet, nous savons que toute fonction booléenne peut être écrite
sous une FND (Forme Normale Disjonctive cf. Définition 6). Nous savons aussi que
par rapport à toute variable booléenne Xi , il existe trois types de conjonctions
dans la FND : les conjonctions où Xi apparaît en tant que Xi , les conjonctions
où Xi apparaît en tant que X i et les conjonctions où Xi n’apparaît pas. Nous
les noterons respectivement ConXi , ConX i et Con(Xi ,X i ) . Par conséquent, toute
5.2. EXTENSION DU FACTEUR DE BIRNBAUM AUX ARBRES DE DÉFAILLANCE NON-
COHÉRENTS 127

fonction booléenne φ sera donnée par l’Equation 5.1.


∨ ∨ ∨ (Xi ,X i )
φ(X) = l ∨
ConX l ∨
ConX Conl (5.1)
i i

l l l

Le facteur de Birnbaum a été introduit pour les AdDs cohérents et par défini-

tion dans un AdD cohérent on a l ConX i
= 0. Par conséquent, on trouve que
∨ (Xi ,X i )
l
φ(X/Xi =0 ) = l Conl ce qui fait que P/Xi =0 ne représente pas la probabilité
∨ (X ,X )
d’occurrence de l’EI sachant que Xi = 0 mais plutôt P ( l Conl i i = 1), notée
P/Xi et qui est donnée par l’Equation 5.2 :

P/Xi = P (φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) = 1) (5.2)

Preuve

En effet, en posant ConX


l
i
= Xi ∧ conX i Xi
l , Conl = X i ∧ conX
l
i
et en utilisant
l’Equation 5.1 on a :
( ) ( )
∨ ∨ (Xi ,X i )
∨ ∨ (Xi ,X i )
φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) = l ∨
conXi
Conl ∧ l ∨
conX i
Conl
l l l l

∨ (Xi ,X i )
En factorisant avec l Conl on obtient :
( )
∨ ∨ ∨ (Xi ,X i )
φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) = l ∧
conXi
conX
l
i
∨ Conl
l l l

On rappelle qu’un consensus par rapport à Xi est considéré comme étant une con-
(X ,X )
jonction où Xi n’apparaît pas, i.e. Conl i i ( . On rappelle aussi que) la conjonction
∨ ∨
l conl ∧
Xi Xi
de tous les consensus par rapport à Xi sont l conl , ce qui donne :

( )
∨ ∨ ∨ (Xi ,X i )
∨ (Xi ,X i )
conlXi ∧ conX
l
i
∨ Conl = Conl
l l l l

∨ (X ,X )
Cette dernière égalité est justifiée car l Conl i i est par définition la con-
jonction de tous les consensus par rapport à Xi et des autres termes où Xi et X i
n’apparaissent pas mais qui ne sont pas des consensus par rapport à Xi .
La probabilité P/Xi est interprétée comme étant la probabilité d’occurrence de
l’EI indépendamment de l’état de l’évènement de base Ei , autrement dit la prob-
128 CHAPTER 5. FACTEURS D’IMPORTANCE

abilité d’occurrence de l’EI sachant qu’un changement dans l’état de l’évènement


de base Ei ne provoquera pas un changement de l’état de l’EI.

Par conséquent, la facteur de Birnbaum doit être écrit avec la probabilité P/Xi
et non pas avec la probabilité P/Xi =0 :

Bi = P/Xi =1 − P/Xi

Cette différence n’a pas d’impact sur le calcul du facteur d’importance de


Birnbaum, car dans les AdDs cohérents les conjonctions ConX i n’existent pas. Par
conséquent, P/Xi =0 = P/Xi et c’est ce qui explique la confusion. Sauf qu’en passant
aux AdDs non-cohérents cette égalité ne sera plus correcte, d’où l’impossibilité
d’étendre cette deuxième équation qui définit le facteur.

Cette nouvelle façon de voir les choses nous permet de réécrire le facteur
d’importance d’Andrews et de Beeson de deux manières exactement comme ce
qui a été fait avec le facteur d’importance de Birnbaum. La première étant celle
proposée par Andrews et Beeson donnée par l’Equation 2.17 que nous rappellerons
ci-dessous :
∂P ∂P
BiAB = +
∂pi ∂qi
où qi = P (X i = 1).

La deuxième manière est donnée par l’Equation 5.3 en utilisant le principe


d’inclusion-exclusion, qui est obtenue à partir de l’Equation 5.1.
( )
∨ ∨ ∨ (Xi ,X i )
P =P l ∨
ConX l ∨
ConX Conl =1
i i

( l l
) ( l
) ( )
∨ ∨ ∨ (X ,X )
=P ConX
l
i
=1 +P ConX
l
i
=1 +P Conl i i =1 −
( l l
) ( l
)
∨ ∨ (X ,X )
∨ ∨ (X ,X )
P ConX
l
i
∧ Conl i i =1 −P ConX
l
i
∧ Conl i i =1 −
( l l
) ( l l
)
∨ ∨ ∨ ∨ ∨ (X ,X )
P ConX
l
i
∧ ConX
l
i
=1 +P ConX
l
i
∧ ConX
l
i
∧ Conl i i =1
l l l l l

∨ ∨ ∨ ∨
l Conl ∧ = Xi ∧ l conl ∧X i ∧ l = Xi ∧conl
Xi Xi Xi
Or, l Conl l conX
l
i
= 0, où ConXi Xi
5.2. EXTENSION DU FACTEUR DE BIRNBAUM AUX ARBRES DE DÉFAILLANCE NON-
COHÉRENTS 129

et ConX
l
i
= X i ∧ conX
l . Par conséquent, on a :
i

( ) ( ) ( )
∨ ∨ ∨ (X ,X )
P =P ConX
l
i
=1 +P ConX
l
i
=1 +P Conl i i =1 −
( l l
) ( l
)
∨ ∨ (X ,X )
∨ ∨ (X ,X )
P ConX
l
i
∧ Conl i i =1 −P ConX
l
i
∧ Conl i i =1 −
( l l
) ( l
) (
l
)
∨ ∨ ∨ (X ,X )
=P Xi ∧ conX
l = 1
i
+P Xi ∧ conX
l
i
=1 +P Conl i i =1 −
( l l
) ( l
)
∨ ∨ (X ,X )
∨ ∨ (X ,X )
P Xi ∧ l ∧
conXi
Conl i i =1 −P Xi ∧ l ∧
conX i
Conl i i =1
l l l l

Comme les Xi sont indépendant alors P est donnée par l’égalité suivante:
[ ( ) ( )]
∨ ∨ ∨ (X ,X )
P =pi P conX
l
i
=1 −P conX
l
i
∧ Conl i i =1 +
[ ( l
) ( l l
)]
∨ ∨ ∨ (X ,X )
qi P conX
l
i
=1 −P conX
l
i
∧ Conl i i =1 +
( l
) l l
∨ (X ,X )
P Conl i i =1
l

[ (∨ ) (∨ ∨ )]
(Xi ,X i )
Comme pi P conXi
= 1 − P conXi
∧ Con = 1 et
(∨ l
) l l l l l
(Xi ,X i )
P l Conl = 1 ne dépendent pas de qi et que
[ (∨ ) (∨ ∨ )] (∨ )
(Xi ,X i ) (Xi ,X i )
qi P l conl
Xi
=1 −P l conl ∧
Xi
l Conl = 1 et P l Conl =1
ne dépendent pas de pi , alors le facteur d’Andrews et de Beeson peut être réécrit
de la manière suivante :
[ ( ) ( )]
∨ ∨ ∨ (X ,X )
BiAB = P conl i = 1 − P
X
conl i ∧ Conl i i = 1
X
+
[ ( l ) (l l
)]
∨ ∨ ∨ (Xi ,X i )
P conl = 1 − P
Xi
conl ∧ Conl
Xi
=1 (5.3)
l l l

Pour finir le facteur d’importance BiAB est donné par l’Equation 5.4.

BiAB = [P/Xi =1 − P/Xi ] + [P/Xi =0 − P/Xi ]


= P/Xi =1 + P/Xi =0 − 2P/Xi (5.4)
130 CHAPTER 5. FACTEURS D’IMPORTANCE

Preuve

Pour démontrer l’Equation 5.4 il audra démontrer les deux égalités suivantes :
( ) ( )
∨ ∨ ∨ (Xi ,X i )
P/Xi =1 − P/Xi = P conX
l = 1
i
−P l ∧
conXi
Conl =1
l l

( ) ( )
∨ ∨ ∨ (Xi ,X i )
P/Xi =0 − P/Xi = P conX
l
i
=1 −P l ∧
conX i
Conl =1
l l l

On se contentera de démontrer la première égalité uniquement, la deuxième


s’obtient en suivant le même raisonnement en partant de P/Xi =0 à la place de
P/Xi =0 .
( ) ( )
∨ ∨ (X ,X )
∨ (X ,X )
P/Xi =1 − P/Xi =P l ∨
conXi
Conl i i =1 −P Conl i i =1
( l l
) ( l
)
∨ ∨ (X ,X )
=P conX
l = 1
i
+P Conl i i =1 −
( l l
) ( )
∨ ∨ (X ,X )
∨ (X ,X )
P l ∧
conX Conl i i =1 −P Conl i i =1
i

( l
) ( l
)
∨ ∨ ∨ (X ,X )
=P conX
l = 1
i
−P l ∧
conXi
Conl i i =1
l l

Finalement, le facteur d’Andrews et de Beeson peut être donné par deux équa-
tions : la première équation introduite par Andrews et Besson donnée par l’Equation
2.17 et celle que nous proposons donnée par l’Equation 5.4.

Pour finir, nous allons faire le lien avec le facteur d’Aliee et de démontrer que
notre facteur (Equation 5.4) et le facteur d’Aliee sont totalement équivalents. En
effet, le facteur d’importance d’Aliee est donné par l’équation suivante :
[ ]
IiABGT = P (φ(X/Xi =1 ) ∧ φ(0, X−i )) ∨ (φ(1, X−i ) ∧ φ(X/Xi =0 )) = 1

En développant IiABGT on obtient l’équation suivante :

IiABGT = P (φ(X/Xi =1 ) ∧ φ(0, X−i ) = 1) + P (φ(1, X−i ) ∧ φ(X/Xi =0 ) = 1)


5.3. CALCUL DU FACTEUR D’IMPORTANCE EN UTILISANT LES DIAGRAMMES DE DÉCISION
BINAIRE 131

À partir de là et en utilisant l’identité suivante : A = (A ∧ B) ∨ (A ∧ B), on obtient:

P [φ(X/Xi =1 ) ∧ φ(0, X−i ) = 1] = P (φ(X/Xi =1 ) = 1) − P (φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) = 1)


P [φ(1, X−i ) ∧ φ(X/Xi =0 ) = 1] = P (φ(X/Xi =0 ) = 1) − P (φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) = 1)

Le calcul du facteur de Birnbaum a été simplifié par l’utilisation des BDDs


[Rauzy, 2008]. L’algorithme proposé par Rauzy est basé sur l’équation probabiliste
du facteur ce qui permet de retrouver le facteur d’importance de chaque évène-
ment de base sans passer par la dérivée et tirant profit de la compacité des BDDs.
Par contre, pour les évènements de base des AdDs non-cohérents on est obligé
de passer par la dérivée. Dans la prochaine section, nous allons proposer deux
manières de le faire : la première est basé sur l’Equation 5.4 et la deuxième sur
IiABGT .

5.3 Calcul du facteur d’importance en utilisant les


diagrammes de décision binaire
Pour calculer le facteur d’importance d’un évènement de base Ei d’un AdD non-
cohérent nous proposons deux méthodes équivalentes basées sur les BDDs. La
première consiste à calculer les trois probabilité P/Xi =1 , P/Xi =0 et P/Xi à partir du
BDD de l’AdD pour qu’ensuite nous puissions calculer le facteur d’importance de
l’évènement de base Ei en utilisant l’Equation 5.4. La deuxième méthode consiste
à construire le BDD de ΦABGT
i pour pouvoir calculer le facteur d’importance de
l’évènement de base Ei suivant la formule d’Aliee.

5.3.1 Première méthode


En partant du principe que le calcul de facteur d’importance est une étape ultérieure
à celle du calcul de probabilité d’occurrence de l’EI, alors on peut en conclure que
le BDD de l’AdD a déjà été construit. Dans la suite, nous allons voir comment
extraire le BDD de φ(X/Xi =0 ) ainsi que le BDD de φ(X/Xi =1 ) directement à partir
du BDD de l’AdD.
Nous savons, d’un côté, que chaque chemin qui part de la racine du BDD
et qui se termine par un des deux nœuds terminaux, représente une combinai-
son d’évènements de base avec leurs états (les nœuds visibles sur le chemin et
leurs arcs) et l’état de l’EI relativement à cette combinaison (représenté par le
nœud terminal). D’un autre côté, nous savons aussi que φ(X/Xi =0 ) et φ(X/Xi =1 )
sont données, par définition, comme étant la fonction de structure du système
132 CHAPTER 5. FACTEURS D’IMPORTANCE

sachant l’état de l’évènement de base Ei . Par conséquent, pour construire le BDD


de φ(X/Xi =0 ) (respectivement φ(X/Xi =1 )) il suffit de prendre le BDD de l’AdD, i.e.
de φ et en extraire tous les chemins qui représentent les combinaisons d’évènement
où l’évènement de base Ei ne se produit pas (respectivement où l’évènement de
base Ei se produit). Pour y arriver, il faut préciser que tous les chemins dans le
BDD peuvent être classés en trois catégories :

• Les chemins où le nœud qui représente l’évènement de base Ei n’apparaît


pas.

• Les chemins où le nœud qui représente l’évènement de base Ei apparaît avec


un arc continu.

• Les chemins où le nœud qui représente l’évènement de base Ei apparaît avec


un arc discontinu.

À partir de là, le BDD de φ(X/Xi =1 ) est extrait du BDD de l’AdD en suivant les
deux règles suivantes :

• Si le nœud qui représente l’évènement de base Ei n’apparaît pas dans le


chemin rien ne change (cf. Figure 5.1).

Xi−1 Xi−1

Xi Xi

Xi+1 Xi+1 Xi+1 Xi+1

Figure 5.1 – Première règle pour la construction de φ(X/Xi =1 )

• Si le nœud qui représente l’évènement de base Ei apparaît dans le chemin


alors le nœud est supprimé et l’arc qui pointé vers lui pointera vers le nœud
fils pointé par l’arc continu du nœud supprimé (cf. Figure 5.2).

De même, le BDD de φ(X/Xi =0 ) est extrait du BDD de l’AdD en suivant les deux
règles suivantes :

• Si le nœud qui représente l’évènement de base Ei n’apparaît pas dans le


chemin rien ne change (cf. Figure 5.3).
5.3. CALCUL DU FACTEUR D’IMPORTANCE EN UTILISANT LES DIAGRAMMES DE DÉCISION
BINAIRE 133

Xi−1 Xi−1

Xi Xi

Xi+1 Xi+1 Xi+1 Xi+1

Figure 5.2 – Deuxième règle pour la construction de φ(X/Xi =1 )

Xi−1 Xi−1

Xi Xi

Xi+1 Xi+1 Xi+1 Xi+1

Figure 5.3 – Première règle pour la construction de φ(X/Xi =0 )

• Si le nœud qui représente l’évènement de base Ei apparaît dans le chemin


alors le nœud est supprimé et l’arc qui pointait vers lui pointera vers le nœud
fils pointé par l’arc discontinu du nœud supprimé (cf. Figure 5.4).

D’une manière plus formelle, considérons un BDD avec z nœuds notés a1 , . . . , az ,


chacun de ces nœud aj est donné par sa fonction Γ : aj = Γ(Xk , a0 , a1 ) où Xk , a0 et
a1 sont, respectivement, l’index, le nœud fils pointé par l’arc discontinu et le nœud
fils pointé par l’arc continu du nœud aj . Le BDD de φ(X/Xi =1 ) (respectivement le
BDD de φ(X/Xi =0 )) est obtenu en remplaçant tous les nœud dont l’index est Xi
par le nœud a1 (respectivement par le nœud a0 ).
Ensuite nous calculerons, respectivement P/Xi =1 et P/Xi =0 à partir des BDDs
de φ(X/Xi =1 ) et φ(X/Xi =0 ). Quant à P/Xi , elle est calculée à partir du BDD qui
représente le résultat de l’opération "ET" entre le BDD de φ(X/Xi =1 ) et le BDD de
φ(X/Xi =0 ).

Opérations sur les BDDs

La construction du BDD de φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) à partir du BDD de φ(X/Xi =1 )


et du BDD de φ(X/Xi =0 ) est expliquée dans [Bryant, 1986]. L’idée générale est in-
spirée de la formule de Shannon. Notons deux fonctions booléennes F = φ(X/Xi =1 )
et G = φ(X/Xi =0 ), F ∧ G est alors obtenue en utilisant de la formule de Shannon
134 CHAPTER 5. FACTEURS D’IMPORTANCE

Xi−1 Xi−1

Xi Xi

Xi+1 Xi+1 Xi+1

Figure 5.4 – Deuxième règle pour la construction de φ(X/Xi =0 )

comme suit :

F ∧ G = [Xj ∧ (F (1, X−j ) ∧ G(1, X−j ))] ∨ [X j ∧ (F (0, X−j ) ∧ G(0, X−j ))]

Pour pouvoir appliquer cette formule à deux BDDs, il faudra considérer deux
cas :

• Si la racine du BDD de F a le même index Xj que la racine du BDD de G


alors on crée un nœud indexé par Xj . Ce nœud sera la racine du BDD de
F ∧ G il pointera vers F (1, X−j ) ∧ G(1, X−j ) avec son arc continu et vers
(F (0, X−j ) ∧ G(0, X−j )) avec son arc discontinu.

• Si la racine du BDD de F est indexée par une variable Xj et la racine du


BDD de G est indexée par une autre variable Xk , alors si Xj ≤ Xk on crée
un nœud indexé par Xj . Ce nœud sera la racine du BDD de F ∧ G il pointera
vers F (1, X−j ) ∧ G avec son arc continu et vers F (0, X−j ) ∧ G avec son arc
discontinu. Si Xj ≥ Xk on crée un nœud indexé par Xk . Ce nœud sera la
racine du BDD de F ∧ G il pointera vers F ∧ G(1, X−k ) avec son arc continu
et vers F ∧ G(0, X−k ) avec son arc discontinu.

Une fois la racine traitée, on s’intéressera aux sous-graphes pointés par l’arc
continu de la racine de F et l’arc continu de la racine de G. On procède de la
même manière que précédemment en considérant les racines des sous-graphes.
La différence réside dans le fait qu’on peut tomber sur le cas où un ou les deux
sous-graphes soient des nœuds terminaux. Si aucun des deux sous-graphes n’est
un nœud terminal alors on procède comme précédemment. Sinon, si seulement
un des deux sous-graphes est un nœud terminal et que ce nœud terminal est un 0
alors on retourne un 0 et on ignore l’autre sous-graphe. Si le nœud terminal est un
1 alors le résultat dépendra de l’autre sous-graphe, appelons le K. Si l’autre K est
aussi un nœud terminal alors on retourne 0 si c’est un 0 ou 1 si c’est un 1, sinon
on crée un nouveau nœud dont la racine est indexé par le même index Xl de la
5.3. CALCUL DU FACTEUR D’IMPORTANCE EN UTILISANT LES DIAGRAMMES DE DÉCISION
BINAIRE 135

racine de K. Il pointera vers K(1, X−l ) avec son arc continu et vers K(0, X−l ) avec
son arc discontinu. On fait la même chose avec les sous-graphes pointés par l’arc
discontinu de la racine de F et l’arc discontinu de la racine de G.
L’application de ce processus sur le BDD de φ(X/Xi =1 ) et le BDD de φ(X/Xi =0 )
donnera le BDD de φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) à partir duquel nous calculerons P/Xi .
Enfin, une fois que P/Xi =1 , P/Xi =0 et P/Xi sont connues le facteur d’importance de
l’évènement de base Ei est donné par l’Equation 5.4.

5.3.2 Deuxième méthode


Alors que la première méthode nous permet de calculer le facteur d’importance
d’un évènement de base Ei suivant l’équation que nous avons proposée pour le
facteur d’Andrews et de Beeson. La seconde consiste à utiliser la formule proposée
par Aliee pour calculer le facteur d’importance d’un évènement de base Ei . Cette
deuxième méthode, qui n’est pas particulièrement différente de la première, est
aussi basée sur les BDDs. Nous rappellerons que le facteur d’importance d’Aliee
d’un évènement de base Ei est basé sur la fonction booléenne ΦABGTi suivante :

ΦABGT
i = (φ(X/Xi =1 ) ∧ φ(X/Xi =0 )) ∨ (φ(X/Xi =1 ) ∧ φ(X/Xi =0 ))

Cette méthode est composée de sept étapes dont quelques-unes sont communes
avec celles de la première méthode :

1 Construire le BDD de φ(X/Xi =1 ) à partir du BDD de l’AdD.

2 Construire le BDD de φ(X/Xi =0 ) à partir du BDD de l’AdD.

3 Construire le BDD de φ(X/Xi =1 ) à partir du BDD de φ(X/Xi =1 ).

4 Construire le BDD de φ(X/Xi =0 ) à partir du BDD de φ(X/Xi =0 ).

5 Construire le BDD de φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) à partir du BDD de φ(X/Xi =1 )


et du BDD de φ(X/Xi =0 ).

6 Construire le BDD de φ(X/Xi =1 ) ∧ φ(X/Xi =0 ) à partir du BDD de φ(X/Xi =0 )


et du BDD de φ(X/Xi =1 ).

7 Construire le BDD de (φ(X/Xi =1 ) ∧ φ(X/Xi =0 )) ∨ (φ(X/Xi =1 ) ∧ φ(X/Xi =0 )) en


utilisant un processus inspiré de celui utilisé pour faire un "ET" que nous
allons modifier pour qu’il puisse faire un "OU".

Les étapes 1, 2, 5 et 6 ont toute été détaillées dans la première méthode. Dans
la suite, nous allons nous intéresser aux étapes 3, 4 et 7. Nous commencerons par
136 CHAPTER 5. FACTEURS D’IMPORTANCE

expliquer comment construire le BDD de la fonction booléenne f à partir du BDD


de f . Puis, nous verrons comment obtenir le BDD de f ∨g en modifiant légèrement
le processus qui permet de construire le BDD de f ∧ g.
Sachant que chaque nœud terminal du BDD représente l’état terminal de la
fonction booléenne f représentée par ce BDD et que la fonction booléenne f prend
justement la valeur inverse de f , alors il suffit d’inverser les deux nœuds terminaux
du BDD de f pour obtenir celui de f .
En ce qui concerne le processus qui permet de construire le BDD de f ∨ g,
la différence réside dans le traitement fait au niveau des nœuds terminaux. Ef-
fectivement, quand on construit le BDD de f ∧ g et qu’on tombe dans le cas où
au moins un des deux sous-graphes est un nœud terminal alors si c’est le nœud
terminal 0 on retourne 0 sinon on retourne l’autre sous graphe. Ceci est dû au fait
que l’élément absorbant de l’opérateur logique "ET" est le 0 alors que le 1 est son
élément neutre. Par contre, pour l’opérateur logique "OU" c’est l’inverse, c’est le 1
l’élément absorbant et le 0 est l’élément neutre. Donc pour calculer f ∨g on reprend
le même processus que pour calculer f ∧ g en retournant 0 si au moins un des deux
sous-graphes est le nœud terminal 0 ou on retourne le deuxième sous-graphe si le
premier est le nœud terminal 1.
Finalement, un fois que le BDD de ΦABGT
i soit construit on calculera le facteur
d’importance IiABGT de l’évènement de base Ei directement à partir du BDD en
utilisant l’Equation 2.9 donnée dans le Chapitre 2.

E1

E2

E3

1 0

Figure 5.5 – BDD de l’AdD donné par la Figure 4.6

Exemple 4

Dans la suite, nous allons reprendre l’Exemple 4 dans le but de calculer les facteurs
d’importance des trois évènements de base E1 , E2 et E3 en utilisant les deux méthodes
proposées. Pour y arriver nous allons construire le BDD de l’AdD (cf. Figure 5.5). Le
calcul du facteur d’importance de l’évènement de base E1 avec la première méthode
consiste à extraire le BDD de φ(1, X2 , X3 ) ainsi que le BDD de φ(0, X2 , X3 ) à partir
desquels nous calculerons P/X1 =1 et P/X1 =0 . Ensuite nous construisons le BDD de
5.3. CALCUL DU FACTEUR D’IMPORTANCE EN UTILISANT LES DIAGRAMMES DE DÉCISION
BINAIRE 137

φ(1, X2 , X3 ) ∧ φ(0, X2 , X3 ) à partir des BDDs de φ(1, X2 , X3 ) et de φ(0, X2 , X3 ). À


partir du BDD de φ(1, X2 , X3 ) ∧ φ(0, X2 , X3 ) on calculera P/X1 . Pour finir, le facteur
d’importance B1AB de l’évènement de base E1 sera donné par B1AB = P/X1 =1 +P/X1 =0 −
2P/X1 . Enfin, On refait la même chose pour les évènements de base E2 et E3 pour
calculer leurs facteurs d’importance (cf. Figure 5.6). Quant à la deuxième méthode il
faudra construire les BDDs de ΦABGT1 , ΦABGT
2 et ΦABGT
3 pour pouvoir ensuite calculer

φ(1, X2 , X3 ) ∧ φ(0, X2 , X3 )

E2
φ(0, X2 , X3 ) φ(1, X2 , X3 )

E3 E2 E3

1 0 1 0 1 0

1 − p3 p2 p2 (1 − p3 )

B1AB = 1 − p3 − p2 + 2p2 p3

φ(X1 , 0, X3 ) φ(X1 , 1, X3 ) φ(X1 , 1, X3 ) ∧ φ(X1 , 0, X3 )

E1 E1 E1

E3 E3 E3

1 0 1 0 1 0
(1 − p1 )(1 − p3 ) p1 + (1 − p1 )(1 − p3 ) (1 − p1 )(1 − p3 )

B2AB = p1

φ(X1 , X2 , 0) φ(X1 , X2 , 1) φ(X1 , X2 , 1) ∧ φ(X1 , X2 , 0)

E1 E1 E1

E2 E2 E2

1 0 1 0 1 0
p1 p2 (1 − p1 ) + p1 p2 p1 p2

B3AB = 1 − p1

Figure 5.6 – Calcul des facteurs d’importance des évènements de base de l’AdD donné
par la Figure 4.6 (Première Méthode)
138 CHAPTER 5. FACTEURS D’IMPORTANCE

respectivement I1ABGT , I2ABGT et I3ABGT (cf. Figure 5.7).


Si on veut reprendre vraiment l’Exemple 4 avec les données, aucune des deux

E2

E2 E3 E3 ΦABGT
1

E2
1 0 1 0 1 0

φ(X/X1 =1 ) φ(X/X1 =0 ) φ(X/X1 =1 ) ∧ φ(X/X1 =0 ) E3 E3

E2
1 0

E3 E2 E3

1 0 1 0 1 0
I1ABGT = p2 p3 +(1−p2 )(1−p3 ) =
φ(X/X1 =0 ) φ(X/X1 =1 ) φ(X/X1 =1 ) ∧ φ(X/X1 =0 )
1 − p2 − p3 + 2p2 p3 = B1AB

E1 E1

E3 E3 E1

ΦABGT
2
1 0 1 0 1 0

φ(X/X2 =1 ) φ(X/X2 =0 ) φ(X/X2 =1 ) ∧ φ(X/X2 =0 ) E1

E1 E1 1 0

E3 E3

1 0 1 0 0

φ(X/X2 =0 ) φ(X/X2 =1 ) φ(X/X2 =1 ) ∧ φ(X/X2 =0 ) I2ABGT = p1 = B2AB

E1 E1

E2 E2

ΦABGT
3
1 0 1 0 0
φ(X/X3 =1 ) φ(X/X3 =0 ) φ(X/X3 =1 ) ∧ φ(X/X3 =0 ) E1

E1 E1 1 0

E2 E2 E1

1 0 1 0 1 0

φ(X/X3 =0 ) φ(X/X3 =1 ) φ(X/X3 =1 ) ∧ φ(X/X3 =0 ) I3ABGT = 1 − p1 = B3AB

Figure 5.7 – Calcul des facteurs d’importance des évènements de base de l’AdD donné
par la Figure 4.6 (Deuxième Méthode)
5.4. FACTEURS D’IMPORTANCE IMPRÉCIS POUR LES ARBRES DE DÉFAILLANCE COHÉRENTS
ET NON-COHÉRENTS 139

méthodes proposées n’est adaptées. Ces deux méthodes ne s’appliquent que quand
on a des probabilités d’occurrence précises or dans l’Exemple 4 ces probabilités
sont imprécises. Dans la prochaine section, nous proposerons une méthode qui
permet de calculer les facteurs d’importance des évènements de base dans le cas
où leurs probabilités sont imprécises.

5.4 Facteurs d’importance imprécis pour les arbres


de défaillance cohérents et non-cohérents
Les travaux effectués durant cette thèse sont axés sur la prise en compte de l’imprécision
au niveau des probabilités d’occurrence des évènements de base. Ce qui fait que
quand on cherche à calculer des facteurs d’importance d’un évènement de base
d’un AdD cohérent ou non-cohérent il faudra le faire en ayant des probabilités
d’occurrence imprécises de certains ou de l’ensemble des évènements de base. Or
dans la section précédente, les calculs ont été faits dans le cas précis. Dans la suite
nous allons traiter ce deuxième cas. L’objectif étant de combiner une des deux
méthodes proposées dans le chapitre précédent avec une des deux méthodes de la
section précédente. Nous avons opté pour la méthode Belief BDD Method car elle
est génère des intervalles moins larges que Imprecise BDD Method. Nous allons voir
plus loin que dans le cas imprécis, on se retrouve face à un problème qu’on ne pou-
vait pas rencontrer dans le cas précis et justement plus les intervalles sont larges
plus ce problème devient persistant. En ce qui concerne le facteur d’importance
nous allons choisir la deuxième méthode issue du facteur d’importance d’Aliee. Ce
choix est dû au fait que dans la deuxième méthode nous disposerons d’une seule
fonction booléenne ΦABGT
i par évènement de base Ei . Alors que dans la méthode
issue de notre facteur on en a trois. Cela nous permettra de faire des opérations
arithmétiques sur des intervalles.
Nous commencerons par rappeler le contexte de l’étude : nous nous intéres-
sons à l’occurrence d’un EI. Nous disposons d’un AdD qui identifiera, d’un côté,
l’ensemble des évènements de base impliqués dans l’occurrence de l’EI et d’un
autre côté la structure logique qui lie l’occurrence ou non de ces évènements de
base à l’occurrence de l’EI. Nous disposons aussi des probabilités d’occurrence de
tous les évènements de base données sous forme d’intervalles. Notons que le fait
d’ignorer totalement la valeur de la probabilité d’occurrence d’un évènement de
base Ei n’est pas un handicap car il suffira de dire que pi ∈ [0, 1], notons aussi que
le fait d’avoir une probabilité d’occurrence d’un évènement de base Ei précise ne
pose pas non plus de problème car on considèrera que pi ∈ [pi , pi ].
140 CHAPTER 5. FACTEURS D’IMPORTANCE

À partir de ces données, on appliquera Belief BDD Method pour avoir la prob-
abilité d’occurrence de l’EI qui sera donnée sous forme d’intervalles. L’étude des
facteurs d’importance des évènements de base devient indispensable dans le cas
où le résultat obtenu n’est pas acceptable. Dans ce cas-là, on cherchera à améliorer
le résultat obtenu et on fera face aux deux problèmes suivants :
• L’intervalle qui encadre la probabilité d’occurrence de l’EI peut être trop
large.

• La borne supérieure de l’intervalle qui encadre la probabilité d’occurrence


de l’EI peut être plus grande que le maximum acceptable pour la probabilité
d’occurrence de l’EI.
Le premier problème n’apparaît que dans le cas où les probabilités d’occurrence
des évènements de base sont sous forme d’intervalles. Pour le résoudre, il faudra
identifier les évènements de base qui sont les plus sensibles à l’erreur et qui
font en sorte qu’une petite variation dans leurs probabilités d’occurrence influ-
ence sensiblement le résultat final et rend l’intervalle qui encadre la probabilité
d’occurrence encore plus large. Autrement dit, il faudra identifier les évènements
de base tel qu’en réduisant la taille de l’intervalle qui encadre leurs probabilités
d’occurrence on maximisera la réduction de la largeur de l’intervalle qui encadre
la probabilité d’occurrence de l’EI. Ce problème ne sera pas traité dans cette thèse,
nous nous intéresserons seulement au second problème. Le deuxième problème
est une simple extension du problème traité dans la section précédente où on
cherchait à réduire la probabilité d’occurrence de l’EI dans le cas où les probabilités
d’occurrence des évènements de base sont précises. Cette extension prendra en
compte donc des probabilités d’occurrence des évènements de base données par
des intervalles. Le but est de chercher à réduire la borne supérieure de l’intervalle
qui encadre la probabilité d’occurrence de l’EI.
La méthode que nous proposons dans cette section est d’appliquer Belief BDD
Method sur ΦABGT
i et construire l’intervalle qui encadre IiABGT . Chercher un inter-
valle qui encadre IiABGT revient à chercher un intervalle qui encadre
P (ΦABGT
i (X1 , . . . , Xn ) = 1). Autrement dit, il suffit d’appliquer Belief BDD Method
sur le BDD de 1{(X1 ,...,Xn ,XT )∈Θ×ΩT , ΦABGT i (X1 ,...,Xn )=XT } . L’intervalle qui encadre
P (ΦABGT
i (X1 , . . . , Xn ) = 1) s’obtient de la même manière que ce que nous avons
fait dans la section 4.2 pour avoir l’intervalle qui encadre P (φ(X1 , . . . , Xn ) = 1).

Exemple 4

Reprenant l’Exemple 4 mais cette fois avec les données résumées par la Table 4.6.
Nous allons appliquer Belief BDD Method sur les fonctions booléenne ΦABGT
1 ,ΦABGT
2
5.4. FACTEURS D’IMPORTANCE IMPRÉCIS POUR LES ARBRES DE DÉFAILLANCE COHÉRENTS
ET NON-COHÉRENTS 141

ΦABGT
1

E2
ΦABGT
2

E3 E3 E1

ET ET
ET ET

1 0
1 0

1
1 1 · 0.02 = 0.02
1·0=0

ET ET
E3 E3

1 0 1 0
ET ET ET ET 1 · 0.01 = 0.01 1 · 0.97 = 0.97

ΦABGT
3

1 0 1 0
E1
1 · 0.1 = 0.1 1 · 0.9 = 0.9

ET ET
ET ET

1 0
1 0 1 0
0.01 · 0.9 = 0.009 0.97 · 0.01 = 0.0097
1

ET ET 1 · 0.02 = 0.02

ET ET
1 0 1 0
0.01 · 0.1 = 0.001 0.97 · 0.9 = 0.873
1 0 1 0
1 1
1 · 0.97 = 0.97 1 · 0.01 = 0.01
0.01 · 0 = 0 0.97 · 0.09 = 0.0873

Figure 5.8 – Calcul des facteurs d’importance des évènements de base de l’AdD donné
par la Figure 4.6 dans le cas imprécis

et ΦABGT
3 , le but est de calculer la fonction de masse de I1ABGT , I2ABGT et I3ABGT .
Autrement dit, nous allons appliquer trois fois Belief BDD Method avec à chaque fois
142 CHAPTER 5. FACTEURS D’IMPORTANCE

ΦABGT
i à la place de φ, i.e. en considérant le BDD de 1{(X1 ,...,Xn ,XT )∈Θ×ΩT ,ΦABGT
i (X1 ,...,Xn )=XT }
à la place de 1Aconf . Ensuite, il suffit de sommer les différentes masses du BDD
ΨΩT ({0}) données respectivement par l’application de Belief BDD Method sur ΦABGT 1 ,ΦABGT
2
ABGT
et Φ3 pour trouver respectivement mI1ABGT ({0}) = 0.882, mI2ABGT ({0}) = 0.97
et mI3ABGT ({0}) = 0.01. De même avec les différentes masses du BDD ΨΩT ({1})
pour trouver mI1ABGT ({0}) = 0.0107, mI2ABGT ({0}) = 0.01 et mI3ABGT ({0}) = 0.97.
Par conséquent, on trouve que dans le cas de cet exemple nous avons I1ABGT ∈
[0.0107, 0.118], I2ABGT ∈ [0.01, 0.03] et I3ABGT ∈ [0.97, 0.99].
Considérer des probabilités données par des intervalles ajoutera une autre
difficulté en plus de toutes celles vues jusqu’ici. Cette difficulté vient du fait qu’en
cherchant à comparer les facteurs d’importance IiABGT des évènements de base Ei
on sera amené à manipuler et à comparer des intervalles. Le cas le plus simple
qu’on peut rencontrer quand on compare deux intervalles est quand la borne
supérieure d’un intervalle est inférieure à la bonne inférieure de l’autre intervalle
ce qui nous permettra de dire que le second est plus grand. Le souci vient du fait
que généralement on a des intervalles dont l’intersection n’est pas vide. Dans ce
cas, on ne peut pas statuer d’une manière intuitive lequel des deux intervalles est
le plus grand. Il existe différentes règles de comparaison pour traiter ce cas (cf.
[Troffaes, 2007] pour en savoir plus). Ce point de l’étude n’est pas traité dans
cette thèse.

5.5 Conclusion
Nous avons étudié dans ce chapitre une des deux interprétations du facteur d’importance
de Birnbaum défini pour les AdDs cohérents, ce qui nous a permis de la modifier.
La différence entre l’ancienne interprétation admise actuellement dans la commu-
nauté scientifique et l’interprétation que nous proposons n’a aucun impact sur le
calcul de ce facteur d’importance quand on traite les AdDs cohérents. Par contre,
vouloir étendre le facteur d’importance de Birnbaum aux AdDs non-cohérents ne
peut être effectué qu’une fois l’ancienne interprétation de ce facteur modifiée. La
nouvelle interprétation du facteur d’importance de Birnbaum nous a permis de pro-
poser une nouvelle formulation du facteur d’Andrews et Beeson qui est considérée
comme l’extension du facteur d’importance de Birnbaum aux AdDs non-cohérents.
Cette nouvelle formulation est à l’origine d’une des deux méthodes proposées dans
ce chapitre pour calculer les facteurs d’importances des évènements de base d’un
AdD non-cohérent en utilisant les BDDs.
Nous avons aussi démontré que la nouvelle formulation est équivalente à celle
donnée par Aliee et al. qui se sont aussi intéressés à l’extension du facteur d’importance
5.5. CONCLUSION 143

de Birnbaum aux AdDs non-cohérents. Nous avons aussi proposé une méthode
basé sur les BDDs pour calculer le facteur d’importance des évènements de base
d’un AdD non-cohérent à partir du l’équation d’Aliee.
La deuxième partie de ce chapitre propose une méthode qui permet d’étendre
le facteur d’importance des évènements de base d’un AdD cohérent ou non-cohérent
pour traiter les cas où on dispose de probabilités imprécises.
Dans le prochain chapitre, nous présenterons l’implémentation des différentes
méthodes proposées dans cette thèse qui se trouvent dans les chapitres 4 et 5.
Nous les appliquerons sur quelques exemples de la littérature. Nous rappelons
encore que le but de cette thèse n’est pas d’optimiser des méthodes basées sur les
BDDs mais de les utiliser pour répondre à notre problématique. En d’autres mots,
les programmes développés au cours de cette thèse n’ont pas vocation à défier les
outils existant du marché mais uniquement à illustrer les méthodes développées.
Chapter 6

Conclusions et Perspectives

6.1 Conclusions
Dans ce manuscrit, nous avons exposé le résultat de trois années de recherche où
nous nous sommes intéressés à certains problèmes qu’on peut rencontrer dans une
étude de sûreté de fonctionnement. En premier lieu, nous avons cherché à calculer
la probabilité d’occurrence d’un évènement indésirable. Le but étant d’étudier ce
problème mais avec le moins de restrictions possibles. Comme restriction, nous
pouvons parler la connaissance parfaite de la structure qui lie l’état de l’ensemble
des évènements de base à l’état de l’évènement indésirable, la nature de cette
structure (cohérente ou non-cohérente), la précision des probabilités d’occurrence
des évènements de base, etc.
Nous nous sommes intéressés particulièrement à la présence des incertitudes
épistémiques au niveau des probabilités d’occurrence des évènements de base.
Nous avons proposé des méthodes qui permettent d’estimer la probabilité d’occurrence
de l’évènement indésirable dans ce cas car cela permet de prendre en compte
certains types d’évènements de base comme par exemple les évènements rares, qui
auraient posés un réel problème dans une analyse de sûreté de fonctionnement
classique. Le fait de ne pas être contraint de choisir des probabilités précises
pour l’ensemble des évènements de base avant de pouvoir calculer la probabil-
ité d’occurrence de l’évènement indésirable permet d’avoir plus de liberté dans
l’estimation des probabilités d’occurrence des évènements de base car cela im-
plique qu’on puisse se donner le droit de dire "je ne suis pas sûr" et ainsi prendre
en compte des situations où le mieux que l’on puisse dire est que telle probabilité
est inférieure à 0,001. Dans d’autres cas plus extrêmes (l’ignorance totale), on
pourra annoncer qu’on ne peut rien dire sur un tel évènement. Dans ce cas, le
mieux qu’on puisse dire c’est que sa probabilité est entre 0 et 1.
L’incertitude épistémique dans nos travaux est représentée par le fait que nous
ne considérons pas des probabilités précises mais plutôt des intervalles qui les
encadrent. Ce qui permet aux experts de donner des estimations plus sûres en se
146

donnant une marge d’erreur dans les cas où ils ne disposent pas de suffisamment
de données pour affirmer sans hésiter que la probabilité d’un évènement est égale
à une certaine valeur. Prendre en compte des probabilités sous forme d’intervalles
a des avantages mais ça a aussi des inconvénients. Le prix à payer pour se permet-
tre des marges d’erreurs quand on estime les probabilités d’occurrence des évène-
ments de base est que la propagation des incertitudes au niveau de l’évènement
indésirable peut s’avérer difficile et complexe. C’est à ce niveau que nos travaux
interviennent pour proposer des méthodes de calculs qui prennent en compte des
données de base sous forme d’intervalles. Des travaux ont été effectués dans ce
sens mais en ajoutant d’autres restrictions : les cas où la structure qui lie les
évènements de base à l’évènement indésirable est cohérente ont été traités avec
succès dans la littérature mais les structures non-cohérentes ont été reléguées au
second plan. Nous avons proposé deux méthodes : Belief BDD Method et Imprecise
BDD Method. Les deux méthodes proposées sont basées sur les BDDs qui sont des
graphes compacts utilisés pour représenter les fonctions binaires.
Les incertitudes épistémiques peuvent exister aussi au niveau de la structure
qui lie l’état des évènements de base à l’état de l’évènement indésirable. Cela peut
être considéré comme le fait de douter d’une structure proposée ou comme le
fait d’hésiter entre plusieurs structures avec des degrés de confiance différents.
Belief BDD Method permet de traiter ce type de problème, ce qui fait qu’on puisse
l’appliquer sur des situations diverses et variées. Le souci avec cette méthode
est qu’elle nécessite la génération d’un grand nombre de BDDs pour arriver au
résultat final. D’autres travaux ont été effectués pour réduire ce nombre, ce qui a
donné lieu à deux autres méthodes basées sur les diagrammes de décision ternaire
que nous n’avons pas présenté dans ce manuscrit car nous avons jugé qu’elles
n’avaient pas la maturité nécessaire pour être incluses dans ce manuscrit (fonde-
ment théorique et implémentation). La deuxième méthode proposée est basée sur
un autre type d’analyse dans laquelle on se focalise davantage sur les évènements
de base et leur nature. Cette analyse nous a permis de classer les évènements
de base en trois types. Chacun de ces types a été traité séparément des autres
ce qui nous a permis de proposer cette méthode. Le souci avec cette méthode
est qu’elle ne donne pas généralement l’intervalle recherché mais un intervalle
plus large qui le contient. Néanmoins, Nous avons proposé un compromis pour
pouvoir réduire l’intervalle obtenu sans pour autant se perdre dans des calculs
pharamineux. Les deux méthodes ont été testées et validé sur deux AdDs non-
cohérent tirés de la littérature. Nous les avons comparé à d’autres méthodes qui
traitent le même problème. Les comparaison étaient axées sur la garantie des
résultats et leur conservatisme.
6.1. CONCLUSIONS 147

En deuxième lieu, nous nous sommes intéressés à un autre problème qu’on


rencontre généralement après le premier. Une question s’impose une fois que la
probabilité d’occurrence de l’évènement indésirable estimée : est-ce que le résultat
est satisfaisant ? Est-ce que cette estimation est acceptable ? Si la réponse est non,
alors il faudra réduire la probabilité d’occurrence de l’évènement indésirable. Pour
y arriver il faudra améliorer les probabilités d’occurrence de certains évènements
de base. Dans ce cas, il est plus intéressant d’identifier évènements de base les plus
importants pour maximiser l’amélioration tout en minimisant les modifications
effectuées au niveau des évènements de base. C’est pour cette raison que l’on a cal-
culé les facteurs d’importance des évènements de base pour pouvoir distinguer les
plus importants. Cependant, les facteurs d’importance ont été introduits seulement
pour les systèmes cohérents et ce n’est que récemment que les chercheurs se sont
intéressés à les étendre aux systèmes non-cohérents. Mais les extensions définies
ne permettaient pas de les calculer aussi facilement que dans le cas cohérent.
C’est pour cette raison, que nous avons cherché à proposer des méthodes basées
sur les BDDs pour les calculer indépendamment de la cohérence de la structure.
Nous avons proposé une réinterprétation du premier facteur d’importance proposé
dans la littérature. Cette nouvelle interprétation nous a permis de les étendre aux
AdDs non-cohérents1 . Nous avons aussi proposé une méthode basée sur les BDDs
et sur la nouvelle interprétation que nous proposons pour calculer les facteurs
d’importance.
Le dernier point traité dans ce manuscrit concerne le fait de vouloir calculer
des facteurs d’importance dans le cas où les probabilités d’occurrence des évène-
ments de base sont sous forme d’intervalles. La solution que nous proposons pour
répondre à ce problème consiste à combiner Belief BDD Method avec l’extension
des facteurs d’importance proposée par Aliee et al..

1
Nous tenons à préciser qu’en parallèle de nos travaux Aliee et al. ont réussi à proposer une
extension des facteurs d’importance aux cas non-cohérent. Notons que nous avons démontré que
l’extension proposée par Aliee et al. est équivalente à celle que nous avons proposée.
148

6.2 Perspectives
Les travaux effectués et présentés dans ce manuscrit ainsi que les différentes
réflexions et discussions que j’ai eu avec différents chercheurs que j’ai rencontrés
dans des conférences ou des groupes de travails auxquels j’ai assisté ont ouvert
la voie à d’autres questionnements et ont permis de voir d’autres problématiques.
De la même manière que ce manuscrit tourne autour de deux axes : le calcul de
probabilités et le calcul des facteurs d’importance, les nouvelles problématiques
tournent elles aussi autour de ces deux axes. En ce qui concerne le calcul des
probabilités, un des problèmes qui ressort de nos travaux est le classement des
évènements de base de par leur cohérence ce qui est indispensable à Imprecise BDD
Method. En effet, Imprecise BDD Method nécessite la connaissance de la cohérence
des évènements de base : cohérent positif, cohérent négatif et non-cohérent. Nous
avons supposé que cette information est connu mais ce n’est pas le cas et c’est
d’autant plus difficile de l’avoir que la taille de l’AdD est grande. Ce qui fait
que le développement d’une méthode qui permet de classer automatiquement les
évènements de base est indispensable.
Nous avons aussi différentes pistes à explorer sur les BDDs que ce soit pour
améliorer leur implémentation ou pour proposer des heuristiques pour réduire
leur taille dans le cas général. Comme précisé précédemment, nous avons aussi
tenté de traiter ce problème avec les diagrammes de décision ternaire. Nous pen-
sons que ces diagrammes sont le meilleur compromis entre la taille de l’intervalle
qui encadre la probabilité d’occurrence de l’évènements indésirable et la com-
plexité des calculs. Le problème principal que nous avons rencontré avec les di-
agrammes de décision ternaires réside dans l’extension de la logique booléenne a
une logique à trois états. Notons que cette logique doit être représentatif du prob-
lème traité, notamment de la notion de l’ignorance de l’état d’un évènement de
base. Un autre point peut être aussi intéressant à traiter : il concerne l’indépendance
des évènements de base. Sachant que cette indépendance est purement hypothé-
tique et qu’en réalité les évènements ne sont pas aussi indépendants que cela,
alors il serait intéressant de considérer des évènements dépendants et puis de
voir ce que ça induit comme changement au niveau de la méthodologie proposée,
principalement dans le cadre de la théorie des fonctions de croyance.
Concernant les facteurs d’importance, nous avons remarqué qu’ils ont différents
niveaux de non-cohérence et qu’on a des systèmes qui sont moins incohérents que
d’autres et que l’introduction d’une mesure de non-cohérence peut avoir un intérêt
certain dans la conception sûre de systèmes. Nous avons aussi noté qu’il existe
plusieurs types de facteur d’importance qui sont tous définies pour les systèmes
6.2. PERSPECTIVES 149

cohérents et il peut être intéressant de voir ce que donnerait leur extension aux sys-
tèmes non-cohérents. Notons aussi que contrairement aux systèmes cohérents où
on sait qu’il faut réduire la probabilité d’occurrence d’un évènement pour réduire
la probabilité d’occurrence de l’évènement indésirable, dans le cas des systèmes
non-cohérents on ne sait pas si c’est le fait réduire ou d’augmenter la probabilité
d’occurrence d’un évènement de base qui améliore la probabilité d’occurrence de
l’évènement indésirable. Par conséquent, un travail supplémentaire est nécessaire
à ce niveau pour pouvoir prendre des décisions. Prendre en compte des facteurs
d’importance imprécis crée une autre problématique qui concerne la comparaison
d’intervalles dans le cadre de l’aide à la décision. Ce problème ne se pose pas
quand on a un ordre total entre les intervalles. Néanmoins, l’ordre total entre les
intervalles n’est souvent pas vérifié et dans ce cas il faudra trouver un autre moyen
de classer des intervalles avec un ordonnancement partiel.
Références

[Abrahamsson, 2002] Abrahamsson, M. (2002). Uncertainty in quantitative risk analysis: charac-


terisation and methods of treatment.

[Akers, 1978] Akers, S. (1978). Binary decision diagrams. IEEE Transactions on Computers,
100(6):509–516.

[Aliee et al., 2017] Aliee, H., Borgonovo, E., Glaß, M., and Teich, J. (2017). On the boolean
extension of the birnbaum importance to non-coherent systems. Reliability Engineering &
System Safety, 160:191–200.

[Almond, 1995] Almond, R. G. (1995). Graphical belief modeling. CRC Press.

[Amendola et al., 1980] Amendola, A., Spizzichino, F., Contini, S., and Clarotti, C. (1980).
Analysis of complete logical structures in system reliability assessment. Technical report,
Euratom.

[Andrews, 2000] Andrews, J. (2000). To not or not to not!! Proceedings of the 18th International
System Safety Conference, USA.

[Andrews and Beeson, 2003a] Andrews, J. D. and Beeson, S. (2003a). Birnbaum’s measure of
component importance for noncoherent systems. IEEE Transactions on Reliability, 52(2):213–
219.

[Andrews and Beeson, 2003b] Andrews, J. D. and Beeson, S. C. (2003b). Birnbaums measure of
component importance for noncoherent systems. IEEE Transactions on Reliability, 52(2):213–
219.

[Apostolakis, 1999] Apostolakis, G. (1999). The distinction between aleatory and epistemic
uncertainties is important: an example from the inclusion of aging effects into psa. In
Proceedings of PSA 99, International Topical Meeting on Probabilistic Safety Assessment, pages
135–142.

[Aven, 2008] Aven, T. (2008). Risk analysis: assessing uncertainties beyond expected values and
probabilities. Wiley, Chichester, UKT.

[Aven, 2010] Aven, T. (2010). Some reflections on uncertainty analysis and management.
Reliability Engineering & System Safety, 95(3):195–201.

[Bazovsky, 2004] Bazovsky, I. (2004). Reliability theory and practice. Courier Corporation.

[Birnbaum, 1968] Birnbaum, Z. W. (1968). On the importance of different components in a


multicomponent system. Technical report, Washington Univ Seattle Lab of Statistical Research.

[Blake, 1938] Blake, A. (1938). Canonical expressions in Boolean algebra. University of Chicago.
152 Références

[Blockley, 2013] Blockley, D. (2013). Analysing uncertainties: Towards comparing bayesian and
interval probabilities’. Mechanical Systems and Signal Processing, 37(1-2):30–42.

[Bobbio and Raiteri, 2004] Bobbio, A. and Raiteri, D. C. (2004). Parametric fault trees with
dynamic gates and repair boxes. In Reliability and Maintainability, 2004 Annual Symposium-
RAMS, pages 459–465. IEEE.

[Bollig and Wegener, 1996] Bollig, B. and Wegener, I. (1996). Improving the variable ordering of
obdds is np-complete. IEEE Transactions on computers, 45(9):993–1002.

[Borgonovo and Smith, 2012] Borgonovo, E. and Smith, C. (2012). Uncertainty in importance
measures: Developing the epistemic risk achievement worth. In Proc. ESREL 2011.

[Bouissou et al., 1997] Bouissou, M., Bruyere, F., and Rauzy, A. (1997). Bdd based fault-tree
processing: A comparison of variable ordering heuristics. In Proceedings of European Safety and
Reliability Association Conference, ESREL97.

[Brace et al., 1990] Brace, K. S., Rudell, R. L., and Bryant, R. E. (1990). Efficient implementation
of a bdd package. In Design Automation Conference, 1990. Proceedings., 27th ACM/IEEE, pages
40–45. IEEE.

[Brown, 2012] Brown, F. M. (2012). Boolean reasoning: the logic of Boolean equations. Springer
Science & Business Media.

[Bryant, 1986] Bryant, R. E. (1986). Graph-based algorithms for boolean function manipulation.
Computers, IEEE Transactions on, 100(8):677–691.

[Buchacker et al., 1999] Buchacker, K. et al. (1999). Combining fault trees and petri nets to model
safety-critical systems. In High performance computing, pages 439–444. Citeseer.

[Burch et al., 1994] Burch, J. R., Clarke, E. M., Long, D. E., McMillan, K. L., and Dill, D. L. (1994).
Symbolic model checking for sequential circuit verification. IEEE Transactions on Computer-
Aided Design of Integrated Circuits and Systems, 13(4):401–424.

[Burch et al., 1992] Burch, J. R., Clarke, E. M., McMillan, K. L., Dill, D. L., and Hwang, L.-J.
(1992). Symbolic model checking: 10/sup 20/ states and beyond. Information and computation,
98(2):142–170.

[Cai, 2012] Cai, K.-Y. (2012). Introduction to fuzzy reliability, volume 363. Springer Science &
Business Media.

[Camerer and Weber, 1992] Camerer, C. and Weber, M. (1992). Recent developments in modeling
preferences: Uncertainty and ambiguity. Journal of risk and uncertainty, 5(4):325–370.

[Commission, 1975] Commission, U. N. R. (1975). Reactor safety study: An assessment of accident


risks in US commercial nuclear power plants, volume 2. Hein.

[Contini et al., 2008] Contini, S., Cojazzi, G., and Renda, G. (2008). On the use of non-coherent
fault trees in safety and security studies. Reliability Engineering & System Safety, 93(12):1886–
1895.

[Contini and Matuzas, 2010] Contini, S. and Matuzas, V. (2010). Astra 3.0: Logical and proba-
bilistic analysis methods. Rapport Technique JRC56318, European Commission Joint Research
Centre (JRC), Institute for the Protection and Security of the Citizen (IPSC).
Références 153

[Coudert and Madre, 1992] Coudert, O. and Madre, J. C. (1992). A new method to compute
prime and essential prime implicants of boolean functions. In Proc. of MIT VLSI Conference,
pages 113–128.

[Coudert and Madre, 1993] Coudert, O. and Madre, J. C. (1993). Fault tree analysis: 10/sup
20/prime implicants and beyond. In Reliability and Maintainability Symposium, 1993.
Proceedings., Annual, pages 240–245. IEEE.

[Curcurù et al., 2013] Curcurù, G., Galante, G. M., and La Fata, C. M. (2013). An imprecise fault
tree analysis for the estimation of the rate of occurrence of failure (rocof). Journal of Loss
Prevention in the Process Industries, 26(6):1285–1292.

[Dempster, 1968] Dempster, A. P. (1968). Upper and lower probabilities generated by a random
closed interval. The Annals of Mathematical Statistics, pages 957–966.

[Denoeux, 1995] Denoeux, T. (1995). A k-nearest neighbor classification rule based on dempster-
shafer theory. IEEE transactions on systems, man, and cybernetics, 25(5):804–813.

[Dugan et al., 1990] Dugan, J. B., Bavuso, S. J., and Boyd, M. A. (1990). Fault trees and sequence
dependencies. In Reliability and Maintainability Symposium, 1990. Proceedings., Annual, pages
286–293. IEEE.

[Dutuit and Rauzy, 2001] Dutuit, Y. and Rauzy, A. (2001). Efficient algorithms to assess com-
ponent and gate importance in fault tree analysis. Reliability Engineering & System Safety,
72(2):213–222.

[Friedman and Supowit, 1987] Friedman, S. J. and Supowit, K. J. (1987). Finding the optimal
variable ordering for binary decision diagrams. In Proceedings of the 24th ACM/IEEE Design
Automation Conference, pages 348–356. ACM.

[Furuta and Shiraishi, 1984] Furuta, H. and Shiraishi, N. (1984). Fuzzy importance in fault tree
analysis. Fuzzy sets and systems, 12(3):205–213.

[Fussell, 1974] Fussell, J. (1974). Particularities of fault tree analysis. Aerojet Nuclear Co., Idaho
Falls, Report for Automation Industries.

[Hermanns et al., 1999] Hermanns, H., Meyer-Kayser, J., and Siegle, M. (1999). Multi terminal
binary decision diagrams to represent and analyse continuous time markov chains. In 3rd Int.
Workshop on the Numerical Solution of Markov Chains, pages 188–207. Citeseer.

[Huygens, 1980] Huygens, C. (1980). De ratiociniis in ludo aleae. Ex officinia J. Elsevirii.

[ISO, 2009] ISO, I. (2009). 31000: 2009. Risk management. Principles and guidelines.

[Jackson et al., 1982] Jackson, P., Hockenbury, R., and Yeater, M. (1982). Uncertainty analysis of
system reliability and availability assessment. Nuclear Engineering and Design, 68(1):5–29.

[Jackson, 1983] Jackson, P. S. (1983). On the s-importance of elements and prime implicants of
non-coherent systems. IEEE Transactions on Reliability, 32(1):21–25.

[Jacob et al., 2011] Jacob, C., Dubois, D., and Cardoso, J. (2011). Uncertainty handling in
quantitative bdd-based fault-tree analysis by interval computation. In International Conference
on Scalable Uncertainty Management, pages 205–218. Springer.

[Keynes, 1921] Keynes, J. M. (1921). A treatise on probability, chapter The principle of


indifference, pages 41–64. Macmillan and Co.
154 Références

[Kolomogoroff, 2013] Kolomogoroff, A. (2013). Grundbegriffe der wahrscheinlichkeitsrechnung,


volume 2. Springer-Verlag.

[Lambert et al., 1975] Lambert, H., Barlow, R., Fussell, J., and Singpurwalla, N. (1975). Reliabil-
ity and fault tree analysis. Reliability and fault tree analysis: theoretical and applied aspects of
system reliability and safety assessment, (6):77.

[Lapp and Powers, 1977] Lapp, S. A. and Powers, G. J. (1977). Computer-aided synthesis of fault-
trees. IEEE Transactions on Reliability, 26(1):2–13.

[Lee, 1959] Lee, C.-Y. (1959). Representation of switching circuits by binary-decision programs.
Bell Labs Technical Journal, 38(4):985–999.

[Martinez et al., 2015] Martinez, F. A., Sallak, M., and Schön, W. (2015). An efficient method for
reliability analysis of systems under epistemic uncertainty using belief function theory. IEEE
Transactions on Reliability, 64(3):893–909.

[Metropolis and Ulam, 1949] Metropolis, N. and Ulam, S. (1949). The monte carlo method.
Journal of the American statistical association, 44(247):335–341.

[Minato, 1993] Minato, S.-i. (1993). Zero-suppressed bdds for set manipulation in combinatorial
problems. In Proceedings of the 30th international Design Automation Conference, pages 272–
277. ACM.

[Minato et al., 1990] Minato, S.-i., Ishiura, N., and Yajima, S. (1990). Shared binary decision
diagram with attributed edges for efficient boolean function manipulation. In Design
Automation Conference, 1990. Proceedings., 27th ACM/IEEE, pages 52–57. IEEE.

[Miner and Ciardo, 1999] Miner, A. S. and Ciardo, G. (1999). Efficient reachability set generation
and storage using decision diagrams. In International Conference on Application and Theory of
Petri Nets, pages 6–25. Springer.

[Neyman, 1937] Neyman, J. (1937). Xoutline of a theory of statistical estimation based on the
classical theory of probability. Phil. Trans. R. Soc. Lond. A, 236(767):333–380.

[O’Hagan et al., 2006] O’Hagan, A., Buck, C. E., Daneshkhah, A., Eiser, J. R., Garthwaite, P. H.,
Jenkinson, D. J., Oakley, J. E., and Rakow, T. (2006). Uncertain judgements: eliciting experts’
probabilities. John Wiley & Sons.

[Paté-Cornell, 1996] Paté-Cornell, M. E. (1996). Uncertainties in risk analysis: Six levels of


treatment. Reliability Engineering & System Safety, 54(2-3):95–111.

[Qiu et al., 2014] Qiu, S., Sallak, M., Schön, W., and Cherfi-Boulanger, Z. (2014). Modeling of
ertms level 2 as an sos and evaluation of its dependability parameters using statecharts. IEEE
Systems Journal, 8(4):1169–1181.

[Rangra et al., 2017] Rangra, S., Sallak, M., Schön, W., and Vanderhaegen, F. (2017). A graphical
model based on performance shaping factors for assessing human reliability. IEEE Transactions
on Reliability, 66(4):1120–1143.

[Rauzy, 1993] Rauzy, A. (1993). New algorithms for fault trees analysis. Reliability Engineering &
System Safety, 40(3):203–211.

[Rauzy, 1995] Rauzy, A. (1995). Aralia version 1.0: the toolbox manual. Technical report,
Technical report 1093-95, LaBRI–URA CNRS 1304–Université Bordeaux-I.
Références 155

[Rauzy, 2008] Rauzy, A. (2008). Binary decision diagrams for reliability studies. In Handbook of
performability engineering, pages 381–396. Springer.
[Remenyte and Andrews, 2006] Remenyte, R. and Andrews, J. D. (2006). A simple component
connection approach for fault tree conversion to binary decision diagram. In Availability,
Reliability and Security, 2006. ARES 2006. The First International Conference on, pages 8–pp.
IEEE.
[Remenyte-Prescott and Andrews, 2008] Remenyte-Prescott, R. and Andrews, J. D. (2008). An
enhanced component connection method for conversion of fault trees to binary decision
diagrams. Reliability engineering & system safety, 93(10):1543–1550.
[Rubinstein and Kroese, 2016] Rubinstein, R. Y. and Kroese, D. P. (2016). Simulation and the
Monte Carlo method, volume 10. John Wiley & Sons.
[Rudell, 1993] Rudell, R. (1993). Dynamic variable ordering for ordered binary decision diagrams.
In Proceedings of the 1993 IEEE/ACM international conference on Computer-aided design, pages
42–47. IEEE Computer Society Press.
[Sallak et al., 2013] Sallak, M., Schon, W., and Aguirre, F. (2013). Extended component
importance measures considering aleatory and epistemic uncertainties. IEEE Transactions on
Reliability, 62(1):49–65.
[Sallak et al., 2008] Sallak, M., Simon, C., and Aubry, J.-F. (2008). A fuzzy probabilistic approach
for determining safety integrity level. IEEE Transactions on Fuzzy Systems, 16(1):239–248.
[Sentz and Ferson, 2002] Sentz, K. and Ferson, S. (2002). Combination of evidence in Dempster-
Shafer theory. SAND2002-0835 Technical Report. Sandia National Laboratories, USA.
[Shafer, 1976] Shafer, G. (1976). A mathematical theory of evidence, volume 42. Princeton
university press.
[Shannon, 1949] Shannon, C. (1949). The synthesis of two-terminal switching circuits. Bell Labs
Technical Journal, 28(1):59–98.
[Shin-Ichi, 1996] Shin-Ichi, M. (1996). Binary decision diagrams and applications for vlsi cad.
[Singhal, 2012] Singhal, M. (2012). Binary decision diagram based reliability evaluation.
International journal of Engineering and Advanced technology, 2(2).
[Sinnamon and Andrews, 1997] Sinnamon, R. M. and Andrews, J. (1997). Improved efficiency in
qualitative fault tree analysis. Quality and Reliability Engineering International, 13(5):293–298.
[Smets, 1992] Smets, P. (1992). The nature of the unnormalized beliefs encountered in the
transferable belief model. In Uncertainty in Artificial Intelligence, 1992, pages 292–297. Elsevier.
[Somenzi, 2009] Somenzi, F. (2009). Cudd: Cu decision diagram package-release 2.4. 0.
University of Colorado at Boulder.
[Tanaka et al., 1983] Tanaka, H., Fan, L., Lai, F., and Toguchi, K. (1983). Fault-tree analysis by
fuzzy probability. IEEE Transactions on reliability, 32(5):453–457.
[Troffaes, 2007] Troffaes, M. C. (2007). Decision making under uncertainty using imprecise
probabilities. International journal of approximate reasoning., 45(1):17–29.
[Twigg et al., 2000] Twigg, D. W., Ramesh, A. V., Sandadi, U. R., and Sharma, T. C. (2000).
Modeling mutually exclusive events in fault trees. In Reliability and Maintainability Symposium,
2000. Proceedings. Annual, pages 8–13. IEEE.
156 Références

[Vasseur and Llory, 1999] Vasseur, D. and Llory, M. (1999). International survey on psa figures of
merit. Reliability Engineering & System Safety, 66(3):261–274.
[Vaurio, 2002] Vaurio, J. K. (2002). Treatment of general dependencies in system fault-tree and
risk analysis. IEEE Transactions on Reliability, 51(3):278–287.
[Vaurio, 2016] Vaurio, J. K. (2016). Importances of components and events in non-coherent
systems and risk models. Reliability Engineering & System Safety, 147:117–122.
[Vesely et al., 1981] Vesely, W. E., Goldberg, F. F., Roberts, N. H., and Haasl, D. F. (1981). Fault
tree handbook. Technical report, Nuclear Regulatory Commission Washington DC.
[Way and Hsia, 2000] Way, Y.-S. and Hsia, D.-Y. (2000). A simple component-connection method
for building binary decision diagrams encoding a fault tree. Reliability Engineering & System
Safety, 70(1):59–70.
[Zhang and Mei, 1987] Zhang, Q. and Mei, Q. (1987). Reliability analysis for a real non-coherent
system. IEEE transactions on reliability, 36(4):436–439.

You might also like