Méthodes probabilistes pour la conception mécanique

Transcription

Méthodes probabilistes pour la conception mécanique
Mémoire d’Habilitation à Diriger des Recherches
UFR Sciences et Technologies - Université Blaise Pascal,
Clermont-Ferrand
Méthodes probabilistes pour la
conception mécanique
Application à la fatigue des structures et à
l’analyse des tolérances
Nicolas Gayton
Institut Français de Mécanique Avancée
Institut Pascal
Soutenue le 23 novembre 2012
Composition du jury :
Alaa CHATEAUNEUF
Bertrand IOOSS
Maurice LEMAIRE
Luc MATHIEU
Bruno SUDRET
Professeur
Chercheur
Professeur
Professeur
Professeur
Université Blaise Pascal
sénior HDR, EDF R&D
Emérite à l’IFMA
IUT de Cachan
à l’ETH de Zurich
A mes filles Pauline et Juliette,
A mon épouse Aurélia,
A mes parents.
Remerciements
Ce mémoire d’Habilitation à Diriger des Recherches dresse le bilan de mes activités de recherche
depuis 1999, activités qui ont été interrompues entre 2002 et 2006 lors de mon passage dans l’industrie
automobile. Le bilan de ces travaux est le fruit de collaborations personnelles, académiques et industrielles.
Un des points forts de notre métier est les rencontres multiples et variées que l’ont peut faire. J’espère
n’oublier personne dans cette page de remerciements.
Mes premiers remerciements s’adressent au Professeur Maurice Lemaire pour bien des raisons tant
tu as contribué à mes activités de recherche et à mon évolution professionnelle. De façon générale, merci
pour ton soutien et tes conseils. Je n’oublierai jamais le mail que tu m’a envoyé en janvier 2006 me
demandant de prendre contact avec toi. Cela a été un tournant dans ma carrière professionnelle, je t’en
suis extrêmement reconnaissant tant mes activités professionnelles actuelles me passionnent.
Ensuite, je souhaite remercier le Professeur Alaa Chateauneuf pour avoir été tuteur de mon HDR et
m’avoir également suivi depuis un certains nombre d’années. J’espère que nos collaborations se poursuivront et s’intensifieront dans le futur.
J’aimerais également remercier les rapporteurs de mes travaux d’HDR, Pr. Sudret, Pr. Mathieu,
Dr. Iooss, pour leur travail d’examen approfondi de mon mémoire qui a conduit à des discussions très
enrichissantes lors de la soutenance.
J’adresse mes profonds remerciements à M. Dréan, sans qui je ne pourrais assurer la responsabilité du
pôle St2M. Le bon fonctionnement du pôle St2M te revient en grande partie. C’est un plaisir de travailler
avec toi.
Je ne saurais oublier mes doctorants, sans qui je n’aurais pas pu soutenir cette HDR. Merci à ceux
qui ont soutenu : Alban, Benjamin et Paul pour votre sérieux. Merci à ceux qui triment actuellement :
Antoine et Simon.
Ces travaux ont également pu avoir lieu grâce aux financements de l’Agence Nationale de la Recherche,
de la Région Auvergne et de plusieurs partenaires industriels. En premier la société Phimeca qui suit mes
activités depuis quelques années maintenant et avec qui nos échanges sont très enrichissants. Merci donc
particulièrement à M. Pendola, T. Yalamas et J. Alba. Un grand merci également à L. Gauvrit de la
société RADIALL, à G. Petitet de la société Valeo SE, à O. Rochat de la société Airbus CIMPA, à A.
Otsmane de la SNEMCA et à P. Rumelhart de la société Manitowoc.
J’adresse également mes remerciements à tous mes collègues de l’IFMA grâce à qui l’ambiance de
travail est extrêmement stimulante.
Enfin, merci à ma épouse Aurélia et à mes filles Juliette et Pauline, sans qui rien n’aurait de sens.
5
Résumé
Ce mémoire présente tout d’abord mon parcours professionnel depuis l’obtention de mon diplôme
d’ingénieur en 1999. Dans le premier chapitre (numéro 0), il présente mon bilan d’activités (recherche,
pédagogie, actions de transfert de technologie et responsabilités administratives) depuis mon recrutement
en 2006 en tant que maı̂tre de conférences à l’Institut Français de Mécanique Avancée. Les chapitres
numérotés 1 à 4 sont ensuite largement consacrés à l’exposé de mes activités de recherche autour de la
gestion des incertitudes en conception par l’utilisation des approches probabilistes.
Mes activités de recherche se sont articulées autour de deux thématiques, dites activités de recherche
appliquées, dont les modèles de comportement mis en jeu sont très sensibles à des variables fortement
incertaines et dont les enjeux industriels me sont apparus comme très importants. La première thématique
est l’analyse des structures en fatigue où une alternative a été proposée à la méthode Contrainte
- Résistance pour prendre en compte les incertitudes observées à un niveau d’échelle supérieur tout en
fournissant les facteurs d’importance associés à chaque variable incertaine. La seconde thématique est
l’analyse des tolérances pour laquelle une méthode innovante nommée APTA Advanced Probability based Tolerance Analysis of products a été développée pour prendre en compte les variabilités des lots en
fabrication de grande série. Dans le cadre de ces travaux, une réflexion a aussi été menée pour considérer
des systèmes hyperstatiques avec un temps de calcul acceptable.
Ces activités de recherche appliquées ont nécessité des développements méthodologiques spécifiques principalement pour pouvoir conduire les calculs fiabilistes en un temps raisonnable. Des méthodes
basées sur les techniques de ré-échantillonnage ont tout d’abord été développées (méthodes CQ2RS Complete Qudratic Response Surface method with ReSampling et RPCM Resampling-based Polynomial Chaos
Method ) pour valider les résultats proposés par des méthodes basées sur des surfaces de réponse polynomiales. Les méthodes AK Active Learning and Kriging based methods ont ensuite été développées à partir
du krigeage et semblent présenter un intérêt considérable vis-à-vis d’autres méthodes de la littérature.
A la fin de ce mémoire, le lecteur pourra trouver la “road map” de mes activités de recherche pour
les années à venir.
Ces travaux ont été menés dans le cadre de travaux de Master 2 Recherche (A. Dumas, S. Bucas) et
Doctorat (A. Notin, B. Echard, P. Beaucaire) et se poursuivent actuellement avec les thèses de S. Bucas et
A. Dumas. Ces travaux sont financés par différents moyens : contrats de recherche industriels avec Phimeca
Engineering, Valeo SE, RADIALL SA, projets ANR APPROFI et ATHOLA, contrat de thèse CIFRE
avec le CETIM et Manitowoc. Ma production scientifique, en lien avec ces activités, est constituée de 10
revues internationales référencées ISI ou SCOPUS, 2 revues nationales à comité de lecture, 2 chapitres
de livre international, 2 brevets, 1 conférence internationale invitée en session plénière, 27 publications
en conférences internationales, 13 publications en conférences nationales.
7
Table des matières
Remerciements
5
Résumé
7
Parcours professionnel et rapport d’activités
11
0.1
Curriculum Vitae . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
0.2
Bilan des activités de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
0.3
Activités pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
0.4
Responsabilités administratives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
0.5
Actions de transfert de technologie et formation industrielle . . . . . . . . . . . . . . . . .
21
0.6
Conclusion
21
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Structuration des activités de recherche
23
I
27
Développements méthodologiques
1 Techniques de ré-échantillonnage pour l’analyse de fiabilité
29
1.1
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
1.2
Brefs rappels des méthodes FORM/SORM . . . . . . . . . . . . . . . . . . . . . . . . . .
30
1.3
Ré-échantillonnage et intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . .
33
1.4
Méthode CQ2RS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
1.5
Méthode RPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
1.6
Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
2 Utilisation du krigeage pour l’analyse de fiabilité
59
2.1
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
2.2
Brefs rappels des méthodes de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
2.3
Principes de base du krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
2.4
Les méthodes Active Learning pour la fiabilité
68
2.5
Principe de classification des points des méthodes AK . . . . . . . . . . . . . . . . . . . .
70
2.6
Présentation des méthodes AK-RM pour la fiabilité . . . . . . . . . . . . . . . . . . . . . .
72
2.7
Autres applications de la stratégie de classification AK . . . . . . . . . . . . . . . . . . . .
80
9
. . . . . . . . . . . . . . . . . . . . . . . .
TABLE DES MATIÈRES
2.8
II
Conclusion, perspectives et synoptique des méthodes AK
. . . . . . . . . . . . . . . . . .
82
Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
84
Recherches appliquées
87
3 Dimensionnement fiable des structures sollicitées en fatigue
89
3.1
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
90
3.2
Dimensionnement déterministe vis-à-vis de la fatigue . . . . . . . . . . . . . . . . . . . . .
91
3.3
Méthode Contrainte - Résistance pour l’analyse fiabiliste . . . . . . . . . . . . . . . . . . .
96
3.4
Méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.5
Application à l’analyse fiabiliste d’un disque aubagé . . . . . . . . . . . . . . . . . . . . . 105
3.6
Application à l’analyse fiabiliste d’une ailette de divergent . . . . . . . . . . . . . . . . . . 109
3.7
Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4 Analyse des tolérances par calcul du taux de non conformité
119
4.1
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.2
Méthode APTA pour la modélisation des lots de fabrication . . . . . . . . . . . . . . . . . 121
4.3
Analyse des tolérances des systèmes hyperstatiques avec jeux . . . . . . . . . . . . . . . . 135
4.4
Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Conclusions et perspectives
147
Bibliographie
150
A Liste de publications
161
B Liste des notations
167
B.1 Liste des notations générales
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
B.2 Liste des principales notations spécifiques au chapitre 1 . . . . . . . . . . . . . . . . . . . 169
B.3 Liste des principales notations spécifiques au chapitre 2 . . . . . . . . . . . . . . . . . . . 170
B.4 Liste des principales notations spécifiques au chapitre 3 . . . . . . . . . . . . . . . . . . . 171
B.5 Liste des principales notations spécifiques au chapitre 4 . . . . . . . . . . . . . . . . . . . 172
19 décembre 2012
Page 10/172
HDR, Nicolas Gayton
Parcours professionnel et rapport
d’activités
Sommaire
0.1
0.2
Curriculum Vitae . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0.1.1
Présentation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0.1.2
Activités professionnelles
0.1.3
Expérience professionnelle chez Valeo
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
12
13
. . . . . . . . . . . . . . . . . . . . . . .
13
Bilan des activités de recherche . . . . . . . . . . . . . . . . . . . . . . . . . .
15
0.2.1
Thématiques de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
0.2.2
Productions scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
0.2.3
Encadrements scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
0.2.4
Responsabilités scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
0.2.5
Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
0.2.6
Autres activités de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
0.2.7
Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
0.3
Activités pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
0.4
Responsabilités administratives . . . . . . . . . . . . . . . . . . . . . . . . . .
20
0.5
Actions de transfert de technologie et formation industrielle . . . . . . . .
21
0.6
Conclusion
21
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
Parcours professionnel et rapport d’activités
Ce chapitre résume ma carrière depuis l’obtention de mon diplôme d’ingénieur IFMA jusqu’à aujourd’hui. Le lecteur pourra trouver tout d’abord un Curriculum Vitae détaillant aussi mes responsabilités chez Valeo et montrant tout l’intérêt d’une expérience industrielle dans un service de Recherche et
Développement pour exercer ensuite des fonctions d’enseignant-chercheur en école d’ingénieurs. Avant de
passer aux détails scientifiques de mes activités de recherche (chapitres 1 à 4), l’objectif de ce chapitre
est de montrer l’équilibre que j’ai mis en place entre les quatre missions de l’enseignant-chercheur en
termes de recherche, d’enseignement, de responsabilités administratives et d’actions de transfert et de
valorisation.
0.1
Curriculum Vitae
Cette section présente mon parcours professionnel au niveau académique et industriel. Mon expérience
professionnelle de quatre ans (de 2002 à 2006) chez Valeo après l’obtention de ma thèse de Doctorat est
la particularité de mon CV. Une section lui est consacrée afin de détailler mes activités et de présenter
tout le bénéfice de ce genre d’expérience pour l’exercice des fonctions de maı̂tre de conférences en école
d’ingénieurs.
0.1.1
Présentation
Nom
GAYTON
Prénom
Nicolas
Date et Lieu de naissance
28 juillet 1975 (Clermont-Ferrand)
Nationalité
Française
Situation familiale
Marié, 2 enfants
Adresse personnelle
13 impasse de l’eau vive, Saint Genès l’Enfant, 63200 Malauzat
Fonctions actuelles
Maı̂tre de Conférences à l’IFMA, membre de l’Institut Pascal
(UMR 6602 UBP-CNRS-IFMA). Responsable du pôle Struc-
.
tures et Mécanique des Matériaux (St2M) à l’IFMA
Adresse professionnelle
Institut Français de Mécanique Avançée, Campus de ClermontFerrand, Les Cézeaux, 63175 Aubière.
Diplômes
Docteur de l’Université Blaise Pascal, Clermont II, spécialité
Génie Mécanique (2002), titulaire du D.E.A. “Matériaux, Structures, Fiabilité” de l’Université Blaise Pascal, Clermont II (1999),
Ingénieur de l’Institut Français de Mécanique Avancée (1999).
Téléphone
04 73 28 81 21
E-mail
[email protected]
19 décembre 2012
Page 12/172
HDR, Nicolas Gayton
Parcours professionnel et rapport d’activités
0.1.2
Activités professionnelles
Cette section présente chronologiquement mes activités professionnelles depuis l’obtention de mon
D.E.A. et de mon diplôme d’ingénieur en 1999.
Depuis juil. 2011
Responsable du pôle d’enseignement Structures et Mécanique des
Matériaux (St2M) à l’Institut Français de Mécanique Avancée.
Depuis oct. 2006
Maı̂tre de conférences 60eme section, enseignant IFMA, chercheur
à l’Institut Pascal (UMR 6602 UBP-CNRS-IFMA).
Oct. 2002 - sept. 2006
.
Responsable des études dédié au constructeur Renault, Valeo
Systèmes d’Essuyage, 63500 Issoire.
Sept. 2001 - sept. 2002
Attaché Temporaire d’Enseignement et de Recherche, IFMA
Juil. 1999 - Aout 2000
Préparation d’une thèse de Doctorat, “Dimensionnement semiprobabiliste des coques minces de révolution susceptibles d’instabilités géométriques”, thèse de Doctorat soutenue le 26 septembre
2002 sous la direction du Professeur Maurice Lemaire.
Avant de présenter le bilan de mes activités de recherche, la section suivante est dédiée à la présentation
des mes activités chez Valeo Système d’Essuyage. Cette expérience représente la particularité de mon
CV et a été un véritable atout pour assurer les fonctions d’enseignant-chercheur en école d’ingénieurs.
Mes activités de recherche concernant l’analyse des tolérances (chapitre 4) sont directement issues de
ces quatre années d’expériences. En contre partie, ces quatre années n’ont pas été très propices aux
productions scientifiques mais m’ont malgré tout permis de déposer deux brevets.
0.1.3
Expérience professionnelle chez Valeo
Attiré par le milieu industriel, j’ai décidé d’avoir une vraie expérience industrielle dans un secteur
très concurrentiel qu’est l’automobile. J’ai donc passé quatre années chez Valeo Système d’Essuyage, site
d’Issoire, où j’ai occupé des fonctions de responsable des études dédié au constructeur Renault. Voici un
aperçu de mes activités pendant ces quatre années (de 2002 à 2006).
La fonction principale d’un système d’essuyage est de permettre la visibilité au conducteur et au
passager lorsque les conditions météorologiques sont difficiles. Il s’agit d’un système soumis à diverses
réglementations (surface essuyée à 160km/h, non agressivité des formes car potentiellement dangereuses
lors d’un accident) et dit potentiellement sécuritaire (système avant) car sa défaillance lorsqu’il pleut peut
avoir des conséquences meurtrières. Ce système est donc soumis à plusieurs contraintes (aérodynamique
très lourd à modéliser, esthétique tout au long de la durée de vie des outillages série, vieillissement car
fortement exposé aux contraintes climatiques, à la fatigue, ...). Ces différentes fonctions et contraintes
doivent être prises en compte lors de la conception de ce système. L’emploi que j’ai occupé chez VALEO
pendant quatre ans s’intégrait dans le processus de développement des constructeurs automobiles pour
mettre en série un nouveau véhicule. Il avait pour objectif l’étude des systèmes d’essuyage jusqu’à la
mise en série de ce sous-ensemble pour le livrer au constructeur automobile tout au long de la durée de
Nicolas Gayton
Page 13/172
19 décembre 2012
Parcours professionnel et rapport d’activités
vie de son nouveau véhicule. L’activité principale de ce travail consistait à manager divers contributeurs
(bureau d’étude, prototype, laboratoire) en ingénierie simultanée tout au long des 5 grandes phases du
projet de développement d’un véhicule :
• Phase 0 : réponse à l’appel d’offre du constructeur automobile, implantation CAO du système
d’essuyage dans la coque du véhicule qui évoluera ensuite au gré des contraintes des différents
équipementiers retenus sur le projet. Définition des aménagements véhicule à effectuer et vérification
des points de conformité et de non-conformité par rapport au exigences du client.
• Phase 1 : évolution du design véhicule et des exigences du client, définition complète du système,
des réserves et des risques éventuels avec leurs impacts.
• Phase 2 : prototypage du système, validation de la solution retenue, levée des risques, retour en phase
1 de conception si problème. Définition des plans d’ensemble et des pièces primaires et lancement
des outillages série.
• Phase 3 : réception des premières pièces, mise au point et lancement de la qualification du produit
issu des outillages définitifs.
• Phase 4 : démarrage série et vérification qu’aucun problème “ étude ” ou “ fiabilité ” n’a lieu.
Les compétences nécessaires pour mener à bien ces missions sont multiples :
• Savoir travailler en équipe dans un environnement international : constructeur français mais aussi
étranger, projets de plus en plus mondiaux avec de multiples sites d’assemblage, fournisseurs
étrangers “ low cost ” de plus en plus courants.
• Avoir des connaissances techniques très diversifiées : CAO (CATIA V4/V5), cotation fonctionnelle,
calcul aux éléments finis des différentes pièces, prototypage, méthodes d’essai et de contrôle.
• Avoir des connaissances dans les technologies utilisées : moulage d’aluminium, de Zamack, injection
plastique, découpe, emboutissage, travail du fil, extrusion, usinage, décolletage.
• Savoir estimer les coûts de fabrication pour proposer les solutions techniques les plus compétitives.
Une telle expérience m’a été extrêmement bénéfique à plusieurs niveaux pour occuper des fonctions
de maı̂tre de conférences :
• Nécessité du travail en équipe pour rassembler des compétences sur des thématiques multidisciplinaires (cas de l’analyse des tolérances).
• Expérience dans le montage et la gestion d’un projet R&D.
• Cet emploi m’a donné le goût du travail et de la collaboration avec des industriels.
• Vision des besoins des industriels, c’est ainsi qu’est née ma thématique de recherche sur l’analyse
des tolérances, thématique innovante à l’Institut Pascal et regroupant plusieurs thématiques de
recherche (conception/fabrication et analyse probabiliste).
• Confidentialité lié à l’innovation. J’ai pu déposer de nombreuses enveloppes Soleau en quatre ans
qui ont abouti à deux brevets qui seront mentionnés dans la section 0.2.2.
Toutefois, le milieu très concurrentiel qu’est l’automobile, a été un frein pour moi en termes de
publications scientifiques puisqu’aucune publication scientifique n’a pu être rédigée sur mes activités. De
plus, mon recrutement, en tant que maı̂tre de conférences à l’IFMA sur des thématiques davantage en
lien avec mes activités de thèse, a constitué un véritable nouveau départ dans mes activités de recherche.
Cependant mes activités de recherche appliquée sont une conséquence directe de mes années passées dans
l’industrie automobile.
19 décembre 2012
Page 14/172
HDR, Nicolas Gayton
Parcours professionnel et rapport d’activités
0.2
Bilan des activités de recherche
Cette section synthétise mes activités de recherche depuis l’obtention de mon D.E.A. en 1999. Elle
aborde en premier lieu mes thématiques de recherche suivi de mon bilan en termes de productions
scientifiques. Un listing exhaustif de mes activités d’encadrement de la recherche sera ensuite présenté.
Enfin, le détail de mes responsabilités scientifiques ainsi que des éléments permettant de juger de mon
rayonnement seront fournis.
0.2.1
Thématiques de recherche
Mes activités de recherche se situent dans le domaine de la gestion des incertitudes en génie
mécanique, domaine très vaste qui occupe de plus en plus d’équipes de recherche académiques et
qui intéresse énormément d’industriels. Il s’agit d’un travail centré autour du génie mécanique mais
l’intégration des incertitudes implique la nécessité d’outils numériques et mathématiques permettant de
traiter des problématiques du domaine du génie mécanique.
Mes travaux se sont donc articulés autour de recherches appliquées, dans le domaine cité juste
avant, nécessitant des développements méthodologiques pour mener à bien les calculs dans un temps
raisonnable. Pour des raisons de fluidité de lecture, mes activités de développement méthodologiques seront présentées en premier lieu pour présenter ensuite les applications qui ont motivé leur développement.
Les grandes lignes directrices de mes activités méthodologiques concernent le développement de
méthodes numériques pour un calcul à moindre coût des estimateurs de la fiabilité. Deux
pistes ont été abordées :
• les techniques de ré-échantillonnage pour l’analyse de fiabilité. Des méthodes basées sur
les techniques de ré-échantillonnage pour donner des indicateurs de confiance dans les résultats de
l’analyse fiabiliste (coordonnées du point de défaillance le plus probable, indice de fiabilité) ont été
proposées sur la base de méthodes de surfaces de réponse quadratiques (méthode CQ2RS) ou de
chaos polynomiaux (méthode MRCP).
• l’utilisation du krigeage pour l’analyse de fiabilité (calcul de probabilités de défaillance pour
les structures ou taux de non-conformité pour les systèmes mécaniques). Des méthodes efficaces
mettant en œuvre la technique du krigeage ont été développées dans ce contexte conduisant à
l’obtention d’une famille de méthodes innovantes nommée AK : Active learning and Kriging based
- methods.
D’autres développements méthodologiques complémentaires ont aussi été effectués autour des méthodes
numériques pour la gestion des incertitudes en génie mécanique. Tout d’abord, l’accélération des calculs
fiabilistes nécessite de travailler d’une part sur la gestion du nombre de calculs mécaniques mais également
sur les temps de calculs mécaniques pour des situations voisines. Cette activité menée principalement en
partenariat avec l’UTC ne sera pas détaillée dans ce mémoire car les travaux présentés dans ce mémoire
sont indépendants des méthodes de calcul mécanique utilisées. Le lecteur pourra néanmoins trouver des
détails dans [Notin et al., 2012]. Une autre activité méthodologique menée durant ces années concerne
la calibration des coefficients partiels de sécurité pour définir des méthodes de calculs des coefficients de
sécurité pour un dimensionnement fiable. Ces travaux ne feront pas l’objet d’un chapitre à part mais le
lecteur pourra se référer aux références [Gayton et al., 2004; Gayton and Lemaire, 2009] pour trouver le
détail de mes contributions sur ce sujet.
Mes recherches appliquées qui ont guidé le développement de ces méthodes sont :
Nicolas Gayton
Page 15/172
19 décembre 2012
Parcours professionnel et rapport d’activités
• l’analyse fiabiliste des structures sollicitées en fatigue, le domaine de la fatigue étant très
sujet à différentes sources d’incertitudes (chargement, résistance à la fatigue, géométrie, ...), la
gestion des incertitudes dans ce domaine trouve tout son sens.
• l’analyse des tolérances de fabrication des systèmes mécaniques, thématique née de mes
activités chez Valeo Systèmes d’Essuyage.
0.2.2
Productions scientifiques
Mes références bibliographiques sont listées en annexe A. Elles peuvent se synthétiser numériquement
de la façon suivante (au 15/08/2012) :
• 10 revues internationales référencées ISI ou SCOPUS ;
• 3 revues référencées ISI en cours d’évaluation ;
• 2 brevets ;
• 2 revues nationales à comité de lecture ;
• 2 chapitres de livre international ;
• 1 conférence internationale invitée en session plénière ;
• 27 publications en conférences internationales ;
• 13 conférences nationales ;
La figure 1 présente une synthèse de mes publications par an.
0.2.3
Encadrements scientifiques
La liste de mes activités d’encadrement scientifique depuis 2006 est la suivante (les thématiques
concernées sont indiquées entre parenthèses).
Encadrement avec collaborations universitaires extérieures
• Encadrement à 50% de la thèse de A. Notin (ré-échantillonnage, fatigue) - Évaluation à moindre
coût de la fiabilité des structures sollicitées en fatigue, soutenue en mai 2011. Thèse en convention
CIFRE entre le CETIM et l’UTC, encadrement partagé avec l’UTC. A. Notin est actuellement
ingénieur de recherche chez Phimeca Engineering.
• Encadrement en cours depuis novembre 2012 à 50% de la thèse de A. Dumas (Analyse des tolérances).
Thèse financée par l’ANR sur projet AHTOLA (Advanced Hybrid method for the TOLerance Ana-
lysis of complex systems). Encadrement avec l’ENSAM de Metz sur l’analyse des tolérances de
fabrication des systèmes hyperstatiques.
Encadrement sans collaboration universitaire extérieure
• Tuteur de MASTER Recherche de S. Bucas en juillet 2011 (Fatigue) et de A. Dumas en juillet 2011
(krigeage).
• Encadrement à 80% de la thèse de B. Echard (krigeage, fatigue) - Evaluation par krigeage de la
fiabilité des structures sollicitées en fatigue, soutenance prévue le 25 septembre 2012. Thèse financée
par l’ANR sur projet APPROFI (Approche mécano Probabiliste Pour la conception RObuste en
FatIgue).
19 décembre 2012
Page 16/172
HDR, Nicolas Gayton
Parcours professionnel et rapport d’activités
Figure 1 – Nombre de publications scientifiques par an depuis le début de ma thèse de Doctorat.
• Encadrement à 70% de la thèse de P. Beaucaire (Analyse des tolérances) - Application des méthodes
fiabilistes à l’analyse et la synthèse des tolérances, soutenance prévue le 29 novembre 2012. Thèse
financée par la région Auvergne et le FEDER en partenariat avec les sociétés Valeo SE, RADIALL,
Phimeca engineering.
• Encadrement en cours depuis septembre 2012 à 70% de la thèse de S. Bucas (Fatigue). Thèse en
convention CIFRE entre Manitowoc et l’IFMA sur la thématique de l’analyse fiabiliste des structures soudées sollicitées en fatigue.
L’articulation de ces différents encadrements vis-à-vis des thématiques traitées est synthétisée dans le
tableau 1.
0.2.4
Responsabilités scientifiques
Projets de recherche.
Mes activités de recherche sont en partie financées sur les projets de recherche
suivants :
• Projet ANR APPROFI (2008-2011, budget 100ke pour l’IFMA) : j’ai participé activement au
montage de ce projet, dont la responsabilité a été assurée par le CETIM (M. Afzali). J’ai été
responsable pour l’IFMA de ce projet qui a permis le financement de la thèse de B. Echard. Mes
Nicolas Gayton
Page 17/172
19 décembre 2012
Parcours professionnel et rapport d’activités
activités au cours de ce projet ont été reconnues par l’invitation à présenter les résultats du projet
en session plénière à la conférence Fatigue Design 2011 à Paris.
• Bourse Innovation du Conseil Régional / FEDER (2008-2012, budget 90ke) : j’ai monté le dossier
de demande de financement auprès de la région Auvergne et des fonds européens FEDER. Ce projet
a permis le financement de la thèse de P. Beaucaire.
• Projet ANR AHTOLA (2011-2014, budget 145ke pour l’IFMA). J’ai participé activement au mon-
tage de ce projet, dont la responsabilité a été assurée par l’ENSAM de Metz (J.Y. Dantan) et qui
permet le financement de la thèse de A. Dumas.
• Convention CIFRE avec Manitowoc : permet le financement du salaire de la thèse de S. Bucas.
J’ai trouvé le contact industriel et monté intégralement le dossier de demande de financement à
l’ANRT. Cette convention CIFRE est accompagnée d’un contrat entre Manitowoc et le laboratoire
détaillé dans le paragraphe suivant.
.
Thématique
Encadrements
Master R.
Rééchantillonnage
Publications
Thèse
Resp. scientifiques
Revues
Conf. int.
A. Notin
2
3
Co-encadrement
thèse
CIFRE CETIM/UTC
Krigeage
A. Dumas
B. Echard
3
3
Projet ANR APPROFI
Fatigue
S. Bucas
A. Notin, B.
Echard, S.
Bucas
3
4
Projet ANR APPROFI,
Contrat CIFRE Manitowoc
P. Beaucaire,
A. Dumas
4
4
Bourse Innovation du CR
d’Auvergne, Projet ANR AHTOLA, Contrat RADIALL Valeo SE - Phimeca
Analyse
des
tolérances
Tableau 1 – Synthèse de mes activités de recherche en terme d’encadrement de la recherche, de nombre
de publications et de responsabilités scientifiques. La somme des différentes publications n’est pas égale
au nombre total de publications car certaines publications concernent à la fois des recherches appliquées
et méthodologiques et apparaissent donc deux fois dans ce tableau.
Contrats de recherche industrielle.
Mon passage dans l’industrie m’a donné le goût du travail avec
des industriels. J’ai donc mis en place quelques contrats de recherche industriels permettant le financement
des frais de fonctionnement liés à mes activités de recherche :
• Contrat avec a la société RADIALL : 3000e / ans pendant 3 ans (2008-2012). Support de la thèse
de P. Beaucaire. 1 publication dans la revue Mécanique et industrie en commun.
• VALEO SE : 2ke / ans pendant 3 ans (2008-2012). Support de la thèse de P. Beaucaire. 1 publication
dans la revue Computer and Industrial Engineering en commun.
• PHIMECA SA : 5ke / ans pendant 3 ans (2008-2012). Support de la thèse de P. Beaucaire.
• MANITOWOC : 10ke / ans pendant 3 ans, contrat relatif à la thèse de S. Bucas.
• AIRBUS CIMPA : contrat en cours de finalisation. Une publication dans la revue Precision Enginnering en commun.
19 décembre 2012
Page 18/172
HDR, Nicolas Gayton
Parcours professionnel et rapport d’activités
0.2.5
Rayonnement
Expertises d’articles scientifiques.
J’ai effectué des expertises pour les revues suivantes :
• Mécanique et Industrie.
• Statistics and Computing.
• Thin-Walled Structures.
• Research in Engineering Design.
• Probabilistic Engineering Mechanics.
Collaborations universitaires en France.
Mes travaux de recherche s’intègrent dans les collabora-
tions universitaires suivantes :
• ENSAM de Metz : collaboration dans le cadre de la thèse de P. Beaucaire. Co-encadrement de la
thèse de Antoine Dumas. Quatre articles de revue en commun.
• UTC Roberval : co-encadrement de la thèse d’Alban Notin, deux articles de revue en commun.
• LMT Cachan dans le cadre du projet APPROFI, un article de revue en commun.
Je suis également membre du GRT (Groupe de Recherche en Tolérancement).
Collaborations internationales et reconnaissance scientifique
• Président Session “Approches probabilistes en conception vis-à-vis de la fatigue” - Conférence Fatigue Design 2009 et 2011, Senlis, France.
• Co-organisateur du mini symposium “ Meta-models / surrogate model for uncertainty propagation,
sensitivity and reliability analysis ” de la conférence ICASP11, Munich, 2011.
• Intervenant (cours sur l’analyse des tolérances) à l’école d’été IFMA / KIT (Karlsruher Institut für
Technologie) Uncertainty Quantification in Mechanics and Material Sciences, Theory and Practice,
Pforzheim, August 22-26, 2011.
• Collaboration avec l’Université de Floride (Pr. I. Elishakoff) avec l’échange régulier d’étudiants.
• Participation au projet COFECUB, collaboration avec le groupe de recherche en méthodes numériques
du Département d’Ingénierie de Structures de l’École d’Ingénierie de Sao Carlos de l’Université de
Sao Paulo (SET/EESC/USP).
0.2.6
Autres activités de recherche
Très intéressé par le domaine du sport, assez peu en lien avec mes activités d’enseignement et surtout
de recherche, je suis à l’initiative et pilote un projet de développement / fabrication / conception d’un
joug individuel d’entrainement à la mêlée pour l’ASM (Association Sportive Montferrandaise). Ce projet,
mené conjointement avec la société Phimeca, a donné lieu à un brevet, en cours de dépôt, mentionné dans
ma liste de références bibliographiques.
0.2.7
Synthèse
Le tableau 1 établit un bilan des mes activités de recherche en termes d’encadrement (Master et
thèse), de publications et de responsabilités scientifiques par thématiques de recherche.
Nicolas Gayton
Page 19/172
19 décembre 2012
Parcours professionnel et rapport d’activités
IFMA voie classique
Optimisation des structures (resp.)
M2
12h CM - 4h TD - 12h TP
Outils mécano-fiabilistes (resp.)
M2
8h CM - 16h TP
Approche probabiliste de l’Incertain en Conception
M2
4h CM - 4h TD - 4h TP
Ingénierie Assistée par ordinateur
M1
6h CM
Mécanique 2 (resp.)
M1
22hCM - 22hTD - 16hTP
Mathématiques 2 (resp.)
M1
8hCM - 8hTD
Cours commun conception innovante et fiabilité
M2R
6h CM
Fiabilité, conception, maintenance
M2Pro
4h CM - 4h TD - 8h TP
M2
3h CM
IFMA voie par apprentissage
Université Blaise Pascal, Clermont II
Ecole Nationale des Travaux Publics de l’etat
Approche probabiliste de la fiabilité des structures
Tableau 2 – Synthèse des activités d’enseignement (Nom de l’unité d’enseignement, niveau d’enseignement, nombre d’heures). “resp” indique que j’assure la responsabilité de cette UE.
0.3
Activités pédagogiques
Depuis 2006, mes activités d’enseignement se déroulent en grande majorité à l’IFMA (formation
classique et formation par la voie de l’apprentissage) mais également à l’Université Blaise Pascal et depuis
quatre ans à l’Ecole Nationale des Travaux Publics de l’Etat. Sur un total d’environ 350h équivalents
TD, j’effectue 70h de cours magistraux, 40h de TD, 110h de TP et le reste (soit 130h) d’encadrement
d’étudiants en stages et projets. Mes activités d’enseignement se déroulent essentiellement aux niveaux
Master 1 et 2 et se focalisent sur les méthodes numériques (méthodes probabilistes, optimisation des
structures et éléments finis). J’assure la responsabilité de quatre unités d’enseignement (modules de 30h
ou 40h équivalents TD) : deux pour la formation classique des ingénieurs IFMA et deux pour la formation
par la voie de l’apprentissage. Le détail de mes heures d’enseignement est fourni dans le tableau 2.
0.4
Responsabilités administratives
La principale activité administrative que j’assure est la responsabilité du pôle Structures et Mécanique
des Matériaux (St2M), pôle de formation à l’IFMA. Le pôle rassemble environ 150 étudiants répartis en
trois années de formation. Douze enseignants (1 ATER, 2 PRAG, 6MCF, 3PU) ainsi qu’une dizaine
d’intervenants extérieurs assurent l’essentiel des enseignements et le suivi des étudiants en stages. Aidé
par un adjoint, mes principales missions telles qu’elles sont mentionnées sur mon profil de poste, sont les
suivantes.
Mission pédagogique
• Vérifier la cohérence et proposer des évolutions à la maquette pédagogique.
• Coordonner les enseignements entre pôles.
19 décembre 2012
Page 20/172
HDR, Nicolas Gayton
Parcours professionnel et rapport d’activités
• Assurer le suivi des services et des vacataires ainsi que leur recrutement.
• Participer à la définition des postes des enseignants du pôle, à leur recrutement et à leur accueil.
• Assurer le suivi pédagogique des étudiants du pôle.
• Assurer le suivi de la mobilité entrante et sortante du pôle.
• Assurer le suivi de la recherche, de l’affectation et de l’évaluation des stages et projets.
Mission administrative
• Assurer la collecte des demandes et le suivi des investissements du pôle.
• Assurer le suivi de la gestion financière du pôle (budget fonctionnement 25ke/an, investissement
10 ke/an) fonction en lien avec le service financier.
• Assurer le suivi des ordres de mission en lien avec le service financier.
• Participer à la direction de l’établissement.
• Participer aux différentes instances mises en place par la direction.
• Assurer la gestion et l’évolution des moyens techniques (moyens d’essais, de simulations, ...) spécifiques
au pôle ou en commun avec des laboratoires de recherche.
• Assurer l’utilisation du bâtiment rattaché au pôle en liaison avec la direction, le patrimoine et le
SERI ;
Mission de communication
• Assurer la cohérence de la communication interne et externe du pôle.
• Assurer une communication claire des objectifs stratégiques définis par la direction auprès des
enseignants et des étudiants.
0.5
Actions de transfert de technologie et formation industrielle
J’ai effectué plusieurs formations à des partenaires industriels :
• formation pour Valeo SE (2 personnes) aux méthodes numériques d’optimisation (2 journées en
2010, 3,5ke) ;
• formation pour la société RADIALL (1 personne) aux méthodes numériques pour l’optimisation et
la fiabilité (2 journées en 2010, 3,5ke) ;
J’ai effectué également plusieurs missions de valorisation de mes activités (dites de transfert de technologie) :
• conseil au développement d’un outil métier d’analyse des tolérances pour Phimeca SA (outil actuellement en version 1) : 8ke sur 2011 et 2012 ;
• accompagnement dans la gestion des Projets Industriels de Fin d’Etudes pour Valeo SE / AIRBUS
CIMPA / IFREMER : 18ke autour des méthodes fiabilistes.
• activités de transfert des méthodes développées dans la cadre du projet APPROFI à la SNECMA
DMS : projet de 4 mois (mars à juin 2012) : 39ke.
0.6
Conclusion
En préambule de ce mémoire d’HDR, ce chapitre synthétise mes activités de recherche, d’enseignement,
mes responsabilités administratives ainsi que mes activités de transfert de technologie. Mes activités de
Nicolas Gayton
Page 21/172
19 décembre 2012
Parcours professionnel et rapport d’activités
recherche sont guidées par de nombreuses relations avec des entreprises industrielles à travers des projets
ANR, des thèses CIFRE ou bien des contrats de recherche industrielles. J’espère avoir réussi à montrer
au lecteur, de part ce bilan, ma dynamique de recherche depuis mon recrutement et surtout ma capacité
à diriger des recherches.
La suite de ce mémoire est consacrée au détail scientifique de mes activités scientifiques regroupées
en quatre chapitres.
19 décembre 2012
Page 22/172
HDR, Nicolas Gayton
Structuration des activités de
recherche
Pour qu’un modèle de comportement mécanique soit représentatif de la réalité, une alternative s’offre
à l’ingénieur : soit utiliser des théories de plus en plus évoluées avec des modélisations de plus en plus fines,
c’est la tâche de beaucoup de chercheurs dans le domaine de la mécanique ; soit considérer que ce travail est
peine perdue du fait des sources d’incertitude et donc qu’il est préférable d’investir dans la modélisation de
ces incertitudes pour caractériser les écarts entre la réalité et la théorie. La première possibilité engendre
souvent des modèles très particuliers qui manquent de généralisation. Depuis l’obtention de mon diplôme
d’ingénieur en 1999, c’est la croyance en cette seconde possibilité qui a guidé mes travaux de recherche
tout d’abord en thèse de Doctorat. Mon passage dans l’industrie de 2002 à 2006 m’a ensuite donné un
aperçu du champ d’application considérable des méthodes probabilistes dans l’industrie mécanique et des
bénéfices de ces méthodes pour la maı̂trise des marges de sûreté et la gestion du niveau de qualité des
produits conçus. Mon recrutement en 2006 dans l’enseignement supérieur m’a donc permis de me focaliser
sur l’application des méthodes probabilistes pour la gestion des incertitudes en mécanique, tout en ayant
à l’esprit de répondre à des préoccupations industrielles en fournissant des outils et des méthodologies
adaptés. Cette idée de développer une recherche en lien étroit avec des applications industrielles apparaitra
comme fil conducteur tout au long de la lecture de ce rapport d’Habilitation à Diriger des Recherches.
Le domaine du génie civil a été précurseur dans la gestion des incertitudes en mécanique par les
méthodes probabilistes pour garantir un certain niveau de sécurité aux utilisateurs de ses différentes
infrastructures. Ces méthodes ont ensuite été utilisées petit à petit de façon générale pour le dimensionnement de structures à risque (structures métalliques telles que les plateformes off-shore, les sous-marins,
les navires, ...). Ces dernières années ont vu le développement des méthodes probabilistes dans des secteurs et pour des produits très variés (connexions électriques, engins de levage, pièces de grande série,
...) pour garantir la fiabilité et la qualité des produits industrialisés. L’intérêt industriel croissant pour
ces méthodes est lié à un souhait de conception robuste permettant la maı̂trise des marges de sûreté et
la diminution du nombre d’essais physiques.
La gestion des incertitudes par les approches probabilistes n’a le même intérêt dans toutes les thématiques
de la mécanique. Cet intérêt est principalement lié à la forte dépendance de la fonction de performance
G(X), caractérisant le scénario à éviter, à des variables très incertaines comme l’illustre le schéma de la
figure 2 (cas (d)). La figure 3 synthétise l’organisation de mes activités de recherche qui se sont focalisées
sur deux thématiques particulières de la mécanique mettant en jeu des comportements du cas (d) et à
23
Structuration des activités de recherche
Figure 2 – Incertitudes sur la fonction G(X) en fonction de l’incertitude sur la variable X et du type de
dépendance de la fonction G à X.
Figure 3 – Articulation de mes activités de recherche.
19 décembre 2012
Page 24/172
HDR, Nicolas Gayton
Structuration des activités de recherche
enjeux industriels, à mon sens, considérables.
La première thématique de recherche est la fatigue de structures. 80% de la défaillance des
structures est due au phénomène de fatigue qui est, de plus, un phénomène très incertain et difficle à
appréhender. Ces deux constatations font de cette thématique un champ d’application privilégié pour les
méthodes probabilistes. Pourquoi deux structures a priori identiques (géométrie, matériau, ...) peuventelles avoir des durées de vie très différentes ? La réponse à cette question et la caractérisation de l’incertitude sur la durée de vie des structures pour un dimensionnement fiable ont constitué pour moi un travail
de six ans avec les thèses d’A. Notin (soutenue en 2011) et Benjamin Echard (soutenue en 2012), travail qui
se poursuit actuellement avec la thèse de Simon Bucas (en cours depuis 2011). Cette thématique, comme
celles abordées en génie civil, concerne de façon générale le calcul de la probabilité de défaillance d’une
structure, c’est-à-dire le calcul de la probabilité que l’exigence fonctionnelle de tenue mécanique ne soit
pas respectée. Cette thématique peut donc être considérée de façon beaucoup plus large en considérant
toutes les exigences fonctionnelles d’un système mécanique. C’est dans ce cadre que s’inscrit ma seconde
thématique de recherche. Il s’agit de la gestion des ppm (pièces par millions défectueuses), c’est-à-dire
du niveau de qualité produit en fabrication de grandes séries. Cette thématique aussi appelée analyse
des tolérances de fabrication est directement liée à mon passage dans l’industrie où j’ai pu voir
l’importance de l’allocation des intervalles de tolérance et les problématiques associées (gestion des lots
non conformes, des niveaux de capabilité, ...). Le niveau de qualité d’un système mécanique, son coût de
fabrication et le niveau des rebuts en production sont directement liés aux intervalles de tolérance et aux
exigences de qualité. Cette thématique est donc, à mon sens, capitale pour la conception mécanique. Elle
a été traitée avec l’aide du travail de thèse de Paul Beaucaire et se poursuit actuellement avec le travail
de thèse d’Antoine Dumas en collaboration avec L’ENSAM de Metz depuis 2011.
Ces deux thématiques de recherche ont été les fils conducteurs de mes activités et ont nécessité
le développement d’outils numériques pour le calcul de probabilités de défaillance ou de taux de non
conformité (TNC) pour la gestion des ppm. Les méthodes de calcul de probabilité de défaillance (ou de
TNC) ont principalement deux inconvénients. Le premier est leur caractère chronophage, surtout pour
traiter des problématiques industrielles où les modèles mécaniques sont en général raffinés et donc coûteux
en temps de calcul. Le second concerne le besoin en validation du résultat obtenu. Pour traiter le premier
inconvénient, les méthodes non intrusives basées sur l’utilisation de méta-modèles ont été utilisées. En
premier lieu, des techniques basées sur les surfaces de réponse polynomiales puis le chaos polynomial ont
été développées. Les travaux se sont ensuite focalisés sur l’utilisation du krigeage. Le second inconvénient
a été remédié par l’utilisation des techniques de ré-échantillonnage pour la définition d’intervalles de
confiance puis par l’utilisation de la variance de krigeage pour améliorer les méthodes de simulation.
Ce rapport est donc organisé autour de mes activités de Recherches méthodologiques et de mes
activités liées aux thématiques de Recherches applicatives. Ces deux activités constituent chacune
une partie de ce rapport. Cet ordre de présentation a été choisi pour d’abord introduire les méthodes
numériques nécessaires à la compréhension des méthodes de résolution des problèmes d’application.
Chaque partie est constituée de deux chapitres. La partie méthodologique est constituée d’un chapitre sur
l’utilisation du ré-échantillonnage pour l’analyse fiabiliste (chapitre 1) et d’un chapitre sur l’utilisation du
krigeage et la présentation des méthodes AK - Active learning and Kriging-based methods (chapitre 2).
Nicolas Gayton
Page 25/172
19 décembre 2012
Structuration des activités de recherche
La partie recherche applicative est elle aussi divisée en deux chapitres. Le chapitre 3 concerne le dimensionnement fiable des structures sollicitées en fatigue et le chapitre 4 concerne l’analyse des tolérances de
fabrication. Ce rapport est conclu en fournissant des perspectives de travail traçant ainsi mes activités
de recherche pour les années à venir.
Bonne lecture.
19 décembre 2012
Page 26/172
HDR, Nicolas Gayton
Première partie
Développements méthodologiques
27
Chapitre 1
Techniques de ré-échantillonnage
pour l’analyse de fiabilité
Sommaire
1.1
Introduction
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
1.2
Brefs rappels des méthodes FORM/SORM . . . . . . . . . . . . . . . . . . .
30
1.3
1.4
1.5
1.6
1.2.1
Probabilité de défaillance, indice de fiabilité et point P ∗ . . . . . . . . . . . . .
30
1.2.2
Produits d’une analyse FORM/SORM . . . . . . . . . . . . . . . . . . . . . . .
32
Ré-échantillonnage et intervalles de confiance . . . . . . . . . . . . . . . . .
33
1.3.1
Bref état des lieux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
1.3.2
Techniques de ré-échantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . .
34
1.3.3
Intervalles de confiance
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
1.3.4
Conclusions sur les techniques de ré-échantillonnage . . . . . . . . . . . . . . .
37
Méthode CQ2RS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
1.4.1
Bref état des lieux sur les méthodes de surface de réponse . . . . . . . . . . . .
37
1.4.2
Fondements statistiques de la méthode CQ2RS . . . . . . . . . . . . . . . . . .
39
1.4.3
Principes de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
1.4.4
Application industrielle à une structure conique raidie . . . . . . . . . . . . . .
42
1.4.5
Conclusions sur la méthode CQ2RS . . . . . . . . . . . . . . . . . . . . . . . .
44
Méthode RPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
1.5.1
Bref état des lieux des méthodes basées sur le chaos polynomial . . . . . . . . .
44
1.5.2
Post-traitement des coefficients du chaos . . . . . . . . . . . . . . . . . . . . . .
46
1.5.3
Troncature du développement sur le chaos polynomial . . . . . . . . . . . . . .
47
1.5.4
Description de la méthode RPCM . . . . . . . . . . . . . . . . . . . . . . . . .
48
1.5.5
Application industrielle à un bogie de TGV . . . . . . . . . . . . . . . . . . . .
52
1.5.6
Conclusions sur la méthode RPCM . . . . . . . . . . . . . . . . . . . . . . . . .
53
Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
Synthèse du chapitre
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
57
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
1.1
Introduction
Mener une analyse de fiabilité est une tâche numérique très lourde en temps de calcul puisque
nécessitant une succession de calculs mécaniques voisins. Une des alternatives pour diminuer ces temps
de calcul réside dans l’utilisation de méta-modèles basés sur la définition d’un plan d’expériences. Ces
stratégies, utilisées depuis plusieurs années, peuvent être basées sur des surfaces de réponse polynomiales
ou des chaos polynomiaux (polynômes exprimés sur une base particulière) et présentent en règle générale
une phase d’apprentissage itératif pour enrichir le plan d’expériences en fonction des résultats obtenus
aux itérations précédentes. Ces méthodes sont plus ou moins efficaces et doivent être adaptées en fonction
du résultat souhaité (indice de fiabilité, coordonnées du point de défaillance le plus probable, probabilité
de défaillance, voire indicateurs de sensibilité).
Le principal inconvénient de ces méthodes est le manque d’information sur la confiance associée aux
résultats obtenus sur une représentation simplifiée du modèle de comportement structural à étudier. Ces
résultats sont forcément dépendants du premier plan d’expériences choisi, du degré des surfaces de réponse
polynomiales et de la stratégie d’enrichissement. Des indicateurs de qualité (basés sur de la validation
croisée par exemple) peuvent être fournis mais nécessitent des calculs supplémentaires. Pour palier ces
différents problèmes, les techniques de ré-échantillonnage peuvent permettre de donner des intervalles
de confiance des résultats fiabilistes sans coût de calcul supplémentaire. Elles peuvent alors
permettre de définir des critères d’arrêt et d’enrichissement judicieux en association avec le choix du
degré des polynômes choisis. Ce chapitre se focalise donc sur le rôle, trop souvent négligé, de
la validation des résultats du calcul fiabiliste [Pellissetti and Schueller, 2006].
Après avoir introduit les principes de calcul fiabiliste et les techniques de ré-échantillonnage, ce chapitre
présente les bases de deux stratégies de calcul fiabiliste adaptatif. La première, développée dans le cadre
de la thèse de l’auteur, nommée CQ2RS-Complete Quadratic Response Surface method with ReSampling
[Gayton et al., 2002a] permet, grâce aux techniques de ré-échantillonnage et dans un objectif de calibration des coefficients partiels, de fournir précisément les coordonnées du point de défaillance le plus probable. La seconde méthode, nommée RPCM-Resampling-based Polynomial Chaos Method [Notin et al.,
2010], a pour objectif de fournir l’indice de fiabilité d’une structure avec le minimum de calculs mécaniques
et sans hypothèse sur le degré nécessaire du chaos pour aboutir à bonne approximation. Cette méthode
a été développée dans le cadre des travaux de thèse d’Alban Notin. Pour davantage de détails sur les
algorithmes et les cas test de validation, le lecteur pourra se référer aux références [Gayton et al., 2002a;
Notin et al., 2010].
1.2
Brefs rappels des méthodes FORM/SORM
Pour une revue des méthodes FORM/SORM, le lecteur pourra se référer à l’ouvrage [Lemaire, 2009]
dont est issue la majorité des informations présentées dans cette section.
1.2.1
Probabilité de défaillance, indice de fiabilité et point P ∗
Le modèle probabiliste d’une structure est défini par :
• un vecteur de n variables aléatoires X = {X1 , ..., Xn }, issu du modèle mécanique, dont on a estimé
les densités marginales fXi (xi ) et les corrélations éventuelles, ou mieux, la densité conjointe de
probabilité fX (x) ;
19 décembre 2012
Page 30/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
• un ou plusieurs scénarios de défaillance. A chaque scénario est associée une fonction de performance
G(x) résultant du calcul mécanique, dont les valeurs positives constituent les réalisations du succès
(non défaillance) alors que les valeurs négatives ou nulles traduisent l’échec (défaillance). La surface
G(x) = 0 est appelée l’état-limite, elle définit le passage de la sûreté à la défaillance.
La probabilité de défaillance Pf de la structure est définie mathématiquement par :
Pf =
Z
fX (x)dx
(1.1)
G(x)≤0
Le calcul de cette intégrale n’est pas aisé et dépend de la dimension du problème, c’est-à-dire de la taille
n du vecteur X et de la complexité de la fonction de performance G(x). Le calcul peut toujours se faire
par la méthode de Monte Carlo qui sera détaillée dans le chapitre 2. Cependant pour des raisons de temps
de calcul et de représentativité des résultats, il est souvent nécessaire d’avoir recours à l’indice de fiabilité
β de Hasofer et Lind [Hasofer and Lind, 1974] résultant de la résolution du problème suivant :
β = min
√
ut u sous les contraintes G(x) ≤ 0 et u = T (x)
(1.2)
où u est l’image de x par la transformation iso-probabiliste notée T : x → u de manière à ce que ui
suive une loi Gaussienne centrée normée, les variables étant décorrélées. Dans cet espace dit standard,
la fonction de performance est notée H(u). Le point solution du problème défini par l’équation 1.2 est
appelé (abusivement, [Lemaire, 2009]) le point de défaillance le plus probable noté P∗ . Ses coordonnées
dans l’espace des variables standards sont notées u∗i . Elles sont obtenues en utilisant des algorithmes
spécifiques tels que Rackwitz-Fiessler [Rackwitz and Fiessler, 1978], Abdo-Rackwitz [Abdo and Rackwitz,
1990] nécessitant le calcul du gradient de la fonction de performance ou par l’intermédiaire de surfaces
de réponse [Faravelli, 1989]. Le calcul de Pf s’effectue ensuite :
• soit par une approximation FORM (First Order Reliability Method ) en linéarisant la fonction de
performance au point P∗ [Ditlevsen and Madsen, 1996] :
Pf ≈ Φ (−β)
où Φ() est la fonction de répartition de la Gaussienne centrée réduite N (0, 1) ;
• soit par une approximation au deuxième ordre SORM (Second Order Reliability Method ) grâce à
une relation du type de celle de Breitung [Breitung, 1994] :
Pf ≈ Φ (−β)
n−1
Y
(1 + βκi )−1/2
i=1
où les κi sont les courbures principales de la fonction d’état limite au point P∗ ;
• soit par l’approximation de la densité de probabilité de la fonction G par une densité de probabilité
particulière (méthode SOTA [Glancy and Chase, 1999]) ;
• soit par simulations [Ditlevsen and Madsen, 1996] autour du point P∗ , méthodes de simulations qui
sont exposées au chapitre 2.
Les notions définies sont résumées graphiquement en figure 1.1 dans le cas d’un modèle probabiliste
à deux variables aléatoires X1 et X2 .
Nicolas Gayton
Page 31/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Figure 1.1 – Principales notions relatives aux méthodes FORM/SORM (indice de fiabilité β, point de
défaillance le plus probable P∗ , transformation iso-probabiliste T ).
1.2.2
Produits d’une analyse FORM/SORM
Les méthodes de fiabilité permettent de proposer des indicateurs utiles en phase de conception et plus
particulièrement en phase de dimensionnement. Le signe des coordonnées du point de défaillance le plus
probable u∗i est très intéressant puisqu’il permet de définir le caractère “Résistance” ou “Sollicitation”
de chaque variable aléatoire :
• u∗i > 0 : la variable Xi est de type “Sollicitation”, il est nécessaire d’augmenter sa valeur médiane
pour se rapprocher de la défaillance ;
• u∗i < 0 : la variable Xi est de type “Résistance”, il est nécessaire de diminuer sa valeur médiane
pour se rapprocher de la défaillance.
Les cosinus directeurs αi , liés aux coordonnées u∗i et à l’indice de fiabilité par :
αi = −
u∗i
β
traduisent l’importance de la variable Ui dans la fonction d’état-limite au point de défaillance le plus
probable. Une variable qui possède un cosinus directeur important peut être considérée comme stochastiquement importante.
Les élasticités définies par :
eτ =
∂β τ
∂τ β
mesurent l’influence normalisée (en %) d’une petite variation de τ sur l’indice de fiabilité β. Les élasticités
eσi de l’indice de fiabilité par rapport à l’écart-type de la variable Xi se calculent de la façon suivante :
eσi = −αi2
19 décembre 2012
Page 32/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Enfin, les coefficients partiels dont le calcul ainsi que l’interprétation peuvent être abordés en lisant
[Gayton et al., 2004] par exemple.
1.3
Ré-échantillonnage et intervalles de confiance
Cette section rappelle quelques éléments relatifs au ré-échantillonnage et au calcul d’intervalles de
confiance de façon à bien situer le cadre des développements effectués.
1.3.1
Bref état des lieux
Le principe du ré-échantillonnage est de simuler la variabilité d’estimateurs en tirant des échantillons
à l’intérieur d’une population donnée. Ré-échantillonner, c’est donc utiliser un jeu de données (échantillon)
pour construire un ou plusieurs nouveaux sous-échantillons. Il existe de nombreuses formes de ré-échantillonnage :
• Les tests de permutation développés par R. A. Fischer [Fischer, 1935].
• La validation croisée (Cross-validation) : le test de validation croisée simple (Simple cross-validation)
a été proposé par Kurtz en 1948 [Kurtz, 1948]. En 1951 Mosier [Mosier, 1951] développa le critère
de double validation croisée (double cross-validation) qui fut étendu à la validation croisée multiple
(multicross-validation) par Kruss et Fuller en 1982 [Kruss, 1982].
• Le Jackknife : mis au point par Maurice Quenouille [Quenouille, 1949] et développé plus tard par
John W. Tukey [Tukey, 1958]. Il est analogue aux tests “leave-one-out” des méthodes de “validation
croisée”.
• Le Bootstrap : inventé par Bradley Efron [Efron, 1979] puis développé en 1993 par Efron et Tibshirani [Efron and Tibshirani, 1993]. Le terme “Bootstrap” signifie qu’un seul échantillon donne
naissance à plusieurs autres par ré-échantillonnage.
Les techniques de ré-échantillonnage permettent - entre autres - d’estimer le biais ou la variance d’un
estimateur en comparant le(s) sous échantillon(s) à l’échantillon initial, ou les ré-échantillons entre eux. En
calculant la moyenne et l’écart-type de l’estimateur on peut également calculer des intervalles de confiance.
Pour une description plus complète de l’histoire du ré-échantillonnage et des techniques associées (et de
leurs variantes), le lecteur pourra se référer à [Arlot, 2007]. La formulation du ré-échantillonnage étant très
simple, c’est désormais un outil statistique largement utilisé (surtout le Bootstrap et la validation croisée).
On trouve un large éventail d’applications du Bootstrap dans [Hall, 2003; Casella, 2003]. A l’origine, l’objectif d’Efron [Efron, 1981] était d’estimer le biais et la variance d’un estimateur (comme avec le Jackknife). Le Bootstrap a ensuite été utilisé pour construire des intervalles de confiance [DiCiccio and Efron,
1996], calculer des p−valeurs pour des statistiques de test [Beran, 2003; Boos, 2003], estimer une erreur de prédiction [Efron and Tibshirani, 1997; Molinaro et al., 2005; Jiang and Simon, 2007], faire de la
sélection de modèle, etc... D’autres types de ré-échantillonnage existent pour construire des intervalles de
confiance : en particulier le sous-échantillonnage [Politis et al., 1999]. L’application de ces techniques à
l’analyse de fiabilité nous conduit à nous intéresser particulièrement aux intervalles de confiance comme
évoqué précédemment. Seules les techniques du Jackknife et du Bootstrap ont donc été abordées.
Nicolas Gayton
Page 33/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
1.3.2
Techniques de ré-échantillonnage
Le Jackknife
Soit un échantillon initial x1 , . . . , xp de taille p et T une statistique de cet échantillon. On note T̂
l’estimation de cette statistique obtenue à partir de l’échantillon initial :
T̂ = f (x1 , . . . , xp ) = f (x)
(1.3)
L’estimation par Jackknife s’obtient de la manière suivante :
1. calcul de la valeur T̂(−1) de la statistique T pour le sous-échantillon obtenu en omettant la valeur
x1 :
T̂(−1) = f (x2 , . . . , xp )
(1.4)
2. calcul de la pseudo-valeur T̂1∗ = pT̂ − (p − 1)T̂(−1) ,
3. répétition de cette opération p fois en omettant à tour de rôle chacune des observations pour obtenir
les p pseudo-valeurs T̂1∗ , . . . , T̂p∗ :
T̂(−i)
=
f (x1 , . . . , xi−1 , xi+1 , . . . , xp )
T̂i∗
=
pT̂ − (p − 1)T̂(−i)
L’estimation par Jackknife de T est alors la moyenne des pseudo-valeurs, notée T̂ ∗ :
p
T̂ ∗ =
1X ∗
T̂
p i=1 i
(1.5)
L’écart-type des pseudo-valeurs, permettant de quantifier la confiance dans la prédiction de T par T̂ ∗ est
défini par :
σ̂T̂ ∗
v
u
p 2
u 1 X
t
=
T̂i∗ − T̂ ∗
p − 1 i=1
(1.6)
Le Bootstrap
Comme pour le Jacknife, le but du bootstrap est de fournir des indications sur une statistique (dispersion, distribution, intervalles de confiance) afin de connaı̂tre la précision des estimations réalisées. Ces
informations sont obtenues sans recours à de nouvelles observations. Les deux applications fondamentales
du Bootstrap sont la réduction du biais et la détermination d’intervalles de confiance. Les variantes les
plus communes sont :
• Bootstrap-t, Bootstrap percentile et Bootstrap BCa pour l’élaboration d’intervalles de confiance
autour d’une statistique ;
• Bootstrap .632 et .632+ pour le calcul d’erreurs de classification dans un cas binaire (par exemple,
analyse discriminante à deux groupes, régression logistique binaire, arbre de décision, ...) ;
• Bagging et boosting pour l’élaboration de modèles robustes.
19 décembre 2012
Page 34/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Soit un échantillon initial x1 , . . . , xp de taille p prélevé de manière aléatoire dans une population. Soit
T une statistique de cette population. L’estimation de T obtenue à partir de l’échantillon initial est notée
T̂ . Le principe est de générer B sous-échantillons x∗k de x de taille p en tirant aléatoirement avec remise
parmi les valeurs x. Pour chaque nouvel échantillon x∗k , l’estimation T̂k∗ de T̂ est évaluée par :
T̂i∗ = f (x∗i ),
i = 1, . . . , B
(1.7)
A partir de ces B répétitions, les quantités suivantes sont déterminées :
B
1 X ∗
T̂
• La moyenne : T̂ ∗ =
B i=1 i
v
u
B 2
u 1 X
• L’écart-type : σ̂T̂ ∗ = t
T̂i∗ − T̂ ∗
B − 1 i=1
• Le biais : BiaisB (T̂ ) = T̂ ∗ − T̂
L’écart-type σ̂T̂ ∗ est une estimation de l’erreur-standard de l’estimateur de T . Ces estimateurs interviennent dans l’obtention des intervalles de confiance. Concernant le choix de B, les valeurs le plus
souvent retenues sont de l’ordre de 30 à 200 [Efron and Tibshirani, 1993]. Mais pour l’estimation de
pourcentiles de T , B peut aller jusqu’à 1000, 100000 ou plus [Hesterberg, 2007]. Lorsque la taille p des
échantillons est inférieure à B, le calcul de l’erreur-standard et du biais est plus rapide par le Jackknife.
Par contre, le Jackknife donne de manière générale de moins bonnes estimations [Palm, 2002].
Le Bootstrap ne crée pas de nouvelles données. Il est utile pour quantifier le comportement de l’estimation d’un paramètre comme par exemple l’erreur standard, le biais ou bien calculer des intervalles
de confiance. Un autre point important concerne la représentativité des données. Si les données originales sont dépendantes, l’échantillonnage Bootstrap doit conserver cette dépendance. Enfin, le Bootstrap
fournit une distribution et pas seulement la moyenne ou la médiane : il est donc possible de calculer
un écart-type et/ou un intervalle de confiance pour cette nouvelle estimation. Un autre avantage du
Bootstrap est qu’aucune hypothèse forte à priori sur la distribution des observations n’est nécessaire.
L’utilisation du ré-échantillonnage permet d’utiliser au mieux l’information contenue dans l’échantillon.
1.3.3
Intervalles de confiance
Un intervalle de confiance est un intervalle qui est supposé contenir, avec un certain degré de confiance,
la valeur à estimer. Ainsi, l’intervalle de confiance mesure le degré de précision présumé sur les estimations
issues de l’échantillon. Deux sources principales de variation sur les données peuvent être la cause d’un
manque de précision dans l’estimation d’une grandeur :
• un nombre insuffisant de données, valeur de p trop faible ;
• du bruit dans la mesure des données (ce qui est pratiquement toujours le cas pour la mesure des
grandeurs physiques).
Les principales méthodes de calcul des intervalles de confiance sont détaillées ci-après. L’ensemble des
définitions est issu des références [Efron and Tibshirani, 1993; DiCiccio and Efron, 1996; Palm, 2002].
Méthode de l’erreur standard
La méthode de l’erreur standard définit l’intervalle de confiance de T à α (niveau de confiance) de la
façon suivante :
Nicolas Gayton
Page 35/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
T̂ − u[1−α/2] σ̂T̂ ∗ ≤ T ≤ T̂ + u[1−α/2] σ̂T̂ ∗
(1.8)
u[1−α/2] étant le pourcentile 1 − α/2 de la distribution normale réduite. Pour que cette approche soit
satisfaisante, il faut que la distribution d’échantillonnage du paramètre étudié soit approximativement
normale, que l’estimateur soit non biaisé et que σ̂T̂ ∗ soit une bonne estimation de l’erreur-standard de la
distribution du paramètre.
Méthode des pourcentiles simples
∗
∗
Dans cette méthode, les limites de confiance sont données par les fractiles T̂[α/2]
et T̂[1−α/2]
à α/2 et
1 − α/2 de la distribution des B valeurs T̂k∗ (distribution d’échantillonnage empirique) :
∗
∗
T̂[α/2]
≤ T ≤ T̂[1−α/2]
(1.9)
Contrairement à la méthode de l’erreur standard, la distribution d’échantillonnage du paramètre étudié ne
doit pas être obligatoirement normale, par contre B doit être plus élevé (de l’ordre de 1000 par exemple).
Méthode des pourcentiles corrigés pour le biais
∗
Dans la méthode des pourcentiles simples, les limites de confiance sont données par les fractiles T̂[α/2]
∗
et T̂[1−α/2]
de la distribution des T̂k∗ . Une première modification de cette méthode concerne la prise en
compte du biais. La méthode des pourcentiles corrigés pour le biais consiste à prendre, comme limite de
∗
∗
confiance, les pourcentiles T̂[α
et T̂[α
de la distribution des T̂k∗ . Les valeurs α1 et α2 sont fonction de
1]
2]
α/2 ainsi que de la proportion p de valeurs T̂k∗ inférieures à T̂ . Dans la pratique, le calcul des valeurs de
α1 et α2 est le suivant :
1. détermination de la proportion q de valeurs T̂k∗ inférieures à T̂ ,
2. calcul du fractile uq (de niveau q) relatif à la distribution normale réduite :
uq = Φ−1 (q)
(1.10)
3. calcul des points u1 et u2 :
u1
=
2uq + uα/2
u2
=
2uq + u1−α/2
(1.11)
4. Estimation des pourcentiles α1 et α2 de la fonction de répartition de la normale centrée réduite aux
points u1 et u2 :
α1
=
Φ(u1 )
α2
=
Φ(u2 )
(1.12)
Méthode des pourcentiles avec correction pour le biais et accélération
Cette méthode est aussi nommée Bootstrap BCa. C’est une extension de la méthode des pourcentiles
corrigés pour le biais de manière à tenir compte d’un éventuel changement de l’erreur-standard de T̂
lorsque T varie. La prise en compte d’une modification de l’erreur-standard nécessite le calcul, à partir de
19 décembre 2012
Page 36/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
l’échantillon initial, d’un paramètre appelé accélération (noté a), qui intervient dans le calcul des valeurs
∗
∗
α1 et α2 utilisées pour définir les limites inférieure T̂[α
et supérieure T̂[α
. Le calcul des points u1 et u2
1]
2]
est modifié de la manière suivante :
u1
=
u2
=
uq + uα/2
1 − a(up + uα/2 )
uq + u1−α/2
up +
1 − a(up + u1−α/2 )
uq +
(1.13)
(1.14)
La constante a (accélération) est liée au taux de variation de l’erreur-standard de T̂ lorsque T varie. Elle
peut être estimée de différentes manières dont l’une consiste à utiliser la technique du Jackknife :
" p
#
p
3 X
2 3/2
1 X
a=
T̂J − T̂(−i) /
T̂J − T̂(−i)
6 i=1
i=1
(1.15)
Dans cette expression, T̂(−i) est l’estimation du paramètre T obtenue à partir de l’échantillon initial dont
la ième observation est retirée. T̂J est la moyenne des p valeurs T̂(−i) . Cette méthode permet de prendre
en compte les asymétries de la statistique étudiée (ce que ne fait pas la méthode des pourcentiles par
exemple) mais au prix d’un nombre élevé de ré-échantillonnages.
D’autres techniques de ré-échantillonnage et d’estimation comme le Bootstrap-t (Bootstrap à deux
niveaux) peuvent être intéressantes mais n’ont pas été abordées dans le cadre de ces travaux d’analyse
de fiabilité par ré-échantillonnage.
1.3.4
Conclusions sur les techniques de ré-échantillonnage
Les techniques de ré-échantillonnage permettent d’utiliser au mieux l’information contenue dans un
échantillon. Une application fondamentale du Bootstrap concerne le calcul d’intervalles de confiance
comme mesure de la précision sur l’estimation de statistiques issues de l’échantillon. La méthode présentant
les meilleurs compromis est celle du Bootstrap BCa (correction pour le biais et accélération). Par ailleurs,
le Bootstrap BCa est la méthode couramment préconisée dans la littérature [Efron and Tibshirani, 1993;
DiCiccio and Efron, 1996; Palm, 2002]. Cette approche est donc une des méthodes à privilégier pour
calculer les intervalles de confiance dans un objectif d’analyse de fiabilité. Enfin, le Bootstrap BCa a
été utilisé par [Walz and Riesch-Oppermann, 2006] pour estimer la probabilité de défaillance liée a des
défauts sur des disques de turbines.
1.4
1.4.1
Méthode CQ2RS
Bref état des lieux sur les méthodes de surface de réponse
Est souvent associé au nom de surface de réponse une représentation polynomiale d’un modèle
mécanique plus complexe de type éléments finis par exemple. Cette représentation polynomiale se substitue alors au modèle mécanique de type éléments finis, coûteux en temps de calcul, pour tout calcul
paramétrique, d’optimisation ou de fiabilité. Une telle approximation présente aussi l’avantage de réduire
le bruit numérique inhérent au modèle mécanique de type éléments finis. Dans le contexte de l’analyse
fiabiliste, cette représentation est notée H̃(u) dans l’espace standard et est définie par régression à partir
Nicolas Gayton
Page 37/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
d’expériences numériques. Si seul le point de défaillance est recherché, une représentation locale, précise
autour du point P∗ est construite. Un algorithme de fiabilité peut alors être utilisé sur la surface de
réponse pour conduire à une estimation du point de défaillance le plus probable P ∗ (figure 1.2).
Figure 1.2 – Principes d’approximation de la méthode des surfaces de réponse.
Dans tous les cas, un écart existe entre le modèle approché H̃ et le modèle réel H. Un processus
adaptatif permet la convergence des résultats en redéfinissant un plan d’expériences numériques autour
du point trouvé et en relançant la méthode.
La méthode des surfaces de réponse [Faravelli, 1989] apparaı̂t intéressante à plusieurs niveaux. Elle
permet une dérivation numérique sur un modèle approché permettant ainsi de réduire en général le
nombre de calculs mécaniques. D’autre part, elle permet d’introduire les connaissances de l’ingénieur en lui
laissant toute liberté de définir une expérience judicieusement choisie ou d’en éliminer une inutile ou nonphysiquement admissible. Elle présente aussi l’avantage de pouvoir estimer la probabilité de défaillance
ou des sensibilités stochastiques, pour un coût de calcul quasiment nul, par simulations de Monte-Carlo
sur la surface de réponse. Dans ce cas, une représentation globale du modèle de comportement est en
générale préférée.
L’utilisation de telles méthodes dans les problèmes de fiabilité n’est pas récente et fait toujours l’objet de nouvelles contributions [Allaix and Carbon, 2011]. Des travaux ont permis de poser les concepts
[Bucher and Bourgund, 1990; Faravelli, 1989; El-Tawil et al., 1991] et de proposer des évolutions [Enevolsen et al.,
1994; Kim and Na, 1997; Liu and Moses, 1994; Muzeau et al.; Lemaire, 1998]. Ces diverses méthodes proposées dans la littérature diffèrent principalement sur trois points.
Le premier point est l’espace de travail. Certains auteurs définissent les expériences dans l’espace des
variables physiques [Bucher and Bourgund, 1990; Kim and Na, 1997; Liu and Moses, 1994]. Ceci présente
l’avantage de manipuler des grandeurs physiques et donc de ne pas générer d’expériences aberrantes.
Néanmoins, en accord avec [Enevolsen et al., 1994; Lemaire, 1998], il semble préférable de définir les
expériences dans l’espace standard de manière à contrôler correctement la distance entre les expériences.
Ceci présente aussi l’avantage de permettre l’utilisation directe des algorithmes fiabilistes sur la surface
19 décembre 2012
Page 38/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
de réponse. Par contre, il faut impérativement vérifier le caractère physique de chacune des expériences
générées dans cet espace.
La plupart des auteurs sont d’accord pour utiliser une surface polynomiale. Le nombre de termes
de la surface de réponse utilisée est un des points de discussion sachant que plus la surface de réponse
est complète, plus les résultats sont précis mais coûteux. Une approche par surface de réponse linéaire
peut être envisagée de façon adaptative [Kim and Na, 1997]. D’autres approches utilisent une surface de
réponse de degré 2 sans terme mixte [Bucher and Bourgund, 1990; Liu and Moses, 1994]. Ceci présente
l’avantage de diminuer le nombre d’expériences nécessaires à la formation de la surface de réponse mais
ne permet pas de prendre en compte d’éventuels interactions entre les variables. Une surface de degré
2 sous sa forme complète peut être utilisée [Enevolsen et al., 1994; Rajashekhar and Ellingwood, 1993;
Lemaire, 1998]. C’est celle qui semble efficace dans la plupart des cas.
La définition des plans d’expériences est un sujet de discussion très important. La plupart des auteurs
utilisent des plans d’expériences étoilés [Bucher and Bourgund, 1990; Kim and Na, 1997; Liu and Moses,
1994; Rajashekhar and Ellingwood, 1993], dont la taille est empirique. Ceci présente l’avantage de générer
peu de calculs mécaniques.
1.4.2
Fondements statistiques de la méthode CQ2RS
Notons u(j) les p, j = 1, ..., p expériences numériques et par n le nombre de composantes du vecteur
u(j) , c’est-à-dire le nombre de variables aléatoires. Définissons la fonction P qui associe, aux p expériences
u(j) , les coordonnées ũ∗ d’une estimation du point de défaillance le plus probable notée P̃ ∗ :
u(1) , u(2) , ..., u(j) , ..., u(p)
P:
p×n
R
P
−→
ũ∗
−→
R
(1.16)
n
La transformation P est composée :
1. des calculs mécaniques associés à chacune des expériences ;
2. d’une régression des moindres carrés dans le but d’obtenir les l =
(n+1)(n+2)
2
coefficients de la
surface de réponse quadratique avec termes croisés ;
3. du calcul de l’estimation du point de défaillance le plus probable sur la surface de réponse grâce à
l’utilisation des algorithmes fiabilistes classiques (Rackwitz-Fiessler, ...).
La régression des moindres carrés introduit un écart entre les valeurs calculées de la fonction de
performance H(u(j) ) et les valeurs estimées H̃(u(j) ) :
ε(j) = H(u(j) ) − H̃(u(j) )
Dans le cas de la régression des moindres carrés, cet écart est aléatoire et est distribué suivant une
loi normale centrée. Il en résulte que la réalisation H̃(u(j) ) est une variable aléatoire et donc que les
coordonnées de P̃ ∗ le sont également à travers la transformation P. Une connaissance exhaustive de la
population u(j) conduirait à la connaissance exacte de u∗ . Il suffirait de rechercher la solution du problème
défini en équation 1.2. En d’autres termes :
u(1) , u(2) , ..., u(j) , ..., u(p)
Nicolas Gayton
Page 39/172
p→∞
=⇒ u∗
(1.17)
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
La fonction P apparaı̂t donc comme un opérateur qui construit une caractéristique ũ∗ de la population
mère u dont un échantillon est le plan d’expériences u(j) de taille réduite p. Lorsque u∗ est calculé à partir
du plan d’expériences de taille réduite, il devient une statistique aléatoire, fonction du plan d’expériences,
notée ũ∗ de moyenne mũ∗ et de variance sũ∗ . Se pose alors le problème de savoir estimer u∗ à partir d’un
unique plan d’expériences de taille limitée, c’est-à-dire de trouver le meilleur estimateur de u∗ .
Classiquement, l’estimateur ũ∗ , calculé à partir du plan d’expériences de taille p, est utilisé pour
estimer u∗ (c’est le cas de toutes les méthodes des surfaces de réponse citées en référence). Il n’est
cependant pas un estimateur robuste de u∗ car il apparaı̂t très sensible aux expériences choisies. Il
introduit alors le problème habituel de choix du meilleur plan d’expériences, le plus caractéristique de
la population. Un estimateur robuste couramment utilisé (par exemple pour estimer la moyenne d’une
variable aléatoire à partir d’un échantillon unique de la population), est la moyenne mũ∗ . Dans le cas de
la transformation P, l’utilisation de cet estimateur peut se justifier par le fait que la meilleure estimation
du point de conception est celle la plus couramment obtenue par l’utilisation de plans d’expériences
différents. Aussi, cet estimateur est convergent vers u∗ . En effet, considérons le cas extrême où les plans
d’expériences sont de taille infinie. La distribution des ũ∗ est alors clairement centrée en ũ∗ (équation
1.17) et de variance nulle.
La détermination de u∗ peut finalement se ramener au problème suivant : comment
estimer mũ∗ à partir d’un seul échantillon de la population u ?
Les méthodes de ré-échantillonnage permettent de répondre à ce type de questions en deux phases :
• obtention d’une distribution d’échantillonnage empirique de ũ∗ à partir d’un plan d’expériences de
u (étape 2 de la méthode) ;
• estimation de la moyenne de u∗ à partir de la distribution obtenue (étape 3 de la méthode).
1.4.3
Principes de la méthode
La méthode CQ2RS Complete Quadratic Response Surface method with ReSampling [Gayton et al.,
2002a] proposée dans cette section a pour objectif de calculer l’indice de fiabilité ainsi que les coordonnées
du point de défaillance le plus probable dans l’espace standard (intéressant pour le calcul des coefficients
partiels). Son caractère adaptatif et son critère d’arrêt basés sur les techniques de ré-échantillonnage
permettent de limiter le nombre de calculs mécaniques tout en ayant confiance dans les résultats obtenus.
La méthode CQ2RS est composée de deux étapes principales :
• Etape 1 - définition du premier plan d’expériences : la stratégie [Gayton et al., 2002a],
non détaillée dans ce document, permet de construire un premier plan d’expériences de taille p =
(n+1)(n+2)
2
+ 2 en tenant compte du caractère Résistance ou Sollicitation de chaque variable. Ce
premier plan d’expériences est ainsi localisé dans une zone réduite de l’espace qui est censée contenir
le point de défaillance le plus probable.
• Etape 2 - ré-échantillonnage des expériences : les coordonnées du point de défaillance le plus
probable sont considérées comme des variables aléatoires dépendant des expériences choisies pour
la régression. Une technique de ré-échantillonnage statistique permet d’obtenir une distribution
empirique de chacune des coordonnées du point de défaillance le plus probable à partir de la base
de données d’expériences et cela sans calcul mécanique supplémentaire.
• Etape 3 - estimation des coordonnées du point P∗ : les outils d’estimation statistique permettent l’estimation par intervalles de confiance des coordonnées du point de défaillance le plus
19 décembre 2012
Page 40/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
probable dans le but de définir la zone de confiance où se situe le point P∗ .
Etape 2 : ré-échantillonnage
L’obtention d’une distribution d’échantillonnage de ũ∗ se fait par ré-échantillonnage des expériences.
La technique de ré-échantillonnage utilisée est inspirée de la méthode de ré-échantillonnage Jackknife.
Partant du plan d’expériences u(1) , u(2) , ..., u(j) , ..., u(p) , un estimateur de u∗ noté ũ∗(k) est obtenu en
éliminant l’expérience u(k) du plan d’expériences. En éliminant successivement chacune des expériences,
une distribution de p estimations ũ∗(1) , ũ∗(2) , ..., ũ∗(p) est finalement obtenue. Le choix du nombre d’expé(n+1)(n+2)
+2
2
∗(1)
∗(2)
∗(p)
riences p =
tions ũ
, ũ
, ..., ũ
du premier plan d’expériences se justifie alors dans le but d’obtenir les estimapar une succession de régressions et non d’interpolations. La taille des p plans
d’expériences successifs est alors p − 1 =
(n+1)(n+2)
2
+ 1.
Etape 3 : estimation du point de défaillance le plus probable
L’étape 3 de la méthode est la plus importante puisqu’elle définit la technique utilisée pour estimer les
coordonnées du point P∗ . Cette étape est divisée en deux sous-étapes 3.1 (phase de ré-échantillonnage)
et 3.2 (phase itérative).
Sous-étape 3.1.
A partir de l’échantillon ũ∗(1) , ũ∗(2) , ..., ũ∗(p) , la moyenne mũ∗ peut être estimée soit de
manière ponctuelle - l’inconvénient est que la précision de l’estimation est inconnue - soit par la définition
d’un intervalle de confiance. La méthode des pourcentiles simples est utilisée en faisant une hypothèse sur
la distribution empirique de ũ∗ . On se trouve dans le cas où la variance de la distribution de la variable
aléatoire ũ∗ est inconnue. Alors, selon [Saporta, 1990], la variable aléatoire ũ∗ suit une loi de Student
¯ ∗ des ũ∗(1) , ũ∗(2) , ..., ũ∗(p) et d’écart-type su /√p.
à υ = p − 1 degrés de liberté de moyenne empirique ũ
¯∗
L’intervalle de confiance avec la probabilité 1 − α est alors défini autour de la moyenne arithmétique ũ
en utilisant la distribution de Student :
su
su
¯ ∗ + tα/2,p−1 √
¯ ∗ − tα/2,p−1 √
≤ mũ∗ ≤ ũ
ũ
p
p
tα/2,υ étant déterminé
grâce à une fonction de Student et su étant un estimateur de l’écart-type de ũ∗
q
P
p
1
∗(j) − ū∗ )2 . Un domaine de confiance autour de m ∗ est donc défini.
défini par su = p−1
ũ
j=1 (ũ
Sous-étape 3.2.
Il ne reste plus qu’à sélectionner certaines expériences dans ce domaine pour les
ajouter au plan d’expériences précédent et relancer les étapes 2 et 3. Suivant en cela la plupart des
auteurs, les expériences choisies sont celles d’un plan d’expériences étoilé. Les coordonnées des 2n + 1
¯ ∗ et deux expériences sur chaque axe :
nouvelles expériences sont définies par ũ
su
¯ ∗ ± tα/2,p−1 √
u(j) = ũ
p
Le critère de convergence adopté concerne naturellement la taille du domaine de confiance. Lorsque celleci est inférieure à la précision désirée ǫ des résultats, le processus s’arrête. Le résultat final est alors la
¯ ∗ . Il peut être validé par le calcul mécanique de H(ũ
¯ ∗ ) qui doit être proche de 0.
moyenne arithmétique ũ
Nicolas Gayton
Page 41/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Remarques
1. Cette technique est semblable à celle définie dans les méthodes classiques mais présente l’avantage
de ne plus proposer une taille empirique du plan étoilé mais ajustée en fonction des résultats et
plus précisément en fonction de la variance de la variable aléatoire ũ∗ .
2. La méthode proposée permet une justification plus aisée des résultats car l’estimation du point
de défaillance le plus probable finalement obtenue est calculée par l’utilisation de plusieurs plans
d’expériences différents.
3. La probabilité α et le facteur de convergence ǫ doivent être ajustés empiriquement. Plus α est
faible plus l’intervalle de confiance est étendu et plus la convergence sera lente. Par contre, plus
il est important, plus l’intervalle de confiance sera restreint mais avec une confiance moindre. Il
est nécessaire de trouver un bon compromis entre les deux. L’expérience montre que 1 − α = 0, 90
convient. En ce qui concerne ǫ, il doit être fixé en fonction de la précision désirée des résultats.
L’expérience montre que ǫ = 0, 05 conduit à une précision de l’ordre de 1% sur chaque coordonnée
du point de défaillance le plus probable.
4. Des problèmes de convergence peuvent être rencontrés et signifient que la surface de réponse polynomiale du second degré est insuffisante pour représenter correctement la complexité du modèle
mécanique. Ceci constitue aussi un gros atout de la méthode qui peut donner une information sur
l’adéquation entre le degré de la surface de réponse et la complexité du modèle mécanique considéré.
La méthode RPCM développée dans la section suivante permet une gestion du degré du polynôme
basée sur l’analyse de convergence des intervalles de confiance.
1.4.4
Application industrielle à une structure conique raidie
La méthode CQ2RS a été validée sur des exemples de référence [Gayton et al., 2002a] et a été utilisée
pour traiter des cas industriels dont voici un exemple en partenariat avec le CEA. Les données de cette
structure étant confidentielles, elle ne seront pas mentionnées.
La structure étudiée est une structure CEA [Gayton et al., 2002b] dont la géométrie est définie en
figure 1.3. Elle est constituée d’une partie conique, d’une partie cylindrique, d’une partie sphérique, d’une
partie plate en son extrémité et de 7 raidisseurs circonférentiels. Cette structure, encastrée à une extrémité
et simplement appuyée à l’autre, est chargée en pression externe et est soumise à des phénomènes de
flambage particulièrement en mode 2.
Après 60 exp.
β
α1
α2
α3
α4
α5
α6
α7
α8
α9
méthode CQ2RS
3,45
0,69
0,67
0,21
0,09
0,07
0,05
0,04
0,08
0,11
Tableau 1.1 – Indice de fiabilité et cosinus directeurs obtenus avec la méthode CQ2RS sur le cas de la
structure conique raidie.
Les variabilités d’épaisseur issues de la fabrication sont étudiées. Pour cela, la coque est divisée en
9 tronçons (figure 1.4) d’épaisseur ai (i = 1...9) constante par tronçon mais distribuée suivant une loi
Normale de coefficient de variation 0,03. Aucune corrélation entre les épaisseurs des différents tronçons
n’est envisagée. Cette structure est modélisée mécaniquement avec le code universitaire INCA/STANLAX
[Combescure, 1986]. Les variables ai sont clairement des variables de type résistance et il n’est donc
19 décembre 2012
Page 42/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Figure 1.3 – Structure conique raidie CEA.
Figure 1.4 – Définition des 9 tronçons d’épaisseur aléatoire et représentation graphique des facteurs
d’importance (αi2 ).
Nicolas Gayton
Page 43/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
pas nécessaire d’effectuer les calculs mécaniques pour connaı̂tre le domaine d’étude. La convergence est
atteinte dès la première itération soit au total au bout de 60 calculs mécaniques démontrant ainsi la
pertinence du premier plan d’expériences. Les résultats obtenus avec la méthode CQ2RS sont présentés
tableau 1.1 et graphiquement sur la figure 1.4. Les résultats de l’analyse de fiabilité montrent que l’indice
de fiabilité est très sensible aux incertitudes dans les régions proches des appuis. Ces résultats sont
en accord avec les résultats d’une analyse déterministe du fait du moment fléchissant introduit par les
conditions limites et plus particulièrement par l’encastrement.
1.4.5
Conclusions sur la méthode CQ2RS
La méthode CQ2RS propose un bon compromis entre le temps de calcul et la qualité des résultats.
Elle a été validée sur plusieurs exemples de référence [Gayton et al., 2002a] qui ont montré des apports
par rapport aux méthodes existantes :
• premier plan d’expériences prenant en compte la connaissance du comportement de la structure et
le caractère résistance ou sollicitation de chaque variable. Cette hypothèse est bien sûr valable uniquement pour des fonctions de performance monotones, ce qui est fréquemment le cas en mécanique
[Derocquigny, 2006].
• stratégie itérative basée sur des techniques de ré-échantillonnage (Jackknife) permettant de définir
un intervalle de confiance des résultats obtenus, de guider les expériences suivantes et de proposer
un critère d’arrêt en accord avec la confiance obtenue sur les résultats. Cette stratégie permet de
garantir une grande précision des résultats sur chacune des coordonnées du point de défaillance le
plus probable.
• une non convergence indique que la surface de réponse polynomiale du second degré est insuffisante
pour représenter correctement la complexité du modèle mécanique. Cette information est précieuse
et innovante pour valider ou nom le choix du modèle de la surface de réponse. La gestion du degré
de la surface de réponse est envisagée par la méthode RPCM exposée en section suivante.
La méthode CQ2RS a aussi été utilisée pour évaluer la fiabilité de structures industrielles et pour calibrer
des coefficients partiels où sa grande précision sur chacune des coordonnées du point de défaillance le
plus probable est un atout majeur.
1.5
1.5.1
Méthode RPCM
Bref état des lieux des méthodes basées sur le chaos polynomial
L’objectif des approches non intrusives basées sur le chaos polynomial est d’approximer la réponse
aléatoire S du modèle (qui peut être la fonction de performance toute entière) notée S̃ par un développement
sur une base de polynômes ψj (x) (j = 0, . . . , P − 1) de dimension finie :
S̃(x) =
P
−1
X
sj ψj (x)
(1.18)
j=0
x étant le vecteur des variables aléatoires. Lorsque les polynômes ψj (x) forment une base orthogonale,
ce développement est connu sous le nom de chaos polynomial (en référence aux travaux de Wiener
[1938]). La caractérisation de la réponse S(x) revient donc à calculer les coefficients (déterministes) sj .
19 décembre 2012
Page 44/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Au début des années 90, [Ghanem and Spanos, 1991] ont ainsi développé la méthode des éléments finis
stochastiques spectraux pour résoudre des problèmes de mécanique dont les propriétés matériau variaient
spatialement (représentation par un champ aléatoire). Dans cette approche, la matrice de rigidité toute
entière est développée sur la base du chaos (pour prendre en compte l’aléa). Cette stratégie est qualifiée
d’intrusive puisque le système discret classique des éléments-finis [K]u = f est modifié par l’injection du
développement sur le chaos de la matrice [K]. Ces travaux ayant été développés dans le cadre de la thèse
industrielle de A. Notin, le fonctionnement type boı̂te noire des codes de calcul interdit toute modification
du système d’équations. De ce fait, des approches dites non intrusives ont été préférées. Les évaluations
du modèle ne sont alors connues que pour un nombre fini de points de la même manière que dans la
méthode des surfaces de réponse exposée en section précédente.
Les méthodes non intrusives ne requièrent donc aucune modification du modèle déterministe qui
est alors considéré comme une “boı̂te noire”. Cette approche est particulièrement intéressante dans un
contexte industriel puisqu’elle autorise l’utilisation d’un code de calcul industriel type éléments finis par
exemple. Plusieurs catégories de méthodes se distinguent. La méthode de collocation stochastique est
une méthode d’interpolation [Webster et al., 1996] donc très sensible au choix du plan d’expériences
numérique. La méthode de projection [Ghiocel and Ghanem, 2002] utilise l’orthonormalité de la base du
chaos pour calculer les coefficients du développement par projection. Les coefficients du chaos sj sont alors
obtenus en calculant numériquement une intégrale de dimension n (taille du vecteur x). Cette procédure
s’avère en pratique très coûteuse en temps de calcul et une méthode de régression lui a été préférée.
L’approche par régression consiste classiquement à minimiser au sens des moindres carrés l’écart entre
la réponse S du modèle et son approximation S̃ sur le chaos. En d’autres termes, les coefficients sj qui
minimisent l’erreur quadratique entre S et S̃ aux points de calculs est recherchée. Toutefois, l’estimateur
des moindres carrés ignore l’information contenue dans la variance des données. Une estimation plus
précise peut être obtenue grâce à l’estimateur des Moindres Carrés Pondérés (comme peut le faire la
méthode du krigeage qui est exposée dans le chapitre 2). Le critère de minimisation au sens des moindres
carrés pondérés est :
∆S =
p
X
i=1

ωi S (i) −
P
−1
X
j=0
2
sj ψj (u(i) )})
(1.19)
[Ψ]T [W]S
(1.20)
avec p le nombre d’expériences définies par leur coordonnées u(i) dans l’espace standard. Les coefficients
du chaos sont obtenus de façon vectorielle par :
s = [Ψ]T [W][Ψ]
−1
où s est le vecteur des coefficients du chaos et S est un vecteur qui contient les p évaluations du modèle
mécanique par un code de calcul. [W] est une matrice diagonale qui contient les pondérations ωi de
régression. La matrice [Ψ] est définie de la manière suivante :

(1)
 ψ0 (u )

..

[Ψ] = 
.


ψ0 (u(n) )
Nicolas Gayton
···
..
.
···
ψP −1 (u
(1)

) 





ψP −1 (u(n) )
Page 45/172
..
.
(1.21)
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
L’objectif des moindres carrés pondérés [Carroll and Ruppert, 1988; Ryan, 1997] est de s’assurer que
chaque donnée a un niveau d’influence approprié sur l’estimation des paramètres. Les pondérations ωi
(utilisées pour estimer les valeurs des paramètres inconnus) sont inversement proportionnelles à la variance
de l’observation i. En d’autres termes une expérience aura beaucoup d’influence sur le modèle de chaos
si son incertitude est faible. A contrario, une expérience avec une forte variabilité aura un poids plus
faible dans le modèle. Dans le cas de répétitions au sein des données (c’est le cas par exemple lorsque des
techniques de ré-échantillonnage sont utilisées), la manière la plus simple d’estimer les poids ωi est de les
prendre égaux au nombre de répétitions dans l’échantillon.
Du point de vue du nombre de calculs, l’approche par régression propose une alternative intéressante
notamment vis-à-vis de la méthode par projection. Les études menées par [Berveiller et al., 2006] montrent
que la sélection de p = kP (avec k = variant de 2 à 3), points de régression aboutit à des résultats
satisfaisants. Le problème réside alors dans le choix des points de régression : [Sudret, 2008] propose de
baser ce choix sur les racines des polynômes de la base mais des techniques de tirages (Monte Carlo,
Latin HyperCube, quasi-Monte Carlo) peuvent également être employées. D’autre part, la méthode de
projection calcule la valeur exacte des coefficients si sans tenir compte de l’ordre de troncature alors que les
approches par régression ont pour objectif de trouver le meilleur compromis pour un ordre de troncature
donné. Par conséquent, le choix se porte sur l’utilisation de l’approche par régression couplée à une
technique de tirage type Latin HyperCube. L’emploi des techniques de quadratures creuses adaptatives
[Gerstner and Griebel, 1998; Crestaux et al., 2009] peuvent permettre d’obtenir un coût de calcul qui
évolue de manière polynomiale et non exponentielle par rapport à la dimension stochastique n.
1.5.2
Post-traitement des coefficients du chaos
A partir d’une description de la réponse du système sur la base du chaos, plusieurs post-traitements
sont envisageables. Tous ces post-traitements s’effectuent à partir de l’expression analytique de la réponse
sur le chaos (équation 1.18).
Densité de probabilité de la réponse
Il est toujours possible de représenter graphiquement la densité de probabilité de la réponse par
simulations de Monte Carlo. Pour avoir accès à une description analytique de la densité de probabilité de la
réponse, les techniques de lissage à noyau peuvent être utilisées [Wand and Jones, 1995]. L’approximation
par noyau de la densité de probabilité de la réponse est donnée par :
Nk
1 X
˜
K
fS (s) =
Nk hk i=1
s − S̃ (i)
hk
!
(1.22)
à partir d’un échantillon de Nk réponses S̃ (i) évaluées sur le chaos polynomial, donc sans coût de calcul.
Dans cette expression, K(x) est une fonction positive appelée noyau et hk est la largeur de bande (ou
rayon). La fonction noyau la plus connue est le noyau Gaussien. Dans la pratique, pour un noyau Gaussien,
[Silverman, 1986] recommande des valeurs pour le paramètre hk . Une approximation précise de la densité
de probabilité requiert un grand nombre de tirages (par exemple Nk = 10000 à 100000) sans coût de
calcul significatif puisque évalué sur le chaos polynomial.
19 décembre 2012
Page 46/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Evaluation des moments statistiques
Les moments statistiques de la réponse peuvent être calculés analytiquement à partir des coefficients du
développement sur le chaos en injectant l’équation 1.18 dans les expressions mathématiques des moments
statistiques. La moyenne et la variance de la réponse S(x) s’écrivent :
µS
=
s0
Var[S]
=
σS2 =
P
−1
X
s2i E[ψi2 ]
i=1
Analyse de fiabilité
L’objectif d’une analyse de fiabilité est de calculer la probabilité de défaillance Pf (définie mathématiquement par l’équation 1.1) d’une structure en tenant compte de la variabilité des paramètres. Lorsque
la mise en œuvre de la méthode de Monte Carlo est impossible du fait du temps de calcul associé à
une évaluation de la fonction de performance, celle-ci peut être effectuée sur l’approximation par chaos
polynomial. Cependant le caractère global de la représentation sur une base de chaos polynomial rend
souvent les résultats peu précis et fortement dépendants du plan d’expériences choisi. L’utilisation d’une
méthode FORM/SORM sur le chaos polynomial est aussi possible mais son intérêt reste limité par rapport
à une utilisation directe de la méthode FORM/SORM à partir du vrai modèle S(x).
Analyse de sensibilité
L’analyse de sensibilité étudie comment des perturbations sur les entrées du modèle génèrent des
perturbations sur la réponse. Les méthodes d’analyse de sensibilité peuvent être groupées selon trois
classes : les méthodes de screening, l’analyse de sensibilité locale et l’analyse de sensibilité globale. Les
méthodes de screening [Saltelli et al., 2000] analysent qualitativement l’importance des variables d’entrée
sur la variabilité de la réponse du modèle. De cette manière, elles permettent d’établir une hiérarchie
au sein des variables d’entrée en fonction de leur influence sur la variabilité de la réponse. L’analyse de
sensibilité locale, tout comme l’analyse globale, sont des méthodes d’analyse quantitative, qui permettent
en plus d’établir une hiérarchie au sein des variables d’entrée, de donner un ordre de grandeur des écarts.
L’analyse de sensibilité locale étudie comment de petites perturbations autour d’une valeur des entrées se
répercutent sur la valeur de la sortie. L’analyse de sensibilité globale s’intéresse quant à elle à la variabilité
de la sortie du modèle dans son domaine de variation. Elle étudie comment la variabilité des entrées se
répercute sur celle de la sortie, en déterminant quelle part de variance de la sortie est due à telles entrées
ou tel ensemble d’entrées. L’analyse locale s’intéresse donc à la valeur de la réponse, tandis que l’analyse
globale s’intéresse à sa variabilité. Dans le cadre d’un développement sur le chaos polynomial, les indices
globaux de sensibilité peuvent se calculer directement à partir des coefficients du chaos grâce aux indices
de Sobol’ [Sobol, 1993; Sudret, 2008].
1.5.3
Troncature du développement sur le chaos polynomial
La troncature de la série (équation 1.18) permet de ne retenir qu’un nombre fini de P termes. Les
études menées notamment par [Berveiller, 2005] montrent que dans le cas de fonctions suffisamment
régulières un chaos d’ordre 2 fournit en général des résultats satisfaisants pour une étude de sensibilité
alors qu’un chaos d’ordre 3 est souvent nécessaire pour une étude de fiabilité. Plus généralement, la
Nicolas Gayton
Page 47/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
convergence de la série tronquée dépend de la régularité de la fonction à approximer. Dans un contexte
industriel, aucune information n’est disponible sur la fonction à approximer avant que des calculs ne soient
effectués. [Field and Grigoriu, 2004; Bellec, 2008] proposent des estimateurs pour évaluer a posteriori la
précision de la série tronquée. Dans un contexte de réduction du nombre d’expériences et de la taille
du chaos, de telles mesures ne peuvent être directement évaluées. Une réponse à ce problème se trouve
dans [Blatman and Sudret, 2008] avec le développement d’un chaos adaptatif creux. Dans le cadre des
travaux de thèse d’Alban Notin, le traitement de ce problème est basé sur l’utilisation des techniques de
ré-échantillonnage à travers la méthode RPCM.
1.5.4
Description de la méthode RPCM
De la même manière que la méthode CQ2RS couple intervalle de confiance et surfaces de réponse
quadratique, la méthode RPCM [Notin et al., 2010] Resampling-based Polynomial Chaos Method couple
intervalles de confiance et chaos polynomial en utilisant des stratégies de plan d’expériences et d’enrichissement qui en font une méthode d’approximation globale. La première utilisation des intervalles de
confiance pour le chaos polynomial a été évoquée dans [Lemaire, 2006]. La méthode RPCM comprend
une boucle d’apprentissage et une boucle d’enrichissement. Ses spécificités sont les suivantes :
• la boucle d’apprentissage permet à tous les ordres de chaos possibles d’être testés en fonction du
nombre de calculs mécaniques disponibles ;
• la boucle d’enrichissement est basée sur une gestion de la taille du chaos et du nombre d’expériences.
S’il n’y a pas de convergence sur l’indice de fiabilité quand l’ordre du chaos augmente alors le plan
d’expériences n’est pas suffisamment riche et doit être enrichi. Si pour un même ordre du chaos
l’augmentation de la taille du plan d’expériences ne permet pas de converger alors l’ordre du chaos
doit être augmenté.
L’approche générale est décrite en figure 1.5. La boucle d’apprentissage est décrite en détails en figure
1.6. Chaque étape est décrite ci-après.
Étape 0 - Premier ordre du chaos
Sans connaissance a priori du comportement mécanique, un chaos linéaire d = 1 (ordre du chaos le
moins coûteux en terme d’évaluations du modèle mécanique) est postulé en premier lieu. L’évaluation
des coefficients du chaos nécessite au minimum n + 1 calculs mécaniques (n étant le nombre de variables
aléatoires du problème) de la fonction de performance G.
Étape 1 - Plan d’expériences numériques et calculs mécaniques
Chaque plan d’expériences numériques (PEN) est numéroté de manière à être en relation avec l’ordre
maximal du chaos qu’il est possible d’atteindre. Par exemple, le PEN numéro d autorise le calcul d’un
chaos polynomial jusqu’à l’ordre d. La taille N (d) du PEN numéro d est par conséquent également liée
au nombre de termes P du chaos d’ordre d par la règle suivante :
N (d) = 2
(M + d)!
= 2P (d)
M !d!
(1.23)
Cette règle (2 fois le nombre de coefficients du chaos d’ordre d) est liée aux répétitions, au sein d’un
sous échantillon, dues à l’utilisation du Bootstrap. En effet, l’échantillonnage doit être réalisé de telle
sorte que la régression ne soit pas dégénérée. Pour satisfaire cette condition, le calcul des coefficients
19 décembre 2012
Page 48/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Figure 1.5 – Principes de l’algorithme de la méthode RPCM.
Nicolas Gayton
Page 49/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Figure 1.6 – Détails de la boucle d’apprentissage (étape 2).
19 décembre 2012
Page 50/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
du chaos par régression nécessite au moins P (d) expériences différentes. Ainsi, la taille de chaque sous
échantillon Bootstrap doit être au moins égale à P (d) . Cette règle s’appuie sur des tests numériques mais
une règle sur le dénombrement a été établie dans le cadre de la thèse d’Alban Notin. L’ordre initial du
chaos polynomial est pris égal à 1 ce qui implique que le plan P EN (1) a une taille N (1) = 2(n + 1). Le
PEN est généré par Hypercube Latin. L’Hypercube Latin est une technique de tirage stratifié qui assure
n
une meilleure uniformité des tirages dans l’espace [0, 1] et donc un meilleur remplissage de l’espace.
Cette technique est recommandée par différents auteurs pour améliorer les performances des simulations
numériques tout en réduisant les coûts de calcul (moins de tirages nécessaires).
Étape 2 - Boucle d’apprentissage
La boucle d’apprentissage est détaillée Figure 1.6. Tous les ordres de chaos, de 1 à d, sont testés ; c’està-dire que pour le PEN numéro d, le chaos d’ordre k pour k = 1 à k = d est testé. Pour chaque chaos
d’ordre k, un sous échantillon Bootstrap de taille 2P (k) est choisi aléatoirement et avec remise parmi
les N (d) données disponibles. L’utilisation du Bootstrap peut entraı̂ner la répétition de données dans un
même sous échantillon. Cette répétition modifie alors le conditionnement de la matrice qui peut devenir
mal conditionnée. Afin de prendre en compte le poids attribué à chaque donnée, la régression pondérée
(détaillée section 1.5.1) est utilisée pour calculer les coefficients du chaos. L’affectation des poids se base
sur le nombre de répétitions de la donnée au sein du sous échantillon. Un poids ωi = k signifie que la
donnée se répète k fois dans l’échantillon. La probabilité de défaillance PM C est calculée par simulation
de Monte-Carlo directe sur le chaos polynomial. Afin de supprimer le biais dans la simulation de MonteCarlo, le même germe est utilisé pour chaque évaluation de PM C . La taille de cet échantillon est fixée
a priori lors de la phase d’initialisation par la règle suivante : pour une probabilité de l’ordre de 10−n ,
10n+3 tirages sont effectués. Finalement, l’indice de fiabilité est déduit de la probabilité de défaillance par
β̃ = −Φ−1 (PM C ). Le nombre de sous échantillons Bootstrap est B = 1000. De ce fait, un échantillon de
k,d
k,d
B indices de fiabilité est généré. L’intervalle de confiance à 95%, noté [β̃min
, β̃max
], de l’indice de fiabilité
est calculé par Bootstrap BCa (paragraphe 1.3.3). Cet intervalle de confiance est l’intervalle de confiance
sur l’indice de fiabilité calculé pour un chaos d’ordre k ≤ d à partir du PEN numéro d. A la fin de la
boucle d’apprentissage, d intervalles de confiance sur l’indice de fiabilité ont été évalués à partir du PEN
numéro d pour tous les ordres de chaos possibles. La valeur médiane β̃ k,d =
k,d
1
2 (β̃min
k,d
+ β̃max
) de chaque
intervalle de confiance est prise comme estimation ponctuelle de la valeur de l’indice de fiabilité.
Étape 3 - Test de convergence
Le test de convergence est basé sur la largeur de l’intervalle de confiance. C’est un indicateur de la
qualité du méta-modèle : plus l’intervalle de confiance est petit, meilleure est l’approximation de l’indice
de fiabilité sur le chaos. Un intervalle de confiance de largeur nulle signifie que, du point de vue numérique,
la valeur estimée de l’indice de fiabilité correspond à la valeur cible. Le critère de convergence est normé
de la manière suivante :
k,d
k,d
|
|β̃max
− β̃min
= ǫβ
β̃ k,d
(1.24)
ǫβ doit être défini a priori en fonction du niveau de précision souhaité (1% par exemple). Le niveau de
sévérité du test de convergence permet donc de choisir l’ordre du chaos et de tester la robustesse vis-à-vis
du PEN.
Nicolas Gayton
Page 51/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Étape 4 - Enrichissement du plan d’expériences
Dans la boucle d’apprentissage, lorsque k = d, l’ordre maximal du chaos pour le plan courant a
été atteint. S’il n’y a toujours pas eu convergence, alors le PEN doit être enrichi. Selon le cas, cet
enrichissement se fait soit en ajoutant des expériences à partir d’un plan existant soit par Hypercube
Latin. N (d+1) − N (d) données sont ainsi ajoutées afin de garantir le passage à un ordre de chaos supérieur
sur le plan suivant (chaos d’ordre d + 1). En grande dimension, l’ajout de N (d+1) − N (d) données (pour
passer de d à d+1) peut s’avérer très coûteux. Pour réduire ce coût, plusieurs solutions sont envisageables
notamment l’utilisation de bases creuses ou de techniques d’échantillonnage plus astucieuses comme les
sparse grid. Cette adaptativité, par augmentation du degré du chaos, constitue dans sa version actuelle une
limitation de la méthode RPCM pour des ordres élevés et un nombre important de variables aléatoires.
Étape 5 - Résultats
Si le test de convergence est satisfait, alors la procédure s’arrête. Le meilleur ordre du chaos, par rapport
à l’objectif de fiabilité, a donc été atteint. La méthode RPCM permet de tirer les informations suivantes
sur la fonction G :
1. le meilleur ordre du chaos permettant de construire un méta-modèle remplissant les objectifs de
fiabilité ;
2. la taille minimale du PEN permettant de construire le chaos pour atteindre l’objectif de fiabilité ;
3. l’intervalle de confiance à 95% (ou autre) sur l’indice de fiabilité ;
4. une estimation ponctuelle de l’indice de fiabilité.
1.5.5
Application industrielle à un bogie de TGV
La méthode RPCM a été validée sur plusieurs exemples académiques analytiques [Notin et al., 2010]
où elle a montré une grande efficacité en terme de nombre d’appels à la fonction de performance. L’utilisation des intervalles de confiance et la gestion de l’ordre du chaos permettent d’avoir confiance dans les
résultats fournis. L’exemple présenté est inspiré d’un cas industriel pour lequel certaines données ont été
créées ou adaptées pour les besoins de la thèse d’Alban Notin. Il s’agit d’un support de fixation de bogie.
Le modèle a été réalisé sous ANSYS. Le modèle et les conditions aux limites associées sont illustrés en
figure 3.4(a). Le maillage, représenté en figure 3.4(b), se compose de 3408 éléments de type T10.
Le comportement de la structure est multi-axial. La prévision de la tenue en fatigue de la structure
se fait à l’aide du critère de Dang Van proposé en 1989 [ Dang Van et al., 1989] :
EDV 2 = max
t
avec :
τpr (t) =
τpr (t) + αPH (t)
β
1
max {|S1a (t) − S2a (t)| , |S2a (t) − S3a (t)| , |S3a (t) − S1a (t)|}
2
où S1a (t), S2a (t), S3a (t) sont les valeurs principales du déviateur alterné des contraintes Sija (t) à l’instant
t et PH (t) est la pression hydrostatique à un instant t. Les constantes α, β s’écrivent :
α=3
19 décembre 2012
1
τ−1
−
S−1
2
, β = S−1
Page 52/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
où τ−1 est la limite de fatigue en torsion pure à Nf cycles et S−1 la limite de fatigue en traction pure à
Nf cycles. La condition de validité du critère est réalisée lorsque :
τ−1
S−1
> 21 . La défaillance de la structure
est considérée avant Nf cycles si EDV 2 > 1.
Comme dans tout problème d’analyse de fiabilité des structures sollicitées en fatigue, le chargement et
les propriétés de matériaux de résistance à la fatigue sont prépondérantes (cet aspect est discuté dans le
chapitre 3). Les incertitudes dans cette application portent ainsi sur trois variables aléatoires : la pression
P , la limite de fatigue en traction S−1 et la limite de fatigue en torsion τ−1 . Le module d’Young est
considéré déterministe et n’intervient pas dans le calcul du critère de Dang Van. Sa variabilité n’aurait
donc pas d’impact sur les résultats en fatigue. Les variables aléatoires sont modélisées par des lois lognormales (tableau 1.2). Le chargement est de type symétrique alterné (coefficient R = −1). L’objectif de
fatigue est fixé à Nf = 106 cycles.
Variable
PDF
Moyenne
Coef. de Var.
Troncature
P (MPa)
Lognormale
0,2
0,2
[0, 18; 0, 3]
σ−1 (MPa)
Log-normale
213
0,1
τ−1 (MPa)
Log-normale
127,8
0,1
E (GPa)
Déterministe
200
Tableau 1.2 – Support de fixation de bogie - Définition des variables aléatoires.
Les résultats de la méthode RPCM sont présentés dans le tableau 1.3 et les figures 1.8 et 1.9. Tous les
résultats numériques sur l’indice de fiabilité sont normalisés par rapport à une valeur de référence βref .
Le niveau de confiance est fixé à α = 95% et le nombre de rééchantillonnages à B = 1000. La méthode
RPCM est initialisée avec un chaos d’ordre 1 (P (1) = 4) ce qui implique N (1) = 8. La précision est fixée à
1% ce qui donne ǫβ ≤ 0, 01. Les résultats de l’étude de convergence de l’indice de fiabilité sont tracés en
figure 1.8. Hormis le chaos d’ordre 1, tous les chaos convergent vers une valeur estimée à partir d’une taille
de plan d’expériences de 40. Les résultats sur les intervalles de confiance sont regroupés dans le tableau
1.3. La figure 1.9 montre que le test de convergence est toujours vérifié par les chaos d’ordre 3 et 4 quelle
que soit la taille du plan d’expériences et qu’à partir de l’ordre 3, une augmentation de l’ordre du chaos
n’affecte ni les résultats ni la précision. En retenant un niveau d’erreur de 1%, selon la méthode RPCM, la
meilleure représentation pour la fonction de performance par rapport à l’objectif de fiabilité est le chaos
d’ordre 3 avec un PEN de taille 40 (tableau 1.3). D’autres essais numériques ont cependant été menés
pour étudier l’influence d’une augmentation de l’ordre du chaos sur l’approximation de l’état-limite. Ces
résultats sont regroupés tableau 1.3. Même si, selon la méthode RPCM, le chaos d’ordre 3 avec un PEN
de taille 40 satisfait le critère de convergence, pour un chaos d’ordre 4 et un PEN de taille 168, ǫβ = 0.
La largeur de l’intervalle de confiance est donc nulle ce qui signifie que la valeur estimée β̃ 4,6 de l’indice
de fiabilité a atteint la valeur supposée exacte.
1.5.6
Conclusions sur la méthode RPCM
La méthode RPCM Resampling-based Polynomial Chaos Method s’appuie sur deux approches qui ont
prouvé leur efficacité pour conduire une analyse de fiabilité : le chaos polynomial pour construire un
méta-modèle de la fonction de performance et les techniques de ré-échantillonnage pour valider le modèle
Nicolas Gayton
Page 53/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
PEN d
N (d)
Ordre max chaos d
Ordre k = 1
1,d
β̃min
β̃ 1,d
1,d
β̃max
ǫβ
2
20
2
0,9083
1,0844
1,2604
0,3248
3
40
3
0,9041
1,0449
1,1858
0,2696
4
70
4
0,9110
1,0215
1,1319
0,2163
5
112
5
0,9654
1,0278
1,0901
0,1213
6
168
6
0,9163
0,9942
1,0721
0,1567
7
240
7
0,9135
0,9792
1,0449
0,1342
PEN d
N (d)
Ordre max chaos d
Ordre k = 2
2,d
β̃min
β̃ 2,d
2,d
β̃max
ǫβ
2
20
2
0,8338
0,9197
1,0055
0,1867
3
40
3
0,9727
0,9895
1,0063
0,0339
4
70
4
0,9785
0,9913
1,0041
0,0259
5
112
5
0,9811
0,9923
1,0035
0,0226
6
168
6
0,9808
0,9912
1,0015
0,0208
7
240
7
0,9812
0,9914
1,0016
0,0206
PEN d
N (d)
Ordre max chaos d
Ordre k = 3
3,d
β̃min
β̃ 3,d
3,d
β̃max
ǫβ
2
20
2
NA
NA
NA
NA
3
40
3
0,9953
0,9978
1,0004
0,0051
4
70
4
0,9982
0,9992
1,0002
0,0019
5
112
5
0,9987
0,9994
1,0002
0,0015
6
168
6
0,9989
0,9996
1,0002
0,0013
7
240
7
0,9991
0,9996
1,0002
0,0011
PEN d
N (d)
Ordre max chaos d
Ordre k = 4
4,d
β̃min
β̃ 4,d
4,d
β̃max
ǫβ
2
20
2
NA
NA
NA
NA
3
40
3
NA
NA
NA
NA
4
70
4
0,9999
1,0000
1,0002
0,0003
5
112
5
0,9999
1,0000
1,0000
0,0001
6
168
6
1,0000
1,0000
1,0000
0,0000
7
240
7
1,0000
1,0000
1,0000
0,0000
Tableau 1.3 – Support de fixation de bogie - Évolution de l’intervalle de confiance sur β̃ k,d en fonction
de l’ordre du chaos k et du PEN.
19 décembre 2012
Page 54/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
(a) Conditions aux limites.
(b) Résultats d’une analyse de contraintes.
Figure 1.7 – Support de fixation de bogie.
Figure 1.8 – Support de fixation de bogie - Graphe de convergence du ratio β̃ k,d /βref .
Figure 1.9 – Support de fixation de bogie - Test de convergence - Évolution de l’erreur estimée (en %) en
fonction de l’ordre du chaos et de la taille du PEN. L’erreur maximale est prise égale à 1%.
Nicolas Gayton
Page 55/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
et estimer l’erreur.
Le calcul d’intervalles de confiance par Bootstrap fournit un indicateur sur la qualité de l’estimation
de l’indice de fiabilité pour un niveau de confiance donné et un ordre de chaos donné. Ainsi, les intervalles
de confiance apparaissent comme un complément naturel aux techniques de modélisation de l’incertain
comme le chaos polynomial. En effet, l’intervalle de confiance mesure le degré de précision que l’on a sur
les estimations issues de l’échantillon. C’est la raison pour laquelle il fournit une mesure indépendante
du modèle mathématique. Enfin, le choix de l’intervalle de confiance comme mesure de l’erreur s’appuie
également sur deux propriétés de celui-ci :
1. Plus l’intervalle de confiance est de taille petite, plus l’incertitude sur la valeur estimée est petite ;
2. Pour un niveau de confiance donné, plus l’échantillon est grand, plus l’intervalle de confiance est
petit.
La méthode RPCM permet aussi une gestion efficace de l’ordre du chaos par une augmentation de
celui-ci lorsque les intervalles de confiance reflètent une difficulté de l’ordre du chaos à décrire précisément
le modèle réel.
Dans un contexte industriel où le problème majeur concerne surtout soit le manque de calculs soit
l’exploitation des calculs existants, ré-échantillonner permet d’exploiter au mieux l’information contenue
dans les données sans nécessiter de nouveaux calculs (ou de nouvelles mesures) onéreux et longs à réaliser.
Au niveau de l’analyse de fiabilité, encadrer l’indice de fiabilité par un intervalle de confiance améliore la
prise de décision en fournissant un intervalle d’évolution de l’indice de fiabilité par rapport à un niveau de
confiance. Cet intervalle représente donc une quantification de la précision que l’on peut avoir sur l’indice
de fiabilité et permet de justifier la nécessité d’investir dans des calculs supplémentaires.
Cependant, comme toute technique basée sur le chaos polynomial, la méthode RPCM hérite des limitations de celle-ci. En effet, le nombre de variables aléatoires doit être restreint (une dizaine maximum).
La méthode ne permet pas de traiter des états-limites fortement non linéaires ou définis par morceaux
où la non convergence des intervalles de confiance permet d’indiquer la présence de ce type de problème.
1.6
Conclusion et perspectives
L’utilisation des méthodes de ré-échantillonnage apporte un réel plus dans le contexte de l’analyse
de fiabilité pour la validation des résultats (étape trop souvent négligée en calcul de fiabilité) et la
définition itérative des expériences et des critères d’arrêt. Mes travaux sur ce sujet ont conduit à deux
méthodes qui ont été présentées :
• La méthode CQ2RS Complete Qudratic Response Surface method with ReSampling [Gayton et al.,
2002a] couple ré-échantillonnage (Jackknife) et Surfaces de Réponse Quadratique. Les méthodes
de Surface de Réponse Quadratique sont efficaces lorsqu’elles sont utilisées itérativement de façon
locales. De ce fait, la méthode CQ2RS est particulièrement adaptée à l’obtention précise des coordonnées du point de défaillance le plus probable, résultats intéressants pour l’évaluation de la
probabilité de défaillance (lorsque l’approche FORM est couplée à une méthode de tirage d’importance), pour une analyse de sensibilité, ou bien dans un objectif de calibration des coefficients
partiels.
• La méthode RPCM Resampling-based Polynomial Chaos Method [Notin et al., 2010] couple ré-
échantillonnage (Bootstrap) et méthode de chaos polynomial dans un objectif d’obtention précise de
19 décembre 2012
Page 56/172
HDR, Nicolas Gayton
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
la probabilité de défaillance. Le chaos polynomial est alors utilisé de façon globale d’où l’importance
de la gestion de l’ordre du chaos par une technique itérative présente dans la méthode RPCM.
Contrairement à la méthode RPCM, la méthode CQ2RS n’a pas pour ambition d’évaluer précisément
la probabilité de défaillance. Cependant, la méthode RPCM présente deux inconvénient majeurs :
• problème de nombre de calculs mécaniques très important lorsque le nombre de variables augmente
et/ou la fonction de performance nécessite un chaos d’ordre important pour décrire précisément le
vrai modèle.
• problème pour traiter des modèles fortement non-linéaires et/ou définis par morceaux.
C’est pourquoi, l’utilisation de techniques interpolantes telles que le krigeage apporte un réel plus par
rapport aux techniques de chaos polynomial pour évaluer précisément la probabilité de défaillance par
simulation. C’est l’objet du chapitre suivant.
Les perspectives de ce travail peuvent être très nombreuses car les méthodes de ré-échantillonnage
peuvent être utilisées dès qu’un algorithme est basé sur un plan d’expériences numérique ou physique
de manière à apporter un indicateur de confiance dans les résultats obtenus. Les méthodes de chaos
polynomial étant particulièrement efficaces pour l’analyse de sensibilité, des travaux très intéressants sont
en cours [Dubreuil et al., 2012], sur la base des travaux d’Alban Notin, pour définir non pas des intervalles
de confiance autour de l’indice de fiabilité mais autour des indices de Sobol’. D’autres perspectives plus
générales en optimisation des structures peuvent être également envisagées.
Nicolas Gayton
Page 57/172
19 décembre 2012
Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité
Synthèse du chapitre
Objectif. Proposer des méthodes de fiabilité, basées sur l’utilisation de méta-modèles polynomiaux, permettant itérativement d’obtenir une bonne estimation des produits de l’analyse
fiabiliste (indice de fiabilité, coordonnées du point de défaillance le plus probable, probabilité de
défaillance) avec un coût de calcul réduit et un degré de confiance maı̂trisé.
Méthodologie. Utilisation du couplage entre méta-modèles polynomiaux et les techniques de
ré-échantillonnage pour guider les calculs et définir des critères d’arrêt en accord avec le calcul
d’intervalles de confiance des résultats souhaités.
Résultats obtenus. Deux méthodes ont été développées :
1. Méthode CQ2RS basée sur des surfaces de réponse de degré 2 et l’utilisation du Jackknife
permet d’obtenir précisément et efficacement l’indice de fiabilité et les coordonnées du
points de défaillance le plus probable.
2. Méthode RPCM basée sur le couplage entre chaos polynomial et Bootstrap permet
itérativement de définir le degré optimal du chaos polynomial pour obtenir une bonne
estimation de la probabilité de défaillance.
Contexte de ces travaux
• Thèse de Doctorat N. Gayton.
• Thèse CIFRE CETIM / UTC / IFMA de A. Notin soutenue en mai 2011.
Production scientifique
• 1 revue référencée ISI :
– GAYTON N., BOURINET J.M., LEMAIRE M., CQ2RS : A new statistical approach
to the response surface method for reliability analysis, Structural Safety Vol 25,
pages 99-121, 2003.
• 1 revue référencée SCOPUS :
– NOTIN A., GAYTON N., DULONG J.L., LEMAIRE M., VILLON P., RPCM : A strategy to perform reliability analysis using polynomial chaos and resampling application to fatigue design, European Journal of Computational Mechanics, Vol 19(8),
pages 795-830, 2010.
• 3 conférences internationales
19 décembre 2012
Page 58/172
HDR, Nicolas Gayton
Chapitre 2
Utilisation du krigeage pour
l’analyse de fiabilité
Sommaire
2.1
Introduction
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
2.2
Brefs rappels des méthodes de simulation . . . . . . . . . . . . . . . . . . . .
61
2.3
2.4
2.2.1
Simulation de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
2.2.2
Tirage d’importance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
2.2.3
Subset Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
2.2.4
Inconvénients et points communs des méthodes de simulation . . . . . . . . . .
65
Principes de base du krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
2.3.1
Identification du processus gaussien . . . . . . . . . . . . . . . . . . . . . . . .
66
2.3.2
Prédiction par krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
2.3.3
Caractéristiques fondamentales pour l’analyse fiabiliste . . . . . . . . . . . . . .
68
Les méthodes Active Learning pour la fiabilité . . . . . . . . . . . . . . . . .
68
2.4.1
Fonctions d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
2.4.2
Recherche de l’optimum de la fonction d’apprentissage . . . . . . . . . . . . . .
70
2.5
Principe de classification des points des méthodes AK . . . . . . . . . . . .
70
2.6
Présentation des méthodes AK-RM pour la fiabilité . . . . . . . . . . . . .
72
2.7
2.8
2.6.1
La méthode AK-MCS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
72
2.6.2
La méthode AK-IS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
2.6.3
La méthode AK-SS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
2.6.4
Synthèse des méthodes AK-RM . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
Autres applications de la stratégie de classification AK . . . . . . . . . . .
80
2.7.1
Fiabilité système AK-SYS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
2.7.2
Optimisation sous contraintes AK-OPT . . . . . . . . . . . . . . . . . . . . . .
81
2.7.3
Conformité géométrique d’une pièce de grande dimension AK-ILS . . . . . . .
82
Conclusion, perspectives et synoptique des méthodes AK . . . . . . . . . .
82
Synthèse du chapitre
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
84
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
2.1
Introduction
Pour évaluer la probabilité de défaillance d’une structure, les méthodes de simulation demeurent des
méthodes incontournables surtout pour traiter des problèmes dont l’état-limite est complexe (forte nonlinéarité, plusieurs points de défaillance le plus probable, fiabilité système, ...). La méthode de Monte
Carlo (MCS) est la méthode de référence et permet de traiter théoriquement tout type de problème.
Son principal inconvénient est le temps de calcul nécessaire, surtout lorsque la probabilité recherchée est
faible. Pour diminuer les temps de calcul de la méthode MCS, plusieurs alternatives ont été proposées ces
dernières années. Les méthodes MRM (Monotonous Reliability Method) proposée dans [De Rocquigny,
2009] permettent, entre autre, de diminuer le temps de calcul de la méthode MCS lorsque la monotonie de
la fonction de performance est établie (souvent le cas pour des problèmes de mécanique des structures).
Les méthodes de tirage d’importance (IS), voir par exemple [Lemaire, 2009], permettent de réduire
considérablement le temps de calcul de la méthode MCS sous l’hypothèse d’un point de défaillance le
plus probable unique. Enfin la méthode des Subset Simulations (SS), voir [Au and Beck, 2001], semble
être la méthode la plus aboutie pour réduire les temps de calcul sans hypothèse sur la forme de l’étatlimite.
Cependant, toutes ces méthodes sont difficilement envisageables pour traiter des problèmes industriels mettant en œuvre des fonctions d’état-limite à la fois complexes et très coûteuses en temps de calcul
(modèles de type éléments-finis). Des méthodes existent pour évaluer la probabilité de défaillance de telles
structures (FORM/SORM, méta-modèles, ..., les méthodes exposées dans le chapitre précédent en font
partie), mais conduisent toutes à des approximations non négligeables de la probabilité de défaillance via
l’indice de fiabilité. Le point commun des méthodes de simulation (MCS, MRM, IS, SS) est la nécessité de
classer des points en fonction du signe de la fonction de performance. Partant de cette constatation, l’objectif de ces travaux est de proposer une stratégie de classification économique des points de l’échantillon
de la simulation. Cette technique appliquée aux différentes méthodes de simulation évoquées conduit
à une nouvelle famille de méthodes appelée AK-RM pour Active Learning and Kriging based Reliability Methods dédiée à l’analyse de fiabilité.
Après avoir rappelé le principe des méthodes de simulation pour l’évaluation d’une probabilité de
défaillance, les notions de base relatives au krigeage sont rappelées en section 3. La section 4 constitue
un bref état des lieux des méthodes d’analyse de fiabilité basées sur le krigeage et sur une stratégie
d’apprentissage adaptatif (Active learning). En section 5, le principe de base de la stratégie de classification itérative est présenté. Ce principe appliqué aux différentes méthodes de simulation conduit
aux méthodes AK-MCS [Echard et al., 2011], AK-MCSm, AK-IS [Echard et al., 2012] et AK-SS
présentées et illustrées sur des exemples simples mais significatifs en section 6. Pour des applications plus
industrielle, le lecteur pourra se référer au chapitre 3 de ce rapport où toutes les applications à la fatigue
ont été traitées avec ces stratégies de calcul. La stratégie de classification a aussi été utilisée dans d’autres
domaines (fiabilité système, optimisation sous contrainte, vérification de la conformité géométrique de
pièces de grande dimension [Dumas et al., 2012]) présentés en section 7. Pour conclure, un synoptique
des différentes méthodes développées est présenté en figure 2.19 en fin de chapitre.
Les méthodes AK sont le fruit des travaux de thèse de B. Echard principalement et de A. Dumas
(pour la partie AK-ILS) sous mon co-encadrement.
19 décembre 2012
Page 60/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
2.2
Brefs rappels des méthodes de simulation
Comme déjà évoqué dans le chapitre précédent, l’état d’une structure peut être caractérisé par une
fonction de performance notée G(X) associée à un scénario de défaillance et fonction des variables physiques X = {X1 , . . . , Xn }t ∈ X n incertaines. Pour une réalisation x = {x1 , . . . , xn }t du vecteur X,
l’évaluation de la fonction de performance
permet de définir deux sous
n
o domaines :
t
n
• le domaine de sûreté : S = x = {x1 , . . . , xn } ∈ X : G(x) > 0 ;
n
o
t
• le domaine de défaillance F = x = {x1 , . . . , xn } ∈ X n : G(x) ≤ 0 , complément du domaine de
sûreté vis-à-vis de X n .
En introduisant la densité conjointe de probabilité fX (x) des variables physiques, la probabilité de
défaillance d’une structure est la probabilité que la fonction de performance soit négative ou nulle. Son
expression mathématique est :
Pf =
Z
fX (x) dx1 . . . dxn
(2.1)
F
Comme indiqué dans le chapitre précédent, la transformation iso-probabiliste notée T permet de passer de
l’espace X n des variables physiques à l’espace standard U n où les variables sont gaussiennes indépendantes
de moyennes nulles et d’écarts-types unitaires. La fonction de performance devient H(U) = G(T −1 (U)).
Cette transformation préserve la probabilité de défaillance dont l’expression devient :
Z
Pf =
φn (u) du1 . . . dun
(2.2)
T (F )
où φn (−) est la densité conjointe de probabilité de la loi multi-normale standard en dimension n. Dans
la suite, tous les développements et illustrations sont présentés dans l’espace U n .
2.2.1
Simulation de Monte Carlo
En introduisant l’indicateur de la défaillance IF (u) = {1 si H(u) ≤ 0 et 0 sinon}, l’expression de la
probabilité de défaillance devient :
Pf =
Z
IF (u)φn (u) du1 . . . dun = E [IF ]
(2.3)
Un
où E[.] est l’espérance mathématique. Les méthodes de simulation, dont la méthode de Monte Carlo qui
est la plus courante, permettent le calcul de cette intégrale à partir d’un échantillon ou population PMCS
de NMCS réalisations notées {u(j) ∈ U n , j = 1, . . . , NMCS } (voir figure 2.1). Une estimation P̂f de la
probabilité de défaillance est alors obtenue par l’expression suivante :
Pf ≈ P̂f =
1
NMCS
NX
MCS
j=1
IF u(j)
(2.4)
La fonction de performance est évaluée NMCS fois. Le coefficient de variation de la probabilité estimée
est donné par :
δ=
s
1 − P̂f
NMCS P̂f
(2.5)
Le principal inconvénient de la méthode de Monte Carlo réside dans le nombre très important de calculs
de la fonction de performance nécessaires pour l’évaluation de la probabilité de défaillance, surtout lorsque
Nicolas Gayton
Page 61/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.1 – Echantillon
de Monte Carlo constitué de NoM CS points. Peu de points sont dans le domaine
n
t
de défaillance F = u = {u1 , . . . , un } ∈ U n : H(u) ≤ 0 .
la probabilité de défaillance recherchée est très faible.
Pour pallier ce problème de temps de calcul lié au nombre important de calculs mécaniques, De
Rocquigny [Derocquigny, 2006] met en évidence la part très importante de modèles mécaniques (et donc
de fonctions de performance), monotones vis-à-vis des différentes variables incertaines. Il n’est alors
pas nécessaire d’effectuer tous les calculs de l’échantillon de Monte Carlo. En guise d’illustration, la
fonction tracée en figure 2.2 est monotone et toute augmentation de u1 et/ou u2 dégrade la fonction
de performance. Considérons un point u(+) tel que H(u(+) ) ≥ 0. Alors les évaluations de la fonction
de performance correspondant aux points de Monte Carlo situés dans le rectangle gris inférieur gauche
ont tous le même signe que H(u(+) ). De même, considérons un point u(−) tel que H(u(−) ) ≤ 0. Alors
les évaluations de la fonction de performance correspondant aux points de Monte Carlo situés dans
le rectangle gris supérieur droit ont tous le même signe que H(u(−) ). En enlevant itérativement de la
population de Monte Carlo, l’ensemble des calculs non nécessaires, cette astuce, restreinte aux fonctions
de performance monotones, permet une diminution considérable des temps de calcul liés à la méthode de
Monte Carlo.
2.2.2
Tirage d’importance
Les méthodes de tirage d’importance ou Importance Sampling (IS) [Melchers, 1990] (méthodes dites de
réduction de la variance) permettent de valider ou de corriger une approximation FORM de la probabilité
de défaillance. La méthode IS est basée sur l’hypothèse que la majorité des situations défaillantes de
l’échantillon de Monte Carlo est localisée autour d’un point de défaillance le plus probable (MPFP)
unique. Pour réduire la variance de la probabilité de Monte Carlo, il est alors préférable de générer une
population PIS de NIS points {ũ(j) , j = 1, . . . , NIS } centrée au MPFP selon la densité conjointe notée
19 décembre 2012
Page 62/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.2 – Fonction de performance monotone, représentation des domaines en gris dont les calculs sont
inutiles.
ϕn (u). L’expression de la probabilité de défaillance peut s’écrire :
Pf =
Z
IF (u)
Un
φn (u)
ϕn (u)du1 . . . dun
ϕn (u)
(2.6)
et la probabilité de défaillance peut être estimée par :
NIS
(j)
1 X
(j) φn ũ
Pf ≈ P̃f =
IF ũ
NIS j=1
ϕn ũ(j)
(2.7)
2
La variance de la probabilité σIS
devient :
2
σIS


NIS
1  1 X
IF ũ(j)
=
NIS NIS j=1

!2 
φn ũ(j)
 − P̃f2 
ϕn ũ(j)
(2.8)
et le coefficient de variation associé δ est le ratio entre σIS et P̃f . La densité de probabilité conjointe ϕn
est en générale gaussienne et de coefficient de variation unitaire même si d’autres choix sont possibles.
Une représentation de la population générée est donnée sur la figure 2.3.
2.2.3
Subset Simulations
Une autre alternative à la méthode de Monte Carlo est la méthode des Subset Simulations (SS)
[Au and Beck, 2001]. Dans cette méthode, dédiée à l’évaluation de faibles probabilités, la probabilité de
défaillance est exprimée comme le produit de probabilités conditionnées plus importantes en introduisant
des évènements intermédiaires comme illustré en figure 2.4 où 3 subsets (sous ensembles) sont représentés.
Considérons m subsets F1 à Fm tels que F1 ⊃ F2 ⊃ . . . ⊃ Fm = F avec Fk = {u ∈ U n : H(u) ≤ Hk }. La
Nicolas Gayton
Page 63/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.3 – Tirage d’importance centré autour du MPFP.
Figure 2.4 – Population initiale P1 et présentation des fonctions H = Hk en traits minces correspondantes
au seuil Hk .
19 décembre 2012
Page 64/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.5 – Population P2 générée par l’algorithme de Metropolis Hastings.
probabilité de défaillance peut s’exprimer par le produit des probabilités conditionnées :
Pf = Prob(F1 )
m
Y
k=2
Prob(Fk |Fk−1 )
(2.9)
Les différents seuils {Hk , k = 1, . . . , m} doivent être choisis judicieusement de façon à trouver un compromis entre nombre de simulations par seuil et nombre de seuils m. D’une manière générale, les seuils sont
déterminés de façon à ce que les probabilités conditionnées soient proches de 0,1 [Au and Beck, 2001]. Une
première population P1 de N1 points est générée selon φn et le seuil H1 est défini de façon à ce que 90% des
points de P1 constitue F1 . Pour évaluer les probabilités conditionnées {Prob(Fk |Fk−1 ), k = 2, . . . , m}, de
nouveaux points doivent être générés selon la densité conditionnée φn (.|Fk−1 ) et évalués. Pour générer ces
points, plusieurs procédures peuvent être utilisées [Au and Beck, 2007] comme l’algorithme de MetropolisHastings. Cet algorithme n’est pas détaillé mais présente une phase d’acceptation-rejet de points candidats
en fonction du signe de la fonction de performance. La figure 2.5 présente la population P2 obtenue à
partir d’une perturbation des points de F1 . L’estimation des probabilités conditionnées Prob(Fk |Fk−1 )
est donnée par :
Prob(Fk |Fk−1 ) =
Nk
1 X
IF (u(j,k) )
Nk j=1 k
(2.10)
où Nk représente la taille de la population Pk , IFk représente l’indicateur de défaillance relative au seuil
Hk et u(j,k) représente le point numéro j de la population Fk .
2.2.4
Inconvénients et points communs des méthodes de simulation
Les méthodes de tirage d’importance et les subsets simulations constituent une alternative économique
vis-à-vis de la simulation de Monte Carlo. Cependant, le nombre de simulations nécessaires ne permet
pas d’envisager le traitement des problématiques industrielles où les temps de calcul mécanique sont très
importants (plusieurs minutes voire plusieurs heures). Les méthodes approximatives comme les méthodes
Nicolas Gayton
Page 65/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
FORM/SORM [Lemaire, 2009] permettent de traiter des applications industrielles mais le résultat en
terme de probabilité de défaillance doit être validé par un tirage d’importance. Les méthodes de Surfaces
de Réponse Quadratiques [Gayton et al., 2002a] ou de chaos polynomial [Notin et al., 2010], de par leur
caractère polynomial, ne permettent pas d’atteindre des précisions suffisantes en terme de probabilité de
défaillance sur des fonctions de performance fortement non-linéaires avec un temps de calcul raisonnable.
Par contre, le couplage entre les méthodes de simulation et les méthodes de méta-modélisation (comme
dans [Bourinet et al., 2011]) apparaı̂t très intéressant pour traiter des applications industrielles.
Les méthodes de simulation pour la fiabilité sont basées sur une classification des points d’une
population selon le signe de la fonction de performance pour les populations de Monte Carlo
PMCS et de tirage d’importance PIS et selon la position relative de la fonction de performance par rapport
à un seuil donné pour les subsets simulations. Ce point commun constitue la base des méthodes AK-RM
Active learning and Kriging - based Reliability Methods.
2.3
Principes de base du krigeage
Le krigeage ou Kriging, développé par Krige [1951] et théorisé par Matheron [1973], considère, dans
le cadre de la fiabilité, la fonction de performance H comme une réalisation d’un processus gaussien noté
H(u). La première étape du krigeage consiste à déterminer les paramètres de ce processus gaussien par
les calculs mécaniques effectués. Ensuite, le meilleur predicteur linéaire sans biais (BLUP Best Linear
Unbiased Predictor ) est utilisé pour prédire la valeur inconnue de la fonction de performance pour une
réalisation non observée de u. Pour plus de détails sur la théorie du krigeage, le lecteur peut se reporter
à Dubourg [2011, Chapitre 1].
2.3.1
Identification du processus gaussien
Le modèle du processus gaussien est le suivant [Sacks et al., 1989] :
H(u) = Y (u, η) + Z(u)
(2.11)
où :
• Y (u, η) est la partie déterministe de la réponse représentant la tendance et correspondant à un
modèle de régression du type :
Y (u, η) = y(u)t η
(2.12)
où y(u) = {y1 (u), . . . , yb (u)}t est le vecteur des fonctions de base d’expression de y(u) et η =
{η1 , . . . , ηb }t est le vecteur des coefficients de la régression. Tous les travaux présentés dans ce chapitre ont été développés à partir d’une tendance ordinaire (ordinary kriging) c’est-à-dire que Y (u, η)
est réduit à un scalaire unique noté η. Le modèle de régression ordinaire est souvent suffisant et les
autres modèles ne fournissent en général pas de meilleurs résultats même sur des fonctions fortement non-linéaires [Bichon et al., 2011]. Les équations suivantes sont restreintes au cas particulier
du krigeage ordinaire.
• Z(u) est un processus gaussien stationnaire de moyenne nulle et de covariance cov (Z(u), Z(v))
19 décembre 2012
Page 66/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
entre deux points u et v définie par :
2
cov (Z(u), Z(v)) = σZ
Rθ (u, v)
(2.13)
2
où σZ
est la variance du processus et Rθ est la fonction d’auto-corrélation caractérisée par le vecteur
de paramètres θ = {θ1 , . . . , θn }t , n étant le nombre de variables de la fonction H.
Dans les travaux présentés dans ce chapitre, le modèle anisotrope est considéré pour modéliser la
dépendance entre les points :
Rθ (u, v) =
n
Y
i=1
exp −θi (ui − vi )2
(2.14)
Ce modèle est le plus utilisé en ingénierie [Santner et al., 2003; Bichon et al., 2008; Ranjan et al., 2008]. Il
est à noter que la fonction d’auto-corrélation de Matérn constitue une alternative plus flexible qui trouve
tout son intérêt en analyse de fiabilité [Dubourg, 2011], mais son utilisation augmente l’effort de calcul
[Bichon et al., 2011].
Soit le plan d’expériences numériques défini par p expériences {u(1) , . . . , u(p) }t et leurs observations
(calculs associés) respectives H = {H(u(1) ), . . . , H(u(p) )}t dans l’espace standard . Les scalaires η et σz2
sont estimés par [Jones et al., 1998] :
η̂ =
et :
1tp [Rθ ]−1 H
1tp [Rθ ]−1 1p
(2.15)
t
σˆZ 2 =
(H − η̂1p ) [Rθ ]−1 (H − η̂1p )
p
(2.16)
où Rθij = Rθ (u(i) , u(j) ) est la matrice de corrélation associée aux points du plan d’expériences et 1p est
le vecteur unitaire de taille p. η̂ et σˆZ 2 dans les équations 2.15 et 2.16 dépendant du paramètre θ à travers
la matrice [Rθ ]. Ce paramètre est obtenu par la méthode du maximum de vraisemblance [Lophaven et al.,
2002a] :
1
θ̂ = arg min (det[Rθ ]) p σˆZ 2
θ
(2.17)
Dans la toolbox DACE [Lophaven et al., 2002a], utilisée dans ces travaux, la méthode de recherche de
l’optimum utilisée est celle de Hooke et Jeeves. Des détails sur la méthode et des tests de validation
peuvent être trouvés dans la référence [Lophaven et al., 2002b]. Les algorithmes d’essaims d’abeilles
[Karaboga, 2005; Karaboga and Basturk, 2007] proposés par [Luo et al., 2012] constituent une alternative
intéressante pour la résolution de ce problème d’optimisation.
2.3.2
Prédiction par krigeage
Dans la section précédente les paramètres du processus gaussien ont été estimés. L’étape suivante
consiste à prédire la fonction H(u) en un point non observé u. Soit r(u∗ ) le vecteur des corrélations entre
le point u et les points du plan d’expériences :
r(u∗ ) = {Rθ (u∗ , u(1) ), . . . , Rθ (u∗ , u(NE ) )}t
(2.18)
Le meilleur estimateur linéaire sans biais (BLUP Best Linear Unbiaised Predictor ) noté H̃(u) suit une
loi gaussienne :
2
(u)
H̃(u) ∼ N µH̃ (u), σH̃
Nicolas Gayton
Page 67/172
(2.19)
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
de moyenne [Jones et al., 1998] :
µH̃ (u) = η̂ + r(u)t [Rθ ]−1 (H − η̂1p )
(2.20)
et de variance [Jones et al., 1998] :
2
σH̃
(u) = σˆZ
2.3.3
2
1 − 1tp [Rθ ]−1 r(u)
1 − r(u)t [Rθ ]−1 r(u) +
1tp [Rθ ]−1 1p
2 !
(2.21)
Caractéristiques fondamentales pour l’analyse fiabiliste
Le krigeage présente deux caractéristiques importantes qui ont motivé l’utilisation de cet outil pour
l’analyse de fiabilité.
• Interpolation : la moyenne de krigeage utilisée comme estimateur passe exactement par les points
du plan d’expériences numériques, c’est-à-dire µH̃ (u(i) ) = H(u(i) ) quel que soit u(i) un point du
plan d’expériences. De plus, la variance de krigeage en un point du plan d’expériences est nulle
2
u(i) = 0
σH̃
• Indicateur a priori de l’incertitude de prédiction : en un point donné non observé, le krigeage fournit la prédiction de la fonction de performance mais également une mesure de l’incertitude sur cette prédiction à travers la variance de krigeage. Un enrichissement itératif du plan
d’expérience basé sur cette variance de krigeage (estimateur ”gratuit”, c’est-à-dire sans coût de
calcul supplémentaire, de la qualité de la prédiction) est une stratégie judicieuse pour diminuer les
calculs en les guidant itérativement. Une telle approche est communément connue sous le nom de
Active Learning.
2.4
Les méthodes Active Learning pour la fiabilité
La référence [Romero et al., 2004] semble être la première à utiliser le krigeage pour l’analyse de
fiabilité, ce qui en fait donc une méthode récemment utilisée dans ce domaine. Dans cette référence,
le krigeage est utilisé comme peuvent l’être les méthodes de surfaces de réponse quadratiques, c’est-àdire de façon itérative mais sans tenir compte de la variance de krigeage pour guider l’enrichissement
du plan d’expériences. La même remarque peut être faite concernant les travaux de [Kaymaz, 2005].
Après ces travaux précurseurs, le krigeage a été utilisé dans une procédure d’Active Learning où le
plan d’expériences numériques est enrichi selon l’évaluation d’une fonction d’apprentissage [Bichon et al.,
2008; Ranjan et al., 2008; Picheny et al., 2010; Bect et al., 2011; Dubourg, 2011; Echard et al., 2011]. La
procédure générale est la suivante :
1. Construire le méta-modèle de Krigeage de H avec un plan d’expériences initial.
2. Trouver le point qui maximise la fonction d’apprentissage.
3. Enrichir le plan d’expériences avec ce point en calculant la fonction H associée.
4. Construire le nouveau méta-modèle de krigeage et retourner en étape 2.
La fonction d’apprentissage doit être définie en fonction du problème à traiter (optimisation, fiabilité,
...). En analyse de fiabilité, seuls les points proches de l’état limite H(u) = 0 présentent un intérêt. Les
fonctions d’apprentissage pour l’analyse de fiabilité sont discutées dans la section suivante.
19 décembre 2012
Page 68/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
2.4.1
Fonctions d’apprentissage
Plusieurs fonctions d’apprentissage sont disponibles dans la littérature en lien avec l’analyse de fiabilité. Cette section se restreint à la présentation de deux fonctions d’apprentissage.
Fonction EFF
Le schéma d’apprentissage proposé par la méthode EGRA [Bichon et al., 2008] Efficient Global Reliability Analysis est basé sur la fonction d’apprentissage dénommée EFF Expected Feasibility Function.
Inspiré des travaux de [Ranjan et al., 2008], EFF exprime l’espérance que la fonction de performance en
un point non évalué u respecte la contrainte H(u) ∈ [−ǫ(u); +ǫ(u)]. Son expression est :
h
i
EFF(u) = E ǫ(u) − min(|H̃(u)|, ǫ(u))
(2.22)
Dans la référence [Bichon et al., 2008], ǫ est proportionnel à la variance de krigeage estimée en chaque
point : ǫ(u) = 2σH̃ (u). En intégrant sur u, l’expression précédente devient :
EFF(u)
=
h i
−µ (u)
−ǫ(u)−µH̃ (u)
ǫ(u)−µH̃ (u)
µH̃ (u) 2Φ σ H̃(u) − Φ
−Φ
σ
(u)
σ
(u)
H̃
H̃
H̃
i
h −ǫ(u)−µH̃ (u)
t+ǫ(u)−µH̃ (u)
−µH̃ (u)
−
φ
−σH̃ (u) 2φ σ (u) − φ
σH̃ (u)
σH̃ (u)
H̃
h i
ǫ(u)−µH̃ (u)
−ǫ(u)−µH̃ (u)
+ǫ(u) Φ
−Φ
σ (u)
σ (u)
H̃
(2.23)
H̃
Des valeurs importantes de EFF sont obtenues pour des points ayant une moyenne de krigeage proche
de 0 ou pour des points ayant une variance de krigeage importante. La fonction de performance est
itérativement évaluée aux points où la fonction EFF est plus importante. La recherche de ce point est
discutée en section 2.4.2.
Fonction U
La fonction d’apprentissage U proposée par [Echard et al., 2011], est une adaptation du critère proposé
dans [Kushner, 1964] et dans [Cox and John, 1997] (critère lcb pour l’optimisation). Comme représenté
en figure 2.6, le critère U indique la distance, en nombre d’écarts-types de krigeage, entre la moyenne de
krigeage et le seuil considéré pour la fonction H :
U (u) =
|µH̃ (u) |
σH̃ (u)
(2.24)
Autres alternatives
Des critères plus sophistiqués comme le critère tIMSE targeted Integrated Mean-Squared Error [Picheny et al.,
2010] ou bien le critère SUR Stepwise Uncertainty Reduction [Bect et al., 2011] auraient pu constituer
des alternatives intéressantes. Des comparaisons ont été effectuées par [Bect et al., 2011]. SUR converge
a priori plus rapidement vers une probabilité de défaillance très approximative mais le temps de posttraitement (évaluation de la fonction SUR à chaque itération) est supérieur aux fonctions EFF et U . De
plus, le nombre d’évaluations de la fonction de performance avec U est comparable à la fonction SUR
lorsqu’une probabilité de défaillance précise est recherchée. Dans le cadre des travaux présentés dans ce
mémoire, le critère U a été retenu pour sa simplicité de calcul et son efficacité.
Nicolas Gayton
Page 69/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.6 – Illustration de la fonction d’apprentissage U à évaluer en trois points différents u(1) , u(2) ,
u(3) avec une moyenne de krigeage positive. La valeur de la fonction d’apprentissage en chacun de ces
points est respectivement 2, 1 et 0, 8. Les surfaces grisées représentent les probabilités 1 − Φ(U (u(j) ))
que le signe de H soit différent de celui de µH̃ . Le point u(3) est celui qui a la plus grande incertitude sur
le signe de H(u(3) ).
2.4.2
Recherche de l’optimum de la fonction d’apprentissage
Les fonctions d’apprentissage sont fortement multimodales et la recherche d’un optimum est une
tâche complexe. La méthode EGRA utilise un algorithme sans gradient DIRECT DIviding RECTangles
[Jones et al., 1993; Gablonsky, 2001] de recherche d’optimum global. Cette méthode consiste en une
division itérative de l’espace de recherche en hyper-rectangles. La fonction EFF est calculée au centre
de ces hyper-rectangles. Même si l’évaluation des fonctions d’apprentissage ne nécessite pas le calcul de
la fonction de performance, la prise en compte dans une méthode d’optimisation peut devenir coûteuse
en temps de calcul sans garantie de convergence vers le minimum global. Le principe de classification
proposé dans les méthodes AK permet d’éviter la recherche de cet optimum dans un espace continu.
2.5
Principe de classification des points des méthodes AK
Les méthodes AK reposent toutes sur le principe de classification décrit dans ce qui suit. Soit une
population de points {u(j) ∈ U n , j = 1, . . . , N } que l’on souhaite classer selon le signe de la fonction
H(u(j) ) avec le minimum d’évaluations de la fonction H. La stratégie de classification proposée réside dans
l’utilisation d’un méta-modèle de type krigeage permettant à partir d’un plan d’expériences de prédire
la valeur de la fonction H en un point u pour lequel la fonction H n’a pas été évaluée. La technique de
classification appelée AK Active learning and Kriging - based method est basée sur les étapes suivantes :
19 décembre 2012
Page 70/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
1. Choisir un premier plan d’expériences et faire les calculs de la
fonction de performance associée ;
2. Construire le méta-modèle de krigeage à partir de ce plan
d’expériences ;
3. Calculer la fonction d’apprentissage : pour chaque point u(j) ,
calculer σH̃ (u(j) ) et µH̃ (u(j) ) et la fonction d’apprentissage U (u(j) ) =
µH̃ (u(j) ) /σH̃ (u(j) ) ;
4. Apprentissage itératif ou arrêt de l’algorithme
4.1. Si uo = Argmin(j) U (u(j) ) ≤ 2 → ajouter le point u(o) qui a la plus faible
valeur de U de l’échantillon à classer ;
4.2. Sinon → arrêter l’algorithme, le signe de µH̃ (u(j) ) est considéré
représentatif du signe de H(u(j) ).
Etape 1 : Choix du premier plan d’expériences
Plusieurs stratégies ont été utilisées dans l’optique de minimiser le nombre total d’évaluations de la
fonction H. Pour que le classement s’effectue correctement, et pour que l’algorithme ne s’arrête pas trop
rapidement, le premier plan d’expériences doit présenter des points dont le signe de H est positif et
d’autres dont le signe de H est négatif. Le nombre de points constituant le premier plan d’expériences a
été fixé à une dizaine à choisir parmi les N points de la population à classer. Sans connaissance a priori
de la topologie de la fonction étudiée, un choix aléatoire peut être privilégié. Il a néanmoins comme
inconvénient de choisir beaucoup de points à l’endroit du maximum de densité de probabilité ayant servi
à la génération des points, lieu qui est en général peu intéressant puisque ce sont davantage les queues de
distribution qui sont intéressantes en fiabilité des structures. Il a donc été préféré de choisir des points dans
l’échantillon de points candidats en privilégiant une bonne couverture de l’espace. La solution retenue est
détaillée lors de l’exposé de chacune des méthodes.
Etape 2 : méta-modèle de krigeage
Voir section 2.3.2 pour le détail des équations mises en jeu.
Etape 3 : fonction d’apprentissage
Voir section 2.4.1 pour le détail de la justification du choix de la fonction U .
Etape 4 : Apprentissage itératif ou arrêt de l’algorithme
L’algorithme s’arrête lorsque la valeur de la fonction d’apprentissage U calculée en chaque point à
classer est supérieure à 2. Cette condition d’arrêt signifie que le signe de H est cohérent avec le signe de
µH̃ avec une confiance de 97,7% sous l’hypothèse où H̃ est distribuée selon une loi gaussienne. Si cette
condition (U (u(j) ) ≥ 2, ∀j) n’est pas respectée, le point uo qui présente la plus faible valeur de U parmi
tous les points candidats est ajouté au plan d’expériences et l’algorithme repart à l’étape 2.
La principale limite de cet algorithme réside dans le nombre N de points à classer dans l’échantillon
qui ne doit pas être trop important (maxi 100 000) pour limiter les temps d’évaluation de la fonction
Nicolas Gayton
Page 71/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.7 – AK-MCS, premier plan d’expériences en noir. Points candidats en gris.
d’apprentissage U pour chaque point et à chaque itération. Cette limite est à l’origine des différentes
méthodes AK-RM présentées ci-après permettant de s’affranchir soit de la manipulation de populations
de taille supérieure soit du calcul de U pour tous les candidats potentiels à chaque itération.
2.6
2.6.1
Présentation des méthodes AK-RM pour la fiabilité
La méthode AK-MCS
Principe
Le principe de classification est appliqué à la simulation de Monte Carlo pour donner la méthode AKMCS [Echard et al., 2011]. Pour couvrir l’ensemble de l’échantillon de Monte Carlo de manière à trouver
un point dont la fonction de performance est négative, une stratégie basée sur la distance d(u(j) ) entre
chaque points u(j) à classer et l’origine du repère standard est définie. Ainsi 3 points sont aléatoirement
choisis parmi les points tels que d(uj ) ∈ [0; 1] puis trois points tels que d(u(j) ) ∈ [1; 2] puis 3 points tels
que d(u(j) ) ∈ [2; 3], ainsi de suite jusqu’à ce que plus aucun point ne soit disponible dans la base de
Monte Carlo. La figure 2.7 présente un premier plan d’expériences issu de cette stratégie. Lorsque tous
les points sont classés et que le critère d’arrêt est atteint, la probabilité de défaillance peut être évaluée
en remplaçant le domaine de défaillance F par F̃ = {u ∈ U n : µH̃ (u) ≤ 0}. Le compteur de défaillance
devient IF̃ (u) = {1 si µH̃ (u) ≤ 0 ou 0 sinon}.
Application
Cet exemple d’application permet de montrer l’efficacité de la méthode sur une fonction pour laquelle
seule une méthode de Monte Carlo classique semble pouvoir donner le bon résultat en terme de probabilité.
Cette application est basée sur la fonction de Rastrigin [Törn and Zilinskas, 1989] modifiée pour obtenir
une fonction non connexe dont l’expression de la fonction de performance est :
H(U1 , U2 ) = 10 −
19 décembre 2012
2
X
i=1
Ui2 − 5 cos (2π Ui )
Page 72/172
(2.25)
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.8 – Etat limite de la fonction de Rastrigin avec un domaine de défaillance non connexe. La
surface sombre représente le domaine de défaillance.
Méthode
NE
Pf
MCS
2.5 × 104
7.43 × 10−2
2.23
7.43 × 10
2.23
AK-MCS
391
δ%
−2
Tableau 2.1 – Résultats de l’analyse de fiabilité sur l’exemple de Rastrigin modifié.
où U1 et U2 sont des variables aléatoires gaussiennes standards. Le domaine de défaillance est représenté
en figure 2.8.
Les résultats obtenus par la méthode de Monte Carlo et la méthode AK-MCS sont présentés dans le
tableau 2.1. La méthode AK-MCS nécessite environ NE = 400 calculs de la fonction H pour converger
et classer les 2.5 × 104 points de la même manière que la méthode de Monte Carlo donnant ainsi la
même probabilité de défaillance. La classification des points est présentée en figure 2.9. La fonction
d’apprentissage est capable d’identifier l’ensemble des sous domaines même déconnectés entre eux. La
figure 2.10 présente l’ensemble des calculs de H effectués ainsi que le séparateur final obtenu. L’algorithme
est probabiliste puisque deux évaluations successives de Pf ne donnent pas les mêmes résultats du fait
de l’échantillon et du premier plan d’expériences différents. Des tests ont été effectués [Echard, 2012] et
montrent une très grande robustesse de la méthode (les points de la simulation sont tous correctement
classés lorsque le critère d’arrêt est atteint) sur un exemple disposant d’une topologie très complexe.
Cas d’une fonction de performance monotone, méthode AK-MCSm
La méthode AK-MCS est très générale mais présente l’inconvénient d’être très coûteuse en temps de
post-traitement pour la vérification du critère U pour tous les points candidats et à chaque itération. Pour
pallier ce problème (dans le cas de fonctions monotones vis-à-vis de chacune des variables), et atteindre
Nicolas Gayton
Page 73/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.9 – Illustration de la méthode AK-MCS sur l’exemple de Rastrigin, les points gris représentent
les points ayant une valeur positive de moyenne de krigeage, les points noirs ont une valeur négative.
Figure 2.10 – Illustration de la méthode AK-MCS sur l’exemple de Rastrigin, les points noirs représentent
les points de calcul effectués sur la fonction H.
19 décembre 2012
Page 74/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
des probabilités de défaillance faibles, à chaque calcul de la fonction H sont enlevés des points de la base
à classer dont le signe de la fonction de performance est garanti sans faire de calcul.
2.6.2
La méthode AK-IS
Principe
La méthode AK-IS [Echard et al., 2012] constitue le couplage entre la stratégie de séparation évoquée
et la méthode du tirage d’importance dont les bases sont rappelées en section 2.2.2. Devant la difficulté de
la méthode AK-MCS à gérer des populations de taille importante pour évaluer des probabilités faibles,
cette méthode permet de gérer une population de plus petite taille tout en évaluant une probabilité
faible sous l’hypothèse d’un point de défaillance le plus probable unique dominant. La méthode AK-IS
est donc constituée d’un calcul FORM standard permettant l’obtention des coordonnées du point de
défaillance dans l’espace standard. Une population est alors générée autour du MPFP selon la densité
multi-normale φn (u) centrée sur le MPFP. La méthode de classification exposée est ensuite appliquée à
partir d’un premier plan d’expériences constitué des points de calcul FORM uniquement. La stratégie
d’enrichissement permet de classer l’ensemble des points et l’évaluation de la probabilité de défaillance
est obtenue, comme pour la méthode AK-MCS, en approximant F par F̃ .
Pour diminuer le nombre de calculs de la méthode, il est possible de fixer un critère d’arrêt de
l’algorithme FORM très large comme mentionné dans [Echard, 2012].
Application 2D cubique
En guise d’illustration, il est proposé d’étudier la fonction de performance suivante :
H(U1 , U2 ) = 0, 5(U1 − 2)2 − 1, 5(U2 − 5)3 − 3
(2.26)
où U1 et U2 suivent des lois gaussiennes standards. La fonction d’état-limite et le domaine de défaillance
sont représentés en figure 2.11. Cent populations MCS avec NMCS = 5 × 107 points et cent populations de
tirage d’importance constituées de NIS = 104 points sont considérées. Les procédures AK-MCS et AK-IS
sont comparées aux méthodes classiques de Monte Carlo et de tirage d’importance. Les résultats sont
reportés dans le tableau 2.2. Ils montrent une grande efficacité de la méthode de classification des points
puisque tous les points sont correctement classés avec la méthode AK-MCS alors que 94% des simulations
AK-IS classent les points sans aucune erreur. La figure 2.12 illustre la stratégie de classification pour cette
application et la figure 2.13 illustre les calculs effectués pour un seul lancement de la méthode. Les résultats
médians en terme de probabilité sont donnés dans le tableau 2.3 et montrent l’efficacité de la méthode
AK-IS par rapport à la méthode AK-MCS en terme de temps de calcul ayant à gérer une population de
taille plus faible.
2.6.3
La méthode AK-SS
La méthode AK-SS pour Active learning and Kriging-based Subset Simulation consiste en une application du principe de classification aux subset simulations. Le principe est la diminution du nombre de
calculs mécaniques liés aux subset simulations qui ont lieu à deux niveaux : pour la validation ou le rejet
des points générés par l’algorithme de Metropolis-Hastings et pour classer chaque point de Pk . A chacun
de ces deux niveaux, seul le signe de la fonction de performance est nécessaire, ce qui rend la méthode de
Nicolas Gayton
Page 75/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.11 – Application 2D cubique. La zone sombre représente le domaine de défaillance.
Nombre de points mal classés
AK-IS
AK-MCS
0
94
100
1
3
0
2
2
0
3
1
0
Tableau 2.2 – Nombre de points mal classés pour 100 lancements des méthodes AK-MCS et AK-IS dans
le cas de l’application 2D cubique.
Méthode
NE (×100)
Pf (×100)
δ (×100)
CPU time (s) (×100)
FORM
19
4.21 × 10−5
AK-IS
19 + 7
AK-MCS
17
-
−5
≃0
2, 39%
4, 844
2, 85 × 10−5
2, 64%
3626
2, 86 × 10
Tableau 2.3 – Application non-linéaire 2D, résultats médians pour 100 lancements des méthodes AK-IS
et AK-MCS. Le nombre de calculs pour AK-IS est divisé en nombre de calculs pour FORM et en nombre
de calculs pour la séparation des points de la population.
19 décembre 2012
Page 76/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.12 – Application 2D cubique. Classification des 104 points de la population de AK-IS. Les points
gris clairs sont des points dont µH̃ est positive et les points noirs sont des points dont µH̃ est négative.
Figure 2.13 – Application 2D cubique. Les croix représentent les calculs générés par la méthode FORM.
Les points représentent les calculs effectués pour la classification des 104 points de la population AK-IS.
Nicolas Gayton
Page 77/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
classification particulièrement intéressante dans ce cas. L’objectif de cette méthode est de pouvoir gérer
les faibles probabilités comme le proposent les méthodes AK-MCSm et AK-IS sans hypothèse particulière
de monotonie ou de point de défaillance le plus probable unique.
Principe
La première étape consiste à générer une première population Pk et à définir un premier plan d’expériences (idem que le plan d’expériences choisi dans la méthode AK-MCS) permettant par krigeage de
définir le premier seuil µH1 tel que P̃1 ≈ 0.1 avec :
P̃1 =
N1
1 X
IF̃1 u(j)
N1 j=1
(2.27)
où IF̃1 (u) = {1 si µH̃ (u) ≤ µH1 and 0 sinon} est le compteur de défaillance par krigeage. La procédure de
classification est alors effectuée jusqu’à ce que le critère de convergence soit atteint permettant d’évaluer
précisément la probabilité P̃1 correspondant au seuil µH1 . La génération d’une nouvelle population P2 se
fait par la méthode de Metropolis Hastings dans laquelle la phase de rejet - acceptation d’un nouveau
point est non consommatrice en temps de calcul puisque le signe de la fonction de performance est évalué
à partir du méta-modèle précédent. La phase de classification des points de P1 a nécessité de nouveaux
calculs de la fonction de performance. Ces nouveaux calculs sont considérés pour définir le nouveau seuil
µH2 à partir de la base initiale P1 . L’algorithme se poursuit jusqu’à ce que le dernier seuil considéré soit
Q
inférieur à 0 et la probabilité de défaillance est évaluée à la fin par P̃f = k P̃k .
Application
AK-SS est illustré sur l’état-limite parabolique proposé par [Der Kiureghian and Dakessian, 1998a] et
utilisé pour expliquer le principe de la méthodologie et son efficacité. La fonction de performance est :
G(U1 , U2 ) = a − U2 − b(U1 − c)2
(2.28)
où U1 et U2 suivent des lois normales standards et les paramètres a et b peuvent être définis pour avoir
ou non des points de défaillance le plus probable multiples avec différents poids dans la probabilité de
défaillance. Dans cette application, les paramètres ont été fixés à a = 5, b = 0, 2, c = 0 de manière à avoir
une probabilité de défaillance faible de l’ordre de 10−5 et deux points de défaillance le plus probable à
égale distance de l’origine du repère standard (voir figure 2.14). Sur cet exemple, la méthode AK-MCS
serait donc très difficile à mettre en œuvre du fait de la faible probabilité de défaillance et la méthode
AK-IS donnerait des résultats partiels du fait des deux points de défaillance les plus probables.
Cent subset simulations avec une population initiale de N1 = 105 points sont effectuées pour obtenir
une valeur de référence de la probabilité de défaillance. Les résultats médians sont proposés en tableau 2.4.
La méthode AK-SS nécessite uniquement 38 calculs de la fonction de performance pour la probabilité de
défaillance. Comme illustré sur la figure 2.15, les points ajoutés pour chaque seuil sont tous très proches
des fonctions H(u) = µHk . La probabilité recherchée est obtenue logiquement après cinq subsets et 38
évaluations de la fonction de performance.
19 décembre 2012
Page 78/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.14 – fonction d’état limite parabolique avec deux MPFP P1⋆ et P2⋆ . La zone sombre représente
le domaine de défaillance.
Méthode
NE (×100)
Pf (×100)
δ (×100)
SS
5 × 105
1, 91 × 10−5
3, 42%
AK-SS
38
1, 90 × 10−5
3, 28%
Tableau 2.4 – Résultats médians de la probabilité de défaillance pour 100 calculs SS et AK-SS sur la
fonction d’état-limite parabolique.
Figure 2.15 – Illustration de la méthode AK-SS sur la fonction d’état-limite parabolique. Les croix
représentent les points de calcul du premier plan d’expériences et les points représentent les points
supplémentaires ajoutés au fur et à mesure de la méthode itérative. Les lignes en traits pointillés
représentent les fonctions H(u) = µHk .
Nicolas Gayton
Page 79/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
2.6.4
Synthèse des méthodes AK-RM
Les méthodes AK-RM regroupent trois méthodes principales dont l’efficacité et la robustesse ont été
prouvées. Ces différentes méthodes ont des spécificités et le choix de la méthode doit s’effectuer de la
façon suivante :
• Si la probabilité de défaillance recherchée est supérieure à 10−4 , la méthode AK-MCS doit être
utilisée car c’est la méthode la plus générale. Pour accélérer les calculs, la méthode AK-MCSm
peut être utilisée lorsque la fonction de performance est connue comme étant monotone vis-à-vis de
chacune des variables aléatoires (souvent le cas en mécanique dans le domaine de variation souvent
restreint des variables aléatoires).
• Si la probabilité de défaillance est inférieure à 10−4 et que le point de défaillance la plus probable est
supposé unique, la méthode AK-IS doit être utilisée. A noter que cette méthode donne, sans coût
de calcul supplémentaire, les cosinus directeurs qui sont très intéressant en analyse de sensibilité.
• Si la probabilité de défaillance est inférieure à 10−4 et que fonction de performance laisse présager
des points de défaillance les plus probables multiples, la méthode AK-SS doit être utilisée. A noter
également, que dans ce cas, une approche FORM multiple [Der Kiureghian and Dakessian, 1998b]
pourrait être implémentée et validée avec AK-IS.
2.7
Autres applications de la stratégie de classification AK
Ces travaux sont les plus récents et seuls les principes et les références bibliographiques associées sont
exposées.
2.7.1
Fiabilité système AK-SYS
La probabilité de défaillance système peut s’écrire par la probabilité d’unions ou d’intersections
d’évènements dans l’espace standard :

ou :
Pf = Prob 

Pf = Prob 
[
j
\
j

(2.29)

(2.30)
Hj (u) ≤ 0
Hj (u) ≤ 0
La méthode EGRA a récemment été adaptée pour l’analyse de fiabilité système [Bichon et al., 2011].
L’adaptation consiste en la définition d’un critère d’enrichissement global appelé Composite Expected
Feasability Function consistant à calculer la fonction d’apprentissage classique EFF relative à la méthode
EGRA sur une fonction unique constituée du maximum des fonctions Gj pour un problème d’intersection
et du minimum pour un problème d’union d’évènements. Lorsque le point minimisant ce critère global
est identifié par minimisation, la fonction de performance correspondant à ce minimum est identifiée et
calculée. Ceci permet de réduire les temps de calcul par rapport à une méthode qui consisterait à calculer
toutes les fonctions de performance au point minimisant le critère global ou bien à mener la méthode
EGRA séparément sur chaque fonction de performance.
L’adaptation de la méthode AK-MCS pour la fiabilité système a donné la méthode AK-SYS Active
19 décembre 2012
Page 80/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Learning and Kriging - based SYStem reliability method. Plusieurs stratégies pour l’enrichissement ont
été comparées relativement au nombre d’appels à chaque fonction de performance et à la qualité de
l’approximation de la probabilité de défaillance. Le point de départ de la méthode AK-SYS est un tirage
de Monte Carlo de taille NM CS suffisante pour avoir un coefficient de variation faible. Le premier plan
d’expériences est identique à celui de la méthode AK-MCS pour lequel toutes les fonctions de performance
sont calculées. Plusieurs stratégies ont été établies et comparées :
• Stratégie 1 : AK-MCS directement utilisée sur une fonction unique obtenue en prenant le minimum
des fonctions de performance pour l’évaluation de la probabilité de l’union ou le maximum pour
l’évaluation de la probabilité de l’intersection. Le critère d’arrêt est identique à celui de la méthode
AK-MCS sur la fonction unique étudiée.
• Stratégie 2 : AK-MCS utilisée indépendamment sur chaque fonction Hj . Un critère U j (u) est
calculé par fonction Gj . Critère d’arrêt : U j (x) ≥ 2 ∀j, ∀x ∈ S. Cette stratégie permet de traiter
tout type de problème de fiabilité système. L’importance de chaque fonction de performance visà-vis de la probabilité de défaillance est prise en compte. Par contre, une fonction de performance
redondante vis-à-vis d’une autre est malgré tout consommatrice en temps de calcul, chose qui n’est
pas vraie pour la 3ème stratégie proposée et retenue.
• Stratégie 3 : Le critère U (x) est calculé à partir de la fonction composite (maximum pour intersection et minimum pour problème d’union). La recherche du minimum sur i de U (u(i) ) permet
de trouver la réalisation à ajouter. La fonction de performance ajoutée est celle correspondant au
critère U (u(i) ) minimum. L’avantage de ce critère est qu’une fonction redondante est peu consommatrice en temps de calcul (seul le premier plan d’expériences est effectué). Une publication est en
cours de préparation sur ce sujet.
La stratégie 1 met en œuvre un seul méta-modèle alors que les autres stratégies mettent en œuvre un
méta-modèle par fonction de performance. Le principal inconvénient de la méthode AK-SYS est identique
à celui de la méthode AK-MCS concernant la difficulté à atteindre des faibles probabilité de défaillance
avec un temps de post-traitement raisonnable.
2.7.2
Optimisation sous contraintes AK-OPT
Un problème d’optimisation sous contrainte est défini de façon générale par :
u = argmin f (u) sous Hj (u) ≤ 0
(2.31)
En optimisation comme en fiabilité, c’est bien souvent les fonctions Hj (u) qui sont coûteuses en temps
de calcul. En optimisation sous contraintes, une solution u est jugée admissible si toutes les contraintes
sont satisfaites en même temps. Il est donc très intéressant de remplacer les fonctions Hj (u) par des
méta-modèles qui permettent rapidement de savoir si le point est admissible vis-à-vis des contraintes
d’optimisation. Cette problématique revient à classer l’ensemble des points d’une simulation de Monte
Carlo de lois uniformes en fonction de leur appartenance au domaine admissible c’est-à-dire en fonction
de leur appartenance à l’intersection des contraintes d’optimisation. Le problème d’optimisation peut se
reformuler de la façon suivante :
U = argmin f (U) sous U ∈
Nicolas Gayton
Page 81/172
\
j
Hj (U) ≤ 0
(2.32)
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
La stratégie de classification peut être utilisée dans ce contexte de façon à remplacer les contraintes
d’optimisation coûteuses en temps de calcul par des séparateurs permettant d’évaluer l’appartenance ou
nom au domaine admissible d’un point candidat u dans le cadre d’un algorithme d’optimisation d’ordre
0. Cette stratégie a été développée et mise au point dans le cadre d’une action de valorisation avec la
SNECMA et aucune information supplémentaire ne peut être fournie.
2.7.3
Conformité géométrique d’une pièce de grande dimension AK-ILS
La vérification géométrique d’une pièce mécanique nécessite des mesures par machine à mesurer
tridimensionnelle pour des pièces complexes. Une pièce mécanique est déclarée conforme vis-à-vis d’une
tolérance de forme si l’ensemble de ses surfaces la constituant appartient à une zone géométrique délimitée
par deux surfaces. La question du nombre de points de mesures pour déclarer la conformité d’une pièce
est épineuse sachant que plus les points de mesure sont rapprochés plus le métrologue a confiance dans
la conclusion de ses mesures. Le problème se pose lorsque la pièce est de grande taille, c’est le cas des
pièces de structure dans le domaine aéronautique (voir la figure 2.16 présentant une pièce de fermeture
de cockpit). Le problème de vérification de la conformité d’une pièce de grande dimension consiste donc
à classer des points d’une surface vis-à-vis d’une zone de tolérance sans faire l’ensemble des meures. Il
s’agit donc d’un problème de classification de points appartenant à une surface et la stratégie AK a pu
être utilisée dans ce contexte pour créer la méthode AK-ILS Active learning and Kriging based-methods
for the Inspection of Large Surfaces [Dumas et al., 2012]. Cette méthode a été appliquée en lien avec
AIRBUS CIMPA sur des pièces significatives (voir figure 2.17). Les résultats sont présentés en figure 2.18
où le dégradé de gris représente l’écart par rapport à la zone de tolérance et les points blancs sont les
points de mesures nécessaires (< 50 pour les deux pièces) pour déclarer la conformité de la pièce.
Figure 2.16 – Pièce de fermeture de cockpit.
2.8
Conclusion, perspectives et synoptique des méthodes AK
Les méthodes nommées AK pour Active learning and Kriging based-methods utilisent toutes le même
principe de classification exposé en section 2.5. Par rapport aux méthodes existantes, ce principe présente
trois avantages :
• grande facilité d’implémentation à partir d’une toolbox de krigeage type DACE puisque la fonction
d’apprentissage est extrêmement simple et qu’aucune méthode d’optimisation n’est nécessaire ;
19 décembre 2012
Page 82/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Figure 2.17 – Pièces d’application de la méthode AK-ILS. A gauche : cockpit, à droite : case de train
d’atterrissage.
Figure 2.18 – Résultats de la méthode AK-ILS. Le dégradé de gris représente l’écart par rapport à la
zone de tolérance et les points blancs sont les points de mesures nécessaires pour déclarer la conformité.
Figure 2.19 – Synoptique des méthodes AK.
Nicolas Gayton
Page 83/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
• la recherche du point à ajouter se fait sans optimisation et à partir d’une base fixe de points à
classer ;
• les zones explorées par la méthode sont restreintes aux zones de localisation des points à classer.
Par contre, cette stratégie présente l’inconvénient majeur de ne pouvoir considérer que des populations
à classer de taille raisonnable (maxi 100000) même si des populations de taille plus importante peuvent
être considérées mais avec un temps de post-traitement considérable.
Pour l’analyse de fiabilité, la méthode AK-MCS [Echard et al., 2011] est la plus générale et elle a
montré son efficacité sur des problèmes académiques complexes et industriels (voir chapitre 3 relativement
à la fatigue des structures) dont la probabilité de défaillance est supérieure à 10−4 . Pour traiter des
problèmes de fiabilité mettant en œuvre des probabilités plus faibles, la méthode AK-IS a été développée
[Echard et al., 2012] et appliquée elle aussi à des problèmes de fatigue des structures présentés en chapitre
3. Elle repose sur l’hypothèse d’un seul point prépondérant de défaillance le plus probable. La méthode
AK-SS est la plus complexe des méthodes et peut permettre d’atteindre des probabilités faibles sans
hypothèse d’un point de défaillance le plus probable prépondérant. Les développements de cette méthode
en sont pour l’instant au stade de ce qui a été présenté dans ce chapitre.
Pour gagner encore en temps de calcul, les méthodes AK-RM ont été couplées à des méthodes
économiques de calculs mécaniques développée conjointement avec l’UTC [Notin et al., 2012] et par le
LMT [Echard et al., 2012]. L’analyse ainsi effectuée permet de gagner sur le nombre de calculs mécaniques
d’une part grâce aux méthodes AK-RM et d’autre part sur le temps de calcul mécanique par une gestion
intelligente des calculs voisins.
La stratégie de classification développée peut être appliquée à la fiabilité système à travers la méthode
AK-SYS et à d’autres domaines d’application présentés dans ce chapitre : AK-OPT pour la gestion des
contraintes d’optimisation et AK-ILS pour la vérification de la conformité géométrique de pièces de
grande dimension. Un synoptique de synthèse de la famille de méthodes AK est présenté en figure 2.19
en espérant que la famille s’agrandisse.
19 décembre 2012
Page 84/172
HDR, Nicolas Gayton
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
Synthèse du chapitre
Objectif. Proposer des méthodes de fiabilité très économiques en temps de calcul dont les
résultats sont proches des résultats des méthodes de simulation.
Méthodologie. Utilisation du krigeage comme méta-modèle pour la classification des points
d’une simulation. Intégration de l’échantillon de points à évaluer au plus tôt dans le calcul de la
fiabilité. Utilisation d’un critère d’enrichissement basé sur la probabilité de se tromper de signe
pour chaque point de la simulation.
Résultats obtenus. Une famille de méthode nommée AK-RM pour l’analyse de fiabilité a
été développée. Cette stratégie a été étendue à d’autres problématiques voisines : l’optimisation
des structures et la vérification de la conformité de pièces de grande dimension pour donner la
famille des méthodes AK.
Contexte de ces travaux
• Projet ANR APPROFI, thèse de B. Echard.
• Master Recherche d’A. Dumas.
Production scientifique
• 3 revues référencées :
– ECHARD B., GAYTON N., LEMAIRE M., RELUN N., A combined Importance Sampling and Kriging reliability method for small failure probabilities with time
demanding numerical models, Reliability Engineering and System Safety, accepté le
26/10/2012.
– DUMAS A., ECHARD B., GAYTON N., ROCHAT O., DANTAN JY., AK-ILS : an
Active learning method based on Kriging for the Inspection of Large Surfaces,
Precision engineering, Vol 37, pages 1-9, 2013.
– ECHARD B., GAYTON N., LEMAIRE M., AK-MCS : an Active learning reliability
method combining Kriging and Monte Carlo Simulation, Structural Safety, Vol 33,
pages 145-154, 2011.
• 3 conférences internationales
Nicolas Gayton
Page 85/172
19 décembre 2012
Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité
19 décembre 2012
Page 86/172
HDR, Nicolas Gayton
Deuxième partie
Recherches appliquées
87
Chapitre 3
Dimensionnement fiable des
structures sollicitées en fatigue
Sommaire
3.1
Introduction
3.2
Dimensionnement déterministe vis-à-vis de la fatigue
3.3
3.4
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
90
. . . . . . . . . . . .
91
3.2.1
Considérations générales en fatigue . . . . . . . . . . . . . . . . . . . . . . . . .
91
3.2.2
Calcul de l’endommagement pour un chargement quelconque . . . . . . . . . .
92
3.2.3
Méthode Contrainte - Résistance basée sur l’Equivalent Fatigue . . . . . . . . .
93
3.2.4
Incertitudes et règles de dimensionnement dans l’industrie . . . . . . . . . . . .
96
Méthode Contrainte - Résistance pour l’analyse fiabiliste . . . . . . . . . .
96
3.3.1
Distribution de la contrainte
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
3.3.2
Distribution de la résistance . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98
3.3.3
Estimation de la probabilité de défaillance . . . . . . . . . . . . . . . . . . . . .
98
3.3.4
Limites de l’approche Contrainte - Résistance pour l’analyse fiabiliste . . . . .
98
Méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.4.1
Présentation du schéma général . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.4.2
Résultats obtenus sur l’exemple de validation . . . . . . . . . . . . . . . . . . . 102
3.4.3
Quelques éléments sur la modélisation des courbes S-N et du chargement . . . 103
3.5
Application à l’analyse fiabiliste d’un disque aubagé . . . . . . . . . . . . . 105
3.6
Application à l’analyse fiabiliste d’une ailette de divergent . . . . . . . . . 109
3.7
Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Synthèse du chapitre
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
89
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
3.1
Introduction
Le phénomène de fatigue des structures est responsable d’environ 90% des défaillances des structures
en service [Robert, 2009], ce qui en fait un phénomène à prendre en compte en priorité en phase de
dimensionnement. Ce phénomène est associé à la répétition de chargements et de déchargements au cours
du temps, conduisant à la détérioration progressive des propriétés matériaux. Le processus de fatigue est
en général divisé en trois étapes. La première est l’amorçage d’une fissure macroscopique par accumulation
de fissures microscopiques. La seconde étape est la phase de propagation de cette fissure macroscopique
et la dernière étape est la phase de rupture brutale de la structure lorsque la taille de la fissure devient
critique. Les travaux présentés se focalisent sur la phase d’amorçage négligeant la phase de propagation.
En d’autres termes, la structure est considérée comme impropre à son utilisation dès l’amorçage d’une
fissure macroscopique.
Le comportement à la fatigue d’une structure est fortement affecté par une multitude d’incertitudes.
Deux structures, issues du même moyen de fabrication et constituées du même matériau, ont des durées
de vie en service qui peuvent être très différentes. En effet, en plus des défauts inhérents à tout process
de fabrication (géométrie, microfissures, ...), le chargement s’appliquant à une structure peut être très
aléatoire au cours de sa durée d’utilisation et le comportement à la fatigue peut lui aussi être très variable
d’une structure à l’autre. La prise en compte de ces incertitudes en phase de dimensionnement se fait par
l’intermédiaire de coefficients dits de “sécurité” censés assurer à la structure une durée de vie minimale
garantie. Ces coefficients de sécurité basés sur des années d’expériences sont codifiés dans des règlements
et recommandations. Ils sont simples à utiliser mais conduisent souvent à sur-dimensionner des structures
ou, tout du moins, à dimensionner des structures dont les marges de sécurité sont méconnues.
Les approches probabilistes permettent une meilleure compréhension du comportement mécanique
d’une structure. Leur application dans le domaine de la fatigue est d’autant plus intéressante que ce
phénomène est très sensible à plusieurs sources d’incertitudes. L’utilisation de ces méthodes permet de
justifier les coefficients de “sécurité” utilisés en calculant les marges de sûreté (par l’intermédiaire du calcul
de la probabilité de défaillance). Elles permettent également de hiérarchiser les variables influentes. Cette
hiérarchisation des variables aléatoires permet de connaı̂tre les variables qu’il faut examiner en priorité
par des mesures ou des essais car la précision de la probabilité de défaillance calculée en dépend, et les
variables qui au contraire n’ont que très peu d’impact sur le résultat numérique. Le calcul de la probabilité
de défaillance et la hiérarchisation des variables aléatoires sont les deux objectifs de ce chapitre. Ces
travaux incluent les recherches effectuées par B. Echard lors de sa thèse de doctorat. Ils sont en cours
de développement et de déploiement dans la cadre de la thèse CIFRE de S. Bucas pour les grues à tour
Manitowoc.
Après un bref rappel des méthodes liées à l’analyse déterministe de la fatigue des structures, ce chapitre
présente la méthode Contrainte - Résistance très utilisée pour concevoir des structures avec un certain
niveau de fiabilité. Les limites de cette méthode sont illustrées sur un exemple simple avant de proposer
un schéma général d’analyse fiabiliste en fatigue. L’intérêt des travaux présentés réside dans la prise en
compte des distributions statistiques de chaque variable aléatoire, dans le calcul efficace de la probabilité
de défaillance via la méthode AK-IS et dans le calcul des sensibilités de la probabilité de défaillance. Les
deux dernières sections de ce chapitre sont consacrées aux applications industrielles SNECMA traitées
dans le cadre du projet APPROFI. Le lecteur pourra se référer à [Echard et al., 2012] et au rapport de
thèse de Doctorat de B. Echard pour davantage de détails.
19 décembre 2012
Page 90/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
3.2
Dimensionnement déterministe vis-à-vis de la fatigue
Cette section rappelle les bases déterministes de l’analyse des structures en fatigue et permet de définir
le cadre des analyses effectuées.
3.2.1
Considérations générales en fatigue
Chargement d’amplitude constante
Un chargement d’amplitude constante est défini en effort (déplacement, ... ou autre) par :
• un chargement moyen noté Fm produisant une contrainte mécanique à l’endroit le plus critique
notée σm
• un chargement maximum et un minimum, notés respectivement Fmax et Fmin produisant σmax et
σmin au sein de la structure, permettant de définir l’amplitude de chargement Fa = (Fmax − Fmin )/2
produisant σa = (σmax − σmin )/2 au sein de la structure.
Ces différentes quantités permettent de définir le facteur de charge en contrainte (ou en chargement)
défini par :
R=
σmin
σmax
(3.1)
dont les valeurs R = −1 et R = 0 sont les plus communes en essais pour,respectivement, un chargement
symétrique purement alterné et un chargement à valeur minimale nulle.
Courbes S − N
Le comportement en fatigue d’un matériau est caractérisé par des essais sollicitant en laboratoire des
éprouvettes par un chargement d’amplitude constante. Le nombre de cycles N à l’amorçage d’une fissure
est mesuré et plusieurs essais dans des conditions de chargement différents permettent de construire une
courbe S-N, aussi appelée courbe de Wöhler. Cette courbe est en général construite à partir de mesures
à R = −1 et différentes valeurs de σa . Elle est constituée de différents domaines :
• fatigue à faible nombre de cycles (N ≤ 104 − 105 cycles) où l’amplitude de contraintes engendre des
déformations plastiques ǫp . Le modèle de Manson-Coffin peut être utilisé pour modéliser la courbe
S-N dans ce domaine par la relation ǫp = C N c où C et c sont des constantes à identifier.
• fatigue à grand nombre de cycles à endurance limitée où le nombre de cycles à amorçage est compris
entre 104 − 105 et 106 − 107 . Le modèle de Basquin peut être utilisé pour modéliser cette partie de
la courbe S-N σa = B N b où B et b sont des constantes à identifier.
• fatigue à grand nombre de cycles à durée de vie infinie (N ≥ 106 − 107 cycles).
Bien d’autres modélisations existent dans la littérature. Les travaux présentés se restreignent à la
fatigue à grand nombre de cycles à endurance limité. Le modèle de Basquin qui semble le plus courant
a été choisi. Il peut être ajusté très finement au nuage de points en proposant des modèles à plusieurs
pentes. Les travaux présentés sont tout à fait transposables à d’autres modèles (Bastenaire, Stromeyer,
Weibull, ...).
Prise en compte de la contrainte moyenne
Comme mentionné précédemment, la courbe S-N est généralement construite à R = −1 c’est-à-dire
pour un chargement symétrique de moyenne nulle. Le comportement à la fatigue est cependant affecté
Nicolas Gayton
Page 91/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
par la contrainte moyenne σm lorsqu’elle est non nulle. Une contrainte moyenne positive dégrade la durée
de vie alors que c’est l’inverse pour une contrainte moyenne négative jusqu’à un certain niveau. L’effet
de la contrainte moyenne peut être pris en compte dans un diagramme de Haigh (contrainte moyenne
- amplitude de contrainte) par différentes configurations de moyennes - amplitudes associées à la même
durée de vie. Différents modèles sont disponibles dans la littérature (Goodman, Gerber, Söderbeg). La
parabole de Gerber propose la relation suivante :
σa =
σa′
1−
σm
Rm
2 !
(3.2)
Rm étant la limite à rupture du matériau. En définissant synthétiquement un cycle de contrainte par
(moyenne, amplitude), la parabole de Gerber indique l’équivalence en terme de durée de vie entre le
cycle (σm , σa ) et le cycle (0, σa′ ) liés par la relation précédente.
Pour calculer la durée de vie (en nombre de cycles) d’une structure sous chargement d’amplitude
constante (σm , σa ), une courbe S-N, établie pour une valeur de rapport de charge R connu, est nécessaire.
La procédure de calcul est alors la suivante :
1. Convertir le chargement (σm , σa ) en un chargement symétrique équivalent (σm = 0, σa′ ) en utilisant
la parabole de Gerber par exemple.
2. Déterminer le nombre de cycles à amorçage correspondant à σa′ en utilisant la courbe S−N exprimée
à R = −1.
Un travail similaire peut être effectué même si la courbe S − N disponible n’est pas à R = −1.
3.2.2
Calcul de l’endommagement pour un chargement quelconque
Le chargement de fatigue F est en général variable dans le temps F (t) et produit donc une contrainte
mécanique également variable dans le temps σ(t). La durée de vie ne peut donc pas être exprimée en
nombre de cycles puisque cette notion n’a alors plus de signification. Par contre, un scalaire noté D,
appelé dommage ou endommagement compris entre 0 et 1, permet de quantifier l’endommagement de la
structure à l’issue du chargement σ(t). La procédure de calcul est synthétisée en figure 3.1. La structure
est considérée sans fissure à l’issue du chargement si D < 1. La procédure peut être résumée de la façon
suivante :
1. Propager F (t) dans le modèle numérique de comportement de la structure pour obtenir une réponse
en contrainte σ(t) à l’endroit le plus critique.
2. Décomposer l’historique de chargement σ(t) en cycles élémentaires à l’aide d’une méthode de comptage (type Rainflow ou autre). Regrouper les cycles en classes de cycles et compter le nombre de
cycles nj,k dans chaque classe (σa,j , σm,k ).
3. Convertir chaque classe de cycles en classes symétriques à R = −1 en utilisant le diagramme de
′
Haigh. Le chargement σ(t) devient synthétisé par le couple (σa,j,k
, nj,k ) c’est-à-dire par nj,k cycles
′
symétriques d’amplitude σa,j,k
pour j et k décrivant l’ensemble des classes de cycles.
′
4. A l’aide d’une courbe S−N à R = −1, calculer la durée de vie Nj,k associée à chaque amplitude σa,j,k
puis déterminer la fraction de dommage dj,k induit par les cycles de chaque classe : dj,k = nj,k /Nj,k .
5. Cumuler les fractions de dommage en utilisant la règle de cumul linéaire de Palmgren-Miner pour
P P
obtenir l’endommagement D à l’issue du chargement : D = j k dj,k .
19 décembre 2012
Page 92/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
6. Vérifier si D est plus grand ou plus petit que 1. Si D > 1, une fissure a amorcé à l’issue du
chargement. Si D < 1, aucune fissure n’a amorcé et la structure est endommagée à D × 100% à
l’issue du chargement.
Dans la cadre de l’utilisation de la parabole de Gerber et d’une courbe S − N de type Basquin, le
calcul de l’endommagement D est le suivant :
D=
XX
j
k


nj,k 

− 1b

σa,k
2 

σ
B 1 − Rm,j
m
(3.3)
Figure 3.1 – Procédure de calcul de l’endommagement pour un chargement quelconque.
3.2.3
Méthode Contrainte - Résistance basée sur l’Equivalent Fatigue
Formulation en contrainte
Dans l’industrie, la vérification du dimensionnement se fait en général en comparant une sollicitation
à une résistance. Si la résistance est supérieure à la sollicitation, la structure est considérée comme
étant satisfaisante. Dans le contexte de la fatigue des structures, il est nécessaire de savoir définir un
chargement équivalent d’un point de vue de la fatigue, c’est l’objectif de l’Equivalent Fatigue EF qui
′
qui répété Neq fois à R = −1 produit le
synthétise un chargement quelconque en un seul scalaire σeq
même endommagement que le chargement réel σ(t). Cet Equivalent Fatigue doit être comparé à une
résistance équivalente req à Neq cycles à R = −1 issue de la courbe S − N du matériau avec le même
rapport de charge que σeq . Ce schéma est donc formulé en contrainte et le modèle mécanique de la
structure est donc nécessaire. Cette procédure est résumée en figure 3.2.
Nicolas Gayton
Page 93/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Pour calculer l’Equivalent Fatigue σeq , il est nécessaire d’écrire l’égalité entre l’endommagement généré
′
par le temporel σ(t) et l’endommagement généré par σeq
répété Neq fois. Dans le cadre de l’utilisation
de la parabole de Gerber et d’une courbe S − N de type Basquin, l’égalité s’écrit :
XX
j
k


nj,k 

− 1b

σa,k
2 

σ
B 1 − Rm,j
m
= Neq
σ − 1b
eq
(3.4)
B
Le terme de gauche représente l’endommagement D généré par le signal temporel et le terme de droite
représente l’endommagement de référence. En inversant cette relation il est possible d’obtenir σeq .
Pour calculer la résistance équivalente req à Neq cycles, la courbe S-N est utilisée. Il vient :
b
req = BNeq
(3.5)
Pour que le dimensionnement soit satisfaisant, il faut que req > σeq . A partir des deux expressions
précédentes, il est aisé de constater qu’écrire req > σeq est équivalent à écrire D < 1 d’où une équivalence
entre les formulations en dommage et en contrainte.
Figure 3.2 – Principes de la méthode Contrainte - Résistance basée sur l’Equivalent Fatigue, formulation
en contraintes.
Formulation en nombre de cycles
Dans certains domaines, comme celui de la conception des grues à tour, il est plus commun pour une
meilleure compréhension de conserver une formulation en nombre de cycles à rupture. Cela dit, dans le
cadre d’un chargement d’amplitude quelconque, cette notion est assez peu significative et il est nécessaire
de définir une amplitude de référence σeq et de calculer le nombre de cycles Neq correspondant au
chargement. Ce nombre de cycles est alors comparé à la durée de vie souhaitée Ncible . Le dimensionnement
b
b
< BNcible
. Le
est alors satisfaisant si Neq < Ncible . Cette inéquation peut être reformulée en BNeq
19 décembre 2012
Page 94/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
terme de gauche représente σeq . Il est alors aisé d’établir les correspondances entre une formulation
en endommagement, contrainte ou nombre de cycles dans le cadre de l’utilisation du cumul linéaire de
Palmgren-Miner, de la parabole de Gerber et d’une courbe S − N de type Basquin.
Formulation en effort
Les approches définies en endommagement, contraintes et nombres de cycles nécessitent la connaissance du modèle mécanique. En règle générale les sollicitations mesurées sont des efforts (déplacements, ...
ou autre) F (t) fonction du temps. L’Equivalent Fatigue peut être utilisé pour synthétiser ce chargement
et définir des valeurs de sollicitation Feq à reproduire Neq fois en essai de manière à être représentatif de
la réalité.
L’équivalence de dommage en effort s’écrit alors de la façon suivante pour un modèle mécanique reliant
linéairement la contrainte mécanique σ(t) et F (t) :
XX
j=1 k=1


nj,k 

1−
Fa,k
Fm,j
K Feq
− 1b

2 

1
= Neq Feq − b
(3.6)
Cette expression ne
2 pas de termes relatifs au modèle mécanique ni à la courbe S − N . Le
contient
Fm,j
dénominateur 1 − K Feq
constitue la correction d’effort moyen. Le terme K est le seul terme matériau
défini par le rapport entre la contrainte à rupture Rm et la contrainte équivalente σeq . Ce paramètre
vaut en général 2,5 pour les aciers et Neq = 106 [Thomas et al., 1999]. Feq est calculé numériquement en
utilisant l’algorithme de Newton pour déterminer les racines de la fonction f (Feq ) :
f (Feq ) = 1 −

1
b

Feq X X
nj,k 

Neq j=1
k=1
1−
Fa,k
Fm,j
K Feq
− 1b

2 

(3.7)
Etant donné que la fonction f (Feq ) n’est pas définie pour Feq = Fm,j /K, il est recommandé de choisir
(0)
(0)
un point initial Feq de la méthode de Newton tel que Feq > maxj (Fm,j /K).
Considérons un modèle mécanique dont la contrainte mécanique s’exprime linéairement en fonction de
l’effort appliqué par l’intermédiaire d’un coefficient λ. A partir de l’équation 3.4, il est possible d’écrire :
′
σeq
− 1b −b
 1 XX

 
σa,k


nj,k 
=
2 

 

 Neq j
σm,j
k
B 1 − Rm

et donc :
Feq = λσeq

− 1b −b
 1 XX

 
Fa,k

 
nj,k 
=

 
2
 Neq j

Fm,j
k
B 1 − λR
m


(3.8)
(3.9)
Or λRm = KFeq . Donc cette expression est identique à l’expression de l’équation 3.6. Il en découle que
pour un modèle mécanique linéaire, il y a équivalence entre calculer l’Equivalent Fatigue sur F (t) puis
Nicolas Gayton
Page 95/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
appliquer le modèle mécanique ou bien faire l’inverse. Il est donc tout à fait bénéfique en terme de temps
de calcul de calculer Feq puis σeq à l’aide du modèle mécanique. Il en résulte que les approches en efforts
/ contraintes / nombre de cycles / endommagement sont équivalentes pour un modèle mécanique linéaire
en utilisant le cumul linéaire de Palmgren-Miner, une courbe S − N de Basquin et une correction de
Gerber.
3.2.4
Incertitudes et règles de dimensionnement dans l’industrie
Le comportement des structures à la fatigue est fortement affecté par la présence d’incertitudes
[Svensson, 1997]. Tovo [2001] classe les incertitudes en deux catégories :
• les incertitudes inhérentes que sont les propriétés matériaux, le chargement, la géométrie et le
comportement à la fatigue ;
• les erreurs de modèles ainsi que les erreurs d’estimation des paramètres.
La première catégorie est appelée incertitude aléatoire. La seconde catégorie représente les incertitudes
épistémiques qui ne sont pas investiguées ni prises en compte dans ce mémoire.
La plupart des structures sont dimensionnées avec des règles déterministes codifiées dans des standards
et basées sur l’expérience. Ces approches impliquent l’utilisation de coefficients dits de sécurité et de
valeurs pessimistes des variables incertaines de manière à assurer la sûreté de la structure malgré les
différentes incertitudes. Dans l’industrie, deux approches sont utilisées :
• la première consiste en l’application de la procédure présentée en figure 3.1 avec des variables
pessimistes (chargement, courbe S − N ) ;
• la seconde est basée sur l’utilisation de la méthode déterministe Contrainte - Résistance à partir
d’un chargement défini par un niveau de sévérité pessimiste et comparé à une valeur de résistance
à la fatigue codifiée.
Pour illustrer ces propos, le lecteur pourra se référer à des standards tels que le RCC-M [AFCEN,
2000] dans le domaine du nucléaire et à la FEM1.001 [FEM, 1998] dans le domaine du levage.
3.3
Méthode Contrainte - Résistance pour l’analyse fiabiliste
Le principe général de la méthode Contrainte - Résistance appliquée en fatigue [Thomas et al., 1999]
est présenté graphiquement en figure 3.3. La méthode est basée sur la comparaison de deux distributions statistiques : celle de la sollicitation notée S et celle de la résistance de la structure notée R.
La méthode nécessite une modélisation stochastique des variables incertaines (chargement en service,
propriétés matériaux, paramètres géométriques, comportement à la fatigue). Ces différentes variables
incertaines (ou aléatoires) sont propagées à travers le modèle mécanique (en règle générale un modèle
éléments finis dans le cas de structures industrielles) de façon à calculer la grandeur significative du point
de vue de la fatigue (en règle générale une contrainte mécanique critique). La résistance R à la fatigue de
la structure est issue de la courbe S − N et le calcul de la probabilité de défaillance se fait par un simple
calcul d’intégrale détaillé dans la suite.
3.3.1
Distribution de la contrainte
La distribution de la contrainte S est obtenue à partir d’un ensemble de réalisations générées en
faisant fonctionner le modèle mécanique sur plusieurs réalisations des variables incertaines. Cette dis19 décembre 2012
Page 96/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.3 – Principe de la méthode Contrainte - Résistance pour l’analyse fiabiliste.
tribution tient compte des incertitudes sur les propriétés géométriques, sur les paramètres matériaux et
sur le chargement en service vu par la structure. Les incertitudes sur les propriétés matériaux et sur les
variables géométriques sont modélisées grâce à des variables notés respectivement Xm et Xg . Leurs distributions statistiques sont ajustées à partir de mesures. La meilleure modélisation est choisie en fonction de
différents tests statistiques et mesures de la vraisemblance à l’aide des critères AIC [Akaike, 1974] et BIC
[Schwarz, 1978]. Plusieurs possibilités existent pour caractériser le chargement en service. Cette tâche
est délicate et très importance pour la représentativité des résultats. La référence [Thomas et al., 1999]
base la caractérisation du chargement sur la définition de chargements dans des conditions élémentaires
pondérées par des pourcentages d’utilisation. Cette stratégie, dite stratégie de mixage, est très utilisée dans
l’industrie qui dispose de mesures dans des conditions bien définies représentatives d’un évènement particulier au cours de la vie de la structure. D’autres stratégies sont envisageables comme celles développées
dans [Nagode and Fajdiga, 1998, 2000; Nagode et al., 2001; Nagode and Fajdiga, 2006] où les matrices
Rainflow elles-mêmes sont définies par des densités de probabilité paramétrées. Les variables intervenant
dans la définition du chargement sont notées Xl .
Pour générer des réalisations représentatives de S, une réalisation {xm , xg , xl } des vecteurs aléatoires
{Xm , Xg , Xl } est tirée aléatoirement. Les vecteurs {xm , xg } caractérisent le modèle mécanique. A partir
Nicolas Gayton
Page 97/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
du chargement généré par le vecteur xl , l’Equivalent Fatigue Feq (xl , b, K, Neq ) permet de synthétiser le
chargement équivalent à Neq cycles sous l’hypothèse d’un modèle mécanique de comportement linéaire à
partir d’une courbe S − N de type Basquin nécessitant uniquement le coefficient b (la pente en log-log) et
du rapport K. Il est à noter que l’Equivalent Fatigue génère une erreur dans le cas d’un fonctionnement
non-linéaire. Lorsque cet Equivalent Fatigue est propagé dans le modèle mécanique, une réalisation de
S est obtenue en contrainte σeq (xm , xg , xl , b, K, Neq ). A partir de plusieurs réalisations des variables
aléatoires et en faisant fonctionner plusieurs fois le modèle mécanique de comportement un ensemble
de réalisations de σeq est obtenu permettant de caractériser la distribution de la sollicitation S de la
structure par la méthode du maximum du vraisemblance par exemple.
3.3.2
Distribution de la résistance
La distribution de la résistance R est obtenue à partir d’essais sur éprouvettes et d’une modélisation
de la courbe S − N . La distribution de R représente la distribution de la résistance à la fatigue en
contrainte à Neq cycles. L’équivalent de chaque point d’essais, représenté dans un diagramme S − N , est
recherché à Neq cycles en utilisant une courbe S − N associée. Dans la pratique, si une loi de Basquin est
choisie, chaque point de mesure est projeté parallèlement à la courbe S − N médiane jusqu’à obtenir son
équivalent à Neq cycles. L’ensemble des points projetés permet de définir une distribution de la résistance
à Neq cycles par la méthode du maximum de vraisemblance par exemple.
3.3.3
Estimation de la probabilité de défaillance
La méthode classique dite ”Stress-Strength Interference (SSI)” dans [Booker et al., 2001] est utilisée
pour évaluer la probabilité de défaillance. Cette méthode propose le calcul de l’intégrale suivante :
Pf =
Z
+∞
fS (s)FR (s)ds
(3.10)
−∞
où fS est la densité de probabilité de la sollicitation S et FR est la fonction de répartition de la résistance
R. Cette intégrale peut être évaluée par n’importe quelle méthode d’intégration permettant d’obtenir une
précision beaucoup plus faible que l’ordre de grandeur de la probabilité recherchée. Il est à noter qu’en
général des distributions classiques (gaussienne, lognormale, ...) sont choisies pour R et S ce qui rend
l’intégrale précédente évaluable analytiquement.
3.3.4
Limites de l’approche Contrainte - Résistance pour l’analyse fiabiliste
Même si la méthode Contrainte - Résistance est efficace dans de nombreux cas, elle présente deux
limites majeures. Premièrement, la probabilité de défaillance est extrêmement sensible au choix des lois de
distribution de R et S. Deuxièmement, l’influence des différentes variables aléatoires n’est pas accessible
car regroupée en deux quantités, d’une part la résistance et d’autre part la sollicitation.
Pour illustrer ces deux limites l’exemple d’une structure mécano-soudée en forme de ”L” a été
développé. Cette structure est sollicitée par un effort variable dans le temps noté F et la réponse mécanique
en contrainte σ(t) est définie par :
6lw
1
F (t)
+
σ(t) =
4(w v − v 2 ) w4 − (w − 2 v)4
19 décembre 2012
Page 98/172
(3.11)
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Variable
Distribution
Paramètres
V (mm)
Gauss
µV = 3 ; δV = 3%
W (mm)
Gauss
µW = 50 ; δW = 3%
L (mm)
Gauss
µL = 103 ; δL = 3%
P1
Uniforme
aP1 = 0% ; bP1 = 60%
R (MPa)
Gauss
µR = 180 ; δR = 10%
Tableau 3.1 – Définition des variables aléatoires du cas test d’illustration des limites de la méthode
Contrainte - Résistance. µX est la moyenne de la variable X, δX est le coefficient de variation de X, aP1
et bP1 sont les bornes de la loi de P1 .
(a) Matrice Rainflow du chargement le moins sévère M(0).
(b) Matrice Rainflow du chargement le plus sévère M(60).
Figure 3.4 – Matrices Rainflow extrêmes pour 0% (a) et 60% (b) de matrice M1 . Fm et Fa sont respectivement la moyenne et l’amplitude du chargement.
où v, w et l sont les variables géométriques. Dans cet exemple, le chargement, la géométrie et la loi de
comportement du matériau en fatigue (courbe S − N ) sont considérés aléatoires. Le tableau 3.1 présente
les données numériques du problème. Le chargement F (t) fonction du temps est défini par une stratégie
de mixage, pondérant 2 matrices Rainflow déterministes notées M1 et M2 associées à deux conditions
de fonctionnement différentes (M1 : conditions sévères, M2 : conditions peu sévères). Ces deux matrices
sont pondérées par l’intermédiaire d’un seul pourcentage d’utilisation P1 pour M1 , le pourcentage P2
pour M2 étant déduit de P1 par P2 = 1 − P1 . La matrice Rainflow virtuelle M(p1 ), représentative d’une
durée de vie complète est calculée par la relation suivante à partir d’une réalisation p1 du pourcentage
de conditions extrêmes d’utilisation :
M(p1 ) = p1 M1 + (1 − p1 ) M2
(3.12)
Les deux matrices Rainflow extrêmes utilisées pour les valeurs extrêmes de P1 sont présentées en figure
3.4. La courbe S − N matériau est caractérisée par un coefficient b = −0, 3 déterministe et le paramètre
K est fixé à 2,5 pour le calcul de l’Equivalent Fatigue. Les différentes valeurs numériques ont été fixées
de manière à obtenir une probabilité de défaillance faible de l’ordre de 10−6 . Des réalisations de la
Nicolas Gayton
Page 99/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
sollicitation σeq (v, w, l, p1 , b, K, Neq ) sont alors à calculées à l’aide du modèle mécanique. 100 réalisations
sont choisies pour être représentatives d’une utilisation dans l’industrie à partir d’un modèle mécanique
qui pourrait être coûteux en temps de calcul. Cette opération est répétée trois fois et trois échantillons
de σeq (échantillons (a), (b), (c), voir figure 3.5) sont obtenus. Trois types de lois sont ajustées (Gauss,
Weibull, Lognormale). Les critères d’ajustement AIC et BIC associés sont donnés dans les tableaux 3.2,
3.3 et 3.4 et permettent de conclure que les trois modélisations sont quasiment équivalentes en terme de
vraisemblance.
(a) Echantillon (a)
(b) Echantillon (b)
(c) Echantillon (c)
Figure 3.5 – Echantillons de σeq et densités de probabilité ajustées (gaussienne en trait continu, Weibull
en traits pointillés et lognormale en traits mixtes).
Distribution de S
AIC
BIC
Pf
E σR
E σS
Gauss
818
823
4, 9 × 10−6
−0, 39
Lognormal
820
826
53 × 10−6
−0, 61
−0, 33
−0, 63
1, 6 × 10
−0, 76
−0, 36
Weibull
819
825
−6
Tableau 3.2 – Echantillon (a) - Impact de la distribution de S sur la probabilité de défaillance et élasticités
de l’indice de fiabilité aux écarts-types σR et σS de R et S respectivement.
Les probabilités de défaillance sont calculées numériquement en fonction de l’échantillon et pour
19 décembre 2012
Page 100/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Distribution de S
AIC
BIC
Gauss
797
802
Lognormal
796
801
Weibull
802
807
Pf
−6
1, 5 × 10
12 × 10−6
0, 63 × 10−6
E σR
E σS
−0, 66
−0, 34
−0, 40
−0, 56
−0, 79
−0, 32
Tableau 3.3 – Echantillon (b) - Impact de la distribution de S sur la probabilité de défaillance et élasticités
de l’indice de fiabilité aux écart-types σR et σS de R et S respectivement.
Distribution de S
AIC
BIC
Gauss
773
779
Lognormal
779
784
Weibull
771
776
Pf
−6
0, 72 × 10
5, 0 × 10−6
−6
0, 23 × 10
E σR
E σS
−0, 71
−0, 29
−0, 48
−0, 49
−0, 84
−0, 23
Tableau 3.4 – Echantillon (c) - Impact de la distribution de S sur la probabilité de défaillance et élasticités
de l’indice de fiabilité aux écart-types σR et σS de R et S respectivement.
chaque modélisation proposée. Les résultats sont présentés dans les tableaux 3.2, 3.3 et 3.4. Les valeurs
de probabilité de défaillance obtenues varient de 10−5 à 10−7 ce qui ne permet pas réellement de conclure
quant au niveau de fiabilité de la structure. Les tableaux 3.2, 3.3 et 3.4 fournissent également les élasticités
de l’indice de fiabilité aux écarts-types de R et S. Ils montrent qu’il est de même difficile de conclure sur
la variable (entre R et S) dont l’aléa a le plus d’influence sur la probabilité de défaillance.
3.4
Méthode proposée
De manière à combler les limites de la méthode Contrainte - Résistance, une méthode plus générale a
été proposée dans le cadre des travaux de thèse de B. Echard. La méthode SSI du calcul de la probabilité
de défaillance est remplacée par la méthode AK-RM (chapitre 2) basée sur les techniques de simulation
(MCS / IS) permettant de prendre en compte les distributions des variables d’entrée sans regrouper les
variables en une partie sollicitation et une partie résistance. Ceci présente donc un double avantage en
évaluant plus précisément la probabilité de défaillance et les différents contributeurs à cette probabilité
via les élasticités de chaque variable. Cette approche très générale permet de prendre en compte n’importe
quelle loi de probabilité des variables d’entrée et tous les types de modélisation des courbes S − N .
3.4.1
Présentation du schéma général
La méthode proposée est présentée schématiquement en figure 3.6. Les différentes variables incertaines
géométrie, matériaux, chargement (regroupées dans les vecteurs Xm , Xg et Xl ) sont prises en compte.
L’incertitude sur la courbe S − N est aussi considérée à partir de modèles probabilistes de la littérature.
Les variables incertaines mises en œuvre sont regroupées dans le vecteur Xsn . La section 3.4.3 présente
quelques éléments sur ce sujet.
La première étape de cette approche est la génération d’une réalisation {xm , xg , xl , xsn } des vecteurs
des variables aléatoires. Un chargement F (xl ) est généré à partir de xl et le chargement équivalent
Nicolas Gayton
Page 101/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.6 – Approche proposée pour le calcul de la probabilité de défaillance et des facteurs d’importance.
Feq (xl , xsn , K, Neq ) est calculé à Neq cycles. Ce chargement équivalent est propagé dans le modèle
mécanique de comportement pour obtenir l’Equivalent Fatigue en contrainte σeq (xm , xg , xl , xsn , K, Neq ).
Cet Equivalent Fatigue en contrainte est comparé à la résistance équivalente à Neq cycles issue de la courbe
S − N en calculant la fonction de performance G. Ce synoptique général est piloté par une méthode de
simulation économique type AK-IS (chapitre 2) de manière à atteindre les faibles probabilités tout en
fournissant à moindre coût de calcul les élasticités de l’indice de fiabilité aux différents paramètres des
lois.
3.4.2
Résultats obtenus sur l’exemple de validation
Cette méthode est utilisée sur le cas test de la section 3.3.4. La courbe S − N est modélisée de façon
à être cohérente avec la modélisation de la variable R à Neq cycles utilisée pour l’application. Dans
cette application les résultats sont obtenus en utilisant la méthode AK-IS. La méthode IS peut aussi
être utilisée pour validation des résultats AK-IS vus les faibles temps de calcul du modèle mécanique.
Le tableau 3.5 permet la comparaison des résultats entre la méthode Contrainte - Résistance, pour
chaque échantillon à partir de la modélisation la plus adéquate basée sur les critères AIC et BIC, et la
procédure proposée à partir des méthodes IS et AK-IS. Les résultats obtenus valident encore une fois la
pertinence de la méthode AK-IS vis-à-vis de la méthode IS. La valeur numérique de probabilité obtenue est
19 décembre 2012
Page 102/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Méthode de fiabilité
NE
Pf
4
IS
5 × 10
AK-IS
82
SSI - échantillon (a) (Gauss)
100
SSI - échantillon (b) (lognormal)
100
SSI - échantillon (c) (Weibull)
100
δ%
−6
2, 00
0, 74 × 10−6
2, 00
0, 74 × 10
4, 9 × 10−6
12 × 10−6
0, 23 × 10−6
-
Tableau 3.5 – Résultats obtenus sur l’exemple de validation. AK-IS est comparé avec la méthode de tirage
d’importance (IS) et avec les résultats obtenus avec la méthode SSI sur les meilleures modélisations de S.
NE représente le nombre de calculs mécaniques nécessaire. δ est le coefficient de variation de l’estimateur
de la probabilité de défaillance.
Géométrie
Chargement
Fatigue
E σV
E σW
E σL
EbP1
E σR
−0, 039
−0, 070
−0, 004
−0, 310
−0, 811
Tableau 3.6 – Elasticités de l’indice de fiabilité à l’écart-type de chaque variable V , W , L et R et à la
borne supérieure bP1 de la variable P1 .
significativement différente des valeurs obtenues par la méthode SSI à partir des meilleures modélisations
des trois échantillons qui varient d’un facteur 1 à 50. Les valeurs des élasticités (voir figure 3.6) montrent
que la courbe S − N a le plus d’impact sur la probabilité de défaillance. Les paramètres géométriques ont
peu d’influence sur la fiabilité alors qu’il est nécessaire d’investiguer en profondeur la borne supérieure
de la variable P1 qui a logiquement beaucoup d’importance sur la probabilité de défaillance. Cet exemple
montre l’intérêt de l’approche globale proposée qui ne nécessite pas d’ajustement d’une loi de probabilité
sur R et S et fournit une probabilité de défaillance unique à moindre coût de calcul ainsi que les facteurs
d’influence qui fournissent une information très importante sur les variables prépondérantes sur la fiabilité
de la structure.
3.4.3
Quelques éléments sur la modélisation des courbes S-N et du chargement
Comme le démontre le cas test de validation (ce sera aussi démontré dans les applications industrielles
exposées dans les sections suivantes), l’évaluation numérique de la fiabilité est très liée à la modélisation
stochastique du chargement et des courbes S − N . Sur la partie chargement, le lecteur pourra se référer
au rapport de thèse de B. Echard pour avoir davantage d’éléments notamment sur les travaux de Nagode. Une réflexion est actuellement en cours dans le cadre de la thèse CIFRE Manitowoc pour modéliser
le chargement s’appliquant sur une grue à tour. Voici quelques éléments relatifs à la modélisation stochastique de la courbe S − N . Le lecteur peut aussi se référer à [Sudret, 2011] pour de plus amples
informations.
En pratique, une courbe S − N stochastique est définie par :
• un modèle déterministe D (or D−1 ) caractérisant la tendance médiane de la courbe σ50% = D(N )
Nicolas Gayton
Page 103/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
ou N50% = D−1 (σ). Ce modèle peut être celui de Basquin σ50% = B N b pour un nombre donné de
cycles N , ou N50% = (σ/B)1/b pour un niveau de chargement σ nominal défini.
• une distribution statistique modélisant l’incertitude de comportement à la fatigue autour de la
tendance médiane. Cette distribution peut, par exemple, être gaussienne ou lognormale pour les cas
les plus courants et son incertitude peut être définie à écart-type ou coefficient de variation constant
à N ou σ fixé.
Chacun de ces choix permet de définir un type de modélisation. Notons les modélisations les plus
courantes :
• Méthode ESOPE [AFNOR, 1991] : la distribution de la contrainte à nombre de cycle fixé est
considérée lognormale, c’est-à-dire gaussienne en log. Sa moyenne est donnée par la modélisation
de la tendance déterministe, son écart-type est considéré constant quel que soit N . Une variante est
la méthode ESOPE2 proposée dans le cadre des travaux de thèse de B. Echard. Cette modélisation
considère que le coefficient de variation est constant quel que soit N . La différence est visible
graphiquement en figure 3.7 où des iso-valeurs sont tracées.
• Modèle de Guédé [Guédé, 2005; Guédé et al., 2007] : cette modélisation semble davantage en accord
avec les moyens expérimentaux qui imposent une consigne en contrainte et mesurent un nombre de
cycles, l’inverse étant impossible et nécessite une hypothèse de courbe S − N pour la conversion.
La distribution du logarithme népérien du nombre de cycles à amorçage est supposée suivre une
loi gaussienne dont la moyenne est déduite de la loi médiane et dont le coefficient de variation est
constant quelle que soit la consigne en contrainte. La représentation graphique du modèle de Guédé
est donnée en figure 3.8 sur le même nuage de points que les courbes de la figure 3.7.
La différence visuelle entre les différentes modélisations existe et peut être quantifiée sur un nuage
de points donné grâce aux critères AIC et BIC. L’expérience acquise montre qu’il est difficile de choisir
la meilleure modélisation en utilisant ces critères alors que ce choix a de l’impact sur l’évaluation de la
fiabilité.
(a) ESOPE.
(b) ESOPE 2.
Figure 3.7 – Représentation graphique des modélisations ESOPE et ESOPE 2. La courbe en trait plein
représente la tendance médiane alors que les courbes en traits pointillés représentent les iso-valeurs à
2,5% et 97,5%.
19 décembre 2012
Page 104/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.8 – Représentation graphique du modèle de Guédé. La courbe en trait plein représente la tendance
médiane alors que les courbes en traits pointillés représentent les iso-valeurs à 2,5% et 97,5%.
3.5
Application à l’analyse fiabiliste d’un disque aubagé
Le premier cas d’étude industriel est proposé par la branche aviation de la SNECMA. Il s’agit de
l’étude du disque aubagé d’un moteur d’avion soumis à un champ de contrainte important à proximité
d’un trou d’évacuation d’huile. Le but de l’étude est de calculer la probabilité d’amorçage d’une fissure
dans le voisinage de ce trou dû à la répétition de cycles de décollage et d’atterrissage de l’avion. La figure
3.9 détaille la procédure utilisée et ses spécificités par rapport à la procédure générale de la figure 3.6. Les
différents choix sont détaillés ci-après. La difficulté majeure de cette application réside dans la proposition
d’une modélisation du chargement avec un nombre raisonnable de variables aléatoires de façon à pouvoir
être considérées par la méthode AK-IS.
Modélisation du chargement
Le disque aubagé est soumis à un effort statique de pré-charge ainsi qu’à un chargement de fatigue
lié aux effets centrifuges de décollage / atterrissage. Des analyses déterministes de sensibilité menées au
LMT ont montré que seul l’effet centrifuge avait de l’influence sur la réponse en contrainte de la structure.
Seul l’incertitude sur ce chargement est donc considérée dans cette étude.
Mission
A
B
C
D
E
Ωmax
1,028
1,012
1,000
0,990
0,975
T
33,1
14,4
0
-11,2
-28,7
Tableau 3.7 – Missions caractérisées par la vitesse de rotation maximale Ωmax et par la température T au
décollage. Les vitesses de rotation sont normées par rapport à une vitesse de référence et la température
représente l’écart par rapport à une température de référence.
L’effort centrifuge s’exerçant sur le disque est lié à la vitesse de rotation du moteur. Plus particulièrement, la vitesse de rotation du moteur est maximale au décollage pour atteindre la valeur notée
Ωmax . La vitesse de rotation décroı̂t ensuite jusqu’à l’atterrissage. Pour un vol de l’avion, le cycle de vitesse de rotation est donc considéré comme prenant les valeurs (0, Ωmax , 0). La valeur Ωmax est incertaine
Nicolas Gayton
Page 105/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.9 – Approche probabiliste utilisée pour la calcul de la probabilité de défaillance du disque aubagé
SNECMA.
19 décembre 2012
Page 106/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.10 – Séquence de cycles de vitesse de rotation Ω d’une suite de vols.
et est fonction des conditions météorologiques de température atmosphérique T au sol. Le chargement
en vitesse de rotation du disque aubagé est donc caractérisé par une succession de pics à R = 0 ef-
fectué Neq = 20000 fois (nombre de décollages effectués par un moteur durant sa vie et considéré comme
déterministe dans cette étude) comme le représente la figure 3.10. Pour caractériser l’aléa sur Ωmax , cinq
missions A, B, C, D, E ont été considérées en accord avec la SNECMA. Ces missions sont définies par
une température T et une vitesse maximale de rotation au décollage. Ces missions sont définies dans le
tableau 3.7. Les variables permettant la caractérisation du chargement sont les pourcentages d’utilisation
pA , pB , pC , pD , pE dans chacune de ces 5 configurations. Chaque avion a une base de référence et un
rayon d’action. Sa base peut être définie par une température moyenne µT et son rayon d’action par un
écart-type σT . Ces deux variables sont des variables aléatoires, uniforme sur [min (T) − 5; max (T) + 5]
pour µT (min (T) et max (T) sont les températures respectivement des missions A et E) et gaussien de
moyenne 16 et d’écart-type 4 pour σT . Le calcul des pourcentages pm , m = A, ..., E de chaque mission
s’effectue alors de la façon suivante :
fT (T m )
pm = P E
t
t=A fT (T )
(3.13)
La fonction fT permet d’extraire les occurrences de chaque mission par la relation suivante :
1
fT (T ) = exp −
2
T − µT
σT
2 !
(3.14)
Cette fonction est illustrée en figure 3.11 pour une réalisation des variables aléatoires µT et sigmaT .
Le chargement est complètement défini par les variables µT , σT . Il s’agit d’un chargement où chaque
cycle est défini à R = 0. L’utilisation de la courbe S − N permet alors de calculer l’Equivalent Fatigue
en vitesse de rotation noté Ωeq à R = 0.
Modélisation de la courbe S − N
La modélisation probabiliste de la courbe S −N a été mise en place à partir de 361 essais sur éprouvette
à R = 0. La tendance moyenne a été modélisée par une double loi de Basquin de la façon suivante :
Nicolas Gayton
Page 107/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.11 – Distribution des températures au décollage pour un avion donné. Les valeurs
{fT (T A ), fT (T B ), fT (T C ), fT (T D ), fT (T E )} sont utilisées pour définir les pourcentages d’occurrence à
l’aide de l’équation 3.13.
∆σ50% =



 Bi N bi for N ≤ NC
(3.15)


 Bs N bs for N > NC
Les quatre paramètres mis en jeu (2 pentes bi et bs et 2 ordonnées à l’origine Bi et BS en log-log) permettent de bien modéliser des essais à nombre restreint de cycles à amorçage et des essais à nombre de
cycles plus important. La modélisation de la dispersion a été effectuée en comparant les modélisations
ESOPE, ESOPE2 et Guédé. La méthode ESOPE2 fournit les meilleurs critères de vraisemblance AIC et
BIC. C’est donc celle qui a été retenue. La représentation de la tendance moyenne et de deux courbes fractiles est donnée en figure 3.12. La courbe S −N est donc entièrement définie par les variables déterministes
bi , bs , Bi et BS et par une réalisation de la variable aléatoire Uf .
Modèle mécanique
Le cycle équivalent en vitesse de rotation Ωeq est appliqué au modèle mécanique pour calculer la
contrainte mécanique significative de la fatigue proche du trou de deshuilage. Cette contrainte est la
contrainte principale maximale notée ∆σ1 . Les calculs mécaniques ont été effectués par le LMT Cachan. Des calculs préliminaires ont montré la très faible influence des paramètres géométriques sur cette
contrainte, les intervalles de tolérance étant extrêmement réduits. Le modèle mécanique est non linéaire
du fait du contact entre deux pièces du disque. Dans la pratique, le pré-serrage est tel qu’aucun glissement n’a lieu entre les pièces au cours d’un cycle. Le modèle est donc totalement linéaire réduisant ainsi
l’intérêt d’une maı̂trise du nombre de calculs mécaniques par les méthodes AK-RM. Le calcul a malgré
tout été effectué en comptant le nombre d’appels au modèle mécanique pour voir l’efficacité des méthodes
AK-RM.
Résultats de l’analyse de fiabilité
Les résultats de l’analyse de fiabilité sont reportés dans le tableau 3.8. Ces résultats sont normés par
la valeur de probabilité obtenue par le calcul FORM, valeur qui ne sera pas dévoilée pour des raisons
de confidentialité. La probabilité de défaillance ne permet pas l’utilisation de la méthode AK-MCS. La
19 décembre 2012
Page 108/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.12 – Modèle ESOPE2 ajusté sur les 361 points de mesures représentés par des ronds blancs.
Trait continu : tendance moyenne, traits pointillés : courbes fractiles à 2,5% et 97,5%
méthode AK-IS a été utilisée de façon à obtenir les facteurs d’importance fournis dans le tableau 3.9.
La méthode AK-SS a aussi été utilisée pour confirmer les résultats obtenus. Ces résultats montrent la
correction FORM apportée par la méthode AK-IS avec peu de calculs complémentaires. La similarité des
résultats AK-IS et AK-SS montrent qu’un seul point de défaillance le plus probable est prépondérant. Les
sensibilités apportent un résultat intéressant : les aléas de température au sol au cours du décollage n’ont
pas d’impact sur la fiabilité du disque (sous l’hypothèse d’une modélisation du chargement représentative
de la réalité). Par contre, la fiabilité de la structure est totalement liée à la dispersion de la tenue en
fatigue du matériau.
Méthode
NE
FORM
9
Pfnorm
δ
1, 00
-
4
0, 66
2, 41%
SS
3, 5 × 106
0, 65
2, 10%
AK-IS
54
0, 66
2, 41%
AK-SS
451
0, 66
10, 56%
IS
1, 2 × 10
Tableau 3.8 – Résultats de l’analyse de fiabilité dans le cas du disque aubagé. Les probabilités de
défaillance obtenues sont normées par rapport à la probabilité obtenue avec FORM (i.e. Φ(−β)) pour
des raisons de confidentialité.
3.6
Application à l’analyse fiabiliste d’une ailette de divergent
La cas d’étude présenté concerne une ailette de divergent de moteur de fusée développée par la
SNECMA (voir figure 3.13). Cette structure est sollicitée par un déplacement transverse et a déjà fait l’objet d’analyses dans les références [Bignonnet and Lieurade, 2007; Bignonnet et al., 2009; Lefebvre et al.,
Nicolas Gayton
Page 109/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Chargement
Fatigue
Ebµ T
EσσT
E σU f
−4, 8 × 10−2
−3, 7 × 10−4
−0, 973
Tableau 3.9 – Disque aubagé. Elasticités de l’indice de fiabilité aux écarts-types des lois des variables
aléatoires µT , σT et Uf .
2009; Ferlin et al., 2009] en utilisant la méthode Contrainte - Résistance. Le but de cette analyse est
le calcul de la probabilité d’amorçage d’une fissure dans cette structure sous chargement aléatoire en
déplacement, représentant un vol de la fusée. La difficulté majeure de cette application réside également
dans la proposition d’une modélisation du chargement permettant une bonne représentativité de la variabilité observée lors des 9 vols et mettant en œuvre un nombre raisonnable de variables aléatoires. La
figure 3.14 présente l’adaptation de la procédure générale proposée à ce cas d’étude. Les différentes étapes
sont précisées ci-après.
Figure 3.13 – Ailette de divergent. Le déplacement est appliqué sur la surface blanche selon la flèche. La
surface en damier est encastrée.
Modélisation du chargement
Neuf temporels de chargement issus de neuf vols différents sont à disposition (voir figure 3.15(a)) pour
caractériser l’incertitude sur le chargement. Le projet DEFFI a proposé une modélisation en prenant en
compte trois situations différentes de vitesse, d’angle de lacet et d’angle d’incidence (voir figure 3.16)
soit 27 configurations élémentaires au total. Des matrices Rainflow ont été extraites des neufs vols correspondants à chacune des 27 configurations. Les occurrences de chaque configurations ont ensuite été
définies par des variables aléatoires uniformes dont les bornes ont été définies en accord avec les mesures. La génération d’une matrice Rainflow virtuelle se fait ensuite par tirage aléatoire des pourcentages
d’utilisation et par choix aléatoire d’une matrice Rainflow élémentaire issue des mesures. Le principal
inconvénient de cette démarche réside dans le nombre relativement important de variables aléatoires mis
en jeu (proche de 27). Cet inconvénient n’en est pas un dans le cas de l’approche Contrainte - Résistance
19 décembre 2012
Page 110/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.14 – Procédure utilisée pour l’analyse de fiabilité de l’ailette de divergent.
Nicolas Gayton
Page 111/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
mais est plus difficilement envisageable avec la procédure proposée de pilotage des réalisations de chaque
variable.
(a) Déplacement.
(b) Vitesse, angle d’incidence et de lacet au cours du
temps.
Figure 3.15 – Mesures disponibles sur neuf vols.
D’autres approches de modélisation ont donc été envisagées. Les travaux de Nagode [Nagode and Fajdiga,
1998, 2000; Nagode et al., 2001; Nagode and Fajdiga, 2006] peuvent être envisagés en paramétrant directement les matrices Rainflow. Inspiré de ces travaux, un paramétrage beaucoup plus simple a été proposé
par l’intermédiaire d’un coefficient dit de sévérité du chargement. Pour chaque temporel de déplacement,
des matrices Rainflow sont extraites et transformées en cycles de déplacements symétriques à R = −1.
Neuf vecteurs d’amplitudes de déplacement symétrique sont donc obtenus {d′(i) , i = 1, . . . , 9}. La fonc-
tion de répartition de ces vecteurs est tracée en figure 3.17. L’idée de base est le paramétrage de ces
fonctions de répartition en introduisant le coefficient de sévérité CS permettant de générer aléatoirement
une nouvelle fonction de répartition virtuelle de déplacements symétriques. La figure 3.18 présente graphiquement la fonction de répartition médiane en trait continu et une réalisation de cette fonction de
répartition pour un coefficient de sévérité cS = 2.
Pour valider cette proposition de chargement, l’Equivalent Fatigue en déplacement a été calculé pour
1000 réalisations de la variable CS . L’histogramme empirique de la figure 3.19 a été obtenu. L’Equivalent
Fatigue a aussi été calculé sur les mesures des neufs vols. Les points noirs de la figure 3.19 sont obtenus
et comparés à la distribution virtuelle obtenue. Les points obtenus sont bien positionnés dans cette
distribution et la dispersion virtuelle générée semble être en accord avec la dispersion des points de
mesure, validant ainsi l’approche proposée.
Modélisation de la courbe S − N
Un ensemble de 80 tests en fatigue sur éprouvettes est disponible. Le critère de Smith-Watson-Topper
(SWT) est le critère de fatigue utilisé pour ce cas test (voir la section suivante pour sa définition). Le
19 décembre 2012
Page 112/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.16 – Définition des plages de configuration en vitesse, angle d’incidence et lacet.
modèle de Basquin est choisi pour la représentation de la tendance de la courbe S − N . La méthode
ESOPE2 est utilisée pour la modélisation de la dispersion des points autour de cette tendance car elle
conduit aux meilleurs critères AIC et BIC. La représentation de la tendance moyenne et des courbes
iso-probabilistes à 2,5% et 97,5% est donnée sur la figure 3.20.
Propriétés des matériaux
Le matériau est supposé suivre une loi de comportement élasto-plastique de type Chaboche [Chaboche,
1989] définie par :
σ = Ry +
C1
tanh (C2 ǫp )
C2
(3.16)
où Ry est la limite d’élasticité, C1 et C2 sont les paramètres d’écrouissage considérés comme aléatoires
et ǫp est la déformation plastique calculée par le modèle mécanique. Des lois pour Ry , C1 et C2 ont
été ajustées par approche bayésienne à partir de mesures et d’avis d’expert. Des lois lognormales ont
été choisies et une corrélation non négligeable a été identifiée entre C1 et C2 . Les valeurs ne sont pas
communiquées pour des raisons de confidentialité. Une réalisation du vecteur des paramètres matériaux
est notée {ry , c1 , c2 }.
Modèle mécanique
L’Equivalent Fatigue en déplacement est appliqué au modèle mécanique. Ce modèle est caractérisé
par une réalisation {ry , c1 , c2 } du vecteur des variables matériaux et par des variables géométriques xg
considérées comme déterministes dans cette étude. Le modèle mécanique fournit l’évaluation du critère
de Smith-Watson-Topper défini par :
σSWT =
Nicolas Gayton
q
E σmax (ǫp + ǫe )
Page 113/172
(3.17)
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.17 – Fonction de répartition empirique des vecteurs {d′(i) , i = 1, . . . , 9}.
Figure 3.18 – Fonction de répartition médiane des amplitudes de déplacement (trait continu) et fonction
de répartition virtuelle tracée pour cs = 2.
Figure 3.19 – Distribution empirique d’Equivalent Fatigue en déplacement deq à Neq cycles. Les points
noirs représentent l’Equivalent Fatigue calculés sur les 9 vols.
19 décembre 2012
Page 114/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Figure 3.20 – Représentation de la tendance de la courbe S − N (trait continu) et des courbes isoprobabiliste à 2,5% et 97,5% (traits pointillés) dans le cas de l’ailette. Le critère de Smith-Watson-Topper
σSW T est utilisé.
où ǫe = ǫe (ry , c1 , c2 , xg , cs , b, Neq ) et ǫp = ǫp (ry , c1 , c2 , xg , cs , b, Neq ) sont les amplitudes de déformations
élastique et plastique au cours d’un cycle stabilisé. σmax = σmax (ry , c1 , c2 , xg , cs , b, Neq ) est la contrainte
maximale. E est le module d’Young du matériau, considéré comme déterministe.
Pour réduire les temps de calcul mécanique, le LMT Cachan utilise une stratégie multi-paramétrique
couplée à la méthode LATIN [Relun, 2011] alors que l’UTC utilise une stratégie basée sur l’approximation
des matrices de rigidité successives [Notin et al., 2012] mises en œuvre dans l’analyse non linéaire. Les
calculs ont été mis en place avec la stratégie développée par le LMT.
Figure 3.21 – Procédure de dialogue entre la méthode AK-IS et les algorithmes du LMT Cachan.
Résultats de l’analyse de fiabilité
Le couplage entre l’algorithme AK-IS de pilotage et les calculs mécaniques a été fait à distance selon
la procédure schématisée en figure 3.21. Le tableau 3.10 récapitule les variables aléatoires mises en jeu
dans cette analyse. La méthode AK-IS a été utilisée pour piloter les calculs mécaniques. La fonction de
performance G compare le critère de Smith-Watson-Topper en contrainte σSWT (uf , Neq ) à Neq cycles à
son équivalent en sollicitation rSWT (uf , Neq ) à Neq cycles.
Le tableau 3.11 présente les résultats. L’approximation FORM nécessite 19 appels à la fonction
de performance c’est-à-dire 16 appels au modèle mécanique puisqu’une modification de la variable Uf
n’engendre pas de nouveau calcul mécanique. Les probabilités obtenues sont normées par rapport à la
Nicolas Gayton
Page 115/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Variables aléatoires
Appellation
Distribution
Ry
limite d’élasticité
Lognormale
C1
Variable d’écrouissage 1
Lognormale
C2
Variable d’écrouissage 2
Lognormale
CS
Coefficient de sévérité
Gaussienne
Uf
Paramètre de la courbe S − N
Gaussienne
Tableau 3.10 – Récapitulatif des variables aléatoires du cas test de l’ailette.
Méthode
NE
Pfnorm
δ
FORM
16
1
-
AK-IS
27
1.01
2.5%
Tableau 3.11 – Résultats de l’analyse de fiabilité dans le cas de l’ailette. Les probabilités de défaillance
sont normées par rapport à la probabilité FORM pour des raisons de confidentialité.
probabilité FORM pour des raisons de confidentialité. La méthode AK-IS nécessite uniquement 9 calculs supplémentaires pour classer les 104 tirages du tirage d’importance. Les résultats FORM et AK-IS
sont très proches indiquant la faible non linéarité de la fonction de performance vis-à-vis des variables
aléatoires. AK-IS a permis de valider le résultat FORM.
Les résultats du calcul des élasticités sont présentés dans le tableau 3.12. Ils montrent le très faible
impact de la variabilité des variables matériaux sur la fiabilité et au contraire la très forte influence des
variables permettant la définition de la courbe S − N et du chargement, conclusion observée sur tous les
cas test académiques et industriels. Un travail fondamental doit donc être fait pour améliorer et valider
ces deux modélisations car le résultat en dépend fortement.
Le gain en temps de calcul entre la méthode IS et AK-IS est environ d’un rapport 370. Un calcul
IS complet couplé avec un modèle ABAQUS aurait nécessité 140 jours de calcul. Le temps de calcul de
AK-IS avec Abaqus aurait été de 9 heures et le couplage entre la stratégie AK-IS et les méthodes avancées
du LMT permet d’effectuer le calcul en 2,25 heures soit un gain considérable.
3.7
Conclusion et perspectives
Ce chapitre a présenté une synthèse de mes activités de recherche dans le domaine de l’analyse de
fiabilité des structures sollicitées en fatigue. Ces travaux sont issus pour partie des travaux de thèse de
Doctorat de B. Echard et sont poursuivis dans le cadre de la thèse de Doctorat de S. Bucas en convention
CIFRE avec la société Manitowoc.
Ces travaux ont permis principalement de proposer une alternative à la méthode Contrainte - Résistance
pour évaluer avec plus de confiance la probabilité de défaillance d’une structure sollicitée en fatigue ainsi
que les facteurs d’importance permettant d’identifier les variables dont le poids est très important sur la
probabilité de défaillance. Cette stratégie a été couplée aux méthodes AK-RM pour obtenir ces résultats
de façon économique c’est-à-dire avec le moins de calculs mécaniques possibles.
19 décembre 2012
Page 116/172
HDR, Nicolas Gayton
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Chargement
Fatigue
2
αR
y
Matériau
2
αC
1
2
αC
2
2
αC
S
2
αU
f
2, 5 × 10−5
1, 6 × 10−5
0, 4 × 10−5
0, 270
0, 729
Tableau 3.12 – Facteurs d’importance (αi2 ) des différentes variables aléatoires.
Les différents cas tests académiques et industriels (un autre cas test industriel non présenté dans ce
rapport a été traité dans le cadre de l’action de transfert de technologie avec la SNECMA) montrent tous
que :
• les variables géométriques n’ont que peu d’impact sur la probabilité de défaillance (pour des intervalles de tolérance classiques) ;
• la probabilité de défaillance est fortement induite par les variables entrant dans la définition du
chargement et de la courbe S − N .
Les conclusions précédentes permettent la définition des perspectives de ces travaux. Il est très difficile
via les critères AIC et BIC à disposition de justifier l’utilisation d’une modélisation de courbe S − N
particulière, de même pour la définition du chargement qui influe forcément énormément sur les résultats
fiabilistes. Les perspectives s’articulent donc autour de deux voies principales :
• la justification de la modélisation de la courbe S − N probabiliste ;
• la justification de la modélisation stochastique du chargement pour une analyse de fiabilité. L’uti-
lisation des travaux de Nagode ainsi que l’utilisation de chaı̂nes de Markov dans ce contexte sont à
examiner en profondeur.
Nicolas Gayton
Page 117/172
19 décembre 2012
Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue
Synthèse du chapitre
Objectif. Proposer une démarche d’analyse probabiliste des structures sollicitées en fatigue
permettant de donner une estimation plus précise de la probabilité de défaillance tout en
fournissant les sensibilités de la probabilité de défaillance aux différents écarts-types des lois.
Méthodologie. Prise en compte de ce type de problème en remontant d’un niveau d’échelle
d’observation par rapport à la méthode Contrainte - Résistance. Utilisation de la méthode
AK-IS pour piloter le synoptique de calcul proposé.
Résultats obtenus. Un synoptique de calcul couplé à la méthode AK-IS pour obtenir la
probabilité de défaillance et les facteurs d’importance à moindre coût.
Contexte de ces travaux
• Thèse CIFRE CETIM / UTC / IFMA de A. Notin soutenue en mai 2011.
• Projet ANR APPROFI, thèse de B. Echard.
• Thèse CIFRE S. Bucas avec la société Manitowoc.
• Master Recherche de S. Bucas.
Production scientifique
• 3 revues référencées ISI :
– ECHARD B., GAYTON N., LEMAIRE M., RELUN N., A combined Importance Sampling and Kriging reliability method for small failure probabilities with time
demanding numerical models, Reliability Engineering and System Safety, accepté le
26/10/2012.
– ECHARD B., GAYTON N., LEMAIRE M., AK-MCS : an Active learning reliability
method combining Kriging and Monte Carlo Simulation, Structural Safety, Vol 33,
pages 145-154, 2011.
– GAYTON N., LEMAIRE M., Reliability assessment of structures subjected to fatigue failure, Ships and Offshore Structures, Vol 4(3), pages 229-239, 2009.
• 4 conférences internationales
19 décembre 2012
Page 118/172
HDR, Nicolas Gayton
Chapitre 4
Analyse des tolérances par calcul du
taux de non conformité
Sommaire
4.1
Introduction
4.2
Méthode APTA pour la modélisation des lots de fabrication . . . . . . . . 121
4.3
4.4
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.2.1
Capabilités et zone de conformité des lots . . . . . . . . . . . . . . . . . . . . . 121
4.2.2
Présentation des spécificités de la grande série . . . . . . . . . . . . . . . . . . . 122
4.2.3
Brève revue bibliographique sur l’analyse des tolérances . . . . . . . . . . . . . 122
4.2.4
La méthode APTA Advanced Probability based Tolerance Analysis . . . . . . . 125
4.2.5
Illustration de la méthode APTA sur un exemple académique . . . . . . . . . . 130
4.2.6
Application à l’analyse des tolérances d’un système sans jeu . . . . . . . . . . . 131
4.2.7
Conclusion sur la méthode APTA
. . . . . . . . . . . . . . . . . . . . . . . . . 134
Analyse des tolérances des systèmes hyperstatiques avec jeux . . . . . . . 135
4.3.1
Revue bibliographique concernant la prise en compte des jeux . . . . . . . . . . 136
4.3.2
Nouvelle approche basée sur les méthodes de fiabilité système . . . . . . . . . . 138
4.3.3
Application à un connecteur RADIALL . . . . . . . . . . . . . . . . . . . . . . 140
4.3.4
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Synthèse du chapitre
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
119
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
4.1
Introduction
Dans l’industrie mécanique, les exigences d’un client vis-à-vis d’un système mécanique sont définies
par des exigences fonctionnelles permettant de garantir le bon fonctionnement du produit et par des
exigences qualité permettant de quantifier la robustesse de la conception vis-à-vis des aléas de fabrication
autorisés.
Les exigences fonctionnelles sont traduites par l’intermédiaire de chaı̂nes de cotes. Ces chaı̂nes de
cotes mettent en œuvre des grandeurs d’intérêt d’un point de vue fonctionnel notées Y . Ces grandeurs
d’intérêt sont fonction de n cotes élémentaires notées Xi rassemblées dans le vecteur X et de p variables
de jeu notées di rassemblées dans le vecteur d caractérisant la position relative des pièces les unes par
rapport aux autres dans le système mécanique :
Y = f (X, d)
(4.1)
Cette relation peut mettre en œuvre une fonction f linéaire ou non, explicite ou non lorsque l’évaluation
de cette fonction nécessite une résolution numérique particulière (par la méthode de éléments finis
par exemple) ou l’utilisation d’un module CAO. Cette grandeur d’intérêt permet alors la définition
mathématique des exigences fonctionnelles sous la forme :
Y ∈ [LSLY ; U SLY ]
(4.2)
où LSLY et U SLY sont les bornes fonctionnelles, l’une des deux bornes de l’intervalle pouvant être
infinie. Le bon fonctionnement d’un système mécanique complexe met naturellement en œuvre plusieurs
grandeurs d’intérêt.
Les exigences qualité formulées par le client sont définies par une probabilité maximum admissible que
le produit ne puisse remplir sa fonction. Cette probabilité notée PD est appelée Taux de Non Conformité
(TNC) et est définie mathématiquement par :
PD = Prob(Y ∈
/ [LSLY ; U SLY ])
(4.3)
Le calcul de ce Taux de Non-Conformité (TNC) s’effectue en supposant que chaque cote Xi est conforme
à ses spécifications. En fabrication de grande série, chaque cote Xi est définie par sa valeur nominale Ti ,
par son intervalle de tolérance ti (défini par la borne supérieure U SLi diminuée de la borne inférieure
LSLi , ti = U SLi − LSLi ) et par deux exigences de capabilité permettant de contrôler les caractéristiques
statistiques (écart-type σi et décalage de moyenne δi = µi − Ti , mi étant la moyenne de la distribution
de la cote Xi ) de chaque lot de fabrication dont elle est issue. Ces notions sont abordées en section 4.2.1.
Dans un monde industriel très compétitif, les entreprises du secteur de la mécanique s’intéressent de
plus en plus à ce taux de non conformité pour des raisons économiques et environnementales en maı̂trisant
les retours garanties et les rebuts de fabrication. Plus particulièrement, l’analyse des tolérances permet
de répondre à plusieurs questions :
• Analyse de la qualité : quel est le niveau de qualité d’un sous-ensemble, produit ou mécanisme ?
• Analyse de sensibilité : quelles sont les cotes, dimensions ou variables importantes vis-à-vis du
TNC ? Quelles sont les cotes critiques de la conception qui doivent être surveillées en priorité ?
Quelles sont les cotes dont la non conformité est catastrophique pour le niveau de qualité ?
19 décembre 2012
Page 120/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Fiabilité des structures
Analyse des tolérances
Variables aléatoires
Cotes conformes aux spécifications
Probabilité de défaillance
Taux de non conformité
. Fonction de performance
Exigence fonctionnelle
Fiabilité système
Analyse des tolérances d’un système complet
Analyse de sensibilité stochastique
Définition des cotes critiques
Conception basée sur la fiabilité
Synthèse des tolérances
Tableau 4.1 – Mise en relation des vocabulaires utilisés en fiabilité des structures et analyse des tolérances.
• Réglage du niveau de qualité : quels intervalles de tolérance ou exigences de qualité doivent
être définis en relation avec un certain TNC ? Cette problématique est aussi appelée synthèse des
tolérances.
Les méthodes de fiabilité, développées en général dans un contexte de résistance mécanique des structures, rassemblent des outils et méthodes qui permettent de façon générale d’introduire l’incertain dans
des modèles physiques. Le taux de non-conformité relatif à l’exigence fonctionnelle de tenue
mécanique est appelée la probabilité de défaillance. Les problèmes d’analyse des tolérances et de
fiabilité des structures sont très proches. Le tableau 4.1 met en relation les vocabulaires utilisés dans les
deux disciplines.
L’objectif de ce chapitre est de présenter plusieurs méthodologies et applications des méthodes fiabilistes dans le cadre de l’analyse des tolérances des systèmes mécaniques. Ces travaux ont été réalisés
dans le cadre des travaux de thèse de Paul Beaucaire. Ils sont présentés en deux parties. Tout d’abord ce
chapitre aborde le problème de la gestion des lots de fabrication en grande série dont les caractéristiques
sont elles mêmes incertaines du fait des aléas de fabrication entre les lots (différents régleurs, différentes
conditions météo, différents lots matières, usure des outillages, ...). La stratégie de calcul mise en place,
nommée APTA Advanced Probability - based Tolerance Analysis of products, est présentée sur deux cas
tests issus de mécanismes sans jeu. La seconde partie de ce chapitre est dédiée à l’analyse des tolérances
des systèmes mécaniques avec jeux. Une stratégie innovante, au périmètre restreint, est présentée en utilisant des techniques de fiabilité système. Les problématiques de sensibilité et de synthèse des tolérances
ont été abordées dans les travaux de Paul Beaucaire mais ne sont pas rapportées dans ce document.
4.2
4.2.1
Méthode APTA pour la modélisation des lots de fabrication
Capabilités et zone de conformité des lots
La passage progressif des méthodes arithmétiques de justification des intervalles de tolérance aux
méthodes statistiques a été accompagné sur les plans de définition par l’ajout d’exigences de capabilité permettant de contrôler les distributions statistiques des lots des pièces fabriquées. Les niveaux de
capabilité Cpi et Cpki d’un lot sont définis pour la dimension Xi par :
Cpi =
Nicolas Gayton
ti
6σi
Page 121/172
(4.4)
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.1 – Représentation de la zone de conformité d’un lot de fabrication (figure de gauche). Un lot
est considéré conforme si ses caractéristiques statistiques le positionnent dans ce domaine. Présentation
par des carrés de 10 lots de fabrication conformes (figure de droite).
et :
Cpki =
ti /2 − |δi |
3σi
(4.5)
où mi , δi , σi sont respectivement la moyenne, le décalage de moyenne et l’écart-type de Xi . Sur ces deux
équations, il est aisé de voir que Cpi ≥ Cpki quel que soit le lot et Cpi = Cpki pour un lot centré sur
sa valeur nominale. Un lot de la dimension Xi est considéré conforme si ses niveaux de capabilité sont
(r)
(r)
(r)
(r)
supérieurs aux exigences notées Cpi et Cpki , c’est-à-dire Cpi ≥ Cpi et Cpki ≥ Cpki . Ces inégalités peuvent
être représentées dans un diagramme (δi , σi ) permettant ainsi la définition de la zone de conformité
(r)
(r)
représentée en figure 4.1. Ce domaine a une forme trapézoı̈dale qui devient triangulaire si Cpki = Cpi .
Un lot est considéré conforme s’il est positionné dans ce domaine.
4.2.2
Présentation des spécificités de la grande série
Dans le domaine de la grande série, la fabrication par lots engendre une spécificité majeure : les lois
de probabilité de chaque cote ont des paramètres variables en fonction de l’instant de fabrication.
La figure 4.2 montre un historique de fabrication de 10 lots d’une cote dont les bornes sont [19,9 - 20,1].
Ces différents lots de fabrication ont été positionnés par des carrés sur la zone de conformité dans la figure
4.1 (droite). Les moyennes des lois ainsi que les écarts-types apparaissent clairement elles-mêmes fonction
de l’instant et des conditions de fabrication. La question du choix de la loi statistique des dimensions à
considérer pour le calcul du TNC se pose. Le TNC est donc une fonction qui dépend des écarts-types
σi et des décalages de moyenne δi des cotes Xi , les lois de probabilité des différentes variables étant
communément considérées gaussiennes.
4.2.3
Brève revue bibliographique sur l’analyse des tolérances
Fort heureusement pour les services de production, il existe une infinité de lots de fabrication conformes
vis-à-vis des exigences de capabilité. Pour calculer le TNC, des hypothèses doivent être faites sur les
distributions statistiques des dimensions. Plusieurs hypothèses peuvent être trouvées dans la littérature.
Le lecteur pourra trouver un état de l’art sur ce sujet dans la référence [Nigam and Turner, 1995] et les
différentes modélisations proposées peuvent être regroupées de la façon suivante :
19 décembre 2012
Page 122/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.2 – Historique des caractéristiques de 10 lots de fabrication dans l’intervalle de tolérance [19,920,1]. Chaque lot est représenté par des carrés en figure 4.1.
• Distribution uniforme sur l’intervalle de tolérance [Greenwood and Chase, 1987; Scholtz,
1995]. Il s’agit d’une modélisation très conservative d’un point de vue qualité. Cette modélisation
suppose qu’une dimension a autant de chance d’être localisée proche d’une de ses bornes que d’être
localisée proche de sa valeur nominale. Cette hypothèse est peu réaliste en production de grande série
et est très pessimiste pour évaluer le TNC. Elle est utilisée dans les méthodes dites arithmétiques.
• Distribution gaussienne centrée sur la valeur nominale. Le décalage de moyenne est considé-
ré nul, c’est-à-dire δi = 0. L’écart-type est considéré proportionnel à l’intervalle de tolérance en
utilisant un paramètre k tel que σi = ti /k. Cette modélisation, proposée par [Bender, 1968], a été
utilisée dans [J.M.Gilbert et al., 2005; Savage et al., 2006] dans différentes applications. k est en
général fixé à 6 correspondant à un niveau de capabilité de 1 du lot considéré. Cette modélisation
semble être optimiste car différents phénomènes (usure des outils, réglages, ...) conduisent à des
décalages de moyenne non nuls. Certains auteurs [Parkinson, 1982; Bennis et al., 2005] suggèrent
d’intégrer de la corrélation statistique entre les dimensions provenant d’une même pièce. D’autres
auteurs [Bender, 1968; Scholtz, 1995] s’interrogent sur la distribution statistique des dimensions :
non gaussienne, multi-modale, tronquée.
• Distributions gaussiennes décentrées [Greenwood and Chase, 1987; Scholtz, 1995; Ballu et al.,
2008]. Le décalage de moyenne a une importance considérable sur le calcul du TNC comme le
souligne [Graves and Bisgaard, 2000]. Plusieurs auteurs s’accordent sur le fait que l’écart-type est
lié aux capabilités du process de fabrication et que le décalage de moyenne peut varier entre des
bornes définies par les exigences de capabilité. Le décalage de moyenne est défini par [Scholtz, 1995]
par la relation |δi | = ηi ti /2, ηi étant un coefficient fixé a priori entre 0 et 1. ηi = 0, 2 a été suggéré
Nicolas Gayton
Page 123/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
par [Scholtz, 1995]. L’écart-type σi peut être déduit, en considérant que le niveau de capabilité vaut
Cpki = 1, grâce à la relation :
σi =
ti
(1 − η)
6
(4.6)
• Distribution dynamique [Gladman, 1979]. Cette modélisation est basée sur deux observations. La
première, comme évoqué dans le point précédent, concerne le lien entre l’écart-type de la distribution
et le process utilisé. La seconde observation concerne l’usure des outils modifiant progressivement le
décalage de moyenne de la distribution statistique jusqu’à ce que l’outil soit réparé. Le décalage de
moyenne δi est en conséquence une variable aléatoire qui peut varier entre une borne minimum et
un maximum. Dans la référence [Gladman, 1979], ce genre de modélisation est utilisé pour prédire
l’intervalle de variation de la grandeur fonctionnelle et le calcul du TNC associé à des bornes
fonctionnelles.
Les trois premières modélisations ont été largement utilisées pour calculer le TNC. Le premier inconvénient de ces modélisations est qu’il reste difficile de choisir parmi les trois possibilités sachant
que ce choix conditionne les résultats en terme de TNC. Il est tout aussi difficile de savoir quelle est la
modélisation la plus pessimiste. Le second inconvénient est que la variabilité des grandeurs statistiques des
dimensions (décalage de moyenne δi , écart-type σi ) au cours des lots de fabrication n’est pas considérée.
Le troisième inconvénient est que la connaissance du process de fabrication n’est pas considérée pour la
définition du modèle probabiliste des dimensions.
Pour illustrer ces propos et justifier la nécessité de la prise en compte des variabilités des propriétés
des lots, considérons l’exercice suivant. Un fournisseur doit livrer 1000 pièces en 10 lots différents. Ce
fournisseur s’engage sur 3000ppm c’est-à-dire qu’il a le droit de fournir 3 pièces hors tolérance. Le tableau
4.2 montre les niveaux de ppm de chaque lot. Quasiment un lot sur 2 ne respecte pas l’exigence qualité
de 3000ppm et pourtant au total, par un effet de moyenne, le nombre de pièces hors tolérance n’excède
pas 3. Il faut donc bien différencier le TNC ponctuel sur un lot et le TNC long terme sur un ensemble
de lots de fabrication, TNC que nous allons essayer d’évaluer dans la section suivante en nous basant sur
l’approche dynamique nommée APTA.
Pour toutes les références bibliographiques citées, le TNC est évalué en utilisant des hypothèses
déterministes sur les paramètres (δi , σi ) des lois. La probabilité obtenue est donc une probabilité conditionnée par la connaissance de δi , σi . Cette probabilité, dite court terme, ponctuelle ou encore conditionnée, est notée PD|δ,σ dans la suite. Pour des problèmes sans jeu, si Y = f (X) est une expression
Pn
linéaire (cas d’un empilage de pièces), c’est-à-dire Y = a0 + i=1 ai Xi , le TNC conditionné peut être
calculé par la relation suivante :
PD|δ,σ
=
=
Prob(Y (δi , σi ) ≤ LSLY ) + Prob(Y (δi , σi ) ≥ U SLY )
µY (δi ) − U SLY
LSLY − µY (δi )
+Φ
Φ
σY (σi )
σY (σi )
(4.7)
où Φ est la fonction de répartition de la gaussienne centrée réduite, µY est la valeur moyenne de Y
Pn
Pn
(µY (δi ) = a0 + i=1 ai (Ti + δi )) et σY est l’écart-type de Y (σY (σi ) = i=1 a2i σi2 ) pour des variables
indépendantes. Le premier terme de l’équation 4.7 représente le TNC par rapport à la borne inférieure
et le second terme par rapport à la borne supérieure. Si l’exigence fonctionnelle est définie à l’aide d’une
seule borne, le terme inutile est enlevé de l’expression. Si f a une forme non linéaire, l’équation 4.7
ne peut pas être utilisée telle quel. Quelle que soit l’expression de f le calcul peut toujours se faire
19 décembre 2012
Page 124/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Numéro du lot (100 pièces / lot)
Niveau de ppm
Nombre de pièces non conformes
1
200
0,02
2
10000
1
3
100
0,01
4
5000
0,3
5
100
0,01
6
300
0,03
7
10000
1
8
2000
0,02
9
5000
0,5
10
100
0,01
TOTAL
2,90
.
Tableau 4.2 – Illustration de la problématique de calcul du TNC long terme.
par simulation de Monte Carlo qui peut devenir rapidement très consommatrice en temps de calcul
comme évoqué à plusieurs reprises dans les chapitres précédents. Pour réduire ce temps de calcul dans
le contexte de l’analyse des tolérances, les références [Savage et al., 2006; Ballu et al., 2008] proposent
d’utiliser la méthode FORM pour évaluer PD|δ,σ , consistant en une linéarisation des fonctions d’état-limite
G1 (Xi ) = f (Xi )−LSLY et G2 (Xi ) = U SLY −f (Xi ) autour du point de défaillance le plus probable. Une
autre méthode intéressante nommée SOTA [Glancy and Chase, 1999] peut être utilisée. Elle est basée sur
un développement de Taylor à l’ordre 2 de Y et sur une approximation de la distribution de Y par une
loi lambda généralisée à 4 paramètres permettant le calcul du TNC.
Cette courte revue bibliographique souligne les limites des méthodes existantes pour prendre en compte
les variabilités des paramètres δi , σi , caractérisant le process de fabrication, dans l’analyse des tolérances.
En se basant sur des outils communément utilisés en fiabilité, une méthode innovante nommée
APTA - Advanced Probability based Tolerance Analysis [Gayton et al., 2011a] est proposée pour intégrer
les variabilités de δi , σi dans le calcul du TNC.
4.2.4
La méthode APTA Advanced Probability based Tolerance Analysis
Définition du domaine de variation
Les caractéristiques des lots de fabrication peuvent potentiellement décrire l’ensemble de la zone de
conformité représentée dans la figure 4.1. Cependant, dans la pratique, l’écart-type d’un lot ne peut pas
descendre en dessous d’une certaine valeur notée σimin correspondant à une valeur maximale de niveau de
max
capabilité notée Cpi
obtenue dans des conditions optimales d’utilisation. La figure 4.3 représente alors
le domaine appelé domaine de variation noté VD constituant réellement le domaine dans lequel les lots
de fabrication peuvent varier dans la pratique.
Nicolas Gayton
Page 125/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.3 – Définition du domaine de variation VD.
Formulation mathématique du TNC long terme
L’objectif de la méthode APTA Advanced Probability based Tolerance Analysis [Gayton et al., 2011a]
est donc de prendre en compte les variabilités des caractéristiques des lots de fabrication pour évaluer
un taux de non conformité PD long terme plutôt qu’un taux de non conformité conditionné PD|δ,σ court
terme. Dans la suite chaque lot de fabrication est supposé être distribué selon une loi gaussienne de
moyenne δi et d’écart-type σi . La méthode peut être aussi utilisée pour des variables non gaussiennes.
Les deux quantités δi et σi sont considérées comme des variables aléatoires définies par une loi de probabilité jointe dont la densité est notée hδ,σ (δi , σi ) dépendant du process de fabrication. Cette densité de
probabilité est définie sur le domaine de variation VD et vaut zéro à l’extérieur.
Soit les évènements suivants :
• A : l’exigence fonctionnelle n’est pas satisfaite (Y est hors tolérance) ;
• dBi : le décalage de moyenne du lot de Xi appartient à l’intervalle [δi ; δi + dδi ] et l’écart-type
appartient à l’intervalle [σi ; σi + dσi ]
• dB : constitue l’intersection des évènements dBi , dB : ∩ni=1 dBi pour toutes les dimensions.
La probabilité de l’évènement dBi est définie par :
Prob(dBi ) = hδ,σ (δi , σi )dδi dσi
et :
Prob(dB) =
n
Y
hδ,σ (δi , σi )dδi dσi
(4.8)
(4.9)
i=1
sous l’hypothèse d’évènements dBi indépendants ce qui est en pratique vrai si les dimensions Xi ne sont
pas fabriquées dans la même opération. Alors, la probabilité de l’évènement A sachant l’évènement dB
est la probabilité conditionnée :
Prob(A|dB) = PD|δ,σ (δi , σi )
19 décembre 2012
Page 126/172
(4.10)
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
En utilisant le théorème de Bayes, il vient :
Prob(A ∩ dB) = Prob(A|dB)Prob(dB) = PD|δ,σ (δi , σi )
n
Y
hδ,σ (δi , σi )
(4.11)
i=1
et finalement par considération de l’ensemble des lots potentiels appartenant au domaine de variation
VD :
PD =
Z
VD
Prob(A ∩ dB) =
Z
PD|δ,σ (δi , σi )
VD
n
Y
hδ,σ (δi , σi )dδi dσi
(4.12)
i=1
Cette relation constitue l’expression mathématique du TNC selon l’approche APTA. Il s’agit d’une
espérance mathématique, c’est-à-dire d’une moyenne des taux de non conformité ponctuels ou conditionnels comme cela a été fait dans l’illustration de la section 4.2.3 et dans le tableau 4.2.
Le calcul de PD est numériquement délicat puisqu’il s’agit d’une intégrale de dimension 2n, n étant
le nombre de dimensions dans la chaı̂ne. Ce point est abordé en section suivante. Cependant le calcul
numérique n’est pas le point le plus délicat de cette approche qui est constitué par la détermination de
l’expression de la densité conjointe hδ,σ (δi , σi ). Pour ce faire, la première approche consiste pour l’industrie
à capitaliser des mesures sur des technologies utilisées par l’entreprise. C’est ce qui est actuellement
en cours chez Valeo SE où des mesures de plusieurs lots d’une même dimension sont en cours pour
pouvoir caractériser la densité hδ,σ (δi , σi ). Ceci demande un investissement considérable mais le gain
potentiel en terme d’intervalles de tolérance en vaut la chandelle (ceci est développé lors de la présentation
des applications dans les sections suivantes). Une autre alternative est de borner PD en cherchant les
caractéristiques statistiques δi , σi des lots appartenant à VD les pires d’un point de vue de PD . En effet :
PD =
Z
PD|δ,σ (δi , σi )
VD
n
Y
i=1
hδ,σ (δi , σi )dδi dσi ≤ maxδ,σ∈VD PD|δ,σ (δi , σi )
(4.13)
U
Cette borne supérieure, nommée PD
dans la suite, est obtenue pour les lots les plus décentrés possibles
max
). Avec cet écart-type le
c’est-à-dire ayant un écart-type le plus faible c’est-à-dire σi = σimin = ti /(6Cpi
décalage de moyenne maximum est donné par :
δimax
ti
=
2
(r)
1−
Cpki
max
Cpi
!
(4.14)
et :
U
PD
= PD|δ,σ (±δimax , σimin )
(4.15)
Le signe ± indique que le sens du décalage le plus pénalisant est à identifier en fonction du problème
U
à traiter. Outre le fait que la probabilité PD
est beaucoup plus simple à évaluer numériquement, elle
max
demande surtout une connaissance moindre du process puisque seul Cpi
doit être identifié par process.
Nous montrons dans les applications que cette borne supérieure de PD est très pénalisante.
Calcul numérique de PD
L’expression définie en équation 4.12 représente l’expression de l’espérance mathématique de la probabilité conditionnée PD|δ,σ (δi , σi ). Pour réduire le temps de calcul de cette intégrale de dimension 2n, le
Nicolas Gayton
Page 127/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
calcul de PD est effectué à l’aide d’une méthode de Monte Carlo de la façon suivante :
N
1 X
(k)
(k)
PD|δ,σ (δi , σi )
PD = E PD|δ,σ (δi , σi ) ≈ P̃D =
N
(4.16)
k=1
(k)
(k)
où δi , σi
sont simulés selon la densité conjointe hδ,σ (δi , σi ). Le nombre de simulations N doit être fixé
en accord avec la taille de l’intervalle de confiance à 95% défini par :
1, 96
1, 96
P̃D − √ σP ≤ PD ≤ P̃D + √ σP
N
N
(4.17)
où σP est l’écart-type de l’estimateur de PD défini par :
σP = P̃D
s
1 − P̃D
N P̃D
(4.18)
Dans les applications, N est fixé de façon à avoir un intervalle de confiance de taille inférieure à 1ppm.
(k)
(k)
Le calcul répété de PD|δ,σ (δi , σi ) peut se faire soit en utilisant l’équation 4.7 soit en utilisant une
approximation FORM ou SOTA si f est non linéaire. Pour ce calcul, la méthode de Monte Carlo n’est
absolument pas appropriée car devant être répétée un grand nombre de fois.
Le calcul effectué en équation 4.16, permet aussi, sans calcul supplémentaire, d’obtenir la probabilité que PD|δ,σ dépasse ponctuellement une certaine valeur (par exemple 10ppm), résultat qui intéresse
fortement les industriels pour connaı̂tre le risque d’avoir ponctuellement des lots de mauvaise qualité.
Application à un process de fabrication parfaitement stable
Pour un process de fabrication parfaitement stable dans le temps, le décalage de moyenne et l’écarttype des lois ont des caractéristiques constantes, c’est d’ailleurs le cas des modélisations de la littérature.
Dans un tel cas :
hδ,σ (δi , σi )
=
+∞ pour σi = σi0 et δi = δi0
=
0 sinon
(4.19)
Une représentation est fournie en figure 4.4. Le calcul du taux de non conformité devient :
PD = PD|δ,σ (δi0 , σi0 )
(4.20)
correspondant aux méthodes classiques de calcul du taux de non conformité avec :
• δi0 = 0 et σi0 = ti /6 pour une approche centrée avec Cpi = 1 ;
• δi0 = ηi ti /2 et σi0 = ti /6(1 − ηi ) pour une approche décentrée suggérée par [Scholtz, 1995].
Application à un process de fabrication à écart-type constant
Pour un process de fabrication évoluant à écart-type constant σimin et décalage de moyenne aléatoire,
c’est le cas des process lourds tels que les process d’injection ou d’emboutissage, la densité conjointe
hδ,σ (δi , σi ) = hδ,σ (δi , σimin ) peut prendre des expressions uniformes ou gaussiennes tronquées sur l’intervalle ±δimax défini en équation 4.14 comme illustré en figure 4.4.
19 décembre 2012
Page 128/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.4 – Principales densités conjointes de probabilité des décalages de moyennes et écarts-types.
Nicolas Gayton
Page 129/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.5 – Illustration académique.
.
X1
X2
Ti
6
4
ti
0,59
0,59
(r)
Cpi
(r)
Cpki
1
1
1
1
Tableau 4.3 – Paramètres de conception de l’illustration académique.
Application à un process de fabrication à écart-type et décalage de moyenne aléatoires
De façon générale, il est possible de définir une expression quelconque de hδ,σ (δi , σi ) sur tout le
domaine VD. Des représentations uniformes et gaussiennes sont représentées en figure 4.4.
Extension de la méthode APTA au tolérancement inertiel
La méthode APTA peut être étendue à d’autres indices de capabilité comme les indices de capabilité
inertiels [Pillet, 2004] définissant une zone de conformité circulaire. Le lecteur pourra trouver une analyse
plus approfondie et comparative dans la référence [Gayton et al., 2011b] en utilisant la méthode APTA
sur les deux domaines.
4.2.5
Illustration de la méthode APTA sur un exemple académique
Pour illustrer les intérêts de la méthode sur un exemple simple, considérons l’assemblage de la figure 4.5
constitué de deux pièces de largeurs X1 et X2 . Les paramètres de conception sont définis arbitrairement
dans le tableau 4.3.
L’exploration de la zone de conformité est effectuée et les valeurs des taux de non conformité sont
0
fournies graphiquement en figure 4.6 (gauche) en fonction de la valeur d’écart-type définie par Cpi
.
Les TNC obtenus à partir des distributions centrées sont très proches de zéro, ce qui remet en cause
la pertinence des distributions centrées proposées dans la littérature. Par contre, sur le pourtour du
0
U
triangle, le TNC augmente fortement lorsque Cpi
diminue. Ceci confirme la définition de PD
obtenu pour
le décalage de moyenne le plus important et donc l’écart-type le plus faible.
0
Les résultats de l’approche APTA, avec écart-type constant Cpi
et décalage de moyenne uniformément
répartis, sont fournis en figure 4.6 (droite). Les résultats montrent l’écart entre un TNC au pire des cas
U
statistiques PD
et un TNC fourni par l’approche APTA en moyennant les TNC ponctuels sur tout
le domaine de variation. Les résultats de l’approche APTA avec écart-type et décalage de moyenne
19 décembre 2012
Page 130/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.6 – Illustration académique - Taux de non conformité ponctuels à gauche et APTA avec décalage
de moyenne uniformément répartis à droite.
Résultats APTA
Résultats de la littérature
PD
U
PD
Dist. uniforme dans ti
Dist.
gaussienne
centrée avec σi = ti /6
Distribution
gaussienne décentrée avec
Cpki = 1 et η = 0, 2
33ppm
1551ppm
18000ppm
318ppm
291ppm
Tableau 4.4 – Comparaison APTA / littérature sur illustration académique.
uniformément répartis sur le domaine de variation sont fournis en figure 4.7 en fonction de la valeur de
0
Cpi
. Les différences sont encore plus importantes par rapport à une approche au pire des cas statistiques
montrant ainsi les gains potentiels de l’utilisation de ce genre d’approche.
Le tableau 4.4 compare les TNC obtenus avec les méthodes de la littérature et le TNC APTA avec
max
arbitrairement Cpi
= 2. Il montre que les résultats de la littérature, à part la modélisation très pessimiste
uniforme dans l’intervalle de tolérance, ne représente pas une borne supérieure du TNC. Pour une exigence
qualité client de 50ppm, toutes les approches auraient conduit à modifier la conception en resserrant les
intervalles de tolérance alors qu’une analyse fine du process de fabrication pourrait permettre d’accepter
la conception.
4.2.6
Application à l’analyse des tolérances d’un système sans jeu
L’application présentée est une application industrielle fournie par la société RADIALL pour laquelle
la fonction f présente une expression non linéaire. Pour avoir accès à d’autres applications, le lecteur
pourra se référer à la référence [Gayton et al., 2011a] ou bien au rapport de thèse de Paul Beaucaire.
Le système étudié est présenté en figure 4.8. Il s’agit d’un axe (pièce 1) monté dans son logement
(pièce 2). Ce montage est assuré par deux liaisons pivot et est donc hyperstatique. La société RADIALL
Nicolas Gayton
Page 131/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.7 – Illustration académique - Taux de non conformité APTA avec décalage de moyenne et
0
écart-type uniformément répartis en fonction de Cpi
.
Figure 4.8 – Application industrielle, problème de débattement de contact.
19 décembre 2012
Page 132/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
.
(r)
(r)
Dim.
Ti
ti
Cpi = Cpki
max
Cpi
cm1
10,53
0,2
1,1
1,6
cm3
0,75
0,04
1,1
1,6
cm4
0,643
0,015
1,1
1,6
cm5
0,1
0,2
1,1
1,6
cm6
0
0,06
1,1
1,6
cm7
0
0,2
1,1
1,6
cm8
0,72
0,04
1,1
1,6
cm9
1,325
0,05
1,1
1,6
cm10
0
0,04
1,1
1,6
ima2
3,02
0,06
0,86
1,36
ima3
0,4
0,06
0,86
1,36
ima17
0,72
0,04
0,86
1,36
ima19
0,97
0,04
0,86
1,36
ima20
0
0,04
0,86
1,36
Tableau 4.5 – Paramètres de conception de l’application industrielle. Les variables δi et σi de chaque
dimension sont considérées aléatoires uniformément distribuées.
Figure 4.9 – Résultats obtenus sur l’application industrielle non linéaire.
Résultats APTA
.
Résultats de la littérature
PD
U
PD
Dist. uniforme dans ti
Dist.
gaussienne
centrée avec σi = ti /6
Distribution
gaussienne décentrée avec
Cpki = 1 et η = 0, 2
26ppm
43855ppm
8629ppm
300ppm
3994ppm
Tableau 4.6 – Comparaison APTA / littérature sur l’application industrielle non linéaire pour S = 0, 52.
Nicolas Gayton
Page 133/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
s’intéresse à la grandeur Y constituant le déplacement, appelé débattement de contact, en bout d’axe. Ce
déplacement doit être limité pour garantir un bon encliquetage avec la pièce opposée non représentée en
figure 4.8. L’expression de la grandeur Y est délicate puisque le système est hyperstatique. Son expression
en supposant les points de contact est définie par des variables intermédiaires :
c
=
i
=
h =
α
=
r2
=
z
=
J1
=
J2
=
J3
=
Y
=
cm4 + cm8 + cm7
2
ima17 + ima19 + ima20
2
ima2 + ima3
c
i
Arccos √
− Arccos √
i2 + h 2
i2 + h 2
ima19 +ima20 /2
2
−
cm8 +cm7 /2
2cos(α)
tan(α)
r2
+ ((cm9 + cm10 /2)/2 + cm7 /4)tan(α)
cos(α)
(cm1 − cm3 − z)sin(α)
cm7 /4cos(α)
cm5 + cm6
cos(α)
2
J1 + J2 + J3
(4.21)
Les variables cmi et imai sont les variables définissant la géométrie des deux pièces. Le traitement d’une
application très proche en prenant en compte l’hyperstaticité dans la définition de Y est abordée en
section 4.3 de ce chapitre. La relation 4.21 est simplement obtenue par des considérations géométriques.
Elle est constituée de 14 variables géométriques définies dans le tableau 4.5. Les variables δ et σ de chaque
dimension sont considérées aléatoires uniformément distribuées. La grandeur Y ne doit pas excéder une
valeur seuil notée S. Les résultats obtenus sont présentés graphiquement en fonction de S dans la figure
4.9. Plus le seuil S toléré est important plus le TNC diminue logiquement. La différence entre le TNC
U
APT PD et le TNC au pire des cas statistiques PD
est considérable ce qui montre bien le gain potentiel
de l’investissement dans la connaissance du process de fabrication. La comparaison des résultats avec
des modélisations de la littérature est proposée en tableau 4.6 pour S = 0, 52. Hormis la modélisation
uniforme qui fournit des résultats réellement pessimistes, les résultats de la littérature sont très loin de
U
la valeur de TNC le pire PD
alors que la valeur APTA est potentiellement beaucoup plus faible.
4.2.7
Conclusion sur la méthode APTA
L’expression mathématique du taux de non conformité (équation 4.12) est la base de la méthode
APTA proposée. L’utilisation de cette approche nécessite d’investir dans la connaissance de l’évolution
au cours du temps des process de fabrication utilisés, chose que Valeo SE est en train de faire dans le cadre
du projet AHTOLA. Les campagnes de mesure nécessaires sont lourdes à mener et prennent plusieurs
U
mois voire années. Si cette information n’est pas disponible, le TNC peut être borné par PD
, appelé calcul
au pire des cas statistiques, nécessitant uniquement de définir la valeur maximale de capabilité que le
process peut atteindre dans des conditions optimales de fabrication. Ce choix est extrêmement pessimiste
car il est peu probable que les lots de fabrication les pires soient tous assemblés en même temps.
Grâce à la modélisation de la densité conjointe hδ,σ (δi , σi ) il apparait aussi possible de pouvoir
19 décembre 2012
Page 134/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.10 – Synoptique d’utilisation de l’approche APTA en phase de conception.
considérer dans un même calcul des lots de fabrication provenant d’outils multi-empreintes en définissant
des densités conjointes multi-modales. De la même manière, des pièces provenant de fournisseurs différents
avec des niveaux de qualité différents peuvent aussi être considérées avec ce schéma.
Pour l’utilisation de cette démarche en conception, le synoptique 4.10 fournit la démarche générale
U
qui permet de faire le calcul de la borne supérieure PD
dans un premier temps puis le calcul APTA si ce
calcul au pire des cas statistiques n’est pas satisfaisant.
4.3
Analyse des tolérances des systèmes hyperstatiques avec
jeux
Pour assembler des systèmes hyperstatiques, il est possible soit de définir des jeux suffisants dans les
liaisons pour garantir un bon montage dans toutes les configurations géométriques ou bien de compter
sur la déformation des pièces pour assurer un bon montage. Cette section concerne uniquement l’étude
des systèmes hyperstatiques considérés comme parfaitement rigides et donc assemblés avec jeux. Deux
problématiques liées aux jeux nécessaires au bon montage sont traitées :
• Problématique d’assemblage : le système est-il montable quelle que soient les déviations géométriques ? Quel est le TNC associé à l’exigence de montage du système ?
• Problématique fonctionnelle : les jeux introduits pour le bon montage peuvent ensuite être
gênants d’un point de vue fonctionnel. La problématique est donc de savoir calculer le TNC du
système mécanique avec jeu associé à une exigence fonctionnelle particulière.
Cette section se focalise particulièrement sur les problématiques fonctionnelles. Les problématiques
d’assemblage sont partiellement présentées car en général plus simple à traiter. Une application non triviale, fournie par Valeo SE et liée à des problèmes d’assemblage, peut être consultée dans [Beaucaire et al.,
2012b].
Nicolas Gayton
Page 135/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Les déviations géométriques des pièces sont uniquement considérées comme étant d’ordre dimensionnel
et de position (localisation et orientation). Les défauts de forme ainsi que les défauts de position des
surfaces les unes par rapport aux autres (coaxialité, perpendicularité, ...) ne sont pas considérées dans
cette section. Le vecteur des dimensions ou des écarts géométriques noté X est donc uniquement constitué
de ce genre de variables.
4.3.1
Revue bibliographique concernant la prise en compte des jeux
Plusieurs stratégies sont envisageables pour prendre en compte les jeux dans les systèmes hyperstatiques. Pour des problèmes fonctionnels la première méthode très simple consiste à supposer une
configuration de points de contact c’est-à-dire une configuration isostatique du système qui est considérée
la pire du point de vue du TNC fonctionnel et faire le calcul dans cette configuration. C’est ce choix
qui a été fait pour traiter l’application industrielle de débattement de contact en section précédente et
c’est cette stratégie qui est la plus souvent utilisée dans la littérature. Le problème induit concerne la
possibilité de changement de points de contact les pires en fonction des déviations des pièces et donc la
possibilité que les points de contact choisis ne soient pas toujours réalisables.
Les références [Dantan and Qureshi, 2009] et [Qureshi et al., 2012] apparaissent très intéressantes à
ce sujet et proposent une formulation du problème à traiter par quantifieurs :
• formulation d’un problème d’assemblage : un système est considéré comme montable si pour toutes
les déviations géométriques acceptables, il existe une configuration de jeux qui permet l’assemblage
du système ;
• formulation d’un problème fonctionnel : un système est considéré comme fonctionnel si pour toutes
les déviations géométriques acceptables, et pour toutes les configurations de jeux, la fonction du
produit est respectée.
Les quantifieurs pour tous(tes) ∀ et il existe ∃ permettent une formulation rigoureuse des problèmes
d’assemblage et fonctionnels ainsi que la définition des expressions mathématiques associées aux TNC
d’assemblage (noté PDa ) et fonctionnel (noté PDf ).
Formulation générale pour les problèmes d’assemblage
Les contraintes d’assemblage peuvent s’exprimer en fonction des écarts géométriques X et de paramètres de position des pièces les unes par rapport aux autres. Ces paramètres de position ou de jeux
entre les pièces sont notés d. Ce ne sont pas des variables aléatoires mais des variables qui peuvent évoluer
librement de façon bornée par les dimensions des pièces environnantes. Ces contraintes d’assemblage sont
notées mi (X, d), i variant de 1 à Nm (nombre de contraintes d’assemblage). L’assemblage est donc posT Nm
mi (X, d) ≤ 0. A contrario, il est considéré comme non montable si quel que soit d il
sible si ∃d i=1
existe i tel que mi (X, d) > 0. L’expression du TNC lié à un problème d’assemblage est donc défini par :
PDa = Prob (∀d, ∃i|mi (X(ω), d) > 0)
(4.22)
ω représente l’aléa dont dépendent les variables aléatoires X. Cette expression est potentiellement complexe à calculer de par la présence de d et du quantifieur ∃ dans l’expression. Cependant dans la pratique
(c’est le cas de l’application présentée dans cette section), par manipulation des fonctions mi entre elles,
19 décembre 2012
Page 136/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
il est possible de s’affranchir des jeux d. L’expression du TNC d’assemblage devient alors :
PDa = Prob
N
m
[
!
= 1 − Prob
mi (X(ω) > 0
i=1
N
m
\
i=1
!
mi (X(ω)) ≤ 0
(4.23)
Formulation générale pour les problèmes fonctionnels
Si le mécanisme s’assemble, il est ensuite possible de vérifier la probabilité que sa fonction ne soit pas
remplie du fait des jeux introduits. La caractéristique fonctionnelle Fc dépend des écarts géométriques
X et des variables de position ou jeux d : Fc = f (X, d). L’exigence fonctionnelle doit être respectée
pour toutes les configurations de jeux des pièces les unes par rapport aux autres. Les jeux sont des
variables libres bornées par des conditions de non interpénétration de matière. Ces conditions sont
définies mathématiquement par Nc fonctions de non interférence notées gi (X, d) ≤ 0, correspondants
à Nc points de contact potentiels. Ces relations peuvent être établies en utilisant le torseur des petits déplacements [Bourdet et al., 1996], des matrices [Desrochers, 1999], des T-map [Ameta et al., 2007]
ou par des considérations géométriques simples, option qui a été prise dans ces travaux qui restent a
priori compatibles avec les autres approches. L’intersection de ces inéquations constitue le domaine de
non interférence noté Ω(X), fonction des écarts géométriques X, représentant l’ensemble des positions d
admissibles vis-à-vis des conditions de non interférence. Le système est donc considéré fonctionnel si :
∀d ∈ Ω(X), Fc (X, d) ∈ [Fcmin ; Fcmax ]
Ω(X) : d/
Nc
\
j=1
gj (X, d) ≤ 0
(4.24)
où Fcmin et Fcmax sont les bornes fonctionnelles de Fc . Finalement l’expression du TNC PDf est :
PDf
=
Prob(∃d ∈ Ω(X), Fc (X, d) ∈
/ [Fcmin , Fcmax ])
=
Prob(∃d ∈ Ω(X), Fc (X, d) ≤ Fcmin ) + Prob(∃d ∈ Ω(X), Fc (X, d) ≥ Fcmax )
(4.25)
les évènements correspondants aux bornes supérieures et inférieures de Fc étant disjoints. Les deux termes
de cette expression peuvent être calculés de la même manière. Dans la suite, seuls les calculs par rapport
à la borne supérieur Fcmax sont présentés pour simplifier les expressions.
Méthode de calcul par simulation de Monte Carlo et optimisation
Le TNC fonctionnel défini par l’équation 4.25 peut être calculé par la méthode de Monte Carlo
[Qureshi et al., 2012]. Du fait de la présence de jeux, le calcul du TNC nécessite de rechercher, pour
chaque écart géométrique, la configuration de jeux la pire d’un point de vue fonctionnel. Cette recherche
est assurée grâce à un algorithme d’optimisation permettant de trouver les jeux d appartenant à Ω(X)
maximisant Fc (puisque qu’on ne s’intéresse maintenant qu’à la borne supérieure). Le TNC fonctionnel
peut donc se reformuler de la façon suivante :
PDf = Prob
Nicolas Gayton
max [Fc (X, d) > Fcmax ]
d∈Ω(X)
Page 137/172
(4.26)
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
L’algorithme de calcul est donc composé des étapes suivantes. Les trois premières étapes sont répétées
NM C fois, NM C étant le nombre de tirages de Monte Carlo.
1. Un jeu de dimensions X(k) est généré aléatoirement selon les lois de X.
2. Le domaine Ω X(k) est alors constitué par les équations gi (X(k) , d). La quantité
max
d∈Ω(X(k) )
est calculée grâce à un algorithme d’optimisation.
h
i
Fc X(k) , d
(k)
3. L’indicateur de défaillance ou non conformité IDf est calculé :
(k)
IDf =
4. Finalement, PDf = E[IDf ]


 1 si
max
d∈Ω(X(k) )

 0 sinon.
h
i
Fc (X(k) , d) > Fcmax
(4.27)
où E[.] est l’opérateur d’espérance mathématique. L’intervalle de confiance classique de Monte Carlo est
aussi défini de la même manière qu’exposé dans différentes sections de ce rapport. Cette méthodologie
donne des résultats de référence mais nécessite un temps de calcul considérable lié à l’utilisation de la
méthode de Monte Carlo (nombre de calculs de l’ordre de 106 ) couplée à un algorithme d’optimisation
sous contrainte même s’il est utilisé sur des fonctions explicites. Une méthode alternative basée sur des
techniques de fiabilité système est proposée dans la section suivante.
4.3.2
Nouvelle approche basée sur les méthodes de fiabilité système
La méthodologie basée sur la recherche de la configuration de jeu la pire parmi Ω(X) est très générale
mais très coûteuse en temps de calcul. La méthode proposée [Beaucaire et al., 2012a] est basée sur le
fait que la configuration la pire d’un point de vue fonctionnelle se situe à l’intersection des fonctions de
non interférence gi c’est-à-dire pour des points de contact donnés. Le but de la méthode est donc de
considérer tous les points de contact possibles. Cette approche est appelée système car elle est composée
d’un système d’évènements. Supposant une configuration de points de contact, l’expression de Fc devient
indépendante de d, ce qui devient très intéressant en terme de calcul du TNC. Une situation de points
de contact est définie par une position particulière des pièces les unes par rapport aux autres.
Une situation de points de contact est définie de manière à immobiliser dans l’espace les pièces entre
elles. En 3 dimensions, 6 fonctions de non interférence par pièce doivent être nulles, ce qui indique que 6
points de contact ont été identifiés : gi (X, d) = 0, i = 1 à 6. La résolution de ces équations conduit à la
définition d’une configuration de points de contact notée d̂. Pour une réalisation de X, la configuration de
points de contact d̂ est alors potentielle si les Nc − 6 autres fonctions gi (X, d) sont négatives. Si ce n’est
pas le cas, la solution n’est pas acceptable. En faisant ce travail pour toutes les combinaisons de 6 fonctions
de non interférence parmi les Nc disponibles, tous les configurations de points de contact potentiels sont
identifiées pour une réalisation des dimensions X. Notons par Ns le nombre de situations de contact
différentes (nombre de combinaisons de 6 parmi Nc pour une pièce en 3D) et par d̂i , i = 1...Ns les
variables jeux associées issues de la résolution du système de 6 équations. Alors la recherche du maximum
de Fc sur le domaine continu Ω(X) peut se ramener à une recherche discrète sur l’ensemble des situations
19 décembre 2012
Page 138/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
de points de contact admissibles, c’est-à-dire :
Ns

max (Fc (X, d)) = max Fc (X, d̂i ),
i=1
d∈Ω(X)
N\
c −6
j=1

gs̄(i) (X, d̂i ) ≤ 0
j
(4.28)
(i)
où s̄j représente le vecteur contenant le numéro des équations de non interférence non prises en compte
dans le calcul de d̂i . En accord avec les méthodes de fiabilité système et les équivalences (union/intersection avec les min/max sur l’ensemble des fonctions [Thoft-Christensen and Murotsu, 1986]), l’expression
précédente peut se simplifier de la façon suivante :
PDf
=
=
=

Ns

Prob Fcmax − max Fc (X, d̂i ),
i=1

Ns

Prob min Li (X),

Prob 
i=1
Ns
[
i=1

N\
c −6
j=1
(Li (X) < 0)
N\
c −6
j=1


gs̄(i) (X, d̂i ) ≤ 0 < 0
j


gs̄(i) (X, d̂i ) ≤ 0 < 0
j
N\
c −6 j=1
(4.29)

gs̄(i) (X, d̂i ) ≤ 0 
j
où les fonctions Li (X) = Fcmax − Fc (X, d̂i ) sont des fonctions de performance associées au non respect
de la condition fonctionnelle dans la configuration de contact d̂i . Le problème initial est donc transformé
en un problème de calcul système de Ns unions de N c − 6 intersections d’évènements potentiellement
dépendants.
Pour simplifier cette expression, il est clair que toutes les situations de points de contact n’ont pas
la même contribution au TNC fonctionnel. Il est donc possible de sélectionner uniquement quelques
situations de points de contact par connaissance ou expertise ou bien en menant un calcul de Monte
Carlo couplé à une optimisation de taille réduite (100 calculs d’optimisation par exemple) pour identifier
les situations de points de contact prioritaires. Le nombre réduit de situations de points de contact
est alors noté Nds < Ns . La formule de Poincaré permet de simplifier l’expression précédente en des
probabilités uniquement d’intersections d’évènements :
PDf
=
Nds
X
i=1
−
+
+
X
i<k
...

Prob (Li (X) < 0)

Prob (Li (X) < 0)

N
ds
\
(−1)Nds −1 Prob 
i=1

N\
c −6 j=1
N\
c −6 j=1

gs̄(i) (X, d̂i ) ≤ 0 
j

N\
c −6 \

gs̄(i) (X, d̂i ) ≤ 0
(Lk (X) < 0)
gs̄(k) (X, d̂k ) ≤ 0 (4.30)
j
(Li (X) < 0)
j=1
N\
c −6 j=1
j

gs̄(i) (D, d̂i ) ≤ 0 
j
Chacune de ces probabilités d’intersection d’évènements peut se calculer à l’aide des méthodes de fiabilité
système, soit par simulations de Monte Carlo sur chaque évènement (peu coûteux car plus de problème
d’optimisation à résoudre à chaque fois) si la non linéarité des différentes fonctions a un impact sur le
TNC, soit en utilisant la méthode FORM système [Lemaire, 2009] linéarisant chaque fonction autour du
Nicolas Gayton
Page 139/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
point de défaillance le plus probable.
4.3.3
Application à un connecteur RADIALL
Figure 4.11 – Application RADIALL avec jeux, présentation de la géométrie, des dimensions aléatoires
D1 , ..., D7 et des paramètres de jeux ou position X, Y, α. Les jeux sont amplifiés pour des raisons de
compréhension.
Variable
Moyenne
Ecart-type
D1
6
0.03
D2
6.1
0.03
D3
12
0.03
D4
12.1
0.03
D5
10.1
0.03
D6
10
0.03
D7
3
0.03
Tableau 4.7 – Application RADIALL avec jeux, caractéristiques des distributions des dimensions.
L’application de cette méthode permet de fixer les concepts sur un exemple assez classique de deux
pivots en série fourni par la société RADIALL et représentatif des connexions RADIALL. Le lecteur
pourra trouver d’autres applications dans la référence [Beaucaire et al., 2012a]. La figure 4.11 présente la
géométrie. Le vecteur X est défini par {D1 , D2 , D3 , D4 , D5 , D6 , D7 } et la position de l’axe (pièce 1) est
définie par rapport à son logement (pièce 2) par le vecteur d = {X, Y, α}. Les défauts de coaxialité étant
négligés, la symétrie de la géométrie est prise en compte en imposant α ≥ 0. Les dimensions {D1 , ..., D7 }
sont modélisées par des variables aléatoires gaussiennes dont les caractéristiques sont définies dans le
tableau 4.7.
19 décembre 2012
Page 140/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
TNC d’assemblage
Les défauts de coaxialité entre les portées de la pièce 2 et entre les diamètres de la pièce 1 étant
négligés, les conditions de montabilité sont très simples à exprimer. Le système est montable si les 3
fonctions suivantes sont simultanément négatives :
m1 (X)
=
D3 − D4 ≤ 0
m2 (X)
=
D1 − D2 ≤ 0
m3 (X)
=
D6 − D5 ≤ 0
(4.31)
et la probabilité de non assemblage s’écrit :
PDa
=
=
\
\
1 − Prob (m1 (X) ≤ 0) (m2 (X) ≤ 0) (m3 (X) ≤ 0)
1 − Φ3 (−β1 , −β2 , −β3 , [ρ])
(4.32)
où Φ3 est la fonction de répartition de la loi multi-normale en 3 dimensions et [ρ] est la matrice de
corrélation entre les trois fonctions mi . La relation précédente est exacte puisque les fonctions mi sont
linéaires. Comme ces trois fonctions sont indépendantes (aucune dimension en commun), la matrice [ρ]
est la matrice identité et Φ3 (−β1 , −β2 , −β3 , [ρ]) = Φ(−β1 )Φ(−β2 )Φ(−β3 ). Les indices de fiabilité sont
simplement :
β1
=
β2
=
β3
=
µ − µ D4
q D3
= −2.357
2 + σ2
σD
D3
4
µ − µ D2
q D1
= −2.357
2 + σ2
σD
D
1
2
(4.33)
µ − µ D5
q D6
= −2.357
2 + σ2
σD
D6
5
et finalement :
PDa = 1 − Φ(2.357)Φ(2.357)Φ(2.357) = 27380 ppm
(4.34)
TNC fonctionnel
Le domaine de non interférence Ω(X) est déterminé en considérant les équations suivantes :
g1 (X, d)
=
g2 (X, d)
=
g3 (X, d)
=
g4 (X, d)
=
g5 (X, d)
=
g6 (X, d)
=
Nicolas Gayton
D3
D4
D6
sin(α) +
cos(α) −
+X ≤0
2
2
2
D1
D2
D5
D7 tan(α) +
+
− Y tan(α) − X −
≤0
2 cos(α)
2
2
D6
D5
D3
sin(α) +
cos(α) −
+Y ≤0
2
2
2
D6
D3
D4
sin(α) +
cos(α) −
−X ≤0
2
2
2
D2
D5
D1
+
− Y tan(α) + X −
≤0
2 cos(α)
2
2
D3
D6
D5
sin(α) +
cos(α) −
−Y ≤0
2
2
2
Page 141/172
(4.35)
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Ω(X) : d|
6
\
i=1
gi (X, d) ≤ 0
où gi (X, d) = 0 si le point n◦ i (voir figure 4.7) est un point de contact. La caractéristique fonctionnelle
est la déviation angulaire maximale notée αmax de la pièce 1 par rapport à la pièce 2. Le seuil maximum
toléré pour αmax est considéré égal à Fcmax = 0, 01 rad. L’exigence fonctionnelle peut donc s’écrire :
αmax (X) = max (α) ≤ Fcmax
(4.36)
d∈Ω(X)
Pour trouver les différents points de contact potentiels, 3 équations (problème en 2D) parmi les 6 doivent
s’annuler. Il existe donc Ns = C63 = 20 situations de points de contact différents. Cinq d’entre elles sont
identifiées comme étant importantes vis-à-vis du TNC fonctionnel en utilisant un calcul de Monte Carlo
constitué de 100 calculs d’optimisation. Il s’agit des configurations s(1) = {1, 2, 3} (contact aux points
1,2,3), s(2) = {1, 3, 4}, s(3) = {2, 3, 6}, s(4) = {1, 3, 6} et s(5) = {2, 3, 5}. Pour trouver plus simplement les
coordonnées d̂ associées, chacune des fonctions gi est linéarisée vis-à-vis des variables jeux X, Y, α. Cette
linéarisation induit un faible écart en terme de probabilité du fait des faibles jeux mis en œuvre. Cinq
fonctions de performance sont donc définies :
Li (X) = Fcmax − Fc (X, d̂i (X)), i = 1 à 5
(4.37)
Les coordonnées d̂i sont issues de la résolution d’un système linéaire. Cependant, les fonctions Li ne sont
pas linéaires vis-à-vis de X et la méthode FORM ne conduit qu’à une approximation du TNC fonctionnel.
Figure 4.12 – Représentation dans l’espace standard U1 , U2 de la zone de défaut concernant la première
configuration de contact s(1) = {1, 2, 3}.
Le calcul du TNC fonctionnel se fait grâce à relation suivante :

PDf = Prob 
5
[
i=1

Li (X) < 0
3
\
j=1

gs̄(i) (X, d̂i ) ≤ 0
j
(4.38)
T
La figure 4.12 représente dans l’espace standard en deux dimensions uniquement, l’évènement L1 (X) T
T
g4 (X, d̂1 ) g5 (X, d̂1 ) g6 (X, d̂1 ) ≤ 0 correspondant aux points de contact s(1) = {1, 2, 3}. La figure
4.13 représente dans le même espace l’union des 5 évènements associés à chaque situation de points de
19 décembre 2012
Page 142/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Figure 4.13 – Représentation dans l’espace U1 , U2 du domaine de non conformité issu de l’union des 5
configurations de points de contact.
contact. Une zone commune importante entre les situations s(3) et s(4) indique qu’il n’est pas possible de
transformer la probabilité de l’union en somme de probabilités. Cette zone commune indique que pour
un ensemble de réalisations des dimensions X, le système est non fonctionnel dans deux configurations
différentes.
Le calcul du TNC fonctionnel s’effectue alors à l’aide d’une formulation FORM système. Les résultats
sont présentés dans le tableau 4.8. Ils montrent que l’impact de la linéarisation des fonctions gi est très
réduit et que les résultats FORM système sont de très bonne qualité pour un temps de calcul très faible
uniquement lié au calcul des différentes fonctions Φn par la méthode de Genz [Genz, 1992]. Pour éviter
des calculs trop lourds, il est possible de calculer les TNC fonctionnels associés à chaque situation de
points de contact et de borner l’équation 4.38 de la façon suivante :
PDf ≤
5
X
i=1

Prob Li (X) < 0
3
\
j=1

gs̄(i) (X, d̂i ) ≤ 0
j
(4.39)
Cette somme, beaucoup plus simple à calculer, est reportée dans le tableau 4.8 où elle reste, pour cette
application proche du résultat de référence. Les probabilités de chacun des évènements correspondant à
chaque point de contact est :
(3)
(2)
(1)
PDf = 30527(65)ppm, PDf = 1861(12)ppm, PDf = 13770(27)ppm
(4)
(5)
PDf = 14781(32)ppm, PDf = 1(0, 01)ppm
4.3.4
(4.40)
Conclusion
L’analyse des tolérances des systèmes mécaniques hyperstatiques est une tâche numérique difficile
nécessitant des outils adaptés. Dans cette section, une nouvelle méthode a été présentée et appliquée à
un exemple relativement simple. Cette méthode permet de traiter des problèmes de TNC fonctionnels.
Elle est basée sur l’utilisation d’une formulation du TNC mettant en œuvre des probabilités d’unions et
Nicolas Gayton
Page 143/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
Méthode
PDf en ppm
(int. de conf.
à 95%)
Nombre de calculs (temps de calcul)
Monte Carlo + optimisation sous
contraintes non linéaires (résultat de
référence)
47329(257)
107 calculs d’optimisation non linéaire
(3 jours)
Monte Carlo + optimisation linéaire
47202(312)
107 optimisations linéaires (10 heures)
FORM système
47245(225)
20 calculs FORM + 31 évaluations de
Φn (10 minutes)
FORM system upper bound
60940(136)
5 calculs FORM (3 secondes)
Tableau 4.8 – Résultats de l’application linéaire avec jeux.
d’intersections pouvant être calculées par des méthodes classiques couramment utilisées en fiabilité des
structures. Cette méthode a montré son intérêt en temps de calcul sur un exemple assez simple. Elle
présente néanmoins une restriction majeure : la pire des configurations doit se situer sur des points de
contact. Des situations intermédiaires pires d’un point de vue de la fonction ne peuvent pas être prises
en compte. Pour de tels problèmes, la méthode de Monte Carlo couplée avec de l’optimisation reste la
méthode de référence.
4.4
Conclusion et perspectives
Ce chapitre décrit mes activités de recherche dans le domaine de l’analyse des tolérances. Ce travail a
conduit aux travaux réalisés dans le cadre de la thèse de Paul Beaucaire. Deux aspects ont été abordés :
• une réflexion a été menée sur la façon de modéliser les distributions des variables géométriques en
fabrication de grande série. La méthode APTA a été proposée et semble très prometteuse. Cette
méthode est en cours d’industrialisation dans un outil métier développé par la société Phimeca.
• une méthode économique d’analyse des tolérances de systèmes hyperstatiques basée sur les méthodes
de fiabilité système a été proposée et donne des résultats intéressants sous certaines hypothèses.
Ces deux aspects sont tout à fait complémentaires. Une analyse des tolérances d’un système hyperstatique
avec la méthode APTA a d’ailleurs été menée dans [Beaucaire et al., 2012b].
Les industriels partenaires de ces travaux sont Valeo SE, RADIALL et Phimeca SA. Leur intérêt pour
ce sujet montre un vrai potentiel de transfert des méthodes fiabilistes pour l’analyse des tolérances de
fabrication.
Les travaux en cours sur l’analyse de sensibilité et la synthèse des tolérances n’ont pas été exposés
mais sont prometteurs car ils permettent de justifier quantitativement des spécifications géométriques.
Les perspectives sont nombreuses sur ces deux aspects. Concernant la méthode APTA, il est impératif
de pouvoir capitaliser des informations sur des process de fabrication. La société Valeo SE a mis en place
une campagne de mesures conséquente sur 3 ans dans le cadre du projet ANR AHTOLA. L’objectif est
de ne plus avoir à saisir une densité conjointe pour chaque variable géométrique mais de saisir un process
de fabrication. Un gros travail de dépouillement de ces mesures et de caractérisation statistique sera alors
à mener. Sur le second aspect de ces travaux, seuls des systèmes mécaniques 2D simples ont été traités.
L’objectif est de passer à des applications plus conséquentes grâce à l’utilisation de méta-modèles pour
19 décembre 2012
Page 144/172
HDR, Nicolas Gayton
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
s’affranchir des limites des méthodes de Monte Carlo. La méthode AK-Sys est en cours de test sur des
applications plus conséquentes dans le cadre du projet AHTOLA.
Synthèse du chapitre
Objectif. Proposer une démarche d’analyse des tolérances basée sur les méthodes fiabilistes
pour traiter les problèmes de fluctuations des caractéristiques des lots de fabrication pour les
systèmes sans et avec jeux.
Méthodologie. Analogie et utilisation des méthodes communément admises en fiabilité des
structures (FORM, Monte Carlo, approche bayésienne, fiabilité système) pour l’analyse des
tolérances.
Résultats obtenus. Une formulation bayésienne du TNC a été proposée et conduit au calcul
du TNC dynamique aussi appelé APTA. Une procédure générale de calcul en fonction des informations disponibles est proposée. Une méthodologie efficace est proposée pour le calcul du TNC
de systèmes mécaniques avec jeux.
Contexte de ces travaux
• Thèse Conseil Régional d’Auvergne / FEDER de P. Beaucaire dont la soutenance est prévue
le 29 novembre 2012.
• Projet ANR AHTOLA, thèse de A. Dumas.
Production scientifique
• 4 revues référencées ISI :
– DUMAS A., ECHARD B., GAYTON N., ROCHAT O., DANTAN JY., AK-ILS : an
Active learning method based on Kriging for the Inspection of Large Surfaces,
Precision engineering, Vol 37, pages 1-9, 2013.
– BEAUCAIRE P., GAYTON N., DUC E., LEMAIRE M., DANTAN JY., Statistical tolerance analysis of an hyperstatic mechanism with gaps using system reliability
methods, Computer and Industrial Engineering, Vol 63, pages 1118-1127, 2012.
– QURESHI A.J., SABRI V., DANTAN JY., BEAUCAIRE P., GAYTON N., A statistical
tolerance analysis approach for over-constrained mechanism based on optimization and Monte Carlo simulation, Computer Aided Design, Vol 44(2), pages 132-142,
2012.
– GAYTON N., BEAUCAIRE P., BOURINET J.M., DUC E., LEMAIRE M., GAUVRIT L.,
APTA : Advanced Probability - based Tolerance Analysis of products, Mécanique
et Industrie, Vol 12, pages 71-85, 2011.
• 4 conférences internationales
Nicolas Gayton
Page 145/172
19 décembre 2012
Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité
19 décembre 2012
Page 146/172
HDR, Nicolas Gayton
Conclusions et perspectives
Ce mémoire d’Habilitation à Diriger des Recherches présente mon bilan d’activités depuis l’obtention
de mon diplôme de Doctorat en 2002. Il expose tout d’abord mon parcours professionnel dont la particularité est mon expérience de quatre années dans l’industrie automobile. Même si, dans un premier
temps, cette expérience a été un frein à des activités de recherche académique, elle m’a permis de mieux
cerner les besoins industriels en terme de gestion de l’incertain en conception mécanique en développant
l’activité autour de l’analyse des tolérances. Ce mémoire présente ensuite mes activités de recherche en
se focalisant sur deux domaines d’application des méthodes probabilistes nécessitant des développements
méthodologiques pour le calcul de la probabilité de défaillance ou du taux de non conformité d’un système
mécanique.
D’un point de vue méthodologique, mes premières années ont été consacrées à l’utilisation des techniques de ré-échantillonnage pour le calcul fiabiliste et la définition d’intervalles de confiance permettant
de guider et stopper les calculs mécaniques successifs lorsque les résultats sont jugés satisfaisants. Les
méthodes développées nommées CQ2RS Complete Qudratic Response Surface method with ReSampling
(basée sur des surfaces de réponse polynomiales) et RPCM Resampling-based Polynomial Chaos Method
(basée sur le chaos polynomial) ont été prioritairement utilisées pour l’analyse des structures sollicitées
en fatigue.
Ces dernières années, les travaux sur l’utilisation du ré-échantillonnage ont été mis de coté pour laisser
place à l’utilisation du krigeage pour l’analyse fiabiliste, méthodologie qui me semble très prometteuse.
Mes travaux ont conduit d’abord à une classe de méthode nommée AK-RM Active Learning and
Kriging based - Reliability Methods. Son efficacité réside dans l’intégration de la simulation dès le
début de l’utilisation itérative du méta-modèle de krigeage. Ses limites, induites par ce qui en fait son
efficacité, résident dans des difficultés à atteindre des probabilités très faibles (< 10−6 ) et dans la prise en
compte d’un nombre important de variables aléatoires (> 40) avec une précision constante. La stratégie
de classification utilisée dans les méthodes AK-RM a aussi été utilisée dans deux autres domaines :
la vérification de la conformité de pièces de grandes dimensions (méthode AK-ILS Active learning and
Kriging based-methods for the Inspection of Large Surfaces) et la gestion des contraintes d’optimisation
(méthode AK-OPT Active learning and Kriging based-methods for OPTimization). Les méthodes AKRM ont été utilisées avec grande efficacité pour l’analyse des structures sollicitées en fatigue et sont en
cours d’utilisation pour l’analyse des tolérances de fabrication.
Les travaux développés sur l’analyse probabiliste des structures sollicitées en fatigue ont mis en
évidence deux conclusions primordiales : l’analyse fiabiliste de ce type de structures ne peut se faire
qu’en disposant d’une modélisation pertinente du chargement et du comportement à la fatigue via la
définition des courbes S-N. Des travaux sont actuellement en cours sur ce sujet dans le cadre de le
147
Conclusions et perspectives
thèse de Doctorat de Simon Bucas en convention CIFRE chez Manitowoc. D’autres vont commencer en
début d’année 2013 avec la thèse de W. Fauriat en convention CIFRE avec Renault sur la modélisation
stochastique des chargements de fatigue s’exerçant par la chaussée sur les roues d’un véhicule.
L’analyse des tolérances a été une thématique de recherche qui m’a beaucoup occupé. Elle m’a conduit
à définir une méthode innovante d’analyse des tolérances nommée APTA Advanced Probability - based
Tolerance Analysis of products permettant d’évaluer le taux de non conformité long terme d’un système
mécanique. Cette méthode semble intéressante mais doit être alimentée par une quantité importante de
mesures de l’évolution des lots de fabrication au cours du temps, mesures en cours actuellement chez
Valeo SE dans le cadre du projet ANR ATHOLA. Des travaux sur le calcul du taux de non conformité des systèmes hyperstatiques ont permis de proposer une méthode économique de gestion des points
de contact. Cette méthode réduit les temps de calcul mais n’est applicable aujourd’hui que lorsque les
contraintes de non pénétration de matière sont linéaires ou linéarisables. Cette méthode est donc à adapter en trois dimensions. Ceci est en cours dans le cadre du projet AHTOLA.
Ces travaux ont été menés en encadrant des doctorants (A. Notin, B. Echard, P. Beaucaire) dans
différents types de projet (Thèse CIFRE CETIM, projet ANR APPROFI, projet avec la Région Auvergne,
contrats de collaboration industrielle) et des étudiants en Master Recherche (A. Dumas et S. Bucas). La
responsabilité de ces projets ainsi que l’encadrement de ces travaux ont contribué aux principales avancées
présentées dans ce mémoire.
J’espère que ce mémoire aura satisfait le lecteur. Personnellement il m’a permis de faire un bilan de
mes activités et surtout de dégager la “road map” suivante pour mes activités de recherche futures.
Fatigue des structures :
1. Poursuivre les collaborations industrielles sur ce sujet et notamment avec la SNECMA sur l’utilisation des méthodes fiabilistes dans un milieu très réglementé.
2. Poursuivre les travaux de modélisation stochastique du chargement au travers des thèses CIFRE
de S. Bucas (Manitowoc) et W. Fauriat (Renault).
3. Investiguer en détail la modélisation stochastique des courbes S-N et quantifier leur impact sur
l’évaluation de la probabilité de défaillance. Ce travail se fera dans le cadre des travaux de S. Bucas.
4. Approfondir l’utilisation des méthodes de sensibilité dans ce domaine et aller jusqu’à la calibration
de coefficients partiels.
Analyse des tolérances :
1. Caractériser les densités conjointes des décalages de moyenne / écarts-types pour plusieurs process
de fabrication (en cours avec Valeo SE dans le cadre du projet ANR ATHOLA).
2. Gérer les configurations non linéaires de points de contact par fiabilité système et méta-modèles.
3. Traiter des problèmes à grands nombres de paramètres définissant les défauts de forme géométriques.
Pour arriver à ces objectifs, des développements méthodologiques sont nécessaires :
1. Poursuivre l’utilisation des méthodes AK-RM dans le cadre de la fiabilité système (Analyse des
tolérances).
19 décembre 2012
Page 148/172
HDR, Nicolas Gayton
Conclusions et perspectives
2. Investiguer l’utilisation du krigeage et de la technique de classification pour le calcul des indices de
Sobol’ dans le but de l’analyse de sensibilité et la réduction du nombre de variables (fatigue des
structures et analyse des tolérances).
3. Investiguer l’utilisation de la stratégie de classification dans le cadre de modèles mécaniques de type
éléments finis engendrant un bruit numérique dans la réponse (fatigue des structures).
Nicolas Gayton
Page 149/172
19 décembre 2012
Conclusions et perspectives
19 décembre 2012
Page 150/172
HDR, Nicolas Gayton
Bibliographie
T. Abdo and R. Rackwitz. A new β point algorithm for large time invariant and time variant reliability
problems. In Reliability and optimisation of structures 90 Proc. of the 3rd WG 7.5 IFIP Conference,
pages 1–11, 1990.
AFCEN. Règles de Conception et de Construction des Matériels des Ilots Nucléaires, (RCC-M), 2000.
AFNOR. A03-405, Metal products - Fatigue testing - Data statistical processing, 1991.
H. Akaike. A new look at the statistical model identification. IEEE Transactions on Automatic Control,
19(6) :716–723, 1974.
D.L. Allaix and V.I. Carbon. An improvement of the response surface method original research article.
Structural Safety, 33(2) :165–172, 2011.
G. Ameta, J. Davidson, and J. Shah. Using tolerance-maps to generate frequency distributions of clearance and allocate tolerances for pinuhole assemblies. ASME Transactions, Journal of Computing and
Information Science in Engineering, 7(4) :347–359, 2007.
S. Arlot. Rééchantillonnage et sélection de modèles. PhD thesis, Université Paris Sud - Faculté des
Sciences d’Orsay, 2007.
S.K. Au and J.L. Beck. Estimation of small failure probabilities in high dimensions by subset simulation.
Probabilistic Engineering Mechanics, pages 263–277, 2001.
S.K. Au and J.L. Beck. Application of subset simulation methods to reliability benchmark problems.
Structural Safety, pages 183–193, 2007.
A. Ballu, J.-Y. Plantec, and L. Mathieu. Geometrical reliability of overconstrained mechanisms with
gaps. CIRP Annals - Manufacturing Technology, 57(1) :159–162, 2008. ISSN 0007-8506.
P. Beaucaire, N. Gayton, J.Y. Dantan, and E. Duc. Statistical tolerance analysis of over-constrained
mechanism using system reliability methods. Computer Aided Design, page soummis, 2012a.
P. Beaucaire, N. Gayton, E. Duc, M. Lemaire, and J.Y. Dantan. Statistical tolerance analysis of an hyperstatic mechanism with gaps using system reliability methods. Computer and Industrial Engineering,
page A paraı̂tre, 2012b.
J. Bect, D. Ginsbourger, L. Li, V. Picheny, and E. Vazquez. Sequential design of computer experiments
for the estimation of a probability of failure. Statistics and Computing, In press :1–21, 2011.
151
BIBLIOGRAPHIE
J. Bellec. Prise en compte de la variabilité dans le calcul de structures avec contact. PhD thesis, ENS
Cachan, 2008.
A. Bender. Statistical tolerancing as it relates to quality control and the designer. SAE transactions, 77 :
1965–1971, 1968.
F Bennis, P. Castagliola, and L. Pino. Statistical analysis of geometrical tolerances : A case study. Quality
Engineering, 17(3) :419–427, July 2005.
R. Beran. The impact of the bootstrap on statistical algorithms and theory. Statistical Science, 18(2) :
175–184, 2003.
M. Berveiller. Eléments finis stochastiques : Approche intrusive et non-intrusive pour des analyses de
fiabilité. PhD thesis, Université Blaise Pascal (Clermont-Ferrand), 2005.
M. Berveiller, B. Sudret, and M. Lemaire. Stochastic finite elements : a non intrusive approach by
regression. European Journal of Computational Mechanics, 15(1-3) :81–92, 2006.
B. J. Bichon, M. S. Eldred, L. P. Swiler, S. Mahadevan, and J. M. McFarland. Efficient Global Reliability
Analysis for nonlinear implicit performance functions. AIAA Journal, 46 :2459–2468, 2008.
B. J. Bichon, J. M. McFarland, and S. Mahadevan. Efficient surrogate models for reliability analysis
of systems with multiple failure modes. Reliability Engineering & System Safety, 96(10) :1386–1395,
2011.
A. Bignonnet and H.-P. Lieurade. Reliability application in the industry of the reliability approach in
fatigue design : a CETIM multipartner project. In 2nd Fatigue Design, Senlis, France, November 2007.
CETIM.
A. Bignonnet, H.-P. Lieurade, I. Hunter, F. Lefebvre, A. Carcan, E. Babaud, J.-C. Escoffier, and D. Marquand. The reliability approach in fatigue design : DEFFI project. In 3rd Fatigue Design, Senlis,
France, November 2009. CETIM.
G. Blatman and B. Sudret. Sparse polynomial chaos expansions and adaptive stochastic finite elements
using a regression approach. C. R. Mécanique, 336 :518–523, 2008.
J. D. Booker, M. Raines, and K. G. Swift. Designing Capable and Reliable Products, chapter Stress
Strength Interference (SSI) analysis, pages 176–191. Butterworth-Heinemann, 2001.
D.D. Boos. Introduction to the bootstrap world. Statistical Science, 18(2) :168–174, 2003.
P. Bourdet, L. Mathieu, and C. Lartigue. The concept of the small displacement torsor in metrology.
Series Advances in Mathematics for Applied Sciences : World Scientific, 40 :110–122, 1996.
J.M. Bourinet, F. Deheeger, and M. Lemaire. Assessing small failure probabilities by combining subset
simulation and suport vector machines. Structural Safety, pages 343–353, 2011.
K.W. Breitung. Asymptotic approximations for multi-normal integrals. Lecture Notes in Mathematics,
Springer-Verlag, Berlin, 1994.
19 décembre 2012
Page 152/172
HDR, Nicolas Gayton
BIBLIOGRAPHIE
C.G. Bucher and U. Bourgund. A fast and efficient response surface approach for structural reliability
problems. Structural Safety, 7 :57–66, 1990.
R.J. Carroll and D. Ruppert. Transformation and Weighting in Regression. Chapman Hall, New York,
1988.
G. Casella. Introduction to the silver anniversary of the bootstrap. Statistical Science, 18(2) :133–134,
2003.
J.-L. Chaboche. Constitutive equations for cyclic plasticity and cyclic viscoplasticity. International
Journal of Plasticity, 5(3) :247–302, 1989. ISSN 0749-6419.
A. Combescure. Static and dynamic buckling of large thin shells. In Nuclear Engineering and Design 92,
North-Holland, Amsterdam, pages 339–354, 1986.
D. D. Cox and S. John. SDO : A Statistical Method for Global Optimization. In M. N. Alexandrov
and M. Y. Hussaini, editors, Multidisciplinary Design Optimization : State-of-the-Art, pages 315–329.
Siam, Philadelphia, 1997.
T. Crestaux, O. P. Le Maitre, and J. M. Martinez. Polynomial chaos expansion for sensitivity analysis.
Reliability Engineering and System Safety, 94 :1161–1172, 2009.
K. Dang Van, B. Griveau, and O. Message. On a new multiaxial fatigue criterion : theory and application. biaxial and multiaxial fatigue. In M.W. Brown and K.J.Miller, editors, EFG 3, pages 479–496,
Mechanical Engineering Publications, London, 1989.
J.-Y. Dantan and A.-J. Qureshi.
Worst-case and statistical tolerance analysis based on quantified
constraint satisfaction problems and monte carlo simulation. Computer Aided Design, 41 :1–12, 2009.
E. De Rocquigny. Structural reliability under monotony : a review of properties of form and associated
simulation methods and a new classe of monotonous reliability methods (MRM). Structural Safety,
pages 363–374, 2009.
A. Der Kiureghian and T. Dakessian. Multiple design points in first and second-order reliability. Structural
Safety, 20(1) :37–49, 1998a.
A. Der Kiureghian and T. Dakessian. Multiple design points in first and second-order reliability. Structural
Safety, 20 :37–49, 1998b.
E. Derocquigny. La maı̂trise des incertitudes dans un contexte industriel - 1 ière partie : une approche
méthodologique globale basée sur des exemples. Journal de la société française de Statistique, pages
33–71, 2006.
A. Desrochers. Modeling three dimensional tolerance zones using screw parameters. In 25th design
automation conference, ASME, 1999.
T. J. DiCiccio and B. Efron. Bootstrap confidence intervals. Statistical Science, 11(3) :189–228, 1996.
O. Ditlevsen and H.O. Madsen. Structural Reliability Methods. John Wiley & Sons, 1996.
Nicolas Gayton
Page 153/172
19 décembre 2012
BIBLIOGRAPHIE
V. Dubourg. Adaptive surrogate models for reliability analysis and reliability-based design optimization.
PhD thesis, Université Blaise Pascal, Clermont II, 2011.
S. Dubreuil, M. Berveiller, F. Petitjean, and M. Salaun. Determination of bootstrap confidence intervals
on sensitivity indices obtained by polynomial chaos expansion. In Fiabilité des Matériaux et des
Structures, 2012.
A. Dumas, B. Echard, N. Gayton, and O. Rochat. AK-ILS : A new active learning method based on
kriging for the inspection of large surface. In ICSM2012, Annecy, 2012.
B. Echard. Evaluation par krigeage de la faibilité des structures sollicitées en fatigue. PhD thesis,
Université Blaise Pascal - Clermont-Ferrand, 2012.
B. Echard, N. Gayton, and M. Lemaire. AK-MCS : An Active learning reliability method combining
Kriging and Monte Carlo Simulation. Structural Safety, 33(2) :145–154, 2011.
B. Echard, N. Gayton, M. Lemaire, and N. Relun. A combined importance sampling and kriging reliability
method for small failure probabilities with time demanding numerical models. soumis à Reliability
Engineering and System Safety, 2012.
B. Efron. Bootstrap methods : Another look at the jackknife. The Annals of Statistics, 7 :1–26, 1979.
B. Efron. Nonparametric standard errors and confidence intervals. Canadian Journal of Statistics, 9 :
139–172, 1981.
B. Efron and R. J. Tibshirani. An introduction to the bootstrap. Chapman Hall, New York, 1993.
B. Efron and R. J. Tibshirani. Improvements on cross-validation : the .632+ bootstrap method. Journal
of the American Statistical Association, 92(438) :548–560, 1997.
K. El-Tawil, J.P. Muzeau, and M. Lemaire. Reliability method to solve mechanical problems with implicit
limit state. In Reliability and Optimization of Structures, Proc of the 4th IFIP WG 7.5 Conference,
pages 181–190, 1991.
I. Enevolsen, M.H. Faber, and J.D. Sorensen. Adaptative response surface technique in reliability estimation. In Structural Safety and Reliability, Schuëller, Shinozuka and Yao (eds), pages 1257–1264,
1994.
F. Faravelli. Response surface approach for reliability analysis. Journal of Engineering Mechanics, 115 :
2763–2781, 1989.
FEM. 1.001 - Règles de calcul des appareils de levage, 1998.
M. Ferlin, A. Pyre, F. Lefebvre, S. Oriol, and A. Bignonnet. DEFFI project for a new concept of
fatigue design in the aerospace domain. In 50th AIAA/ASME/ASCE/ AHS/ASC Structures, Structural
Dynamics, and Materials Conference, Palm Springs, California, USA, May 2009.
R. Field and M. Grigoriu. On the accuracy of the polynomial approximation. Probabilistic Engineering
Mechanics, 19 :65–80, 2004.
R. A. Fischer. The Design of Experiment. Hafner, New York, 1935.
19 décembre 2012
Page 154/172
HDR, Nicolas Gayton
BIBLIOGRAPHIE
J. M. Gablonsky. Modifications of the DIRECT algorithm. PhD thesis, North Carolina State University,
2001.
N. Gayton and M. Lemaire. Reliability assessment of structures subjected to fatigue failure. Ships and
Offshore Structures, 4(3) :229–239, 2009.
N. Gayton, J.M. Bourinet, and M. Lemaire. CQ2RS : a new statistical approach to the response surface
method for reliability analysis. Structural Safety, pages 99–121, 2002a.
N. Gayton, J.P. Lambelin, and M. Lemaire. Approche probabiliste du facteur de réduction de charge
d’une coque mince. Mécanique et Industries, 3 :227–236, 2002b.
N. Gayton, A. Mohamed, J.D. Sorensen, M. Pendola, and M. Lemaire. Calibration methods for reliabilitybased design codes. Structural Safety, 26 :91–121, 2004.
N. Gayton, P. Beaucaire, J-M. Bourinet, E. Duc, M. Lemaire, and L. Gauvrit. APTA : Advanced
probability - based tolerance analysis of products. Mecanique et Industries, 12 :71–85, 2011a.
N. Gayton, P. Beaucaire, E. Duc, and M. Lemaire. The apta method for the tolerance analysis of products comparison of capability-based tolerance and inertial tolerance. Asian International Journal of Science
and Technology, 4 :24–36, 2011b.
A. Genz. Numerical computation of multivariate normal probabilities. Journal of Computational and
Graphical Statistics, pages 141–149, 1992.
T. Gerstner and M. Griebel. Numerical integration using sparse grids. Numerical Algorithms, 18(3) :
209–232, 1998.
R. Ghanem and P.D. Spanos. Stochastic finite elements : a spectral approach -. Springer-Verlag, 1991.
Revised Edition published by Dover in 2003.
D. Ghiocel and R. Ghanem. Stochastic finite element analysis of seismic soil-structure interaction. Journal
of Engineering Mechanics, 128(1) :66–77, 2002.
C. A. Gladman. Applying probability in tolerance technology. University of New South Wales, [Kensington,
N.S.W.] :, 1979.
C. G. Glancy and K.W. Chase. A second-order method for assembly tolerance analysis. Proceedings of
the ASME Design Engineering Technical Conferences, 1999.
Graves and Bisgaard. Five ways statistical tolerancing can fail, and what to do about them. Quality
Engineering, 13(1) :85–93, 2000.
W.H. Greenwood and K.W. Chase. A new tolerance analysis method for designers and manufacturers.
In Transaction of the ASME, pages 109–116, 1987.
Z. Guédé. Approche probabiliste de la durée de vie des structures soumises à la fatigue thermique. PhD
thesis, Université Blaise Pascal, Clermont II, 2005.
Z. Guédé, B. Sudret, and M. Lemaire. Life-time reliability based assessment of structures submitted to
thermal fatigue. International Journal of Fatigue, 29(7) :1359–1373, 2007.
Nicolas Gayton
Page 155/172
19 décembre 2012
BIBLIOGRAPHIE
P. Hall. A short prehistory of the bootstrap. Statistical Science, 18(2) :158–167, 2003.
A.M. Hasofer and N.C. Lind. An exact and invariant first order reliability format. J.Eng Mech., ASCE,
100, EM1, pages 111–121, 1974.
T.C. Hesterberg. Bootstrap. Technical report, Insightful Corp, 2007.
W. Jiang and R. Simon. A comparison of bootstrap methods and an adjusted bootstrap approach for
estimating the prediction error in microarray classification. Statistics in Medicine, 26(29) :5320 – 5334,
2007.
J.M.Gilbert, I.M.Bell, and D.R. Johnson. Circuit design optimization based on quality cost estimayion.
Quality and Reliability Engineering International, 21 :365–386, 2005.
D. R. Jones, C. D. Perttunen, and B. E. Stuckman. Lipschitzian optimization without the Lipschitz
constant. Journal of Optimization Theory and Applications, 79(1) :157–181, 1993.
D. R. Jones, M. Schonlau, and W. J. Welch. Efficient Global Optimization of expensive black-box
functions. Journal of Global Optimization, 13(4) :455–492, 1998.
D. Karaboga. An idea based on honey bee swarm for numerical optimization. Technical Report TECHNICAL REPORT-TR06, Erciyes University,Engineering Faculty, Computer Engineering Department.,
2005. URL http://mf.erciyes.edu.tr/abc/publ.htm.
D. Karaboga and B. Basturk. A powerful and efficient algorithm for numerical function optimization :
artificial bee colony (ABC) algorithm. Journal of Global Optimization, 39 :459–471, 2007.
I. Kaymaz. Application of kriging method to structural reliability problems. Structural Safety, pages
133–151, 2005.
S.H. Kim and S.W. Na. Response surface method using vector projected sampling points. Structural
Safety, 19(3) :3–19, 1997.
D. Krige. A statistical approach to some basic mine valuation problems on the Witwatersrand. Journal
of the Chemical, Metallurgical and Mining Society of South Africa, 52(6) :119–139, 1951.
E. A. Kruss, D. J. et Fuller. Computer assisted multicrossvalidation in regression analysis. Educational
and Psychological Measurement, 42(1) :187–193, 1982.
A. K. Kurtz. A research test of the rorschach test. Personnel Psychology, 1(1) :41–51, 1948.
H. J. Kushner. A new method of locating the maximum of an arbitrary multipeak curve in the presence
of noise. Journal of Basic Engineering, 86 :97–106, 1964.
F. Lefebvre, M. Ferlin, A. Pyre, A. Ghouali, S. Oriol, J. El Maghnouji, and A. Bignonnet. Reliability
approach in fatigue design for aerospace industry. In 3rd Fatigue Design, Senlis, France, November
2009. CETIM.
M. Lemaire. Finite element and reliability : Combined methods by response surface. In G.N. Frantziskonis,
editor, PROBAMAT-21st Century : Probabilities and Materials, pages 317–331, 1998.
19 décembre 2012
Page 156/172
HDR, Nicolas Gayton
BIBLIOGRAPHIE
M. Lemaire. Implementation of parametric reliability methods in industrial applications. In Integrating
Structural Analysis and Reliability, P.K. Das, editor : 3rd ASRANet colloquium, Glasgow, U.K., 2006.
M. Lemaire. Structural Reliability - Static Mechanical coupling. ISTE, 2009.
Y.W. Liu and F. Moses. A sequential response surface method and its application in the reliability
analysis of aircraft structural systems. Structural Safety, 16 :39–46, 1994.
S. N. Lophaven, H. B. Nielsen, and J. Sondergaard.
sion 2.0.
DACE, a Matlab Kriging Toolbox, Ver-
Technical Report IMM-TR-2002-12, Technical University of Denmark, 2002a.
URL
http://www2.imm.dtu.dk/~hbn/dace/.
S. N. Lophaven, H. B. Nielsen, and J. Sondergaard.
DACE.
Aspects of the Matlab Toolbox
Technical Report IMM-REP-2002-13, Technical University of Denmark, 2002b.
URL
http://www2.imm.dtu.dk/~hbn/dace/.
X. Luo, X. Li, J. Zhou, and T. Cheng. A Kriging-based hybrid optimization algorithm for slope reliability
analysis. Structural Safety, 34(1) :401–406, 2012.
G. Matheron. The Intrinsic Random Functions and Their Applications. Advances in Applied Probability,
5(3) :439–468, 1973.
R.E. Melchers. Radial importance sampling for structural reliability. Journal of Engineering Mechanics,
pages 189–203, 1990.
A. M. Molinaro, R. Simon, and R. M. Pfeiffer. Prediction error estimation : a comparison of resampling
methods. Bioinformatics, 21(15) :3301–3307, 2005.
C.I. Mosier. Problems and designs of crossvalidation. Educational and Psychological Measurement, 11 :
5–11, 1951.
J.P. Muzeau, M. Lemaire, P. Besse, and J.M. Locci. Evaluation of reliability in case of complex mechanical
behavior. In Proc. of the 12th International Conference OMAE’93.
M. Nagode and M. Fajdiga. A general multi-modal probability density function suitable for the Rainflow
ranges of stationary random processes. International Journal of Fatigue, 20(3) :211–223, 1998.
M. Nagode and M. Fajdiga. An improved algorithm for parameter estimation suitable for mixed Weibull
distributions. International Journal of Fatigue, 22 :75–80, 2000.
M. Nagode and M. Fajdiga. An alternative perspective on the mixture estimation problem. Reliability
Engineering & System Safety, 91 :388–397, 2006.
M. Nagode, J. Klemenc, and M. Fajdiga. Parametric modelling and scatter prediction of rainflow matrices.
International Journal of Fatigue, 23(6) :525–532, 2001.
S.D. Nigam and J.U. Turner. Review of statistical approaches to tolerance analysis. Computer Aided
Design, pages 6–14, 1995.
A. Notin, N. Gayton, J. L. Dulong, M. Lemaire, and P. Villon. RPCM : A strategy to perform reliability
analysis using polynomial chaos and resampling - application to fatigue design. European Journal of
Computational Mechanics, pages 795–830, 2010.
Nicolas Gayton
Page 157/172
19 décembre 2012
BIBLIOGRAPHIE
A. Notin, J. L. Dulong, N. Gayton, P. Villon, and M. Lemaire. Sldlt : A new solver for sensitivity analysis
using monte carlo simulations with random fields. soumis à Computer and structures, 2012.
R. Palm. Utilisation du bootstrap pour les problèmes statistiques liés à l’estimation des paramètres.
Biotechnology Agronomy Society and Environment, 6(3) :143–153, 2002.
D.B. Parkinson. The application of reliability methods to tolerancing. Transaction of the ASME, 104 :
612–618, 1982.
M.F. Pellissetti and G.I. Schueller. On general purpose software in structural reliability, an overview.
Structural Safety, pages 3–16, 2006.
V. Picheny, D. Ginsbourger, O. Roustant, R. T. Haftka, and N.-H. Kim. Adaptive designs of experiments
for accurate approximation of a target region. Journal of Mechanical Design, 132(7) :071008, 2010.
M. Pillet. Inertial tolerancing. The Total Quality Management Magazine, 16(3) :202–209, 2004.
D.N. Politis, J.P. Romano, and M. Wolf. Subsampling. Springer, 1999.
M. H. Quenouille. Problems in plane sampling. Annals of Mathematical Statistics, pages 355–375, 1949.
A. J. Qureshi, J.-Y. Dantan, V. Sabri, P. Beaucaire, and N. Gayton. A statistical tolerance analysis
approach for over-constrained mechanism based on optimization and monte carlo simulation. Computer
Aided Design, 44 :132–142, 2012.
R. Rackwitz and B. Fiessler. Structural reliability under combined random load sequence. Comp. and
Struct., 9(5) :489–494, 1978.
M.R. Rajashekhar and B.R. Ellingwood. A new look at the response surface approach for reliability
analysis. Structural Safety, 12 :205–220, 1993.
P. Ranjan, D. Bingham, and G. Michailidis. Sequential experiment design for contour estimation from
complex computer codes. Technometrics, 50(4) :527–541, 2008.
N. Relun. Stratégie multiparamétrique pour la conception robuste en fatigue. PhD thesis, Ecole Normale
Supérieure de Cachan, 2011.
J.-L. Robert. Dimensionnement en fatigue des pièces mécaniques. Lectures notes in Master Ingénierie
Mécanique et Civile, Université Blaise Pascal, Clermont II, 2009.
V. J. Romero, L. P. Swiler, and A. Giunta. Construction of response surfaces based on progressive-latticesampling experimental designs with application to uncertainty propagation. Structural Safety, 26(2) :
201–219, 2004.
T.P. Ryan. Modern Regression Methods. Wiley, New York, 1997.
J. Sacks, S. B. Schiller, and W. J. Welch. Design for computer experiment. Technometrics, 31(1) :41–47,
1989.
A. Saltelli, K. Chan, and E.M. Scott. Sensitivity Analysis. Wiley, 2000.
19 décembre 2012
Page 158/172
HDR, Nicolas Gayton
BIBLIOGRAPHIE
T. J. Santner, B. J. Williams, and W. I. Notz. The Design and Analysis of Computer Experiments. New
York, 2003.
G. Saporta. Probabilités, analyse des données et statistique. Technip, 1990.
G.J. Savage, D. Tong, and S.M. Carr. Optimal mean and tolerance allocation using conformance-based
design. Quality and Reliability Engineering International, 22 :445–472, 2006.
F. Scholtz. Tolerance stack analysis methods. Technical report, Boeing Technical Report, 1995.
G. Schwarz. Estimating the dimension of a model. The Annals of Statistics, 6(2) :461–464, 1978.
B.W. Silverman. Density estimation for statistics and data analysis. Chapman and Hall, 1986.
I. M. Sobol. Sensitivity estimates for nonlinear mathematical models. Mathematical Modeling & Computational Experiment, 1 :407–414, 1993.
B. Sudret. Global sensitivity analysis using polynomial chaos expansion. Reliability Engineering & System
Safety, 93(7) :964–979, 2008.
B. Sudret. Fatigue of materials and structures, chapter 5 : Probabilistic design of structures submitted
to fatigue, pages 223–263. Wiley & Sons, 2011.
T. Svensson. Prediction uncertainties at variable amplitude fatigue. International Journal of Fatigue, 19
(93) :295–302, 1997.
P. Thoft-Christensen and Y. Murotsu. Application of Structural Systems Reliability Theory. SpringerVerlag, 1986.
J.-J. Thomas, G. Perroud, A. Bignonnet, and D. Monnet. Fatigue design and reliability in the automotive
industry. In G. Marquis and J. Solin, editors, Fatigue Design and Reliability, volume 23 of European
Structural Integrity Society, pages 1–11. Elsevier, 1999.
A. Törn and A. Zilinskas. Global optimization. Lecture Notes in Computer Science, 350, 1989.
R. Tovo. On the fatigue reliability evaluation of structural components under service loading. International Journal of Fatigue, 23(7) :587–598, 2001.
J.W. Tukey. Bias and confidence in not-quite large samples. Annals of Mathematical Statistics, 29 :614,
1958.
G. Walz and H. Riesch-Oppermann. Probabilistic fracture mechanics assessment of flaws in turbine disks
including quality assurance procedures. Structural Safety, 28 :273–288, 2006.
M. P. Wand and M. C. Jones. Kernel smoothing. Chapman Hall, New York, 1995.
M. Webster, M.A. Tatang, and G.J. McRae. Application of the probabilistic collocation method for an
uncertainty analysis of a simple ocean model. Technical report, Technical report, MIT Joint Program
on the Science an POlicy of Global Change Reports Series N4, Massachusetts Institute of Technology,
1996.
N. Wiener. The homogeneous chaos. American Journal of Mathematics, 60 :897–936, 1938.
Nicolas Gayton
Page 159/172
19 décembre 2012
BIBLIOGRAPHIE
19 décembre 2012
Page 160/172
HDR, Nicolas Gayton
Annexe A
Liste de publications
Revues internationales référencées ISI ou SCOPUS (10)
• ECHARD B., GAYTON N., LEMAIRE M., RELUN N., A combined Importance Sampling
and Kriging reliability method for small failure probabilities with time demanding
numerical models, Reliability Engineering and System Safety, accepté le 26/10/2012.
• DUMAS A., ECHARD B., GAYTON N., ROCHAT O., DANTAN JY., AK-ILS : an Active learning method based on Kriging for the Inspection of Large Surfaces, Precision engineering,
Vol 37, pages 1-9, 2013.
• BEAUCAIRE P., GAYTON N., DUC E., LEMAIRE M., DANTAN JY., Statistical tolerance
analysis of an hyperstatic mechanism with gaps using system reliability methods, Computer and Industrial Engineering, Vol 63, pages 1118-1127, 2012.
• QURESHI A.J., SABRI V., DANTAN JY., BEAUCAIRE P., GAYTON N., A statistical tolerance analysis approach for over-constrained mechanism based on optimization and
Monte Carlo simulation, Computer Aided Design, Vol 44(2), pages 132-142, 2012.
• ECHARD B., GAYTON N., LEMAIRE M., AK-MCS : an Active learning reliability method
combining Kriging and Monte Carlo Simulation, Structural Safety, Vol 33, pages 145-154,
2011.
• GAYTON N., BEAUCAIRE P., BOURINET J.M., DUC E., LEMAIRE M., GAUVRIT L., APTA :
Advanced Probability - based Tolerance Analysis of products, Mécanique et Industries,
Vol 12, pages 71-85, 2011.
• NOTIN A., GAYTON N., DULONG J.L., LEMAIRE M., VILLON P., RPCM : A strategy to
perform reliability analysis using polynomial chaos and resampling - application to
fatigue design, European Journal of Computational Mechanics, Vol 19(8), pages 795-830, 2010.
• GAYTON N., LEMAIRE M., Reliability assessment of structures subjected to fatigue
failure, Ships and Offshore Structures, Vol 4(3), pages 229-239, 2009.
• GAYTON N., MOHAMED A., SORENSEN J.D., PENDOLA M., LEMAIRE M., Calibration
methods for reliability-based design codes, Structural Safety Vol 26, pages 91-121, 2004.
• GAYTON N., BOURINET J.M., LEMAIRE M., CQ2RS : A new statistical approach to the
response surface method for reliability analysis, Structural Safety Vol 25, pages 99-121, 2003.
Revues référencées ISI ou SCOPUS en cours d’évaluation (3)
161
Liste de publications au 1/10/2012
• NOTIN A., DULONG JL., GAYTON N., VILLON P., LEMAIRE M., SLDLT : A new solver
for sensitivity analysis using Monte Carlo simulations with random fields, Advances in
Engineering Software, soumis le 27/09/2012.
• DANTAN J.Y., DUMAS A., GAYTON N., QURESHI A.J., LEMAIRE M., ETIENNE A., Tolerance analysis approach based on the classification of uncertainties (aleatory / epistemic), Proceedings of the Institution of Mechanical Engineers, Part B : Journal of Engineering
Manufacture , soumis le 16 juillet 2012, article sélectionné après la conférence CAT2012.
• BEAUCAIRE P., GAYTON N., DANTAN JY., DUC E., Statistical tolerance analysis of overconstrained mechanism using system reliability methods, Computer Aided Design, soumis
le 4/04/2012.
Revue nationale à comité de lecture (2)
• GAYTON N., BEAUCAIRE P., DUC E., LEMAIRE M., The APTA method for the tolerance
analysis of products - comparison of capability-based tolerance and inertial tolerance,
Asian International Journal of Science and Technology, Vol 4(3), pages 24-36, 2011.
• GAYTON N., LAMBELIN J.P., LEMAIRE M., Approche probabiliste du facteur de réduction
de charge d’une coque mince. Mécanique et Industries, Vol 3, pages 227-236, 2002.
Chapitre de livre international (2)
• DUMAS A., ECHARD B., GAYTON N., ROCHAT O., DANTAN JY., AK-ILS : an Active
learning method based on Kriging for the Inspection of Large Surfaces, Functional rough
surfaces : manufacturing, measurements and applications, à paraı̂tre.
• GAYTON N., MOHAMED A., PENDOLA M., Chapter 2.2.2 : Calibration techniques of
safety factors, Lifetime management of structure, ed. Lannoy A., ESReDA, Det Norske Veritas,
2005.
Brevets (2)
• GAYTON N., BARRET G. Dispositif de liaison articulée d’un essuie glace sur un bras,
FR2907738, 2008-05-02.
• GAYTON N., Dispositif de couplage pour un balai d’essuie glace plat, FR2902062, 200712-14.
Conférences internationales invitées en session plénière (1)
• GAYTON N., ECHARD B., AFZALI M., BIGNONNET A., BOUCARD P.A., DEFAUX G., DULONG J.L., GHOUALI A., LEFEBVRE F., MASMOUDI M., NOTIN A., NÉRON D., OSTMANE
A., PYRE A., RELUN N., Approfi project - A new approach of reliability Assessment of
structures subjected to fatigue, Fatigue Design 2011, Senlis, 2011.
Conférences internationales (27)
• BEAUCAIRE P., GAYTON N., DANTAN JY., DUC E., LEMAIRE M., Statistical tolerance
analysis of a mechanism with gaps based on system reliability methods, CAT2012, 12th
CIRP International conference on Computer Aided Tolerancing, Huddersfield, UK, 2012.
19 décembre 2012
Page 162/172
HDR, Nicolas Gayton
Liste de publications au 1/10/2012
• J.Y. DANTAN, N. GAYTON, A.J. QURESHI, M. LEMAIRE, A. ETIENNE, Tolerance analysis
approach based on the classification of uncertainties (aleatory / epistemic), CAT2012,
12th CIRP International conference on Computer Aided Tolerancing, Huddersfield, UK, 2012
• NOTIN A., DULONG J.L., VILLON P., GAYTON N., GOUALI A., SLDLT : a modification
of the Cholesky decomposition to speed up Monte Carlo simulations, IASS-IACM 2012,
Sarajevo, Bosnia and Herzegovina, avril 2012.
• DUMAS A., ECHARD B., GAYTON N., ROCHAT O., AK-ILS : A new Active learning
method based on Kriging for the Inspection of Large Inspection, ICSM2012, Annecy,
2012.
• ECHARD B., GAYTON N., LEMAIRE M., AFZALI M., BIGNONNET A., BOUCARD P.A.,
DEFAUX G., DULONG J.L., GHOUALI G., LEFEBVRE F., PYRE A., Reliability assessment
of an aerospace component subjected to fatigue loadings : APPRoFi project, Fatigue
Design 2011, Senlis, 2012.
• BOUCARD P.A., NERON D., RELUN N., ECHARD B., GAYTON N., LEMAIRE M., AFZALI M.,
LEFEBVRE F., BIGNONNET A., DEFAUX G., DULONG J.L., OTSMANE A., CHEROUALI
H., Reliability assessment of an aircraft engine assembly : APPRoFi project, Fatigue
Design 2011, Senlis, 2012.
• ECHARD B., GAYTON N., LEMAIRE M., A Kriging improvement of the Monte Carlo
Simulation : AK-MCS method, ICASP11, Zurich, Switzerland, 2011.
• NOTIN A., DULONG JL., GAYTON N., VILLON P., LEMAIRE M., JAFFAL H., RPCM :
A strategy to perform reliability analysis using polynomial chaos and resampling Application to fatigue design, ICASP11, Zurich, Switzerland, 2011.
• NOTIN A., DULONG J.L., VILLON P., GAYTON N., LEMAIRE M., SLDLT : A new approach
to speed up Monte Carlo simulations, 5th International Conference on Advances in Mechanical
Engineering and Mechanics ICAMEM2010, Hammamet, Tunisia, 2010.
• NOTIN A., DULONG J.L., GAYTON N., VILLON P., SLDL : a stochastic approach of the
LDL decomposition to speed up Monte Carlo simulations, ECCM, IV European Conference
on Computational Mechanics, Paris, 2010.
• ECHARD B., GAYTON N., LEMAIRE M., Structural Reliability Assessment using Kriging metamodel and Monte Carlo simulation : AK-MCS method, IFIP WG7.5, Munich,
Allemagne, 2010.
• NOTIN A., GAYTON N., DULONG J.L., LEMAIRE M., VILLON P., A strategy to perform
reliability analysis using polynomial chaos and resampling : application to fatigue design, Fatigue Design 2009, Senlis, 2009.
• ECHARD B., GAYTON N., LEMAIRE M., Reliability assessment of structures subjected
to fatigue failure using kriging methods, Fatigue Design 2009, Senlis, 2009.
• NOTIN A., GAYTON N., LEMAIRE M., DULONG J.L., Stochastic fatigue lifetime computation : evaluation by polynomial chaos and resampling, ICCOSSAR2009, Osaka, Japan,
2009.
• NOTIN A., DULONG J.L., VILLON P., GAYTON N., Crout decomposition for stochastic
simulation, NAFEMS, Crete, Greece, 2009.
• GAYTON N., DUC E., LEMAIRE M., The use of probabilistic approach for the tolerancing
management in design process, CAT2009, 11th CIRP International conference on Computer
Nicolas Gayton
Page 163/172
19 décembre 2012
Liste de publications au 1/10/2012
Aided Tolerancing, Annecy, France, 2009.
• GAYTON N., GAUVRIT L., DUC E., LEMAIRE M., A methodology to assess the out to-
lerance probability with linear stacks or non linear functional requirements, SIA robust
design through simulation, Paris, 2008.
• GAYTON N., LEMAIRE M., Reliability assessment of structures subjected to fatigue
failure, ASRANet, Athens, Greece, 2008.
• GAYTON N., LEMAIRE M., Partial safety factor methodology applied to structural fatigue design, Fatigue Design, Senlis, 2007.
• GAYTON N., MOHAMED A., PENDOLA M., LEMAIRE M., Partial safety factors calibration
of thin shells subjected to buckling, IFIP TC7 WG7.5 on Reliability and Optimization of
structural Systems, Osaka, Japan, 2002.
• GAYTON N., MOHAMED A., PENDOLA M., LEMAIRE M., Reliable design of thin axisymmetric shells using partial factor calibration, 4th International Conference on Integrated
design and manufacturing in Mechanical Engineering, Clermont-Ferrand, France, 2002.
• GAYTON N., LEMAIRE M., Probabilistic approach for the design of thin axisymmetric
shells, In Integrating Structural Reliability Analysis and Advanced Structural Analysis, ASRANet,
Glasgow, Scotland, 2002.
• BOURINET J.M., GAYTON N., LEMAIRE M., COMBESCURE A., Plastic collapse of imperfect submarine pressure hulls : a probabilistic approach, In 8th International Conference
on Structural Safety and Reliability, Newport Beach, California, USA, 2001.
• GAYTON N., PENDOLA M., LEMAIRE M., Partial safety factors calibration of externally
pressurised thin shells, In Third European Conference on Launcher Technology ”Structures and
Technologies, challenges for future launchers”, CNES Editor, Strasbourg, France, 2001.
• BOURINET J.M., GAYTON N., LEMAIRE M., COMBESCURE A., Reliability analysis of
stability of shells based on combined finite element and response surface methods, In
Computational Methods for Shell and Spatial Structures, Athens, Greece, 2000.
• GAYTON N., BOURINET J.M., LEMAIRE M., A new tool for response surface approach of
structural reliability, In IFIP TC7 WG7.5 on Reliability and Optimization of strutural systems,
Ann Arbor, Michigan, USA, 2000.
Conférences nationales (13)
• DANTAN J.Y., GAYTON N., DUMAS A., ETIENNE A.,QURESHI A.J., Mathematical issues
in mechanical tolerance analysis, 13ème Colloque National AIP PRIMECA, Le Mont Dore,
2012.
• BEAUCAIRE P., GAYTON N., DUC E., DANTAN J.Y., Statistical tolerance analysis of a
mechanism with gaps based on system reliability methods, 13ème Colloque National AIP
PRIMECA, Le Mont Dore, 2012.
• DUMAS A., ECHARD B., GAYTON N., ROCHAT O., AK-ILS : an active learning method
based on kriging for the inspection of large surfaces, 13ème Colloque National AIP PRI-
MECA, Le Mont Dore, 2012.
• GAYTON N., Active learning reliability methods based on Kriging - Une nouvelle classe
de méthodes de fiabilité basées sur le krigeage, Journées thématique de la SIA, la fiabilité
et la robustesse par la simulation numérique, Paris, 2012.
19 décembre 2012
Page 164/172
HDR, Nicolas Gayton
Liste de publications au 1/10/2012
• GAYTON N., ECHARD B., Active learning based on Kriging methods - Une nouvelle
classe de méthodes de simulation basées sur le krigeage, Journées de Fiabilité des Matériaux
et des Structures 2012, 7èmes Journées Nationales de Fiabilité, Chambéry, 2012.
• NOTIN A., DULONG JL., GAYTON N., VILLON P., LEMAIRE M., SLDLT : une technique de
mise à jour de la décomposition LDLT pour l’accélération des simulations de Monte
Carlo dans le cas de champs stochastiques non uniformes, 10ème colloque nationale en
calcul de structures, Giens, 2011.
• BEAUCAIRE P., GAYTON N., DUC E., LEMAIRE M., Méthode APTA pour l’analyse sta-
tistique des tolérances des systèmes mécaniques, 12ème Colloque National AIP PRIMECA,
Le Mont Dore, 2011.
• ECHARD B., GAYTON N., LEMAIRE M., AK-MCS : an Active learning reliability method
combining Kriging and Monte Carlo Simulation to compute the probability of failure
efficiently, Journées de Fiabilité des Matériaux et des Structures 2010, 6èmes Journées Nationales
de Fiabilité, Toulouse, 2010.
• GAYTON N., BEAUCAIRE P., DUC E., LEMAIRE M., Application des méthodes fiabilistes
au tolérancement statistique des systèmes mécaniques, Journées de Fiabilité des Matériaux
et des Structures 2010, 6èmes Journées Nationales de Fiabilité, Toulouse, 2010.
• NOTIN A., DULONG J.L., GAYTON N., VILLON P., Utilisation de la décomposition LDLt en
simulation stochastique, 9ème colloque nationale en calcul de structures, 25-29 mai 2009, Giens
(Var).
• GAYTON N., LEMAIRE M., Calibration des coefficients partiels pour le dimensionnement
des structures en fatigue, 25èmes Rencontres Universitaires de Génie Civil - Conception et vie
des ouvrages, Bordeaux, 2007.
• LEGAY A., GAYTON N., COMBESCURE A., LEMAIRE M., Calculs de flambage non-
linéaires paramétrés pour l’étude de fiabilité des coques minces raidies, Journée AIP-
Primeca, Méthodes non déterministes en conception intégrée, ENS Cachan, 2002.
• GAYTON N., LAMBELIN J.P., LEMAIRE M., Dimensionnement d’une coque de révolution
conique raidie par une approche probabiliste, Xvème Congrès Français de Mécanique, AUM,
Nancy, 2001.
Nicolas Gayton
Page 165/172
19 décembre 2012
Liste de publications au 1/10/2012
19 décembre 2012
Page 166/172
HDR, Nicolas Gayton
Annexe B
Liste des notations
B.1
Liste des notations générales
Vecteurs - Matrices
s
Scalaire
v
Vecteur ligne
vi
ième composante du vecteur v
v = {v1 , ..., vn }
t
vt = {v1 , ..., vn }
Vecteur ligne de taille n
Vecteur colonne de taille n
[m]
Matrice
mij
Terme situé sur la ième ligne et la j ème colonne de la matrice [m]
Analyse fiabiliste
X
Vecteur des variables aléatoires
n
Nombre de variables aléatoires, taille de X
x
Une réalisation du vecteur X
(j)
j ème réalisation (expérience) du vecteur X
x
Xi
Variable aléatoire numéro i
xi
Une réalisation de Xi
(j)
xi
j ème réalisation de Xi
fX (x)
Densité conjointe de probabilité de X
167
Liste des notations
fXi (xi )
Densité marginale de la variable Xi
mi
Moyenne de la variable Xi
σi
Ecart-type de la variable Xi
ci
Coefficient de variation de la variable Xi
Φ
Fonction de répartition de la gaussienne centrée réduite
φ
Densité de probabilité de la gaussienne centrée réduite
φn
Densité conjointe de probabilité de la loi multi-normale standard en dimension n
E[.]
Espérance mathématique
U
Vecteur des variables standards
u
Une réalisation du vecteur U
(j)
j ème réalisation (expérience) du vecteur U
u
Ui
Variable standard numéro i
ui
Une réalisation de Ui
(j)
ui
j ème réalisation de Ui
G(x)
Fonction de performance dans l’espace physique
H(u)
Fonction de performance dans l’espace standard
G(x) = 0
Fonction d’état limite dans l’espace physique
H(u) = 0
Fonction d’état limite dans l’espace standard
T
Transformation iso-probabiliste
Pf
Probabilité de défaillance
β
Indice de fiabilité
P∗
x∗i ,
u∗i
αi
Point de défaillance le plus probable
Coordonnées du point de défaillance le plus probable
Cosinus directeurs
19 décembre 2012
Page 168/172
HDR, Nicolas Gayton
Liste des notations
B.2
Liste des principales notations spécifiques au chapitre 1
CQ2RS
Complete Quadratic Response Surface method with ReSampling
RPCM
Resampling-based Polynomial Chaos Method
PEN
x1 , ..., xp
Plan d’Expériences Numériques
Echantillon de taille p
T
Une statistique
T̂
Estimation de la statistique T à partir de l’échantillon initial
T̂i∗
Estimation de T à partir d’un sous échantillon
T̂ ∗
Estimateur de T par ré-échantillonnage
σ̂T̂ ∗
Ecart-type des estimations à partir des sous-échantillons
α
Niveau de confiance
B
Nombre de sous-échantillons générés par Bootstrap
p
Nombre d’expériences du plan
H̃(u)
P̃ ∗
ũ
∗
Approximation de H(u) par surface de réponse
Point estimation du point de défaillance le plus probable
Estimation des coordonnées du point de défaillance le plus probable
S(x)
Réponse du modèle, grandeur mécanique d’intérêt
S̃(x)
Approximation de S(x) développée sur la base du chaos polynomial
ψj (x)
j ème polynôme du chaos polynomial
P
Nombre de polynômes dans le développement sur le chaos polynomial
sj
Coefficients du chaos polynomial
s
Vecteur des coefficients du chaos polynomial
S
Vecteur des calculs mécaniques
d
Degré / ordre du chaos polynomial
f˜S (s)
k,d
k,d
[β̃min
, β̃max
]
Densité de probabilité de la réponse approximée par lissage à noyau
Intervalle de confiance de l’indice de fiabilité obtenu par la méthode RPCM
Nicolas Gayton
Page 169/172
19 décembre 2012
Liste des notations
B.3
Liste des principales notations spécifiques au chapitre 2
MCS
IS
MCSm
SS
Monte Carlo Simulation - Simulation de Monte Carlo
Importance Sampling - Tirage d’importance
Monte Carlo Simulation under monotony
Subset Simulations
BLUP
Best Linear Unbiaised Predictor
EGRA
Efficient Global Reliability Analysis
EFF
Expected Feasibility Function
AK-RM
Active Learning and Kriging - based Reliability Methods
AK-MCS
Active Learning and Kriging - based Monte Carlo Simulation
AK-IS
Active Learning and Kriging - based Importance Sampling
AK-SS
Active Learning and Kriging - based Subset Simulation
AK-SYS
Active Learning and Kriging - based SYStem reliability method
AK-OPT
Active Learning and Kriging - based OPTimization method
AK-ILS
Active Learning and Kriging - based Inspection of Large Surface
MPFP
Most Probable Failure Point
S
Domaine de sûreté
F
Domaine de défaillance
IF (u)
Compteur de défaillance
PMCS
Population de Monte Carlo
PIS
Population du tirage d’importance
N
Nombre de points à classer
NE
Nombre de calculs de la fonction de performance
NM CS
Nombre de points de la simulation de Monte Carlo
NIS
Nombre de points du tirage d’importance
P̂f
Estimation de la probabilité de défaillance
ϕn (u)
Densité conjointe de probabilité utilisée en tirage d’importance
Hk
k ème seuil de subset
H(u)
Processus gaussien
p
Nombre d’expériences du plan
H
Vecteur des calculs du plan d’expériences
19 décembre 2012
Page 170/172
HDR, Nicolas Gayton
Liste des notations
B.4
Liste des principales notations spécifiques au chapitre 3
EF
Equivalent Fatigue
Fm
Chargement moyen
σm
Contrainte moyenne
Fa
Amplitude de chargement
σa
Amplitude de contrainte
Fmax
Chargement maximum
σmax
Contrainte maximum
Fmin
Chargement minimum
σmin
Contrainte minimum
R
Facteur de charge en contrainte
N
Nombre de cycles à l’amorçage d’une fissure
σa′
Amplitude de contrainte à R = −1
D
Endommagement
σa,j
j eme Classe d’amplitude de contrainte
σm,k
k eme Classe de contrainte moyenne
nj,k
Nombre de cycles de la classe amplitude numéro j et moyenne numéro k
dj,k
Fraction de dommage associée à la classe amplitude numéro j et moyenne numéro k
Neq
Nombre de cycles équivalent
σeq
Equivalent fatigue en contrainte symétrique à Neq
req
Résistance à Neq
Xm
Vecteur des variables matériaux
Xg
Vecteur des variables géométriques
Xl
Vecteur des variables définissant le chargement
Xsn
Vecteur des variables définissant la courbe S − N
Nicolas Gayton
Page 171/172
19 décembre 2012
Liste des notations
B.5
Liste des principales notations spécifiques au chapitre 4
TNC
Taux de non Conformité
VD
Domaine de Variation
ppm
Pièces Par Millions
X
Vecteur des côtes ou dimensions
d
Vecteur des variables de jeu entre les pièces
n
Nombre de dimensions d’une chaı̂ne de cotes
Y
Grandeur fonctionnelle d’intérêt
f
Relation définissant la chaı̂ne de cote
LSLY , U SLY
Bornes fonctionnelles de Y
Ti
Valeur nominale de la dimension Xi
ti
Intervalle de tolérance de Xi
mi
Moyenne de Xi
δi
Décalage de moyenne de Xi
σi
Ecart-type de Xi
Cpi , Cpki
Niveau de capabilité de Xi
(r)
Cpi ,
Exigences de capabilité
(r)
Cpki
PD
PD|δ,σ
Probabilité de défaut au Taux de Non Conformité
Probabilité conditionnée ou ponctuelle
σimin
Ecart-type minimum d’un lot dans les conditions optimales de fabrication
max
Cpi
Niveau de capabilité maximum d’un lot dans les conditions optimales de fabrication
hδ,σ (δi , σi )
Densité conjointe de probabilité des décalages de moyenne et écart-type pour la dimension Xi
U
PD
Borne supérieure du TNC, calcul dit au pire des cas statistiques
PDa
Taux de non conformité lié à un problème d’assemblage
PDf
Taux de non conformité lié à un problème fonctionnel
Fc
Grandeur caractéristique fonctionnelle
mi (X, d)
Equations définissant l’assemblage du système
gi (X, d)
Relation de non interférence
Nc
Nombre de relations de non interférence, nombre de points de contact potentiels
Ns
Nombre de configurations différentes de points de contact
19 décembre 2012
Page 172/172
HDR, Nicolas Gayton