Méthodes probabilistes pour la conception mécanique
Transcription
Méthodes probabilistes pour la conception mécanique
Mémoire d’Habilitation à Diriger des Recherches UFR Sciences et Technologies - Université Blaise Pascal, Clermont-Ferrand Méthodes probabilistes pour la conception mécanique Application à la fatigue des structures et à l’analyse des tolérances Nicolas Gayton Institut Français de Mécanique Avancée Institut Pascal Soutenue le 23 novembre 2012 Composition du jury : Alaa CHATEAUNEUF Bertrand IOOSS Maurice LEMAIRE Luc MATHIEU Bruno SUDRET Professeur Chercheur Professeur Professeur Professeur Université Blaise Pascal sénior HDR, EDF R&D Emérite à l’IFMA IUT de Cachan à l’ETH de Zurich A mes filles Pauline et Juliette, A mon épouse Aurélia, A mes parents. Remerciements Ce mémoire d’Habilitation à Diriger des Recherches dresse le bilan de mes activités de recherche depuis 1999, activités qui ont été interrompues entre 2002 et 2006 lors de mon passage dans l’industrie automobile. Le bilan de ces travaux est le fruit de collaborations personnelles, académiques et industrielles. Un des points forts de notre métier est les rencontres multiples et variées que l’ont peut faire. J’espère n’oublier personne dans cette page de remerciements. Mes premiers remerciements s’adressent au Professeur Maurice Lemaire pour bien des raisons tant tu as contribué à mes activités de recherche et à mon évolution professionnelle. De façon générale, merci pour ton soutien et tes conseils. Je n’oublierai jamais le mail que tu m’a envoyé en janvier 2006 me demandant de prendre contact avec toi. Cela a été un tournant dans ma carrière professionnelle, je t’en suis extrêmement reconnaissant tant mes activités professionnelles actuelles me passionnent. Ensuite, je souhaite remercier le Professeur Alaa Chateauneuf pour avoir été tuteur de mon HDR et m’avoir également suivi depuis un certains nombre d’années. J’espère que nos collaborations se poursuivront et s’intensifieront dans le futur. J’aimerais également remercier les rapporteurs de mes travaux d’HDR, Pr. Sudret, Pr. Mathieu, Dr. Iooss, pour leur travail d’examen approfondi de mon mémoire qui a conduit à des discussions très enrichissantes lors de la soutenance. J’adresse mes profonds remerciements à M. Dréan, sans qui je ne pourrais assurer la responsabilité du pôle St2M. Le bon fonctionnement du pôle St2M te revient en grande partie. C’est un plaisir de travailler avec toi. Je ne saurais oublier mes doctorants, sans qui je n’aurais pas pu soutenir cette HDR. Merci à ceux qui ont soutenu : Alban, Benjamin et Paul pour votre sérieux. Merci à ceux qui triment actuellement : Antoine et Simon. Ces travaux ont également pu avoir lieu grâce aux financements de l’Agence Nationale de la Recherche, de la Région Auvergne et de plusieurs partenaires industriels. En premier la société Phimeca qui suit mes activités depuis quelques années maintenant et avec qui nos échanges sont très enrichissants. Merci donc particulièrement à M. Pendola, T. Yalamas et J. Alba. Un grand merci également à L. Gauvrit de la société RADIALL, à G. Petitet de la société Valeo SE, à O. Rochat de la société Airbus CIMPA, à A. Otsmane de la SNEMCA et à P. Rumelhart de la société Manitowoc. J’adresse également mes remerciements à tous mes collègues de l’IFMA grâce à qui l’ambiance de travail est extrêmement stimulante. Enfin, merci à ma épouse Aurélia et à mes filles Juliette et Pauline, sans qui rien n’aurait de sens. 5 Résumé Ce mémoire présente tout d’abord mon parcours professionnel depuis l’obtention de mon diplôme d’ingénieur en 1999. Dans le premier chapitre (numéro 0), il présente mon bilan d’activités (recherche, pédagogie, actions de transfert de technologie et responsabilités administratives) depuis mon recrutement en 2006 en tant que maı̂tre de conférences à l’Institut Français de Mécanique Avancée. Les chapitres numérotés 1 à 4 sont ensuite largement consacrés à l’exposé de mes activités de recherche autour de la gestion des incertitudes en conception par l’utilisation des approches probabilistes. Mes activités de recherche se sont articulées autour de deux thématiques, dites activités de recherche appliquées, dont les modèles de comportement mis en jeu sont très sensibles à des variables fortement incertaines et dont les enjeux industriels me sont apparus comme très importants. La première thématique est l’analyse des structures en fatigue où une alternative a été proposée à la méthode Contrainte - Résistance pour prendre en compte les incertitudes observées à un niveau d’échelle supérieur tout en fournissant les facteurs d’importance associés à chaque variable incertaine. La seconde thématique est l’analyse des tolérances pour laquelle une méthode innovante nommée APTA Advanced Probability based Tolerance Analysis of products a été développée pour prendre en compte les variabilités des lots en fabrication de grande série. Dans le cadre de ces travaux, une réflexion a aussi été menée pour considérer des systèmes hyperstatiques avec un temps de calcul acceptable. Ces activités de recherche appliquées ont nécessité des développements méthodologiques spécifiques principalement pour pouvoir conduire les calculs fiabilistes en un temps raisonnable. Des méthodes basées sur les techniques de ré-échantillonnage ont tout d’abord été développées (méthodes CQ2RS Complete Qudratic Response Surface method with ReSampling et RPCM Resampling-based Polynomial Chaos Method ) pour valider les résultats proposés par des méthodes basées sur des surfaces de réponse polynomiales. Les méthodes AK Active Learning and Kriging based methods ont ensuite été développées à partir du krigeage et semblent présenter un intérêt considérable vis-à-vis d’autres méthodes de la littérature. A la fin de ce mémoire, le lecteur pourra trouver la “road map” de mes activités de recherche pour les années à venir. Ces travaux ont été menés dans le cadre de travaux de Master 2 Recherche (A. Dumas, S. Bucas) et Doctorat (A. Notin, B. Echard, P. Beaucaire) et se poursuivent actuellement avec les thèses de S. Bucas et A. Dumas. Ces travaux sont financés par différents moyens : contrats de recherche industriels avec Phimeca Engineering, Valeo SE, RADIALL SA, projets ANR APPROFI et ATHOLA, contrat de thèse CIFRE avec le CETIM et Manitowoc. Ma production scientifique, en lien avec ces activités, est constituée de 10 revues internationales référencées ISI ou SCOPUS, 2 revues nationales à comité de lecture, 2 chapitres de livre international, 2 brevets, 1 conférence internationale invitée en session plénière, 27 publications en conférences internationales, 13 publications en conférences nationales. 7 Table des matières Remerciements 5 Résumé 7 Parcours professionnel et rapport d’activités 11 0.1 Curriculum Vitae . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 0.2 Bilan des activités de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 0.3 Activités pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 0.4 Responsabilités administratives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 0.5 Actions de transfert de technologie et formation industrielle . . . . . . . . . . . . . . . . . 21 0.6 Conclusion 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Structuration des activités de recherche 23 I 27 Développements méthodologiques 1 Techniques de ré-échantillonnage pour l’analyse de fiabilité 29 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.2 Brefs rappels des méthodes FORM/SORM . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.3 Ré-échantillonnage et intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.4 Méthode CQ2RS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 1.5 Méthode RPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 1.6 Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 2 Utilisation du krigeage pour l’analyse de fiabilité 59 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 2.2 Brefs rappels des méthodes de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.3 Principes de base du krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 2.4 Les méthodes Active Learning pour la fiabilité 68 2.5 Principe de classification des points des méthodes AK . . . . . . . . . . . . . . . . . . . . 70 2.6 Présentation des méthodes AK-RM pour la fiabilité . . . . . . . . . . . . . . . . . . . . . . 72 2.7 Autres applications de la stratégie de classification AK . . . . . . . . . . . . . . . . . . . . 80 9 . . . . . . . . . . . . . . . . . . . . . . . . TABLE DES MATIÈRES 2.8 II Conclusion, perspectives et synoptique des méthodes AK . . . . . . . . . . . . . . . . . . 82 Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Recherches appliquées 87 3 Dimensionnement fiable des structures sollicitées en fatigue 89 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 3.2 Dimensionnement déterministe vis-à-vis de la fatigue . . . . . . . . . . . . . . . . . . . . . 91 3.3 Méthode Contrainte - Résistance pour l’analyse fiabiliste . . . . . . . . . . . . . . . . . . . 96 3.4 Méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.5 Application à l’analyse fiabiliste d’un disque aubagé . . . . . . . . . . . . . . . . . . . . . 105 3.6 Application à l’analyse fiabiliste d’une ailette de divergent . . . . . . . . . . . . . . . . . . 109 3.7 Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 4 Analyse des tolérances par calcul du taux de non conformité 119 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 4.2 Méthode APTA pour la modélisation des lots de fabrication . . . . . . . . . . . . . . . . . 121 4.3 Analyse des tolérances des systèmes hyperstatiques avec jeux . . . . . . . . . . . . . . . . 135 4.4 Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Conclusions et perspectives 147 Bibliographie 150 A Liste de publications 161 B Liste des notations 167 B.1 Liste des notations générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 B.2 Liste des principales notations spécifiques au chapitre 1 . . . . . . . . . . . . . . . . . . . 169 B.3 Liste des principales notations spécifiques au chapitre 2 . . . . . . . . . . . . . . . . . . . 170 B.4 Liste des principales notations spécifiques au chapitre 3 . . . . . . . . . . . . . . . . . . . 171 B.5 Liste des principales notations spécifiques au chapitre 4 . . . . . . . . . . . . . . . . . . . 172 19 décembre 2012 Page 10/172 HDR, Nicolas Gayton Parcours professionnel et rapport d’activités Sommaire 0.1 0.2 Curriculum Vitae . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.1.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0.1.2 Activités professionnelles 0.1.3 Expérience professionnelle chez Valeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 13 . . . . . . . . . . . . . . . . . . . . . . . 13 Bilan des activités de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . 15 0.2.1 Thématiques de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 0.2.2 Productions scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 0.2.3 Encadrements scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 0.2.4 Responsabilités scientifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 0.2.5 Rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 0.2.6 Autres activités de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 0.2.7 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 0.3 Activités pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 0.4 Responsabilités administratives . . . . . . . . . . . . . . . . . . . . . . . . . . 20 0.5 Actions de transfert de technologie et formation industrielle . . . . . . . . 21 0.6 Conclusion 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Parcours professionnel et rapport d’activités Ce chapitre résume ma carrière depuis l’obtention de mon diplôme d’ingénieur IFMA jusqu’à aujourd’hui. Le lecteur pourra trouver tout d’abord un Curriculum Vitae détaillant aussi mes responsabilités chez Valeo et montrant tout l’intérêt d’une expérience industrielle dans un service de Recherche et Développement pour exercer ensuite des fonctions d’enseignant-chercheur en école d’ingénieurs. Avant de passer aux détails scientifiques de mes activités de recherche (chapitres 1 à 4), l’objectif de ce chapitre est de montrer l’équilibre que j’ai mis en place entre les quatre missions de l’enseignant-chercheur en termes de recherche, d’enseignement, de responsabilités administratives et d’actions de transfert et de valorisation. 0.1 Curriculum Vitae Cette section présente mon parcours professionnel au niveau académique et industriel. Mon expérience professionnelle de quatre ans (de 2002 à 2006) chez Valeo après l’obtention de ma thèse de Doctorat est la particularité de mon CV. Une section lui est consacrée afin de détailler mes activités et de présenter tout le bénéfice de ce genre d’expérience pour l’exercice des fonctions de maı̂tre de conférences en école d’ingénieurs. 0.1.1 Présentation Nom GAYTON Prénom Nicolas Date et Lieu de naissance 28 juillet 1975 (Clermont-Ferrand) Nationalité Française Situation familiale Marié, 2 enfants Adresse personnelle 13 impasse de l’eau vive, Saint Genès l’Enfant, 63200 Malauzat Fonctions actuelles Maı̂tre de Conférences à l’IFMA, membre de l’Institut Pascal (UMR 6602 UBP-CNRS-IFMA). Responsable du pôle Struc- . tures et Mécanique des Matériaux (St2M) à l’IFMA Adresse professionnelle Institut Français de Mécanique Avançée, Campus de ClermontFerrand, Les Cézeaux, 63175 Aubière. Diplômes Docteur de l’Université Blaise Pascal, Clermont II, spécialité Génie Mécanique (2002), titulaire du D.E.A. “Matériaux, Structures, Fiabilité” de l’Université Blaise Pascal, Clermont II (1999), Ingénieur de l’Institut Français de Mécanique Avancée (1999). Téléphone 04 73 28 81 21 E-mail [email protected] 19 décembre 2012 Page 12/172 HDR, Nicolas Gayton Parcours professionnel et rapport d’activités 0.1.2 Activités professionnelles Cette section présente chronologiquement mes activités professionnelles depuis l’obtention de mon D.E.A. et de mon diplôme d’ingénieur en 1999. Depuis juil. 2011 Responsable du pôle d’enseignement Structures et Mécanique des Matériaux (St2M) à l’Institut Français de Mécanique Avancée. Depuis oct. 2006 Maı̂tre de conférences 60eme section, enseignant IFMA, chercheur à l’Institut Pascal (UMR 6602 UBP-CNRS-IFMA). Oct. 2002 - sept. 2006 . Responsable des études dédié au constructeur Renault, Valeo Systèmes d’Essuyage, 63500 Issoire. Sept. 2001 - sept. 2002 Attaché Temporaire d’Enseignement et de Recherche, IFMA Juil. 1999 - Aout 2000 Préparation d’une thèse de Doctorat, “Dimensionnement semiprobabiliste des coques minces de révolution susceptibles d’instabilités géométriques”, thèse de Doctorat soutenue le 26 septembre 2002 sous la direction du Professeur Maurice Lemaire. Avant de présenter le bilan de mes activités de recherche, la section suivante est dédiée à la présentation des mes activités chez Valeo Système d’Essuyage. Cette expérience représente la particularité de mon CV et a été un véritable atout pour assurer les fonctions d’enseignant-chercheur en école d’ingénieurs. Mes activités de recherche concernant l’analyse des tolérances (chapitre 4) sont directement issues de ces quatre années d’expériences. En contre partie, ces quatre années n’ont pas été très propices aux productions scientifiques mais m’ont malgré tout permis de déposer deux brevets. 0.1.3 Expérience professionnelle chez Valeo Attiré par le milieu industriel, j’ai décidé d’avoir une vraie expérience industrielle dans un secteur très concurrentiel qu’est l’automobile. J’ai donc passé quatre années chez Valeo Système d’Essuyage, site d’Issoire, où j’ai occupé des fonctions de responsable des études dédié au constructeur Renault. Voici un aperçu de mes activités pendant ces quatre années (de 2002 à 2006). La fonction principale d’un système d’essuyage est de permettre la visibilité au conducteur et au passager lorsque les conditions météorologiques sont difficiles. Il s’agit d’un système soumis à diverses réglementations (surface essuyée à 160km/h, non agressivité des formes car potentiellement dangereuses lors d’un accident) et dit potentiellement sécuritaire (système avant) car sa défaillance lorsqu’il pleut peut avoir des conséquences meurtrières. Ce système est donc soumis à plusieurs contraintes (aérodynamique très lourd à modéliser, esthétique tout au long de la durée de vie des outillages série, vieillissement car fortement exposé aux contraintes climatiques, à la fatigue, ...). Ces différentes fonctions et contraintes doivent être prises en compte lors de la conception de ce système. L’emploi que j’ai occupé chez VALEO pendant quatre ans s’intégrait dans le processus de développement des constructeurs automobiles pour mettre en série un nouveau véhicule. Il avait pour objectif l’étude des systèmes d’essuyage jusqu’à la mise en série de ce sous-ensemble pour le livrer au constructeur automobile tout au long de la durée de Nicolas Gayton Page 13/172 19 décembre 2012 Parcours professionnel et rapport d’activités vie de son nouveau véhicule. L’activité principale de ce travail consistait à manager divers contributeurs (bureau d’étude, prototype, laboratoire) en ingénierie simultanée tout au long des 5 grandes phases du projet de développement d’un véhicule : • Phase 0 : réponse à l’appel d’offre du constructeur automobile, implantation CAO du système d’essuyage dans la coque du véhicule qui évoluera ensuite au gré des contraintes des différents équipementiers retenus sur le projet. Définition des aménagements véhicule à effectuer et vérification des points de conformité et de non-conformité par rapport au exigences du client. • Phase 1 : évolution du design véhicule et des exigences du client, définition complète du système, des réserves et des risques éventuels avec leurs impacts. • Phase 2 : prototypage du système, validation de la solution retenue, levée des risques, retour en phase 1 de conception si problème. Définition des plans d’ensemble et des pièces primaires et lancement des outillages série. • Phase 3 : réception des premières pièces, mise au point et lancement de la qualification du produit issu des outillages définitifs. • Phase 4 : démarrage série et vérification qu’aucun problème “ étude ” ou “ fiabilité ” n’a lieu. Les compétences nécessaires pour mener à bien ces missions sont multiples : • Savoir travailler en équipe dans un environnement international : constructeur français mais aussi étranger, projets de plus en plus mondiaux avec de multiples sites d’assemblage, fournisseurs étrangers “ low cost ” de plus en plus courants. • Avoir des connaissances techniques très diversifiées : CAO (CATIA V4/V5), cotation fonctionnelle, calcul aux éléments finis des différentes pièces, prototypage, méthodes d’essai et de contrôle. • Avoir des connaissances dans les technologies utilisées : moulage d’aluminium, de Zamack, injection plastique, découpe, emboutissage, travail du fil, extrusion, usinage, décolletage. • Savoir estimer les coûts de fabrication pour proposer les solutions techniques les plus compétitives. Une telle expérience m’a été extrêmement bénéfique à plusieurs niveaux pour occuper des fonctions de maı̂tre de conférences : • Nécessité du travail en équipe pour rassembler des compétences sur des thématiques multidisciplinaires (cas de l’analyse des tolérances). • Expérience dans le montage et la gestion d’un projet R&D. • Cet emploi m’a donné le goût du travail et de la collaboration avec des industriels. • Vision des besoins des industriels, c’est ainsi qu’est née ma thématique de recherche sur l’analyse des tolérances, thématique innovante à l’Institut Pascal et regroupant plusieurs thématiques de recherche (conception/fabrication et analyse probabiliste). • Confidentialité lié à l’innovation. J’ai pu déposer de nombreuses enveloppes Soleau en quatre ans qui ont abouti à deux brevets qui seront mentionnés dans la section 0.2.2. Toutefois, le milieu très concurrentiel qu’est l’automobile, a été un frein pour moi en termes de publications scientifiques puisqu’aucune publication scientifique n’a pu être rédigée sur mes activités. De plus, mon recrutement, en tant que maı̂tre de conférences à l’IFMA sur des thématiques davantage en lien avec mes activités de thèse, a constitué un véritable nouveau départ dans mes activités de recherche. Cependant mes activités de recherche appliquée sont une conséquence directe de mes années passées dans l’industrie automobile. 19 décembre 2012 Page 14/172 HDR, Nicolas Gayton Parcours professionnel et rapport d’activités 0.2 Bilan des activités de recherche Cette section synthétise mes activités de recherche depuis l’obtention de mon D.E.A. en 1999. Elle aborde en premier lieu mes thématiques de recherche suivi de mon bilan en termes de productions scientifiques. Un listing exhaustif de mes activités d’encadrement de la recherche sera ensuite présenté. Enfin, le détail de mes responsabilités scientifiques ainsi que des éléments permettant de juger de mon rayonnement seront fournis. 0.2.1 Thématiques de recherche Mes activités de recherche se situent dans le domaine de la gestion des incertitudes en génie mécanique, domaine très vaste qui occupe de plus en plus d’équipes de recherche académiques et qui intéresse énormément d’industriels. Il s’agit d’un travail centré autour du génie mécanique mais l’intégration des incertitudes implique la nécessité d’outils numériques et mathématiques permettant de traiter des problématiques du domaine du génie mécanique. Mes travaux se sont donc articulés autour de recherches appliquées, dans le domaine cité juste avant, nécessitant des développements méthodologiques pour mener à bien les calculs dans un temps raisonnable. Pour des raisons de fluidité de lecture, mes activités de développement méthodologiques seront présentées en premier lieu pour présenter ensuite les applications qui ont motivé leur développement. Les grandes lignes directrices de mes activités méthodologiques concernent le développement de méthodes numériques pour un calcul à moindre coût des estimateurs de la fiabilité. Deux pistes ont été abordées : • les techniques de ré-échantillonnage pour l’analyse de fiabilité. Des méthodes basées sur les techniques de ré-échantillonnage pour donner des indicateurs de confiance dans les résultats de l’analyse fiabiliste (coordonnées du point de défaillance le plus probable, indice de fiabilité) ont été proposées sur la base de méthodes de surfaces de réponse quadratiques (méthode CQ2RS) ou de chaos polynomiaux (méthode MRCP). • l’utilisation du krigeage pour l’analyse de fiabilité (calcul de probabilités de défaillance pour les structures ou taux de non-conformité pour les systèmes mécaniques). Des méthodes efficaces mettant en œuvre la technique du krigeage ont été développées dans ce contexte conduisant à l’obtention d’une famille de méthodes innovantes nommée AK : Active learning and Kriging based - methods. D’autres développements méthodologiques complémentaires ont aussi été effectués autour des méthodes numériques pour la gestion des incertitudes en génie mécanique. Tout d’abord, l’accélération des calculs fiabilistes nécessite de travailler d’une part sur la gestion du nombre de calculs mécaniques mais également sur les temps de calculs mécaniques pour des situations voisines. Cette activité menée principalement en partenariat avec l’UTC ne sera pas détaillée dans ce mémoire car les travaux présentés dans ce mémoire sont indépendants des méthodes de calcul mécanique utilisées. Le lecteur pourra néanmoins trouver des détails dans [Notin et al., 2012]. Une autre activité méthodologique menée durant ces années concerne la calibration des coefficients partiels de sécurité pour définir des méthodes de calculs des coefficients de sécurité pour un dimensionnement fiable. Ces travaux ne feront pas l’objet d’un chapitre à part mais le lecteur pourra se référer aux références [Gayton et al., 2004; Gayton and Lemaire, 2009] pour trouver le détail de mes contributions sur ce sujet. Mes recherches appliquées qui ont guidé le développement de ces méthodes sont : Nicolas Gayton Page 15/172 19 décembre 2012 Parcours professionnel et rapport d’activités • l’analyse fiabiliste des structures sollicitées en fatigue, le domaine de la fatigue étant très sujet à différentes sources d’incertitudes (chargement, résistance à la fatigue, géométrie, ...), la gestion des incertitudes dans ce domaine trouve tout son sens. • l’analyse des tolérances de fabrication des systèmes mécaniques, thématique née de mes activités chez Valeo Systèmes d’Essuyage. 0.2.2 Productions scientifiques Mes références bibliographiques sont listées en annexe A. Elles peuvent se synthétiser numériquement de la façon suivante (au 15/08/2012) : • 10 revues internationales référencées ISI ou SCOPUS ; • 3 revues référencées ISI en cours d’évaluation ; • 2 brevets ; • 2 revues nationales à comité de lecture ; • 2 chapitres de livre international ; • 1 conférence internationale invitée en session plénière ; • 27 publications en conférences internationales ; • 13 conférences nationales ; La figure 1 présente une synthèse de mes publications par an. 0.2.3 Encadrements scientifiques La liste de mes activités d’encadrement scientifique depuis 2006 est la suivante (les thématiques concernées sont indiquées entre parenthèses). Encadrement avec collaborations universitaires extérieures • Encadrement à 50% de la thèse de A. Notin (ré-échantillonnage, fatigue) - Évaluation à moindre coût de la fiabilité des structures sollicitées en fatigue, soutenue en mai 2011. Thèse en convention CIFRE entre le CETIM et l’UTC, encadrement partagé avec l’UTC. A. Notin est actuellement ingénieur de recherche chez Phimeca Engineering. • Encadrement en cours depuis novembre 2012 à 50% de la thèse de A. Dumas (Analyse des tolérances). Thèse financée par l’ANR sur projet AHTOLA (Advanced Hybrid method for the TOLerance Ana- lysis of complex systems). Encadrement avec l’ENSAM de Metz sur l’analyse des tolérances de fabrication des systèmes hyperstatiques. Encadrement sans collaboration universitaire extérieure • Tuteur de MASTER Recherche de S. Bucas en juillet 2011 (Fatigue) et de A. Dumas en juillet 2011 (krigeage). • Encadrement à 80% de la thèse de B. Echard (krigeage, fatigue) - Evaluation par krigeage de la fiabilité des structures sollicitées en fatigue, soutenance prévue le 25 septembre 2012. Thèse financée par l’ANR sur projet APPROFI (Approche mécano Probabiliste Pour la conception RObuste en FatIgue). 19 décembre 2012 Page 16/172 HDR, Nicolas Gayton Parcours professionnel et rapport d’activités Figure 1 – Nombre de publications scientifiques par an depuis le début de ma thèse de Doctorat. • Encadrement à 70% de la thèse de P. Beaucaire (Analyse des tolérances) - Application des méthodes fiabilistes à l’analyse et la synthèse des tolérances, soutenance prévue le 29 novembre 2012. Thèse financée par la région Auvergne et le FEDER en partenariat avec les sociétés Valeo SE, RADIALL, Phimeca engineering. • Encadrement en cours depuis septembre 2012 à 70% de la thèse de S. Bucas (Fatigue). Thèse en convention CIFRE entre Manitowoc et l’IFMA sur la thématique de l’analyse fiabiliste des structures soudées sollicitées en fatigue. L’articulation de ces différents encadrements vis-à-vis des thématiques traitées est synthétisée dans le tableau 1. 0.2.4 Responsabilités scientifiques Projets de recherche. Mes activités de recherche sont en partie financées sur les projets de recherche suivants : • Projet ANR APPROFI (2008-2011, budget 100ke pour l’IFMA) : j’ai participé activement au montage de ce projet, dont la responsabilité a été assurée par le CETIM (M. Afzali). J’ai été responsable pour l’IFMA de ce projet qui a permis le financement de la thèse de B. Echard. Mes Nicolas Gayton Page 17/172 19 décembre 2012 Parcours professionnel et rapport d’activités activités au cours de ce projet ont été reconnues par l’invitation à présenter les résultats du projet en session plénière à la conférence Fatigue Design 2011 à Paris. • Bourse Innovation du Conseil Régional / FEDER (2008-2012, budget 90ke) : j’ai monté le dossier de demande de financement auprès de la région Auvergne et des fonds européens FEDER. Ce projet a permis le financement de la thèse de P. Beaucaire. • Projet ANR AHTOLA (2011-2014, budget 145ke pour l’IFMA). J’ai participé activement au mon- tage de ce projet, dont la responsabilité a été assurée par l’ENSAM de Metz (J.Y. Dantan) et qui permet le financement de la thèse de A. Dumas. • Convention CIFRE avec Manitowoc : permet le financement du salaire de la thèse de S. Bucas. J’ai trouvé le contact industriel et monté intégralement le dossier de demande de financement à l’ANRT. Cette convention CIFRE est accompagnée d’un contrat entre Manitowoc et le laboratoire détaillé dans le paragraphe suivant. . Thématique Encadrements Master R. Rééchantillonnage Publications Thèse Resp. scientifiques Revues Conf. int. A. Notin 2 3 Co-encadrement thèse CIFRE CETIM/UTC Krigeage A. Dumas B. Echard 3 3 Projet ANR APPROFI Fatigue S. Bucas A. Notin, B. Echard, S. Bucas 3 4 Projet ANR APPROFI, Contrat CIFRE Manitowoc P. Beaucaire, A. Dumas 4 4 Bourse Innovation du CR d’Auvergne, Projet ANR AHTOLA, Contrat RADIALL Valeo SE - Phimeca Analyse des tolérances Tableau 1 – Synthèse de mes activités de recherche en terme d’encadrement de la recherche, de nombre de publications et de responsabilités scientifiques. La somme des différentes publications n’est pas égale au nombre total de publications car certaines publications concernent à la fois des recherches appliquées et méthodologiques et apparaissent donc deux fois dans ce tableau. Contrats de recherche industrielle. Mon passage dans l’industrie m’a donné le goût du travail avec des industriels. J’ai donc mis en place quelques contrats de recherche industriels permettant le financement des frais de fonctionnement liés à mes activités de recherche : • Contrat avec a la société RADIALL : 3000e / ans pendant 3 ans (2008-2012). Support de la thèse de P. Beaucaire. 1 publication dans la revue Mécanique et industrie en commun. • VALEO SE : 2ke / ans pendant 3 ans (2008-2012). Support de la thèse de P. Beaucaire. 1 publication dans la revue Computer and Industrial Engineering en commun. • PHIMECA SA : 5ke / ans pendant 3 ans (2008-2012). Support de la thèse de P. Beaucaire. • MANITOWOC : 10ke / ans pendant 3 ans, contrat relatif à la thèse de S. Bucas. • AIRBUS CIMPA : contrat en cours de finalisation. Une publication dans la revue Precision Enginnering en commun. 19 décembre 2012 Page 18/172 HDR, Nicolas Gayton Parcours professionnel et rapport d’activités 0.2.5 Rayonnement Expertises d’articles scientifiques. J’ai effectué des expertises pour les revues suivantes : • Mécanique et Industrie. • Statistics and Computing. • Thin-Walled Structures. • Research in Engineering Design. • Probabilistic Engineering Mechanics. Collaborations universitaires en France. Mes travaux de recherche s’intègrent dans les collabora- tions universitaires suivantes : • ENSAM de Metz : collaboration dans le cadre de la thèse de P. Beaucaire. Co-encadrement de la thèse de Antoine Dumas. Quatre articles de revue en commun. • UTC Roberval : co-encadrement de la thèse d’Alban Notin, deux articles de revue en commun. • LMT Cachan dans le cadre du projet APPROFI, un article de revue en commun. Je suis également membre du GRT (Groupe de Recherche en Tolérancement). Collaborations internationales et reconnaissance scientifique • Président Session “Approches probabilistes en conception vis-à-vis de la fatigue” - Conférence Fatigue Design 2009 et 2011, Senlis, France. • Co-organisateur du mini symposium “ Meta-models / surrogate model for uncertainty propagation, sensitivity and reliability analysis ” de la conférence ICASP11, Munich, 2011. • Intervenant (cours sur l’analyse des tolérances) à l’école d’été IFMA / KIT (Karlsruher Institut für Technologie) Uncertainty Quantification in Mechanics and Material Sciences, Theory and Practice, Pforzheim, August 22-26, 2011. • Collaboration avec l’Université de Floride (Pr. I. Elishakoff) avec l’échange régulier d’étudiants. • Participation au projet COFECUB, collaboration avec le groupe de recherche en méthodes numériques du Département d’Ingénierie de Structures de l’École d’Ingénierie de Sao Carlos de l’Université de Sao Paulo (SET/EESC/USP). 0.2.6 Autres activités de recherche Très intéressé par le domaine du sport, assez peu en lien avec mes activités d’enseignement et surtout de recherche, je suis à l’initiative et pilote un projet de développement / fabrication / conception d’un joug individuel d’entrainement à la mêlée pour l’ASM (Association Sportive Montferrandaise). Ce projet, mené conjointement avec la société Phimeca, a donné lieu à un brevet, en cours de dépôt, mentionné dans ma liste de références bibliographiques. 0.2.7 Synthèse Le tableau 1 établit un bilan des mes activités de recherche en termes d’encadrement (Master et thèse), de publications et de responsabilités scientifiques par thématiques de recherche. Nicolas Gayton Page 19/172 19 décembre 2012 Parcours professionnel et rapport d’activités IFMA voie classique Optimisation des structures (resp.) M2 12h CM - 4h TD - 12h TP Outils mécano-fiabilistes (resp.) M2 8h CM - 16h TP Approche probabiliste de l’Incertain en Conception M2 4h CM - 4h TD - 4h TP Ingénierie Assistée par ordinateur M1 6h CM Mécanique 2 (resp.) M1 22hCM - 22hTD - 16hTP Mathématiques 2 (resp.) M1 8hCM - 8hTD Cours commun conception innovante et fiabilité M2R 6h CM Fiabilité, conception, maintenance M2Pro 4h CM - 4h TD - 8h TP M2 3h CM IFMA voie par apprentissage Université Blaise Pascal, Clermont II Ecole Nationale des Travaux Publics de l’etat Approche probabiliste de la fiabilité des structures Tableau 2 – Synthèse des activités d’enseignement (Nom de l’unité d’enseignement, niveau d’enseignement, nombre d’heures). “resp” indique que j’assure la responsabilité de cette UE. 0.3 Activités pédagogiques Depuis 2006, mes activités d’enseignement se déroulent en grande majorité à l’IFMA (formation classique et formation par la voie de l’apprentissage) mais également à l’Université Blaise Pascal et depuis quatre ans à l’Ecole Nationale des Travaux Publics de l’Etat. Sur un total d’environ 350h équivalents TD, j’effectue 70h de cours magistraux, 40h de TD, 110h de TP et le reste (soit 130h) d’encadrement d’étudiants en stages et projets. Mes activités d’enseignement se déroulent essentiellement aux niveaux Master 1 et 2 et se focalisent sur les méthodes numériques (méthodes probabilistes, optimisation des structures et éléments finis). J’assure la responsabilité de quatre unités d’enseignement (modules de 30h ou 40h équivalents TD) : deux pour la formation classique des ingénieurs IFMA et deux pour la formation par la voie de l’apprentissage. Le détail de mes heures d’enseignement est fourni dans le tableau 2. 0.4 Responsabilités administratives La principale activité administrative que j’assure est la responsabilité du pôle Structures et Mécanique des Matériaux (St2M), pôle de formation à l’IFMA. Le pôle rassemble environ 150 étudiants répartis en trois années de formation. Douze enseignants (1 ATER, 2 PRAG, 6MCF, 3PU) ainsi qu’une dizaine d’intervenants extérieurs assurent l’essentiel des enseignements et le suivi des étudiants en stages. Aidé par un adjoint, mes principales missions telles qu’elles sont mentionnées sur mon profil de poste, sont les suivantes. Mission pédagogique • Vérifier la cohérence et proposer des évolutions à la maquette pédagogique. • Coordonner les enseignements entre pôles. 19 décembre 2012 Page 20/172 HDR, Nicolas Gayton Parcours professionnel et rapport d’activités • Assurer le suivi des services et des vacataires ainsi que leur recrutement. • Participer à la définition des postes des enseignants du pôle, à leur recrutement et à leur accueil. • Assurer le suivi pédagogique des étudiants du pôle. • Assurer le suivi de la mobilité entrante et sortante du pôle. • Assurer le suivi de la recherche, de l’affectation et de l’évaluation des stages et projets. Mission administrative • Assurer la collecte des demandes et le suivi des investissements du pôle. • Assurer le suivi de la gestion financière du pôle (budget fonctionnement 25ke/an, investissement 10 ke/an) fonction en lien avec le service financier. • Assurer le suivi des ordres de mission en lien avec le service financier. • Participer à la direction de l’établissement. • Participer aux différentes instances mises en place par la direction. • Assurer la gestion et l’évolution des moyens techniques (moyens d’essais, de simulations, ...) spécifiques au pôle ou en commun avec des laboratoires de recherche. • Assurer l’utilisation du bâtiment rattaché au pôle en liaison avec la direction, le patrimoine et le SERI ; Mission de communication • Assurer la cohérence de la communication interne et externe du pôle. • Assurer une communication claire des objectifs stratégiques définis par la direction auprès des enseignants et des étudiants. 0.5 Actions de transfert de technologie et formation industrielle J’ai effectué plusieurs formations à des partenaires industriels : • formation pour Valeo SE (2 personnes) aux méthodes numériques d’optimisation (2 journées en 2010, 3,5ke) ; • formation pour la société RADIALL (1 personne) aux méthodes numériques pour l’optimisation et la fiabilité (2 journées en 2010, 3,5ke) ; J’ai effectué également plusieurs missions de valorisation de mes activités (dites de transfert de technologie) : • conseil au développement d’un outil métier d’analyse des tolérances pour Phimeca SA (outil actuellement en version 1) : 8ke sur 2011 et 2012 ; • accompagnement dans la gestion des Projets Industriels de Fin d’Etudes pour Valeo SE / AIRBUS CIMPA / IFREMER : 18ke autour des méthodes fiabilistes. • activités de transfert des méthodes développées dans la cadre du projet APPROFI à la SNECMA DMS : projet de 4 mois (mars à juin 2012) : 39ke. 0.6 Conclusion En préambule de ce mémoire d’HDR, ce chapitre synthétise mes activités de recherche, d’enseignement, mes responsabilités administratives ainsi que mes activités de transfert de technologie. Mes activités de Nicolas Gayton Page 21/172 19 décembre 2012 Parcours professionnel et rapport d’activités recherche sont guidées par de nombreuses relations avec des entreprises industrielles à travers des projets ANR, des thèses CIFRE ou bien des contrats de recherche industrielles. J’espère avoir réussi à montrer au lecteur, de part ce bilan, ma dynamique de recherche depuis mon recrutement et surtout ma capacité à diriger des recherches. La suite de ce mémoire est consacrée au détail scientifique de mes activités scientifiques regroupées en quatre chapitres. 19 décembre 2012 Page 22/172 HDR, Nicolas Gayton Structuration des activités de recherche Pour qu’un modèle de comportement mécanique soit représentatif de la réalité, une alternative s’offre à l’ingénieur : soit utiliser des théories de plus en plus évoluées avec des modélisations de plus en plus fines, c’est la tâche de beaucoup de chercheurs dans le domaine de la mécanique ; soit considérer que ce travail est peine perdue du fait des sources d’incertitude et donc qu’il est préférable d’investir dans la modélisation de ces incertitudes pour caractériser les écarts entre la réalité et la théorie. La première possibilité engendre souvent des modèles très particuliers qui manquent de généralisation. Depuis l’obtention de mon diplôme d’ingénieur en 1999, c’est la croyance en cette seconde possibilité qui a guidé mes travaux de recherche tout d’abord en thèse de Doctorat. Mon passage dans l’industrie de 2002 à 2006 m’a ensuite donné un aperçu du champ d’application considérable des méthodes probabilistes dans l’industrie mécanique et des bénéfices de ces méthodes pour la maı̂trise des marges de sûreté et la gestion du niveau de qualité des produits conçus. Mon recrutement en 2006 dans l’enseignement supérieur m’a donc permis de me focaliser sur l’application des méthodes probabilistes pour la gestion des incertitudes en mécanique, tout en ayant à l’esprit de répondre à des préoccupations industrielles en fournissant des outils et des méthodologies adaptés. Cette idée de développer une recherche en lien étroit avec des applications industrielles apparaitra comme fil conducteur tout au long de la lecture de ce rapport d’Habilitation à Diriger des Recherches. Le domaine du génie civil a été précurseur dans la gestion des incertitudes en mécanique par les méthodes probabilistes pour garantir un certain niveau de sécurité aux utilisateurs de ses différentes infrastructures. Ces méthodes ont ensuite été utilisées petit à petit de façon générale pour le dimensionnement de structures à risque (structures métalliques telles que les plateformes off-shore, les sous-marins, les navires, ...). Ces dernières années ont vu le développement des méthodes probabilistes dans des secteurs et pour des produits très variés (connexions électriques, engins de levage, pièces de grande série, ...) pour garantir la fiabilité et la qualité des produits industrialisés. L’intérêt industriel croissant pour ces méthodes est lié à un souhait de conception robuste permettant la maı̂trise des marges de sûreté et la diminution du nombre d’essais physiques. La gestion des incertitudes par les approches probabilistes n’a le même intérêt dans toutes les thématiques de la mécanique. Cet intérêt est principalement lié à la forte dépendance de la fonction de performance G(X), caractérisant le scénario à éviter, à des variables très incertaines comme l’illustre le schéma de la figure 2 (cas (d)). La figure 3 synthétise l’organisation de mes activités de recherche qui se sont focalisées sur deux thématiques particulières de la mécanique mettant en jeu des comportements du cas (d) et à 23 Structuration des activités de recherche Figure 2 – Incertitudes sur la fonction G(X) en fonction de l’incertitude sur la variable X et du type de dépendance de la fonction G à X. Figure 3 – Articulation de mes activités de recherche. 19 décembre 2012 Page 24/172 HDR, Nicolas Gayton Structuration des activités de recherche enjeux industriels, à mon sens, considérables. La première thématique de recherche est la fatigue de structures. 80% de la défaillance des structures est due au phénomène de fatigue qui est, de plus, un phénomène très incertain et difficle à appréhender. Ces deux constatations font de cette thématique un champ d’application privilégié pour les méthodes probabilistes. Pourquoi deux structures a priori identiques (géométrie, matériau, ...) peuventelles avoir des durées de vie très différentes ? La réponse à cette question et la caractérisation de l’incertitude sur la durée de vie des structures pour un dimensionnement fiable ont constitué pour moi un travail de six ans avec les thèses d’A. Notin (soutenue en 2011) et Benjamin Echard (soutenue en 2012), travail qui se poursuit actuellement avec la thèse de Simon Bucas (en cours depuis 2011). Cette thématique, comme celles abordées en génie civil, concerne de façon générale le calcul de la probabilité de défaillance d’une structure, c’est-à-dire le calcul de la probabilité que l’exigence fonctionnelle de tenue mécanique ne soit pas respectée. Cette thématique peut donc être considérée de façon beaucoup plus large en considérant toutes les exigences fonctionnelles d’un système mécanique. C’est dans ce cadre que s’inscrit ma seconde thématique de recherche. Il s’agit de la gestion des ppm (pièces par millions défectueuses), c’est-à-dire du niveau de qualité produit en fabrication de grandes séries. Cette thématique aussi appelée analyse des tolérances de fabrication est directement liée à mon passage dans l’industrie où j’ai pu voir l’importance de l’allocation des intervalles de tolérance et les problématiques associées (gestion des lots non conformes, des niveaux de capabilité, ...). Le niveau de qualité d’un système mécanique, son coût de fabrication et le niveau des rebuts en production sont directement liés aux intervalles de tolérance et aux exigences de qualité. Cette thématique est donc, à mon sens, capitale pour la conception mécanique. Elle a été traitée avec l’aide du travail de thèse de Paul Beaucaire et se poursuit actuellement avec le travail de thèse d’Antoine Dumas en collaboration avec L’ENSAM de Metz depuis 2011. Ces deux thématiques de recherche ont été les fils conducteurs de mes activités et ont nécessité le développement d’outils numériques pour le calcul de probabilités de défaillance ou de taux de non conformité (TNC) pour la gestion des ppm. Les méthodes de calcul de probabilité de défaillance (ou de TNC) ont principalement deux inconvénients. Le premier est leur caractère chronophage, surtout pour traiter des problématiques industrielles où les modèles mécaniques sont en général raffinés et donc coûteux en temps de calcul. Le second concerne le besoin en validation du résultat obtenu. Pour traiter le premier inconvénient, les méthodes non intrusives basées sur l’utilisation de méta-modèles ont été utilisées. En premier lieu, des techniques basées sur les surfaces de réponse polynomiales puis le chaos polynomial ont été développées. Les travaux se sont ensuite focalisés sur l’utilisation du krigeage. Le second inconvénient a été remédié par l’utilisation des techniques de ré-échantillonnage pour la définition d’intervalles de confiance puis par l’utilisation de la variance de krigeage pour améliorer les méthodes de simulation. Ce rapport est donc organisé autour de mes activités de Recherches méthodologiques et de mes activités liées aux thématiques de Recherches applicatives. Ces deux activités constituent chacune une partie de ce rapport. Cet ordre de présentation a été choisi pour d’abord introduire les méthodes numériques nécessaires à la compréhension des méthodes de résolution des problèmes d’application. Chaque partie est constituée de deux chapitres. La partie méthodologique est constituée d’un chapitre sur l’utilisation du ré-échantillonnage pour l’analyse fiabiliste (chapitre 1) et d’un chapitre sur l’utilisation du krigeage et la présentation des méthodes AK - Active learning and Kriging-based methods (chapitre 2). Nicolas Gayton Page 25/172 19 décembre 2012 Structuration des activités de recherche La partie recherche applicative est elle aussi divisée en deux chapitres. Le chapitre 3 concerne le dimensionnement fiable des structures sollicitées en fatigue et le chapitre 4 concerne l’analyse des tolérances de fabrication. Ce rapport est conclu en fournissant des perspectives de travail traçant ainsi mes activités de recherche pour les années à venir. Bonne lecture. 19 décembre 2012 Page 26/172 HDR, Nicolas Gayton Première partie Développements méthodologiques 27 Chapitre 1 Techniques de ré-échantillonnage pour l’analyse de fiabilité Sommaire 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.2 Brefs rappels des méthodes FORM/SORM . . . . . . . . . . . . . . . . . . . 30 1.3 1.4 1.5 1.6 1.2.1 Probabilité de défaillance, indice de fiabilité et point P ∗ . . . . . . . . . . . . . 30 1.2.2 Produits d’une analyse FORM/SORM . . . . . . . . . . . . . . . . . . . . . . . 32 Ré-échantillonnage et intervalles de confiance . . . . . . . . . . . . . . . . . 33 1.3.1 Bref état des lieux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.3.2 Techniques de ré-échantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . 34 1.3.3 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 1.3.4 Conclusions sur les techniques de ré-échantillonnage . . . . . . . . . . . . . . . 37 Méthode CQ2RS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 1.4.1 Bref état des lieux sur les méthodes de surface de réponse . . . . . . . . . . . . 37 1.4.2 Fondements statistiques de la méthode CQ2RS . . . . . . . . . . . . . . . . . . 39 1.4.3 Principes de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 1.4.4 Application industrielle à une structure conique raidie . . . . . . . . . . . . . . 42 1.4.5 Conclusions sur la méthode CQ2RS . . . . . . . . . . . . . . . . . . . . . . . . 44 Méthode RPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 1.5.1 Bref état des lieux des méthodes basées sur le chaos polynomial . . . . . . . . . 44 1.5.2 Post-traitement des coefficients du chaos . . . . . . . . . . . . . . . . . . . . . . 46 1.5.3 Troncature du développement sur le chaos polynomial . . . . . . . . . . . . . . 47 1.5.4 Description de la méthode RPCM . . . . . . . . . . . . . . . . . . . . . . . . . 48 1.5.5 Application industrielle à un bogie de TGV . . . . . . . . . . . . . . . . . . . . 52 1.5.6 Conclusions sur la méthode RPCM . . . . . . . . . . . . . . . . . . . . . . . . . 53 Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 57 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité 1.1 Introduction Mener une analyse de fiabilité est une tâche numérique très lourde en temps de calcul puisque nécessitant une succession de calculs mécaniques voisins. Une des alternatives pour diminuer ces temps de calcul réside dans l’utilisation de méta-modèles basés sur la définition d’un plan d’expériences. Ces stratégies, utilisées depuis plusieurs années, peuvent être basées sur des surfaces de réponse polynomiales ou des chaos polynomiaux (polynômes exprimés sur une base particulière) et présentent en règle générale une phase d’apprentissage itératif pour enrichir le plan d’expériences en fonction des résultats obtenus aux itérations précédentes. Ces méthodes sont plus ou moins efficaces et doivent être adaptées en fonction du résultat souhaité (indice de fiabilité, coordonnées du point de défaillance le plus probable, probabilité de défaillance, voire indicateurs de sensibilité). Le principal inconvénient de ces méthodes est le manque d’information sur la confiance associée aux résultats obtenus sur une représentation simplifiée du modèle de comportement structural à étudier. Ces résultats sont forcément dépendants du premier plan d’expériences choisi, du degré des surfaces de réponse polynomiales et de la stratégie d’enrichissement. Des indicateurs de qualité (basés sur de la validation croisée par exemple) peuvent être fournis mais nécessitent des calculs supplémentaires. Pour palier ces différents problèmes, les techniques de ré-échantillonnage peuvent permettre de donner des intervalles de confiance des résultats fiabilistes sans coût de calcul supplémentaire. Elles peuvent alors permettre de définir des critères d’arrêt et d’enrichissement judicieux en association avec le choix du degré des polynômes choisis. Ce chapitre se focalise donc sur le rôle, trop souvent négligé, de la validation des résultats du calcul fiabiliste [Pellissetti and Schueller, 2006]. Après avoir introduit les principes de calcul fiabiliste et les techniques de ré-échantillonnage, ce chapitre présente les bases de deux stratégies de calcul fiabiliste adaptatif. La première, développée dans le cadre de la thèse de l’auteur, nommée CQ2RS-Complete Quadratic Response Surface method with ReSampling [Gayton et al., 2002a] permet, grâce aux techniques de ré-échantillonnage et dans un objectif de calibration des coefficients partiels, de fournir précisément les coordonnées du point de défaillance le plus probable. La seconde méthode, nommée RPCM-Resampling-based Polynomial Chaos Method [Notin et al., 2010], a pour objectif de fournir l’indice de fiabilité d’une structure avec le minimum de calculs mécaniques et sans hypothèse sur le degré nécessaire du chaos pour aboutir à bonne approximation. Cette méthode a été développée dans le cadre des travaux de thèse d’Alban Notin. Pour davantage de détails sur les algorithmes et les cas test de validation, le lecteur pourra se référer aux références [Gayton et al., 2002a; Notin et al., 2010]. 1.2 Brefs rappels des méthodes FORM/SORM Pour une revue des méthodes FORM/SORM, le lecteur pourra se référer à l’ouvrage [Lemaire, 2009] dont est issue la majorité des informations présentées dans cette section. 1.2.1 Probabilité de défaillance, indice de fiabilité et point P ∗ Le modèle probabiliste d’une structure est défini par : • un vecteur de n variables aléatoires X = {X1 , ..., Xn }, issu du modèle mécanique, dont on a estimé les densités marginales fXi (xi ) et les corrélations éventuelles, ou mieux, la densité conjointe de probabilité fX (x) ; 19 décembre 2012 Page 30/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité • un ou plusieurs scénarios de défaillance. A chaque scénario est associée une fonction de performance G(x) résultant du calcul mécanique, dont les valeurs positives constituent les réalisations du succès (non défaillance) alors que les valeurs négatives ou nulles traduisent l’échec (défaillance). La surface G(x) = 0 est appelée l’état-limite, elle définit le passage de la sûreté à la défaillance. La probabilité de défaillance Pf de la structure est définie mathématiquement par : Pf = Z fX (x)dx (1.1) G(x)≤0 Le calcul de cette intégrale n’est pas aisé et dépend de la dimension du problème, c’est-à-dire de la taille n du vecteur X et de la complexité de la fonction de performance G(x). Le calcul peut toujours se faire par la méthode de Monte Carlo qui sera détaillée dans le chapitre 2. Cependant pour des raisons de temps de calcul et de représentativité des résultats, il est souvent nécessaire d’avoir recours à l’indice de fiabilité β de Hasofer et Lind [Hasofer and Lind, 1974] résultant de la résolution du problème suivant : β = min √ ut u sous les contraintes G(x) ≤ 0 et u = T (x) (1.2) où u est l’image de x par la transformation iso-probabiliste notée T : x → u de manière à ce que ui suive une loi Gaussienne centrée normée, les variables étant décorrélées. Dans cet espace dit standard, la fonction de performance est notée H(u). Le point solution du problème défini par l’équation 1.2 est appelé (abusivement, [Lemaire, 2009]) le point de défaillance le plus probable noté P∗ . Ses coordonnées dans l’espace des variables standards sont notées u∗i . Elles sont obtenues en utilisant des algorithmes spécifiques tels que Rackwitz-Fiessler [Rackwitz and Fiessler, 1978], Abdo-Rackwitz [Abdo and Rackwitz, 1990] nécessitant le calcul du gradient de la fonction de performance ou par l’intermédiaire de surfaces de réponse [Faravelli, 1989]. Le calcul de Pf s’effectue ensuite : • soit par une approximation FORM (First Order Reliability Method ) en linéarisant la fonction de performance au point P∗ [Ditlevsen and Madsen, 1996] : Pf ≈ Φ (−β) où Φ() est la fonction de répartition de la Gaussienne centrée réduite N (0, 1) ; • soit par une approximation au deuxième ordre SORM (Second Order Reliability Method ) grâce à une relation du type de celle de Breitung [Breitung, 1994] : Pf ≈ Φ (−β) n−1 Y (1 + βκi )−1/2 i=1 où les κi sont les courbures principales de la fonction d’état limite au point P∗ ; • soit par l’approximation de la densité de probabilité de la fonction G par une densité de probabilité particulière (méthode SOTA [Glancy and Chase, 1999]) ; • soit par simulations [Ditlevsen and Madsen, 1996] autour du point P∗ , méthodes de simulations qui sont exposées au chapitre 2. Les notions définies sont résumées graphiquement en figure 1.1 dans le cas d’un modèle probabiliste à deux variables aléatoires X1 et X2 . Nicolas Gayton Page 31/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Figure 1.1 – Principales notions relatives aux méthodes FORM/SORM (indice de fiabilité β, point de défaillance le plus probable P∗ , transformation iso-probabiliste T ). 1.2.2 Produits d’une analyse FORM/SORM Les méthodes de fiabilité permettent de proposer des indicateurs utiles en phase de conception et plus particulièrement en phase de dimensionnement. Le signe des coordonnées du point de défaillance le plus probable u∗i est très intéressant puisqu’il permet de définir le caractère “Résistance” ou “Sollicitation” de chaque variable aléatoire : • u∗i > 0 : la variable Xi est de type “Sollicitation”, il est nécessaire d’augmenter sa valeur médiane pour se rapprocher de la défaillance ; • u∗i < 0 : la variable Xi est de type “Résistance”, il est nécessaire de diminuer sa valeur médiane pour se rapprocher de la défaillance. Les cosinus directeurs αi , liés aux coordonnées u∗i et à l’indice de fiabilité par : αi = − u∗i β traduisent l’importance de la variable Ui dans la fonction d’état-limite au point de défaillance le plus probable. Une variable qui possède un cosinus directeur important peut être considérée comme stochastiquement importante. Les élasticités définies par : eτ = ∂β τ ∂τ β mesurent l’influence normalisée (en %) d’une petite variation de τ sur l’indice de fiabilité β. Les élasticités eσi de l’indice de fiabilité par rapport à l’écart-type de la variable Xi se calculent de la façon suivante : eσi = −αi2 19 décembre 2012 Page 32/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Enfin, les coefficients partiels dont le calcul ainsi que l’interprétation peuvent être abordés en lisant [Gayton et al., 2004] par exemple. 1.3 Ré-échantillonnage et intervalles de confiance Cette section rappelle quelques éléments relatifs au ré-échantillonnage et au calcul d’intervalles de confiance de façon à bien situer le cadre des développements effectués. 1.3.1 Bref état des lieux Le principe du ré-échantillonnage est de simuler la variabilité d’estimateurs en tirant des échantillons à l’intérieur d’une population donnée. Ré-échantillonner, c’est donc utiliser un jeu de données (échantillon) pour construire un ou plusieurs nouveaux sous-échantillons. Il existe de nombreuses formes de ré-échantillonnage : • Les tests de permutation développés par R. A. Fischer [Fischer, 1935]. • La validation croisée (Cross-validation) : le test de validation croisée simple (Simple cross-validation) a été proposé par Kurtz en 1948 [Kurtz, 1948]. En 1951 Mosier [Mosier, 1951] développa le critère de double validation croisée (double cross-validation) qui fut étendu à la validation croisée multiple (multicross-validation) par Kruss et Fuller en 1982 [Kruss, 1982]. • Le Jackknife : mis au point par Maurice Quenouille [Quenouille, 1949] et développé plus tard par John W. Tukey [Tukey, 1958]. Il est analogue aux tests “leave-one-out” des méthodes de “validation croisée”. • Le Bootstrap : inventé par Bradley Efron [Efron, 1979] puis développé en 1993 par Efron et Tibshirani [Efron and Tibshirani, 1993]. Le terme “Bootstrap” signifie qu’un seul échantillon donne naissance à plusieurs autres par ré-échantillonnage. Les techniques de ré-échantillonnage permettent - entre autres - d’estimer le biais ou la variance d’un estimateur en comparant le(s) sous échantillon(s) à l’échantillon initial, ou les ré-échantillons entre eux. En calculant la moyenne et l’écart-type de l’estimateur on peut également calculer des intervalles de confiance. Pour une description plus complète de l’histoire du ré-échantillonnage et des techniques associées (et de leurs variantes), le lecteur pourra se référer à [Arlot, 2007]. La formulation du ré-échantillonnage étant très simple, c’est désormais un outil statistique largement utilisé (surtout le Bootstrap et la validation croisée). On trouve un large éventail d’applications du Bootstrap dans [Hall, 2003; Casella, 2003]. A l’origine, l’objectif d’Efron [Efron, 1981] était d’estimer le biais et la variance d’un estimateur (comme avec le Jackknife). Le Bootstrap a ensuite été utilisé pour construire des intervalles de confiance [DiCiccio and Efron, 1996], calculer des p−valeurs pour des statistiques de test [Beran, 2003; Boos, 2003], estimer une erreur de prédiction [Efron and Tibshirani, 1997; Molinaro et al., 2005; Jiang and Simon, 2007], faire de la sélection de modèle, etc... D’autres types de ré-échantillonnage existent pour construire des intervalles de confiance : en particulier le sous-échantillonnage [Politis et al., 1999]. L’application de ces techniques à l’analyse de fiabilité nous conduit à nous intéresser particulièrement aux intervalles de confiance comme évoqué précédemment. Seules les techniques du Jackknife et du Bootstrap ont donc été abordées. Nicolas Gayton Page 33/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité 1.3.2 Techniques de ré-échantillonnage Le Jackknife Soit un échantillon initial x1 , . . . , xp de taille p et T une statistique de cet échantillon. On note T̂ l’estimation de cette statistique obtenue à partir de l’échantillon initial : T̂ = f (x1 , . . . , xp ) = f (x) (1.3) L’estimation par Jackknife s’obtient de la manière suivante : 1. calcul de la valeur T̂(−1) de la statistique T pour le sous-échantillon obtenu en omettant la valeur x1 : T̂(−1) = f (x2 , . . . , xp ) (1.4) 2. calcul de la pseudo-valeur T̂1∗ = pT̂ − (p − 1)T̂(−1) , 3. répétition de cette opération p fois en omettant à tour de rôle chacune des observations pour obtenir les p pseudo-valeurs T̂1∗ , . . . , T̂p∗ : T̂(−i) = f (x1 , . . . , xi−1 , xi+1 , . . . , xp ) T̂i∗ = pT̂ − (p − 1)T̂(−i) L’estimation par Jackknife de T est alors la moyenne des pseudo-valeurs, notée T̂ ∗ : p T̂ ∗ = 1X ∗ T̂ p i=1 i (1.5) L’écart-type des pseudo-valeurs, permettant de quantifier la confiance dans la prédiction de T par T̂ ∗ est défini par : σ̂T̂ ∗ v u p 2 u 1 X t = T̂i∗ − T̂ ∗ p − 1 i=1 (1.6) Le Bootstrap Comme pour le Jacknife, le but du bootstrap est de fournir des indications sur une statistique (dispersion, distribution, intervalles de confiance) afin de connaı̂tre la précision des estimations réalisées. Ces informations sont obtenues sans recours à de nouvelles observations. Les deux applications fondamentales du Bootstrap sont la réduction du biais et la détermination d’intervalles de confiance. Les variantes les plus communes sont : • Bootstrap-t, Bootstrap percentile et Bootstrap BCa pour l’élaboration d’intervalles de confiance autour d’une statistique ; • Bootstrap .632 et .632+ pour le calcul d’erreurs de classification dans un cas binaire (par exemple, analyse discriminante à deux groupes, régression logistique binaire, arbre de décision, ...) ; • Bagging et boosting pour l’élaboration de modèles robustes. 19 décembre 2012 Page 34/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Soit un échantillon initial x1 , . . . , xp de taille p prélevé de manière aléatoire dans une population. Soit T une statistique de cette population. L’estimation de T obtenue à partir de l’échantillon initial est notée T̂ . Le principe est de générer B sous-échantillons x∗k de x de taille p en tirant aléatoirement avec remise parmi les valeurs x. Pour chaque nouvel échantillon x∗k , l’estimation T̂k∗ de T̂ est évaluée par : T̂i∗ = f (x∗i ), i = 1, . . . , B (1.7) A partir de ces B répétitions, les quantités suivantes sont déterminées : B 1 X ∗ T̂ • La moyenne : T̂ ∗ = B i=1 i v u B 2 u 1 X • L’écart-type : σ̂T̂ ∗ = t T̂i∗ − T̂ ∗ B − 1 i=1 • Le biais : BiaisB (T̂ ) = T̂ ∗ − T̂ L’écart-type σ̂T̂ ∗ est une estimation de l’erreur-standard de l’estimateur de T . Ces estimateurs interviennent dans l’obtention des intervalles de confiance. Concernant le choix de B, les valeurs le plus souvent retenues sont de l’ordre de 30 à 200 [Efron and Tibshirani, 1993]. Mais pour l’estimation de pourcentiles de T , B peut aller jusqu’à 1000, 100000 ou plus [Hesterberg, 2007]. Lorsque la taille p des échantillons est inférieure à B, le calcul de l’erreur-standard et du biais est plus rapide par le Jackknife. Par contre, le Jackknife donne de manière générale de moins bonnes estimations [Palm, 2002]. Le Bootstrap ne crée pas de nouvelles données. Il est utile pour quantifier le comportement de l’estimation d’un paramètre comme par exemple l’erreur standard, le biais ou bien calculer des intervalles de confiance. Un autre point important concerne la représentativité des données. Si les données originales sont dépendantes, l’échantillonnage Bootstrap doit conserver cette dépendance. Enfin, le Bootstrap fournit une distribution et pas seulement la moyenne ou la médiane : il est donc possible de calculer un écart-type et/ou un intervalle de confiance pour cette nouvelle estimation. Un autre avantage du Bootstrap est qu’aucune hypothèse forte à priori sur la distribution des observations n’est nécessaire. L’utilisation du ré-échantillonnage permet d’utiliser au mieux l’information contenue dans l’échantillon. 1.3.3 Intervalles de confiance Un intervalle de confiance est un intervalle qui est supposé contenir, avec un certain degré de confiance, la valeur à estimer. Ainsi, l’intervalle de confiance mesure le degré de précision présumé sur les estimations issues de l’échantillon. Deux sources principales de variation sur les données peuvent être la cause d’un manque de précision dans l’estimation d’une grandeur : • un nombre insuffisant de données, valeur de p trop faible ; • du bruit dans la mesure des données (ce qui est pratiquement toujours le cas pour la mesure des grandeurs physiques). Les principales méthodes de calcul des intervalles de confiance sont détaillées ci-après. L’ensemble des définitions est issu des références [Efron and Tibshirani, 1993; DiCiccio and Efron, 1996; Palm, 2002]. Méthode de l’erreur standard La méthode de l’erreur standard définit l’intervalle de confiance de T à α (niveau de confiance) de la façon suivante : Nicolas Gayton Page 35/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité T̂ − u[1−α/2] σ̂T̂ ∗ ≤ T ≤ T̂ + u[1−α/2] σ̂T̂ ∗ (1.8) u[1−α/2] étant le pourcentile 1 − α/2 de la distribution normale réduite. Pour que cette approche soit satisfaisante, il faut que la distribution d’échantillonnage du paramètre étudié soit approximativement normale, que l’estimateur soit non biaisé et que σ̂T̂ ∗ soit une bonne estimation de l’erreur-standard de la distribution du paramètre. Méthode des pourcentiles simples ∗ ∗ Dans cette méthode, les limites de confiance sont données par les fractiles T̂[α/2] et T̂[1−α/2] à α/2 et 1 − α/2 de la distribution des B valeurs T̂k∗ (distribution d’échantillonnage empirique) : ∗ ∗ T̂[α/2] ≤ T ≤ T̂[1−α/2] (1.9) Contrairement à la méthode de l’erreur standard, la distribution d’échantillonnage du paramètre étudié ne doit pas être obligatoirement normale, par contre B doit être plus élevé (de l’ordre de 1000 par exemple). Méthode des pourcentiles corrigés pour le biais ∗ Dans la méthode des pourcentiles simples, les limites de confiance sont données par les fractiles T̂[α/2] ∗ et T̂[1−α/2] de la distribution des T̂k∗ . Une première modification de cette méthode concerne la prise en compte du biais. La méthode des pourcentiles corrigés pour le biais consiste à prendre, comme limite de ∗ ∗ confiance, les pourcentiles T̂[α et T̂[α de la distribution des T̂k∗ . Les valeurs α1 et α2 sont fonction de 1] 2] α/2 ainsi que de la proportion p de valeurs T̂k∗ inférieures à T̂ . Dans la pratique, le calcul des valeurs de α1 et α2 est le suivant : 1. détermination de la proportion q de valeurs T̂k∗ inférieures à T̂ , 2. calcul du fractile uq (de niveau q) relatif à la distribution normale réduite : uq = Φ−1 (q) (1.10) 3. calcul des points u1 et u2 : u1 = 2uq + uα/2 u2 = 2uq + u1−α/2 (1.11) 4. Estimation des pourcentiles α1 et α2 de la fonction de répartition de la normale centrée réduite aux points u1 et u2 : α1 = Φ(u1 ) α2 = Φ(u2 ) (1.12) Méthode des pourcentiles avec correction pour le biais et accélération Cette méthode est aussi nommée Bootstrap BCa. C’est une extension de la méthode des pourcentiles corrigés pour le biais de manière à tenir compte d’un éventuel changement de l’erreur-standard de T̂ lorsque T varie. La prise en compte d’une modification de l’erreur-standard nécessite le calcul, à partir de 19 décembre 2012 Page 36/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité l’échantillon initial, d’un paramètre appelé accélération (noté a), qui intervient dans le calcul des valeurs ∗ ∗ α1 et α2 utilisées pour définir les limites inférieure T̂[α et supérieure T̂[α . Le calcul des points u1 et u2 1] 2] est modifié de la manière suivante : u1 = u2 = uq + uα/2 1 − a(up + uα/2 ) uq + u1−α/2 up + 1 − a(up + u1−α/2 ) uq + (1.13) (1.14) La constante a (accélération) est liée au taux de variation de l’erreur-standard de T̂ lorsque T varie. Elle peut être estimée de différentes manières dont l’une consiste à utiliser la technique du Jackknife : " p # p 3 X 2 3/2 1 X a= T̂J − T̂(−i) / T̂J − T̂(−i) 6 i=1 i=1 (1.15) Dans cette expression, T̂(−i) est l’estimation du paramètre T obtenue à partir de l’échantillon initial dont la ième observation est retirée. T̂J est la moyenne des p valeurs T̂(−i) . Cette méthode permet de prendre en compte les asymétries de la statistique étudiée (ce que ne fait pas la méthode des pourcentiles par exemple) mais au prix d’un nombre élevé de ré-échantillonnages. D’autres techniques de ré-échantillonnage et d’estimation comme le Bootstrap-t (Bootstrap à deux niveaux) peuvent être intéressantes mais n’ont pas été abordées dans le cadre de ces travaux d’analyse de fiabilité par ré-échantillonnage. 1.3.4 Conclusions sur les techniques de ré-échantillonnage Les techniques de ré-échantillonnage permettent d’utiliser au mieux l’information contenue dans un échantillon. Une application fondamentale du Bootstrap concerne le calcul d’intervalles de confiance comme mesure de la précision sur l’estimation de statistiques issues de l’échantillon. La méthode présentant les meilleurs compromis est celle du Bootstrap BCa (correction pour le biais et accélération). Par ailleurs, le Bootstrap BCa est la méthode couramment préconisée dans la littérature [Efron and Tibshirani, 1993; DiCiccio and Efron, 1996; Palm, 2002]. Cette approche est donc une des méthodes à privilégier pour calculer les intervalles de confiance dans un objectif d’analyse de fiabilité. Enfin, le Bootstrap BCa a été utilisé par [Walz and Riesch-Oppermann, 2006] pour estimer la probabilité de défaillance liée a des défauts sur des disques de turbines. 1.4 1.4.1 Méthode CQ2RS Bref état des lieux sur les méthodes de surface de réponse Est souvent associé au nom de surface de réponse une représentation polynomiale d’un modèle mécanique plus complexe de type éléments finis par exemple. Cette représentation polynomiale se substitue alors au modèle mécanique de type éléments finis, coûteux en temps de calcul, pour tout calcul paramétrique, d’optimisation ou de fiabilité. Une telle approximation présente aussi l’avantage de réduire le bruit numérique inhérent au modèle mécanique de type éléments finis. Dans le contexte de l’analyse fiabiliste, cette représentation est notée H̃(u) dans l’espace standard et est définie par régression à partir Nicolas Gayton Page 37/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité d’expériences numériques. Si seul le point de défaillance est recherché, une représentation locale, précise autour du point P∗ est construite. Un algorithme de fiabilité peut alors être utilisé sur la surface de réponse pour conduire à une estimation du point de défaillance le plus probable P ∗ (figure 1.2). Figure 1.2 – Principes d’approximation de la méthode des surfaces de réponse. Dans tous les cas, un écart existe entre le modèle approché H̃ et le modèle réel H. Un processus adaptatif permet la convergence des résultats en redéfinissant un plan d’expériences numériques autour du point trouvé et en relançant la méthode. La méthode des surfaces de réponse [Faravelli, 1989] apparaı̂t intéressante à plusieurs niveaux. Elle permet une dérivation numérique sur un modèle approché permettant ainsi de réduire en général le nombre de calculs mécaniques. D’autre part, elle permet d’introduire les connaissances de l’ingénieur en lui laissant toute liberté de définir une expérience judicieusement choisie ou d’en éliminer une inutile ou nonphysiquement admissible. Elle présente aussi l’avantage de pouvoir estimer la probabilité de défaillance ou des sensibilités stochastiques, pour un coût de calcul quasiment nul, par simulations de Monte-Carlo sur la surface de réponse. Dans ce cas, une représentation globale du modèle de comportement est en générale préférée. L’utilisation de telles méthodes dans les problèmes de fiabilité n’est pas récente et fait toujours l’objet de nouvelles contributions [Allaix and Carbon, 2011]. Des travaux ont permis de poser les concepts [Bucher and Bourgund, 1990; Faravelli, 1989; El-Tawil et al., 1991] et de proposer des évolutions [Enevolsen et al., 1994; Kim and Na, 1997; Liu and Moses, 1994; Muzeau et al.; Lemaire, 1998]. Ces diverses méthodes proposées dans la littérature diffèrent principalement sur trois points. Le premier point est l’espace de travail. Certains auteurs définissent les expériences dans l’espace des variables physiques [Bucher and Bourgund, 1990; Kim and Na, 1997; Liu and Moses, 1994]. Ceci présente l’avantage de manipuler des grandeurs physiques et donc de ne pas générer d’expériences aberrantes. Néanmoins, en accord avec [Enevolsen et al., 1994; Lemaire, 1998], il semble préférable de définir les expériences dans l’espace standard de manière à contrôler correctement la distance entre les expériences. Ceci présente aussi l’avantage de permettre l’utilisation directe des algorithmes fiabilistes sur la surface 19 décembre 2012 Page 38/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité de réponse. Par contre, il faut impérativement vérifier le caractère physique de chacune des expériences générées dans cet espace. La plupart des auteurs sont d’accord pour utiliser une surface polynomiale. Le nombre de termes de la surface de réponse utilisée est un des points de discussion sachant que plus la surface de réponse est complète, plus les résultats sont précis mais coûteux. Une approche par surface de réponse linéaire peut être envisagée de façon adaptative [Kim and Na, 1997]. D’autres approches utilisent une surface de réponse de degré 2 sans terme mixte [Bucher and Bourgund, 1990; Liu and Moses, 1994]. Ceci présente l’avantage de diminuer le nombre d’expériences nécessaires à la formation de la surface de réponse mais ne permet pas de prendre en compte d’éventuels interactions entre les variables. Une surface de degré 2 sous sa forme complète peut être utilisée [Enevolsen et al., 1994; Rajashekhar and Ellingwood, 1993; Lemaire, 1998]. C’est celle qui semble efficace dans la plupart des cas. La définition des plans d’expériences est un sujet de discussion très important. La plupart des auteurs utilisent des plans d’expériences étoilés [Bucher and Bourgund, 1990; Kim and Na, 1997; Liu and Moses, 1994; Rajashekhar and Ellingwood, 1993], dont la taille est empirique. Ceci présente l’avantage de générer peu de calculs mécaniques. 1.4.2 Fondements statistiques de la méthode CQ2RS Notons u(j) les p, j = 1, ..., p expériences numériques et par n le nombre de composantes du vecteur u(j) , c’est-à-dire le nombre de variables aléatoires. Définissons la fonction P qui associe, aux p expériences u(j) , les coordonnées ũ∗ d’une estimation du point de défaillance le plus probable notée P̃ ∗ : u(1) , u(2) , ..., u(j) , ..., u(p) P: p×n R P −→ ũ∗ −→ R (1.16) n La transformation P est composée : 1. des calculs mécaniques associés à chacune des expériences ; 2. d’une régression des moindres carrés dans le but d’obtenir les l = (n+1)(n+2) 2 coefficients de la surface de réponse quadratique avec termes croisés ; 3. du calcul de l’estimation du point de défaillance le plus probable sur la surface de réponse grâce à l’utilisation des algorithmes fiabilistes classiques (Rackwitz-Fiessler, ...). La régression des moindres carrés introduit un écart entre les valeurs calculées de la fonction de performance H(u(j) ) et les valeurs estimées H̃(u(j) ) : ε(j) = H(u(j) ) − H̃(u(j) ) Dans le cas de la régression des moindres carrés, cet écart est aléatoire et est distribué suivant une loi normale centrée. Il en résulte que la réalisation H̃(u(j) ) est une variable aléatoire et donc que les coordonnées de P̃ ∗ le sont également à travers la transformation P. Une connaissance exhaustive de la population u(j) conduirait à la connaissance exacte de u∗ . Il suffirait de rechercher la solution du problème défini en équation 1.2. En d’autres termes : u(1) , u(2) , ..., u(j) , ..., u(p) Nicolas Gayton Page 39/172 p→∞ =⇒ u∗ (1.17) 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité La fonction P apparaı̂t donc comme un opérateur qui construit une caractéristique ũ∗ de la population mère u dont un échantillon est le plan d’expériences u(j) de taille réduite p. Lorsque u∗ est calculé à partir du plan d’expériences de taille réduite, il devient une statistique aléatoire, fonction du plan d’expériences, notée ũ∗ de moyenne mũ∗ et de variance sũ∗ . Se pose alors le problème de savoir estimer u∗ à partir d’un unique plan d’expériences de taille limitée, c’est-à-dire de trouver le meilleur estimateur de u∗ . Classiquement, l’estimateur ũ∗ , calculé à partir du plan d’expériences de taille p, est utilisé pour estimer u∗ (c’est le cas de toutes les méthodes des surfaces de réponse citées en référence). Il n’est cependant pas un estimateur robuste de u∗ car il apparaı̂t très sensible aux expériences choisies. Il introduit alors le problème habituel de choix du meilleur plan d’expériences, le plus caractéristique de la population. Un estimateur robuste couramment utilisé (par exemple pour estimer la moyenne d’une variable aléatoire à partir d’un échantillon unique de la population), est la moyenne mũ∗ . Dans le cas de la transformation P, l’utilisation de cet estimateur peut se justifier par le fait que la meilleure estimation du point de conception est celle la plus couramment obtenue par l’utilisation de plans d’expériences différents. Aussi, cet estimateur est convergent vers u∗ . En effet, considérons le cas extrême où les plans d’expériences sont de taille infinie. La distribution des ũ∗ est alors clairement centrée en ũ∗ (équation 1.17) et de variance nulle. La détermination de u∗ peut finalement se ramener au problème suivant : comment estimer mũ∗ à partir d’un seul échantillon de la population u ? Les méthodes de ré-échantillonnage permettent de répondre à ce type de questions en deux phases : • obtention d’une distribution d’échantillonnage empirique de ũ∗ à partir d’un plan d’expériences de u (étape 2 de la méthode) ; • estimation de la moyenne de u∗ à partir de la distribution obtenue (étape 3 de la méthode). 1.4.3 Principes de la méthode La méthode CQ2RS Complete Quadratic Response Surface method with ReSampling [Gayton et al., 2002a] proposée dans cette section a pour objectif de calculer l’indice de fiabilité ainsi que les coordonnées du point de défaillance le plus probable dans l’espace standard (intéressant pour le calcul des coefficients partiels). Son caractère adaptatif et son critère d’arrêt basés sur les techniques de ré-échantillonnage permettent de limiter le nombre de calculs mécaniques tout en ayant confiance dans les résultats obtenus. La méthode CQ2RS est composée de deux étapes principales : • Etape 1 - définition du premier plan d’expériences : la stratégie [Gayton et al., 2002a], non détaillée dans ce document, permet de construire un premier plan d’expériences de taille p = (n+1)(n+2) 2 + 2 en tenant compte du caractère Résistance ou Sollicitation de chaque variable. Ce premier plan d’expériences est ainsi localisé dans une zone réduite de l’espace qui est censée contenir le point de défaillance le plus probable. • Etape 2 - ré-échantillonnage des expériences : les coordonnées du point de défaillance le plus probable sont considérées comme des variables aléatoires dépendant des expériences choisies pour la régression. Une technique de ré-échantillonnage statistique permet d’obtenir une distribution empirique de chacune des coordonnées du point de défaillance le plus probable à partir de la base de données d’expériences et cela sans calcul mécanique supplémentaire. • Etape 3 - estimation des coordonnées du point P∗ : les outils d’estimation statistique permettent l’estimation par intervalles de confiance des coordonnées du point de défaillance le plus 19 décembre 2012 Page 40/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité probable dans le but de définir la zone de confiance où se situe le point P∗ . Etape 2 : ré-échantillonnage L’obtention d’une distribution d’échantillonnage de ũ∗ se fait par ré-échantillonnage des expériences. La technique de ré-échantillonnage utilisée est inspirée de la méthode de ré-échantillonnage Jackknife. Partant du plan d’expériences u(1) , u(2) , ..., u(j) , ..., u(p) , un estimateur de u∗ noté ũ∗(k) est obtenu en éliminant l’expérience u(k) du plan d’expériences. En éliminant successivement chacune des expériences, une distribution de p estimations ũ∗(1) , ũ∗(2) , ..., ũ∗(p) est finalement obtenue. Le choix du nombre d’expé(n+1)(n+2) +2 2 ∗(1) ∗(2) ∗(p) riences p = tions ũ , ũ , ..., ũ du premier plan d’expériences se justifie alors dans le but d’obtenir les estimapar une succession de régressions et non d’interpolations. La taille des p plans d’expériences successifs est alors p − 1 = (n+1)(n+2) 2 + 1. Etape 3 : estimation du point de défaillance le plus probable L’étape 3 de la méthode est la plus importante puisqu’elle définit la technique utilisée pour estimer les coordonnées du point P∗ . Cette étape est divisée en deux sous-étapes 3.1 (phase de ré-échantillonnage) et 3.2 (phase itérative). Sous-étape 3.1. A partir de l’échantillon ũ∗(1) , ũ∗(2) , ..., ũ∗(p) , la moyenne mũ∗ peut être estimée soit de manière ponctuelle - l’inconvénient est que la précision de l’estimation est inconnue - soit par la définition d’un intervalle de confiance. La méthode des pourcentiles simples est utilisée en faisant une hypothèse sur la distribution empirique de ũ∗ . On se trouve dans le cas où la variance de la distribution de la variable aléatoire ũ∗ est inconnue. Alors, selon [Saporta, 1990], la variable aléatoire ũ∗ suit une loi de Student ¯ ∗ des ũ∗(1) , ũ∗(2) , ..., ũ∗(p) et d’écart-type su /√p. à υ = p − 1 degrés de liberté de moyenne empirique ũ ¯∗ L’intervalle de confiance avec la probabilité 1 − α est alors défini autour de la moyenne arithmétique ũ en utilisant la distribution de Student : su su ¯ ∗ + tα/2,p−1 √ ¯ ∗ − tα/2,p−1 √ ≤ mũ∗ ≤ ũ ũ p p tα/2,υ étant déterminé grâce à une fonction de Student et su étant un estimateur de l’écart-type de ũ∗ q P p 1 ∗(j) − ū∗ )2 . Un domaine de confiance autour de m ∗ est donc défini. défini par su = p−1 ũ j=1 (ũ Sous-étape 3.2. Il ne reste plus qu’à sélectionner certaines expériences dans ce domaine pour les ajouter au plan d’expériences précédent et relancer les étapes 2 et 3. Suivant en cela la plupart des auteurs, les expériences choisies sont celles d’un plan d’expériences étoilé. Les coordonnées des 2n + 1 ¯ ∗ et deux expériences sur chaque axe : nouvelles expériences sont définies par ũ su ¯ ∗ ± tα/2,p−1 √ u(j) = ũ p Le critère de convergence adopté concerne naturellement la taille du domaine de confiance. Lorsque celleci est inférieure à la précision désirée ǫ des résultats, le processus s’arrête. Le résultat final est alors la ¯ ∗ . Il peut être validé par le calcul mécanique de H(ũ ¯ ∗ ) qui doit être proche de 0. moyenne arithmétique ũ Nicolas Gayton Page 41/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Remarques 1. Cette technique est semblable à celle définie dans les méthodes classiques mais présente l’avantage de ne plus proposer une taille empirique du plan étoilé mais ajustée en fonction des résultats et plus précisément en fonction de la variance de la variable aléatoire ũ∗ . 2. La méthode proposée permet une justification plus aisée des résultats car l’estimation du point de défaillance le plus probable finalement obtenue est calculée par l’utilisation de plusieurs plans d’expériences différents. 3. La probabilité α et le facteur de convergence ǫ doivent être ajustés empiriquement. Plus α est faible plus l’intervalle de confiance est étendu et plus la convergence sera lente. Par contre, plus il est important, plus l’intervalle de confiance sera restreint mais avec une confiance moindre. Il est nécessaire de trouver un bon compromis entre les deux. L’expérience montre que 1 − α = 0, 90 convient. En ce qui concerne ǫ, il doit être fixé en fonction de la précision désirée des résultats. L’expérience montre que ǫ = 0, 05 conduit à une précision de l’ordre de 1% sur chaque coordonnée du point de défaillance le plus probable. 4. Des problèmes de convergence peuvent être rencontrés et signifient que la surface de réponse polynomiale du second degré est insuffisante pour représenter correctement la complexité du modèle mécanique. Ceci constitue aussi un gros atout de la méthode qui peut donner une information sur l’adéquation entre le degré de la surface de réponse et la complexité du modèle mécanique considéré. La méthode RPCM développée dans la section suivante permet une gestion du degré du polynôme basée sur l’analyse de convergence des intervalles de confiance. 1.4.4 Application industrielle à une structure conique raidie La méthode CQ2RS a été validée sur des exemples de référence [Gayton et al., 2002a] et a été utilisée pour traiter des cas industriels dont voici un exemple en partenariat avec le CEA. Les données de cette structure étant confidentielles, elle ne seront pas mentionnées. La structure étudiée est une structure CEA [Gayton et al., 2002b] dont la géométrie est définie en figure 1.3. Elle est constituée d’une partie conique, d’une partie cylindrique, d’une partie sphérique, d’une partie plate en son extrémité et de 7 raidisseurs circonférentiels. Cette structure, encastrée à une extrémité et simplement appuyée à l’autre, est chargée en pression externe et est soumise à des phénomènes de flambage particulièrement en mode 2. Après 60 exp. β α1 α2 α3 α4 α5 α6 α7 α8 α9 méthode CQ2RS 3,45 0,69 0,67 0,21 0,09 0,07 0,05 0,04 0,08 0,11 Tableau 1.1 – Indice de fiabilité et cosinus directeurs obtenus avec la méthode CQ2RS sur le cas de la structure conique raidie. Les variabilités d’épaisseur issues de la fabrication sont étudiées. Pour cela, la coque est divisée en 9 tronçons (figure 1.4) d’épaisseur ai (i = 1...9) constante par tronçon mais distribuée suivant une loi Normale de coefficient de variation 0,03. Aucune corrélation entre les épaisseurs des différents tronçons n’est envisagée. Cette structure est modélisée mécaniquement avec le code universitaire INCA/STANLAX [Combescure, 1986]. Les variables ai sont clairement des variables de type résistance et il n’est donc 19 décembre 2012 Page 42/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Figure 1.3 – Structure conique raidie CEA. Figure 1.4 – Définition des 9 tronçons d’épaisseur aléatoire et représentation graphique des facteurs d’importance (αi2 ). Nicolas Gayton Page 43/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité pas nécessaire d’effectuer les calculs mécaniques pour connaı̂tre le domaine d’étude. La convergence est atteinte dès la première itération soit au total au bout de 60 calculs mécaniques démontrant ainsi la pertinence du premier plan d’expériences. Les résultats obtenus avec la méthode CQ2RS sont présentés tableau 1.1 et graphiquement sur la figure 1.4. Les résultats de l’analyse de fiabilité montrent que l’indice de fiabilité est très sensible aux incertitudes dans les régions proches des appuis. Ces résultats sont en accord avec les résultats d’une analyse déterministe du fait du moment fléchissant introduit par les conditions limites et plus particulièrement par l’encastrement. 1.4.5 Conclusions sur la méthode CQ2RS La méthode CQ2RS propose un bon compromis entre le temps de calcul et la qualité des résultats. Elle a été validée sur plusieurs exemples de référence [Gayton et al., 2002a] qui ont montré des apports par rapport aux méthodes existantes : • premier plan d’expériences prenant en compte la connaissance du comportement de la structure et le caractère résistance ou sollicitation de chaque variable. Cette hypothèse est bien sûr valable uniquement pour des fonctions de performance monotones, ce qui est fréquemment le cas en mécanique [Derocquigny, 2006]. • stratégie itérative basée sur des techniques de ré-échantillonnage (Jackknife) permettant de définir un intervalle de confiance des résultats obtenus, de guider les expériences suivantes et de proposer un critère d’arrêt en accord avec la confiance obtenue sur les résultats. Cette stratégie permet de garantir une grande précision des résultats sur chacune des coordonnées du point de défaillance le plus probable. • une non convergence indique que la surface de réponse polynomiale du second degré est insuffisante pour représenter correctement la complexité du modèle mécanique. Cette information est précieuse et innovante pour valider ou nom le choix du modèle de la surface de réponse. La gestion du degré de la surface de réponse est envisagée par la méthode RPCM exposée en section suivante. La méthode CQ2RS a aussi été utilisée pour évaluer la fiabilité de structures industrielles et pour calibrer des coefficients partiels où sa grande précision sur chacune des coordonnées du point de défaillance le plus probable est un atout majeur. 1.5 1.5.1 Méthode RPCM Bref état des lieux des méthodes basées sur le chaos polynomial L’objectif des approches non intrusives basées sur le chaos polynomial est d’approximer la réponse aléatoire S du modèle (qui peut être la fonction de performance toute entière) notée S̃ par un développement sur une base de polynômes ψj (x) (j = 0, . . . , P − 1) de dimension finie : S̃(x) = P −1 X sj ψj (x) (1.18) j=0 x étant le vecteur des variables aléatoires. Lorsque les polynômes ψj (x) forment une base orthogonale, ce développement est connu sous le nom de chaos polynomial (en référence aux travaux de Wiener [1938]). La caractérisation de la réponse S(x) revient donc à calculer les coefficients (déterministes) sj . 19 décembre 2012 Page 44/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Au début des années 90, [Ghanem and Spanos, 1991] ont ainsi développé la méthode des éléments finis stochastiques spectraux pour résoudre des problèmes de mécanique dont les propriétés matériau variaient spatialement (représentation par un champ aléatoire). Dans cette approche, la matrice de rigidité toute entière est développée sur la base du chaos (pour prendre en compte l’aléa). Cette stratégie est qualifiée d’intrusive puisque le système discret classique des éléments-finis [K]u = f est modifié par l’injection du développement sur le chaos de la matrice [K]. Ces travaux ayant été développés dans le cadre de la thèse industrielle de A. Notin, le fonctionnement type boı̂te noire des codes de calcul interdit toute modification du système d’équations. De ce fait, des approches dites non intrusives ont été préférées. Les évaluations du modèle ne sont alors connues que pour un nombre fini de points de la même manière que dans la méthode des surfaces de réponse exposée en section précédente. Les méthodes non intrusives ne requièrent donc aucune modification du modèle déterministe qui est alors considéré comme une “boı̂te noire”. Cette approche est particulièrement intéressante dans un contexte industriel puisqu’elle autorise l’utilisation d’un code de calcul industriel type éléments finis par exemple. Plusieurs catégories de méthodes se distinguent. La méthode de collocation stochastique est une méthode d’interpolation [Webster et al., 1996] donc très sensible au choix du plan d’expériences numérique. La méthode de projection [Ghiocel and Ghanem, 2002] utilise l’orthonormalité de la base du chaos pour calculer les coefficients du développement par projection. Les coefficients du chaos sj sont alors obtenus en calculant numériquement une intégrale de dimension n (taille du vecteur x). Cette procédure s’avère en pratique très coûteuse en temps de calcul et une méthode de régression lui a été préférée. L’approche par régression consiste classiquement à minimiser au sens des moindres carrés l’écart entre la réponse S du modèle et son approximation S̃ sur le chaos. En d’autres termes, les coefficients sj qui minimisent l’erreur quadratique entre S et S̃ aux points de calculs est recherchée. Toutefois, l’estimateur des moindres carrés ignore l’information contenue dans la variance des données. Une estimation plus précise peut être obtenue grâce à l’estimateur des Moindres Carrés Pondérés (comme peut le faire la méthode du krigeage qui est exposée dans le chapitre 2). Le critère de minimisation au sens des moindres carrés pondérés est : ∆S = p X i=1 ωi S (i) − P −1 X j=0 2 sj ψj (u(i) )}) (1.19) [Ψ]T [W]S (1.20) avec p le nombre d’expériences définies par leur coordonnées u(i) dans l’espace standard. Les coefficients du chaos sont obtenus de façon vectorielle par : s = [Ψ]T [W][Ψ] −1 où s est le vecteur des coefficients du chaos et S est un vecteur qui contient les p évaluations du modèle mécanique par un code de calcul. [W] est une matrice diagonale qui contient les pondérations ωi de régression. La matrice [Ψ] est définie de la manière suivante : (1) ψ0 (u ) .. [Ψ] = . ψ0 (u(n) ) Nicolas Gayton ··· .. . ··· ψP −1 (u (1) ) ψP −1 (u(n) ) Page 45/172 .. . (1.21) 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité L’objectif des moindres carrés pondérés [Carroll and Ruppert, 1988; Ryan, 1997] est de s’assurer que chaque donnée a un niveau d’influence approprié sur l’estimation des paramètres. Les pondérations ωi (utilisées pour estimer les valeurs des paramètres inconnus) sont inversement proportionnelles à la variance de l’observation i. En d’autres termes une expérience aura beaucoup d’influence sur le modèle de chaos si son incertitude est faible. A contrario, une expérience avec une forte variabilité aura un poids plus faible dans le modèle. Dans le cas de répétitions au sein des données (c’est le cas par exemple lorsque des techniques de ré-échantillonnage sont utilisées), la manière la plus simple d’estimer les poids ωi est de les prendre égaux au nombre de répétitions dans l’échantillon. Du point de vue du nombre de calculs, l’approche par régression propose une alternative intéressante notamment vis-à-vis de la méthode par projection. Les études menées par [Berveiller et al., 2006] montrent que la sélection de p = kP (avec k = variant de 2 à 3), points de régression aboutit à des résultats satisfaisants. Le problème réside alors dans le choix des points de régression : [Sudret, 2008] propose de baser ce choix sur les racines des polynômes de la base mais des techniques de tirages (Monte Carlo, Latin HyperCube, quasi-Monte Carlo) peuvent également être employées. D’autre part, la méthode de projection calcule la valeur exacte des coefficients si sans tenir compte de l’ordre de troncature alors que les approches par régression ont pour objectif de trouver le meilleur compromis pour un ordre de troncature donné. Par conséquent, le choix se porte sur l’utilisation de l’approche par régression couplée à une technique de tirage type Latin HyperCube. L’emploi des techniques de quadratures creuses adaptatives [Gerstner and Griebel, 1998; Crestaux et al., 2009] peuvent permettre d’obtenir un coût de calcul qui évolue de manière polynomiale et non exponentielle par rapport à la dimension stochastique n. 1.5.2 Post-traitement des coefficients du chaos A partir d’une description de la réponse du système sur la base du chaos, plusieurs post-traitements sont envisageables. Tous ces post-traitements s’effectuent à partir de l’expression analytique de la réponse sur le chaos (équation 1.18). Densité de probabilité de la réponse Il est toujours possible de représenter graphiquement la densité de probabilité de la réponse par simulations de Monte Carlo. Pour avoir accès à une description analytique de la densité de probabilité de la réponse, les techniques de lissage à noyau peuvent être utilisées [Wand and Jones, 1995]. L’approximation par noyau de la densité de probabilité de la réponse est donnée par : Nk 1 X ˜ K fS (s) = Nk hk i=1 s − S̃ (i) hk ! (1.22) à partir d’un échantillon de Nk réponses S̃ (i) évaluées sur le chaos polynomial, donc sans coût de calcul. Dans cette expression, K(x) est une fonction positive appelée noyau et hk est la largeur de bande (ou rayon). La fonction noyau la plus connue est le noyau Gaussien. Dans la pratique, pour un noyau Gaussien, [Silverman, 1986] recommande des valeurs pour le paramètre hk . Une approximation précise de la densité de probabilité requiert un grand nombre de tirages (par exemple Nk = 10000 à 100000) sans coût de calcul significatif puisque évalué sur le chaos polynomial. 19 décembre 2012 Page 46/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Evaluation des moments statistiques Les moments statistiques de la réponse peuvent être calculés analytiquement à partir des coefficients du développement sur le chaos en injectant l’équation 1.18 dans les expressions mathématiques des moments statistiques. La moyenne et la variance de la réponse S(x) s’écrivent : µS = s0 Var[S] = σS2 = P −1 X s2i E[ψi2 ] i=1 Analyse de fiabilité L’objectif d’une analyse de fiabilité est de calculer la probabilité de défaillance Pf (définie mathématiquement par l’équation 1.1) d’une structure en tenant compte de la variabilité des paramètres. Lorsque la mise en œuvre de la méthode de Monte Carlo est impossible du fait du temps de calcul associé à une évaluation de la fonction de performance, celle-ci peut être effectuée sur l’approximation par chaos polynomial. Cependant le caractère global de la représentation sur une base de chaos polynomial rend souvent les résultats peu précis et fortement dépendants du plan d’expériences choisi. L’utilisation d’une méthode FORM/SORM sur le chaos polynomial est aussi possible mais son intérêt reste limité par rapport à une utilisation directe de la méthode FORM/SORM à partir du vrai modèle S(x). Analyse de sensibilité L’analyse de sensibilité étudie comment des perturbations sur les entrées du modèle génèrent des perturbations sur la réponse. Les méthodes d’analyse de sensibilité peuvent être groupées selon trois classes : les méthodes de screening, l’analyse de sensibilité locale et l’analyse de sensibilité globale. Les méthodes de screening [Saltelli et al., 2000] analysent qualitativement l’importance des variables d’entrée sur la variabilité de la réponse du modèle. De cette manière, elles permettent d’établir une hiérarchie au sein des variables d’entrée en fonction de leur influence sur la variabilité de la réponse. L’analyse de sensibilité locale, tout comme l’analyse globale, sont des méthodes d’analyse quantitative, qui permettent en plus d’établir une hiérarchie au sein des variables d’entrée, de donner un ordre de grandeur des écarts. L’analyse de sensibilité locale étudie comment de petites perturbations autour d’une valeur des entrées se répercutent sur la valeur de la sortie. L’analyse de sensibilité globale s’intéresse quant à elle à la variabilité de la sortie du modèle dans son domaine de variation. Elle étudie comment la variabilité des entrées se répercute sur celle de la sortie, en déterminant quelle part de variance de la sortie est due à telles entrées ou tel ensemble d’entrées. L’analyse locale s’intéresse donc à la valeur de la réponse, tandis que l’analyse globale s’intéresse à sa variabilité. Dans le cadre d’un développement sur le chaos polynomial, les indices globaux de sensibilité peuvent se calculer directement à partir des coefficients du chaos grâce aux indices de Sobol’ [Sobol, 1993; Sudret, 2008]. 1.5.3 Troncature du développement sur le chaos polynomial La troncature de la série (équation 1.18) permet de ne retenir qu’un nombre fini de P termes. Les études menées notamment par [Berveiller, 2005] montrent que dans le cas de fonctions suffisamment régulières un chaos d’ordre 2 fournit en général des résultats satisfaisants pour une étude de sensibilité alors qu’un chaos d’ordre 3 est souvent nécessaire pour une étude de fiabilité. Plus généralement, la Nicolas Gayton Page 47/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité convergence de la série tronquée dépend de la régularité de la fonction à approximer. Dans un contexte industriel, aucune information n’est disponible sur la fonction à approximer avant que des calculs ne soient effectués. [Field and Grigoriu, 2004; Bellec, 2008] proposent des estimateurs pour évaluer a posteriori la précision de la série tronquée. Dans un contexte de réduction du nombre d’expériences et de la taille du chaos, de telles mesures ne peuvent être directement évaluées. Une réponse à ce problème se trouve dans [Blatman and Sudret, 2008] avec le développement d’un chaos adaptatif creux. Dans le cadre des travaux de thèse d’Alban Notin, le traitement de ce problème est basé sur l’utilisation des techniques de ré-échantillonnage à travers la méthode RPCM. 1.5.4 Description de la méthode RPCM De la même manière que la méthode CQ2RS couple intervalle de confiance et surfaces de réponse quadratique, la méthode RPCM [Notin et al., 2010] Resampling-based Polynomial Chaos Method couple intervalles de confiance et chaos polynomial en utilisant des stratégies de plan d’expériences et d’enrichissement qui en font une méthode d’approximation globale. La première utilisation des intervalles de confiance pour le chaos polynomial a été évoquée dans [Lemaire, 2006]. La méthode RPCM comprend une boucle d’apprentissage et une boucle d’enrichissement. Ses spécificités sont les suivantes : • la boucle d’apprentissage permet à tous les ordres de chaos possibles d’être testés en fonction du nombre de calculs mécaniques disponibles ; • la boucle d’enrichissement est basée sur une gestion de la taille du chaos et du nombre d’expériences. S’il n’y a pas de convergence sur l’indice de fiabilité quand l’ordre du chaos augmente alors le plan d’expériences n’est pas suffisamment riche et doit être enrichi. Si pour un même ordre du chaos l’augmentation de la taille du plan d’expériences ne permet pas de converger alors l’ordre du chaos doit être augmenté. L’approche générale est décrite en figure 1.5. La boucle d’apprentissage est décrite en détails en figure 1.6. Chaque étape est décrite ci-après. Étape 0 - Premier ordre du chaos Sans connaissance a priori du comportement mécanique, un chaos linéaire d = 1 (ordre du chaos le moins coûteux en terme d’évaluations du modèle mécanique) est postulé en premier lieu. L’évaluation des coefficients du chaos nécessite au minimum n + 1 calculs mécaniques (n étant le nombre de variables aléatoires du problème) de la fonction de performance G. Étape 1 - Plan d’expériences numériques et calculs mécaniques Chaque plan d’expériences numériques (PEN) est numéroté de manière à être en relation avec l’ordre maximal du chaos qu’il est possible d’atteindre. Par exemple, le PEN numéro d autorise le calcul d’un chaos polynomial jusqu’à l’ordre d. La taille N (d) du PEN numéro d est par conséquent également liée au nombre de termes P du chaos d’ordre d par la règle suivante : N (d) = 2 (M + d)! = 2P (d) M !d! (1.23) Cette règle (2 fois le nombre de coefficients du chaos d’ordre d) est liée aux répétitions, au sein d’un sous échantillon, dues à l’utilisation du Bootstrap. En effet, l’échantillonnage doit être réalisé de telle sorte que la régression ne soit pas dégénérée. Pour satisfaire cette condition, le calcul des coefficients 19 décembre 2012 Page 48/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Figure 1.5 – Principes de l’algorithme de la méthode RPCM. Nicolas Gayton Page 49/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Figure 1.6 – Détails de la boucle d’apprentissage (étape 2). 19 décembre 2012 Page 50/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité du chaos par régression nécessite au moins P (d) expériences différentes. Ainsi, la taille de chaque sous échantillon Bootstrap doit être au moins égale à P (d) . Cette règle s’appuie sur des tests numériques mais une règle sur le dénombrement a été établie dans le cadre de la thèse d’Alban Notin. L’ordre initial du chaos polynomial est pris égal à 1 ce qui implique que le plan P EN (1) a une taille N (1) = 2(n + 1). Le PEN est généré par Hypercube Latin. L’Hypercube Latin est une technique de tirage stratifié qui assure n une meilleure uniformité des tirages dans l’espace [0, 1] et donc un meilleur remplissage de l’espace. Cette technique est recommandée par différents auteurs pour améliorer les performances des simulations numériques tout en réduisant les coûts de calcul (moins de tirages nécessaires). Étape 2 - Boucle d’apprentissage La boucle d’apprentissage est détaillée Figure 1.6. Tous les ordres de chaos, de 1 à d, sont testés ; c’està-dire que pour le PEN numéro d, le chaos d’ordre k pour k = 1 à k = d est testé. Pour chaque chaos d’ordre k, un sous échantillon Bootstrap de taille 2P (k) est choisi aléatoirement et avec remise parmi les N (d) données disponibles. L’utilisation du Bootstrap peut entraı̂ner la répétition de données dans un même sous échantillon. Cette répétition modifie alors le conditionnement de la matrice qui peut devenir mal conditionnée. Afin de prendre en compte le poids attribué à chaque donnée, la régression pondérée (détaillée section 1.5.1) est utilisée pour calculer les coefficients du chaos. L’affectation des poids se base sur le nombre de répétitions de la donnée au sein du sous échantillon. Un poids ωi = k signifie que la donnée se répète k fois dans l’échantillon. La probabilité de défaillance PM C est calculée par simulation de Monte-Carlo directe sur le chaos polynomial. Afin de supprimer le biais dans la simulation de MonteCarlo, le même germe est utilisé pour chaque évaluation de PM C . La taille de cet échantillon est fixée a priori lors de la phase d’initialisation par la règle suivante : pour une probabilité de l’ordre de 10−n , 10n+3 tirages sont effectués. Finalement, l’indice de fiabilité est déduit de la probabilité de défaillance par β̃ = −Φ−1 (PM C ). Le nombre de sous échantillons Bootstrap est B = 1000. De ce fait, un échantillon de k,d k,d B indices de fiabilité est généré. L’intervalle de confiance à 95%, noté [β̃min , β̃max ], de l’indice de fiabilité est calculé par Bootstrap BCa (paragraphe 1.3.3). Cet intervalle de confiance est l’intervalle de confiance sur l’indice de fiabilité calculé pour un chaos d’ordre k ≤ d à partir du PEN numéro d. A la fin de la boucle d’apprentissage, d intervalles de confiance sur l’indice de fiabilité ont été évalués à partir du PEN numéro d pour tous les ordres de chaos possibles. La valeur médiane β̃ k,d = k,d 1 2 (β̃min k,d + β̃max ) de chaque intervalle de confiance est prise comme estimation ponctuelle de la valeur de l’indice de fiabilité. Étape 3 - Test de convergence Le test de convergence est basé sur la largeur de l’intervalle de confiance. C’est un indicateur de la qualité du méta-modèle : plus l’intervalle de confiance est petit, meilleure est l’approximation de l’indice de fiabilité sur le chaos. Un intervalle de confiance de largeur nulle signifie que, du point de vue numérique, la valeur estimée de l’indice de fiabilité correspond à la valeur cible. Le critère de convergence est normé de la manière suivante : k,d k,d | |β̃max − β̃min = ǫβ β̃ k,d (1.24) ǫβ doit être défini a priori en fonction du niveau de précision souhaité (1% par exemple). Le niveau de sévérité du test de convergence permet donc de choisir l’ordre du chaos et de tester la robustesse vis-à-vis du PEN. Nicolas Gayton Page 51/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Étape 4 - Enrichissement du plan d’expériences Dans la boucle d’apprentissage, lorsque k = d, l’ordre maximal du chaos pour le plan courant a été atteint. S’il n’y a toujours pas eu convergence, alors le PEN doit être enrichi. Selon le cas, cet enrichissement se fait soit en ajoutant des expériences à partir d’un plan existant soit par Hypercube Latin. N (d+1) − N (d) données sont ainsi ajoutées afin de garantir le passage à un ordre de chaos supérieur sur le plan suivant (chaos d’ordre d + 1). En grande dimension, l’ajout de N (d+1) − N (d) données (pour passer de d à d+1) peut s’avérer très coûteux. Pour réduire ce coût, plusieurs solutions sont envisageables notamment l’utilisation de bases creuses ou de techniques d’échantillonnage plus astucieuses comme les sparse grid. Cette adaptativité, par augmentation du degré du chaos, constitue dans sa version actuelle une limitation de la méthode RPCM pour des ordres élevés et un nombre important de variables aléatoires. Étape 5 - Résultats Si le test de convergence est satisfait, alors la procédure s’arrête. Le meilleur ordre du chaos, par rapport à l’objectif de fiabilité, a donc été atteint. La méthode RPCM permet de tirer les informations suivantes sur la fonction G : 1. le meilleur ordre du chaos permettant de construire un méta-modèle remplissant les objectifs de fiabilité ; 2. la taille minimale du PEN permettant de construire le chaos pour atteindre l’objectif de fiabilité ; 3. l’intervalle de confiance à 95% (ou autre) sur l’indice de fiabilité ; 4. une estimation ponctuelle de l’indice de fiabilité. 1.5.5 Application industrielle à un bogie de TGV La méthode RPCM a été validée sur plusieurs exemples académiques analytiques [Notin et al., 2010] où elle a montré une grande efficacité en terme de nombre d’appels à la fonction de performance. L’utilisation des intervalles de confiance et la gestion de l’ordre du chaos permettent d’avoir confiance dans les résultats fournis. L’exemple présenté est inspiré d’un cas industriel pour lequel certaines données ont été créées ou adaptées pour les besoins de la thèse d’Alban Notin. Il s’agit d’un support de fixation de bogie. Le modèle a été réalisé sous ANSYS. Le modèle et les conditions aux limites associées sont illustrés en figure 3.4(a). Le maillage, représenté en figure 3.4(b), se compose de 3408 éléments de type T10. Le comportement de la structure est multi-axial. La prévision de la tenue en fatigue de la structure se fait à l’aide du critère de Dang Van proposé en 1989 [ Dang Van et al., 1989] : EDV 2 = max t avec : τpr (t) = τpr (t) + αPH (t) β 1 max {|S1a (t) − S2a (t)| , |S2a (t) − S3a (t)| , |S3a (t) − S1a (t)|} 2 où S1a (t), S2a (t), S3a (t) sont les valeurs principales du déviateur alterné des contraintes Sija (t) à l’instant t et PH (t) est la pression hydrostatique à un instant t. Les constantes α, β s’écrivent : α=3 19 décembre 2012 1 τ−1 − S−1 2 , β = S−1 Page 52/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité où τ−1 est la limite de fatigue en torsion pure à Nf cycles et S−1 la limite de fatigue en traction pure à Nf cycles. La condition de validité du critère est réalisée lorsque : τ−1 S−1 > 21 . La défaillance de la structure est considérée avant Nf cycles si EDV 2 > 1. Comme dans tout problème d’analyse de fiabilité des structures sollicitées en fatigue, le chargement et les propriétés de matériaux de résistance à la fatigue sont prépondérantes (cet aspect est discuté dans le chapitre 3). Les incertitudes dans cette application portent ainsi sur trois variables aléatoires : la pression P , la limite de fatigue en traction S−1 et la limite de fatigue en torsion τ−1 . Le module d’Young est considéré déterministe et n’intervient pas dans le calcul du critère de Dang Van. Sa variabilité n’aurait donc pas d’impact sur les résultats en fatigue. Les variables aléatoires sont modélisées par des lois lognormales (tableau 1.2). Le chargement est de type symétrique alterné (coefficient R = −1). L’objectif de fatigue est fixé à Nf = 106 cycles. Variable PDF Moyenne Coef. de Var. Troncature P (MPa) Lognormale 0,2 0,2 [0, 18; 0, 3] σ−1 (MPa) Log-normale 213 0,1 τ−1 (MPa) Log-normale 127,8 0,1 E (GPa) Déterministe 200 Tableau 1.2 – Support de fixation de bogie - Définition des variables aléatoires. Les résultats de la méthode RPCM sont présentés dans le tableau 1.3 et les figures 1.8 et 1.9. Tous les résultats numériques sur l’indice de fiabilité sont normalisés par rapport à une valeur de référence βref . Le niveau de confiance est fixé à α = 95% et le nombre de rééchantillonnages à B = 1000. La méthode RPCM est initialisée avec un chaos d’ordre 1 (P (1) = 4) ce qui implique N (1) = 8. La précision est fixée à 1% ce qui donne ǫβ ≤ 0, 01. Les résultats de l’étude de convergence de l’indice de fiabilité sont tracés en figure 1.8. Hormis le chaos d’ordre 1, tous les chaos convergent vers une valeur estimée à partir d’une taille de plan d’expériences de 40. Les résultats sur les intervalles de confiance sont regroupés dans le tableau 1.3. La figure 1.9 montre que le test de convergence est toujours vérifié par les chaos d’ordre 3 et 4 quelle que soit la taille du plan d’expériences et qu’à partir de l’ordre 3, une augmentation de l’ordre du chaos n’affecte ni les résultats ni la précision. En retenant un niveau d’erreur de 1%, selon la méthode RPCM, la meilleure représentation pour la fonction de performance par rapport à l’objectif de fiabilité est le chaos d’ordre 3 avec un PEN de taille 40 (tableau 1.3). D’autres essais numériques ont cependant été menés pour étudier l’influence d’une augmentation de l’ordre du chaos sur l’approximation de l’état-limite. Ces résultats sont regroupés tableau 1.3. Même si, selon la méthode RPCM, le chaos d’ordre 3 avec un PEN de taille 40 satisfait le critère de convergence, pour un chaos d’ordre 4 et un PEN de taille 168, ǫβ = 0. La largeur de l’intervalle de confiance est donc nulle ce qui signifie que la valeur estimée β̃ 4,6 de l’indice de fiabilité a atteint la valeur supposée exacte. 1.5.6 Conclusions sur la méthode RPCM La méthode RPCM Resampling-based Polynomial Chaos Method s’appuie sur deux approches qui ont prouvé leur efficacité pour conduire une analyse de fiabilité : le chaos polynomial pour construire un méta-modèle de la fonction de performance et les techniques de ré-échantillonnage pour valider le modèle Nicolas Gayton Page 53/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité PEN d N (d) Ordre max chaos d Ordre k = 1 1,d β̃min β̃ 1,d 1,d β̃max ǫβ 2 20 2 0,9083 1,0844 1,2604 0,3248 3 40 3 0,9041 1,0449 1,1858 0,2696 4 70 4 0,9110 1,0215 1,1319 0,2163 5 112 5 0,9654 1,0278 1,0901 0,1213 6 168 6 0,9163 0,9942 1,0721 0,1567 7 240 7 0,9135 0,9792 1,0449 0,1342 PEN d N (d) Ordre max chaos d Ordre k = 2 2,d β̃min β̃ 2,d 2,d β̃max ǫβ 2 20 2 0,8338 0,9197 1,0055 0,1867 3 40 3 0,9727 0,9895 1,0063 0,0339 4 70 4 0,9785 0,9913 1,0041 0,0259 5 112 5 0,9811 0,9923 1,0035 0,0226 6 168 6 0,9808 0,9912 1,0015 0,0208 7 240 7 0,9812 0,9914 1,0016 0,0206 PEN d N (d) Ordre max chaos d Ordre k = 3 3,d β̃min β̃ 3,d 3,d β̃max ǫβ 2 20 2 NA NA NA NA 3 40 3 0,9953 0,9978 1,0004 0,0051 4 70 4 0,9982 0,9992 1,0002 0,0019 5 112 5 0,9987 0,9994 1,0002 0,0015 6 168 6 0,9989 0,9996 1,0002 0,0013 7 240 7 0,9991 0,9996 1,0002 0,0011 PEN d N (d) Ordre max chaos d Ordre k = 4 4,d β̃min β̃ 4,d 4,d β̃max ǫβ 2 20 2 NA NA NA NA 3 40 3 NA NA NA NA 4 70 4 0,9999 1,0000 1,0002 0,0003 5 112 5 0,9999 1,0000 1,0000 0,0001 6 168 6 1,0000 1,0000 1,0000 0,0000 7 240 7 1,0000 1,0000 1,0000 0,0000 Tableau 1.3 – Support de fixation de bogie - Évolution de l’intervalle de confiance sur β̃ k,d en fonction de l’ordre du chaos k et du PEN. 19 décembre 2012 Page 54/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité (a) Conditions aux limites. (b) Résultats d’une analyse de contraintes. Figure 1.7 – Support de fixation de bogie. Figure 1.8 – Support de fixation de bogie - Graphe de convergence du ratio β̃ k,d /βref . Figure 1.9 – Support de fixation de bogie - Test de convergence - Évolution de l’erreur estimée (en %) en fonction de l’ordre du chaos et de la taille du PEN. L’erreur maximale est prise égale à 1%. Nicolas Gayton Page 55/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité et estimer l’erreur. Le calcul d’intervalles de confiance par Bootstrap fournit un indicateur sur la qualité de l’estimation de l’indice de fiabilité pour un niveau de confiance donné et un ordre de chaos donné. Ainsi, les intervalles de confiance apparaissent comme un complément naturel aux techniques de modélisation de l’incertain comme le chaos polynomial. En effet, l’intervalle de confiance mesure le degré de précision que l’on a sur les estimations issues de l’échantillon. C’est la raison pour laquelle il fournit une mesure indépendante du modèle mathématique. Enfin, le choix de l’intervalle de confiance comme mesure de l’erreur s’appuie également sur deux propriétés de celui-ci : 1. Plus l’intervalle de confiance est de taille petite, plus l’incertitude sur la valeur estimée est petite ; 2. Pour un niveau de confiance donné, plus l’échantillon est grand, plus l’intervalle de confiance est petit. La méthode RPCM permet aussi une gestion efficace de l’ordre du chaos par une augmentation de celui-ci lorsque les intervalles de confiance reflètent une difficulté de l’ordre du chaos à décrire précisément le modèle réel. Dans un contexte industriel où le problème majeur concerne surtout soit le manque de calculs soit l’exploitation des calculs existants, ré-échantillonner permet d’exploiter au mieux l’information contenue dans les données sans nécessiter de nouveaux calculs (ou de nouvelles mesures) onéreux et longs à réaliser. Au niveau de l’analyse de fiabilité, encadrer l’indice de fiabilité par un intervalle de confiance améliore la prise de décision en fournissant un intervalle d’évolution de l’indice de fiabilité par rapport à un niveau de confiance. Cet intervalle représente donc une quantification de la précision que l’on peut avoir sur l’indice de fiabilité et permet de justifier la nécessité d’investir dans des calculs supplémentaires. Cependant, comme toute technique basée sur le chaos polynomial, la méthode RPCM hérite des limitations de celle-ci. En effet, le nombre de variables aléatoires doit être restreint (une dizaine maximum). La méthode ne permet pas de traiter des états-limites fortement non linéaires ou définis par morceaux où la non convergence des intervalles de confiance permet d’indiquer la présence de ce type de problème. 1.6 Conclusion et perspectives L’utilisation des méthodes de ré-échantillonnage apporte un réel plus dans le contexte de l’analyse de fiabilité pour la validation des résultats (étape trop souvent négligée en calcul de fiabilité) et la définition itérative des expériences et des critères d’arrêt. Mes travaux sur ce sujet ont conduit à deux méthodes qui ont été présentées : • La méthode CQ2RS Complete Qudratic Response Surface method with ReSampling [Gayton et al., 2002a] couple ré-échantillonnage (Jackknife) et Surfaces de Réponse Quadratique. Les méthodes de Surface de Réponse Quadratique sont efficaces lorsqu’elles sont utilisées itérativement de façon locales. De ce fait, la méthode CQ2RS est particulièrement adaptée à l’obtention précise des coordonnées du point de défaillance le plus probable, résultats intéressants pour l’évaluation de la probabilité de défaillance (lorsque l’approche FORM est couplée à une méthode de tirage d’importance), pour une analyse de sensibilité, ou bien dans un objectif de calibration des coefficients partiels. • La méthode RPCM Resampling-based Polynomial Chaos Method [Notin et al., 2010] couple ré- échantillonnage (Bootstrap) et méthode de chaos polynomial dans un objectif d’obtention précise de 19 décembre 2012 Page 56/172 HDR, Nicolas Gayton Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité la probabilité de défaillance. Le chaos polynomial est alors utilisé de façon globale d’où l’importance de la gestion de l’ordre du chaos par une technique itérative présente dans la méthode RPCM. Contrairement à la méthode RPCM, la méthode CQ2RS n’a pas pour ambition d’évaluer précisément la probabilité de défaillance. Cependant, la méthode RPCM présente deux inconvénient majeurs : • problème de nombre de calculs mécaniques très important lorsque le nombre de variables augmente et/ou la fonction de performance nécessite un chaos d’ordre important pour décrire précisément le vrai modèle. • problème pour traiter des modèles fortement non-linéaires et/ou définis par morceaux. C’est pourquoi, l’utilisation de techniques interpolantes telles que le krigeage apporte un réel plus par rapport aux techniques de chaos polynomial pour évaluer précisément la probabilité de défaillance par simulation. C’est l’objet du chapitre suivant. Les perspectives de ce travail peuvent être très nombreuses car les méthodes de ré-échantillonnage peuvent être utilisées dès qu’un algorithme est basé sur un plan d’expériences numérique ou physique de manière à apporter un indicateur de confiance dans les résultats obtenus. Les méthodes de chaos polynomial étant particulièrement efficaces pour l’analyse de sensibilité, des travaux très intéressants sont en cours [Dubreuil et al., 2012], sur la base des travaux d’Alban Notin, pour définir non pas des intervalles de confiance autour de l’indice de fiabilité mais autour des indices de Sobol’. D’autres perspectives plus générales en optimisation des structures peuvent être également envisagées. Nicolas Gayton Page 57/172 19 décembre 2012 Chapitre 1 : Techniques de ré-échantillonnage pour l’analyse de fiabilité Synthèse du chapitre Objectif. Proposer des méthodes de fiabilité, basées sur l’utilisation de méta-modèles polynomiaux, permettant itérativement d’obtenir une bonne estimation des produits de l’analyse fiabiliste (indice de fiabilité, coordonnées du point de défaillance le plus probable, probabilité de défaillance) avec un coût de calcul réduit et un degré de confiance maı̂trisé. Méthodologie. Utilisation du couplage entre méta-modèles polynomiaux et les techniques de ré-échantillonnage pour guider les calculs et définir des critères d’arrêt en accord avec le calcul d’intervalles de confiance des résultats souhaités. Résultats obtenus. Deux méthodes ont été développées : 1. Méthode CQ2RS basée sur des surfaces de réponse de degré 2 et l’utilisation du Jackknife permet d’obtenir précisément et efficacement l’indice de fiabilité et les coordonnées du points de défaillance le plus probable. 2. Méthode RPCM basée sur le couplage entre chaos polynomial et Bootstrap permet itérativement de définir le degré optimal du chaos polynomial pour obtenir une bonne estimation de la probabilité de défaillance. Contexte de ces travaux • Thèse de Doctorat N. Gayton. • Thèse CIFRE CETIM / UTC / IFMA de A. Notin soutenue en mai 2011. Production scientifique • 1 revue référencée ISI : – GAYTON N., BOURINET J.M., LEMAIRE M., CQ2RS : A new statistical approach to the response surface method for reliability analysis, Structural Safety Vol 25, pages 99-121, 2003. • 1 revue référencée SCOPUS : – NOTIN A., GAYTON N., DULONG J.L., LEMAIRE M., VILLON P., RPCM : A strategy to perform reliability analysis using polynomial chaos and resampling application to fatigue design, European Journal of Computational Mechanics, Vol 19(8), pages 795-830, 2010. • 3 conférences internationales 19 décembre 2012 Page 58/172 HDR, Nicolas Gayton Chapitre 2 Utilisation du krigeage pour l’analyse de fiabilité Sommaire 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 2.2 Brefs rappels des méthodes de simulation . . . . . . . . . . . . . . . . . . . . 61 2.3 2.4 2.2.1 Simulation de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.2.2 Tirage d’importance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.2.3 Subset Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2.2.4 Inconvénients et points communs des méthodes de simulation . . . . . . . . . . 65 Principes de base du krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 2.3.1 Identification du processus gaussien . . . . . . . . . . . . . . . . . . . . . . . . 66 2.3.2 Prédiction par krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.3.3 Caractéristiques fondamentales pour l’analyse fiabiliste . . . . . . . . . . . . . . 68 Les méthodes Active Learning pour la fiabilité . . . . . . . . . . . . . . . . . 68 2.4.1 Fonctions d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 2.4.2 Recherche de l’optimum de la fonction d’apprentissage . . . . . . . . . . . . . . 70 2.5 Principe de classification des points des méthodes AK . . . . . . . . . . . . 70 2.6 Présentation des méthodes AK-RM pour la fiabilité . . . . . . . . . . . . . 72 2.7 2.8 2.6.1 La méthode AK-MCS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 2.6.2 La méthode AK-IS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.6.3 La méthode AK-SS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.6.4 Synthèse des méthodes AK-RM . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Autres applications de la stratégie de classification AK . . . . . . . . . . . 80 2.7.1 Fiabilité système AK-SYS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 2.7.2 Optimisation sous contraintes AK-OPT . . . . . . . . . . . . . . . . . . . . . . 81 2.7.3 Conformité géométrique d’une pièce de grande dimension AK-ILS . . . . . . . 82 Conclusion, perspectives et synoptique des méthodes AK . . . . . . . . . . 82 Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 84 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité 2.1 Introduction Pour évaluer la probabilité de défaillance d’une structure, les méthodes de simulation demeurent des méthodes incontournables surtout pour traiter des problèmes dont l’état-limite est complexe (forte nonlinéarité, plusieurs points de défaillance le plus probable, fiabilité système, ...). La méthode de Monte Carlo (MCS) est la méthode de référence et permet de traiter théoriquement tout type de problème. Son principal inconvénient est le temps de calcul nécessaire, surtout lorsque la probabilité recherchée est faible. Pour diminuer les temps de calcul de la méthode MCS, plusieurs alternatives ont été proposées ces dernières années. Les méthodes MRM (Monotonous Reliability Method) proposée dans [De Rocquigny, 2009] permettent, entre autre, de diminuer le temps de calcul de la méthode MCS lorsque la monotonie de la fonction de performance est établie (souvent le cas pour des problèmes de mécanique des structures). Les méthodes de tirage d’importance (IS), voir par exemple [Lemaire, 2009], permettent de réduire considérablement le temps de calcul de la méthode MCS sous l’hypothèse d’un point de défaillance le plus probable unique. Enfin la méthode des Subset Simulations (SS), voir [Au and Beck, 2001], semble être la méthode la plus aboutie pour réduire les temps de calcul sans hypothèse sur la forme de l’étatlimite. Cependant, toutes ces méthodes sont difficilement envisageables pour traiter des problèmes industriels mettant en œuvre des fonctions d’état-limite à la fois complexes et très coûteuses en temps de calcul (modèles de type éléments-finis). Des méthodes existent pour évaluer la probabilité de défaillance de telles structures (FORM/SORM, méta-modèles, ..., les méthodes exposées dans le chapitre précédent en font partie), mais conduisent toutes à des approximations non négligeables de la probabilité de défaillance via l’indice de fiabilité. Le point commun des méthodes de simulation (MCS, MRM, IS, SS) est la nécessité de classer des points en fonction du signe de la fonction de performance. Partant de cette constatation, l’objectif de ces travaux est de proposer une stratégie de classification économique des points de l’échantillon de la simulation. Cette technique appliquée aux différentes méthodes de simulation évoquées conduit à une nouvelle famille de méthodes appelée AK-RM pour Active Learning and Kriging based Reliability Methods dédiée à l’analyse de fiabilité. Après avoir rappelé le principe des méthodes de simulation pour l’évaluation d’une probabilité de défaillance, les notions de base relatives au krigeage sont rappelées en section 3. La section 4 constitue un bref état des lieux des méthodes d’analyse de fiabilité basées sur le krigeage et sur une stratégie d’apprentissage adaptatif (Active learning). En section 5, le principe de base de la stratégie de classification itérative est présenté. Ce principe appliqué aux différentes méthodes de simulation conduit aux méthodes AK-MCS [Echard et al., 2011], AK-MCSm, AK-IS [Echard et al., 2012] et AK-SS présentées et illustrées sur des exemples simples mais significatifs en section 6. Pour des applications plus industrielle, le lecteur pourra se référer au chapitre 3 de ce rapport où toutes les applications à la fatigue ont été traitées avec ces stratégies de calcul. La stratégie de classification a aussi été utilisée dans d’autres domaines (fiabilité système, optimisation sous contrainte, vérification de la conformité géométrique de pièces de grande dimension [Dumas et al., 2012]) présentés en section 7. Pour conclure, un synoptique des différentes méthodes développées est présenté en figure 2.19 en fin de chapitre. Les méthodes AK sont le fruit des travaux de thèse de B. Echard principalement et de A. Dumas (pour la partie AK-ILS) sous mon co-encadrement. 19 décembre 2012 Page 60/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité 2.2 Brefs rappels des méthodes de simulation Comme déjà évoqué dans le chapitre précédent, l’état d’une structure peut être caractérisé par une fonction de performance notée G(X) associée à un scénario de défaillance et fonction des variables physiques X = {X1 , . . . , Xn }t ∈ X n incertaines. Pour une réalisation x = {x1 , . . . , xn }t du vecteur X, l’évaluation de la fonction de performance permet de définir deux sous n o domaines : t n • le domaine de sûreté : S = x = {x1 , . . . , xn } ∈ X : G(x) > 0 ; n o t • le domaine de défaillance F = x = {x1 , . . . , xn } ∈ X n : G(x) ≤ 0 , complément du domaine de sûreté vis-à-vis de X n . En introduisant la densité conjointe de probabilité fX (x) des variables physiques, la probabilité de défaillance d’une structure est la probabilité que la fonction de performance soit négative ou nulle. Son expression mathématique est : Pf = Z fX (x) dx1 . . . dxn (2.1) F Comme indiqué dans le chapitre précédent, la transformation iso-probabiliste notée T permet de passer de l’espace X n des variables physiques à l’espace standard U n où les variables sont gaussiennes indépendantes de moyennes nulles et d’écarts-types unitaires. La fonction de performance devient H(U) = G(T −1 (U)). Cette transformation préserve la probabilité de défaillance dont l’expression devient : Z Pf = φn (u) du1 . . . dun (2.2) T (F ) où φn (−) est la densité conjointe de probabilité de la loi multi-normale standard en dimension n. Dans la suite, tous les développements et illustrations sont présentés dans l’espace U n . 2.2.1 Simulation de Monte Carlo En introduisant l’indicateur de la défaillance IF (u) = {1 si H(u) ≤ 0 et 0 sinon}, l’expression de la probabilité de défaillance devient : Pf = Z IF (u)φn (u) du1 . . . dun = E [IF ] (2.3) Un où E[.] est l’espérance mathématique. Les méthodes de simulation, dont la méthode de Monte Carlo qui est la plus courante, permettent le calcul de cette intégrale à partir d’un échantillon ou population PMCS de NMCS réalisations notées {u(j) ∈ U n , j = 1, . . . , NMCS } (voir figure 2.1). Une estimation P̂f de la probabilité de défaillance est alors obtenue par l’expression suivante : Pf ≈ P̂f = 1 NMCS NX MCS j=1 IF u(j) (2.4) La fonction de performance est évaluée NMCS fois. Le coefficient de variation de la probabilité estimée est donné par : δ= s 1 − P̂f NMCS P̂f (2.5) Le principal inconvénient de la méthode de Monte Carlo réside dans le nombre très important de calculs de la fonction de performance nécessaires pour l’évaluation de la probabilité de défaillance, surtout lorsque Nicolas Gayton Page 61/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.1 – Echantillon de Monte Carlo constitué de NoM CS points. Peu de points sont dans le domaine n t de défaillance F = u = {u1 , . . . , un } ∈ U n : H(u) ≤ 0 . la probabilité de défaillance recherchée est très faible. Pour pallier ce problème de temps de calcul lié au nombre important de calculs mécaniques, De Rocquigny [Derocquigny, 2006] met en évidence la part très importante de modèles mécaniques (et donc de fonctions de performance), monotones vis-à-vis des différentes variables incertaines. Il n’est alors pas nécessaire d’effectuer tous les calculs de l’échantillon de Monte Carlo. En guise d’illustration, la fonction tracée en figure 2.2 est monotone et toute augmentation de u1 et/ou u2 dégrade la fonction de performance. Considérons un point u(+) tel que H(u(+) ) ≥ 0. Alors les évaluations de la fonction de performance correspondant aux points de Monte Carlo situés dans le rectangle gris inférieur gauche ont tous le même signe que H(u(+) ). De même, considérons un point u(−) tel que H(u(−) ) ≤ 0. Alors les évaluations de la fonction de performance correspondant aux points de Monte Carlo situés dans le rectangle gris supérieur droit ont tous le même signe que H(u(−) ). En enlevant itérativement de la population de Monte Carlo, l’ensemble des calculs non nécessaires, cette astuce, restreinte aux fonctions de performance monotones, permet une diminution considérable des temps de calcul liés à la méthode de Monte Carlo. 2.2.2 Tirage d’importance Les méthodes de tirage d’importance ou Importance Sampling (IS) [Melchers, 1990] (méthodes dites de réduction de la variance) permettent de valider ou de corriger une approximation FORM de la probabilité de défaillance. La méthode IS est basée sur l’hypothèse que la majorité des situations défaillantes de l’échantillon de Monte Carlo est localisée autour d’un point de défaillance le plus probable (MPFP) unique. Pour réduire la variance de la probabilité de Monte Carlo, il est alors préférable de générer une population PIS de NIS points {ũ(j) , j = 1, . . . , NIS } centrée au MPFP selon la densité conjointe notée 19 décembre 2012 Page 62/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.2 – Fonction de performance monotone, représentation des domaines en gris dont les calculs sont inutiles. ϕn (u). L’expression de la probabilité de défaillance peut s’écrire : Pf = Z IF (u) Un φn (u) ϕn (u)du1 . . . dun ϕn (u) (2.6) et la probabilité de défaillance peut être estimée par : NIS (j) 1 X (j) φn ũ Pf ≈ P̃f = IF ũ NIS j=1 ϕn ũ(j) (2.7) 2 La variance de la probabilité σIS devient : 2 σIS NIS 1 1 X IF ũ(j) = NIS NIS j=1 !2 φn ũ(j) − P̃f2 ϕn ũ(j) (2.8) et le coefficient de variation associé δ est le ratio entre σIS et P̃f . La densité de probabilité conjointe ϕn est en générale gaussienne et de coefficient de variation unitaire même si d’autres choix sont possibles. Une représentation de la population générée est donnée sur la figure 2.3. 2.2.3 Subset Simulations Une autre alternative à la méthode de Monte Carlo est la méthode des Subset Simulations (SS) [Au and Beck, 2001]. Dans cette méthode, dédiée à l’évaluation de faibles probabilités, la probabilité de défaillance est exprimée comme le produit de probabilités conditionnées plus importantes en introduisant des évènements intermédiaires comme illustré en figure 2.4 où 3 subsets (sous ensembles) sont représentés. Considérons m subsets F1 à Fm tels que F1 ⊃ F2 ⊃ . . . ⊃ Fm = F avec Fk = {u ∈ U n : H(u) ≤ Hk }. La Nicolas Gayton Page 63/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.3 – Tirage d’importance centré autour du MPFP. Figure 2.4 – Population initiale P1 et présentation des fonctions H = Hk en traits minces correspondantes au seuil Hk . 19 décembre 2012 Page 64/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.5 – Population P2 générée par l’algorithme de Metropolis Hastings. probabilité de défaillance peut s’exprimer par le produit des probabilités conditionnées : Pf = Prob(F1 ) m Y k=2 Prob(Fk |Fk−1 ) (2.9) Les différents seuils {Hk , k = 1, . . . , m} doivent être choisis judicieusement de façon à trouver un compromis entre nombre de simulations par seuil et nombre de seuils m. D’une manière générale, les seuils sont déterminés de façon à ce que les probabilités conditionnées soient proches de 0,1 [Au and Beck, 2001]. Une première population P1 de N1 points est générée selon φn et le seuil H1 est défini de façon à ce que 90% des points de P1 constitue F1 . Pour évaluer les probabilités conditionnées {Prob(Fk |Fk−1 ), k = 2, . . . , m}, de nouveaux points doivent être générés selon la densité conditionnée φn (.|Fk−1 ) et évalués. Pour générer ces points, plusieurs procédures peuvent être utilisées [Au and Beck, 2007] comme l’algorithme de MetropolisHastings. Cet algorithme n’est pas détaillé mais présente une phase d’acceptation-rejet de points candidats en fonction du signe de la fonction de performance. La figure 2.5 présente la population P2 obtenue à partir d’une perturbation des points de F1 . L’estimation des probabilités conditionnées Prob(Fk |Fk−1 ) est donnée par : Prob(Fk |Fk−1 ) = Nk 1 X IF (u(j,k) ) Nk j=1 k (2.10) où Nk représente la taille de la population Pk , IFk représente l’indicateur de défaillance relative au seuil Hk et u(j,k) représente le point numéro j de la population Fk . 2.2.4 Inconvénients et points communs des méthodes de simulation Les méthodes de tirage d’importance et les subsets simulations constituent une alternative économique vis-à-vis de la simulation de Monte Carlo. Cependant, le nombre de simulations nécessaires ne permet pas d’envisager le traitement des problématiques industrielles où les temps de calcul mécanique sont très importants (plusieurs minutes voire plusieurs heures). Les méthodes approximatives comme les méthodes Nicolas Gayton Page 65/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité FORM/SORM [Lemaire, 2009] permettent de traiter des applications industrielles mais le résultat en terme de probabilité de défaillance doit être validé par un tirage d’importance. Les méthodes de Surfaces de Réponse Quadratiques [Gayton et al., 2002a] ou de chaos polynomial [Notin et al., 2010], de par leur caractère polynomial, ne permettent pas d’atteindre des précisions suffisantes en terme de probabilité de défaillance sur des fonctions de performance fortement non-linéaires avec un temps de calcul raisonnable. Par contre, le couplage entre les méthodes de simulation et les méthodes de méta-modélisation (comme dans [Bourinet et al., 2011]) apparaı̂t très intéressant pour traiter des applications industrielles. Les méthodes de simulation pour la fiabilité sont basées sur une classification des points d’une population selon le signe de la fonction de performance pour les populations de Monte Carlo PMCS et de tirage d’importance PIS et selon la position relative de la fonction de performance par rapport à un seuil donné pour les subsets simulations. Ce point commun constitue la base des méthodes AK-RM Active learning and Kriging - based Reliability Methods. 2.3 Principes de base du krigeage Le krigeage ou Kriging, développé par Krige [1951] et théorisé par Matheron [1973], considère, dans le cadre de la fiabilité, la fonction de performance H comme une réalisation d’un processus gaussien noté H(u). La première étape du krigeage consiste à déterminer les paramètres de ce processus gaussien par les calculs mécaniques effectués. Ensuite, le meilleur predicteur linéaire sans biais (BLUP Best Linear Unbiased Predictor ) est utilisé pour prédire la valeur inconnue de la fonction de performance pour une réalisation non observée de u. Pour plus de détails sur la théorie du krigeage, le lecteur peut se reporter à Dubourg [2011, Chapitre 1]. 2.3.1 Identification du processus gaussien Le modèle du processus gaussien est le suivant [Sacks et al., 1989] : H(u) = Y (u, η) + Z(u) (2.11) où : • Y (u, η) est la partie déterministe de la réponse représentant la tendance et correspondant à un modèle de régression du type : Y (u, η) = y(u)t η (2.12) où y(u) = {y1 (u), . . . , yb (u)}t est le vecteur des fonctions de base d’expression de y(u) et η = {η1 , . . . , ηb }t est le vecteur des coefficients de la régression. Tous les travaux présentés dans ce chapitre ont été développés à partir d’une tendance ordinaire (ordinary kriging) c’est-à-dire que Y (u, η) est réduit à un scalaire unique noté η. Le modèle de régression ordinaire est souvent suffisant et les autres modèles ne fournissent en général pas de meilleurs résultats même sur des fonctions fortement non-linéaires [Bichon et al., 2011]. Les équations suivantes sont restreintes au cas particulier du krigeage ordinaire. • Z(u) est un processus gaussien stationnaire de moyenne nulle et de covariance cov (Z(u), Z(v)) 19 décembre 2012 Page 66/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité entre deux points u et v définie par : 2 cov (Z(u), Z(v)) = σZ Rθ (u, v) (2.13) 2 où σZ est la variance du processus et Rθ est la fonction d’auto-corrélation caractérisée par le vecteur de paramètres θ = {θ1 , . . . , θn }t , n étant le nombre de variables de la fonction H. Dans les travaux présentés dans ce chapitre, le modèle anisotrope est considéré pour modéliser la dépendance entre les points : Rθ (u, v) = n Y i=1 exp −θi (ui − vi )2 (2.14) Ce modèle est le plus utilisé en ingénierie [Santner et al., 2003; Bichon et al., 2008; Ranjan et al., 2008]. Il est à noter que la fonction d’auto-corrélation de Matérn constitue une alternative plus flexible qui trouve tout son intérêt en analyse de fiabilité [Dubourg, 2011], mais son utilisation augmente l’effort de calcul [Bichon et al., 2011]. Soit le plan d’expériences numériques défini par p expériences {u(1) , . . . , u(p) }t et leurs observations (calculs associés) respectives H = {H(u(1) ), . . . , H(u(p) )}t dans l’espace standard . Les scalaires η et σz2 sont estimés par [Jones et al., 1998] : η̂ = et : 1tp [Rθ ]−1 H 1tp [Rθ ]−1 1p (2.15) t σˆZ 2 = (H − η̂1p ) [Rθ ]−1 (H − η̂1p ) p (2.16) où Rθij = Rθ (u(i) , u(j) ) est la matrice de corrélation associée aux points du plan d’expériences et 1p est le vecteur unitaire de taille p. η̂ et σˆZ 2 dans les équations 2.15 et 2.16 dépendant du paramètre θ à travers la matrice [Rθ ]. Ce paramètre est obtenu par la méthode du maximum de vraisemblance [Lophaven et al., 2002a] : 1 θ̂ = arg min (det[Rθ ]) p σˆZ 2 θ (2.17) Dans la toolbox DACE [Lophaven et al., 2002a], utilisée dans ces travaux, la méthode de recherche de l’optimum utilisée est celle de Hooke et Jeeves. Des détails sur la méthode et des tests de validation peuvent être trouvés dans la référence [Lophaven et al., 2002b]. Les algorithmes d’essaims d’abeilles [Karaboga, 2005; Karaboga and Basturk, 2007] proposés par [Luo et al., 2012] constituent une alternative intéressante pour la résolution de ce problème d’optimisation. 2.3.2 Prédiction par krigeage Dans la section précédente les paramètres du processus gaussien ont été estimés. L’étape suivante consiste à prédire la fonction H(u) en un point non observé u. Soit r(u∗ ) le vecteur des corrélations entre le point u et les points du plan d’expériences : r(u∗ ) = {Rθ (u∗ , u(1) ), . . . , Rθ (u∗ , u(NE ) )}t (2.18) Le meilleur estimateur linéaire sans biais (BLUP Best Linear Unbiaised Predictor ) noté H̃(u) suit une loi gaussienne : 2 (u) H̃(u) ∼ N µH̃ (u), σH̃ Nicolas Gayton Page 67/172 (2.19) 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité de moyenne [Jones et al., 1998] : µH̃ (u) = η̂ + r(u)t [Rθ ]−1 (H − η̂1p ) (2.20) et de variance [Jones et al., 1998] : 2 σH̃ (u) = σˆZ 2.3.3 2 1 − 1tp [Rθ ]−1 r(u) 1 − r(u)t [Rθ ]−1 r(u) + 1tp [Rθ ]−1 1p 2 ! (2.21) Caractéristiques fondamentales pour l’analyse fiabiliste Le krigeage présente deux caractéristiques importantes qui ont motivé l’utilisation de cet outil pour l’analyse de fiabilité. • Interpolation : la moyenne de krigeage utilisée comme estimateur passe exactement par les points du plan d’expériences numériques, c’est-à-dire µH̃ (u(i) ) = H(u(i) ) quel que soit u(i) un point du plan d’expériences. De plus, la variance de krigeage en un point du plan d’expériences est nulle 2 u(i) = 0 σH̃ • Indicateur a priori de l’incertitude de prédiction : en un point donné non observé, le krigeage fournit la prédiction de la fonction de performance mais également une mesure de l’incertitude sur cette prédiction à travers la variance de krigeage. Un enrichissement itératif du plan d’expérience basé sur cette variance de krigeage (estimateur ”gratuit”, c’est-à-dire sans coût de calcul supplémentaire, de la qualité de la prédiction) est une stratégie judicieuse pour diminuer les calculs en les guidant itérativement. Une telle approche est communément connue sous le nom de Active Learning. 2.4 Les méthodes Active Learning pour la fiabilité La référence [Romero et al., 2004] semble être la première à utiliser le krigeage pour l’analyse de fiabilité, ce qui en fait donc une méthode récemment utilisée dans ce domaine. Dans cette référence, le krigeage est utilisé comme peuvent l’être les méthodes de surfaces de réponse quadratiques, c’est-àdire de façon itérative mais sans tenir compte de la variance de krigeage pour guider l’enrichissement du plan d’expériences. La même remarque peut être faite concernant les travaux de [Kaymaz, 2005]. Après ces travaux précurseurs, le krigeage a été utilisé dans une procédure d’Active Learning où le plan d’expériences numériques est enrichi selon l’évaluation d’une fonction d’apprentissage [Bichon et al., 2008; Ranjan et al., 2008; Picheny et al., 2010; Bect et al., 2011; Dubourg, 2011; Echard et al., 2011]. La procédure générale est la suivante : 1. Construire le méta-modèle de Krigeage de H avec un plan d’expériences initial. 2. Trouver le point qui maximise la fonction d’apprentissage. 3. Enrichir le plan d’expériences avec ce point en calculant la fonction H associée. 4. Construire le nouveau méta-modèle de krigeage et retourner en étape 2. La fonction d’apprentissage doit être définie en fonction du problème à traiter (optimisation, fiabilité, ...). En analyse de fiabilité, seuls les points proches de l’état limite H(u) = 0 présentent un intérêt. Les fonctions d’apprentissage pour l’analyse de fiabilité sont discutées dans la section suivante. 19 décembre 2012 Page 68/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité 2.4.1 Fonctions d’apprentissage Plusieurs fonctions d’apprentissage sont disponibles dans la littérature en lien avec l’analyse de fiabilité. Cette section se restreint à la présentation de deux fonctions d’apprentissage. Fonction EFF Le schéma d’apprentissage proposé par la méthode EGRA [Bichon et al., 2008] Efficient Global Reliability Analysis est basé sur la fonction d’apprentissage dénommée EFF Expected Feasibility Function. Inspiré des travaux de [Ranjan et al., 2008], EFF exprime l’espérance que la fonction de performance en un point non évalué u respecte la contrainte H(u) ∈ [−ǫ(u); +ǫ(u)]. Son expression est : h i EFF(u) = E ǫ(u) − min(|H̃(u)|, ǫ(u)) (2.22) Dans la référence [Bichon et al., 2008], ǫ est proportionnel à la variance de krigeage estimée en chaque point : ǫ(u) = 2σH̃ (u). En intégrant sur u, l’expression précédente devient : EFF(u) = h i −µ (u) −ǫ(u)−µH̃ (u) ǫ(u)−µH̃ (u) µH̃ (u) 2Φ σ H̃(u) − Φ −Φ σ (u) σ (u) H̃ H̃ H̃ i h −ǫ(u)−µH̃ (u) t+ǫ(u)−µH̃ (u) −µH̃ (u) − φ −σH̃ (u) 2φ σ (u) − φ σH̃ (u) σH̃ (u) H̃ h i ǫ(u)−µH̃ (u) −ǫ(u)−µH̃ (u) +ǫ(u) Φ −Φ σ (u) σ (u) H̃ (2.23) H̃ Des valeurs importantes de EFF sont obtenues pour des points ayant une moyenne de krigeage proche de 0 ou pour des points ayant une variance de krigeage importante. La fonction de performance est itérativement évaluée aux points où la fonction EFF est plus importante. La recherche de ce point est discutée en section 2.4.2. Fonction U La fonction d’apprentissage U proposée par [Echard et al., 2011], est une adaptation du critère proposé dans [Kushner, 1964] et dans [Cox and John, 1997] (critère lcb pour l’optimisation). Comme représenté en figure 2.6, le critère U indique la distance, en nombre d’écarts-types de krigeage, entre la moyenne de krigeage et le seuil considéré pour la fonction H : U (u) = |µH̃ (u) | σH̃ (u) (2.24) Autres alternatives Des critères plus sophistiqués comme le critère tIMSE targeted Integrated Mean-Squared Error [Picheny et al., 2010] ou bien le critère SUR Stepwise Uncertainty Reduction [Bect et al., 2011] auraient pu constituer des alternatives intéressantes. Des comparaisons ont été effectuées par [Bect et al., 2011]. SUR converge a priori plus rapidement vers une probabilité de défaillance très approximative mais le temps de posttraitement (évaluation de la fonction SUR à chaque itération) est supérieur aux fonctions EFF et U . De plus, le nombre d’évaluations de la fonction de performance avec U est comparable à la fonction SUR lorsqu’une probabilité de défaillance précise est recherchée. Dans le cadre des travaux présentés dans ce mémoire, le critère U a été retenu pour sa simplicité de calcul et son efficacité. Nicolas Gayton Page 69/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.6 – Illustration de la fonction d’apprentissage U à évaluer en trois points différents u(1) , u(2) , u(3) avec une moyenne de krigeage positive. La valeur de la fonction d’apprentissage en chacun de ces points est respectivement 2, 1 et 0, 8. Les surfaces grisées représentent les probabilités 1 − Φ(U (u(j) )) que le signe de H soit différent de celui de µH̃ . Le point u(3) est celui qui a la plus grande incertitude sur le signe de H(u(3) ). 2.4.2 Recherche de l’optimum de la fonction d’apprentissage Les fonctions d’apprentissage sont fortement multimodales et la recherche d’un optimum est une tâche complexe. La méthode EGRA utilise un algorithme sans gradient DIRECT DIviding RECTangles [Jones et al., 1993; Gablonsky, 2001] de recherche d’optimum global. Cette méthode consiste en une division itérative de l’espace de recherche en hyper-rectangles. La fonction EFF est calculée au centre de ces hyper-rectangles. Même si l’évaluation des fonctions d’apprentissage ne nécessite pas le calcul de la fonction de performance, la prise en compte dans une méthode d’optimisation peut devenir coûteuse en temps de calcul sans garantie de convergence vers le minimum global. Le principe de classification proposé dans les méthodes AK permet d’éviter la recherche de cet optimum dans un espace continu. 2.5 Principe de classification des points des méthodes AK Les méthodes AK reposent toutes sur le principe de classification décrit dans ce qui suit. Soit une population de points {u(j) ∈ U n , j = 1, . . . , N } que l’on souhaite classer selon le signe de la fonction H(u(j) ) avec le minimum d’évaluations de la fonction H. La stratégie de classification proposée réside dans l’utilisation d’un méta-modèle de type krigeage permettant à partir d’un plan d’expériences de prédire la valeur de la fonction H en un point u pour lequel la fonction H n’a pas été évaluée. La technique de classification appelée AK Active learning and Kriging - based method est basée sur les étapes suivantes : 19 décembre 2012 Page 70/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité 1. Choisir un premier plan d’expériences et faire les calculs de la fonction de performance associée ; 2. Construire le méta-modèle de krigeage à partir de ce plan d’expériences ; 3. Calculer la fonction d’apprentissage : pour chaque point u(j) , calculer σH̃ (u(j) ) et µH̃ (u(j) ) et la fonction d’apprentissage U (u(j) ) = µH̃ (u(j) ) /σH̃ (u(j) ) ; 4. Apprentissage itératif ou arrêt de l’algorithme 4.1. Si uo = Argmin(j) U (u(j) ) ≤ 2 → ajouter le point u(o) qui a la plus faible valeur de U de l’échantillon à classer ; 4.2. Sinon → arrêter l’algorithme, le signe de µH̃ (u(j) ) est considéré représentatif du signe de H(u(j) ). Etape 1 : Choix du premier plan d’expériences Plusieurs stratégies ont été utilisées dans l’optique de minimiser le nombre total d’évaluations de la fonction H. Pour que le classement s’effectue correctement, et pour que l’algorithme ne s’arrête pas trop rapidement, le premier plan d’expériences doit présenter des points dont le signe de H est positif et d’autres dont le signe de H est négatif. Le nombre de points constituant le premier plan d’expériences a été fixé à une dizaine à choisir parmi les N points de la population à classer. Sans connaissance a priori de la topologie de la fonction étudiée, un choix aléatoire peut être privilégié. Il a néanmoins comme inconvénient de choisir beaucoup de points à l’endroit du maximum de densité de probabilité ayant servi à la génération des points, lieu qui est en général peu intéressant puisque ce sont davantage les queues de distribution qui sont intéressantes en fiabilité des structures. Il a donc été préféré de choisir des points dans l’échantillon de points candidats en privilégiant une bonne couverture de l’espace. La solution retenue est détaillée lors de l’exposé de chacune des méthodes. Etape 2 : méta-modèle de krigeage Voir section 2.3.2 pour le détail des équations mises en jeu. Etape 3 : fonction d’apprentissage Voir section 2.4.1 pour le détail de la justification du choix de la fonction U . Etape 4 : Apprentissage itératif ou arrêt de l’algorithme L’algorithme s’arrête lorsque la valeur de la fonction d’apprentissage U calculée en chaque point à classer est supérieure à 2. Cette condition d’arrêt signifie que le signe de H est cohérent avec le signe de µH̃ avec une confiance de 97,7% sous l’hypothèse où H̃ est distribuée selon une loi gaussienne. Si cette condition (U (u(j) ) ≥ 2, ∀j) n’est pas respectée, le point uo qui présente la plus faible valeur de U parmi tous les points candidats est ajouté au plan d’expériences et l’algorithme repart à l’étape 2. La principale limite de cet algorithme réside dans le nombre N de points à classer dans l’échantillon qui ne doit pas être trop important (maxi 100 000) pour limiter les temps d’évaluation de la fonction Nicolas Gayton Page 71/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.7 – AK-MCS, premier plan d’expériences en noir. Points candidats en gris. d’apprentissage U pour chaque point et à chaque itération. Cette limite est à l’origine des différentes méthodes AK-RM présentées ci-après permettant de s’affranchir soit de la manipulation de populations de taille supérieure soit du calcul de U pour tous les candidats potentiels à chaque itération. 2.6 2.6.1 Présentation des méthodes AK-RM pour la fiabilité La méthode AK-MCS Principe Le principe de classification est appliqué à la simulation de Monte Carlo pour donner la méthode AKMCS [Echard et al., 2011]. Pour couvrir l’ensemble de l’échantillon de Monte Carlo de manière à trouver un point dont la fonction de performance est négative, une stratégie basée sur la distance d(u(j) ) entre chaque points u(j) à classer et l’origine du repère standard est définie. Ainsi 3 points sont aléatoirement choisis parmi les points tels que d(uj ) ∈ [0; 1] puis trois points tels que d(u(j) ) ∈ [1; 2] puis 3 points tels que d(u(j) ) ∈ [2; 3], ainsi de suite jusqu’à ce que plus aucun point ne soit disponible dans la base de Monte Carlo. La figure 2.7 présente un premier plan d’expériences issu de cette stratégie. Lorsque tous les points sont classés et que le critère d’arrêt est atteint, la probabilité de défaillance peut être évaluée en remplaçant le domaine de défaillance F par F̃ = {u ∈ U n : µH̃ (u) ≤ 0}. Le compteur de défaillance devient IF̃ (u) = {1 si µH̃ (u) ≤ 0 ou 0 sinon}. Application Cet exemple d’application permet de montrer l’efficacité de la méthode sur une fonction pour laquelle seule une méthode de Monte Carlo classique semble pouvoir donner le bon résultat en terme de probabilité. Cette application est basée sur la fonction de Rastrigin [Törn and Zilinskas, 1989] modifiée pour obtenir une fonction non connexe dont l’expression de la fonction de performance est : H(U1 , U2 ) = 10 − 19 décembre 2012 2 X i=1 Ui2 − 5 cos (2π Ui ) Page 72/172 (2.25) HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.8 – Etat limite de la fonction de Rastrigin avec un domaine de défaillance non connexe. La surface sombre représente le domaine de défaillance. Méthode NE Pf MCS 2.5 × 104 7.43 × 10−2 2.23 7.43 × 10 2.23 AK-MCS 391 δ% −2 Tableau 2.1 – Résultats de l’analyse de fiabilité sur l’exemple de Rastrigin modifié. où U1 et U2 sont des variables aléatoires gaussiennes standards. Le domaine de défaillance est représenté en figure 2.8. Les résultats obtenus par la méthode de Monte Carlo et la méthode AK-MCS sont présentés dans le tableau 2.1. La méthode AK-MCS nécessite environ NE = 400 calculs de la fonction H pour converger et classer les 2.5 × 104 points de la même manière que la méthode de Monte Carlo donnant ainsi la même probabilité de défaillance. La classification des points est présentée en figure 2.9. La fonction d’apprentissage est capable d’identifier l’ensemble des sous domaines même déconnectés entre eux. La figure 2.10 présente l’ensemble des calculs de H effectués ainsi que le séparateur final obtenu. L’algorithme est probabiliste puisque deux évaluations successives de Pf ne donnent pas les mêmes résultats du fait de l’échantillon et du premier plan d’expériences différents. Des tests ont été effectués [Echard, 2012] et montrent une très grande robustesse de la méthode (les points de la simulation sont tous correctement classés lorsque le critère d’arrêt est atteint) sur un exemple disposant d’une topologie très complexe. Cas d’une fonction de performance monotone, méthode AK-MCSm La méthode AK-MCS est très générale mais présente l’inconvénient d’être très coûteuse en temps de post-traitement pour la vérification du critère U pour tous les points candidats et à chaque itération. Pour pallier ce problème (dans le cas de fonctions monotones vis-à-vis de chacune des variables), et atteindre Nicolas Gayton Page 73/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.9 – Illustration de la méthode AK-MCS sur l’exemple de Rastrigin, les points gris représentent les points ayant une valeur positive de moyenne de krigeage, les points noirs ont une valeur négative. Figure 2.10 – Illustration de la méthode AK-MCS sur l’exemple de Rastrigin, les points noirs représentent les points de calcul effectués sur la fonction H. 19 décembre 2012 Page 74/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité des probabilités de défaillance faibles, à chaque calcul de la fonction H sont enlevés des points de la base à classer dont le signe de la fonction de performance est garanti sans faire de calcul. 2.6.2 La méthode AK-IS Principe La méthode AK-IS [Echard et al., 2012] constitue le couplage entre la stratégie de séparation évoquée et la méthode du tirage d’importance dont les bases sont rappelées en section 2.2.2. Devant la difficulté de la méthode AK-MCS à gérer des populations de taille importante pour évaluer des probabilités faibles, cette méthode permet de gérer une population de plus petite taille tout en évaluant une probabilité faible sous l’hypothèse d’un point de défaillance le plus probable unique dominant. La méthode AK-IS est donc constituée d’un calcul FORM standard permettant l’obtention des coordonnées du point de défaillance dans l’espace standard. Une population est alors générée autour du MPFP selon la densité multi-normale φn (u) centrée sur le MPFP. La méthode de classification exposée est ensuite appliquée à partir d’un premier plan d’expériences constitué des points de calcul FORM uniquement. La stratégie d’enrichissement permet de classer l’ensemble des points et l’évaluation de la probabilité de défaillance est obtenue, comme pour la méthode AK-MCS, en approximant F par F̃ . Pour diminuer le nombre de calculs de la méthode, il est possible de fixer un critère d’arrêt de l’algorithme FORM très large comme mentionné dans [Echard, 2012]. Application 2D cubique En guise d’illustration, il est proposé d’étudier la fonction de performance suivante : H(U1 , U2 ) = 0, 5(U1 − 2)2 − 1, 5(U2 − 5)3 − 3 (2.26) où U1 et U2 suivent des lois gaussiennes standards. La fonction d’état-limite et le domaine de défaillance sont représentés en figure 2.11. Cent populations MCS avec NMCS = 5 × 107 points et cent populations de tirage d’importance constituées de NIS = 104 points sont considérées. Les procédures AK-MCS et AK-IS sont comparées aux méthodes classiques de Monte Carlo et de tirage d’importance. Les résultats sont reportés dans le tableau 2.2. Ils montrent une grande efficacité de la méthode de classification des points puisque tous les points sont correctement classés avec la méthode AK-MCS alors que 94% des simulations AK-IS classent les points sans aucune erreur. La figure 2.12 illustre la stratégie de classification pour cette application et la figure 2.13 illustre les calculs effectués pour un seul lancement de la méthode. Les résultats médians en terme de probabilité sont donnés dans le tableau 2.3 et montrent l’efficacité de la méthode AK-IS par rapport à la méthode AK-MCS en terme de temps de calcul ayant à gérer une population de taille plus faible. 2.6.3 La méthode AK-SS La méthode AK-SS pour Active learning and Kriging-based Subset Simulation consiste en une application du principe de classification aux subset simulations. Le principe est la diminution du nombre de calculs mécaniques liés aux subset simulations qui ont lieu à deux niveaux : pour la validation ou le rejet des points générés par l’algorithme de Metropolis-Hastings et pour classer chaque point de Pk . A chacun de ces deux niveaux, seul le signe de la fonction de performance est nécessaire, ce qui rend la méthode de Nicolas Gayton Page 75/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.11 – Application 2D cubique. La zone sombre représente le domaine de défaillance. Nombre de points mal classés AK-IS AK-MCS 0 94 100 1 3 0 2 2 0 3 1 0 Tableau 2.2 – Nombre de points mal classés pour 100 lancements des méthodes AK-MCS et AK-IS dans le cas de l’application 2D cubique. Méthode NE (×100) Pf (×100) δ (×100) CPU time (s) (×100) FORM 19 4.21 × 10−5 AK-IS 19 + 7 AK-MCS 17 - −5 ≃0 2, 39% 4, 844 2, 85 × 10−5 2, 64% 3626 2, 86 × 10 Tableau 2.3 – Application non-linéaire 2D, résultats médians pour 100 lancements des méthodes AK-IS et AK-MCS. Le nombre de calculs pour AK-IS est divisé en nombre de calculs pour FORM et en nombre de calculs pour la séparation des points de la population. 19 décembre 2012 Page 76/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.12 – Application 2D cubique. Classification des 104 points de la population de AK-IS. Les points gris clairs sont des points dont µH̃ est positive et les points noirs sont des points dont µH̃ est négative. Figure 2.13 – Application 2D cubique. Les croix représentent les calculs générés par la méthode FORM. Les points représentent les calculs effectués pour la classification des 104 points de la population AK-IS. Nicolas Gayton Page 77/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité classification particulièrement intéressante dans ce cas. L’objectif de cette méthode est de pouvoir gérer les faibles probabilités comme le proposent les méthodes AK-MCSm et AK-IS sans hypothèse particulière de monotonie ou de point de défaillance le plus probable unique. Principe La première étape consiste à générer une première population Pk et à définir un premier plan d’expériences (idem que le plan d’expériences choisi dans la méthode AK-MCS) permettant par krigeage de définir le premier seuil µH1 tel que P̃1 ≈ 0.1 avec : P̃1 = N1 1 X IF̃1 u(j) N1 j=1 (2.27) où IF̃1 (u) = {1 si µH̃ (u) ≤ µH1 and 0 sinon} est le compteur de défaillance par krigeage. La procédure de classification est alors effectuée jusqu’à ce que le critère de convergence soit atteint permettant d’évaluer précisément la probabilité P̃1 correspondant au seuil µH1 . La génération d’une nouvelle population P2 se fait par la méthode de Metropolis Hastings dans laquelle la phase de rejet - acceptation d’un nouveau point est non consommatrice en temps de calcul puisque le signe de la fonction de performance est évalué à partir du méta-modèle précédent. La phase de classification des points de P1 a nécessité de nouveaux calculs de la fonction de performance. Ces nouveaux calculs sont considérés pour définir le nouveau seuil µH2 à partir de la base initiale P1 . L’algorithme se poursuit jusqu’à ce que le dernier seuil considéré soit Q inférieur à 0 et la probabilité de défaillance est évaluée à la fin par P̃f = k P̃k . Application AK-SS est illustré sur l’état-limite parabolique proposé par [Der Kiureghian and Dakessian, 1998a] et utilisé pour expliquer le principe de la méthodologie et son efficacité. La fonction de performance est : G(U1 , U2 ) = a − U2 − b(U1 − c)2 (2.28) où U1 et U2 suivent des lois normales standards et les paramètres a et b peuvent être définis pour avoir ou non des points de défaillance le plus probable multiples avec différents poids dans la probabilité de défaillance. Dans cette application, les paramètres ont été fixés à a = 5, b = 0, 2, c = 0 de manière à avoir une probabilité de défaillance faible de l’ordre de 10−5 et deux points de défaillance le plus probable à égale distance de l’origine du repère standard (voir figure 2.14). Sur cet exemple, la méthode AK-MCS serait donc très difficile à mettre en œuvre du fait de la faible probabilité de défaillance et la méthode AK-IS donnerait des résultats partiels du fait des deux points de défaillance les plus probables. Cent subset simulations avec une population initiale de N1 = 105 points sont effectuées pour obtenir une valeur de référence de la probabilité de défaillance. Les résultats médians sont proposés en tableau 2.4. La méthode AK-SS nécessite uniquement 38 calculs de la fonction de performance pour la probabilité de défaillance. Comme illustré sur la figure 2.15, les points ajoutés pour chaque seuil sont tous très proches des fonctions H(u) = µHk . La probabilité recherchée est obtenue logiquement après cinq subsets et 38 évaluations de la fonction de performance. 19 décembre 2012 Page 78/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.14 – fonction d’état limite parabolique avec deux MPFP P1⋆ et P2⋆ . La zone sombre représente le domaine de défaillance. Méthode NE (×100) Pf (×100) δ (×100) SS 5 × 105 1, 91 × 10−5 3, 42% AK-SS 38 1, 90 × 10−5 3, 28% Tableau 2.4 – Résultats médians de la probabilité de défaillance pour 100 calculs SS et AK-SS sur la fonction d’état-limite parabolique. Figure 2.15 – Illustration de la méthode AK-SS sur la fonction d’état-limite parabolique. Les croix représentent les points de calcul du premier plan d’expériences et les points représentent les points supplémentaires ajoutés au fur et à mesure de la méthode itérative. Les lignes en traits pointillés représentent les fonctions H(u) = µHk . Nicolas Gayton Page 79/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité 2.6.4 Synthèse des méthodes AK-RM Les méthodes AK-RM regroupent trois méthodes principales dont l’efficacité et la robustesse ont été prouvées. Ces différentes méthodes ont des spécificités et le choix de la méthode doit s’effectuer de la façon suivante : • Si la probabilité de défaillance recherchée est supérieure à 10−4 , la méthode AK-MCS doit être utilisée car c’est la méthode la plus générale. Pour accélérer les calculs, la méthode AK-MCSm peut être utilisée lorsque la fonction de performance est connue comme étant monotone vis-à-vis de chacune des variables aléatoires (souvent le cas en mécanique dans le domaine de variation souvent restreint des variables aléatoires). • Si la probabilité de défaillance est inférieure à 10−4 et que le point de défaillance la plus probable est supposé unique, la méthode AK-IS doit être utilisée. A noter que cette méthode donne, sans coût de calcul supplémentaire, les cosinus directeurs qui sont très intéressant en analyse de sensibilité. • Si la probabilité de défaillance est inférieure à 10−4 et que fonction de performance laisse présager des points de défaillance les plus probables multiples, la méthode AK-SS doit être utilisée. A noter également, que dans ce cas, une approche FORM multiple [Der Kiureghian and Dakessian, 1998b] pourrait être implémentée et validée avec AK-IS. 2.7 Autres applications de la stratégie de classification AK Ces travaux sont les plus récents et seuls les principes et les références bibliographiques associées sont exposées. 2.7.1 Fiabilité système AK-SYS La probabilité de défaillance système peut s’écrire par la probabilité d’unions ou d’intersections d’évènements dans l’espace standard : ou : Pf = Prob Pf = Prob [ j \ j (2.29) (2.30) Hj (u) ≤ 0 Hj (u) ≤ 0 La méthode EGRA a récemment été adaptée pour l’analyse de fiabilité système [Bichon et al., 2011]. L’adaptation consiste en la définition d’un critère d’enrichissement global appelé Composite Expected Feasability Function consistant à calculer la fonction d’apprentissage classique EFF relative à la méthode EGRA sur une fonction unique constituée du maximum des fonctions Gj pour un problème d’intersection et du minimum pour un problème d’union d’évènements. Lorsque le point minimisant ce critère global est identifié par minimisation, la fonction de performance correspondant à ce minimum est identifiée et calculée. Ceci permet de réduire les temps de calcul par rapport à une méthode qui consisterait à calculer toutes les fonctions de performance au point minimisant le critère global ou bien à mener la méthode EGRA séparément sur chaque fonction de performance. L’adaptation de la méthode AK-MCS pour la fiabilité système a donné la méthode AK-SYS Active 19 décembre 2012 Page 80/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Learning and Kriging - based SYStem reliability method. Plusieurs stratégies pour l’enrichissement ont été comparées relativement au nombre d’appels à chaque fonction de performance et à la qualité de l’approximation de la probabilité de défaillance. Le point de départ de la méthode AK-SYS est un tirage de Monte Carlo de taille NM CS suffisante pour avoir un coefficient de variation faible. Le premier plan d’expériences est identique à celui de la méthode AK-MCS pour lequel toutes les fonctions de performance sont calculées. Plusieurs stratégies ont été établies et comparées : • Stratégie 1 : AK-MCS directement utilisée sur une fonction unique obtenue en prenant le minimum des fonctions de performance pour l’évaluation de la probabilité de l’union ou le maximum pour l’évaluation de la probabilité de l’intersection. Le critère d’arrêt est identique à celui de la méthode AK-MCS sur la fonction unique étudiée. • Stratégie 2 : AK-MCS utilisée indépendamment sur chaque fonction Hj . Un critère U j (u) est calculé par fonction Gj . Critère d’arrêt : U j (x) ≥ 2 ∀j, ∀x ∈ S. Cette stratégie permet de traiter tout type de problème de fiabilité système. L’importance de chaque fonction de performance visà-vis de la probabilité de défaillance est prise en compte. Par contre, une fonction de performance redondante vis-à-vis d’une autre est malgré tout consommatrice en temps de calcul, chose qui n’est pas vraie pour la 3ème stratégie proposée et retenue. • Stratégie 3 : Le critère U (x) est calculé à partir de la fonction composite (maximum pour intersection et minimum pour problème d’union). La recherche du minimum sur i de U (u(i) ) permet de trouver la réalisation à ajouter. La fonction de performance ajoutée est celle correspondant au critère U (u(i) ) minimum. L’avantage de ce critère est qu’une fonction redondante est peu consommatrice en temps de calcul (seul le premier plan d’expériences est effectué). Une publication est en cours de préparation sur ce sujet. La stratégie 1 met en œuvre un seul méta-modèle alors que les autres stratégies mettent en œuvre un méta-modèle par fonction de performance. Le principal inconvénient de la méthode AK-SYS est identique à celui de la méthode AK-MCS concernant la difficulté à atteindre des faibles probabilité de défaillance avec un temps de post-traitement raisonnable. 2.7.2 Optimisation sous contraintes AK-OPT Un problème d’optimisation sous contrainte est défini de façon générale par : u = argmin f (u) sous Hj (u) ≤ 0 (2.31) En optimisation comme en fiabilité, c’est bien souvent les fonctions Hj (u) qui sont coûteuses en temps de calcul. En optimisation sous contraintes, une solution u est jugée admissible si toutes les contraintes sont satisfaites en même temps. Il est donc très intéressant de remplacer les fonctions Hj (u) par des méta-modèles qui permettent rapidement de savoir si le point est admissible vis-à-vis des contraintes d’optimisation. Cette problématique revient à classer l’ensemble des points d’une simulation de Monte Carlo de lois uniformes en fonction de leur appartenance au domaine admissible c’est-à-dire en fonction de leur appartenance à l’intersection des contraintes d’optimisation. Le problème d’optimisation peut se reformuler de la façon suivante : U = argmin f (U) sous U ∈ Nicolas Gayton Page 81/172 \ j Hj (U) ≤ 0 (2.32) 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité La stratégie de classification peut être utilisée dans ce contexte de façon à remplacer les contraintes d’optimisation coûteuses en temps de calcul par des séparateurs permettant d’évaluer l’appartenance ou nom au domaine admissible d’un point candidat u dans le cadre d’un algorithme d’optimisation d’ordre 0. Cette stratégie a été développée et mise au point dans le cadre d’une action de valorisation avec la SNECMA et aucune information supplémentaire ne peut être fournie. 2.7.3 Conformité géométrique d’une pièce de grande dimension AK-ILS La vérification géométrique d’une pièce mécanique nécessite des mesures par machine à mesurer tridimensionnelle pour des pièces complexes. Une pièce mécanique est déclarée conforme vis-à-vis d’une tolérance de forme si l’ensemble de ses surfaces la constituant appartient à une zone géométrique délimitée par deux surfaces. La question du nombre de points de mesures pour déclarer la conformité d’une pièce est épineuse sachant que plus les points de mesure sont rapprochés plus le métrologue a confiance dans la conclusion de ses mesures. Le problème se pose lorsque la pièce est de grande taille, c’est le cas des pièces de structure dans le domaine aéronautique (voir la figure 2.16 présentant une pièce de fermeture de cockpit). Le problème de vérification de la conformité d’une pièce de grande dimension consiste donc à classer des points d’une surface vis-à-vis d’une zone de tolérance sans faire l’ensemble des meures. Il s’agit donc d’un problème de classification de points appartenant à une surface et la stratégie AK a pu être utilisée dans ce contexte pour créer la méthode AK-ILS Active learning and Kriging based-methods for the Inspection of Large Surfaces [Dumas et al., 2012]. Cette méthode a été appliquée en lien avec AIRBUS CIMPA sur des pièces significatives (voir figure 2.17). Les résultats sont présentés en figure 2.18 où le dégradé de gris représente l’écart par rapport à la zone de tolérance et les points blancs sont les points de mesures nécessaires (< 50 pour les deux pièces) pour déclarer la conformité de la pièce. Figure 2.16 – Pièce de fermeture de cockpit. 2.8 Conclusion, perspectives et synoptique des méthodes AK Les méthodes nommées AK pour Active learning and Kriging based-methods utilisent toutes le même principe de classification exposé en section 2.5. Par rapport aux méthodes existantes, ce principe présente trois avantages : • grande facilité d’implémentation à partir d’une toolbox de krigeage type DACE puisque la fonction d’apprentissage est extrêmement simple et qu’aucune méthode d’optimisation n’est nécessaire ; 19 décembre 2012 Page 82/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Figure 2.17 – Pièces d’application de la méthode AK-ILS. A gauche : cockpit, à droite : case de train d’atterrissage. Figure 2.18 – Résultats de la méthode AK-ILS. Le dégradé de gris représente l’écart par rapport à la zone de tolérance et les points blancs sont les points de mesures nécessaires pour déclarer la conformité. Figure 2.19 – Synoptique des méthodes AK. Nicolas Gayton Page 83/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité • la recherche du point à ajouter se fait sans optimisation et à partir d’une base fixe de points à classer ; • les zones explorées par la méthode sont restreintes aux zones de localisation des points à classer. Par contre, cette stratégie présente l’inconvénient majeur de ne pouvoir considérer que des populations à classer de taille raisonnable (maxi 100000) même si des populations de taille plus importante peuvent être considérées mais avec un temps de post-traitement considérable. Pour l’analyse de fiabilité, la méthode AK-MCS [Echard et al., 2011] est la plus générale et elle a montré son efficacité sur des problèmes académiques complexes et industriels (voir chapitre 3 relativement à la fatigue des structures) dont la probabilité de défaillance est supérieure à 10−4 . Pour traiter des problèmes de fiabilité mettant en œuvre des probabilités plus faibles, la méthode AK-IS a été développée [Echard et al., 2012] et appliquée elle aussi à des problèmes de fatigue des structures présentés en chapitre 3. Elle repose sur l’hypothèse d’un seul point prépondérant de défaillance le plus probable. La méthode AK-SS est la plus complexe des méthodes et peut permettre d’atteindre des probabilités faibles sans hypothèse d’un point de défaillance le plus probable prépondérant. Les développements de cette méthode en sont pour l’instant au stade de ce qui a été présenté dans ce chapitre. Pour gagner encore en temps de calcul, les méthodes AK-RM ont été couplées à des méthodes économiques de calculs mécaniques développée conjointement avec l’UTC [Notin et al., 2012] et par le LMT [Echard et al., 2012]. L’analyse ainsi effectuée permet de gagner sur le nombre de calculs mécaniques d’une part grâce aux méthodes AK-RM et d’autre part sur le temps de calcul mécanique par une gestion intelligente des calculs voisins. La stratégie de classification développée peut être appliquée à la fiabilité système à travers la méthode AK-SYS et à d’autres domaines d’application présentés dans ce chapitre : AK-OPT pour la gestion des contraintes d’optimisation et AK-ILS pour la vérification de la conformité géométrique de pièces de grande dimension. Un synoptique de synthèse de la famille de méthodes AK est présenté en figure 2.19 en espérant que la famille s’agrandisse. 19 décembre 2012 Page 84/172 HDR, Nicolas Gayton Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité Synthèse du chapitre Objectif. Proposer des méthodes de fiabilité très économiques en temps de calcul dont les résultats sont proches des résultats des méthodes de simulation. Méthodologie. Utilisation du krigeage comme méta-modèle pour la classification des points d’une simulation. Intégration de l’échantillon de points à évaluer au plus tôt dans le calcul de la fiabilité. Utilisation d’un critère d’enrichissement basé sur la probabilité de se tromper de signe pour chaque point de la simulation. Résultats obtenus. Une famille de méthode nommée AK-RM pour l’analyse de fiabilité a été développée. Cette stratégie a été étendue à d’autres problématiques voisines : l’optimisation des structures et la vérification de la conformité de pièces de grande dimension pour donner la famille des méthodes AK. Contexte de ces travaux • Projet ANR APPROFI, thèse de B. Echard. • Master Recherche d’A. Dumas. Production scientifique • 3 revues référencées : – ECHARD B., GAYTON N., LEMAIRE M., RELUN N., A combined Importance Sampling and Kriging reliability method for small failure probabilities with time demanding numerical models, Reliability Engineering and System Safety, accepté le 26/10/2012. – DUMAS A., ECHARD B., GAYTON N., ROCHAT O., DANTAN JY., AK-ILS : an Active learning method based on Kriging for the Inspection of Large Surfaces, Precision engineering, Vol 37, pages 1-9, 2013. – ECHARD B., GAYTON N., LEMAIRE M., AK-MCS : an Active learning reliability method combining Kriging and Monte Carlo Simulation, Structural Safety, Vol 33, pages 145-154, 2011. • 3 conférences internationales Nicolas Gayton Page 85/172 19 décembre 2012 Chapitre 2 : Utilisation du krigeage pour l’analyse de fiabilité 19 décembre 2012 Page 86/172 HDR, Nicolas Gayton Deuxième partie Recherches appliquées 87 Chapitre 3 Dimensionnement fiable des structures sollicitées en fatigue Sommaire 3.1 Introduction 3.2 Dimensionnement déterministe vis-à-vis de la fatigue 3.3 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 . . . . . . . . . . . . 91 3.2.1 Considérations générales en fatigue . . . . . . . . . . . . . . . . . . . . . . . . . 91 3.2.2 Calcul de l’endommagement pour un chargement quelconque . . . . . . . . . . 92 3.2.3 Méthode Contrainte - Résistance basée sur l’Equivalent Fatigue . . . . . . . . . 93 3.2.4 Incertitudes et règles de dimensionnement dans l’industrie . . . . . . . . . . . . 96 Méthode Contrainte - Résistance pour l’analyse fiabiliste . . . . . . . . . . 96 3.3.1 Distribution de la contrainte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3.3.2 Distribution de la résistance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.3.3 Estimation de la probabilité de défaillance . . . . . . . . . . . . . . . . . . . . . 98 3.3.4 Limites de l’approche Contrainte - Résistance pour l’analyse fiabiliste . . . . . 98 Méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.4.1 Présentation du schéma général . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.4.2 Résultats obtenus sur l’exemple de validation . . . . . . . . . . . . . . . . . . . 102 3.4.3 Quelques éléments sur la modélisation des courbes S-N et du chargement . . . 103 3.5 Application à l’analyse fiabiliste d’un disque aubagé . . . . . . . . . . . . . 105 3.6 Application à l’analyse fiabiliste d’une ailette de divergent . . . . . . . . . 109 3.7 Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 89 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue 3.1 Introduction Le phénomène de fatigue des structures est responsable d’environ 90% des défaillances des structures en service [Robert, 2009], ce qui en fait un phénomène à prendre en compte en priorité en phase de dimensionnement. Ce phénomène est associé à la répétition de chargements et de déchargements au cours du temps, conduisant à la détérioration progressive des propriétés matériaux. Le processus de fatigue est en général divisé en trois étapes. La première est l’amorçage d’une fissure macroscopique par accumulation de fissures microscopiques. La seconde étape est la phase de propagation de cette fissure macroscopique et la dernière étape est la phase de rupture brutale de la structure lorsque la taille de la fissure devient critique. Les travaux présentés se focalisent sur la phase d’amorçage négligeant la phase de propagation. En d’autres termes, la structure est considérée comme impropre à son utilisation dès l’amorçage d’une fissure macroscopique. Le comportement à la fatigue d’une structure est fortement affecté par une multitude d’incertitudes. Deux structures, issues du même moyen de fabrication et constituées du même matériau, ont des durées de vie en service qui peuvent être très différentes. En effet, en plus des défauts inhérents à tout process de fabrication (géométrie, microfissures, ...), le chargement s’appliquant à une structure peut être très aléatoire au cours de sa durée d’utilisation et le comportement à la fatigue peut lui aussi être très variable d’une structure à l’autre. La prise en compte de ces incertitudes en phase de dimensionnement se fait par l’intermédiaire de coefficients dits de “sécurité” censés assurer à la structure une durée de vie minimale garantie. Ces coefficients de sécurité basés sur des années d’expériences sont codifiés dans des règlements et recommandations. Ils sont simples à utiliser mais conduisent souvent à sur-dimensionner des structures ou, tout du moins, à dimensionner des structures dont les marges de sécurité sont méconnues. Les approches probabilistes permettent une meilleure compréhension du comportement mécanique d’une structure. Leur application dans le domaine de la fatigue est d’autant plus intéressante que ce phénomène est très sensible à plusieurs sources d’incertitudes. L’utilisation de ces méthodes permet de justifier les coefficients de “sécurité” utilisés en calculant les marges de sûreté (par l’intermédiaire du calcul de la probabilité de défaillance). Elles permettent également de hiérarchiser les variables influentes. Cette hiérarchisation des variables aléatoires permet de connaı̂tre les variables qu’il faut examiner en priorité par des mesures ou des essais car la précision de la probabilité de défaillance calculée en dépend, et les variables qui au contraire n’ont que très peu d’impact sur le résultat numérique. Le calcul de la probabilité de défaillance et la hiérarchisation des variables aléatoires sont les deux objectifs de ce chapitre. Ces travaux incluent les recherches effectuées par B. Echard lors de sa thèse de doctorat. Ils sont en cours de développement et de déploiement dans la cadre de la thèse CIFRE de S. Bucas pour les grues à tour Manitowoc. Après un bref rappel des méthodes liées à l’analyse déterministe de la fatigue des structures, ce chapitre présente la méthode Contrainte - Résistance très utilisée pour concevoir des structures avec un certain niveau de fiabilité. Les limites de cette méthode sont illustrées sur un exemple simple avant de proposer un schéma général d’analyse fiabiliste en fatigue. L’intérêt des travaux présentés réside dans la prise en compte des distributions statistiques de chaque variable aléatoire, dans le calcul efficace de la probabilité de défaillance via la méthode AK-IS et dans le calcul des sensibilités de la probabilité de défaillance. Les deux dernières sections de ce chapitre sont consacrées aux applications industrielles SNECMA traitées dans le cadre du projet APPROFI. Le lecteur pourra se référer à [Echard et al., 2012] et au rapport de thèse de Doctorat de B. Echard pour davantage de détails. 19 décembre 2012 Page 90/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue 3.2 Dimensionnement déterministe vis-à-vis de la fatigue Cette section rappelle les bases déterministes de l’analyse des structures en fatigue et permet de définir le cadre des analyses effectuées. 3.2.1 Considérations générales en fatigue Chargement d’amplitude constante Un chargement d’amplitude constante est défini en effort (déplacement, ... ou autre) par : • un chargement moyen noté Fm produisant une contrainte mécanique à l’endroit le plus critique notée σm • un chargement maximum et un minimum, notés respectivement Fmax et Fmin produisant σmax et σmin au sein de la structure, permettant de définir l’amplitude de chargement Fa = (Fmax − Fmin )/2 produisant σa = (σmax − σmin )/2 au sein de la structure. Ces différentes quantités permettent de définir le facteur de charge en contrainte (ou en chargement) défini par : R= σmin σmax (3.1) dont les valeurs R = −1 et R = 0 sont les plus communes en essais pour,respectivement, un chargement symétrique purement alterné et un chargement à valeur minimale nulle. Courbes S − N Le comportement en fatigue d’un matériau est caractérisé par des essais sollicitant en laboratoire des éprouvettes par un chargement d’amplitude constante. Le nombre de cycles N à l’amorçage d’une fissure est mesuré et plusieurs essais dans des conditions de chargement différents permettent de construire une courbe S-N, aussi appelée courbe de Wöhler. Cette courbe est en général construite à partir de mesures à R = −1 et différentes valeurs de σa . Elle est constituée de différents domaines : • fatigue à faible nombre de cycles (N ≤ 104 − 105 cycles) où l’amplitude de contraintes engendre des déformations plastiques ǫp . Le modèle de Manson-Coffin peut être utilisé pour modéliser la courbe S-N dans ce domaine par la relation ǫp = C N c où C et c sont des constantes à identifier. • fatigue à grand nombre de cycles à endurance limitée où le nombre de cycles à amorçage est compris entre 104 − 105 et 106 − 107 . Le modèle de Basquin peut être utilisé pour modéliser cette partie de la courbe S-N σa = B N b où B et b sont des constantes à identifier. • fatigue à grand nombre de cycles à durée de vie infinie (N ≥ 106 − 107 cycles). Bien d’autres modélisations existent dans la littérature. Les travaux présentés se restreignent à la fatigue à grand nombre de cycles à endurance limité. Le modèle de Basquin qui semble le plus courant a été choisi. Il peut être ajusté très finement au nuage de points en proposant des modèles à plusieurs pentes. Les travaux présentés sont tout à fait transposables à d’autres modèles (Bastenaire, Stromeyer, Weibull, ...). Prise en compte de la contrainte moyenne Comme mentionné précédemment, la courbe S-N est généralement construite à R = −1 c’est-à-dire pour un chargement symétrique de moyenne nulle. Le comportement à la fatigue est cependant affecté Nicolas Gayton Page 91/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue par la contrainte moyenne σm lorsqu’elle est non nulle. Une contrainte moyenne positive dégrade la durée de vie alors que c’est l’inverse pour une contrainte moyenne négative jusqu’à un certain niveau. L’effet de la contrainte moyenne peut être pris en compte dans un diagramme de Haigh (contrainte moyenne - amplitude de contrainte) par différentes configurations de moyennes - amplitudes associées à la même durée de vie. Différents modèles sont disponibles dans la littérature (Goodman, Gerber, Söderbeg). La parabole de Gerber propose la relation suivante : σa = σa′ 1− σm Rm 2 ! (3.2) Rm étant la limite à rupture du matériau. En définissant synthétiquement un cycle de contrainte par (moyenne, amplitude), la parabole de Gerber indique l’équivalence en terme de durée de vie entre le cycle (σm , σa ) et le cycle (0, σa′ ) liés par la relation précédente. Pour calculer la durée de vie (en nombre de cycles) d’une structure sous chargement d’amplitude constante (σm , σa ), une courbe S-N, établie pour une valeur de rapport de charge R connu, est nécessaire. La procédure de calcul est alors la suivante : 1. Convertir le chargement (σm , σa ) en un chargement symétrique équivalent (σm = 0, σa′ ) en utilisant la parabole de Gerber par exemple. 2. Déterminer le nombre de cycles à amorçage correspondant à σa′ en utilisant la courbe S−N exprimée à R = −1. Un travail similaire peut être effectué même si la courbe S − N disponible n’est pas à R = −1. 3.2.2 Calcul de l’endommagement pour un chargement quelconque Le chargement de fatigue F est en général variable dans le temps F (t) et produit donc une contrainte mécanique également variable dans le temps σ(t). La durée de vie ne peut donc pas être exprimée en nombre de cycles puisque cette notion n’a alors plus de signification. Par contre, un scalaire noté D, appelé dommage ou endommagement compris entre 0 et 1, permet de quantifier l’endommagement de la structure à l’issue du chargement σ(t). La procédure de calcul est synthétisée en figure 3.1. La structure est considérée sans fissure à l’issue du chargement si D < 1. La procédure peut être résumée de la façon suivante : 1. Propager F (t) dans le modèle numérique de comportement de la structure pour obtenir une réponse en contrainte σ(t) à l’endroit le plus critique. 2. Décomposer l’historique de chargement σ(t) en cycles élémentaires à l’aide d’une méthode de comptage (type Rainflow ou autre). Regrouper les cycles en classes de cycles et compter le nombre de cycles nj,k dans chaque classe (σa,j , σm,k ). 3. Convertir chaque classe de cycles en classes symétriques à R = −1 en utilisant le diagramme de ′ Haigh. Le chargement σ(t) devient synthétisé par le couple (σa,j,k , nj,k ) c’est-à-dire par nj,k cycles ′ symétriques d’amplitude σa,j,k pour j et k décrivant l’ensemble des classes de cycles. ′ 4. A l’aide d’une courbe S−N à R = −1, calculer la durée de vie Nj,k associée à chaque amplitude σa,j,k puis déterminer la fraction de dommage dj,k induit par les cycles de chaque classe : dj,k = nj,k /Nj,k . 5. Cumuler les fractions de dommage en utilisant la règle de cumul linéaire de Palmgren-Miner pour P P obtenir l’endommagement D à l’issue du chargement : D = j k dj,k . 19 décembre 2012 Page 92/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue 6. Vérifier si D est plus grand ou plus petit que 1. Si D > 1, une fissure a amorcé à l’issue du chargement. Si D < 1, aucune fissure n’a amorcé et la structure est endommagée à D × 100% à l’issue du chargement. Dans la cadre de l’utilisation de la parabole de Gerber et d’une courbe S − N de type Basquin, le calcul de l’endommagement D est le suivant : D= XX j k nj,k − 1b σa,k 2 σ B 1 − Rm,j m (3.3) Figure 3.1 – Procédure de calcul de l’endommagement pour un chargement quelconque. 3.2.3 Méthode Contrainte - Résistance basée sur l’Equivalent Fatigue Formulation en contrainte Dans l’industrie, la vérification du dimensionnement se fait en général en comparant une sollicitation à une résistance. Si la résistance est supérieure à la sollicitation, la structure est considérée comme étant satisfaisante. Dans le contexte de la fatigue des structures, il est nécessaire de savoir définir un chargement équivalent d’un point de vue de la fatigue, c’est l’objectif de l’Equivalent Fatigue EF qui ′ qui répété Neq fois à R = −1 produit le synthétise un chargement quelconque en un seul scalaire σeq même endommagement que le chargement réel σ(t). Cet Equivalent Fatigue doit être comparé à une résistance équivalente req à Neq cycles à R = −1 issue de la courbe S − N du matériau avec le même rapport de charge que σeq . Ce schéma est donc formulé en contrainte et le modèle mécanique de la structure est donc nécessaire. Cette procédure est résumée en figure 3.2. Nicolas Gayton Page 93/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Pour calculer l’Equivalent Fatigue σeq , il est nécessaire d’écrire l’égalité entre l’endommagement généré ′ par le temporel σ(t) et l’endommagement généré par σeq répété Neq fois. Dans le cadre de l’utilisation de la parabole de Gerber et d’une courbe S − N de type Basquin, l’égalité s’écrit : XX j k nj,k − 1b σa,k 2 σ B 1 − Rm,j m = Neq σ − 1b eq (3.4) B Le terme de gauche représente l’endommagement D généré par le signal temporel et le terme de droite représente l’endommagement de référence. En inversant cette relation il est possible d’obtenir σeq . Pour calculer la résistance équivalente req à Neq cycles, la courbe S-N est utilisée. Il vient : b req = BNeq (3.5) Pour que le dimensionnement soit satisfaisant, il faut que req > σeq . A partir des deux expressions précédentes, il est aisé de constater qu’écrire req > σeq est équivalent à écrire D < 1 d’où une équivalence entre les formulations en dommage et en contrainte. Figure 3.2 – Principes de la méthode Contrainte - Résistance basée sur l’Equivalent Fatigue, formulation en contraintes. Formulation en nombre de cycles Dans certains domaines, comme celui de la conception des grues à tour, il est plus commun pour une meilleure compréhension de conserver une formulation en nombre de cycles à rupture. Cela dit, dans le cadre d’un chargement d’amplitude quelconque, cette notion est assez peu significative et il est nécessaire de définir une amplitude de référence σeq et de calculer le nombre de cycles Neq correspondant au chargement. Ce nombre de cycles est alors comparé à la durée de vie souhaitée Ncible . Le dimensionnement b b < BNcible . Le est alors satisfaisant si Neq < Ncible . Cette inéquation peut être reformulée en BNeq 19 décembre 2012 Page 94/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue terme de gauche représente σeq . Il est alors aisé d’établir les correspondances entre une formulation en endommagement, contrainte ou nombre de cycles dans le cadre de l’utilisation du cumul linéaire de Palmgren-Miner, de la parabole de Gerber et d’une courbe S − N de type Basquin. Formulation en effort Les approches définies en endommagement, contraintes et nombres de cycles nécessitent la connaissance du modèle mécanique. En règle générale les sollicitations mesurées sont des efforts (déplacements, ... ou autre) F (t) fonction du temps. L’Equivalent Fatigue peut être utilisé pour synthétiser ce chargement et définir des valeurs de sollicitation Feq à reproduire Neq fois en essai de manière à être représentatif de la réalité. L’équivalence de dommage en effort s’écrit alors de la façon suivante pour un modèle mécanique reliant linéairement la contrainte mécanique σ(t) et F (t) : XX j=1 k=1 nj,k 1− Fa,k Fm,j K Feq − 1b 2 1 = Neq Feq − b (3.6) Cette expression ne 2 pas de termes relatifs au modèle mécanique ni à la courbe S − N . Le contient Fm,j dénominateur 1 − K Feq constitue la correction d’effort moyen. Le terme K est le seul terme matériau défini par le rapport entre la contrainte à rupture Rm et la contrainte équivalente σeq . Ce paramètre vaut en général 2,5 pour les aciers et Neq = 106 [Thomas et al., 1999]. Feq est calculé numériquement en utilisant l’algorithme de Newton pour déterminer les racines de la fonction f (Feq ) : f (Feq ) = 1 − 1 b Feq X X nj,k Neq j=1 k=1 1− Fa,k Fm,j K Feq − 1b 2 (3.7) Etant donné que la fonction f (Feq ) n’est pas définie pour Feq = Fm,j /K, il est recommandé de choisir (0) (0) un point initial Feq de la méthode de Newton tel que Feq > maxj (Fm,j /K). Considérons un modèle mécanique dont la contrainte mécanique s’exprime linéairement en fonction de l’effort appliqué par l’intermédiaire d’un coefficient λ. A partir de l’équation 3.4, il est possible d’écrire : ′ σeq − 1b −b 1 XX σa,k nj,k = 2 Neq j σm,j k B 1 − Rm et donc : Feq = λσeq − 1b −b 1 XX Fa,k nj,k = 2 Neq j Fm,j k B 1 − λR m (3.8) (3.9) Or λRm = KFeq . Donc cette expression est identique à l’expression de l’équation 3.6. Il en découle que pour un modèle mécanique linéaire, il y a équivalence entre calculer l’Equivalent Fatigue sur F (t) puis Nicolas Gayton Page 95/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue appliquer le modèle mécanique ou bien faire l’inverse. Il est donc tout à fait bénéfique en terme de temps de calcul de calculer Feq puis σeq à l’aide du modèle mécanique. Il en résulte que les approches en efforts / contraintes / nombre de cycles / endommagement sont équivalentes pour un modèle mécanique linéaire en utilisant le cumul linéaire de Palmgren-Miner, une courbe S − N de Basquin et une correction de Gerber. 3.2.4 Incertitudes et règles de dimensionnement dans l’industrie Le comportement des structures à la fatigue est fortement affecté par la présence d’incertitudes [Svensson, 1997]. Tovo [2001] classe les incertitudes en deux catégories : • les incertitudes inhérentes que sont les propriétés matériaux, le chargement, la géométrie et le comportement à la fatigue ; • les erreurs de modèles ainsi que les erreurs d’estimation des paramètres. La première catégorie est appelée incertitude aléatoire. La seconde catégorie représente les incertitudes épistémiques qui ne sont pas investiguées ni prises en compte dans ce mémoire. La plupart des structures sont dimensionnées avec des règles déterministes codifiées dans des standards et basées sur l’expérience. Ces approches impliquent l’utilisation de coefficients dits de sécurité et de valeurs pessimistes des variables incertaines de manière à assurer la sûreté de la structure malgré les différentes incertitudes. Dans l’industrie, deux approches sont utilisées : • la première consiste en l’application de la procédure présentée en figure 3.1 avec des variables pessimistes (chargement, courbe S − N ) ; • la seconde est basée sur l’utilisation de la méthode déterministe Contrainte - Résistance à partir d’un chargement défini par un niveau de sévérité pessimiste et comparé à une valeur de résistance à la fatigue codifiée. Pour illustrer ces propos, le lecteur pourra se référer à des standards tels que le RCC-M [AFCEN, 2000] dans le domaine du nucléaire et à la FEM1.001 [FEM, 1998] dans le domaine du levage. 3.3 Méthode Contrainte - Résistance pour l’analyse fiabiliste Le principe général de la méthode Contrainte - Résistance appliquée en fatigue [Thomas et al., 1999] est présenté graphiquement en figure 3.3. La méthode est basée sur la comparaison de deux distributions statistiques : celle de la sollicitation notée S et celle de la résistance de la structure notée R. La méthode nécessite une modélisation stochastique des variables incertaines (chargement en service, propriétés matériaux, paramètres géométriques, comportement à la fatigue). Ces différentes variables incertaines (ou aléatoires) sont propagées à travers le modèle mécanique (en règle générale un modèle éléments finis dans le cas de structures industrielles) de façon à calculer la grandeur significative du point de vue de la fatigue (en règle générale une contrainte mécanique critique). La résistance R à la fatigue de la structure est issue de la courbe S − N et le calcul de la probabilité de défaillance se fait par un simple calcul d’intégrale détaillé dans la suite. 3.3.1 Distribution de la contrainte La distribution de la contrainte S est obtenue à partir d’un ensemble de réalisations générées en faisant fonctionner le modèle mécanique sur plusieurs réalisations des variables incertaines. Cette dis19 décembre 2012 Page 96/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.3 – Principe de la méthode Contrainte - Résistance pour l’analyse fiabiliste. tribution tient compte des incertitudes sur les propriétés géométriques, sur les paramètres matériaux et sur le chargement en service vu par la structure. Les incertitudes sur les propriétés matériaux et sur les variables géométriques sont modélisées grâce à des variables notés respectivement Xm et Xg . Leurs distributions statistiques sont ajustées à partir de mesures. La meilleure modélisation est choisie en fonction de différents tests statistiques et mesures de la vraisemblance à l’aide des critères AIC [Akaike, 1974] et BIC [Schwarz, 1978]. Plusieurs possibilités existent pour caractériser le chargement en service. Cette tâche est délicate et très importance pour la représentativité des résultats. La référence [Thomas et al., 1999] base la caractérisation du chargement sur la définition de chargements dans des conditions élémentaires pondérées par des pourcentages d’utilisation. Cette stratégie, dite stratégie de mixage, est très utilisée dans l’industrie qui dispose de mesures dans des conditions bien définies représentatives d’un évènement particulier au cours de la vie de la structure. D’autres stratégies sont envisageables comme celles développées dans [Nagode and Fajdiga, 1998, 2000; Nagode et al., 2001; Nagode and Fajdiga, 2006] où les matrices Rainflow elles-mêmes sont définies par des densités de probabilité paramétrées. Les variables intervenant dans la définition du chargement sont notées Xl . Pour générer des réalisations représentatives de S, une réalisation {xm , xg , xl } des vecteurs aléatoires {Xm , Xg , Xl } est tirée aléatoirement. Les vecteurs {xm , xg } caractérisent le modèle mécanique. A partir Nicolas Gayton Page 97/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue du chargement généré par le vecteur xl , l’Equivalent Fatigue Feq (xl , b, K, Neq ) permet de synthétiser le chargement équivalent à Neq cycles sous l’hypothèse d’un modèle mécanique de comportement linéaire à partir d’une courbe S − N de type Basquin nécessitant uniquement le coefficient b (la pente en log-log) et du rapport K. Il est à noter que l’Equivalent Fatigue génère une erreur dans le cas d’un fonctionnement non-linéaire. Lorsque cet Equivalent Fatigue est propagé dans le modèle mécanique, une réalisation de S est obtenue en contrainte σeq (xm , xg , xl , b, K, Neq ). A partir de plusieurs réalisations des variables aléatoires et en faisant fonctionner plusieurs fois le modèle mécanique de comportement un ensemble de réalisations de σeq est obtenu permettant de caractériser la distribution de la sollicitation S de la structure par la méthode du maximum du vraisemblance par exemple. 3.3.2 Distribution de la résistance La distribution de la résistance R est obtenue à partir d’essais sur éprouvettes et d’une modélisation de la courbe S − N . La distribution de R représente la distribution de la résistance à la fatigue en contrainte à Neq cycles. L’équivalent de chaque point d’essais, représenté dans un diagramme S − N , est recherché à Neq cycles en utilisant une courbe S − N associée. Dans la pratique, si une loi de Basquin est choisie, chaque point de mesure est projeté parallèlement à la courbe S − N médiane jusqu’à obtenir son équivalent à Neq cycles. L’ensemble des points projetés permet de définir une distribution de la résistance à Neq cycles par la méthode du maximum de vraisemblance par exemple. 3.3.3 Estimation de la probabilité de défaillance La méthode classique dite ”Stress-Strength Interference (SSI)” dans [Booker et al., 2001] est utilisée pour évaluer la probabilité de défaillance. Cette méthode propose le calcul de l’intégrale suivante : Pf = Z +∞ fS (s)FR (s)ds (3.10) −∞ où fS est la densité de probabilité de la sollicitation S et FR est la fonction de répartition de la résistance R. Cette intégrale peut être évaluée par n’importe quelle méthode d’intégration permettant d’obtenir une précision beaucoup plus faible que l’ordre de grandeur de la probabilité recherchée. Il est à noter qu’en général des distributions classiques (gaussienne, lognormale, ...) sont choisies pour R et S ce qui rend l’intégrale précédente évaluable analytiquement. 3.3.4 Limites de l’approche Contrainte - Résistance pour l’analyse fiabiliste Même si la méthode Contrainte - Résistance est efficace dans de nombreux cas, elle présente deux limites majeures. Premièrement, la probabilité de défaillance est extrêmement sensible au choix des lois de distribution de R et S. Deuxièmement, l’influence des différentes variables aléatoires n’est pas accessible car regroupée en deux quantités, d’une part la résistance et d’autre part la sollicitation. Pour illustrer ces deux limites l’exemple d’une structure mécano-soudée en forme de ”L” a été développé. Cette structure est sollicitée par un effort variable dans le temps noté F et la réponse mécanique en contrainte σ(t) est définie par : 6lw 1 F (t) + σ(t) = 4(w v − v 2 ) w4 − (w − 2 v)4 19 décembre 2012 Page 98/172 (3.11) HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Variable Distribution Paramètres V (mm) Gauss µV = 3 ; δV = 3% W (mm) Gauss µW = 50 ; δW = 3% L (mm) Gauss µL = 103 ; δL = 3% P1 Uniforme aP1 = 0% ; bP1 = 60% R (MPa) Gauss µR = 180 ; δR = 10% Tableau 3.1 – Définition des variables aléatoires du cas test d’illustration des limites de la méthode Contrainte - Résistance. µX est la moyenne de la variable X, δX est le coefficient de variation de X, aP1 et bP1 sont les bornes de la loi de P1 . (a) Matrice Rainflow du chargement le moins sévère M(0). (b) Matrice Rainflow du chargement le plus sévère M(60). Figure 3.4 – Matrices Rainflow extrêmes pour 0% (a) et 60% (b) de matrice M1 . Fm et Fa sont respectivement la moyenne et l’amplitude du chargement. où v, w et l sont les variables géométriques. Dans cet exemple, le chargement, la géométrie et la loi de comportement du matériau en fatigue (courbe S − N ) sont considérés aléatoires. Le tableau 3.1 présente les données numériques du problème. Le chargement F (t) fonction du temps est défini par une stratégie de mixage, pondérant 2 matrices Rainflow déterministes notées M1 et M2 associées à deux conditions de fonctionnement différentes (M1 : conditions sévères, M2 : conditions peu sévères). Ces deux matrices sont pondérées par l’intermédiaire d’un seul pourcentage d’utilisation P1 pour M1 , le pourcentage P2 pour M2 étant déduit de P1 par P2 = 1 − P1 . La matrice Rainflow virtuelle M(p1 ), représentative d’une durée de vie complète est calculée par la relation suivante à partir d’une réalisation p1 du pourcentage de conditions extrêmes d’utilisation : M(p1 ) = p1 M1 + (1 − p1 ) M2 (3.12) Les deux matrices Rainflow extrêmes utilisées pour les valeurs extrêmes de P1 sont présentées en figure 3.4. La courbe S − N matériau est caractérisée par un coefficient b = −0, 3 déterministe et le paramètre K est fixé à 2,5 pour le calcul de l’Equivalent Fatigue. Les différentes valeurs numériques ont été fixées de manière à obtenir une probabilité de défaillance faible de l’ordre de 10−6 . Des réalisations de la Nicolas Gayton Page 99/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue sollicitation σeq (v, w, l, p1 , b, K, Neq ) sont alors à calculées à l’aide du modèle mécanique. 100 réalisations sont choisies pour être représentatives d’une utilisation dans l’industrie à partir d’un modèle mécanique qui pourrait être coûteux en temps de calcul. Cette opération est répétée trois fois et trois échantillons de σeq (échantillons (a), (b), (c), voir figure 3.5) sont obtenus. Trois types de lois sont ajustées (Gauss, Weibull, Lognormale). Les critères d’ajustement AIC et BIC associés sont donnés dans les tableaux 3.2, 3.3 et 3.4 et permettent de conclure que les trois modélisations sont quasiment équivalentes en terme de vraisemblance. (a) Echantillon (a) (b) Echantillon (b) (c) Echantillon (c) Figure 3.5 – Echantillons de σeq et densités de probabilité ajustées (gaussienne en trait continu, Weibull en traits pointillés et lognormale en traits mixtes). Distribution de S AIC BIC Pf E σR E σS Gauss 818 823 4, 9 × 10−6 −0, 39 Lognormal 820 826 53 × 10−6 −0, 61 −0, 33 −0, 63 1, 6 × 10 −0, 76 −0, 36 Weibull 819 825 −6 Tableau 3.2 – Echantillon (a) - Impact de la distribution de S sur la probabilité de défaillance et élasticités de l’indice de fiabilité aux écarts-types σR et σS de R et S respectivement. Les probabilités de défaillance sont calculées numériquement en fonction de l’échantillon et pour 19 décembre 2012 Page 100/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Distribution de S AIC BIC Gauss 797 802 Lognormal 796 801 Weibull 802 807 Pf −6 1, 5 × 10 12 × 10−6 0, 63 × 10−6 E σR E σS −0, 66 −0, 34 −0, 40 −0, 56 −0, 79 −0, 32 Tableau 3.3 – Echantillon (b) - Impact de la distribution de S sur la probabilité de défaillance et élasticités de l’indice de fiabilité aux écart-types σR et σS de R et S respectivement. Distribution de S AIC BIC Gauss 773 779 Lognormal 779 784 Weibull 771 776 Pf −6 0, 72 × 10 5, 0 × 10−6 −6 0, 23 × 10 E σR E σS −0, 71 −0, 29 −0, 48 −0, 49 −0, 84 −0, 23 Tableau 3.4 – Echantillon (c) - Impact de la distribution de S sur la probabilité de défaillance et élasticités de l’indice de fiabilité aux écart-types σR et σS de R et S respectivement. chaque modélisation proposée. Les résultats sont présentés dans les tableaux 3.2, 3.3 et 3.4. Les valeurs de probabilité de défaillance obtenues varient de 10−5 à 10−7 ce qui ne permet pas réellement de conclure quant au niveau de fiabilité de la structure. Les tableaux 3.2, 3.3 et 3.4 fournissent également les élasticités de l’indice de fiabilité aux écarts-types de R et S. Ils montrent qu’il est de même difficile de conclure sur la variable (entre R et S) dont l’aléa a le plus d’influence sur la probabilité de défaillance. 3.4 Méthode proposée De manière à combler les limites de la méthode Contrainte - Résistance, une méthode plus générale a été proposée dans le cadre des travaux de thèse de B. Echard. La méthode SSI du calcul de la probabilité de défaillance est remplacée par la méthode AK-RM (chapitre 2) basée sur les techniques de simulation (MCS / IS) permettant de prendre en compte les distributions des variables d’entrée sans regrouper les variables en une partie sollicitation et une partie résistance. Ceci présente donc un double avantage en évaluant plus précisément la probabilité de défaillance et les différents contributeurs à cette probabilité via les élasticités de chaque variable. Cette approche très générale permet de prendre en compte n’importe quelle loi de probabilité des variables d’entrée et tous les types de modélisation des courbes S − N . 3.4.1 Présentation du schéma général La méthode proposée est présentée schématiquement en figure 3.6. Les différentes variables incertaines géométrie, matériaux, chargement (regroupées dans les vecteurs Xm , Xg et Xl ) sont prises en compte. L’incertitude sur la courbe S − N est aussi considérée à partir de modèles probabilistes de la littérature. Les variables incertaines mises en œuvre sont regroupées dans le vecteur Xsn . La section 3.4.3 présente quelques éléments sur ce sujet. La première étape de cette approche est la génération d’une réalisation {xm , xg , xl , xsn } des vecteurs des variables aléatoires. Un chargement F (xl ) est généré à partir de xl et le chargement équivalent Nicolas Gayton Page 101/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.6 – Approche proposée pour le calcul de la probabilité de défaillance et des facteurs d’importance. Feq (xl , xsn , K, Neq ) est calculé à Neq cycles. Ce chargement équivalent est propagé dans le modèle mécanique de comportement pour obtenir l’Equivalent Fatigue en contrainte σeq (xm , xg , xl , xsn , K, Neq ). Cet Equivalent Fatigue en contrainte est comparé à la résistance équivalente à Neq cycles issue de la courbe S − N en calculant la fonction de performance G. Ce synoptique général est piloté par une méthode de simulation économique type AK-IS (chapitre 2) de manière à atteindre les faibles probabilités tout en fournissant à moindre coût de calcul les élasticités de l’indice de fiabilité aux différents paramètres des lois. 3.4.2 Résultats obtenus sur l’exemple de validation Cette méthode est utilisée sur le cas test de la section 3.3.4. La courbe S − N est modélisée de façon à être cohérente avec la modélisation de la variable R à Neq cycles utilisée pour l’application. Dans cette application les résultats sont obtenus en utilisant la méthode AK-IS. La méthode IS peut aussi être utilisée pour validation des résultats AK-IS vus les faibles temps de calcul du modèle mécanique. Le tableau 3.5 permet la comparaison des résultats entre la méthode Contrainte - Résistance, pour chaque échantillon à partir de la modélisation la plus adéquate basée sur les critères AIC et BIC, et la procédure proposée à partir des méthodes IS et AK-IS. Les résultats obtenus valident encore une fois la pertinence de la méthode AK-IS vis-à-vis de la méthode IS. La valeur numérique de probabilité obtenue est 19 décembre 2012 Page 102/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Méthode de fiabilité NE Pf 4 IS 5 × 10 AK-IS 82 SSI - échantillon (a) (Gauss) 100 SSI - échantillon (b) (lognormal) 100 SSI - échantillon (c) (Weibull) 100 δ% −6 2, 00 0, 74 × 10−6 2, 00 0, 74 × 10 4, 9 × 10−6 12 × 10−6 0, 23 × 10−6 - Tableau 3.5 – Résultats obtenus sur l’exemple de validation. AK-IS est comparé avec la méthode de tirage d’importance (IS) et avec les résultats obtenus avec la méthode SSI sur les meilleures modélisations de S. NE représente le nombre de calculs mécaniques nécessaire. δ est le coefficient de variation de l’estimateur de la probabilité de défaillance. Géométrie Chargement Fatigue E σV E σW E σL EbP1 E σR −0, 039 −0, 070 −0, 004 −0, 310 −0, 811 Tableau 3.6 – Elasticités de l’indice de fiabilité à l’écart-type de chaque variable V , W , L et R et à la borne supérieure bP1 de la variable P1 . significativement différente des valeurs obtenues par la méthode SSI à partir des meilleures modélisations des trois échantillons qui varient d’un facteur 1 à 50. Les valeurs des élasticités (voir figure 3.6) montrent que la courbe S − N a le plus d’impact sur la probabilité de défaillance. Les paramètres géométriques ont peu d’influence sur la fiabilité alors qu’il est nécessaire d’investiguer en profondeur la borne supérieure de la variable P1 qui a logiquement beaucoup d’importance sur la probabilité de défaillance. Cet exemple montre l’intérêt de l’approche globale proposée qui ne nécessite pas d’ajustement d’une loi de probabilité sur R et S et fournit une probabilité de défaillance unique à moindre coût de calcul ainsi que les facteurs d’influence qui fournissent une information très importante sur les variables prépondérantes sur la fiabilité de la structure. 3.4.3 Quelques éléments sur la modélisation des courbes S-N et du chargement Comme le démontre le cas test de validation (ce sera aussi démontré dans les applications industrielles exposées dans les sections suivantes), l’évaluation numérique de la fiabilité est très liée à la modélisation stochastique du chargement et des courbes S − N . Sur la partie chargement, le lecteur pourra se référer au rapport de thèse de B. Echard pour avoir davantage d’éléments notamment sur les travaux de Nagode. Une réflexion est actuellement en cours dans le cadre de la thèse CIFRE Manitowoc pour modéliser le chargement s’appliquant sur une grue à tour. Voici quelques éléments relatifs à la modélisation stochastique de la courbe S − N . Le lecteur peut aussi se référer à [Sudret, 2011] pour de plus amples informations. En pratique, une courbe S − N stochastique est définie par : • un modèle déterministe D (or D−1 ) caractérisant la tendance médiane de la courbe σ50% = D(N ) Nicolas Gayton Page 103/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue ou N50% = D−1 (σ). Ce modèle peut être celui de Basquin σ50% = B N b pour un nombre donné de cycles N , ou N50% = (σ/B)1/b pour un niveau de chargement σ nominal défini. • une distribution statistique modélisant l’incertitude de comportement à la fatigue autour de la tendance médiane. Cette distribution peut, par exemple, être gaussienne ou lognormale pour les cas les plus courants et son incertitude peut être définie à écart-type ou coefficient de variation constant à N ou σ fixé. Chacun de ces choix permet de définir un type de modélisation. Notons les modélisations les plus courantes : • Méthode ESOPE [AFNOR, 1991] : la distribution de la contrainte à nombre de cycle fixé est considérée lognormale, c’est-à-dire gaussienne en log. Sa moyenne est donnée par la modélisation de la tendance déterministe, son écart-type est considéré constant quel que soit N . Une variante est la méthode ESOPE2 proposée dans le cadre des travaux de thèse de B. Echard. Cette modélisation considère que le coefficient de variation est constant quel que soit N . La différence est visible graphiquement en figure 3.7 où des iso-valeurs sont tracées. • Modèle de Guédé [Guédé, 2005; Guédé et al., 2007] : cette modélisation semble davantage en accord avec les moyens expérimentaux qui imposent une consigne en contrainte et mesurent un nombre de cycles, l’inverse étant impossible et nécessite une hypothèse de courbe S − N pour la conversion. La distribution du logarithme népérien du nombre de cycles à amorçage est supposée suivre une loi gaussienne dont la moyenne est déduite de la loi médiane et dont le coefficient de variation est constant quelle que soit la consigne en contrainte. La représentation graphique du modèle de Guédé est donnée en figure 3.8 sur le même nuage de points que les courbes de la figure 3.7. La différence visuelle entre les différentes modélisations existe et peut être quantifiée sur un nuage de points donné grâce aux critères AIC et BIC. L’expérience acquise montre qu’il est difficile de choisir la meilleure modélisation en utilisant ces critères alors que ce choix a de l’impact sur l’évaluation de la fiabilité. (a) ESOPE. (b) ESOPE 2. Figure 3.7 – Représentation graphique des modélisations ESOPE et ESOPE 2. La courbe en trait plein représente la tendance médiane alors que les courbes en traits pointillés représentent les iso-valeurs à 2,5% et 97,5%. 19 décembre 2012 Page 104/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.8 – Représentation graphique du modèle de Guédé. La courbe en trait plein représente la tendance médiane alors que les courbes en traits pointillés représentent les iso-valeurs à 2,5% et 97,5%. 3.5 Application à l’analyse fiabiliste d’un disque aubagé Le premier cas d’étude industriel est proposé par la branche aviation de la SNECMA. Il s’agit de l’étude du disque aubagé d’un moteur d’avion soumis à un champ de contrainte important à proximité d’un trou d’évacuation d’huile. Le but de l’étude est de calculer la probabilité d’amorçage d’une fissure dans le voisinage de ce trou dû à la répétition de cycles de décollage et d’atterrissage de l’avion. La figure 3.9 détaille la procédure utilisée et ses spécificités par rapport à la procédure générale de la figure 3.6. Les différents choix sont détaillés ci-après. La difficulté majeure de cette application réside dans la proposition d’une modélisation du chargement avec un nombre raisonnable de variables aléatoires de façon à pouvoir être considérées par la méthode AK-IS. Modélisation du chargement Le disque aubagé est soumis à un effort statique de pré-charge ainsi qu’à un chargement de fatigue lié aux effets centrifuges de décollage / atterrissage. Des analyses déterministes de sensibilité menées au LMT ont montré que seul l’effet centrifuge avait de l’influence sur la réponse en contrainte de la structure. Seul l’incertitude sur ce chargement est donc considérée dans cette étude. Mission A B C D E Ωmax 1,028 1,012 1,000 0,990 0,975 T 33,1 14,4 0 -11,2 -28,7 Tableau 3.7 – Missions caractérisées par la vitesse de rotation maximale Ωmax et par la température T au décollage. Les vitesses de rotation sont normées par rapport à une vitesse de référence et la température représente l’écart par rapport à une température de référence. L’effort centrifuge s’exerçant sur le disque est lié à la vitesse de rotation du moteur. Plus particulièrement, la vitesse de rotation du moteur est maximale au décollage pour atteindre la valeur notée Ωmax . La vitesse de rotation décroı̂t ensuite jusqu’à l’atterrissage. Pour un vol de l’avion, le cycle de vitesse de rotation est donc considéré comme prenant les valeurs (0, Ωmax , 0). La valeur Ωmax est incertaine Nicolas Gayton Page 105/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.9 – Approche probabiliste utilisée pour la calcul de la probabilité de défaillance du disque aubagé SNECMA. 19 décembre 2012 Page 106/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.10 – Séquence de cycles de vitesse de rotation Ω d’une suite de vols. et est fonction des conditions météorologiques de température atmosphérique T au sol. Le chargement en vitesse de rotation du disque aubagé est donc caractérisé par une succession de pics à R = 0 ef- fectué Neq = 20000 fois (nombre de décollages effectués par un moteur durant sa vie et considéré comme déterministe dans cette étude) comme le représente la figure 3.10. Pour caractériser l’aléa sur Ωmax , cinq missions A, B, C, D, E ont été considérées en accord avec la SNECMA. Ces missions sont définies par une température T et une vitesse maximale de rotation au décollage. Ces missions sont définies dans le tableau 3.7. Les variables permettant la caractérisation du chargement sont les pourcentages d’utilisation pA , pB , pC , pD , pE dans chacune de ces 5 configurations. Chaque avion a une base de référence et un rayon d’action. Sa base peut être définie par une température moyenne µT et son rayon d’action par un écart-type σT . Ces deux variables sont des variables aléatoires, uniforme sur [min (T) − 5; max (T) + 5] pour µT (min (T) et max (T) sont les températures respectivement des missions A et E) et gaussien de moyenne 16 et d’écart-type 4 pour σT . Le calcul des pourcentages pm , m = A, ..., E de chaque mission s’effectue alors de la façon suivante : fT (T m ) pm = P E t t=A fT (T ) (3.13) La fonction fT permet d’extraire les occurrences de chaque mission par la relation suivante : 1 fT (T ) = exp − 2 T − µT σT 2 ! (3.14) Cette fonction est illustrée en figure 3.11 pour une réalisation des variables aléatoires µT et sigmaT . Le chargement est complètement défini par les variables µT , σT . Il s’agit d’un chargement où chaque cycle est défini à R = 0. L’utilisation de la courbe S − N permet alors de calculer l’Equivalent Fatigue en vitesse de rotation noté Ωeq à R = 0. Modélisation de la courbe S − N La modélisation probabiliste de la courbe S −N a été mise en place à partir de 361 essais sur éprouvette à R = 0. La tendance moyenne a été modélisée par une double loi de Basquin de la façon suivante : Nicolas Gayton Page 107/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.11 – Distribution des températures au décollage pour un avion donné. Les valeurs {fT (T A ), fT (T B ), fT (T C ), fT (T D ), fT (T E )} sont utilisées pour définir les pourcentages d’occurrence à l’aide de l’équation 3.13. ∆σ50% = Bi N bi for N ≤ NC (3.15) Bs N bs for N > NC Les quatre paramètres mis en jeu (2 pentes bi et bs et 2 ordonnées à l’origine Bi et BS en log-log) permettent de bien modéliser des essais à nombre restreint de cycles à amorçage et des essais à nombre de cycles plus important. La modélisation de la dispersion a été effectuée en comparant les modélisations ESOPE, ESOPE2 et Guédé. La méthode ESOPE2 fournit les meilleurs critères de vraisemblance AIC et BIC. C’est donc celle qui a été retenue. La représentation de la tendance moyenne et de deux courbes fractiles est donnée en figure 3.12. La courbe S −N est donc entièrement définie par les variables déterministes bi , bs , Bi et BS et par une réalisation de la variable aléatoire Uf . Modèle mécanique Le cycle équivalent en vitesse de rotation Ωeq est appliqué au modèle mécanique pour calculer la contrainte mécanique significative de la fatigue proche du trou de deshuilage. Cette contrainte est la contrainte principale maximale notée ∆σ1 . Les calculs mécaniques ont été effectués par le LMT Cachan. Des calculs préliminaires ont montré la très faible influence des paramètres géométriques sur cette contrainte, les intervalles de tolérance étant extrêmement réduits. Le modèle mécanique est non linéaire du fait du contact entre deux pièces du disque. Dans la pratique, le pré-serrage est tel qu’aucun glissement n’a lieu entre les pièces au cours d’un cycle. Le modèle est donc totalement linéaire réduisant ainsi l’intérêt d’une maı̂trise du nombre de calculs mécaniques par les méthodes AK-RM. Le calcul a malgré tout été effectué en comptant le nombre d’appels au modèle mécanique pour voir l’efficacité des méthodes AK-RM. Résultats de l’analyse de fiabilité Les résultats de l’analyse de fiabilité sont reportés dans le tableau 3.8. Ces résultats sont normés par la valeur de probabilité obtenue par le calcul FORM, valeur qui ne sera pas dévoilée pour des raisons de confidentialité. La probabilité de défaillance ne permet pas l’utilisation de la méthode AK-MCS. La 19 décembre 2012 Page 108/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.12 – Modèle ESOPE2 ajusté sur les 361 points de mesures représentés par des ronds blancs. Trait continu : tendance moyenne, traits pointillés : courbes fractiles à 2,5% et 97,5% méthode AK-IS a été utilisée de façon à obtenir les facteurs d’importance fournis dans le tableau 3.9. La méthode AK-SS a aussi été utilisée pour confirmer les résultats obtenus. Ces résultats montrent la correction FORM apportée par la méthode AK-IS avec peu de calculs complémentaires. La similarité des résultats AK-IS et AK-SS montrent qu’un seul point de défaillance le plus probable est prépondérant. Les sensibilités apportent un résultat intéressant : les aléas de température au sol au cours du décollage n’ont pas d’impact sur la fiabilité du disque (sous l’hypothèse d’une modélisation du chargement représentative de la réalité). Par contre, la fiabilité de la structure est totalement liée à la dispersion de la tenue en fatigue du matériau. Méthode NE FORM 9 Pfnorm δ 1, 00 - 4 0, 66 2, 41% SS 3, 5 × 106 0, 65 2, 10% AK-IS 54 0, 66 2, 41% AK-SS 451 0, 66 10, 56% IS 1, 2 × 10 Tableau 3.8 – Résultats de l’analyse de fiabilité dans le cas du disque aubagé. Les probabilités de défaillance obtenues sont normées par rapport à la probabilité obtenue avec FORM (i.e. Φ(−β)) pour des raisons de confidentialité. 3.6 Application à l’analyse fiabiliste d’une ailette de divergent La cas d’étude présenté concerne une ailette de divergent de moteur de fusée développée par la SNECMA (voir figure 3.13). Cette structure est sollicitée par un déplacement transverse et a déjà fait l’objet d’analyses dans les références [Bignonnet and Lieurade, 2007; Bignonnet et al., 2009; Lefebvre et al., Nicolas Gayton Page 109/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Chargement Fatigue Ebµ T EσσT E σU f −4, 8 × 10−2 −3, 7 × 10−4 −0, 973 Tableau 3.9 – Disque aubagé. Elasticités de l’indice de fiabilité aux écarts-types des lois des variables aléatoires µT , σT et Uf . 2009; Ferlin et al., 2009] en utilisant la méthode Contrainte - Résistance. Le but de cette analyse est le calcul de la probabilité d’amorçage d’une fissure dans cette structure sous chargement aléatoire en déplacement, représentant un vol de la fusée. La difficulté majeure de cette application réside également dans la proposition d’une modélisation du chargement permettant une bonne représentativité de la variabilité observée lors des 9 vols et mettant en œuvre un nombre raisonnable de variables aléatoires. La figure 3.14 présente l’adaptation de la procédure générale proposée à ce cas d’étude. Les différentes étapes sont précisées ci-après. Figure 3.13 – Ailette de divergent. Le déplacement est appliqué sur la surface blanche selon la flèche. La surface en damier est encastrée. Modélisation du chargement Neuf temporels de chargement issus de neuf vols différents sont à disposition (voir figure 3.15(a)) pour caractériser l’incertitude sur le chargement. Le projet DEFFI a proposé une modélisation en prenant en compte trois situations différentes de vitesse, d’angle de lacet et d’angle d’incidence (voir figure 3.16) soit 27 configurations élémentaires au total. Des matrices Rainflow ont été extraites des neufs vols correspondants à chacune des 27 configurations. Les occurrences de chaque configurations ont ensuite été définies par des variables aléatoires uniformes dont les bornes ont été définies en accord avec les mesures. La génération d’une matrice Rainflow virtuelle se fait ensuite par tirage aléatoire des pourcentages d’utilisation et par choix aléatoire d’une matrice Rainflow élémentaire issue des mesures. Le principal inconvénient de cette démarche réside dans le nombre relativement important de variables aléatoires mis en jeu (proche de 27). Cet inconvénient n’en est pas un dans le cas de l’approche Contrainte - Résistance 19 décembre 2012 Page 110/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.14 – Procédure utilisée pour l’analyse de fiabilité de l’ailette de divergent. Nicolas Gayton Page 111/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue mais est plus difficilement envisageable avec la procédure proposée de pilotage des réalisations de chaque variable. (a) Déplacement. (b) Vitesse, angle d’incidence et de lacet au cours du temps. Figure 3.15 – Mesures disponibles sur neuf vols. D’autres approches de modélisation ont donc été envisagées. Les travaux de Nagode [Nagode and Fajdiga, 1998, 2000; Nagode et al., 2001; Nagode and Fajdiga, 2006] peuvent être envisagés en paramétrant directement les matrices Rainflow. Inspiré de ces travaux, un paramétrage beaucoup plus simple a été proposé par l’intermédiaire d’un coefficient dit de sévérité du chargement. Pour chaque temporel de déplacement, des matrices Rainflow sont extraites et transformées en cycles de déplacements symétriques à R = −1. Neuf vecteurs d’amplitudes de déplacement symétrique sont donc obtenus {d′(i) , i = 1, . . . , 9}. La fonc- tion de répartition de ces vecteurs est tracée en figure 3.17. L’idée de base est le paramétrage de ces fonctions de répartition en introduisant le coefficient de sévérité CS permettant de générer aléatoirement une nouvelle fonction de répartition virtuelle de déplacements symétriques. La figure 3.18 présente graphiquement la fonction de répartition médiane en trait continu et une réalisation de cette fonction de répartition pour un coefficient de sévérité cS = 2. Pour valider cette proposition de chargement, l’Equivalent Fatigue en déplacement a été calculé pour 1000 réalisations de la variable CS . L’histogramme empirique de la figure 3.19 a été obtenu. L’Equivalent Fatigue a aussi été calculé sur les mesures des neufs vols. Les points noirs de la figure 3.19 sont obtenus et comparés à la distribution virtuelle obtenue. Les points obtenus sont bien positionnés dans cette distribution et la dispersion virtuelle générée semble être en accord avec la dispersion des points de mesure, validant ainsi l’approche proposée. Modélisation de la courbe S − N Un ensemble de 80 tests en fatigue sur éprouvettes est disponible. Le critère de Smith-Watson-Topper (SWT) est le critère de fatigue utilisé pour ce cas test (voir la section suivante pour sa définition). Le 19 décembre 2012 Page 112/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.16 – Définition des plages de configuration en vitesse, angle d’incidence et lacet. modèle de Basquin est choisi pour la représentation de la tendance de la courbe S − N . La méthode ESOPE2 est utilisée pour la modélisation de la dispersion des points autour de cette tendance car elle conduit aux meilleurs critères AIC et BIC. La représentation de la tendance moyenne et des courbes iso-probabilistes à 2,5% et 97,5% est donnée sur la figure 3.20. Propriétés des matériaux Le matériau est supposé suivre une loi de comportement élasto-plastique de type Chaboche [Chaboche, 1989] définie par : σ = Ry + C1 tanh (C2 ǫp ) C2 (3.16) où Ry est la limite d’élasticité, C1 et C2 sont les paramètres d’écrouissage considérés comme aléatoires et ǫp est la déformation plastique calculée par le modèle mécanique. Des lois pour Ry , C1 et C2 ont été ajustées par approche bayésienne à partir de mesures et d’avis d’expert. Des lois lognormales ont été choisies et une corrélation non négligeable a été identifiée entre C1 et C2 . Les valeurs ne sont pas communiquées pour des raisons de confidentialité. Une réalisation du vecteur des paramètres matériaux est notée {ry , c1 , c2 }. Modèle mécanique L’Equivalent Fatigue en déplacement est appliqué au modèle mécanique. Ce modèle est caractérisé par une réalisation {ry , c1 , c2 } du vecteur des variables matériaux et par des variables géométriques xg considérées comme déterministes dans cette étude. Le modèle mécanique fournit l’évaluation du critère de Smith-Watson-Topper défini par : σSWT = Nicolas Gayton q E σmax (ǫp + ǫe ) Page 113/172 (3.17) 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.17 – Fonction de répartition empirique des vecteurs {d′(i) , i = 1, . . . , 9}. Figure 3.18 – Fonction de répartition médiane des amplitudes de déplacement (trait continu) et fonction de répartition virtuelle tracée pour cs = 2. Figure 3.19 – Distribution empirique d’Equivalent Fatigue en déplacement deq à Neq cycles. Les points noirs représentent l’Equivalent Fatigue calculés sur les 9 vols. 19 décembre 2012 Page 114/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Figure 3.20 – Représentation de la tendance de la courbe S − N (trait continu) et des courbes isoprobabiliste à 2,5% et 97,5% (traits pointillés) dans le cas de l’ailette. Le critère de Smith-Watson-Topper σSW T est utilisé. où ǫe = ǫe (ry , c1 , c2 , xg , cs , b, Neq ) et ǫp = ǫp (ry , c1 , c2 , xg , cs , b, Neq ) sont les amplitudes de déformations élastique et plastique au cours d’un cycle stabilisé. σmax = σmax (ry , c1 , c2 , xg , cs , b, Neq ) est la contrainte maximale. E est le module d’Young du matériau, considéré comme déterministe. Pour réduire les temps de calcul mécanique, le LMT Cachan utilise une stratégie multi-paramétrique couplée à la méthode LATIN [Relun, 2011] alors que l’UTC utilise une stratégie basée sur l’approximation des matrices de rigidité successives [Notin et al., 2012] mises en œuvre dans l’analyse non linéaire. Les calculs ont été mis en place avec la stratégie développée par le LMT. Figure 3.21 – Procédure de dialogue entre la méthode AK-IS et les algorithmes du LMT Cachan. Résultats de l’analyse de fiabilité Le couplage entre l’algorithme AK-IS de pilotage et les calculs mécaniques a été fait à distance selon la procédure schématisée en figure 3.21. Le tableau 3.10 récapitule les variables aléatoires mises en jeu dans cette analyse. La méthode AK-IS a été utilisée pour piloter les calculs mécaniques. La fonction de performance G compare le critère de Smith-Watson-Topper en contrainte σSWT (uf , Neq ) à Neq cycles à son équivalent en sollicitation rSWT (uf , Neq ) à Neq cycles. Le tableau 3.11 présente les résultats. L’approximation FORM nécessite 19 appels à la fonction de performance c’est-à-dire 16 appels au modèle mécanique puisqu’une modification de la variable Uf n’engendre pas de nouveau calcul mécanique. Les probabilités obtenues sont normées par rapport à la Nicolas Gayton Page 115/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Variables aléatoires Appellation Distribution Ry limite d’élasticité Lognormale C1 Variable d’écrouissage 1 Lognormale C2 Variable d’écrouissage 2 Lognormale CS Coefficient de sévérité Gaussienne Uf Paramètre de la courbe S − N Gaussienne Tableau 3.10 – Récapitulatif des variables aléatoires du cas test de l’ailette. Méthode NE Pfnorm δ FORM 16 1 - AK-IS 27 1.01 2.5% Tableau 3.11 – Résultats de l’analyse de fiabilité dans le cas de l’ailette. Les probabilités de défaillance sont normées par rapport à la probabilité FORM pour des raisons de confidentialité. probabilité FORM pour des raisons de confidentialité. La méthode AK-IS nécessite uniquement 9 calculs supplémentaires pour classer les 104 tirages du tirage d’importance. Les résultats FORM et AK-IS sont très proches indiquant la faible non linéarité de la fonction de performance vis-à-vis des variables aléatoires. AK-IS a permis de valider le résultat FORM. Les résultats du calcul des élasticités sont présentés dans le tableau 3.12. Ils montrent le très faible impact de la variabilité des variables matériaux sur la fiabilité et au contraire la très forte influence des variables permettant la définition de la courbe S − N et du chargement, conclusion observée sur tous les cas test académiques et industriels. Un travail fondamental doit donc être fait pour améliorer et valider ces deux modélisations car le résultat en dépend fortement. Le gain en temps de calcul entre la méthode IS et AK-IS est environ d’un rapport 370. Un calcul IS complet couplé avec un modèle ABAQUS aurait nécessité 140 jours de calcul. Le temps de calcul de AK-IS avec Abaqus aurait été de 9 heures et le couplage entre la stratégie AK-IS et les méthodes avancées du LMT permet d’effectuer le calcul en 2,25 heures soit un gain considérable. 3.7 Conclusion et perspectives Ce chapitre a présenté une synthèse de mes activités de recherche dans le domaine de l’analyse de fiabilité des structures sollicitées en fatigue. Ces travaux sont issus pour partie des travaux de thèse de Doctorat de B. Echard et sont poursuivis dans le cadre de la thèse de Doctorat de S. Bucas en convention CIFRE avec la société Manitowoc. Ces travaux ont permis principalement de proposer une alternative à la méthode Contrainte - Résistance pour évaluer avec plus de confiance la probabilité de défaillance d’une structure sollicitée en fatigue ainsi que les facteurs d’importance permettant d’identifier les variables dont le poids est très important sur la probabilité de défaillance. Cette stratégie a été couplée aux méthodes AK-RM pour obtenir ces résultats de façon économique c’est-à-dire avec le moins de calculs mécaniques possibles. 19 décembre 2012 Page 116/172 HDR, Nicolas Gayton Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Chargement Fatigue 2 αR y Matériau 2 αC 1 2 αC 2 2 αC S 2 αU f 2, 5 × 10−5 1, 6 × 10−5 0, 4 × 10−5 0, 270 0, 729 Tableau 3.12 – Facteurs d’importance (αi2 ) des différentes variables aléatoires. Les différents cas tests académiques et industriels (un autre cas test industriel non présenté dans ce rapport a été traité dans le cadre de l’action de transfert de technologie avec la SNECMA) montrent tous que : • les variables géométriques n’ont que peu d’impact sur la probabilité de défaillance (pour des intervalles de tolérance classiques) ; • la probabilité de défaillance est fortement induite par les variables entrant dans la définition du chargement et de la courbe S − N . Les conclusions précédentes permettent la définition des perspectives de ces travaux. Il est très difficile via les critères AIC et BIC à disposition de justifier l’utilisation d’une modélisation de courbe S − N particulière, de même pour la définition du chargement qui influe forcément énormément sur les résultats fiabilistes. Les perspectives s’articulent donc autour de deux voies principales : • la justification de la modélisation de la courbe S − N probabiliste ; • la justification de la modélisation stochastique du chargement pour une analyse de fiabilité. L’uti- lisation des travaux de Nagode ainsi que l’utilisation de chaı̂nes de Markov dans ce contexte sont à examiner en profondeur. Nicolas Gayton Page 117/172 19 décembre 2012 Chapitre 3 : Dimensionnement fiable des structures sollicitées en fatigue Synthèse du chapitre Objectif. Proposer une démarche d’analyse probabiliste des structures sollicitées en fatigue permettant de donner une estimation plus précise de la probabilité de défaillance tout en fournissant les sensibilités de la probabilité de défaillance aux différents écarts-types des lois. Méthodologie. Prise en compte de ce type de problème en remontant d’un niveau d’échelle d’observation par rapport à la méthode Contrainte - Résistance. Utilisation de la méthode AK-IS pour piloter le synoptique de calcul proposé. Résultats obtenus. Un synoptique de calcul couplé à la méthode AK-IS pour obtenir la probabilité de défaillance et les facteurs d’importance à moindre coût. Contexte de ces travaux • Thèse CIFRE CETIM / UTC / IFMA de A. Notin soutenue en mai 2011. • Projet ANR APPROFI, thèse de B. Echard. • Thèse CIFRE S. Bucas avec la société Manitowoc. • Master Recherche de S. Bucas. Production scientifique • 3 revues référencées ISI : – ECHARD B., GAYTON N., LEMAIRE M., RELUN N., A combined Importance Sampling and Kriging reliability method for small failure probabilities with time demanding numerical models, Reliability Engineering and System Safety, accepté le 26/10/2012. – ECHARD B., GAYTON N., LEMAIRE M., AK-MCS : an Active learning reliability method combining Kriging and Monte Carlo Simulation, Structural Safety, Vol 33, pages 145-154, 2011. – GAYTON N., LEMAIRE M., Reliability assessment of structures subjected to fatigue failure, Ships and Offshore Structures, Vol 4(3), pages 229-239, 2009. • 4 conférences internationales 19 décembre 2012 Page 118/172 HDR, Nicolas Gayton Chapitre 4 Analyse des tolérances par calcul du taux de non conformité Sommaire 4.1 Introduction 4.2 Méthode APTA pour la modélisation des lots de fabrication . . . . . . . . 121 4.3 4.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 4.2.1 Capabilités et zone de conformité des lots . . . . . . . . . . . . . . . . . . . . . 121 4.2.2 Présentation des spécificités de la grande série . . . . . . . . . . . . . . . . . . . 122 4.2.3 Brève revue bibliographique sur l’analyse des tolérances . . . . . . . . . . . . . 122 4.2.4 La méthode APTA Advanced Probability based Tolerance Analysis . . . . . . . 125 4.2.5 Illustration de la méthode APTA sur un exemple académique . . . . . . . . . . 130 4.2.6 Application à l’analyse des tolérances d’un système sans jeu . . . . . . . . . . . 131 4.2.7 Conclusion sur la méthode APTA . . . . . . . . . . . . . . . . . . . . . . . . . 134 Analyse des tolérances des systèmes hyperstatiques avec jeux . . . . . . . 135 4.3.1 Revue bibliographique concernant la prise en compte des jeux . . . . . . . . . . 136 4.3.2 Nouvelle approche basée sur les méthodes de fiabilité système . . . . . . . . . . 138 4.3.3 Application à un connecteur RADIALL . . . . . . . . . . . . . . . . . . . . . . 140 4.3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Conclusion et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 Synthèse du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 119 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité 4.1 Introduction Dans l’industrie mécanique, les exigences d’un client vis-à-vis d’un système mécanique sont définies par des exigences fonctionnelles permettant de garantir le bon fonctionnement du produit et par des exigences qualité permettant de quantifier la robustesse de la conception vis-à-vis des aléas de fabrication autorisés. Les exigences fonctionnelles sont traduites par l’intermédiaire de chaı̂nes de cotes. Ces chaı̂nes de cotes mettent en œuvre des grandeurs d’intérêt d’un point de vue fonctionnel notées Y . Ces grandeurs d’intérêt sont fonction de n cotes élémentaires notées Xi rassemblées dans le vecteur X et de p variables de jeu notées di rassemblées dans le vecteur d caractérisant la position relative des pièces les unes par rapport aux autres dans le système mécanique : Y = f (X, d) (4.1) Cette relation peut mettre en œuvre une fonction f linéaire ou non, explicite ou non lorsque l’évaluation de cette fonction nécessite une résolution numérique particulière (par la méthode de éléments finis par exemple) ou l’utilisation d’un module CAO. Cette grandeur d’intérêt permet alors la définition mathématique des exigences fonctionnelles sous la forme : Y ∈ [LSLY ; U SLY ] (4.2) où LSLY et U SLY sont les bornes fonctionnelles, l’une des deux bornes de l’intervalle pouvant être infinie. Le bon fonctionnement d’un système mécanique complexe met naturellement en œuvre plusieurs grandeurs d’intérêt. Les exigences qualité formulées par le client sont définies par une probabilité maximum admissible que le produit ne puisse remplir sa fonction. Cette probabilité notée PD est appelée Taux de Non Conformité (TNC) et est définie mathématiquement par : PD = Prob(Y ∈ / [LSLY ; U SLY ]) (4.3) Le calcul de ce Taux de Non-Conformité (TNC) s’effectue en supposant que chaque cote Xi est conforme à ses spécifications. En fabrication de grande série, chaque cote Xi est définie par sa valeur nominale Ti , par son intervalle de tolérance ti (défini par la borne supérieure U SLi diminuée de la borne inférieure LSLi , ti = U SLi − LSLi ) et par deux exigences de capabilité permettant de contrôler les caractéristiques statistiques (écart-type σi et décalage de moyenne δi = µi − Ti , mi étant la moyenne de la distribution de la cote Xi ) de chaque lot de fabrication dont elle est issue. Ces notions sont abordées en section 4.2.1. Dans un monde industriel très compétitif, les entreprises du secteur de la mécanique s’intéressent de plus en plus à ce taux de non conformité pour des raisons économiques et environnementales en maı̂trisant les retours garanties et les rebuts de fabrication. Plus particulièrement, l’analyse des tolérances permet de répondre à plusieurs questions : • Analyse de la qualité : quel est le niveau de qualité d’un sous-ensemble, produit ou mécanisme ? • Analyse de sensibilité : quelles sont les cotes, dimensions ou variables importantes vis-à-vis du TNC ? Quelles sont les cotes critiques de la conception qui doivent être surveillées en priorité ? Quelles sont les cotes dont la non conformité est catastrophique pour le niveau de qualité ? 19 décembre 2012 Page 120/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Fiabilité des structures Analyse des tolérances Variables aléatoires Cotes conformes aux spécifications Probabilité de défaillance Taux de non conformité . Fonction de performance Exigence fonctionnelle Fiabilité système Analyse des tolérances d’un système complet Analyse de sensibilité stochastique Définition des cotes critiques Conception basée sur la fiabilité Synthèse des tolérances Tableau 4.1 – Mise en relation des vocabulaires utilisés en fiabilité des structures et analyse des tolérances. • Réglage du niveau de qualité : quels intervalles de tolérance ou exigences de qualité doivent être définis en relation avec un certain TNC ? Cette problématique est aussi appelée synthèse des tolérances. Les méthodes de fiabilité, développées en général dans un contexte de résistance mécanique des structures, rassemblent des outils et méthodes qui permettent de façon générale d’introduire l’incertain dans des modèles physiques. Le taux de non-conformité relatif à l’exigence fonctionnelle de tenue mécanique est appelée la probabilité de défaillance. Les problèmes d’analyse des tolérances et de fiabilité des structures sont très proches. Le tableau 4.1 met en relation les vocabulaires utilisés dans les deux disciplines. L’objectif de ce chapitre est de présenter plusieurs méthodologies et applications des méthodes fiabilistes dans le cadre de l’analyse des tolérances des systèmes mécaniques. Ces travaux ont été réalisés dans le cadre des travaux de thèse de Paul Beaucaire. Ils sont présentés en deux parties. Tout d’abord ce chapitre aborde le problème de la gestion des lots de fabrication en grande série dont les caractéristiques sont elles mêmes incertaines du fait des aléas de fabrication entre les lots (différents régleurs, différentes conditions météo, différents lots matières, usure des outillages, ...). La stratégie de calcul mise en place, nommée APTA Advanced Probability - based Tolerance Analysis of products, est présentée sur deux cas tests issus de mécanismes sans jeu. La seconde partie de ce chapitre est dédiée à l’analyse des tolérances des systèmes mécaniques avec jeux. Une stratégie innovante, au périmètre restreint, est présentée en utilisant des techniques de fiabilité système. Les problématiques de sensibilité et de synthèse des tolérances ont été abordées dans les travaux de Paul Beaucaire mais ne sont pas rapportées dans ce document. 4.2 4.2.1 Méthode APTA pour la modélisation des lots de fabrication Capabilités et zone de conformité des lots La passage progressif des méthodes arithmétiques de justification des intervalles de tolérance aux méthodes statistiques a été accompagné sur les plans de définition par l’ajout d’exigences de capabilité permettant de contrôler les distributions statistiques des lots des pièces fabriquées. Les niveaux de capabilité Cpi et Cpki d’un lot sont définis pour la dimension Xi par : Cpi = Nicolas Gayton ti 6σi Page 121/172 (4.4) 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.1 – Représentation de la zone de conformité d’un lot de fabrication (figure de gauche). Un lot est considéré conforme si ses caractéristiques statistiques le positionnent dans ce domaine. Présentation par des carrés de 10 lots de fabrication conformes (figure de droite). et : Cpki = ti /2 − |δi | 3σi (4.5) où mi , δi , σi sont respectivement la moyenne, le décalage de moyenne et l’écart-type de Xi . Sur ces deux équations, il est aisé de voir que Cpi ≥ Cpki quel que soit le lot et Cpi = Cpki pour un lot centré sur sa valeur nominale. Un lot de la dimension Xi est considéré conforme si ses niveaux de capabilité sont (r) (r) (r) (r) supérieurs aux exigences notées Cpi et Cpki , c’est-à-dire Cpi ≥ Cpi et Cpki ≥ Cpki . Ces inégalités peuvent être représentées dans un diagramme (δi , σi ) permettant ainsi la définition de la zone de conformité (r) (r) représentée en figure 4.1. Ce domaine a une forme trapézoı̈dale qui devient triangulaire si Cpki = Cpi . Un lot est considéré conforme s’il est positionné dans ce domaine. 4.2.2 Présentation des spécificités de la grande série Dans le domaine de la grande série, la fabrication par lots engendre une spécificité majeure : les lois de probabilité de chaque cote ont des paramètres variables en fonction de l’instant de fabrication. La figure 4.2 montre un historique de fabrication de 10 lots d’une cote dont les bornes sont [19,9 - 20,1]. Ces différents lots de fabrication ont été positionnés par des carrés sur la zone de conformité dans la figure 4.1 (droite). Les moyennes des lois ainsi que les écarts-types apparaissent clairement elles-mêmes fonction de l’instant et des conditions de fabrication. La question du choix de la loi statistique des dimensions à considérer pour le calcul du TNC se pose. Le TNC est donc une fonction qui dépend des écarts-types σi et des décalages de moyenne δi des cotes Xi , les lois de probabilité des différentes variables étant communément considérées gaussiennes. 4.2.3 Brève revue bibliographique sur l’analyse des tolérances Fort heureusement pour les services de production, il existe une infinité de lots de fabrication conformes vis-à-vis des exigences de capabilité. Pour calculer le TNC, des hypothèses doivent être faites sur les distributions statistiques des dimensions. Plusieurs hypothèses peuvent être trouvées dans la littérature. Le lecteur pourra trouver un état de l’art sur ce sujet dans la référence [Nigam and Turner, 1995] et les différentes modélisations proposées peuvent être regroupées de la façon suivante : 19 décembre 2012 Page 122/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.2 – Historique des caractéristiques de 10 lots de fabrication dans l’intervalle de tolérance [19,920,1]. Chaque lot est représenté par des carrés en figure 4.1. • Distribution uniforme sur l’intervalle de tolérance [Greenwood and Chase, 1987; Scholtz, 1995]. Il s’agit d’une modélisation très conservative d’un point de vue qualité. Cette modélisation suppose qu’une dimension a autant de chance d’être localisée proche d’une de ses bornes que d’être localisée proche de sa valeur nominale. Cette hypothèse est peu réaliste en production de grande série et est très pessimiste pour évaluer le TNC. Elle est utilisée dans les méthodes dites arithmétiques. • Distribution gaussienne centrée sur la valeur nominale. Le décalage de moyenne est considé- ré nul, c’est-à-dire δi = 0. L’écart-type est considéré proportionnel à l’intervalle de tolérance en utilisant un paramètre k tel que σi = ti /k. Cette modélisation, proposée par [Bender, 1968], a été utilisée dans [J.M.Gilbert et al., 2005; Savage et al., 2006] dans différentes applications. k est en général fixé à 6 correspondant à un niveau de capabilité de 1 du lot considéré. Cette modélisation semble être optimiste car différents phénomènes (usure des outils, réglages, ...) conduisent à des décalages de moyenne non nuls. Certains auteurs [Parkinson, 1982; Bennis et al., 2005] suggèrent d’intégrer de la corrélation statistique entre les dimensions provenant d’une même pièce. D’autres auteurs [Bender, 1968; Scholtz, 1995] s’interrogent sur la distribution statistique des dimensions : non gaussienne, multi-modale, tronquée. • Distributions gaussiennes décentrées [Greenwood and Chase, 1987; Scholtz, 1995; Ballu et al., 2008]. Le décalage de moyenne a une importance considérable sur le calcul du TNC comme le souligne [Graves and Bisgaard, 2000]. Plusieurs auteurs s’accordent sur le fait que l’écart-type est lié aux capabilités du process de fabrication et que le décalage de moyenne peut varier entre des bornes définies par les exigences de capabilité. Le décalage de moyenne est défini par [Scholtz, 1995] par la relation |δi | = ηi ti /2, ηi étant un coefficient fixé a priori entre 0 et 1. ηi = 0, 2 a été suggéré Nicolas Gayton Page 123/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité par [Scholtz, 1995]. L’écart-type σi peut être déduit, en considérant que le niveau de capabilité vaut Cpki = 1, grâce à la relation : σi = ti (1 − η) 6 (4.6) • Distribution dynamique [Gladman, 1979]. Cette modélisation est basée sur deux observations. La première, comme évoqué dans le point précédent, concerne le lien entre l’écart-type de la distribution et le process utilisé. La seconde observation concerne l’usure des outils modifiant progressivement le décalage de moyenne de la distribution statistique jusqu’à ce que l’outil soit réparé. Le décalage de moyenne δi est en conséquence une variable aléatoire qui peut varier entre une borne minimum et un maximum. Dans la référence [Gladman, 1979], ce genre de modélisation est utilisé pour prédire l’intervalle de variation de la grandeur fonctionnelle et le calcul du TNC associé à des bornes fonctionnelles. Les trois premières modélisations ont été largement utilisées pour calculer le TNC. Le premier inconvénient de ces modélisations est qu’il reste difficile de choisir parmi les trois possibilités sachant que ce choix conditionne les résultats en terme de TNC. Il est tout aussi difficile de savoir quelle est la modélisation la plus pessimiste. Le second inconvénient est que la variabilité des grandeurs statistiques des dimensions (décalage de moyenne δi , écart-type σi ) au cours des lots de fabrication n’est pas considérée. Le troisième inconvénient est que la connaissance du process de fabrication n’est pas considérée pour la définition du modèle probabiliste des dimensions. Pour illustrer ces propos et justifier la nécessité de la prise en compte des variabilités des propriétés des lots, considérons l’exercice suivant. Un fournisseur doit livrer 1000 pièces en 10 lots différents. Ce fournisseur s’engage sur 3000ppm c’est-à-dire qu’il a le droit de fournir 3 pièces hors tolérance. Le tableau 4.2 montre les niveaux de ppm de chaque lot. Quasiment un lot sur 2 ne respecte pas l’exigence qualité de 3000ppm et pourtant au total, par un effet de moyenne, le nombre de pièces hors tolérance n’excède pas 3. Il faut donc bien différencier le TNC ponctuel sur un lot et le TNC long terme sur un ensemble de lots de fabrication, TNC que nous allons essayer d’évaluer dans la section suivante en nous basant sur l’approche dynamique nommée APTA. Pour toutes les références bibliographiques citées, le TNC est évalué en utilisant des hypothèses déterministes sur les paramètres (δi , σi ) des lois. La probabilité obtenue est donc une probabilité conditionnée par la connaissance de δi , σi . Cette probabilité, dite court terme, ponctuelle ou encore conditionnée, est notée PD|δ,σ dans la suite. Pour des problèmes sans jeu, si Y = f (X) est une expression Pn linéaire (cas d’un empilage de pièces), c’est-à-dire Y = a0 + i=1 ai Xi , le TNC conditionné peut être calculé par la relation suivante : PD|δ,σ = = Prob(Y (δi , σi ) ≤ LSLY ) + Prob(Y (δi , σi ) ≥ U SLY ) µY (δi ) − U SLY LSLY − µY (δi ) +Φ Φ σY (σi ) σY (σi ) (4.7) où Φ est la fonction de répartition de la gaussienne centrée réduite, µY est la valeur moyenne de Y Pn Pn (µY (δi ) = a0 + i=1 ai (Ti + δi )) et σY est l’écart-type de Y (σY (σi ) = i=1 a2i σi2 ) pour des variables indépendantes. Le premier terme de l’équation 4.7 représente le TNC par rapport à la borne inférieure et le second terme par rapport à la borne supérieure. Si l’exigence fonctionnelle est définie à l’aide d’une seule borne, le terme inutile est enlevé de l’expression. Si f a une forme non linéaire, l’équation 4.7 ne peut pas être utilisée telle quel. Quelle que soit l’expression de f le calcul peut toujours se faire 19 décembre 2012 Page 124/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Numéro du lot (100 pièces / lot) Niveau de ppm Nombre de pièces non conformes 1 200 0,02 2 10000 1 3 100 0,01 4 5000 0,3 5 100 0,01 6 300 0,03 7 10000 1 8 2000 0,02 9 5000 0,5 10 100 0,01 TOTAL 2,90 . Tableau 4.2 – Illustration de la problématique de calcul du TNC long terme. par simulation de Monte Carlo qui peut devenir rapidement très consommatrice en temps de calcul comme évoqué à plusieurs reprises dans les chapitres précédents. Pour réduire ce temps de calcul dans le contexte de l’analyse des tolérances, les références [Savage et al., 2006; Ballu et al., 2008] proposent d’utiliser la méthode FORM pour évaluer PD|δ,σ , consistant en une linéarisation des fonctions d’état-limite G1 (Xi ) = f (Xi )−LSLY et G2 (Xi ) = U SLY −f (Xi ) autour du point de défaillance le plus probable. Une autre méthode intéressante nommée SOTA [Glancy and Chase, 1999] peut être utilisée. Elle est basée sur un développement de Taylor à l’ordre 2 de Y et sur une approximation de la distribution de Y par une loi lambda généralisée à 4 paramètres permettant le calcul du TNC. Cette courte revue bibliographique souligne les limites des méthodes existantes pour prendre en compte les variabilités des paramètres δi , σi , caractérisant le process de fabrication, dans l’analyse des tolérances. En se basant sur des outils communément utilisés en fiabilité, une méthode innovante nommée APTA - Advanced Probability based Tolerance Analysis [Gayton et al., 2011a] est proposée pour intégrer les variabilités de δi , σi dans le calcul du TNC. 4.2.4 La méthode APTA Advanced Probability based Tolerance Analysis Définition du domaine de variation Les caractéristiques des lots de fabrication peuvent potentiellement décrire l’ensemble de la zone de conformité représentée dans la figure 4.1. Cependant, dans la pratique, l’écart-type d’un lot ne peut pas descendre en dessous d’une certaine valeur notée σimin correspondant à une valeur maximale de niveau de max capabilité notée Cpi obtenue dans des conditions optimales d’utilisation. La figure 4.3 représente alors le domaine appelé domaine de variation noté VD constituant réellement le domaine dans lequel les lots de fabrication peuvent varier dans la pratique. Nicolas Gayton Page 125/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.3 – Définition du domaine de variation VD. Formulation mathématique du TNC long terme L’objectif de la méthode APTA Advanced Probability based Tolerance Analysis [Gayton et al., 2011a] est donc de prendre en compte les variabilités des caractéristiques des lots de fabrication pour évaluer un taux de non conformité PD long terme plutôt qu’un taux de non conformité conditionné PD|δ,σ court terme. Dans la suite chaque lot de fabrication est supposé être distribué selon une loi gaussienne de moyenne δi et d’écart-type σi . La méthode peut être aussi utilisée pour des variables non gaussiennes. Les deux quantités δi et σi sont considérées comme des variables aléatoires définies par une loi de probabilité jointe dont la densité est notée hδ,σ (δi , σi ) dépendant du process de fabrication. Cette densité de probabilité est définie sur le domaine de variation VD et vaut zéro à l’extérieur. Soit les évènements suivants : • A : l’exigence fonctionnelle n’est pas satisfaite (Y est hors tolérance) ; • dBi : le décalage de moyenne du lot de Xi appartient à l’intervalle [δi ; δi + dδi ] et l’écart-type appartient à l’intervalle [σi ; σi + dσi ] • dB : constitue l’intersection des évènements dBi , dB : ∩ni=1 dBi pour toutes les dimensions. La probabilité de l’évènement dBi est définie par : Prob(dBi ) = hδ,σ (δi , σi )dδi dσi et : Prob(dB) = n Y hδ,σ (δi , σi )dδi dσi (4.8) (4.9) i=1 sous l’hypothèse d’évènements dBi indépendants ce qui est en pratique vrai si les dimensions Xi ne sont pas fabriquées dans la même opération. Alors, la probabilité de l’évènement A sachant l’évènement dB est la probabilité conditionnée : Prob(A|dB) = PD|δ,σ (δi , σi ) 19 décembre 2012 Page 126/172 (4.10) HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité En utilisant le théorème de Bayes, il vient : Prob(A ∩ dB) = Prob(A|dB)Prob(dB) = PD|δ,σ (δi , σi ) n Y hδ,σ (δi , σi ) (4.11) i=1 et finalement par considération de l’ensemble des lots potentiels appartenant au domaine de variation VD : PD = Z VD Prob(A ∩ dB) = Z PD|δ,σ (δi , σi ) VD n Y hδ,σ (δi , σi )dδi dσi (4.12) i=1 Cette relation constitue l’expression mathématique du TNC selon l’approche APTA. Il s’agit d’une espérance mathématique, c’est-à-dire d’une moyenne des taux de non conformité ponctuels ou conditionnels comme cela a été fait dans l’illustration de la section 4.2.3 et dans le tableau 4.2. Le calcul de PD est numériquement délicat puisqu’il s’agit d’une intégrale de dimension 2n, n étant le nombre de dimensions dans la chaı̂ne. Ce point est abordé en section suivante. Cependant le calcul numérique n’est pas le point le plus délicat de cette approche qui est constitué par la détermination de l’expression de la densité conjointe hδ,σ (δi , σi ). Pour ce faire, la première approche consiste pour l’industrie à capitaliser des mesures sur des technologies utilisées par l’entreprise. C’est ce qui est actuellement en cours chez Valeo SE où des mesures de plusieurs lots d’une même dimension sont en cours pour pouvoir caractériser la densité hδ,σ (δi , σi ). Ceci demande un investissement considérable mais le gain potentiel en terme d’intervalles de tolérance en vaut la chandelle (ceci est développé lors de la présentation des applications dans les sections suivantes). Une autre alternative est de borner PD en cherchant les caractéristiques statistiques δi , σi des lots appartenant à VD les pires d’un point de vue de PD . En effet : PD = Z PD|δ,σ (δi , σi ) VD n Y i=1 hδ,σ (δi , σi )dδi dσi ≤ maxδ,σ∈VD PD|δ,σ (δi , σi ) (4.13) U Cette borne supérieure, nommée PD dans la suite, est obtenue pour les lots les plus décentrés possibles max ). Avec cet écart-type le c’est-à-dire ayant un écart-type le plus faible c’est-à-dire σi = σimin = ti /(6Cpi décalage de moyenne maximum est donné par : δimax ti = 2 (r) 1− Cpki max Cpi ! (4.14) et : U PD = PD|δ,σ (±δimax , σimin ) (4.15) Le signe ± indique que le sens du décalage le plus pénalisant est à identifier en fonction du problème U à traiter. Outre le fait que la probabilité PD est beaucoup plus simple à évaluer numériquement, elle max demande surtout une connaissance moindre du process puisque seul Cpi doit être identifié par process. Nous montrons dans les applications que cette borne supérieure de PD est très pénalisante. Calcul numérique de PD L’expression définie en équation 4.12 représente l’expression de l’espérance mathématique de la probabilité conditionnée PD|δ,σ (δi , σi ). Pour réduire le temps de calcul de cette intégrale de dimension 2n, le Nicolas Gayton Page 127/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité calcul de PD est effectué à l’aide d’une méthode de Monte Carlo de la façon suivante : N 1 X (k) (k) PD|δ,σ (δi , σi ) PD = E PD|δ,σ (δi , σi ) ≈ P̃D = N (4.16) k=1 (k) (k) où δi , σi sont simulés selon la densité conjointe hδ,σ (δi , σi ). Le nombre de simulations N doit être fixé en accord avec la taille de l’intervalle de confiance à 95% défini par : 1, 96 1, 96 P̃D − √ σP ≤ PD ≤ P̃D + √ σP N N (4.17) où σP est l’écart-type de l’estimateur de PD défini par : σP = P̃D s 1 − P̃D N P̃D (4.18) Dans les applications, N est fixé de façon à avoir un intervalle de confiance de taille inférieure à 1ppm. (k) (k) Le calcul répété de PD|δ,σ (δi , σi ) peut se faire soit en utilisant l’équation 4.7 soit en utilisant une approximation FORM ou SOTA si f est non linéaire. Pour ce calcul, la méthode de Monte Carlo n’est absolument pas appropriée car devant être répétée un grand nombre de fois. Le calcul effectué en équation 4.16, permet aussi, sans calcul supplémentaire, d’obtenir la probabilité que PD|δ,σ dépasse ponctuellement une certaine valeur (par exemple 10ppm), résultat qui intéresse fortement les industriels pour connaı̂tre le risque d’avoir ponctuellement des lots de mauvaise qualité. Application à un process de fabrication parfaitement stable Pour un process de fabrication parfaitement stable dans le temps, le décalage de moyenne et l’écarttype des lois ont des caractéristiques constantes, c’est d’ailleurs le cas des modélisations de la littérature. Dans un tel cas : hδ,σ (δi , σi ) = +∞ pour σi = σi0 et δi = δi0 = 0 sinon (4.19) Une représentation est fournie en figure 4.4. Le calcul du taux de non conformité devient : PD = PD|δ,σ (δi0 , σi0 ) (4.20) correspondant aux méthodes classiques de calcul du taux de non conformité avec : • δi0 = 0 et σi0 = ti /6 pour une approche centrée avec Cpi = 1 ; • δi0 = ηi ti /2 et σi0 = ti /6(1 − ηi ) pour une approche décentrée suggérée par [Scholtz, 1995]. Application à un process de fabrication à écart-type constant Pour un process de fabrication évoluant à écart-type constant σimin et décalage de moyenne aléatoire, c’est le cas des process lourds tels que les process d’injection ou d’emboutissage, la densité conjointe hδ,σ (δi , σi ) = hδ,σ (δi , σimin ) peut prendre des expressions uniformes ou gaussiennes tronquées sur l’intervalle ±δimax défini en équation 4.14 comme illustré en figure 4.4. 19 décembre 2012 Page 128/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.4 – Principales densités conjointes de probabilité des décalages de moyennes et écarts-types. Nicolas Gayton Page 129/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.5 – Illustration académique. . X1 X2 Ti 6 4 ti 0,59 0,59 (r) Cpi (r) Cpki 1 1 1 1 Tableau 4.3 – Paramètres de conception de l’illustration académique. Application à un process de fabrication à écart-type et décalage de moyenne aléatoires De façon générale, il est possible de définir une expression quelconque de hδ,σ (δi , σi ) sur tout le domaine VD. Des représentations uniformes et gaussiennes sont représentées en figure 4.4. Extension de la méthode APTA au tolérancement inertiel La méthode APTA peut être étendue à d’autres indices de capabilité comme les indices de capabilité inertiels [Pillet, 2004] définissant une zone de conformité circulaire. Le lecteur pourra trouver une analyse plus approfondie et comparative dans la référence [Gayton et al., 2011b] en utilisant la méthode APTA sur les deux domaines. 4.2.5 Illustration de la méthode APTA sur un exemple académique Pour illustrer les intérêts de la méthode sur un exemple simple, considérons l’assemblage de la figure 4.5 constitué de deux pièces de largeurs X1 et X2 . Les paramètres de conception sont définis arbitrairement dans le tableau 4.3. L’exploration de la zone de conformité est effectuée et les valeurs des taux de non conformité sont 0 fournies graphiquement en figure 4.6 (gauche) en fonction de la valeur d’écart-type définie par Cpi . Les TNC obtenus à partir des distributions centrées sont très proches de zéro, ce qui remet en cause la pertinence des distributions centrées proposées dans la littérature. Par contre, sur le pourtour du 0 U triangle, le TNC augmente fortement lorsque Cpi diminue. Ceci confirme la définition de PD obtenu pour le décalage de moyenne le plus important et donc l’écart-type le plus faible. 0 Les résultats de l’approche APTA, avec écart-type constant Cpi et décalage de moyenne uniformément répartis, sont fournis en figure 4.6 (droite). Les résultats montrent l’écart entre un TNC au pire des cas U statistiques PD et un TNC fourni par l’approche APTA en moyennant les TNC ponctuels sur tout le domaine de variation. Les résultats de l’approche APTA avec écart-type et décalage de moyenne 19 décembre 2012 Page 130/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.6 – Illustration académique - Taux de non conformité ponctuels à gauche et APTA avec décalage de moyenne uniformément répartis à droite. Résultats APTA Résultats de la littérature PD U PD Dist. uniforme dans ti Dist. gaussienne centrée avec σi = ti /6 Distribution gaussienne décentrée avec Cpki = 1 et η = 0, 2 33ppm 1551ppm 18000ppm 318ppm 291ppm Tableau 4.4 – Comparaison APTA / littérature sur illustration académique. uniformément répartis sur le domaine de variation sont fournis en figure 4.7 en fonction de la valeur de 0 Cpi . Les différences sont encore plus importantes par rapport à une approche au pire des cas statistiques montrant ainsi les gains potentiels de l’utilisation de ce genre d’approche. Le tableau 4.4 compare les TNC obtenus avec les méthodes de la littérature et le TNC APTA avec max arbitrairement Cpi = 2. Il montre que les résultats de la littérature, à part la modélisation très pessimiste uniforme dans l’intervalle de tolérance, ne représente pas une borne supérieure du TNC. Pour une exigence qualité client de 50ppm, toutes les approches auraient conduit à modifier la conception en resserrant les intervalles de tolérance alors qu’une analyse fine du process de fabrication pourrait permettre d’accepter la conception. 4.2.6 Application à l’analyse des tolérances d’un système sans jeu L’application présentée est une application industrielle fournie par la société RADIALL pour laquelle la fonction f présente une expression non linéaire. Pour avoir accès à d’autres applications, le lecteur pourra se référer à la référence [Gayton et al., 2011a] ou bien au rapport de thèse de Paul Beaucaire. Le système étudié est présenté en figure 4.8. Il s’agit d’un axe (pièce 1) monté dans son logement (pièce 2). Ce montage est assuré par deux liaisons pivot et est donc hyperstatique. La société RADIALL Nicolas Gayton Page 131/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.7 – Illustration académique - Taux de non conformité APTA avec décalage de moyenne et 0 écart-type uniformément répartis en fonction de Cpi . Figure 4.8 – Application industrielle, problème de débattement de contact. 19 décembre 2012 Page 132/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité . (r) (r) Dim. Ti ti Cpi = Cpki max Cpi cm1 10,53 0,2 1,1 1,6 cm3 0,75 0,04 1,1 1,6 cm4 0,643 0,015 1,1 1,6 cm5 0,1 0,2 1,1 1,6 cm6 0 0,06 1,1 1,6 cm7 0 0,2 1,1 1,6 cm8 0,72 0,04 1,1 1,6 cm9 1,325 0,05 1,1 1,6 cm10 0 0,04 1,1 1,6 ima2 3,02 0,06 0,86 1,36 ima3 0,4 0,06 0,86 1,36 ima17 0,72 0,04 0,86 1,36 ima19 0,97 0,04 0,86 1,36 ima20 0 0,04 0,86 1,36 Tableau 4.5 – Paramètres de conception de l’application industrielle. Les variables δi et σi de chaque dimension sont considérées aléatoires uniformément distribuées. Figure 4.9 – Résultats obtenus sur l’application industrielle non linéaire. Résultats APTA . Résultats de la littérature PD U PD Dist. uniforme dans ti Dist. gaussienne centrée avec σi = ti /6 Distribution gaussienne décentrée avec Cpki = 1 et η = 0, 2 26ppm 43855ppm 8629ppm 300ppm 3994ppm Tableau 4.6 – Comparaison APTA / littérature sur l’application industrielle non linéaire pour S = 0, 52. Nicolas Gayton Page 133/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité s’intéresse à la grandeur Y constituant le déplacement, appelé débattement de contact, en bout d’axe. Ce déplacement doit être limité pour garantir un bon encliquetage avec la pièce opposée non représentée en figure 4.8. L’expression de la grandeur Y est délicate puisque le système est hyperstatique. Son expression en supposant les points de contact est définie par des variables intermédiaires : c = i = h = α = r2 = z = J1 = J2 = J3 = Y = cm4 + cm8 + cm7 2 ima17 + ima19 + ima20 2 ima2 + ima3 c i Arccos √ − Arccos √ i2 + h 2 i2 + h 2 ima19 +ima20 /2 2 − cm8 +cm7 /2 2cos(α) tan(α) r2 + ((cm9 + cm10 /2)/2 + cm7 /4)tan(α) cos(α) (cm1 − cm3 − z)sin(α) cm7 /4cos(α) cm5 + cm6 cos(α) 2 J1 + J2 + J3 (4.21) Les variables cmi et imai sont les variables définissant la géométrie des deux pièces. Le traitement d’une application très proche en prenant en compte l’hyperstaticité dans la définition de Y est abordée en section 4.3 de ce chapitre. La relation 4.21 est simplement obtenue par des considérations géométriques. Elle est constituée de 14 variables géométriques définies dans le tableau 4.5. Les variables δ et σ de chaque dimension sont considérées aléatoires uniformément distribuées. La grandeur Y ne doit pas excéder une valeur seuil notée S. Les résultats obtenus sont présentés graphiquement en fonction de S dans la figure 4.9. Plus le seuil S toléré est important plus le TNC diminue logiquement. La différence entre le TNC U APT PD et le TNC au pire des cas statistiques PD est considérable ce qui montre bien le gain potentiel de l’investissement dans la connaissance du process de fabrication. La comparaison des résultats avec des modélisations de la littérature est proposée en tableau 4.6 pour S = 0, 52. Hormis la modélisation uniforme qui fournit des résultats réellement pessimistes, les résultats de la littérature sont très loin de U la valeur de TNC le pire PD alors que la valeur APTA est potentiellement beaucoup plus faible. 4.2.7 Conclusion sur la méthode APTA L’expression mathématique du taux de non conformité (équation 4.12) est la base de la méthode APTA proposée. L’utilisation de cette approche nécessite d’investir dans la connaissance de l’évolution au cours du temps des process de fabrication utilisés, chose que Valeo SE est en train de faire dans le cadre du projet AHTOLA. Les campagnes de mesure nécessaires sont lourdes à mener et prennent plusieurs U mois voire années. Si cette information n’est pas disponible, le TNC peut être borné par PD , appelé calcul au pire des cas statistiques, nécessitant uniquement de définir la valeur maximale de capabilité que le process peut atteindre dans des conditions optimales de fabrication. Ce choix est extrêmement pessimiste car il est peu probable que les lots de fabrication les pires soient tous assemblés en même temps. Grâce à la modélisation de la densité conjointe hδ,σ (δi , σi ) il apparait aussi possible de pouvoir 19 décembre 2012 Page 134/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.10 – Synoptique d’utilisation de l’approche APTA en phase de conception. considérer dans un même calcul des lots de fabrication provenant d’outils multi-empreintes en définissant des densités conjointes multi-modales. De la même manière, des pièces provenant de fournisseurs différents avec des niveaux de qualité différents peuvent aussi être considérées avec ce schéma. Pour l’utilisation de cette démarche en conception, le synoptique 4.10 fournit la démarche générale U qui permet de faire le calcul de la borne supérieure PD dans un premier temps puis le calcul APTA si ce calcul au pire des cas statistiques n’est pas satisfaisant. 4.3 Analyse des tolérances des systèmes hyperstatiques avec jeux Pour assembler des systèmes hyperstatiques, il est possible soit de définir des jeux suffisants dans les liaisons pour garantir un bon montage dans toutes les configurations géométriques ou bien de compter sur la déformation des pièces pour assurer un bon montage. Cette section concerne uniquement l’étude des systèmes hyperstatiques considérés comme parfaitement rigides et donc assemblés avec jeux. Deux problématiques liées aux jeux nécessaires au bon montage sont traitées : • Problématique d’assemblage : le système est-il montable quelle que soient les déviations géométriques ? Quel est le TNC associé à l’exigence de montage du système ? • Problématique fonctionnelle : les jeux introduits pour le bon montage peuvent ensuite être gênants d’un point de vue fonctionnel. La problématique est donc de savoir calculer le TNC du système mécanique avec jeu associé à une exigence fonctionnelle particulière. Cette section se focalise particulièrement sur les problématiques fonctionnelles. Les problématiques d’assemblage sont partiellement présentées car en général plus simple à traiter. Une application non triviale, fournie par Valeo SE et liée à des problèmes d’assemblage, peut être consultée dans [Beaucaire et al., 2012b]. Nicolas Gayton Page 135/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Les déviations géométriques des pièces sont uniquement considérées comme étant d’ordre dimensionnel et de position (localisation et orientation). Les défauts de forme ainsi que les défauts de position des surfaces les unes par rapport aux autres (coaxialité, perpendicularité, ...) ne sont pas considérées dans cette section. Le vecteur des dimensions ou des écarts géométriques noté X est donc uniquement constitué de ce genre de variables. 4.3.1 Revue bibliographique concernant la prise en compte des jeux Plusieurs stratégies sont envisageables pour prendre en compte les jeux dans les systèmes hyperstatiques. Pour des problèmes fonctionnels la première méthode très simple consiste à supposer une configuration de points de contact c’est-à-dire une configuration isostatique du système qui est considérée la pire du point de vue du TNC fonctionnel et faire le calcul dans cette configuration. C’est ce choix qui a été fait pour traiter l’application industrielle de débattement de contact en section précédente et c’est cette stratégie qui est la plus souvent utilisée dans la littérature. Le problème induit concerne la possibilité de changement de points de contact les pires en fonction des déviations des pièces et donc la possibilité que les points de contact choisis ne soient pas toujours réalisables. Les références [Dantan and Qureshi, 2009] et [Qureshi et al., 2012] apparaissent très intéressantes à ce sujet et proposent une formulation du problème à traiter par quantifieurs : • formulation d’un problème d’assemblage : un système est considéré comme montable si pour toutes les déviations géométriques acceptables, il existe une configuration de jeux qui permet l’assemblage du système ; • formulation d’un problème fonctionnel : un système est considéré comme fonctionnel si pour toutes les déviations géométriques acceptables, et pour toutes les configurations de jeux, la fonction du produit est respectée. Les quantifieurs pour tous(tes) ∀ et il existe ∃ permettent une formulation rigoureuse des problèmes d’assemblage et fonctionnels ainsi que la définition des expressions mathématiques associées aux TNC d’assemblage (noté PDa ) et fonctionnel (noté PDf ). Formulation générale pour les problèmes d’assemblage Les contraintes d’assemblage peuvent s’exprimer en fonction des écarts géométriques X et de paramètres de position des pièces les unes par rapport aux autres. Ces paramètres de position ou de jeux entre les pièces sont notés d. Ce ne sont pas des variables aléatoires mais des variables qui peuvent évoluer librement de façon bornée par les dimensions des pièces environnantes. Ces contraintes d’assemblage sont notées mi (X, d), i variant de 1 à Nm (nombre de contraintes d’assemblage). L’assemblage est donc posT Nm mi (X, d) ≤ 0. A contrario, il est considéré comme non montable si quel que soit d il sible si ∃d i=1 existe i tel que mi (X, d) > 0. L’expression du TNC lié à un problème d’assemblage est donc défini par : PDa = Prob (∀d, ∃i|mi (X(ω), d) > 0) (4.22) ω représente l’aléa dont dépendent les variables aléatoires X. Cette expression est potentiellement complexe à calculer de par la présence de d et du quantifieur ∃ dans l’expression. Cependant dans la pratique (c’est le cas de l’application présentée dans cette section), par manipulation des fonctions mi entre elles, 19 décembre 2012 Page 136/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité il est possible de s’affranchir des jeux d. L’expression du TNC d’assemblage devient alors : PDa = Prob N m [ ! = 1 − Prob mi (X(ω) > 0 i=1 N m \ i=1 ! mi (X(ω)) ≤ 0 (4.23) Formulation générale pour les problèmes fonctionnels Si le mécanisme s’assemble, il est ensuite possible de vérifier la probabilité que sa fonction ne soit pas remplie du fait des jeux introduits. La caractéristique fonctionnelle Fc dépend des écarts géométriques X et des variables de position ou jeux d : Fc = f (X, d). L’exigence fonctionnelle doit être respectée pour toutes les configurations de jeux des pièces les unes par rapport aux autres. Les jeux sont des variables libres bornées par des conditions de non interpénétration de matière. Ces conditions sont définies mathématiquement par Nc fonctions de non interférence notées gi (X, d) ≤ 0, correspondants à Nc points de contact potentiels. Ces relations peuvent être établies en utilisant le torseur des petits déplacements [Bourdet et al., 1996], des matrices [Desrochers, 1999], des T-map [Ameta et al., 2007] ou par des considérations géométriques simples, option qui a été prise dans ces travaux qui restent a priori compatibles avec les autres approches. L’intersection de ces inéquations constitue le domaine de non interférence noté Ω(X), fonction des écarts géométriques X, représentant l’ensemble des positions d admissibles vis-à-vis des conditions de non interférence. Le système est donc considéré fonctionnel si : ∀d ∈ Ω(X), Fc (X, d) ∈ [Fcmin ; Fcmax ] Ω(X) : d/ Nc \ j=1 gj (X, d) ≤ 0 (4.24) où Fcmin et Fcmax sont les bornes fonctionnelles de Fc . Finalement l’expression du TNC PDf est : PDf = Prob(∃d ∈ Ω(X), Fc (X, d) ∈ / [Fcmin , Fcmax ]) = Prob(∃d ∈ Ω(X), Fc (X, d) ≤ Fcmin ) + Prob(∃d ∈ Ω(X), Fc (X, d) ≥ Fcmax ) (4.25) les évènements correspondants aux bornes supérieures et inférieures de Fc étant disjoints. Les deux termes de cette expression peuvent être calculés de la même manière. Dans la suite, seuls les calculs par rapport à la borne supérieur Fcmax sont présentés pour simplifier les expressions. Méthode de calcul par simulation de Monte Carlo et optimisation Le TNC fonctionnel défini par l’équation 4.25 peut être calculé par la méthode de Monte Carlo [Qureshi et al., 2012]. Du fait de la présence de jeux, le calcul du TNC nécessite de rechercher, pour chaque écart géométrique, la configuration de jeux la pire d’un point de vue fonctionnel. Cette recherche est assurée grâce à un algorithme d’optimisation permettant de trouver les jeux d appartenant à Ω(X) maximisant Fc (puisque qu’on ne s’intéresse maintenant qu’à la borne supérieure). Le TNC fonctionnel peut donc se reformuler de la façon suivante : PDf = Prob Nicolas Gayton max [Fc (X, d) > Fcmax ] d∈Ω(X) Page 137/172 (4.26) 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité L’algorithme de calcul est donc composé des étapes suivantes. Les trois premières étapes sont répétées NM C fois, NM C étant le nombre de tirages de Monte Carlo. 1. Un jeu de dimensions X(k) est généré aléatoirement selon les lois de X. 2. Le domaine Ω X(k) est alors constitué par les équations gi (X(k) , d). La quantité max d∈Ω(X(k) ) est calculée grâce à un algorithme d’optimisation. h i Fc X(k) , d (k) 3. L’indicateur de défaillance ou non conformité IDf est calculé : (k) IDf = 4. Finalement, PDf = E[IDf ] 1 si max d∈Ω(X(k) ) 0 sinon. h i Fc (X(k) , d) > Fcmax (4.27) où E[.] est l’opérateur d’espérance mathématique. L’intervalle de confiance classique de Monte Carlo est aussi défini de la même manière qu’exposé dans différentes sections de ce rapport. Cette méthodologie donne des résultats de référence mais nécessite un temps de calcul considérable lié à l’utilisation de la méthode de Monte Carlo (nombre de calculs de l’ordre de 106 ) couplée à un algorithme d’optimisation sous contrainte même s’il est utilisé sur des fonctions explicites. Une méthode alternative basée sur des techniques de fiabilité système est proposée dans la section suivante. 4.3.2 Nouvelle approche basée sur les méthodes de fiabilité système La méthodologie basée sur la recherche de la configuration de jeu la pire parmi Ω(X) est très générale mais très coûteuse en temps de calcul. La méthode proposée [Beaucaire et al., 2012a] est basée sur le fait que la configuration la pire d’un point de vue fonctionnelle se situe à l’intersection des fonctions de non interférence gi c’est-à-dire pour des points de contact donnés. Le but de la méthode est donc de considérer tous les points de contact possibles. Cette approche est appelée système car elle est composée d’un système d’évènements. Supposant une configuration de points de contact, l’expression de Fc devient indépendante de d, ce qui devient très intéressant en terme de calcul du TNC. Une situation de points de contact est définie par une position particulière des pièces les unes par rapport aux autres. Une situation de points de contact est définie de manière à immobiliser dans l’espace les pièces entre elles. En 3 dimensions, 6 fonctions de non interférence par pièce doivent être nulles, ce qui indique que 6 points de contact ont été identifiés : gi (X, d) = 0, i = 1 à 6. La résolution de ces équations conduit à la définition d’une configuration de points de contact notée d̂. Pour une réalisation de X, la configuration de points de contact d̂ est alors potentielle si les Nc − 6 autres fonctions gi (X, d) sont négatives. Si ce n’est pas le cas, la solution n’est pas acceptable. En faisant ce travail pour toutes les combinaisons de 6 fonctions de non interférence parmi les Nc disponibles, tous les configurations de points de contact potentiels sont identifiées pour une réalisation des dimensions X. Notons par Ns le nombre de situations de contact différentes (nombre de combinaisons de 6 parmi Nc pour une pièce en 3D) et par d̂i , i = 1...Ns les variables jeux associées issues de la résolution du système de 6 équations. Alors la recherche du maximum de Fc sur le domaine continu Ω(X) peut se ramener à une recherche discrète sur l’ensemble des situations 19 décembre 2012 Page 138/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité de points de contact admissibles, c’est-à-dire : Ns max (Fc (X, d)) = max Fc (X, d̂i ), i=1 d∈Ω(X) N\ c −6 j=1 gs̄(i) (X, d̂i ) ≤ 0 j (4.28) (i) où s̄j représente le vecteur contenant le numéro des équations de non interférence non prises en compte dans le calcul de d̂i . En accord avec les méthodes de fiabilité système et les équivalences (union/intersection avec les min/max sur l’ensemble des fonctions [Thoft-Christensen and Murotsu, 1986]), l’expression précédente peut se simplifier de la façon suivante : PDf = = = Ns Prob Fcmax − max Fc (X, d̂i ), i=1 Ns Prob min Li (X), Prob i=1 Ns [ i=1 N\ c −6 j=1 (Li (X) < 0) N\ c −6 j=1 gs̄(i) (X, d̂i ) ≤ 0 < 0 j gs̄(i) (X, d̂i ) ≤ 0 < 0 j N\ c −6 j=1 (4.29) gs̄(i) (X, d̂i ) ≤ 0 j où les fonctions Li (X) = Fcmax − Fc (X, d̂i ) sont des fonctions de performance associées au non respect de la condition fonctionnelle dans la configuration de contact d̂i . Le problème initial est donc transformé en un problème de calcul système de Ns unions de N c − 6 intersections d’évènements potentiellement dépendants. Pour simplifier cette expression, il est clair que toutes les situations de points de contact n’ont pas la même contribution au TNC fonctionnel. Il est donc possible de sélectionner uniquement quelques situations de points de contact par connaissance ou expertise ou bien en menant un calcul de Monte Carlo couplé à une optimisation de taille réduite (100 calculs d’optimisation par exemple) pour identifier les situations de points de contact prioritaires. Le nombre réduit de situations de points de contact est alors noté Nds < Ns . La formule de Poincaré permet de simplifier l’expression précédente en des probabilités uniquement d’intersections d’évènements : PDf = Nds X i=1 − + + X i<k ... Prob (Li (X) < 0) Prob (Li (X) < 0) N ds \ (−1)Nds −1 Prob i=1 N\ c −6 j=1 N\ c −6 j=1 gs̄(i) (X, d̂i ) ≤ 0 j N\ c −6 \ gs̄(i) (X, d̂i ) ≤ 0 (Lk (X) < 0) gs̄(k) (X, d̂k ) ≤ 0 (4.30) j (Li (X) < 0) j=1 N\ c −6 j=1 j gs̄(i) (D, d̂i ) ≤ 0 j Chacune de ces probabilités d’intersection d’évènements peut se calculer à l’aide des méthodes de fiabilité système, soit par simulations de Monte Carlo sur chaque évènement (peu coûteux car plus de problème d’optimisation à résoudre à chaque fois) si la non linéarité des différentes fonctions a un impact sur le TNC, soit en utilisant la méthode FORM système [Lemaire, 2009] linéarisant chaque fonction autour du Nicolas Gayton Page 139/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité point de défaillance le plus probable. 4.3.3 Application à un connecteur RADIALL Figure 4.11 – Application RADIALL avec jeux, présentation de la géométrie, des dimensions aléatoires D1 , ..., D7 et des paramètres de jeux ou position X, Y, α. Les jeux sont amplifiés pour des raisons de compréhension. Variable Moyenne Ecart-type D1 6 0.03 D2 6.1 0.03 D3 12 0.03 D4 12.1 0.03 D5 10.1 0.03 D6 10 0.03 D7 3 0.03 Tableau 4.7 – Application RADIALL avec jeux, caractéristiques des distributions des dimensions. L’application de cette méthode permet de fixer les concepts sur un exemple assez classique de deux pivots en série fourni par la société RADIALL et représentatif des connexions RADIALL. Le lecteur pourra trouver d’autres applications dans la référence [Beaucaire et al., 2012a]. La figure 4.11 présente la géométrie. Le vecteur X est défini par {D1 , D2 , D3 , D4 , D5 , D6 , D7 } et la position de l’axe (pièce 1) est définie par rapport à son logement (pièce 2) par le vecteur d = {X, Y, α}. Les défauts de coaxialité étant négligés, la symétrie de la géométrie est prise en compte en imposant α ≥ 0. Les dimensions {D1 , ..., D7 } sont modélisées par des variables aléatoires gaussiennes dont les caractéristiques sont définies dans le tableau 4.7. 19 décembre 2012 Page 140/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité TNC d’assemblage Les défauts de coaxialité entre les portées de la pièce 2 et entre les diamètres de la pièce 1 étant négligés, les conditions de montabilité sont très simples à exprimer. Le système est montable si les 3 fonctions suivantes sont simultanément négatives : m1 (X) = D3 − D4 ≤ 0 m2 (X) = D1 − D2 ≤ 0 m3 (X) = D6 − D5 ≤ 0 (4.31) et la probabilité de non assemblage s’écrit : PDa = = \ \ 1 − Prob (m1 (X) ≤ 0) (m2 (X) ≤ 0) (m3 (X) ≤ 0) 1 − Φ3 (−β1 , −β2 , −β3 , [ρ]) (4.32) où Φ3 est la fonction de répartition de la loi multi-normale en 3 dimensions et [ρ] est la matrice de corrélation entre les trois fonctions mi . La relation précédente est exacte puisque les fonctions mi sont linéaires. Comme ces trois fonctions sont indépendantes (aucune dimension en commun), la matrice [ρ] est la matrice identité et Φ3 (−β1 , −β2 , −β3 , [ρ]) = Φ(−β1 )Φ(−β2 )Φ(−β3 ). Les indices de fiabilité sont simplement : β1 = β2 = β3 = µ − µ D4 q D3 = −2.357 2 + σ2 σD D3 4 µ − µ D2 q D1 = −2.357 2 + σ2 σD D 1 2 (4.33) µ − µ D5 q D6 = −2.357 2 + σ2 σD D6 5 et finalement : PDa = 1 − Φ(2.357)Φ(2.357)Φ(2.357) = 27380 ppm (4.34) TNC fonctionnel Le domaine de non interférence Ω(X) est déterminé en considérant les équations suivantes : g1 (X, d) = g2 (X, d) = g3 (X, d) = g4 (X, d) = g5 (X, d) = g6 (X, d) = Nicolas Gayton D3 D4 D6 sin(α) + cos(α) − +X ≤0 2 2 2 D1 D2 D5 D7 tan(α) + + − Y tan(α) − X − ≤0 2 cos(α) 2 2 D6 D5 D3 sin(α) + cos(α) − +Y ≤0 2 2 2 D6 D3 D4 sin(α) + cos(α) − −X ≤0 2 2 2 D2 D5 D1 + − Y tan(α) + X − ≤0 2 cos(α) 2 2 D3 D6 D5 sin(α) + cos(α) − −Y ≤0 2 2 2 Page 141/172 (4.35) 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Ω(X) : d| 6 \ i=1 gi (X, d) ≤ 0 où gi (X, d) = 0 si le point n◦ i (voir figure 4.7) est un point de contact. La caractéristique fonctionnelle est la déviation angulaire maximale notée αmax de la pièce 1 par rapport à la pièce 2. Le seuil maximum toléré pour αmax est considéré égal à Fcmax = 0, 01 rad. L’exigence fonctionnelle peut donc s’écrire : αmax (X) = max (α) ≤ Fcmax (4.36) d∈Ω(X) Pour trouver les différents points de contact potentiels, 3 équations (problème en 2D) parmi les 6 doivent s’annuler. Il existe donc Ns = C63 = 20 situations de points de contact différents. Cinq d’entre elles sont identifiées comme étant importantes vis-à-vis du TNC fonctionnel en utilisant un calcul de Monte Carlo constitué de 100 calculs d’optimisation. Il s’agit des configurations s(1) = {1, 2, 3} (contact aux points 1,2,3), s(2) = {1, 3, 4}, s(3) = {2, 3, 6}, s(4) = {1, 3, 6} et s(5) = {2, 3, 5}. Pour trouver plus simplement les coordonnées d̂ associées, chacune des fonctions gi est linéarisée vis-à-vis des variables jeux X, Y, α. Cette linéarisation induit un faible écart en terme de probabilité du fait des faibles jeux mis en œuvre. Cinq fonctions de performance sont donc définies : Li (X) = Fcmax − Fc (X, d̂i (X)), i = 1 à 5 (4.37) Les coordonnées d̂i sont issues de la résolution d’un système linéaire. Cependant, les fonctions Li ne sont pas linéaires vis-à-vis de X et la méthode FORM ne conduit qu’à une approximation du TNC fonctionnel. Figure 4.12 – Représentation dans l’espace standard U1 , U2 de la zone de défaut concernant la première configuration de contact s(1) = {1, 2, 3}. Le calcul du TNC fonctionnel se fait grâce à relation suivante : PDf = Prob 5 [ i=1 Li (X) < 0 3 \ j=1 gs̄(i) (X, d̂i ) ≤ 0 j (4.38) T La figure 4.12 représente dans l’espace standard en deux dimensions uniquement, l’évènement L1 (X) T T g4 (X, d̂1 ) g5 (X, d̂1 ) g6 (X, d̂1 ) ≤ 0 correspondant aux points de contact s(1) = {1, 2, 3}. La figure 4.13 représente dans le même espace l’union des 5 évènements associés à chaque situation de points de 19 décembre 2012 Page 142/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Figure 4.13 – Représentation dans l’espace U1 , U2 du domaine de non conformité issu de l’union des 5 configurations de points de contact. contact. Une zone commune importante entre les situations s(3) et s(4) indique qu’il n’est pas possible de transformer la probabilité de l’union en somme de probabilités. Cette zone commune indique que pour un ensemble de réalisations des dimensions X, le système est non fonctionnel dans deux configurations différentes. Le calcul du TNC fonctionnel s’effectue alors à l’aide d’une formulation FORM système. Les résultats sont présentés dans le tableau 4.8. Ils montrent que l’impact de la linéarisation des fonctions gi est très réduit et que les résultats FORM système sont de très bonne qualité pour un temps de calcul très faible uniquement lié au calcul des différentes fonctions Φn par la méthode de Genz [Genz, 1992]. Pour éviter des calculs trop lourds, il est possible de calculer les TNC fonctionnels associés à chaque situation de points de contact et de borner l’équation 4.38 de la façon suivante : PDf ≤ 5 X i=1 Prob Li (X) < 0 3 \ j=1 gs̄(i) (X, d̂i ) ≤ 0 j (4.39) Cette somme, beaucoup plus simple à calculer, est reportée dans le tableau 4.8 où elle reste, pour cette application proche du résultat de référence. Les probabilités de chacun des évènements correspondant à chaque point de contact est : (3) (2) (1) PDf = 30527(65)ppm, PDf = 1861(12)ppm, PDf = 13770(27)ppm (4) (5) PDf = 14781(32)ppm, PDf = 1(0, 01)ppm 4.3.4 (4.40) Conclusion L’analyse des tolérances des systèmes mécaniques hyperstatiques est une tâche numérique difficile nécessitant des outils adaptés. Dans cette section, une nouvelle méthode a été présentée et appliquée à un exemple relativement simple. Cette méthode permet de traiter des problèmes de TNC fonctionnels. Elle est basée sur l’utilisation d’une formulation du TNC mettant en œuvre des probabilités d’unions et Nicolas Gayton Page 143/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité Méthode PDf en ppm (int. de conf. à 95%) Nombre de calculs (temps de calcul) Monte Carlo + optimisation sous contraintes non linéaires (résultat de référence) 47329(257) 107 calculs d’optimisation non linéaire (3 jours) Monte Carlo + optimisation linéaire 47202(312) 107 optimisations linéaires (10 heures) FORM système 47245(225) 20 calculs FORM + 31 évaluations de Φn (10 minutes) FORM system upper bound 60940(136) 5 calculs FORM (3 secondes) Tableau 4.8 – Résultats de l’application linéaire avec jeux. d’intersections pouvant être calculées par des méthodes classiques couramment utilisées en fiabilité des structures. Cette méthode a montré son intérêt en temps de calcul sur un exemple assez simple. Elle présente néanmoins une restriction majeure : la pire des configurations doit se situer sur des points de contact. Des situations intermédiaires pires d’un point de vue de la fonction ne peuvent pas être prises en compte. Pour de tels problèmes, la méthode de Monte Carlo couplée avec de l’optimisation reste la méthode de référence. 4.4 Conclusion et perspectives Ce chapitre décrit mes activités de recherche dans le domaine de l’analyse des tolérances. Ce travail a conduit aux travaux réalisés dans le cadre de la thèse de Paul Beaucaire. Deux aspects ont été abordés : • une réflexion a été menée sur la façon de modéliser les distributions des variables géométriques en fabrication de grande série. La méthode APTA a été proposée et semble très prometteuse. Cette méthode est en cours d’industrialisation dans un outil métier développé par la société Phimeca. • une méthode économique d’analyse des tolérances de systèmes hyperstatiques basée sur les méthodes de fiabilité système a été proposée et donne des résultats intéressants sous certaines hypothèses. Ces deux aspects sont tout à fait complémentaires. Une analyse des tolérances d’un système hyperstatique avec la méthode APTA a d’ailleurs été menée dans [Beaucaire et al., 2012b]. Les industriels partenaires de ces travaux sont Valeo SE, RADIALL et Phimeca SA. Leur intérêt pour ce sujet montre un vrai potentiel de transfert des méthodes fiabilistes pour l’analyse des tolérances de fabrication. Les travaux en cours sur l’analyse de sensibilité et la synthèse des tolérances n’ont pas été exposés mais sont prometteurs car ils permettent de justifier quantitativement des spécifications géométriques. Les perspectives sont nombreuses sur ces deux aspects. Concernant la méthode APTA, il est impératif de pouvoir capitaliser des informations sur des process de fabrication. La société Valeo SE a mis en place une campagne de mesures conséquente sur 3 ans dans le cadre du projet ANR AHTOLA. L’objectif est de ne plus avoir à saisir une densité conjointe pour chaque variable géométrique mais de saisir un process de fabrication. Un gros travail de dépouillement de ces mesures et de caractérisation statistique sera alors à mener. Sur le second aspect de ces travaux, seuls des systèmes mécaniques 2D simples ont été traités. L’objectif est de passer à des applications plus conséquentes grâce à l’utilisation de méta-modèles pour 19 décembre 2012 Page 144/172 HDR, Nicolas Gayton Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité s’affranchir des limites des méthodes de Monte Carlo. La méthode AK-Sys est en cours de test sur des applications plus conséquentes dans le cadre du projet AHTOLA. Synthèse du chapitre Objectif. Proposer une démarche d’analyse des tolérances basée sur les méthodes fiabilistes pour traiter les problèmes de fluctuations des caractéristiques des lots de fabrication pour les systèmes sans et avec jeux. Méthodologie. Analogie et utilisation des méthodes communément admises en fiabilité des structures (FORM, Monte Carlo, approche bayésienne, fiabilité système) pour l’analyse des tolérances. Résultats obtenus. Une formulation bayésienne du TNC a été proposée et conduit au calcul du TNC dynamique aussi appelé APTA. Une procédure générale de calcul en fonction des informations disponibles est proposée. Une méthodologie efficace est proposée pour le calcul du TNC de systèmes mécaniques avec jeux. Contexte de ces travaux • Thèse Conseil Régional d’Auvergne / FEDER de P. Beaucaire dont la soutenance est prévue le 29 novembre 2012. • Projet ANR AHTOLA, thèse de A. Dumas. Production scientifique • 4 revues référencées ISI : – DUMAS A., ECHARD B., GAYTON N., ROCHAT O., DANTAN JY., AK-ILS : an Active learning method based on Kriging for the Inspection of Large Surfaces, Precision engineering, Vol 37, pages 1-9, 2013. – BEAUCAIRE P., GAYTON N., DUC E., LEMAIRE M., DANTAN JY., Statistical tolerance analysis of an hyperstatic mechanism with gaps using system reliability methods, Computer and Industrial Engineering, Vol 63, pages 1118-1127, 2012. – QURESHI A.J., SABRI V., DANTAN JY., BEAUCAIRE P., GAYTON N., A statistical tolerance analysis approach for over-constrained mechanism based on optimization and Monte Carlo simulation, Computer Aided Design, Vol 44(2), pages 132-142, 2012. – GAYTON N., BEAUCAIRE P., BOURINET J.M., DUC E., LEMAIRE M., GAUVRIT L., APTA : Advanced Probability - based Tolerance Analysis of products, Mécanique et Industrie, Vol 12, pages 71-85, 2011. • 4 conférences internationales Nicolas Gayton Page 145/172 19 décembre 2012 Chapitre 4 : Analyse des tolérances par calcul du taux de non conformité 19 décembre 2012 Page 146/172 HDR, Nicolas Gayton Conclusions et perspectives Ce mémoire d’Habilitation à Diriger des Recherches présente mon bilan d’activités depuis l’obtention de mon diplôme de Doctorat en 2002. Il expose tout d’abord mon parcours professionnel dont la particularité est mon expérience de quatre années dans l’industrie automobile. Même si, dans un premier temps, cette expérience a été un frein à des activités de recherche académique, elle m’a permis de mieux cerner les besoins industriels en terme de gestion de l’incertain en conception mécanique en développant l’activité autour de l’analyse des tolérances. Ce mémoire présente ensuite mes activités de recherche en se focalisant sur deux domaines d’application des méthodes probabilistes nécessitant des développements méthodologiques pour le calcul de la probabilité de défaillance ou du taux de non conformité d’un système mécanique. D’un point de vue méthodologique, mes premières années ont été consacrées à l’utilisation des techniques de ré-échantillonnage pour le calcul fiabiliste et la définition d’intervalles de confiance permettant de guider et stopper les calculs mécaniques successifs lorsque les résultats sont jugés satisfaisants. Les méthodes développées nommées CQ2RS Complete Qudratic Response Surface method with ReSampling (basée sur des surfaces de réponse polynomiales) et RPCM Resampling-based Polynomial Chaos Method (basée sur le chaos polynomial) ont été prioritairement utilisées pour l’analyse des structures sollicitées en fatigue. Ces dernières années, les travaux sur l’utilisation du ré-échantillonnage ont été mis de coté pour laisser place à l’utilisation du krigeage pour l’analyse fiabiliste, méthodologie qui me semble très prometteuse. Mes travaux ont conduit d’abord à une classe de méthode nommée AK-RM Active Learning and Kriging based - Reliability Methods. Son efficacité réside dans l’intégration de la simulation dès le début de l’utilisation itérative du méta-modèle de krigeage. Ses limites, induites par ce qui en fait son efficacité, résident dans des difficultés à atteindre des probabilités très faibles (< 10−6 ) et dans la prise en compte d’un nombre important de variables aléatoires (> 40) avec une précision constante. La stratégie de classification utilisée dans les méthodes AK-RM a aussi été utilisée dans deux autres domaines : la vérification de la conformité de pièces de grandes dimensions (méthode AK-ILS Active learning and Kriging based-methods for the Inspection of Large Surfaces) et la gestion des contraintes d’optimisation (méthode AK-OPT Active learning and Kriging based-methods for OPTimization). Les méthodes AKRM ont été utilisées avec grande efficacité pour l’analyse des structures sollicitées en fatigue et sont en cours d’utilisation pour l’analyse des tolérances de fabrication. Les travaux développés sur l’analyse probabiliste des structures sollicitées en fatigue ont mis en évidence deux conclusions primordiales : l’analyse fiabiliste de ce type de structures ne peut se faire qu’en disposant d’une modélisation pertinente du chargement et du comportement à la fatigue via la définition des courbes S-N. Des travaux sont actuellement en cours sur ce sujet dans le cadre de le 147 Conclusions et perspectives thèse de Doctorat de Simon Bucas en convention CIFRE chez Manitowoc. D’autres vont commencer en début d’année 2013 avec la thèse de W. Fauriat en convention CIFRE avec Renault sur la modélisation stochastique des chargements de fatigue s’exerçant par la chaussée sur les roues d’un véhicule. L’analyse des tolérances a été une thématique de recherche qui m’a beaucoup occupé. Elle m’a conduit à définir une méthode innovante d’analyse des tolérances nommée APTA Advanced Probability - based Tolerance Analysis of products permettant d’évaluer le taux de non conformité long terme d’un système mécanique. Cette méthode semble intéressante mais doit être alimentée par une quantité importante de mesures de l’évolution des lots de fabrication au cours du temps, mesures en cours actuellement chez Valeo SE dans le cadre du projet ANR ATHOLA. Des travaux sur le calcul du taux de non conformité des systèmes hyperstatiques ont permis de proposer une méthode économique de gestion des points de contact. Cette méthode réduit les temps de calcul mais n’est applicable aujourd’hui que lorsque les contraintes de non pénétration de matière sont linéaires ou linéarisables. Cette méthode est donc à adapter en trois dimensions. Ceci est en cours dans le cadre du projet AHTOLA. Ces travaux ont été menés en encadrant des doctorants (A. Notin, B. Echard, P. Beaucaire) dans différents types de projet (Thèse CIFRE CETIM, projet ANR APPROFI, projet avec la Région Auvergne, contrats de collaboration industrielle) et des étudiants en Master Recherche (A. Dumas et S. Bucas). La responsabilité de ces projets ainsi que l’encadrement de ces travaux ont contribué aux principales avancées présentées dans ce mémoire. J’espère que ce mémoire aura satisfait le lecteur. Personnellement il m’a permis de faire un bilan de mes activités et surtout de dégager la “road map” suivante pour mes activités de recherche futures. Fatigue des structures : 1. Poursuivre les collaborations industrielles sur ce sujet et notamment avec la SNECMA sur l’utilisation des méthodes fiabilistes dans un milieu très réglementé. 2. Poursuivre les travaux de modélisation stochastique du chargement au travers des thèses CIFRE de S. Bucas (Manitowoc) et W. Fauriat (Renault). 3. Investiguer en détail la modélisation stochastique des courbes S-N et quantifier leur impact sur l’évaluation de la probabilité de défaillance. Ce travail se fera dans le cadre des travaux de S. Bucas. 4. Approfondir l’utilisation des méthodes de sensibilité dans ce domaine et aller jusqu’à la calibration de coefficients partiels. Analyse des tolérances : 1. Caractériser les densités conjointes des décalages de moyenne / écarts-types pour plusieurs process de fabrication (en cours avec Valeo SE dans le cadre du projet ANR ATHOLA). 2. Gérer les configurations non linéaires de points de contact par fiabilité système et méta-modèles. 3. Traiter des problèmes à grands nombres de paramètres définissant les défauts de forme géométriques. Pour arriver à ces objectifs, des développements méthodologiques sont nécessaires : 1. Poursuivre l’utilisation des méthodes AK-RM dans le cadre de la fiabilité système (Analyse des tolérances). 19 décembre 2012 Page 148/172 HDR, Nicolas Gayton Conclusions et perspectives 2. Investiguer l’utilisation du krigeage et de la technique de classification pour le calcul des indices de Sobol’ dans le but de l’analyse de sensibilité et la réduction du nombre de variables (fatigue des structures et analyse des tolérances). 3. Investiguer l’utilisation de la stratégie de classification dans le cadre de modèles mécaniques de type éléments finis engendrant un bruit numérique dans la réponse (fatigue des structures). Nicolas Gayton Page 149/172 19 décembre 2012 Conclusions et perspectives 19 décembre 2012 Page 150/172 HDR, Nicolas Gayton Bibliographie T. Abdo and R. Rackwitz. A new β point algorithm for large time invariant and time variant reliability problems. In Reliability and optimisation of structures 90 Proc. of the 3rd WG 7.5 IFIP Conference, pages 1–11, 1990. AFCEN. Règles de Conception et de Construction des Matériels des Ilots Nucléaires, (RCC-M), 2000. AFNOR. A03-405, Metal products - Fatigue testing - Data statistical processing, 1991. H. Akaike. A new look at the statistical model identification. IEEE Transactions on Automatic Control, 19(6) :716–723, 1974. D.L. Allaix and V.I. Carbon. An improvement of the response surface method original research article. Structural Safety, 33(2) :165–172, 2011. G. Ameta, J. Davidson, and J. Shah. Using tolerance-maps to generate frequency distributions of clearance and allocate tolerances for pinuhole assemblies. ASME Transactions, Journal of Computing and Information Science in Engineering, 7(4) :347–359, 2007. S. Arlot. Rééchantillonnage et sélection de modèles. PhD thesis, Université Paris Sud - Faculté des Sciences d’Orsay, 2007. S.K. Au and J.L. Beck. Estimation of small failure probabilities in high dimensions by subset simulation. Probabilistic Engineering Mechanics, pages 263–277, 2001. S.K. Au and J.L. Beck. Application of subset simulation methods to reliability benchmark problems. Structural Safety, pages 183–193, 2007. A. Ballu, J.-Y. Plantec, and L. Mathieu. Geometrical reliability of overconstrained mechanisms with gaps. CIRP Annals - Manufacturing Technology, 57(1) :159–162, 2008. ISSN 0007-8506. P. Beaucaire, N. Gayton, J.Y. Dantan, and E. Duc. Statistical tolerance analysis of over-constrained mechanism using system reliability methods. Computer Aided Design, page soummis, 2012a. P. Beaucaire, N. Gayton, E. Duc, M. Lemaire, and J.Y. Dantan. Statistical tolerance analysis of an hyperstatic mechanism with gaps using system reliability methods. Computer and Industrial Engineering, page A paraı̂tre, 2012b. J. Bect, D. Ginsbourger, L. Li, V. Picheny, and E. Vazquez. Sequential design of computer experiments for the estimation of a probability of failure. Statistics and Computing, In press :1–21, 2011. 151 BIBLIOGRAPHIE J. Bellec. Prise en compte de la variabilité dans le calcul de structures avec contact. PhD thesis, ENS Cachan, 2008. A. Bender. Statistical tolerancing as it relates to quality control and the designer. SAE transactions, 77 : 1965–1971, 1968. F Bennis, P. Castagliola, and L. Pino. Statistical analysis of geometrical tolerances : A case study. Quality Engineering, 17(3) :419–427, July 2005. R. Beran. The impact of the bootstrap on statistical algorithms and theory. Statistical Science, 18(2) : 175–184, 2003. M. Berveiller. Eléments finis stochastiques : Approche intrusive et non-intrusive pour des analyses de fiabilité. PhD thesis, Université Blaise Pascal (Clermont-Ferrand), 2005. M. Berveiller, B. Sudret, and M. Lemaire. Stochastic finite elements : a non intrusive approach by regression. European Journal of Computational Mechanics, 15(1-3) :81–92, 2006. B. J. Bichon, M. S. Eldred, L. P. Swiler, S. Mahadevan, and J. M. McFarland. Efficient Global Reliability Analysis for nonlinear implicit performance functions. AIAA Journal, 46 :2459–2468, 2008. B. J. Bichon, J. M. McFarland, and S. Mahadevan. Efficient surrogate models for reliability analysis of systems with multiple failure modes. Reliability Engineering & System Safety, 96(10) :1386–1395, 2011. A. Bignonnet and H.-P. Lieurade. Reliability application in the industry of the reliability approach in fatigue design : a CETIM multipartner project. In 2nd Fatigue Design, Senlis, France, November 2007. CETIM. A. Bignonnet, H.-P. Lieurade, I. Hunter, F. Lefebvre, A. Carcan, E. Babaud, J.-C. Escoffier, and D. Marquand. The reliability approach in fatigue design : DEFFI project. In 3rd Fatigue Design, Senlis, France, November 2009. CETIM. G. Blatman and B. Sudret. Sparse polynomial chaos expansions and adaptive stochastic finite elements using a regression approach. C. R. Mécanique, 336 :518–523, 2008. J. D. Booker, M. Raines, and K. G. Swift. Designing Capable and Reliable Products, chapter Stress Strength Interference (SSI) analysis, pages 176–191. Butterworth-Heinemann, 2001. D.D. Boos. Introduction to the bootstrap world. Statistical Science, 18(2) :168–174, 2003. P. Bourdet, L. Mathieu, and C. Lartigue. The concept of the small displacement torsor in metrology. Series Advances in Mathematics for Applied Sciences : World Scientific, 40 :110–122, 1996. J.M. Bourinet, F. Deheeger, and M. Lemaire. Assessing small failure probabilities by combining subset simulation and suport vector machines. Structural Safety, pages 343–353, 2011. K.W. Breitung. Asymptotic approximations for multi-normal integrals. Lecture Notes in Mathematics, Springer-Verlag, Berlin, 1994. 19 décembre 2012 Page 152/172 HDR, Nicolas Gayton BIBLIOGRAPHIE C.G. Bucher and U. Bourgund. A fast and efficient response surface approach for structural reliability problems. Structural Safety, 7 :57–66, 1990. R.J. Carroll and D. Ruppert. Transformation and Weighting in Regression. Chapman Hall, New York, 1988. G. Casella. Introduction to the silver anniversary of the bootstrap. Statistical Science, 18(2) :133–134, 2003. J.-L. Chaboche. Constitutive equations for cyclic plasticity and cyclic viscoplasticity. International Journal of Plasticity, 5(3) :247–302, 1989. ISSN 0749-6419. A. Combescure. Static and dynamic buckling of large thin shells. In Nuclear Engineering and Design 92, North-Holland, Amsterdam, pages 339–354, 1986. D. D. Cox and S. John. SDO : A Statistical Method for Global Optimization. In M. N. Alexandrov and M. Y. Hussaini, editors, Multidisciplinary Design Optimization : State-of-the-Art, pages 315–329. Siam, Philadelphia, 1997. T. Crestaux, O. P. Le Maitre, and J. M. Martinez. Polynomial chaos expansion for sensitivity analysis. Reliability Engineering and System Safety, 94 :1161–1172, 2009. K. Dang Van, B. Griveau, and O. Message. On a new multiaxial fatigue criterion : theory and application. biaxial and multiaxial fatigue. In M.W. Brown and K.J.Miller, editors, EFG 3, pages 479–496, Mechanical Engineering Publications, London, 1989. J.-Y. Dantan and A.-J. Qureshi. Worst-case and statistical tolerance analysis based on quantified constraint satisfaction problems and monte carlo simulation. Computer Aided Design, 41 :1–12, 2009. E. De Rocquigny. Structural reliability under monotony : a review of properties of form and associated simulation methods and a new classe of monotonous reliability methods (MRM). Structural Safety, pages 363–374, 2009. A. Der Kiureghian and T. Dakessian. Multiple design points in first and second-order reliability. Structural Safety, 20(1) :37–49, 1998a. A. Der Kiureghian and T. Dakessian. Multiple design points in first and second-order reliability. Structural Safety, 20 :37–49, 1998b. E. Derocquigny. La maı̂trise des incertitudes dans un contexte industriel - 1 ière partie : une approche méthodologique globale basée sur des exemples. Journal de la société française de Statistique, pages 33–71, 2006. A. Desrochers. Modeling three dimensional tolerance zones using screw parameters. In 25th design automation conference, ASME, 1999. T. J. DiCiccio and B. Efron. Bootstrap confidence intervals. Statistical Science, 11(3) :189–228, 1996. O. Ditlevsen and H.O. Madsen. Structural Reliability Methods. John Wiley & Sons, 1996. Nicolas Gayton Page 153/172 19 décembre 2012 BIBLIOGRAPHIE V. Dubourg. Adaptive surrogate models for reliability analysis and reliability-based design optimization. PhD thesis, Université Blaise Pascal, Clermont II, 2011. S. Dubreuil, M. Berveiller, F. Petitjean, and M. Salaun. Determination of bootstrap confidence intervals on sensitivity indices obtained by polynomial chaos expansion. In Fiabilité des Matériaux et des Structures, 2012. A. Dumas, B. Echard, N. Gayton, and O. Rochat. AK-ILS : A new active learning method based on kriging for the inspection of large surface. In ICSM2012, Annecy, 2012. B. Echard. Evaluation par krigeage de la faibilité des structures sollicitées en fatigue. PhD thesis, Université Blaise Pascal - Clermont-Ferrand, 2012. B. Echard, N. Gayton, and M. Lemaire. AK-MCS : An Active learning reliability method combining Kriging and Monte Carlo Simulation. Structural Safety, 33(2) :145–154, 2011. B. Echard, N. Gayton, M. Lemaire, and N. Relun. A combined importance sampling and kriging reliability method for small failure probabilities with time demanding numerical models. soumis à Reliability Engineering and System Safety, 2012. B. Efron. Bootstrap methods : Another look at the jackknife. The Annals of Statistics, 7 :1–26, 1979. B. Efron. Nonparametric standard errors and confidence intervals. Canadian Journal of Statistics, 9 : 139–172, 1981. B. Efron and R. J. Tibshirani. An introduction to the bootstrap. Chapman Hall, New York, 1993. B. Efron and R. J. Tibshirani. Improvements on cross-validation : the .632+ bootstrap method. Journal of the American Statistical Association, 92(438) :548–560, 1997. K. El-Tawil, J.P. Muzeau, and M. Lemaire. Reliability method to solve mechanical problems with implicit limit state. In Reliability and Optimization of Structures, Proc of the 4th IFIP WG 7.5 Conference, pages 181–190, 1991. I. Enevolsen, M.H. Faber, and J.D. Sorensen. Adaptative response surface technique in reliability estimation. In Structural Safety and Reliability, Schuëller, Shinozuka and Yao (eds), pages 1257–1264, 1994. F. Faravelli. Response surface approach for reliability analysis. Journal of Engineering Mechanics, 115 : 2763–2781, 1989. FEM. 1.001 - Règles de calcul des appareils de levage, 1998. M. Ferlin, A. Pyre, F. Lefebvre, S. Oriol, and A. Bignonnet. DEFFI project for a new concept of fatigue design in the aerospace domain. In 50th AIAA/ASME/ASCE/ AHS/ASC Structures, Structural Dynamics, and Materials Conference, Palm Springs, California, USA, May 2009. R. Field and M. Grigoriu. On the accuracy of the polynomial approximation. Probabilistic Engineering Mechanics, 19 :65–80, 2004. R. A. Fischer. The Design of Experiment. Hafner, New York, 1935. 19 décembre 2012 Page 154/172 HDR, Nicolas Gayton BIBLIOGRAPHIE J. M. Gablonsky. Modifications of the DIRECT algorithm. PhD thesis, North Carolina State University, 2001. N. Gayton and M. Lemaire. Reliability assessment of structures subjected to fatigue failure. Ships and Offshore Structures, 4(3) :229–239, 2009. N. Gayton, J.M. Bourinet, and M. Lemaire. CQ2RS : a new statistical approach to the response surface method for reliability analysis. Structural Safety, pages 99–121, 2002a. N. Gayton, J.P. Lambelin, and M. Lemaire. Approche probabiliste du facteur de réduction de charge d’une coque mince. Mécanique et Industries, 3 :227–236, 2002b. N. Gayton, A. Mohamed, J.D. Sorensen, M. Pendola, and M. Lemaire. Calibration methods for reliabilitybased design codes. Structural Safety, 26 :91–121, 2004. N. Gayton, P. Beaucaire, J-M. Bourinet, E. Duc, M. Lemaire, and L. Gauvrit. APTA : Advanced probability - based tolerance analysis of products. Mecanique et Industries, 12 :71–85, 2011a. N. Gayton, P. Beaucaire, E. Duc, and M. Lemaire. The apta method for the tolerance analysis of products comparison of capability-based tolerance and inertial tolerance. Asian International Journal of Science and Technology, 4 :24–36, 2011b. A. Genz. Numerical computation of multivariate normal probabilities. Journal of Computational and Graphical Statistics, pages 141–149, 1992. T. Gerstner and M. Griebel. Numerical integration using sparse grids. Numerical Algorithms, 18(3) : 209–232, 1998. R. Ghanem and P.D. Spanos. Stochastic finite elements : a spectral approach -. Springer-Verlag, 1991. Revised Edition published by Dover in 2003. D. Ghiocel and R. Ghanem. Stochastic finite element analysis of seismic soil-structure interaction. Journal of Engineering Mechanics, 128(1) :66–77, 2002. C. A. Gladman. Applying probability in tolerance technology. University of New South Wales, [Kensington, N.S.W.] :, 1979. C. G. Glancy and K.W. Chase. A second-order method for assembly tolerance analysis. Proceedings of the ASME Design Engineering Technical Conferences, 1999. Graves and Bisgaard. Five ways statistical tolerancing can fail, and what to do about them. Quality Engineering, 13(1) :85–93, 2000. W.H. Greenwood and K.W. Chase. A new tolerance analysis method for designers and manufacturers. In Transaction of the ASME, pages 109–116, 1987. Z. Guédé. Approche probabiliste de la durée de vie des structures soumises à la fatigue thermique. PhD thesis, Université Blaise Pascal, Clermont II, 2005. Z. Guédé, B. Sudret, and M. Lemaire. Life-time reliability based assessment of structures submitted to thermal fatigue. International Journal of Fatigue, 29(7) :1359–1373, 2007. Nicolas Gayton Page 155/172 19 décembre 2012 BIBLIOGRAPHIE P. Hall. A short prehistory of the bootstrap. Statistical Science, 18(2) :158–167, 2003. A.M. Hasofer and N.C. Lind. An exact and invariant first order reliability format. J.Eng Mech., ASCE, 100, EM1, pages 111–121, 1974. T.C. Hesterberg. Bootstrap. Technical report, Insightful Corp, 2007. W. Jiang and R. Simon. A comparison of bootstrap methods and an adjusted bootstrap approach for estimating the prediction error in microarray classification. Statistics in Medicine, 26(29) :5320 – 5334, 2007. J.M.Gilbert, I.M.Bell, and D.R. Johnson. Circuit design optimization based on quality cost estimayion. Quality and Reliability Engineering International, 21 :365–386, 2005. D. R. Jones, C. D. Perttunen, and B. E. Stuckman. Lipschitzian optimization without the Lipschitz constant. Journal of Optimization Theory and Applications, 79(1) :157–181, 1993. D. R. Jones, M. Schonlau, and W. J. Welch. Efficient Global Optimization of expensive black-box functions. Journal of Global Optimization, 13(4) :455–492, 1998. D. Karaboga. An idea based on honey bee swarm for numerical optimization. Technical Report TECHNICAL REPORT-TR06, Erciyes University,Engineering Faculty, Computer Engineering Department., 2005. URL http://mf.erciyes.edu.tr/abc/publ.htm. D. Karaboga and B. Basturk. A powerful and efficient algorithm for numerical function optimization : artificial bee colony (ABC) algorithm. Journal of Global Optimization, 39 :459–471, 2007. I. Kaymaz. Application of kriging method to structural reliability problems. Structural Safety, pages 133–151, 2005. S.H. Kim and S.W. Na. Response surface method using vector projected sampling points. Structural Safety, 19(3) :3–19, 1997. D. Krige. A statistical approach to some basic mine valuation problems on the Witwatersrand. Journal of the Chemical, Metallurgical and Mining Society of South Africa, 52(6) :119–139, 1951. E. A. Kruss, D. J. et Fuller. Computer assisted multicrossvalidation in regression analysis. Educational and Psychological Measurement, 42(1) :187–193, 1982. A. K. Kurtz. A research test of the rorschach test. Personnel Psychology, 1(1) :41–51, 1948. H. J. Kushner. A new method of locating the maximum of an arbitrary multipeak curve in the presence of noise. Journal of Basic Engineering, 86 :97–106, 1964. F. Lefebvre, M. Ferlin, A. Pyre, A. Ghouali, S. Oriol, J. El Maghnouji, and A. Bignonnet. Reliability approach in fatigue design for aerospace industry. In 3rd Fatigue Design, Senlis, France, November 2009. CETIM. M. Lemaire. Finite element and reliability : Combined methods by response surface. In G.N. Frantziskonis, editor, PROBAMAT-21st Century : Probabilities and Materials, pages 317–331, 1998. 19 décembre 2012 Page 156/172 HDR, Nicolas Gayton BIBLIOGRAPHIE M. Lemaire. Implementation of parametric reliability methods in industrial applications. In Integrating Structural Analysis and Reliability, P.K. Das, editor : 3rd ASRANet colloquium, Glasgow, U.K., 2006. M. Lemaire. Structural Reliability - Static Mechanical coupling. ISTE, 2009. Y.W. Liu and F. Moses. A sequential response surface method and its application in the reliability analysis of aircraft structural systems. Structural Safety, 16 :39–46, 1994. S. N. Lophaven, H. B. Nielsen, and J. Sondergaard. sion 2.0. DACE, a Matlab Kriging Toolbox, Ver- Technical Report IMM-TR-2002-12, Technical University of Denmark, 2002a. URL http://www2.imm.dtu.dk/~hbn/dace/. S. N. Lophaven, H. B. Nielsen, and J. Sondergaard. DACE. Aspects of the Matlab Toolbox Technical Report IMM-REP-2002-13, Technical University of Denmark, 2002b. URL http://www2.imm.dtu.dk/~hbn/dace/. X. Luo, X. Li, J. Zhou, and T. Cheng. A Kriging-based hybrid optimization algorithm for slope reliability analysis. Structural Safety, 34(1) :401–406, 2012. G. Matheron. The Intrinsic Random Functions and Their Applications. Advances in Applied Probability, 5(3) :439–468, 1973. R.E. Melchers. Radial importance sampling for structural reliability. Journal of Engineering Mechanics, pages 189–203, 1990. A. M. Molinaro, R. Simon, and R. M. Pfeiffer. Prediction error estimation : a comparison of resampling methods. Bioinformatics, 21(15) :3301–3307, 2005. C.I. Mosier. Problems and designs of crossvalidation. Educational and Psychological Measurement, 11 : 5–11, 1951. J.P. Muzeau, M. Lemaire, P. Besse, and J.M. Locci. Evaluation of reliability in case of complex mechanical behavior. In Proc. of the 12th International Conference OMAE’93. M. Nagode and M. Fajdiga. A general multi-modal probability density function suitable for the Rainflow ranges of stationary random processes. International Journal of Fatigue, 20(3) :211–223, 1998. M. Nagode and M. Fajdiga. An improved algorithm for parameter estimation suitable for mixed Weibull distributions. International Journal of Fatigue, 22 :75–80, 2000. M. Nagode and M. Fajdiga. An alternative perspective on the mixture estimation problem. Reliability Engineering & System Safety, 91 :388–397, 2006. M. Nagode, J. Klemenc, and M. Fajdiga. Parametric modelling and scatter prediction of rainflow matrices. International Journal of Fatigue, 23(6) :525–532, 2001. S.D. Nigam and J.U. Turner. Review of statistical approaches to tolerance analysis. Computer Aided Design, pages 6–14, 1995. A. Notin, N. Gayton, J. L. Dulong, M. Lemaire, and P. Villon. RPCM : A strategy to perform reliability analysis using polynomial chaos and resampling - application to fatigue design. European Journal of Computational Mechanics, pages 795–830, 2010. Nicolas Gayton Page 157/172 19 décembre 2012 BIBLIOGRAPHIE A. Notin, J. L. Dulong, N. Gayton, P. Villon, and M. Lemaire. Sldlt : A new solver for sensitivity analysis using monte carlo simulations with random fields. soumis à Computer and structures, 2012. R. Palm. Utilisation du bootstrap pour les problèmes statistiques liés à l’estimation des paramètres. Biotechnology Agronomy Society and Environment, 6(3) :143–153, 2002. D.B. Parkinson. The application of reliability methods to tolerancing. Transaction of the ASME, 104 : 612–618, 1982. M.F. Pellissetti and G.I. Schueller. On general purpose software in structural reliability, an overview. Structural Safety, pages 3–16, 2006. V. Picheny, D. Ginsbourger, O. Roustant, R. T. Haftka, and N.-H. Kim. Adaptive designs of experiments for accurate approximation of a target region. Journal of Mechanical Design, 132(7) :071008, 2010. M. Pillet. Inertial tolerancing. The Total Quality Management Magazine, 16(3) :202–209, 2004. D.N. Politis, J.P. Romano, and M. Wolf. Subsampling. Springer, 1999. M. H. Quenouille. Problems in plane sampling. Annals of Mathematical Statistics, pages 355–375, 1949. A. J. Qureshi, J.-Y. Dantan, V. Sabri, P. Beaucaire, and N. Gayton. A statistical tolerance analysis approach for over-constrained mechanism based on optimization and monte carlo simulation. Computer Aided Design, 44 :132–142, 2012. R. Rackwitz and B. Fiessler. Structural reliability under combined random load sequence. Comp. and Struct., 9(5) :489–494, 1978. M.R. Rajashekhar and B.R. Ellingwood. A new look at the response surface approach for reliability analysis. Structural Safety, 12 :205–220, 1993. P. Ranjan, D. Bingham, and G. Michailidis. Sequential experiment design for contour estimation from complex computer codes. Technometrics, 50(4) :527–541, 2008. N. Relun. Stratégie multiparamétrique pour la conception robuste en fatigue. PhD thesis, Ecole Normale Supérieure de Cachan, 2011. J.-L. Robert. Dimensionnement en fatigue des pièces mécaniques. Lectures notes in Master Ingénierie Mécanique et Civile, Université Blaise Pascal, Clermont II, 2009. V. J. Romero, L. P. Swiler, and A. Giunta. Construction of response surfaces based on progressive-latticesampling experimental designs with application to uncertainty propagation. Structural Safety, 26(2) : 201–219, 2004. T.P. Ryan. Modern Regression Methods. Wiley, New York, 1997. J. Sacks, S. B. Schiller, and W. J. Welch. Design for computer experiment. Technometrics, 31(1) :41–47, 1989. A. Saltelli, K. Chan, and E.M. Scott. Sensitivity Analysis. Wiley, 2000. 19 décembre 2012 Page 158/172 HDR, Nicolas Gayton BIBLIOGRAPHIE T. J. Santner, B. J. Williams, and W. I. Notz. The Design and Analysis of Computer Experiments. New York, 2003. G. Saporta. Probabilités, analyse des données et statistique. Technip, 1990. G.J. Savage, D. Tong, and S.M. Carr. Optimal mean and tolerance allocation using conformance-based design. Quality and Reliability Engineering International, 22 :445–472, 2006. F. Scholtz. Tolerance stack analysis methods. Technical report, Boeing Technical Report, 1995. G. Schwarz. Estimating the dimension of a model. The Annals of Statistics, 6(2) :461–464, 1978. B.W. Silverman. Density estimation for statistics and data analysis. Chapman and Hall, 1986. I. M. Sobol. Sensitivity estimates for nonlinear mathematical models. Mathematical Modeling & Computational Experiment, 1 :407–414, 1993. B. Sudret. Global sensitivity analysis using polynomial chaos expansion. Reliability Engineering & System Safety, 93(7) :964–979, 2008. B. Sudret. Fatigue of materials and structures, chapter 5 : Probabilistic design of structures submitted to fatigue, pages 223–263. Wiley & Sons, 2011. T. Svensson. Prediction uncertainties at variable amplitude fatigue. International Journal of Fatigue, 19 (93) :295–302, 1997. P. Thoft-Christensen and Y. Murotsu. Application of Structural Systems Reliability Theory. SpringerVerlag, 1986. J.-J. Thomas, G. Perroud, A. Bignonnet, and D. Monnet. Fatigue design and reliability in the automotive industry. In G. Marquis and J. Solin, editors, Fatigue Design and Reliability, volume 23 of European Structural Integrity Society, pages 1–11. Elsevier, 1999. A. Törn and A. Zilinskas. Global optimization. Lecture Notes in Computer Science, 350, 1989. R. Tovo. On the fatigue reliability evaluation of structural components under service loading. International Journal of Fatigue, 23(7) :587–598, 2001. J.W. Tukey. Bias and confidence in not-quite large samples. Annals of Mathematical Statistics, 29 :614, 1958. G. Walz and H. Riesch-Oppermann. Probabilistic fracture mechanics assessment of flaws in turbine disks including quality assurance procedures. Structural Safety, 28 :273–288, 2006. M. P. Wand and M. C. Jones. Kernel smoothing. Chapman Hall, New York, 1995. M. Webster, M.A. Tatang, and G.J. McRae. Application of the probabilistic collocation method for an uncertainty analysis of a simple ocean model. Technical report, Technical report, MIT Joint Program on the Science an POlicy of Global Change Reports Series N4, Massachusetts Institute of Technology, 1996. N. Wiener. The homogeneous chaos. American Journal of Mathematics, 60 :897–936, 1938. Nicolas Gayton Page 159/172 19 décembre 2012 BIBLIOGRAPHIE 19 décembre 2012 Page 160/172 HDR, Nicolas Gayton Annexe A Liste de publications Revues internationales référencées ISI ou SCOPUS (10) • ECHARD B., GAYTON N., LEMAIRE M., RELUN N., A combined Importance Sampling and Kriging reliability method for small failure probabilities with time demanding numerical models, Reliability Engineering and System Safety, accepté le 26/10/2012. • DUMAS A., ECHARD B., GAYTON N., ROCHAT O., DANTAN JY., AK-ILS : an Active learning method based on Kriging for the Inspection of Large Surfaces, Precision engineering, Vol 37, pages 1-9, 2013. • BEAUCAIRE P., GAYTON N., DUC E., LEMAIRE M., DANTAN JY., Statistical tolerance analysis of an hyperstatic mechanism with gaps using system reliability methods, Computer and Industrial Engineering, Vol 63, pages 1118-1127, 2012. • QURESHI A.J., SABRI V., DANTAN JY., BEAUCAIRE P., GAYTON N., A statistical tolerance analysis approach for over-constrained mechanism based on optimization and Monte Carlo simulation, Computer Aided Design, Vol 44(2), pages 132-142, 2012. • ECHARD B., GAYTON N., LEMAIRE M., AK-MCS : an Active learning reliability method combining Kriging and Monte Carlo Simulation, Structural Safety, Vol 33, pages 145-154, 2011. • GAYTON N., BEAUCAIRE P., BOURINET J.M., DUC E., LEMAIRE M., GAUVRIT L., APTA : Advanced Probability - based Tolerance Analysis of products, Mécanique et Industries, Vol 12, pages 71-85, 2011. • NOTIN A., GAYTON N., DULONG J.L., LEMAIRE M., VILLON P., RPCM : A strategy to perform reliability analysis using polynomial chaos and resampling - application to fatigue design, European Journal of Computational Mechanics, Vol 19(8), pages 795-830, 2010. • GAYTON N., LEMAIRE M., Reliability assessment of structures subjected to fatigue failure, Ships and Offshore Structures, Vol 4(3), pages 229-239, 2009. • GAYTON N., MOHAMED A., SORENSEN J.D., PENDOLA M., LEMAIRE M., Calibration methods for reliability-based design codes, Structural Safety Vol 26, pages 91-121, 2004. • GAYTON N., BOURINET J.M., LEMAIRE M., CQ2RS : A new statistical approach to the response surface method for reliability analysis, Structural Safety Vol 25, pages 99-121, 2003. Revues référencées ISI ou SCOPUS en cours d’évaluation (3) 161 Liste de publications au 1/10/2012 • NOTIN A., DULONG JL., GAYTON N., VILLON P., LEMAIRE M., SLDLT : A new solver for sensitivity analysis using Monte Carlo simulations with random fields, Advances in Engineering Software, soumis le 27/09/2012. • DANTAN J.Y., DUMAS A., GAYTON N., QURESHI A.J., LEMAIRE M., ETIENNE A., Tolerance analysis approach based on the classification of uncertainties (aleatory / epistemic), Proceedings of the Institution of Mechanical Engineers, Part B : Journal of Engineering Manufacture , soumis le 16 juillet 2012, article sélectionné après la conférence CAT2012. • BEAUCAIRE P., GAYTON N., DANTAN JY., DUC E., Statistical tolerance analysis of overconstrained mechanism using system reliability methods, Computer Aided Design, soumis le 4/04/2012. Revue nationale à comité de lecture (2) • GAYTON N., BEAUCAIRE P., DUC E., LEMAIRE M., The APTA method for the tolerance analysis of products - comparison of capability-based tolerance and inertial tolerance, Asian International Journal of Science and Technology, Vol 4(3), pages 24-36, 2011. • GAYTON N., LAMBELIN J.P., LEMAIRE M., Approche probabiliste du facteur de réduction de charge d’une coque mince. Mécanique et Industries, Vol 3, pages 227-236, 2002. Chapitre de livre international (2) • DUMAS A., ECHARD B., GAYTON N., ROCHAT O., DANTAN JY., AK-ILS : an Active learning method based on Kriging for the Inspection of Large Surfaces, Functional rough surfaces : manufacturing, measurements and applications, à paraı̂tre. • GAYTON N., MOHAMED A., PENDOLA M., Chapter 2.2.2 : Calibration techniques of safety factors, Lifetime management of structure, ed. Lannoy A., ESReDA, Det Norske Veritas, 2005. Brevets (2) • GAYTON N., BARRET G. Dispositif de liaison articulée d’un essuie glace sur un bras, FR2907738, 2008-05-02. • GAYTON N., Dispositif de couplage pour un balai d’essuie glace plat, FR2902062, 200712-14. Conférences internationales invitées en session plénière (1) • GAYTON N., ECHARD B., AFZALI M., BIGNONNET A., BOUCARD P.A., DEFAUX G., DULONG J.L., GHOUALI A., LEFEBVRE F., MASMOUDI M., NOTIN A., NÉRON D., OSTMANE A., PYRE A., RELUN N., Approfi project - A new approach of reliability Assessment of structures subjected to fatigue, Fatigue Design 2011, Senlis, 2011. Conférences internationales (27) • BEAUCAIRE P., GAYTON N., DANTAN JY., DUC E., LEMAIRE M., Statistical tolerance analysis of a mechanism with gaps based on system reliability methods, CAT2012, 12th CIRP International conference on Computer Aided Tolerancing, Huddersfield, UK, 2012. 19 décembre 2012 Page 162/172 HDR, Nicolas Gayton Liste de publications au 1/10/2012 • J.Y. DANTAN, N. GAYTON, A.J. QURESHI, M. LEMAIRE, A. ETIENNE, Tolerance analysis approach based on the classification of uncertainties (aleatory / epistemic), CAT2012, 12th CIRP International conference on Computer Aided Tolerancing, Huddersfield, UK, 2012 • NOTIN A., DULONG J.L., VILLON P., GAYTON N., GOUALI A., SLDLT : a modification of the Cholesky decomposition to speed up Monte Carlo simulations, IASS-IACM 2012, Sarajevo, Bosnia and Herzegovina, avril 2012. • DUMAS A., ECHARD B., GAYTON N., ROCHAT O., AK-ILS : A new Active learning method based on Kriging for the Inspection of Large Inspection, ICSM2012, Annecy, 2012. • ECHARD B., GAYTON N., LEMAIRE M., AFZALI M., BIGNONNET A., BOUCARD P.A., DEFAUX G., DULONG J.L., GHOUALI G., LEFEBVRE F., PYRE A., Reliability assessment of an aerospace component subjected to fatigue loadings : APPRoFi project, Fatigue Design 2011, Senlis, 2012. • BOUCARD P.A., NERON D., RELUN N., ECHARD B., GAYTON N., LEMAIRE M., AFZALI M., LEFEBVRE F., BIGNONNET A., DEFAUX G., DULONG J.L., OTSMANE A., CHEROUALI H., Reliability assessment of an aircraft engine assembly : APPRoFi project, Fatigue Design 2011, Senlis, 2012. • ECHARD B., GAYTON N., LEMAIRE M., A Kriging improvement of the Monte Carlo Simulation : AK-MCS method, ICASP11, Zurich, Switzerland, 2011. • NOTIN A., DULONG JL., GAYTON N., VILLON P., LEMAIRE M., JAFFAL H., RPCM : A strategy to perform reliability analysis using polynomial chaos and resampling Application to fatigue design, ICASP11, Zurich, Switzerland, 2011. • NOTIN A., DULONG J.L., VILLON P., GAYTON N., LEMAIRE M., SLDLT : A new approach to speed up Monte Carlo simulations, 5th International Conference on Advances in Mechanical Engineering and Mechanics ICAMEM2010, Hammamet, Tunisia, 2010. • NOTIN A., DULONG J.L., GAYTON N., VILLON P., SLDL : a stochastic approach of the LDL decomposition to speed up Monte Carlo simulations, ECCM, IV European Conference on Computational Mechanics, Paris, 2010. • ECHARD B., GAYTON N., LEMAIRE M., Structural Reliability Assessment using Kriging metamodel and Monte Carlo simulation : AK-MCS method, IFIP WG7.5, Munich, Allemagne, 2010. • NOTIN A., GAYTON N., DULONG J.L., LEMAIRE M., VILLON P., A strategy to perform reliability analysis using polynomial chaos and resampling : application to fatigue design, Fatigue Design 2009, Senlis, 2009. • ECHARD B., GAYTON N., LEMAIRE M., Reliability assessment of structures subjected to fatigue failure using kriging methods, Fatigue Design 2009, Senlis, 2009. • NOTIN A., GAYTON N., LEMAIRE M., DULONG J.L., Stochastic fatigue lifetime computation : evaluation by polynomial chaos and resampling, ICCOSSAR2009, Osaka, Japan, 2009. • NOTIN A., DULONG J.L., VILLON P., GAYTON N., Crout decomposition for stochastic simulation, NAFEMS, Crete, Greece, 2009. • GAYTON N., DUC E., LEMAIRE M., The use of probabilistic approach for the tolerancing management in design process, CAT2009, 11th CIRP International conference on Computer Nicolas Gayton Page 163/172 19 décembre 2012 Liste de publications au 1/10/2012 Aided Tolerancing, Annecy, France, 2009. • GAYTON N., GAUVRIT L., DUC E., LEMAIRE M., A methodology to assess the out to- lerance probability with linear stacks or non linear functional requirements, SIA robust design through simulation, Paris, 2008. • GAYTON N., LEMAIRE M., Reliability assessment of structures subjected to fatigue failure, ASRANet, Athens, Greece, 2008. • GAYTON N., LEMAIRE M., Partial safety factor methodology applied to structural fatigue design, Fatigue Design, Senlis, 2007. • GAYTON N., MOHAMED A., PENDOLA M., LEMAIRE M., Partial safety factors calibration of thin shells subjected to buckling, IFIP TC7 WG7.5 on Reliability and Optimization of structural Systems, Osaka, Japan, 2002. • GAYTON N., MOHAMED A., PENDOLA M., LEMAIRE M., Reliable design of thin axisymmetric shells using partial factor calibration, 4th International Conference on Integrated design and manufacturing in Mechanical Engineering, Clermont-Ferrand, France, 2002. • GAYTON N., LEMAIRE M., Probabilistic approach for the design of thin axisymmetric shells, In Integrating Structural Reliability Analysis and Advanced Structural Analysis, ASRANet, Glasgow, Scotland, 2002. • BOURINET J.M., GAYTON N., LEMAIRE M., COMBESCURE A., Plastic collapse of imperfect submarine pressure hulls : a probabilistic approach, In 8th International Conference on Structural Safety and Reliability, Newport Beach, California, USA, 2001. • GAYTON N., PENDOLA M., LEMAIRE M., Partial safety factors calibration of externally pressurised thin shells, In Third European Conference on Launcher Technology ”Structures and Technologies, challenges for future launchers”, CNES Editor, Strasbourg, France, 2001. • BOURINET J.M., GAYTON N., LEMAIRE M., COMBESCURE A., Reliability analysis of stability of shells based on combined finite element and response surface methods, In Computational Methods for Shell and Spatial Structures, Athens, Greece, 2000. • GAYTON N., BOURINET J.M., LEMAIRE M., A new tool for response surface approach of structural reliability, In IFIP TC7 WG7.5 on Reliability and Optimization of strutural systems, Ann Arbor, Michigan, USA, 2000. Conférences nationales (13) • DANTAN J.Y., GAYTON N., DUMAS A., ETIENNE A.,QURESHI A.J., Mathematical issues in mechanical tolerance analysis, 13ème Colloque National AIP PRIMECA, Le Mont Dore, 2012. • BEAUCAIRE P., GAYTON N., DUC E., DANTAN J.Y., Statistical tolerance analysis of a mechanism with gaps based on system reliability methods, 13ème Colloque National AIP PRIMECA, Le Mont Dore, 2012. • DUMAS A., ECHARD B., GAYTON N., ROCHAT O., AK-ILS : an active learning method based on kriging for the inspection of large surfaces, 13ème Colloque National AIP PRI- MECA, Le Mont Dore, 2012. • GAYTON N., Active learning reliability methods based on Kriging - Une nouvelle classe de méthodes de fiabilité basées sur le krigeage, Journées thématique de la SIA, la fiabilité et la robustesse par la simulation numérique, Paris, 2012. 19 décembre 2012 Page 164/172 HDR, Nicolas Gayton Liste de publications au 1/10/2012 • GAYTON N., ECHARD B., Active learning based on Kriging methods - Une nouvelle classe de méthodes de simulation basées sur le krigeage, Journées de Fiabilité des Matériaux et des Structures 2012, 7èmes Journées Nationales de Fiabilité, Chambéry, 2012. • NOTIN A., DULONG JL., GAYTON N., VILLON P., LEMAIRE M., SLDLT : une technique de mise à jour de la décomposition LDLT pour l’accélération des simulations de Monte Carlo dans le cas de champs stochastiques non uniformes, 10ème colloque nationale en calcul de structures, Giens, 2011. • BEAUCAIRE P., GAYTON N., DUC E., LEMAIRE M., Méthode APTA pour l’analyse sta- tistique des tolérances des systèmes mécaniques, 12ème Colloque National AIP PRIMECA, Le Mont Dore, 2011. • ECHARD B., GAYTON N., LEMAIRE M., AK-MCS : an Active learning reliability method combining Kriging and Monte Carlo Simulation to compute the probability of failure efficiently, Journées de Fiabilité des Matériaux et des Structures 2010, 6èmes Journées Nationales de Fiabilité, Toulouse, 2010. • GAYTON N., BEAUCAIRE P., DUC E., LEMAIRE M., Application des méthodes fiabilistes au tolérancement statistique des systèmes mécaniques, Journées de Fiabilité des Matériaux et des Structures 2010, 6èmes Journées Nationales de Fiabilité, Toulouse, 2010. • NOTIN A., DULONG J.L., GAYTON N., VILLON P., Utilisation de la décomposition LDLt en simulation stochastique, 9ème colloque nationale en calcul de structures, 25-29 mai 2009, Giens (Var). • GAYTON N., LEMAIRE M., Calibration des coefficients partiels pour le dimensionnement des structures en fatigue, 25èmes Rencontres Universitaires de Génie Civil - Conception et vie des ouvrages, Bordeaux, 2007. • LEGAY A., GAYTON N., COMBESCURE A., LEMAIRE M., Calculs de flambage non- linéaires paramétrés pour l’étude de fiabilité des coques minces raidies, Journée AIP- Primeca, Méthodes non déterministes en conception intégrée, ENS Cachan, 2002. • GAYTON N., LAMBELIN J.P., LEMAIRE M., Dimensionnement d’une coque de révolution conique raidie par une approche probabiliste, Xvème Congrès Français de Mécanique, AUM, Nancy, 2001. Nicolas Gayton Page 165/172 19 décembre 2012 Liste de publications au 1/10/2012 19 décembre 2012 Page 166/172 HDR, Nicolas Gayton Annexe B Liste des notations B.1 Liste des notations générales Vecteurs - Matrices s Scalaire v Vecteur ligne vi ième composante du vecteur v v = {v1 , ..., vn } t vt = {v1 , ..., vn } Vecteur ligne de taille n Vecteur colonne de taille n [m] Matrice mij Terme situé sur la ième ligne et la j ème colonne de la matrice [m] Analyse fiabiliste X Vecteur des variables aléatoires n Nombre de variables aléatoires, taille de X x Une réalisation du vecteur X (j) j ème réalisation (expérience) du vecteur X x Xi Variable aléatoire numéro i xi Une réalisation de Xi (j) xi j ème réalisation de Xi fX (x) Densité conjointe de probabilité de X 167 Liste des notations fXi (xi ) Densité marginale de la variable Xi mi Moyenne de la variable Xi σi Ecart-type de la variable Xi ci Coefficient de variation de la variable Xi Φ Fonction de répartition de la gaussienne centrée réduite φ Densité de probabilité de la gaussienne centrée réduite φn Densité conjointe de probabilité de la loi multi-normale standard en dimension n E[.] Espérance mathématique U Vecteur des variables standards u Une réalisation du vecteur U (j) j ème réalisation (expérience) du vecteur U u Ui Variable standard numéro i ui Une réalisation de Ui (j) ui j ème réalisation de Ui G(x) Fonction de performance dans l’espace physique H(u) Fonction de performance dans l’espace standard G(x) = 0 Fonction d’état limite dans l’espace physique H(u) = 0 Fonction d’état limite dans l’espace standard T Transformation iso-probabiliste Pf Probabilité de défaillance β Indice de fiabilité P∗ x∗i , u∗i αi Point de défaillance le plus probable Coordonnées du point de défaillance le plus probable Cosinus directeurs 19 décembre 2012 Page 168/172 HDR, Nicolas Gayton Liste des notations B.2 Liste des principales notations spécifiques au chapitre 1 CQ2RS Complete Quadratic Response Surface method with ReSampling RPCM Resampling-based Polynomial Chaos Method PEN x1 , ..., xp Plan d’Expériences Numériques Echantillon de taille p T Une statistique T̂ Estimation de la statistique T à partir de l’échantillon initial T̂i∗ Estimation de T à partir d’un sous échantillon T̂ ∗ Estimateur de T par ré-échantillonnage σ̂T̂ ∗ Ecart-type des estimations à partir des sous-échantillons α Niveau de confiance B Nombre de sous-échantillons générés par Bootstrap p Nombre d’expériences du plan H̃(u) P̃ ∗ ũ ∗ Approximation de H(u) par surface de réponse Point estimation du point de défaillance le plus probable Estimation des coordonnées du point de défaillance le plus probable S(x) Réponse du modèle, grandeur mécanique d’intérêt S̃(x) Approximation de S(x) développée sur la base du chaos polynomial ψj (x) j ème polynôme du chaos polynomial P Nombre de polynômes dans le développement sur le chaos polynomial sj Coefficients du chaos polynomial s Vecteur des coefficients du chaos polynomial S Vecteur des calculs mécaniques d Degré / ordre du chaos polynomial f˜S (s) k,d k,d [β̃min , β̃max ] Densité de probabilité de la réponse approximée par lissage à noyau Intervalle de confiance de l’indice de fiabilité obtenu par la méthode RPCM Nicolas Gayton Page 169/172 19 décembre 2012 Liste des notations B.3 Liste des principales notations spécifiques au chapitre 2 MCS IS MCSm SS Monte Carlo Simulation - Simulation de Monte Carlo Importance Sampling - Tirage d’importance Monte Carlo Simulation under monotony Subset Simulations BLUP Best Linear Unbiaised Predictor EGRA Efficient Global Reliability Analysis EFF Expected Feasibility Function AK-RM Active Learning and Kriging - based Reliability Methods AK-MCS Active Learning and Kriging - based Monte Carlo Simulation AK-IS Active Learning and Kriging - based Importance Sampling AK-SS Active Learning and Kriging - based Subset Simulation AK-SYS Active Learning and Kriging - based SYStem reliability method AK-OPT Active Learning and Kriging - based OPTimization method AK-ILS Active Learning and Kriging - based Inspection of Large Surface MPFP Most Probable Failure Point S Domaine de sûreté F Domaine de défaillance IF (u) Compteur de défaillance PMCS Population de Monte Carlo PIS Population du tirage d’importance N Nombre de points à classer NE Nombre de calculs de la fonction de performance NM CS Nombre de points de la simulation de Monte Carlo NIS Nombre de points du tirage d’importance P̂f Estimation de la probabilité de défaillance ϕn (u) Densité conjointe de probabilité utilisée en tirage d’importance Hk k ème seuil de subset H(u) Processus gaussien p Nombre d’expériences du plan H Vecteur des calculs du plan d’expériences 19 décembre 2012 Page 170/172 HDR, Nicolas Gayton Liste des notations B.4 Liste des principales notations spécifiques au chapitre 3 EF Equivalent Fatigue Fm Chargement moyen σm Contrainte moyenne Fa Amplitude de chargement σa Amplitude de contrainte Fmax Chargement maximum σmax Contrainte maximum Fmin Chargement minimum σmin Contrainte minimum R Facteur de charge en contrainte N Nombre de cycles à l’amorçage d’une fissure σa′ Amplitude de contrainte à R = −1 D Endommagement σa,j j eme Classe d’amplitude de contrainte σm,k k eme Classe de contrainte moyenne nj,k Nombre de cycles de la classe amplitude numéro j et moyenne numéro k dj,k Fraction de dommage associée à la classe amplitude numéro j et moyenne numéro k Neq Nombre de cycles équivalent σeq Equivalent fatigue en contrainte symétrique à Neq req Résistance à Neq Xm Vecteur des variables matériaux Xg Vecteur des variables géométriques Xl Vecteur des variables définissant le chargement Xsn Vecteur des variables définissant la courbe S − N Nicolas Gayton Page 171/172 19 décembre 2012 Liste des notations B.5 Liste des principales notations spécifiques au chapitre 4 TNC Taux de non Conformité VD Domaine de Variation ppm Pièces Par Millions X Vecteur des côtes ou dimensions d Vecteur des variables de jeu entre les pièces n Nombre de dimensions d’une chaı̂ne de cotes Y Grandeur fonctionnelle d’intérêt f Relation définissant la chaı̂ne de cote LSLY , U SLY Bornes fonctionnelles de Y Ti Valeur nominale de la dimension Xi ti Intervalle de tolérance de Xi mi Moyenne de Xi δi Décalage de moyenne de Xi σi Ecart-type de Xi Cpi , Cpki Niveau de capabilité de Xi (r) Cpi , Exigences de capabilité (r) Cpki PD PD|δ,σ Probabilité de défaut au Taux de Non Conformité Probabilité conditionnée ou ponctuelle σimin Ecart-type minimum d’un lot dans les conditions optimales de fabrication max Cpi Niveau de capabilité maximum d’un lot dans les conditions optimales de fabrication hδ,σ (δi , σi ) Densité conjointe de probabilité des décalages de moyenne et écart-type pour la dimension Xi U PD Borne supérieure du TNC, calcul dit au pire des cas statistiques PDa Taux de non conformité lié à un problème d’assemblage PDf Taux de non conformité lié à un problème fonctionnel Fc Grandeur caractéristique fonctionnelle mi (X, d) Equations définissant l’assemblage du système gi (X, d) Relation de non interférence Nc Nombre de relations de non interférence, nombre de points de contact potentiels Ns Nombre de configurations différentes de points de contact 19 décembre 2012 Page 172/172 HDR, Nicolas Gayton