Amélioration de la résolution en profondeur de l`analyse SIMS par
Transcription
Amélioration de la résolution en profondeur de l`analyse SIMS par
N° d'ordre : 01 ISAL 0016 Année 2001 7KqVH Présentée DEVANT L'INSTITUT NATIONAL DES SCIENCES APPLIQUEES DE LYON pour obtenir /(*5$'('('2&7(85 FORMATION DOCTORALE : Dispositifs de l'Electronique Intégrée ECOLE DOCTORALE : Electronique, Electrotechnique, Automatique. par Gérard MANCINA Maître ès Sciences Amélioration de la résolution en profondeur de l'analyse SIMS par déconvolution : algorithmes spécifiques et application aux couches dopées ultra-minces de la micro-électronique silicium. Soutenue le 10 juillet 2001 devant la Commission d'Examen Président : G. GUILLOT Professeur, LPM, Lyon Rapporteurs : M. GAUNEAU Ingénieur de recherche, France Telecom R&D : D. MATHIOT Professeur, PHASE, CNRS Strasbourg : G. PRUDON Maître de conférences, LPM, Lyon : B. GAUTIER Maître de conférences, CREST, Montbéliard Examinateurs : M. SCHUHMACHER Société CAMECA, Courbevoie : G. THOMAS Directeurs de thèse : J.C. DUPUY : R. PROST Professeur, LAGEP, Lyon Professeur, LPM, Lyon Professeur, CREATIS, Lyon Cette thèse a été préparée au Laboratoire de Physique de la Matière et au Centre de Recherche et d'Applications en Traitement de l'Image et du Signal de l’INSA de LYON FEVRIER 2000 1/2 INSTITUT NATIONAL DES SCIENCES APPLIQUEES DE LYON Directeur : J.ROCHAT Professeurs : AUDISIO S. BABOUX J.C. BALLAND B. BARBIER D. BASTIDE J.P. BAYADA G. BERGER C. (Melle) BETEMPS M. BLANCHARD J.M. BOISSON C. BOIVIN M. BOTTA H. BOTTA-ZIMMERMANN M. (Mme) BOULAYE G. (Prof. émérite) BRAU J. BRISSAU M. BRUNET M. BRUNIE L. BUREAU J.C. CAVAILLE J.Y. CHANTE J.P. CHOCAT B. COUSIN M. DOUTHEAU A. DUFOUR R. DUPUY J.C. EMPTOZ H. ESNOUF C. EYRAUD L. (Prof. émérite) FANTOZZI G. FAVREL J. FAYARD J.M. FAYET M. FERRARIS-BESSO G. FLAMAND L. FLEISCHMANN P. FLORY A. FOUGERES R. FOUQUET F. FRECON L. GERARD J.F. GIMENEZ G. GONNARD P. GONTRAND M. GOUTTE R. (Prof. émérite) GRANGE G. GUENIN G. GUICHARDANT M. GUILLOT G. GUINET A. GUYADER J.L. GUYOMAR D. JACQUET RICHARDET G. JOLION J.M. JULLIEN J.F. JUTARD A. KASTNER R. KOULOUMDJIAN J. LAGARDE M. LALANNE M. (Prof. émérite) PHYSICOCHIMIE INDUSTRIELLE GEMPPM* PHYSIQUE DE LA MATIERE PHYSIQUE DE LA MATIERE THERMODYNAMIQUE APPLIQUEE MODELISATION MATHEMATIQUE ET CALCUL SCIENTIFIQUE PHYSIQUE DE LA MATIERE AUTOMATIQUE INDUSTRIELLE LAEPSI*** VIBRATIONS-ACOUSTIQUE MECANIQUE DES SOLIDES Equipe DEVELOPPEMENT URBAIN Equipe DEVELOPPEMENT URBAIN INFORMATIQUE CENTRE DE THERMIQUE DE LYON - Thermique du bâtiment GENIE ELECTRIQUE ET FERROELECTRICITE MECANIQUE DES SOLIDES INGENIERIE DES SYSTEMES D’INFORMATION THERMODYNAMIQUE APPLIQUEE GEMPPM* CEGELY**** - Composants de puissance et applications UNITE DE RECHERCHE EN GENIE CIVIL - Hydrologie urbaine UNITE DE RECHERCHE EN GENIE CIVIL - Structures CHIMIE ORGANIQUE MECANIQUE DES STRUCTURES PHYSIQUE DE LA MATIERE RECONNAISSANCE DES FORMES ET VISION GEMPPM* GENIE ELECTRIQUE ET FERROELECTRICITE GEMPPM* PRISMa - PRoductique et Informatique des Systèmes Manufacturiers BIOLOGIE APPLIQUEE MECANIQUE DES SOLIDES MECANIQUE DES STRUCTURES MECANIQUE DES CONTACTS GEMPPM* INGENIERIE DES SYSTEMES D’INFORMATION GEMPPM* GEMPPM* INFORMATIQUE MATERIAUX MACROMOLECULAIRES CREATIS** GENIE ELECTRIQUE ET FERROELECTRICITE CEGELY**** - Composants de puissance et applications CREATIS** GENIE ELECTRIQUE ET FERROELECTRICITE GEMPPM* BIOCHIMIE ET PHARMACOLOGIE PHYSIQUE DE LA MATIERE PRISMa - PRoductique et Informatique des Systèmes Manufacturiers VIBRATIONS-ACOUSTIQUE GENIE ELECTRIQUE ET FERROELECTRICITE MECANIQUE DES STRUCTURES RECONNAISSANCE DES FORMES ET VISION UNITE DE RECHERCHE EN GENIE CIVIL - Structures AUTOMATIQUE INDUSTRIELLE UNITE DE RECHERCHE EN GENIE CIVIL - Géotechnique INGENIERIE DES SYSTEMES D’INFORMATION BIOCHIMIE ET PHARMACOLOGIE MECANIQUE DES STRUCTURES FEVRIER 2000 MARTINEZ Y. MAZILLE H. MERLE P. MERLIN J. MILLET J.P. MIRAMOND M. MOREL R. MOSZKOWICZ P. NARDON P. (Prof. émérite) NAVARRO A. NOURI A. (Mme) ODET C. OTTERBEIN M. (Prof. émérite) PASCAULT J.P. PAVIC G. PELLETIER J.M. PERA J. PERACHON G. PERRIAT P. J. PERRIN J. PINARD P. (Prof. émérite) PINON J.M. PLAY D. POUSIN J. PREVOT P. 2/2 PROST R. RAYNAUD M. REDARCE H. REYNOUARD J.M. RIGAL J.F. RIEUTORD E. (Prof. émérite) ROBERT-BAUDOUY J. (Mme) (Prof. émérite) ROUBY D. ROUX J.J. RUBEL P. RUMELHART C. SACADURA J.F. SAUTEREAU H. SCAVARDA S. THOMASSET D. TROCCAZ M. UNTERREINER R. VELEX P. VIGIER G. VINCENT A. VUILLERMOZ P.L. (Prof. émérite) INGENIERIE INFORMATIQUE INDUSTRIELLE PHYSICOCHIMIE INDUSTRIELLE GEMPPM* GEMPPM* PHYSICOCHIMIE INDUSTRIELLE UNITE DE RECHERCHE EN GENIE CIVIL - Hydrologie urbaine MECANIQUE DES FLUIDES LAEPSI*** BIOLOGIE APPLIQUEE LAEPSI*** MODELISATION MATHEMATIQUE ET CALCUL SCIENTIFIQUE CREATIS** LAEPSI*** MATERIAUX MACROMOLECULAIRES VIBRATIONS-ACOUSTIQUE GEMPPM* UNITE DE RECHERCHE EN GENIE CIVIL - Matériaux THERMODYNAMIQUE APPLIQUEE GEMPPM* ESCHIL – Equipe SCiences Humaines de l’Insa de Lyon PHYSIQUE DE LA MATIERE INGENIERIE DES SYSTEMES D’INFORMATION CONCEPTION ET ANALYSE DES SYSTEMES MECANIQUES MODELISATION MATHEMATIQUE ET CALCUL SCIENTIFIQUE GRACIMP – Groupe de Recherche en Apprentissage, Coopération et Interfaces Multimodales pour la Productique CREATIS** CENTRE DE THERMIQUE DE LYON - Transferts Interfaces et Matériaux AUTOMATIQUE INDUSTRIELLE UNITE DE RECHERCHE EN GENIE CIVIL - Structures CONCEPTION ET ANALYSE DES SYSTEMES MECANIQUES MECANIQUE DES FLUIDES GENETIQUE MOLECULAIRE DES MICROORGANISMES GEMPPM* CENTRE DE THERMIQUE DE LYON INGENIERIE DES SYSTEMES D’INFORMATION MECANIQUE DES SOLIDES CENTRE DE THERMIQUE DE LYON - Transferts Interfaces et Matériaux MATERIAUX MACROMOLECULAIRES AUTOMATIQUE INDUSTRIELLE AUTOMATIQUE INDUSTRIELLE GENIE ELECTRIQUE ET FERROELECTRICITE CREATIS** MECANIQUE DES CONTACTS GEMPPM* GEMPPM* PHYSIQUE DE LA MATIERE Directeurs de recherche C.N.R.S. : Y.BERTHIER N.COTTE-PATAT (Mme) P.FRANCIOSI M.A. MANDRAND (Mme) J.F.QUINSON A.ROCHE A. SEGUELA MECANIQUE DES CONTACTS UNITE MICROBIOLOGIE ET GENETIQUE GEMPPM* UNITE MICROBIOLOGIE ET GENETIQUE GEMPPM* MATERIAUX MACROMOLECULAIRES GEMPPM* Directeurs de recherche I.N.R.A. : G.FEBVAY S.GRENIER BIOLOGIE APPLIQUEE BIOLOGIE APPLIQUEE Directeurs de recherche I.N.S.E.R.M. : A-F.PRIGENT (Mme) I.MAGNIN (Mme) BIOLOGIE ET PHARMACOLOGIE CREATIS** * GEMPPM GROUPE D'ETUDE METALLURGIE PHYSIQUE ET PHYSIQUE DES MATERIAUX ** CREATIS CENTRE DE RECHERCHE ET D’APPLICATIONS ENTRAITEMENT DE L’IMAGE ET DU SIGNAL *** LAEPSI LABORATOIRE D’ANALYSE ENVIRONNEMENTALE DESPROCEDES ET SYSTEMES INDUSTRIELS **** CEGELY CENTRE DE GENIE ELECTRIQUE DE LYON INSA DE LYON DEPARTEMENT DES ETUDES DOCTORALES ET RELATIONS INTERNATIONALES SCIENTIFIQUES AVRIL 2001 Ecoles Doctorales et Diplômes d’Etudes Approfondies habilités pour la période 1999-2003 ECOLES DOCTORALES n° code national RESPONSABLE PRINCIPAL CORRESPONDANT INSA CHIMIE DE LYON M. D. SINOU UCBL1 04.72.44.62.63 Sec 04.72.44.62.64 Fax 04.72.44.81.60 M. P. MOSZKOWICZ 83.45 Sec 84.30 Fax 87.17 DEA INSA n° code national Chimie Inorganique (Chimie, Procédés, Environnement) EDA206 ECONOMIE, ESPACE ET MODELISATION DES COMPORTEMENTS (E2MC) M.A. BONNAFOUS LYON 2 04.72.72.64.38 Sec 04.72.72.64.03 Fax 04.72.72.64.48 Mme M. ZIMMERMANN 84.71 Fax 87.96 910643 RESPONSABLE DEA INSA M. J.F. QUINSON Tél 83.51 Fax 85.28 Sciences et Stratégies Analytiques 910634 Sciences et Techniques du Déchet 910675 M. P. MOSZKOWICZ Tél 83.45 Fax 87.17 Villes et Sociétés Mme M. ZIMMERMANN Tél 84.71 Fax 87.96 911218 Dimensions Cognitives et Modélisation 992678 M. L. FRECON Tél 82.39 Fax 85.18 Automatique Industrielle 910676 M. M. BETEMPS Tél 85.59 Fax 85.35 Dispositifs de l’Electronique Intégrée 910696 M. D. BARBIER Tél 85.47 Fax 60.81 Génie Electrique de Lyon 910065 M. J.P. CHANTE Tél 87.26 Fax 85.30 Images et Systèmes Mme I. MAGNIN Tél 85.63 Fax 85.26 M. S. GRENIER Tél 79.88 Fax 85.34 EDA417 ELECTRONIQUE, ELECTROTECHNIQUE, AUTOMATIQUE M. G. GIMENEZ INSA DE LYON 83.32 Fax 85.26 (E.E.A.) EDA160 992254 EVOLUTION, ECOSYSTEME, MICROBIOLOGIE , MODELISATION (E2M2) M. J.P FLANDROIS UCBL1 04.78.86.31.50 Sec 04.78.86.31.52 Fax 04.78.86.31.49 M. S. GRENIER 79.88 Fax 85.34 Analyse et Modélisation des Systèmes Biologiques 910509 EDA403 INFORMATIQUE ET INFORMATION POUR LA SOCIETE (EDIIS) Documents Multimédia, Images et Systèmes d’Information Communicants 992774 Extraction des Connaissances à partir des Données 992099 M. J.M. JOLION INSA DE LYON 87.59 Fax 80.97 EDA 407 Informatique et Systèmes Coopératifs pour l’Entreprise 950131 Biochimie INTERDISCIPLINAIRE SCIENCESSANTE (EDISS) M. A.J. COZZONE UCBL1 04.72.72.26.72 Sec 04.72.72.26.75 Fax 04.72.72.26.01 M. M. LAGARDE 82.40 Fax 85.24 M. J. JOSEPH ECL 04.72.18.62.44 Sec 04.72.18.62.51 Fax 04.72.18.60.90 M. J.M. PELLETIER 83.18 Fax 84.29 930032 M. A. FLORY Tél 84.66 Fax 85.97 M. J.F. BOULICAUT Tél 89.05 Fax 87.13 M. A. GUINET Tél 85.94 Fax 85.38 M. M. LAGARDE Tél 82.40 Fax 85.24 EDA205 MATERIAUX DE LYON UNIVERSITE LYON 1 EDA 034 MATHEMATIQUES ET INFORMATIQUE FONDAMENTALE (Math IF) M. NICOLAS UCBL1 04.72.44.83.11 Fax 04.72.43.00.35 M. J. POUSIN 88.36 Fax 85.29 M. J. BATAILLE ECL 04.72.18.61.56 Sec 04.72.18.61.60 Fax 04.78.64.71.45 G.DALMAZ 83.03 Fax 04.72.89.09.80 Génie des Matériaux : Microstructure, Comportement Mécanique, Durabilité 910527 M. J.M.PELLETIER Tél 83.18 Fax 85.28 Matériaux Polymères et Composites 910607 M. H. SAUTEREAU Tél 81.78 Fax 85.27 Matière Condensée, Surfaces et Interfaces 910577 M. G. GUILLOT Tél 81.61 Fax 85.31 Analyse Numérique, Equations aux dérivées partielles et Calcul Scientifique 910281 M. G. BAYADA Tél 83.12 Fax 85.29 Acoustique 910016 M. J.L. GUYADER Tél 80.80 Fax 87.12 992610 M. M. MIRAMOND Tél 82.16 Fax 87.10 EDA 409 MECANIQUE, ENERGETIQUE, GENIE CIVIL, ACOUSTIQUE (MEGA) EDA162 Génie Civil Génie Mécanique 992111 Thermique et Energétique 910018 En grisé : Les Ecoles doctorales et DEA dont l’INSA est établissement principal M. G. DALMAZ Tél 83.03 Fax 04.78.89.09.80 Mme. M. LALLEMAND Tél 81.54 Fax 60.10 Remerciements Je remercie Messieurs Gérard GUILLOT, Directeur du Laboratoire de Physique de la Matière et président du jury, et Gérard GIMENEZ, Directeur du Centre de Recherche et d'Applications en Traitement de l'Image et du Signal, de m’avoir accueilli dans leur laboratoire. Mes remerciements s’adressent ensuite à Messieurs Marcel GAUNEAU, Ingénieur de Recherche HDR au CNET Lannion, et Daniel MATHIOT, Directeur du Laboratoire PHASE à Strasbourg, d’avoir bien voulu être rapporteurs de cette thèse. Je remercie Messieurs Gilles PRUDON et Brice GAUTIER, qui ont examiné mon travail et m’ont aussi épaulé tout au long de ces trois années. Je remercie également Monsieur Gérard THOMAS, Professeur au LAGEP à Lyon, d’avoir examiné mon travail. J’adresse toute ma gratitude à Messieurs Jean-Claude DUPUY, Professeur au LPM, et Rémy PROST, Professeur à CREATIS, tout deux co-directeurs de thèse, pour m’avoir proposé ce sujet de thèse et m’avoir suivi tout au long de cette étude. Je remercie également toutes les personnes qui ont participé de près ou de loin à ce travail, par leurs aides ou conseils, par leurs encouragements ou simplement leur présence, en particulier : Nicolas BABOUX, Doctorant et co-bureau, pour les excellentes mesures SIMS qu’il m’a fourni, mais surtout pour son aide, sa présence et sa complicité. Gilles PRUDON, Maître de conférences au LPM, pour les conseils et l’aide qu’il m’a apportés. Christiane DUBOIS, Ingénieur CNRS, également pour les analyses SIMS. Jacques DELMAS, Technicien, et Philippe BASTIANI, Doctorant à l’INSA, pour les agréables moments passés ensembles. Ainsi que tous les autres membre de l’équipe SIMS ou du LPM, Jean-Pierre VALLARD, Technicien, Martine ROJAS et Patricia COMBIER, Secrétaires, Sylvia CROCI, Doctorante, et une pensée particulière pour Youri TSYBINE. Enfin, je remercie tout particulièrement Lilia, qui m’a encouragé et supporté tout au long de ce travail de thèse. Table des matières ,QWURGXFWLRQ…………………………………………………………………………………………9 &KDSLWUH/¶DQDO\VHHQSURIRQGHXUSDU6,06 1. GÉNÉRALITÉS SUR L’ANALYSE SIMS ............................................................................................. 15 1.1 1.2 1.3 1.4 1.5 2. PRINCIPE ET CARACTÉRISTIQUES ............................................................................................................. 15 LES POSSIBILITÉS ET LES PERFORMANCES DE LA TECHNIQUE ................................................................... 16 LES INCONVÉNIENTS DE LA TECHNIQUE ................................................................................................... 16 UNE TECHNIQUE DE SURFACE ET DE PROFONDEUR ................................................................................... 16 LES BESOINS DE LA MICRO-ÉLECTRONIQUE .............................................................................................. 17 DESCRIPTION DE L’ANALYSEUR IONIQUE ................................................................................... 17 2.1 DU FAISCEAU D’IONS PRIMAIRES À L’ÉCHANTILLON ................................................................................ 17 2.1.1 La source d’ions primaires............................................................................................................ 17 2.1.2 La colonne primaire ...................................................................................................................... 19 1.1.3 La chambre objet ........................................................................................................................... 19 1.2 DE L’ÉCHANTILLON AU SYSTÈME DE DÉTECTION ..................................................................................... 20 1.2.1 La colonne secondaire................................................................................................................... 20 1.2.2 Le prisme électrostatique............................................................................................................... 21 1.2.3 Le secteur magnétique ................................................................................................................... 21 1.2.4 Le système de détection des ions secondaires................................................................................ 22 1.2.5 Le détecteur d’images ioniques ..................................................................................................... 23 1.3 LES AUTRES CLASSES D’ANALYSEURS IONIQUES ...................................................................................... 23 1.3.1 Le SIMS à temps de vol.................................................................................................................. 23 1.3.2 Le SIMS à quadrupôle ................................................................................................................... 24 3. LES PROCESSUS DE PULVÉRISATION ET D’IONISATION ......................................................... 24 3.1 LE MIXAGE COLLISIONNEL ....................................................................................................................... 25 3.1.1 Description du mixage collisionnel ............................................................................................... 25 3.1.2 Les conséquences du mixage collisionnel...................................................................................... 26 1.1.3 Modélisation du comportement exponentiel décroissant............................................................... 28 1.1.1 Observations expérimentales de λd................................................................................................ 28 1.2 LES TAUX DE PULVÉRISATION ET D’IONISATION....................................................................................... 29 4. PARTICULARITÉS DE L’OXYGÈNE DANS L’ANALYSE PAR SIMS........................................... 30 4.1 LA SÉGRÉGATION DE CERTAINES ESPÈCES ............................................................................................... 30 1.2 LE GONFLEMENT DE LA MATRICE : LE SWELLING ...................................................................................... 31 1.3 L’UTILISATION DU SOUFFLAGE D’OXYGÈNE............................................................................................. 32 1.3.1 Description .................................................................................................................................... 32 1.1.2 Avantages et inconvénients du soufflage d’oxygène ...................................................................... 32 5. EXEMPLES DE PROFILS EN PROFONDEUR ET POSITION DU PROBLÈME .......................... 33 6. DÉFINITION DE LA RÉSOLUTION EN PROFONDEUR ................................................................. 35 6.1 LES CRITÈRES DE QUALITÉ D’UN PROFIL EN PROFONDEUR ....................................................................... 35 6.2 DIFFÉRENTES MÉTHODES D’ÉVALUATION ................................................................................................ 36 6.2.1 Evaluation par front montant ou descendant................................................................................. 36 1.1.2 Evaluation sur un delta-dopage..................................................................................................... 37 1.1.3 Séparabilité de deux deltas-dopage............................................................................................... 39 7. LA FONCTION DE RÉSOLUTION EN PROFONDEUR .................................................................... 40 7.1 1.2 1.3 LA RÉPONSE IMPULSIONNELLE EN SIMS.................................................................................................. 40 APPROCHE EXPÉRIMENTALE DE LA DRF.................................................................................................. 41 MODÉLISATION DE LA DRF ..................................................................................................................... 41 1.4 QUELLE FORME ANALYTIQUE POUR LA DRF ? ......................................................................................... 42 1.5 PROPRIÉTÉS DE LA DRF........................................................................................................................... 45 1.5.1 Causalité........................................................................................................................................ 45 1.5.2 Asymétrie de la DRF...................................................................................................................... 46 1.6 CAS DU BORE DANS LE SILICIUM .............................................................................................................. 47 1.6.1 Fittage des deltas-dopage.............................................................................................................. 47 1.1.2 Approche qualitative et interprétations ......................................................................................... 49 1.1.3 Evolution des paramètres de la DRF............................................................................................. 49 1.1.4 Origine des paramètres de la DRF et mécanismes balistiques...................................................... 51 1.1.5 Quelle extrapolation à très basse énergie ? .................................................................................. 52 8. CONCLUSION .......................................................................................................................................... 52 &KDSLWUH±/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 1. INTRODUCTION...................................................................................................................................... 53 2. GÉNÉRALITÉS SUR LA DÉCONVOLUTION .................................................................................... 54 2.1 RAPPELS SUR LA CONVOLUTION............................................................................................................... 54 2.1.1 Définition ....................................................................................................................................... 54 2.1.2 Propriétés du produit de convolution ............................................................................................ 55 2.2 MODÉLISATION D’UN PROFIL SIMS PAR CONVOLUTION .......................................................................... 56 2.3 INVERSION DIRECTE DE L’ÉQUATION DE CONVOLUTION........................................................................... 56 2.4 SOLUTION PRINCIPALE ............................................................................................................................. 58 2.5 DÉCONVOLUTION DE SIGNAUX BRUITÉS................................................................................................... 59 2.6 DIFFÉRENTS TYPES DE BRUIT ................................................................................................................... 60 2.6.1 Caractéristiques fréquentielles du bruit ........................................................................................ 60 2.6.2 Caractéristiques probabilistes du bruit ......................................................................................... 60 2.7 EQUATION DE CONVOLUTION AVEC BRUIT ............................................................................................... 61 2.8 CONSÉQUENCES DE LA PRÉSENCE DU BRUIT............................................................................................. 63 2.8.1 Saturation des hautes fréquences .................................................................................................. 63 2.8.2 Filtrage de la solution : le « filtre optimal de Wiener » ................................................................ 64 3. PASSAGE DU DOMAINE CONTINU AU DOMAINE DISCRET ...................................................... 66 3.1 NATURE DES SIGNAUX SIMS MESURÉS ................................................................................................... 66 3.2 NOTATIONS ET PARTICULARITÉS DU DOMAINE DISCRET........................................................................... 66 3.2.1 Domaine temporel discret.............................................................................................................. 66 3.2.2 Espace de Fourier discret.............................................................................................................. 67 3.3 LONGUEUR DES SIGNAUX ......................................................................................................................... 67 3.4 NOTATION MATRICIELLE.......................................................................................................................... 68 4. PROBLÈMES MAL POSÉS..................................................................................................................... 70 4.1 RÉSOLUTION DE L’ÉQUATION DE CONVOLUTION ...................................................................................... 70 4.1.1 Cas non bruité ............................................................................................................................... 70 4.1.2 Cas bruité ...................................................................................................................................... 71 4.2 RÉSOLUTION PAR LES MOINDRES CARRÉS ................................................................................................ 71 5. RÉGULARISATION D’UN PROBLÈME MAL POSÉ ........................................................................ 73 5.1 INTRODUCTION À LA RÉGULARISATION .................................................................................................... 73 5.2 FORMULATION DE LA RÉGULARISATION .................................................................................................. 73 5.3 CHOIX DE LA MÉTHODE DE RÉGULARISATION .......................................................................................... 74 5.3.1 Régularisation de norme minimale ou d’ordre 0........................................................................... 74 5.3.2 Régularisation de Tikhonov-Miller................................................................................................ 75 5.3.3 Choix de l’opérateur de régularisation ......................................................................................... 76 5.4 DÉTERMINATION DU PARAMÈTRE DE RÉGULARISATION ........................................................................... 77 5.4.1 Méthode de Miller : optimisation par rapport au bruit ................................................................. 77 5.4.2 La validation croisée ..................................................................................................................... 78 5.4.3 La validation croisée généralisée .................................................................................................. 79 5.5 CONCLUSION SUR LES MÉTHODES DE RÉGULARISATION DES PROBLÈMES INVERSES MAL POSÉS .............. 79 6. LES MÉTHODES ITÉRATIVES DE DÉCONVOLUTION ................................................................. 80 6.1 L’ALGORITHME DE VAN CITTERT ............................................................................................................ 80 6.2 RÉGULARISATION DE L’ALGORITHME DE VAN CITTERT........................................................................... 80 6.3 CONTRAINTES DURES APPLIQUÉES À UN SIGNAL ...................................................................................... 81 6.3.1 Définition ....................................................................................................................................... 81 6.3.2 Exemples de contraintes dures ...................................................................................................... 81 6.3.3 Introduction des contraintes dures dans l’algorithme de Van Cittert ........................................... 83 7. PROPOSITION D’UNE NOUVELLE MÉTHODE DE DÉCONVOLUTION.................................... 84 7.1 INTRODUCTION DU MODÈLE DE LA SOLUTION .......................................................................................... 84 7.2 EQUIVALENCE DANS LE DOMAINE DE FOURIER ........................................................................................ 85 7.3 JUSTIFICATION DE L’EMPLOI D’UN MODÈLE DE LA SOLUTION................................................................... 86 7.4 INFLUENCE DU MODÈLE ........................................................................................................................... 86 7.5 EXPRESSIONS DU MODÈLE DE LA SOLUTION ............................................................................................. 87 7.5.1 Minimisation de l’erreur de reconstruction................................................................................... 87 7.5.2 Utilisation d’un signal déconvolué a priori comme modèle de la solution ................................... 88 8. CONCLUSION .......................................................................................................................................... 90 &KDSLWUH±'pFRQYROXWLRQVGH3URILOV6,066LPXOpV 1. INTRODUCTION...................................................................................................................................... 91 2. CONDITIONS OPÉRATOIRES.............................................................................................................. 91 2.1 2.2 2.3 2.4 2.5 3. SIGNAUX-TYPES UTILISÉS POUR LES SIMULATIONS................................................................ 96 3.1 3.2 3.3 3.4 3.5 4. CARACTÉRISTIQUES FRÉQUENTIELLES DE LA DRF ET RÉGULARISATION ................................................. 91 AMPLEUR DE LA DÉGRADATION ............................................................................................................... 92 MESURE DE CONCENTRATION ET POSITIVITÉ............................................................................................ 92 BRUIT SIMS ............................................................................................................................................ 94 QUALITÉ DE L’ÉCHANTILLONNAGE .......................................................................................................... 95 DIRAC ...................................................................................................................................................... 96 CRÉNEAU ................................................................................................................................................. 96 GAUSSIENNE ............................................................................................................................................ 96 DEUX DELTAS-DOPAGE PROCHES ............................................................................................................. 97 CONSTRUCTION D’UN SIGNAL-TEST « POLYVALENT ».............................................................................. 98 DÉCONVOLUTION PAR LES MÉTHODES NON-ITÉRATIVES .................................................... 98 4.1 DÉCONVOLUTION SANS RÉGULARISATION ............................................................................................... 98 4.2 DÉCONVOLUTION PAR FILTRE DE WIENER ............................................................................................... 99 4.3 RÉGULARISATION DE TIKHONOV-MILLER ET INVERSION DE L’ÉQUATION DE CONVOLUTION................. 101 4.3.1 Déconvolution du signal-test ....................................................................................................... 101 4.3.2 Déconvolution de signaux lisses .................................................................................................. 102 4.3.3 Conclusion sur l’inversion de l’équation de convolution régularisée ......................................... 104 5. DÉCONVOLUTION PAR RECHERCHE DU MEILLEUR MODÈLE NUMÉRIQUE DE LA SOLUTION........................................................................................................................................................ 104 5.1 CONDITIONS IDÉALES : MODÈLE PARFAIT DE LA SOLUTION.................................................................... 104 5.2 MODÈLE NUMÉRIQUE TIRÉ DE L’ERREUR DE RECONSTRUCTION ............................................................. 106 5.3 UTILISATION DU « SIGNAL DÉCONVOLUÉ SANS MODÈLE » COMME MODÈLE NUMÉRIQUE ...................... 106 5.4 CHOIX DU TERME DE RÉGULARISATION.................................................................................................. 108 5.4.1 Choix du filtre D .......................................................................................................................... 108 5.4.2 Calcul de α .................................................................................................................................. 110 5.5 CONVERGENCE DE L’ALGORITHME ........................................................................................................ 110 6. DÉCONVOLUTION DE DIFFÉRENTES STRUCTURES ................................................................ 114 6.1 GAUSSIENNES ........................................................................................................................................ 114 6.2 6.3 7. CRITÈRES D’ARRÊT DE L’ALGORITHME .................................................................................... 123 7.1 7.2 7.3 8. DÉFINITION DES ERREURS ...................................................................................................................... 123 EVOLUTION DU PROFIL DÉCONVOLUÉ EN FONCTION DU NOMBRE D’ITÉRATIONS ................................... 125 DÉCONVOLUTION « PAR ZONES »........................................................................................................... 128 DÉCONVOLUTION DE DELTAS-DOPAGE...................................................................................... 130 8.1 8.2 8.3 9. CRÉNEAUX ............................................................................................................................................. 118 DÉCONVOLUTION DE DEUX STRUCTURES ADJACENTES D’AMPLITUDE TRÈS DIFFÉRENTES ..................... 121 L’AUTO-DÉCONVOLUTION ..................................................................................................................... 131 RÉSULTATS ET PERFORMANCES DE L’ALGORITHME DE DÉCONVOLUTION .............................................. 133 SÉPARATION DE DELTAS-DOPAGE .......................................................................................................... 139 CONCLUSION ........................................................................................................................................ 143 &KDSLWUH ± $SSOLFDWLRQ GH OD 0pWKRGH GH 'pFRQYROXWLRQ DX[ 3URILOV 6,06 ([SpULPHQWDX[ 0RGpOLVDWLRQ GH 3KpQRPqQHV 'pJUDGDQW OD 5pVROXWLRQ HQ3URIRQGHXU 1. INTRODUTION ...................................................................................................................................... 145 2. DÉCONVOLUTION D’ÉCHANTILLONS « MULTI DELTAS-DOPAGE »................................... 145 2.1 DÉCONVOLUTION DU MULTI DELTAS-DOPAGE WARWICK 1. PROFIL EN PROFONDEUR À HAUTE ÉNERGIE D’IMPACT ........................................................................................................................................................ 145 2.2 DÉCONVOLUTION DU MULTI DELTAS-DOPAGE BENNETT. PROFIL EN PROFONDEUR À BASSE ÉNERGIE ... 150 2.3 GAIN EN RÉSOLUTION EN PROFONDEUR PAR DÉCONVOLUTION .............................................................. 154 3. DÉCONVOLUTION DE PROFILS QUELCONQUES....................................................................... 155 3.1 3.2 3.3 3.4 3.5 PSEUDO DELTAS-DOPAGE (WARWICK 2)................................................................................................ 155 TRIPLE MARCHE DE CONCENTRATION À HAUTE ET BASSE ÉNERGIE ........................................................ 158 CRÉNEAUX DE CONCENTRATION « ÉTROITS » ........................................................................................ 162 DÉCONVOLUTION D’UN CRÉNEAU À BASSE ÉNERGIE. INVARIANCE DU PROFIL DÉCONVOLUÉ ................ 164 DÉCONVOLUTION D’UN ÉCHANTILLON « BI-DELTA ». PROFIL FORTEMENT BRUITÉ ............................... 166 4. DÉCONVOLUER AVEC UNE DRF VARIANTE. CORRECTION DE L’ÉCHELLE DES PROFONDEURS............................................................................................................................................... 168 4.1 4.2 5. SOURCES DE VARIATIONS DE LA DRF .................................................................................................... 168 ESSAI DE DÉCONVOLUTION D’UN PROFIL MESURÉ OÙ LA DRF EST VARIANTE ....................................... 170 CONCLUSION ........................................................................................................................................ 172 &RQFOXVLRQ*pQpUDOH………………………………………………………………………175 5pIpUHQFHV……..……………………………………………………………………………………179 ,QWURGXFWLRQ Les composants de la micro-électronique contiennent désormais des structures dont les dimensions sont nanométriques. La Spectrométrie de Masse des Ions Secondaires (SIMS), s’est imposée comme la technique incontournable pour caractériser les jonctions, grâce à sa sensibilité, de l’ordre du ppm, ainsi qu’à sa résolution en profondeur qui atteint quelques dizaines d’angströms. Les développements de l’instrumentation SIMS ne sont pas aussi prononcés et rapides que ceux des techniques de fabrication des matériaux de la microélectronique. La résolution en profondeur est maintenant insuffisante pour la caractérisation des jonctions abruptes et des monocouches. La mesure par SIMS, de par son principe, implique une déformation locale de la distribution des éléments de l’échantillon analysé, et entraîne une distorsion du profil en profondeur de la concentration d’une espèce donnée. Cette distorsion étant de type filtre passe-bas, il y a perte de résolution en profondeur, même en utilisant les appareils les plus précis et dans les meilleures conditions expérimentales. Par ailleurs, la complexité des mécanismes mis en jeu lors d’une mesure par SIMS ne permet pas la modélisation complète du système et encore moins la quantification des profils obtenus. Ainsi, l’amélioration de la résolution en profondeur passe pour l’instant par l’utilisation de techniques de traitement du signal appliquées aux profils mesurés. Nous avons retenu l’une d’entre elles, la déconvolution, qui permet une restauration partielle ou complète des caractéristiques géométriques des structures analysées. Le premier chapitre de ce travail décrit tout d’abord les principaux organes de l’analyseur ionique, puis les mécanismes intervenant dans la formation du profil en profondeur. Nous nous attacherons en particulier aux caractéristiques de l’analyse par ions primaires oxygène, largement utilisés en SIMS. Cela nous amènera à définir la résolution en profondeur ainsi que la réponse impulsionnelle du système d’analyse, appelée fonction de résolution en profondeur, ou depth resolution function (DRF). Ce chapitre, décrivant l’aspect physique de cette étude de la déconvolution de profils SIMS, permettra de cerner les particularités du problème qui se traduiront dans les chapitres suivants par des conditions opératoires et des propriétés à respecter lors de la mise en œuvre de la déconvolution. Le deuxième chapitre présente les bases de la restauration d’informations par déconvolution. Les aspects théoriques sont abordés avant la description de quelques méthodes simples, à la base de méthodes plus complexes et orientées vers les systèmes fortement dégradants. Cette partie se terminera par la présentation d’un nouvel algorithme de déconvolution bien adapté aux signaux SIMS abrupts. Dans le troisième chapitre, nous effectuons les simulations de déconvolution nécessaires à la validation des techniques employées. L’étude de différents profils permettra en particulier de définir les conditions opératoires que nous utiliserons en fonction des types de profils expérimentaux possibles. Nous insistons également sur la nécessité d’avoir dès le départ des données de qualité. Nous abordons finalement les performances ultimes de la déconvolution avec le cas particulier des deltas-dopage. Enfin, le quatrième et dernier chapitre de cette étude présentera les résultats que nous avons obtenus par la méthode de déconvolution appliquée à des profils de concentration réels. Ce sera l’occasion d’aborder les problèmes liés aux conditions expérimentales. Nous discuterons également de l’intérêt d’utiliser ou non la déconvolution selon les données de départ. Nous conclurons enfin par un bilan du travail effectué et les perspectives dans ce domaine. &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 &KDSLWUH /¶$QDO\VHHQ3URIRQGHXU SDU6,06 1. Généralités sur l’analyse SIMS La Spectrométrie de Masse des Ions Secondaires est une technique d’expertise des matériaux et des échantillons bien adaptée à la micro-électronique, puisque les performances de l’analyseur permettent d’obtenir un excellent compromis entre la sensibilité dans la détection des éléments, parfois en quantité très faible dans les composants, et la résolution en profondeur. 1.1 Principe et caractéristiques L’analyse SIMS consiste à éroder progressivement et très lentement un échantillon au moyen d’un faisceau d’ions, et d’étudier la nature ainsi que la quantité des espèces chimiques présentes dans cet échantillon et qui ont été éjectées par l’érosion. Le faisceau d’ions incidents est dit primaire, par comparaison avec le faisceau d’ions secondaires provenant de l’échantillon analysé. Lors du bombardement, les ions primaires provoquent des collisions sur et sous la surface de l’échantillon, ce qui conduit à l’émission de diverses espèces : atomes et molécules neutres, ions mono et polyatomiques, ainsi que photons et électrons. Les ions secondaires émis constituent l’information recherchée. Une partie provient des ions incidents, et l’autre de l’échantillon. La figure 1-1 nous montre le principe de l’érosion et de l’émission des ions secondaires. Ions primaires Courant I0 Ions secondaires Courant IE Surface Mixage substrat Figure 1-1 : Schéma de principe de l’analyse par SIMS. 15 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 1.2 Les possibilités et les performances de la technique L’analyse SIMS permet la détection et la mesure de n’importe quel élément de la classification périodique dans une matrice donnée. La sensibilité est de l’ordre du ppm pour la plupart des éléments, voire du ppb. C’est donc une technique d’analyse très bien adaptée aux semi-conducteurs, qui sont maintenant dopés avec des concentrations très faibles ou très fortes sur des épaisseurs toujours plus petites. C’est une analyse dite « semi-quantitative », car on a besoin d’une mesure de référence pour comparer les concentrations réelles et mesurées. La résolution est de l’ordre du µm latéralement, et du nm en profondeur. On peut ainsi aisément obtenir une image ionique d’une surface ou un profil en profondeur de la concentration d’une espèce dans une matrice. La résolution en masse de la technique est tout aussi performante, puisqu’on peut discriminer deux éléments de même masse nominale mais distantes de ∆M/M de l’ordre de 10-4. 1.3 Les inconvénients de la technique Plusieurs limitations découlent du procédé de la mesure. Tout d’abord, l’analyse est destructive, puisque l’échantillon est érodé pratiquement plan atomique par plan atomique, mais jusqu’à des profondeurs de l’ordre du µm ou plus. La surface endommagée est à chaque nouvelle mesure d’environ 500 µm x 500 µm ; il faudra donc tenir compte de la surface disponible à la mesure sur l’échantillon. De par les dimensions de l’aire analysée, on ne peut obtenir qu’une étude locale de l’échantillon. On ne peut donc pas étudier un échantillon hétérogène ou de structure latérale complexe avec une unique mesure. On peut cependant accumuler des images à différentes profondeurs. L’inconvénient majeur de l’analyse SIMS est la quantification des résultats obtenus. En effet, la complexité du processus d’émission ionique ne permet pas de modéliser totalement l’analyse, et encore moins de la quantifier analytiquement. La connaissance d’une concentration exacte passe par une mesure étalon faite sur un échantillon de référence dans les mêmes conditions expérimentales. En micro-électronique, on fait appel à des échantillons standards implantés de doses connues des différents dopants à analyser. 1.4 Une technique de surface et de profondeur Le bombardement de l’échantillon par des ions primaires entraîne une érosion lente du matériau. Les ions secondaires émis proviennent au maximum des trois premières couches atomiques sous la surface de l’échantillon. Une première approche consiste à obtenir une image ionique de la surface, en balayant celle-ci avec le faisceau d’ions primaires. Mais cette technique de surface n’empêche pas le caractère dynamique de l’analyse SIMS, c’est-à-dire que l’érosion permet aussi de faire l’analyse en profondeur de l’échantillon. C’est l’aspect qui nous intéressera dans ce travail. Le profil en profondeur de concentration est donc un découpage plan par plan de l’échantillon pour donner la distribution en profondeur d’une espèce donnée dans la matrice. 16 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 1.5 Les besoins de la micro-électronique Les technologies de fabrication des composants de la micro-électronique tendent sans cesse vers la miniaturisation. L’analyse SIMS, au regard de la caractérisation précise de ces structures, touche ses limites. Les mécanismes d’implantation propres à la mesure limitent l’accès à l’information ultime de profondeur, du fait du mixage ionique sur une certaine épaisseur. Plusieurs raisons motivent l’amélioration de l’analyse : • Les fondeurs demandent une information de plus en plus précise sur les structures extrêmement fines (deltas-dopage, interfaces abruptes), tant en profondeur qu’en concentration. • L’analyse de ces structures n’est pas assez fine pour que les échantillons puissent être considérés comme standards. Des efforts sont donc encore à faire à deux niveaux : • Au niveau de l’instrumentation. • Au niveau des techniques de traitement du signal. 2. Description de l’analyseur ionique On distingue plusieurs familles d’analyseurs ioniques, chacune étant optimisée pour telle ou telle utilisation. Nous allons décrire de manière générale celui de notre laboratoire, le CAMECA IMS3/4f. Le schéma de principe est représenté sur la figure 1-2 (tirée de la référence [2]). On peut distinguer cinq parties importantes : • La colonne primaire : elle transporte les ions primaires de la source à l’échantillon grâce à une optique de transfert ionique. • La colonne secondaire : elle amène les ions secondaires de l’échantillon au système de tri. • Le secteur électrostatique trie les ions en énergie. • Le secteur magnétique les trie en masse. • Enfin, on a le système de détection des ions pour leur comptage. Nous allons décrire brièvement chacune des étapes de l’analyse associées aux différentes parties du spectromètre. 2.1 Du faisceau d’ions primaires à l’échantillon 2.1.1 La source d’ions primaires Les ions utilisés habituellement en analyse SIMS peuvent être des ions oxygène ou césium, mais on peut aussi prendre l’azote (N2+) ou le xénon (Xe+). Une source d’oxygène peut produire des ions O+, O-, O2+ et O2-. C’est un duoplasmatron à cathode froide qui les crée, ce qui permet, en changeant la bouteille d’oxygène par une bouteille d’argon, d’obtenir des ions Ar+, également employés en SIMS. Les ions O2+ sont les plus largement utilisés, 17 fentes d'énergie lentille du spectromètre prisme électrostatique électrode intermédiaire prisme magnétique duoplasmatron diaphragme de champ oxygène fentes d'entrée diaphragme de contraste cathode déflecteur 2 stigmateur lentilles de transfert bobine fentes de sortie anode plasma d'O 2+ lentilles de projection électrode d'accélération déflecteur 3 prisme électrostatique déflecteur 1 lentille 1 plaques de transfert dynamique limiteur lentille 2 diaphragme d'ouverture électromultiplieur stigmateur cage de faraday double déflecteur écran fluorescent cage de faraday lentille 3 lentille d'extraction échantillon &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 18 Figure 1-2 : Schéma de principe de l’analyseur ionique CAMECA IMS3/4f. déflecteur 1 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 à l’origine parce qu’ils sont les plus nombreux dans le plasma, et aussi parce que l’énergie est divisée par deux par rapport à un ion simple, ce qui améliore la résolution en profondeur. Une source de nature différente est également assez employée, la source césium, qui émet les ions Cs+ à partir d’un composé solide. L’émission des ions secondaires négatifs (halogènes, phosphore, carbone, oxygène…) est améliorée par un bombardement d’ions Cs+. Les deux sources sont décrites en détail dans la référence [1]. 2.1.2 La colonne primaire A la sortie de la source un filtrage magnétique assure la pureté du faisceau d’ions. La colonne contient un système d’optique ionique composé de lentilles électrostatiques et de déflecteurs, afin de focaliser, positionner et balayer le faisceau sur l’échantillon. Dans le cas du CAMECA IMS3/4f, on peut agir sur trois lentilles et un double déflecteur afin d’amener le faisceau primaire focalisé à l’endroit fixé par la lentille à immersion, qui servira à extraire les ions secondaires de l’échantillon. Le faisceau primaire doit être du mieux possible centré sur cette région afin d’avoir une aire analysée symétrique. C’est aux deux extrémités de la colonne primaire que l’on contrôle l’énergie des ions incidents : l’échantillon est soumis à un potentiel fixe (4500 V le plus souvent, mais nous verrons plus loin qu’on utilise de plus en plus des tensions plus petites, 2250 V et 1125 V), et on fait varier le potentiel de l’électrode d’accélération. L’énergie d’impact des ions primaires, varie est typiquement de 1 à 15 keV/O2+. La valeur du courant primaire se règle également, et elle influera directement sur la vitesse d’érosion de l’échantillon. Dans le cas du CAMECA, son intensité peut varier de 1 à 2000 nA, en fonction de l’énergie d’impact choisie. Le balayage du faisceau permet de creuser un cratère homogène ayant jusqu’à 500 µm de coté. 2.1.3 La chambre objet C’est elle qui contient l’échantillon, dans un vide poussé (2Â-9 à 2Â-8 torr). Le porte-échantillon est polarisé à ±4500 Volts alors que la lentille à immersion est à la masse, ce qui permet de choisir la polarité des ions secondaires à extraire, positifs ou négatifs. Dans le cas de l’IMS3/4f, la colonne primaire fait un angle de 30° par rapport à la normale à l’échantillon. Cet angle est fixe, mais l’angle d’incidence des ions primaires au moment de l’impact sur l’échantillon est modifié par le champ électrostatique crée par la lentille à immersion (figure 1-3). Ce champ est volontairement crée entre l’échantillon et la lentille à immersion afin d’extraire les ions secondaires en fonction de leur polarité. Il en résulte une courbure de la trajectoire des ions primaires, et selon la polarité des ions primaires et celle du champ électrostatique, l’angle d’incidence pourra varier entre 25° et 55° avec la normale à l’échantillon. 19 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 ions primaires positifs lentille à immersion ions secondaires positifs θ0 θ )& E échantillon +4500 V Figure 1-3 : Influence de la polarisation de l’échantillon sur l’angle d’incidence. Plusieurs articles [1] [13] donnent un calcul détaillé de l’angle d’incidence exact dans des conditions d’utilisation standard : énergie d’impact entre 2 et 13 keV, et angle d’incidence inférieur à 55°. Dans la zone de champ uniforme E, on a conservation de la composante parallèle (à l’échantillon) de la vitesse des ions primaires. Pour un angle θ 0 = 30° à l’entrée dans le champ électrostatique, on obtient un angle d’incidence θ tel que : sin θ 0 = sin θ E0 − EEch E0 (1.1) E0 est la tension primaire, EEch le potentiel appliqué à l’échantillon. L’énergie d’impact des ions primaires est donc Ei = E0 - EEch . 2.2 De l’échantillon au système de détection 2.2.1 La colonne secondaire La colonne secondaire correspond à la partie de l’analyseur assurant le tri des ions secondaires extraits de l’échantillon avant leur détection et comptage. Elle permet le transport de l’image ionique de la surface de l’échantillon depuis ce dernier jusqu’aux détecteurs. Après la lentille à immersion une optique de transfert à trois électrodes améliore le rendement de la collecte des ions et définit la grandeur de l’image analysée. Des plaques de transfert dynamique permettent d’optimiser la collection des ions secondaires dans le cratère. On a ensuite les diaphragmes de contraste et de champ : • Le diaphragme de contraste transmet les ions secondaires ayant une énergie latérale inférieure à un seuil donné selon le diamètre de ce diaphragme. On appelle crossover le point de focalisation du faisceau. Il est transporté tout au long de la colonne secondaire. L’optique de transfert est telle que les ions de plus forte énergie latérale 20 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 • se trouvent sur les bords de ce point de focalisation. Le diaphragme de contraste les élimine donc de l’analyse et évite les aberrations chromatiques. Le diaphragme de champ est lui placé dans un plan image de la surface de l’échantillon pulvérisé intermédiaire tel qu’il définit le champ imagé, et donc la surface analysée. Sur le CAMECA, trois diamètres de diaphragme sont disponibles (100 µm, 750 µm et 1800 µm), ce qui nous permet d’obtenir un champ imagé de 1 à 400 µm en fonction du grandissement définit par l’optique de transfert. 2.2.2 Le prisme électrostatique Il trie les ions selon leur énergie. Le cross-over à l’entrée du secteur électrostatique (au niveau du diaphragme de contraste) est dit « multi-masses » et « multi-énergies ». Il est transformé en cross-over dispersé en énergie après passage dans le champ électrostatique. A la sortie de ce secteur, on peut discriminer les ions moléculaires des ions polyatomiques. En effet, il est montré que les énergies de ces deux types d’ions ont une distribution différente : les ions monoatomiques ont une distribution large en fonction de l’énergie, alors que celle des ions moléculaires est étroite. En choisissant une certaine bande d’énergie au moyen d’une fente mécanique, on peut ainsi filtrer les ions désirés (figure 1-4). Sur l’IMS3/4f, un déplacement latéral de la fente de 1 mm correspond à une translation énergétique de 26 eV, sur une plage maximum de 130 eV pour 5 mm. En pratique, deux manières équivalentes peuvent être utilisées pour filtrer en énergie : • On règle la fente afin de choisir une plage énergétique, puis on la translate mécaniquement la pour centrer cette plage. • Dans une position de la fente fixée, on applique à l’échantillon une légère tension de décalage par rapport à la tension normale de ±4500 V, ce qui translate la distribution énergétique des ions secondaires et permet à la fente de filtrer une plage énergétique différente. 2.2.3 Le secteur magnétique Cette partie du spectromètre assure le filtrage en masse des ions sortis du secteur électrostatique. Ils sont soumis à un champ magnétique B, et prennent donc une trajectoire circulaire dont le rayon de courbure s’exprime en fonction de la tension de sortie V du prisme électrostatique et du rapport masse/charge de l’espèce concernée : R= k mV avec k = 1.436 ⋅10-4 B q (1.2) La figure 1-5 nous montre les trajectoires des ions selon leur masse et leur énergie. 21 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 Ve ε Champ électrique E+∆E, M+∆M E, M+∆M Champ magnétique E+∆E ε B B E E+∆E, M E, M Vi Secteur électrostatique Fente d’énergie Secteur magnétique R E+∆E E Fente d’entrée : cross-over multi-énergies et multi-masses. Figure 1-4 : Schéma de la dispersion en énergie des ions par le secteur électrostatique, indépendamment de leur masse. E, M+∆M E, M E+∆E, M E+∆E, M+∆M Figure 1-5 : Schéma de la dispersion en masse des ions par le secteur magnétique. En faisant varier la valeur du champ magnétique B, on sélectionne une masse m/q donnée qui sera transmise via le diaphragme de sortie du spectromètre au cross-over du système optique. Plus cette fente est fermée, plus le pouvoir de séparation en masse est grand. Bien que la résolution en masse accessible en SIMS soit excellente, elle nécessite un réglage très fin afin de pouvoir distinguer deux espèces ioniques différentes. Par exemple, l’ion phosphore P+ et l’ion SiH+ ont des masses très voisines et nécessitent le « mode haute résolution », avec un pouvoir de séparation de 6000. Le projecteur placé en sortie du prisme magnétique (deux lentilles électrostatiques) à pour rôle de convertir l’image virtuelle de la surface en image réelle agrandie. 2.2.4 Le système de détection des ions secondaires Il est constitué de deux parties, une cage de Faraday pour les forts courants ioniques 7 ( > 10 coups par seconde), et un multiplicateur d’électrons pour les faibles intensités. Ce dernier est constitué d’une succession d’électrodes appelées dynodes, connectées le long d’un fil résistif relié d’une part à une haute tension et d’autre part à la masse. Le potentiel des dynodes varie graduellement tout au long de la chaîne. Quand une particule (ion, électron,…) frappe la 1ère dynode, elle produit des électrons secondaires. Ceux-ci sont multipliés et accélérés par la dynode suivante bombardée à son tour. Il s’ensuit alors une cascade d’électrons secondaires contrôlée par la tension d’accélération appliquée. Chaque cascade comptabilisée correspond à un coup, donc à un ion incident. L’avantage du multiplicateur d’électrons réside dans le fait qu’il a un très faible bruit de fond, ce qui permet d’avoir de très bonnes sensibilités. Ce mode de détection, qui est utilisé sur notre appareil, est appelé mode comptage. Un autre type de dynode existe et utilise un mode d’amplification continue du courant détecté (la dynode est alors un canal continu). 22 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 Le mode comptage implique une excellente résolution temporelle, afin de distinguer deux ions successifs très proches dans le temps arrivant sur le détecteur. La cage de Faraday est, elle, une électrode qui mesure directement le courant lorsqu’un faisceau de particules chargées la bombarde. Sa forme particulière permet de piéger au maximum les électrons secondaires afin d’établir et mesurer un courant continu au travers d’une résistance R. 2.2.5 Le détecteur d’images ioniques Lorsqu’on souhaite visualiser directement l’image ionique, on utilise une plaque de microcanaux jouant le rôle de multiplicateurs d’électrons secondaires. L’arrivée d’un ion provoque une cascade locale d’électrons, accélérés par un champ électrique, et venant frapper la surface d’un écran fluorescent. L’image ionique donnée par le projecteur est ainsi transformée en image photonique percue par l’œil humain. 2.3 Les autres classes d’analyseurs ioniques Il existe différents types d’analyseurs ioniques orientés vers des mesures plus ou moins spécifiques. Nous allons brièvement exposer leurs caractéristiques et leurs performances. 2.3.1 Le SIMS à temps de vol Dans ce type d’appareil, on utilise une des propriétés des particules chargées dans un champ électrostatique, à savoir la conservation de l’énergie dans une zone de champ uniforme. Les ions secondaires sont accélérés et acquièrent une énergie E = qU indépendante de leur masse. Chaque espèce ionique ayant un rapport masse/charge donné, la relation mv 2 nous montre que la vitesse au cours du mouvement est différente pour chacune 2 d’entre elles. Il en résulte à la sortie de la zone du champ électrique que les ions peuvent être distingués par leur temps d’arrivée sur le détecteur, les ions les plus lourds étant les plus lents. On mesure le temps séparant la sortie des ions du champ et l’arrivée sur le détecteur. L’instant où a lieu l’émission ionique est repéré grâce au fait que l’émission des ions primaires est pulsée. On néglige le temps séparant l’émission des ions primaires de celle des ions secondaires correspondants. Chaque cycle émission/détection dure en moyenne 200 µs. Les analyseurs à temps de vol ont une excellente transmission, entre 50 et 100%, donc une bonne sensibilité. Leur résolution en masse, très élevée, est quasiment constante sur toute la gamme analysée, et ils peuvent théoriquement accéder à toutes les masses possibles. Ils sont donc principalement utilisés dans l’analyse des matières organiques, surtout les polymères, où la gamme de masse est très large. Le mode de pulsage du faisceau primaire entraîne une érosion relativement lente de l’échantillon. Ce type de spectromètre est donc bien adaptée au « SIMS statique » (analyse de E= 23 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 surface), où la sensibilité est très importante. Notons qu’il est possible de rajouter une source d’ions primaires continue, en parallèle, afin d’éroder plus rapidement l’échantillon et d’effectuer une analyse en profondeur. 2.3.2 Le SIMS à quadrupôle Le principe du spectromètre à quadrupôle repose sur le filtrage des ions secondaires par un champ électrostatique très spécifique. Quatre cylindres métalliques sont reliées deux à deux électriquement, et on applique à l’une des paires une tension continue superposée à une tension alternative de haute fréquence, tandis que la deuxième paire est reliée à un potentiel égal mais de signe opposé. Les ions secondaires passent dans le champ résultant entre les quatre cylindres métalliques. La plupart des espèces ioniques acquièrent un mouvement oscillatoire divergent, et terminent leur parcours piégées sur l’une des barres du quadrupôle. Seuls les ions ayant un certain rapport masse/charge traversent entièrement la zone de champ et arrivent sur un détecteur. Pour collecter une autre espèce ionique il suffit d’appliquer un autre potentiel aux bornes du quadrupôle. Ce type d’analyseur se distingue par sa faible transmission, qui est de l’ordre de 1%, alors que le rapport masse/charge est inférieur à 1000. De plus, l’énergie des ions secondaires doit être assez basse ( < 15 eV), afin que les espèces non désirées soient « absorbées » par les bords du quadrupôle avant la fin du parcours dans le champ électrostatique. Par rapport aux spectromètres à secteur magnétique, on obtient une plus faible résolution en masse, mais l’analyse simultanée de plusieurs espèces est plus souple, car le spectromètre change non pas la valeur d’un champ magnétique (ce qui implique un effet d’hystérésis dans le cas du SIMS à secteur magnétique), mais juste la valeur des potentiels à appliquer aux barres métalliques. Le grand avantage du SIMS à quadrupôle est l’indépendance de l’angle d’incidence des ions primaires par rapport à leur énergie. En effet on a ici une faible tension d’extraction des ions secondaires, et le faisceau primaire n’est pas dévié à l’approche de l’échantillon. Cela permet de baisser l’énergie primaire, sans pour autant obtenir un angle d’incidence trop fort, et d’analyser facilement facilement les isolants. 3. Les processus de pulvérisation et d’ionisation Nous avons vu que le principe du SIMS est d’éroder progressivement la surface d’un échantillon afin d’en analyser les espèces présentes, pulvérisées en partie sous forme d’ions. Dans le cas d’une analyse en profondeur, on recueille le nombre d’ions à un instant t donné, correspondant à une profondeur z, et on dresse ainsi une courbe appelée profil en profondeur pour une espèce donnée dans une matrice donnée, par exemple le bore dans le silicium. Dans le cas idéal, l’érosion se ferait couche par couche, et chacune des espèces serait quantifiée correctement d’un bout à l’autre de l’analyse. Le cas réel est loin d’être aussi simple. De nombreux mécanismes inhérents à la mesure et non contrôlés viennent se greffer au processus d’analyse. On peut citer par ordre d’importance: 24 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 − − − Le mixage collisionnel Les taux de pulvérisation et d’ionisation L’érosion non homogène de l’échantillon 3.1 Le mixage collisionnel 3.1.1 Description du mixage collisionnel C’est le phénomène le plus problématique dans l’analyse SIMS. Les développements récents visent à le minimiser, sachant qu’il ne sera jamais totalement éliminé. Il est le résultat du bombardement de la cible par les ions primaires. En effet l’énergie cinétique des ions incidents est, au moment de l’impact, transférée à l’intérieur de la cible sous forme de déplacement d’atomes. Il en résulte une nouvelle distribution locale des espèces. On peut distinguer deux modes de mixage collisionnel : • Le mixage par choc direct : c’est le premier choc de l’ion incident avec un atome de la cible, donc sur la première couche à la surface de l’échantillon. De par le caractère unidirectionnel du faisceau primaire, le transfert d’énergie est très anisotrope et les atomes frappés sont énergiquement « poussés » vers l’intérieur. • Le mixage par cascades (cascade mixing) : c’est la succession de chocs entre les atomes de l’échantillon, initiée par le premier choc direct. Ces chocs sont moins énergétiques que les chocs directs, mais beaucoup plus nombreux. De plus, un caractère isotropique se développe au fil de la cascade. Ainsi, l’énergie d’impact d’un ion primaire est transférée dans le déplacement de nombreux atomes de la cible (figure 1-6), jusqu’à ce que les derniers atomes de la cascade de collisions reçoivent une énergie inférieure à l’énergie de déplacement des atomes, qui est d’environ 20 eV. L’énergie cinétique en excès est alors dissipée sous forme de phonons [2]. Emission de particules Ion primaire incident Surface de l’échantillon Choc initial Incorporation des ions primaires Cascade de collisions Figure 1-6 : Principe du mixage collisionnel. 25 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 Au final, on obtiendra une redistribution des espèces atomiques sous la surface de l’échantillon. Cette surface est d’ailleurs dite « instantanée », puisque l’échantillon est progressivement érodé. Des atomes initialement situés à la même profondeur pourront être soit éjectés de la surface, soit repoussés vers l’intérieur de la cible. Ce phénomène existe indépendamment des éléments chimiques mis en jeu, il a lieu quels que soient le type d’ions primaires et les matériaux constituant l’échantillon. Ce mécanisme est purement balistique (c’est à dire qu’il y a transfert d’énergie cinétique entre les atomes de la cible), et donc athermique. Sa durée approximative est de 10-13 s. Par contre, la cascade de collisions a créé une région endommagée avec apparition de trous et atomes interstitiels, ainsi qu’une accumulation d’énergie cinétique en excès (mais inférieure au seuil de déplacement des atomes). Le retour à un état énergétique stable se fait en dissipant l’énergie de manière thermique, et ce retour prend environ 10-12 à 10-11 s selon les matériaux. Ensuite, il peut y avoir des mécanismes du type diffusion ou recristallisation, suite à la génération de lacunes et atomes intersticiels. Ces phénomènes sont surtout présents avec les métaux. Dans notre cas (semi-conducteurs), nous nous limiterons à l’influence du mixage collisionnel. Nous n’entrerons pas dans le détail des équations régissant le mixage collisionnel, mais le lecteur intéressé pourra se reporter aux références [4], [29], [30], [31], [58], [59] et [60] pour des plus amples informations sur la théorie du mixage collisionnel. 3.1.2 Les conséquences du mixage collisionnel Aspects physiques Dans l’analyse SIMS, ce qui est intéressant, c’est l’effet du mixage collisionnel sur la résolution en profondeur. Les méthodes utilisées donnent une idée assez bonne des dommages crées dans les couches mixées, mais la complexité des phénomènes ne permet ni de quantifier ni de prévoir un profil de concentration de manière précise. Ceux-ci sont fortement dépendants des espèces présentes : interactions impuretés-matrice-ions primaires, sections efficaces de collision et réglages instrumentaux sont autant de paramètres influençant le mixage collisionnel. De manière générale, on peut dire que le mixage collisionnel est une étape à part entière dans le processus d’analyse « pulvérisation de l’échantillon - détection des éléments », dans le sens où l’on va analyser non pas le profil réel de concentration mais le profil où les atomes ont été redistribués par le mixage. En effet, les dégâts causés par les collisions s’étendent, à partir de la surface de l’échantillon sur une profondeur W, que l’on appelle zone mixée, et qui est de l’ordre de quelques dizaines d’angtröms. Puisque les ions éjectés ne proviennent que des deux ou trois premières couches atomiques, on peut considérer que le détecteur ne compte pas les ions provenant de l’échantillon original, mais ceux du même échantillon dont le profil de concentration est légèrement modifié par le mixage collisionnel. Toute la difficulté dans la reproduction d’un profil de concentration en profondeur réside donc dans la dégradation du 26 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 profil réel causée par le mécanisme du mixage collisionnel, qui est directement lié aux conditions expérimentales. Quantification Nous venons de voir la nature du mixage collisionnel. Nous allons maintenant nous pencher sur son aspect quantitatif. Considérons un échantillon constitué d’une seule couche atomique dans une matrice donnée, par exemple du bore dans du silicium. Cette couche, appelée delta-dopage, nous donne un profil SIMS qui est l’équivalent de la réponse impulsionnelle d’un processus composé du mixage collisionnel et de tous les autres mécanismes subis par les ions secondaires lors de l’analyse. L’expérience nous montre qu’un profil de concentration initial, supposé être un deltadopage, est représenté après analyse par une courbe en forme de cloche, asymétrique, ayant un front montant rapide et un front descendant plus lent. Ces parties montante et descendante ont une allure exponentielle, alors que la partie haute de la courbe est de forme arrondie, gaussienne (figure 1-7). 40000 10000 Intensité (cps) Intensité (cps) 30000 20000 10000 1000 100 0 10 2600 2800 3000 3200 3400 3600 2600 2800 Profondeur (Å) 3000 3200 3400 3600 Profondeur (Å) Profondeur (Å) Profondeur (Å) Figure 1-7 : Analyse d’un delta-dopage de bore dans du silicium à 8 keV/O 2+. Représentations linéaire et logarithmique. Dans la littérature, les parties exponentielles sont associées aux constantes Λup et Λdown (ou Λu et Λd), représentant la longueur nécessaire pour que le signal croisse ou décroisse d’une décade. Etant donné que cette courbe sera exploitée analytiquement, on préfère lui ± z λ associer une fonction exponentielle en base e, donc de type Ae , et par suite on utilise plutôt λ = Λ/2.3, qui représente donc la distance où le signal varie d’un facteur e. La figure 1-7 nous montre l’exemple d’un delta-dopage de bore dans du silicium, mesuré dans des conditions expérimentales très courantes (8 keV/O2+). On voit ici qu’on est loin d’observer une simple couche fine de quelques angströms seulement. De même, la mesure d’une marche de concentration fait apparaître très nettement la traînée exponentielle en bout de profil. Si derrière le profil de concentration réel de cette marche il y avait une 27 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 couche mince ou tout autre motif de petites dimensions ou de concentration plus faible que cette même marche, son profil mesuré serait partiellement ou même complètement dissimulé par la décroissance exponentielle. 3.1.3 Modélisation du comportement exponentiel décroissant La littérature compte plusieurs théories concernant la décroissance exponentielle de la concentration lors d’un bombardement par un faisceau d’ions. Un modèle simple permet de percevoir ce qui se passe lors du mixage collisionnel. Considérons une couche ∆ d’une impureté dans une matrice, située à la profondeur z∆. On fait tout d’abord l’hypothèse qu’une couche z est instantanément diluée sur une distance W lorsque la couche z-W est sur le point d’être pulvérisée (donc à la surface de l’échantillon). Dans notre cas, la couche mince de dose D sera diluée sur une distance W, et certains atomes originaires de cette couche seront pulvérisés. La pulvérisation de la couche supérieure d’épaisseur dz entraîne une diminution de la dose, qui devient alors D1 = DÂ(W-dz)/W. Cette nouvelle dose est instantanément diluée sur une distance W : la concentration a alors diminué de (W-dz)/W. A chaque épaisseur dz pulvérisée, la dose et donc la concentration locale auront été divisées par (W-dz)/W ; c’est ce qui nous donne le comportement exponentiel de la concentration. Or, l’épaisseur de la zone mixée W est directement reliée à l’énergie primaire Ei, et W augmente avec Ei. Ce modèle de mixage collisionnel permet donc d’associer la décroissance exponentielle λd avec l’énergie primaire des ions incidents. On désigne par Rp la profondeur moyenne de pénétration des ions primaires dans la cible, qui est elle-même directement liée à l’épaisseur de la zone mixée W. Le logiciel TRIM (TRansport of Ions in Matter), développé par Ziegler et Biersack [5], permet de calculer cette valeur en fonction de l’énergie d’impact Ei, l’angle d’incidence θ, et de la nature des espèces en jeu. TRIM utilise la méthode de Monte Carlo, et la relation entre Rp et les conditions expérimentales est de la forme : R p = AEin cos θ (1.3) n est compris entre 0.5 et 1, et A entre 20 et 60. 3.1.4 Observations expérimentales de λd Il a été constaté expérimentalement que λd a un comportement globalement linéaire en fonction de la profondeur de pénétration des ions Rp. Petravic et al. [7] l’ont étudié en particulier dans le cas de Ge dans Si et Si dans GaAs, alors que Meuris et al. [20] ainsi que Smirnov et al. [6] dans le cas de l’arsenic ou du bore dans le silicium. Le coefficient de linéarité entre λd et Rp est très dépendant de la nature des ions primaires ainsi que des éléments constituant de l’échantillon [7] [20]. L’oxygène est par exemple bien connu pour générer des pentes λd plus faibles, grâce au phénomène de 28 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 gonflement de la matrice ou swelling (incorporation des ions O2+ sous la surface), que nous développerons plus loin. Petravic et al. ont également vérifié que λd est dépendant de cosθ. Les diverses études sur λd ont abouti à sa modélisation par une loi quadratique [8] : λd2 ( E ,θ ) = λint2 + ( AE 0.5 cos θ ) (1.4) où λint est supposé être la pente intrinsèque du profil de concentration réel. Là encore, la complexité des mécanismes physiques et leur méconnaissance ne permettent pas, malgré cette loi empirique, de prévoir de manière exacte la valeur de λd. 3.2 Les taux de pulvérisation et d’ionisation Le taux de pulvérisation Lors du bombardement ionique, la partie des cascades de collisions localisée vers la surface engendre l’éjection d’atomes hors de l’échantillon. Au bout d’un certain temps, tous les atomes sont bien sûr pulvérisés, mais il est intéressant de comparer le nombre d’atomes éjectés par rapport au nombre d’ions incidents. On définit pour cela le taux de pulvérisation (nombres d’atomes pulvérisés par ion incident). Chaque espèce a son propre taux de pulvérisation Yk, et le taux total Yt, est la somme des taux de chacune d’entre elles : Yt = ∑ Yk (1.5) k L’intérêt du taux de pulvérisation global est de comparer par la suite l’intensité secondaire par rapport à l’intensité du courant ionique primaire, de l’énergie et angle d’incidence des ions primaires. D’autre part, les atomes ne sont pas pulvérisés proportionnellement à leur concentration dans la matrice mais selon un processus de pulvérisation préférentielle. Ce phénomène entraîne localement un appauvrissement de l’espèce pulvérisée préférentiellement, et donc une concentration dynamique de chaque élément. En effet l’appauvrissement d’une espèce, et donc l’enrichissement d’une autre à la surface de l’échantillon va initier un régime transitoire des concentrations locales jusqu'à ce qu’un certain rapport d’équilibre de concentration entre les deux espèces soit atteint. Le régime permanent (pour la pulvérisation) est alors installé. Ce phénomène transitoire rend encore plus difficile la quantification des profils sur de très faibles épaisseurs. Le taux d’ionisation C’est en fait une probabilité d’ionisation d’une espèce au cours de sa pulvérisation. Il est noté α n ± et représente le rapport du nombre de particules ionisées n fois sur le nombre total d’atomes pulvérisés pour cette espèce. Comme le taux de pulvérisation, il est différent 29 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 pour chaque espèce de la matrice dans de beaucoup plus larges proportions (102 à 106) et sera dépendant des concentrations relatives ainsi que des conditions expérimentales. Le facteur de transmission Les atomes ionisés doivent maintenant rejoindre le détecteur afin d’être comptabilisés et incorporés au profil de concentration de leur espèce. Comme dans tout appareillage, la transmission n’est pas parfaite et tous les ions crées n’arriveront pas jusqu’au détecteur. Certains seront absorbés par l’appareillage, alors que d’autres seront filtrés lors des différentes étapes sur le chemin optique : diaphragmes, secteurs électrostatique et magnétique. Ce facteur ηk est donc le rapport entre le nombre d’ions détectés par le multiplicateur d’électrons ou la cage de Faraday et le nombre d’ions sortis de l’échantillon. Il est noté avec un indice k car il peut également varier selon l’espèce considérée. L’équation ionique SIMS A partir des taux de pulvérisation et d’ionisation, ainsi que du facteur de transmission, on peut comparer le nombre d’ions de l’espèce que l’on souhaite étudier avec le nombre d’ions primaires bombardés sur l’échantillon. Si on se place dans l’hypothèse où il n’y a pas de pulvérisation préférentielle, l’équation SIMS de base d’écrit : I k = I p Yt α N± Ckηk (1.6) où Ip et Ik sont respectivement les intensités ioniques primaire et secondaire, Ck étant la de concentration de l’espèce k (il s’agit d’une mesure instantanée). Cette équation est utilisée dans la quantification de l’analyse SIMS. Nous ne l’approfondirons pas dans la suite de ce travail, plutôt orienté vers l’amélioration de la résolution en profondeur. 4. Particularités de l’oxygène dans l’analyse par SIMS. Nous avons vu que l’analyse avec ions primaires O2+ est des plus répandues. Son utilisation intensive trouve son origine dans les propriétés de facteur chimique améliorant la résolution en profondeur. Voyons rapidement les conséquences diverses de l’utilisation de l’oxygène comme élément bombardant la cible. 4.1 La ségrégation de certaines espèces Lorsqu’on bombarde du silicium par des ions O2+, il y a une importante incorporation des ions primaires dans la cible. Cela se traduit par une oxydation des couches atomiques proches de la surface de l’échantillon. On obtient donc une interface dynamique SiO2/Si qui se déplace vers l’intérieur de l’échantillon au fur et à mesure de l’analyse. Or certaines espèces réagissent à ce phénomène et migrent vers l’interface SiO2/Si, là où il n’y a plus 30 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 d’oxygène. C’est par exemple le cas du cuivre [16], de l’argent, et de l’arsenic [17]. Ce phénomène est appelé ségrégation et entraîne une dégradation supplémentaire à celle due au mixage collisionnel, puisque les impuretés ségrégées fuient constamment vers l’intérieur et donnent des queues de profil très longues (λd très grand). La résolution en profondeur est alors très mauvaise. La ségrégation est très dépendante des conditions expérimentales, c’est-à-dire de la quantité d’ions oxygène reçue, ainsi que de l’angle d’incidence des ces ions (plus l’angle est faible, plus la quantité d’oxygène incorporé est grande). Lorsqu’on a un angle d’incidence inférieur à environ 25°, une couche de SiO2 stœchiométrique se forme [18], et la ségrégation est importante. D’autres comportements par rapport à l’incorporation de l’oxygène dans la cible, totalement différents, sont observables, comme par exemple pour le Germanium. Cet élément réagit à l’oxydation en se regroupant en couches de Ge pur puis en amas de Ge. Contrairement à la ségrégation, ce phénomène ne nuit pas forcément à la résolution en profondeur, tout du moins expérimentalement [19], et semble au contraire l’améliorer dans certaines conditions d’analyse. En fait au niveau théorique, cela pose un problème : si une analyse montre une bonne résolution en profondeur, c’est-à-dire un λd petit (ce qui est commun pour Ge dans Si), on ne peut pas l’attribuer à un mixage collisionnel peu influent, c’est-à-dire à une « bonne » analyse SIMS, puisque le mixage collisionnel n’est pas seul responsable de la distribution du Germanium. Il faut donc être vigilant sur l’interprétation d’un tel profil. 4.2 Le gonflement de la matrice En l’absence de ségrégation, l’oxydation des premières couches atomiques de la matrice s’accompagne, d’un point de vue géométrique, d’un gonflement local de la matrice, appelé swelling, lié à l’incorporation des ions primaires. Ce phénomène, apparemment transparent pour l’opérateur, va en fait provoquer d’une part une augmentation très importante du taux d’ionisation des espèces à analyser, et d’autre part une dilution locale de toutes les espèces par la présence des atome d’oxygène incorporés. L’augmentation du taux d’ionisation se traduit par une sensibilité et une dynamique du signal bien plus élevées que dans le cas d’ions primaires neutres. Les phénomènes mis en jeu sont aussi manifestement beaucoup plus complexes et souvent encore mal compris, en particulier dans leur phase transitoire (début d’analyse). Le gonflement de la matrice, lui, agit comme une sorte de dilatation locale de l’échelle des profondeurs, due à l’incorporation des ions primaires, et se traduit par une amélioration de la résolution en profondeur. Les atomes d’oxygène incorporés reçoivent une partie des chocs initialement destinés à ceux de silicium (ainsi qu’aux impuretés), et sont eux-mêmes pulvérisés par les ions incidents suivants. Cette conséquence très importante impose souvent l’utilisation de l’oxygène comme faisceau primaire dans de nombreux cas. Meuris et al. [20] ont développé un modèle pour l’origine de l’amélioration de la résolution en profondeur par l’utilisation d’ions primaires O2+. Ils ont montré que le gain de 31 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 résolution en profondeur obtenu par le gonflement de la matrice est de 2.26. Une autre approche a été formulée par Gautier [2], où il montre que le gain obtenu est de 2.35 pour l’incorporation de l’oxygène dans le silicium. Les résultats expérimentaux confirment ce gain obtenu par le gonflement, même si les valeurs sont parfois dispersées : Petravic et al. [7] obtiennent des gains de 1.8 à 2.3 pour Ge dans Si, Meuris et al [20] obtiennent 1.7 pour As dans Si. Cette faible valeur serait due à un effet opposé à l’amélioration de la résolution, à savoir la ségrégation de l’arsenic en présence d’oxygène. D’autre part, on constate que l’analyse d’une impureté dans une matrice de SiO2 est équivalente en résolution, que ce soit avec des ions primaires O2+ ou des ions primaires non réactifs. En effet la matrice est déjà saturée en oxygène dès le départ, et l’incorporation des ions primaires O2+ n’a pas lieu comme dans le cas d’une matrice de silicium : il n’y a pas de gonflement, et puisque la profondeur érodée correspond à celle initiale du SiO2, il n’y a pas d’amélioration de la résolution spatiale. 4.3 L’utilisation du soufflage d’oxygène 4.3.1 Description Il existe une autre technique d’analyse SIMS, légèrement différente de la normale, dite sous soufflage d’oxygène. Elle se caractérise par l’existence d’une pression d’oxygène dans la chambre de l’échantillon, au lieu d’un vide poussé. Cette technique est surtout bénéfique pour l’analyse des métaux par exemple, où il se développe rapidement une topographie de surface qui dégrade complètement la précision de la mesure. L’exemple frappant de l’analyse d’un échantillon composé de couches alternées de Fer et de Titane a été mis en évidence par Prudon [1]. Dans cette série de mesures, seules les deux ou trois premières couches sont discernables pour une analyse sans soufflage, et le profil de concentration s’atténue jusqu’à devenir quasiment plat. Avec une faible pression d’oxygène (2Â-7 Torr), toutes les couches sont discernables, mais l’atténuation augmente avec la profondeur et la résolution est encore très insuffisante. Enfin, en utilisant une pression d’oxygène plus importante ( > 2Â-6 Torr), l’amélioration de la résolution (dès le début du profil) est spectaculaire et aucune dégradation n’est visible avec la profondeur. Cette expérience peut se généraliser à de nombreux métaux ou autres matériaux propices à l’apparition d’une topographie de surface : l’oxydation locale de la surface de la cible évite la formation d’une rugosité tout au long de l’analyse. De plus, le taux d’ionisation des espèces pulvérisées augmente sensiblement, comme dans le cas du gonflement du fait de la saturation en oxygène. 4.3.2 Avantages et inconvénients du soufflage d’oxygène L'un des principaux avantages du soufflage réside dans sa capacité à diminuer considérablement la longueur du régime transitoire de la mesure. En effet, en l’absence de pression d’oxygène, les premières couches atomiques de la cible ne sont pas saturées en ions 32 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 primaires O2+, mais leur nombre augmente avec le temps. Cela implique des taux d’ionisation et de pulvérisation en constante évolution. Ce phénomène, très complexe et souvent mis de côté lors de l’interprétation, dure jusqu’à ce qu’un équilibre ait lieu entre les ions incorporés et les ions incidents. Le régime transitoire de l’analyse SIMS devient problématique lorsque les structures à analyser sont enterrées très peu profondément, à quelques dizaines d’angtröms de la surface. Dans cette plage de profondeur les phénomènes mis en jeu sont encore mal compris et aucune quantification n’est possible, trop de paramètres à la fois théoriques et expérimentaux entrant en jeu. En soufflage, grâce à la pression d’oxygène, une couche oxydée apparaît pratiquement immédiatement à la surface, permettant d’entrer rapidement dans le régime permanent de l’analyse. Au niveau du régime permanent, en l’absence de ségrégation ou de tout autre phénomène autre que le mixage collisionnel, les résultats sont contradictoires pour le soufflage d’oxygène avec diverses impuretés. A haute énergie, on obtient un λd inférieur ou égal pour le bore ou le phosphore dans le silicium, mais il apparaît plus grand dans le cas de l’arsenic ou du gallium[21]. Par contre à basse énergie, le soufflage d’oxygène aboutit pour tous ces éléments (sauf pour le bore) à une baisse de la résolution en profondeur. L’autre avantage du soufflage d’oxygène est l’augmentation du taux d’ionisation des impuretés électropositives (comme le bore). Ce taux est déjà amélioré par l’utilisation de l’oxygène comme faisceau primaire, par rapport à d’autres éléments comme le xénon ou le césium. Cependant, à basse énergie et sans pression d’oxygène, le swelling est insuffisant (la profondeur de pénétration des ions est faible et l’angle d’incidence élevé). Avec le soufflage, l’incorporation est plus importante, ce qui augmente l’ionisation et la résolution en profondeur. Tous ces avantages assurent d’autre part une meilleure reproductibilité des profils. L’inconvénient de l’incorporation et de la saturation de la surface en oxygène est la diminution de la vitesse d’érosion par un facteur 2 à 4, et donc l’allongement des temps de mesures. Un autre désavantage de l’emploi du soufflage d’oxygène est la difficulté de régler le faisceau primaire. La pression d’oxygène entraîne une focalisation moins bonne que dans le vide, en particulier à basse énergie [22]. Enfin, si elle a lieu, la ségrégation est amplifiée par l’incorporation importante de l’oxygène. 5. Exemples de profils en profondeur et position du problème Voici un exemple typique d’analyse SIMS : la figure 1-8 est une photo de MET (Microscope à Transmission Electronique) d’un échantillon contenant douze couches très fines de bore dans du silicium. Nous lui avons superposé l’analyse SIMS de ce même échantillon effectuée à 8 keV d’impact. Alors que la photo MET montre la géométrie réelle des deltas-dopage (lignes sombres sur la photo), le profil en profondeur les restitue de manière déformée. Cette déformation est inévitable en SIMS, et elle définit la limite de la résolution en profondeur de l’analyse. 33 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 La réduction continue des dimensions des composants de la micro-électronique silicium s’accompagne d’une diminution des épaisseurs des couches actives, qui sont maintenant de quelques nanomètres, et impose l’élaboration d’interfaces abruptes bien contrôlées. L’analyse par SIMS est la méthode incontournable pour mesurer les profils de concentration des dopants, mais comme nous le montre cette figure, la résolution en profondeur doit être améliorée. En baissant l’énergie d’impact des ions primaires, la résolution en profondeur de la technique SIMS s’améliore mais est insuffisante, et il convient de d’explorer d’autres moyens pour en abaisser la limite. La restauration d’information par traitement du signal a été retenue. Figure 1-8 : Photo prise au microscope à transmission électronique d’un échantillon contenant des deltas-dopage. Chaque trait foncé est un delta-dopage. En rouge, le profil SIMS mesuré à 3 keV (représentation linéaire). Une avancée importante dans cette voie a été faite grâce à la technique de déconvolution (sous certaines conditions). Elle revient à restaurer des informations masquées ou diluées au cours d’une opération équivalente à un filtrage, ici les mécanismes de l’analyse SIMS. La déconvolution, opération inverse de la convolution, s’apparente à une division dans l’espace de Fourier, et plusieurs méthodes de résolution existent, chacune étant adaptée à des conditions particulières. Nous verrons en détail dans les prochains chapitres les méthodes existantes et celles que nous avons retenues afin de résoudre ce problème inverse. 34 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 Le but principal de la déconvolution est de s’approcher autant que possible de la forme originale d’un signal dégradé par une opération de convolution. Dans notre cas, l’obtention d’un profil plus proche de la réalité que le profil SIMS mesuré permet ainsi d’améliorer la résolution en profondeur. Dans le domaine de la micro-électronique, les fondeurs expérimentent de nouvelles technologies afin de fabriquer des structures toujours plus petites. Ces technologies nécessitent à la fois d’être validées par la vérification des produits fabriqués, et d’être contrôlées, expertisées si une partie d’un dispositif micro-électronique ne fonctionne pas. Au niveau purement instrumental, la technique d’analyse par SIMS, bien qu’étant la plus qualifiée dans de nombreux cas, atteint parfois ses limites. Nous proposons donc dans ce travail d’aider à la résolution de ces problèmes en utilisant des méthodes de traitement numérique du signal. Avant de traiter de la déconvolution elle-même, nous allons voir certains éléments et les circonstances dans lesquelles nous utiliserons ces méthodes numériques : la résolution en profondeur et la réponse instrumentale de l’appareil SIMS constituent le cœur de notre problème. 6. Définition de la résolution en profondeur 6.1 Les critères de qualité d’un profil en profondeur La qualité d’une mesure par rapport à une autre est définie selon plusieurs critères. Suivant le type d’appareil utilisé et les conditions expérimentales choisies par l’opérateur, l’acquisition d’un profil en profondeur sur un même échantillon peut s’avérer très différente d’une mesure à l’autre. Pour une impureté donnée, on peut donc comparer plusieurs grandeurs : • • • Le niveau de bruit : une mesure trop bruitée défigure le profil de concentration que l’on souhaite reproduire, et certains détails pourront être masqués. La puissance du signal : cette valeur est à corréler avec celle du bruit. Plus le signal de concentration d’une espèce est fort, moins le bruit déforme ce profil. De plus, l’acquisition étant de nature discrète, une bonne dynamique sur un profil reflétera plus précisément ce dernier, et les calculs numériques généreront moins d’erreurs d’arrondi. Enfin, l’élément le plus important dans un profil de concentration, la résolution en profondeur : c’est elle qui quantifie l’aspect « fidélité » de la reproduction du profil réel. Elle peut être estimée par la déformation d’une structure caractéristique, un front montant ou descendant, ou un Dirac, et est spécifique selon les espèces et les conditions expérimentales. 35 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 6.2 Différentes méthodes d’évaluation 6.2.1 Evaluation par front montant ou descendant Etant donné que la mesure SIMS a tendance à élargir la courbe de concentration originale, on peut définir, comme pour un signal électrique, un temps de montée ou de descente pour la réponse à un front parfaitement abrupt : on mesure alors l’intervalle de temps ∆t (ou de profondeur ∆z) nécessaire pour que le signal passe de 84% à 16% pour un front descendant [9]. Ce critère a été choisi pour la ressemblance entre l’allure de l’interface mesurée et celle de la fonction erreur, résultat de la convolution d’une interface abrupte avec une gaussienne d’écart-type σ : la distance ∆z séparant ces deux valeurs est égale à 2σ (figure 1-9). Profil initial Profil mesuré 1.0 84 % Intensité (u.a) 0.8 0.6 0.4 0.2 16 % 0.0 800 900 1000 2σ 1100 1200 Profondeur (Å) Figure 1-9 : Définition de la résolution en profondeur à partir de la mesure d’une interface abrupte. D’autres intervalles en relation avec la fonction erreur sont utilisés dans la littérature : 90% et 10% du signal maximum, ce qui correspond à 2.564σ, ou 95% et 5% pour 3.29σ. Quel que soit le choix de l’intervalle comme critère définissant la résolution en profondeur, on ne doit pas oublier qu’il est complètement arbitraire. En effet, d’une part on devra utiliser le même pour différents profils, afin d’établir des comparaisons correctes et ne pas surestimer un résultat, et d’autre part le front n’est pas réellement gaussien. Comme nous l’avons vu plus haut, la mesure d’une interface abrupte par SIMS se traduit par une traînée exponentielle caractérisée par le paramètre λd. De plus, si on prend un front montant au lieu d’un front descendant, on s’aperçoit que la distance ∆z n’est pas la même que pour le front descendant. Ceci est dû à une dissymétrie de la réponse impulsionnelle du système. Le front montant possède lui aussi une partie exponentielle, mais 36 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 son paramètre est souvent inférieur à celui du front descendant, et il est plus difficile à mesurer. 6.2.2 Evaluation sur un delta-dopage Un delta-dopage est par définition la plus petite structure géométrique qui puisse exister pour un couple impureté-matrice, c’est-à-dire une seule couche atomique d’une impureté dopante à l’intérieur d’une matrice. L’élaboration de telles couches n’est pas toujours possible dans les semi-conducteurs. Les technologies actuelles de dépôt sous jets moléculaires permettent d’élaborer, par exemple, B, Ge dans Si ou Si dans GaAs. Dans le cas où son élaboration est possible, la particularité d’un delta-dopage est de donner directement, par sa mesure, la réponse impulsionnelle du système de mesure. La courbe obtenue peut alors être considérée comme le résultat de la plus petite structure mesurable, et permet des comparaisons directes par l’un de ses paramètres caractéristiques. La figure 1-10 représente une telle mesure, dans le cas suivant : bore dans silicium, 8 keV, 38.7° d’angle d’incidence. FWHM Intensité (cps) 10000 1000 100 Λd Λu 10 2600 2800 3000 3200 3400 3600 Profondeur (Å) Figure 1-10 : Evaluation de la résolution en profondeur à partir du profil mesuré d’un delta-dopage. On utilise souvent comme critère de mesure dans ce type de courbe, la largeur à mihauteur, abréviée par FWHM (pour « Full Width at Half Maximum »). Même si ce paramètre est simple à obtenir et assez intuitif, il faut l’utiliser avec parcimonie, étant donné la nature asymétrique de la réponse impulsionnelle [65]. Nous avons vu que la mesure d’un delta-dopage donne également des pentes exponentielles de part et d’autre du profil mesuré. On se focalise généralement sur la pente 37 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 exponentielle décroissante, puisque c’est elle qui reflète l’importance du mixage collisionnel par son paramètre λd (distance nécessaire pour que le signal décroisse d’un facteur e). De nombreuses études de résolution en profondeur à partir de deltas-dopage ou de marches de concentration descendantes assimilent la résolution en profondeur obtenue au paramètre λd. La prépondérance du mixage collisionnel dans la déformation des profils en profondeur justifie cette comparaison. Ceci suppose que la dégradation est entièrement décrite par le mixage collisionnel. Mais ce rapprochement entre résolution en profondeur et mixage collisionnel ne peut être fait que dans certaines conditions. Lorsque le mixage collisionnel n’est pas prépondérant, par exemple lors d’une analyse à basse énergie, ou lorsque d’autres facteurs dégradent la résolution, la mesure de λd devient insuffisante, et les autres caractéristiques de la courbe mesurée ont autant de poids que λd. Une autre manière d’évaluer la résolution en profondeur, plus poussée, est d’utiliser les moments. En particulier, le moment centré d’ordre 2 d’une fonction mesure la dispersion autour de la valeur moyenne, ce qui permet de prendre en compte toutes les caractéristiques de la courbe représentant la fonction. Nous allons passer en revue brièvement les différents moments usuels. Supposons que f(z) soit la fonction représentant analytiquement le delta-dopage mesuré. Le moment d’ordre n de f(z) est défini par : µn = ∫ +∞ −∞ z n f ( z ) dz (1.7) µ 0 (qui est aussi l’intégrale de f(z)) représente la surface sous la courbe de f(z), ce qui correspond à la dose recueillie par l’analyse pour cette couche dopée. µ 1 représente le centroïde de f(z), notée z . Les moments µ 2, µ 3, etc… pris tels quels ne sont pas intéressants car ils ne rendent pas compte des caractéristiques de f(z) de manière relative. On définit donc un nouveau moment, le moment centré d’ordre n (n ≥ 2), par : µ nc = ∫ +∞ −∞ (z − z) n f ( z ) dz (1.8) On a donc le moment centré d’ordre 2, ou variance, qui mesure la dispersion de f(z) autour de z . µ 2c tient compte de toutes les caractéristiques de f(z), ses fronts montant et descendant ainsi que sa largeur. Si f(z) est une gaussienne pure, alors son paramètre σ est égal à µ 2c (écart-type). 38 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 µ 2c , µ3c et µ 4c sont utilisés pour caractériser la forme d'une distribution. Ces indicateurs n'ont de sens que dans le cas d'une distribution unimodale, c’est-à-dire avec un seul maximum. µ3c reflète l’asymétrie de la courbe et µ 4c son aplatissement. Intensité (u.a) 6.2.3 Séparabilité de deux deltas-dopage Un autre moyen intuitif de quantifier la résolution en profondeur est de voir l’effet de la mesure sur deux deltas-dopage séparés d’une distance d très courte : jusqu’où peut-on diminuer d de telle façon que les deux couches soient détectables par la mesure ? Typiquement, l’analyse SIMS de deux deltas-dopage très proches conduit à un profil en profondeur montrant deux courbes en forme de cloches s’interpénétrant (figure 1-11). On peut alors distinguer deux maxima séparés par un minimum local. Lorsque la superposition est trop grande, on ne les distingue plus et il en résulte une courbe simple en forme de cloche, plus large que les précédentes. 10000 Imax1 8000 Imax2 6000 Imin 4000 d 2000 0 1500 1550 1600 1650 1700 1750 Profondeur (Å) Figure 1-11 : Evaluation de la résolution en profondeur à partir de la mesure de deux couches très proches. Pour quantifier cela, on calcule le contraste pour les deux couches : C= I max − I min I max 39 (1.9) &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 C est bien sûr croissant avec d, et on choisit un seuil de contraste C0 correspondant à d0, tel que C0 permette de distinguer les deux couches. On assimile alors la résolution en profondeur à cette distance critique d0. 7. La fonction de résolution en profondeur Nous allons maintenant nous pencher sur le moyen de quantifier la résolution en profondeur au niveau analytique. Avant de chercher à approfondir les techniques de résolution de problèmes inverses, il est nécessaire de bien définir les éléments faisant l'interface entre les phénomènes physiques réels, la modélisation de ces phénomènes, et leur intégration dans les équations de traitement du signal. Quelles que soient les méthodes de résolution que nous utiliserons dans ce problème inverse spécifique, nous aurons besoin de connaître une certaine quantité d'informations sur le système étudié. Comme la plupart des systèmes, il est en grande partie caractérisé par sa réponse impulsionnelle, ou fonction de transfert, transformant le signal d'entrée - ici le profil réel de concentration - en signal de sortie (le profil mesuré). 7.1 La réponse impulsionnelle en SIMS. Par définition, la réponse impulsionnelle d'un système est la réponse de ce dernier à un signal d'entrée égal à un Dirac. Le Dirac est une fonction théorique d'épaisseur nulle, d'amplitude infinie et dont l'intégrale sur R est égale à 1. Il va de soi que dans le domaine de la physique, un tel signal n'existe pas, et il est remplacé par un signal fini d'épaisseur non nulle ("pseudo-Dirac"). Si on se place dans le domaine continu, le "pseudo-Dirac" pourra typiquement être une fonction nulle ou quasi nulle sur tout son domaine de définition, sauf sur un intervalle très petit autour de 0. Son intégrale devra aussi être égale à 1. Voici quelques exemples de fonctions assimilées à un Dirac et souvent utilisées : − − − créneau d'épaisseur d, de hauteur 1/d gaussienne de paramètre σ et d'amplitude 1/ 2πσ fonction "triangle", de base a et de hauteur 1/(2a) Dans notre cas, il ne s'agit pas de signal électrique ou optique, mais de successions de plans atomiques. La plus petite structure existante sera alors une couche atomique, ce qui veut dire que dans la réalité, et comme dans tout système réel, on n’obtiendra jamais la vraie réponse impulsionnelle, mais au mieux la réponse à une couche atomique, que l'on peut assimiler à un créneau d’épaisseur égale à la distance moyenne inter-atomique. Dans toute la suite de ce travail, la réponse à ce « pseudo-Dirac » sera donc assimilée à la vraie réponse impulsionnelle SIMS. En outre, étant donné que c'est elle qui donne la mesure de la plus petite structure existante, elle fixera une limite : la résolution en profondeur maximum sera donnée par la mesure d'un "Dirac" ou delta-dopage. On appellera cette réponse 40 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 impulsionnelle "Fonction de Résolution en Profondeur", ou DRF, pour "Depth Resolution Function". 7.2 Approche expérimentale de la DRF Les techniques de fabrication des matériaux semi-conducteurs, "l'épitaxie par jets moléculaires" ou MBE (Molecular Beam Epitaxy), ou la CVD (Chemical Vapor Deposition), permettent maintenant l'élaboration de telle couches, grâce à la maîtrise de la vitesse de croissance. Nous avons vu au paragraphe 3.1.2 que la mesure d'un delta-dopage conduit à une courbe arrondie au sommet et ayant des pentes montante et descendante exponentielles. Quels sont les facteurs donnant à la fonction de résolution son allure? La DRF n'est pas simplement fonction de l'appareil, et on ne peut pas la fixer une fois pour toutes pour différentes mesures : • D'une part, elle est très dépendante de l'échantillon à analyser. Chaque couple matrice-élément produit sa propre DRF. Nous avons vu au paragraphe 3.1.2 que l'importance du mixage collisionnel dépend des éléments en jeu : interactions atomiques impureté-matrice, sections efficaces de collision. • D'autre part, tous les paramètres expérimentaux influencent la mesure : l'énergie primaire et l'angle d'incidence déterminent une profondeur de pénétration Rp, des taux d'ionisation et de pulvérisation différents selon leur valeur. Cela influence donc aussi le mixage collisionnel. Au niveau de la colonne secondaire de l'appareil ensuite, la sélection selon l'énergie latérale, l'éloignement du centre de l'aire analysée, ainsi que le système de tri, sont des paramètres expérimentaux contribuant aussi à la formation de la DRF, en particulier à son amplitude relative par rapport à une autre mesure. • Enfin, les imperfections inévitables au niveau expérimental tendent à déformer la DRF : la taille, la focalisation ainsi que la pureté du faisceau primaire, la planéité de l'échantillon initial et du cratère formé, etc... modifient le résultat de la mesure. Par suite on suppose que chaque classe d'appareils a sa propre DRF. 7.3 Modélisation de la DRF Si on souhaite comparer les résultats provenant de diverses mesures, faites ou non dans les mêmes conditions expérimentales, il est préférable de pouvoir exprimer la fonction de résolution en fonction de paramètres analytiques ajustables, plutôt que de travailler sur des DRF numériques (expérimentales). Il y a plusieurs avantages à modéliser la DRF : • Suppression du bruit : tout d’abord, le fittage, par principe, effectue un lissage local de la courbe représentant la DRF. En SIMS, on considère que le bruit est additif et aléatoire. Le fittage permet alors de supprimer le bruit de la fonction de résolution mesurée. De plus, la réponse impulsionnelle ne possède pas de points anguleux, et est de forme générale assez lisse. Il n’y donc pas de perte d’information suite au 41 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 • • • fittage. Les calculs effectués avec une fonction analytique seront donc plus justes et plus précis qu’avec une DRF définie numériquement. La suppression du bruit est surtout importante lorsqu’on passe dans le domaine de Fourier. En effet, les nombreuses et rapides variations (bien que petites) de la composante « bruit » du signal SIMS donnent dans l’espace de Fourier de fortes valeurs dans le haut du spectre. Ces hautes fréquences peuvent considérablement gêner les calculs dans l’espace de Fourier. Echantillonnage adaptable : lorsque qu’on mesure un profil par SIMS, l’appareil effectue des acquisitions régulièrement espacées d’un intervalle de temps dt. Ce laps de temps dt correspond à une profondeur érodée dz. Selon la vitesse d’érosion de l’échantillon, à dt fixé, dz pourra varier de plusieurs fois sa valeur (en particulier en fonction de l’intensité ionique primaire). Lorsqu’on veut effectuer un traitement numérique sur un profil, on a souvent besoin de la DRF. Si on la mesure à partir d’un delta-dopage situé sur un autre échantillon, il y a toutes les chances pour que le pas d’échantillonage soit différent de celui du profil à traiter (à cause de la variation de la vitesse d’érosion). La déconvolution est dans ce cas impossible, à moins d’effectuer un ré-échantillonnage, qui peut être source d’imprécision. La connaissance de la DRF par une forme analytique permet d’échantillonner cette dernière avec la bonne valeur pour la déconvolution. Abaques de DRF : en faisant de nombreuses mesures dans des conditions expérimentales différentes, la forme de la DRF, et donc les paramètres analytiques la caractérisant varient. On peut obtenir, grâce à ces séries de mesures, des abaques de fonction de résolution permettant de prévoir ses paramètres en fonction de l’énergie et de l’angle d’incidence. La modélisation de la DRF permet alors d’effectuer la déconvolution sans avoir à faire une mesure de delta-dopage. Calculs de profils : avec une « bonne » fonction de fittage pour la DRF, on peut prévoir de manière analytique le profil SIMS d’une structure particulière supposée connue. La comparaison avec le ou les profils mesurés de cette structure permettra éventuellement de déterminer les performances de l’appareil ou de vérifier que l’échantillon a été bien fabriqué. 7.4 Quelle forme analytique pour la DRF ? Le choix de la fonction analytique fittant au mieux la DRF peut être assez différent selon les auteurs, même si quelques-unes de ces fonctions reviennent le plus souvent. D’un point de vue pratique, il est important que la forme analytique puisse fitter correctement la fonction de résolution dans des conditions expérimentales assez différentes, c’est-à-dire sur une plage d’énergies primaires et d’angles d’incidence assez grande, sans qu’il n’y ait besoin d’apporter de corrections artificielles. Herzel et al. [10] proposent de fitter la DRF par un polynôme d’ordre 12 dans le cas de B dans Si ou SiGe. A notre avis, un tel choix n’est pas judicieux étant donné qu’un polynôme ne peut pas avoir un comportement asymptotique exponentiel. Herzel a par la suite artificiellement limité le domaine de définition de la fonction puis extrapolé par des parties 42 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 exponentielles les deux zones de faible signal, c’est-à-dire de part et d’autre de la partie arrondie de la DRF. Un fittage par un polynôme est généralement utilisé pour réaliser un lissage de courbe. Le fittage d’Herzel semble donc être équivalent à un lissage de la courbe expérimentale de la fonction de résolution, « modifié exponentiellement » aux extrémités. Nous avons vu que la courbe de la DRF est caractérisée par trois parties remarquables : une pente exponentielle montante, un sommet arrondi, et enfin une pente exponentielle descendante. Mis à part la position globale (en profondeur) de la courbe, on peut espérer caractériser la DRF par trois paramètres indépendants. L’ajustement de Herzel nécessite 13 paramètres, ce qui nous incite à penser qu’il risque d’y avoir de fortes dépendances entre les paramètres, et donc de nombreuses fonctions polynomiales pouvant fitter la DRF. De plus, il n’est pas possible avec autant de paramètres de donner des significations physiques ou expérimentales à chacun d’eux. Les parties exponentielles de la DRF peuvent aisément être fittées par une famille de fonctions appelées double exponentielle. Une double exponentielle est définie comme suit : z λ− z0 e u z ≤ z0 D exp( z ) = A z − z 0 − λd z ≥ z0 e (1.10) Cette fonction seule n’est pas suffisante pour être assimilée à la DRF, car la zone autour de z0 n’est pas arrondie (par rapport aux profils expérimentaux), et il y a un point anguleux en z0. Pour corriger ce problème, on utilise l’astuce de convoluer cette 1ère fonction avec une autre, de préférence symétrique, afin « d’arrondir » la partie anguleuse. Zalm [12] a étudié divers exemples de fonction pouvant arrondir la double exponentielle. Turner et al. [14] ont implicitement utilisé cette méthode, en convoluant une DRF constituée simplement d’une double exponentielle, par une gaussienne de paramètre σ. Cette gaussienne représenterait la contribution des phénomènes dégradant la résolution (rugosité) et de la diffusion. Le fittage est alors excellent. Il attribue les parties exponentielles montante et descendante, et le paramètre gaussien σ, respectivement aux effets de la profondeur d’échappement, du mixage collisionnel, et de l’élargissement du profil dû à la rugosité. Zalm [12] affirme que le choix de la fonction d’élargissement est assez ambigu, et que celle qu’il utilise, une fonction triangle, donne d’aussi bons résultats au niveau du fittage que la gaussienne. La fonction triangle utilisée par Zalm est définie sur un intervalle fini [−∆, +∆ ] par : Tr ( z ) = z ∆ ∆ 1− 43 (1.11) &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 Toutes les fonctions qu’il a étudiées n’ont qu’un seul paramètre, ce qui permet, en ajoutant les deux paramètres de la double exponentielle, d’en avoir trois au total, conformément à ce que nous souhaitions pour définir la DRF. Nous avons opté pour une « fonction d’élargissement » gaussienne, choisie aussi par Dowsett et al. [11], pour plusieurs raisons : • D’après les comparaisons, elle semble donner le meilleur résultat de fittage dans le cas du bore dans le silicium. • La gaussienne est d’expression simple, elle est continue, dérivable, et n’a pas de point anguleux. De plus, les propriétés de la gaussienne sont intéressantes, et peuvent faciliter les calculs : la Transformée de Fourier d’une gaussienne est aussi une gaussienne, et la dérivée d’une gaussienne est une gaussienne multipliée par la variable • D’un point de vue expérimental, les phénomènes aléatoires de nature physique qui pourraient intervenir lors de la mesure sont eux-mêmes caractérisés par une gaussienne. Si l’un d’eux venait à s’ajouter à la fonction de résolution, sa contribution viendrait se combiner à la partie gaussienne de la fonction de résolution, ce qui donnerait à nouveau une fonction de même type que la DRF. Nous utiliserons donc dans toute la suite de ce travail la DRF proposée par Dowsett et al. [11]. Voyons maintenant son expression analytique détaillée. Après convolution de la double exponentielle par la gaussienne, on obtient une fonction de résolution décrite par trois paramètres de forme et un paramètre de position. z λ− z0 e u z ≤ z0 D exp( z ) = A z − z 0 − λd z ≥ z0 e (1.12) − z2 B Gauss ( z ) = e 2σ 2πσ (1.13) h ( z ) = D exp ( z ) ⊗ Gauss ( z ) (1.14) Comme toute réponse impulsionnelle d’un système, la DRF doit être normalisée. Les 2 z 2 amplitudes relatives A et B sont donc éliminées. En rappelant que erf( z ) = ∫ e− t dt , le π 0 résultat final est : 44 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 − ( z − z0 ) σ 1 h(z) = − 1 + erf 2 ( λu + λd ) 2 σ 2 λu ( z − z0 ) σ 2 + exp 2 2λu λu ( z − z0 ) σ − + 1 + erf 2 λd 2σ − ( z − z0 ) σ 2 + exp 2 λd 2λd (1.15) z0 représente l’abscisse du point anguleux de la double exponentielle. Il faut noter que cette valeur n’a pas de signification physique réelle, contrairement à ce que l’on pourrait croire. Comme nous l’avons vu précédemment, on peut caractériser la résolution en profondeur au moyen d’un delta-dopage, en calculant le moment centré d’ordre 2. La forme analytique de la DRF étant mathématiquement assez simple (1.14), on peut relativement facilement calculer les moments associés : • moment d’ordre 1 (centroïde) : • µ1 = z = λd − λu + z0 (1.16) 2 µ 2c = σ tot = λu2 + λd2 + σ 2 (1.17) moment centré d’ordre 2 : µ 2c représente la variance de la fonction de résolution autour de sa valeur moyenne z . 2 σ tot est alors l’écart-type, et on voit que σ tot , qui nous donne une estimation de la résolution en profondeur, est tout simplement la somme des carrés des paramètres de la DRF. 7.5 Propriétés de la DRF 7.5.1 Causalité Lors de l’analyse d’un échantillon par SIMS, on s’aperçoit que la structure géométrique que l’on souhaite analyser apparaît avant que le cratère n’ait effectivement atteint la première couche atomique de cette structure. Dans le cas d’un delta-dopage, ce phénomène est nettement visible, puisque le caractère abrupt de la structure disparaît au profit d’une montée exponentielle apparaissant quelques angtröms avant la profondeur prévue. La DRF n’est donc pas causale. Ce phénomène s’explique par la longueur W de la zone mixée, où les atomes des couches profondes jusqu’à W sont brassés jusqu’à la surface. Des calculs ont été menés afin d’estimer le décalage de la DRF par rapport à la position réelle du delta-dopage. Littmark et Hofer [15] montrent que si le mixage collisionnel est la 45 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 principale cause de dégradation du profil, alors le moment d’ordre 1 de la DRF correspond à la position initiale du delta-dopage (figure 1-12). z z0 zmax -200 -100 zδ Intensité (u.a) 0.01 1E-3 1E-4 1E-5 -300 0 100 200 Profondeur (Å) Figure 1-12 : Positions relatives de la DRF et du delta-dopage qui lui a donné naissance. Cette anticipation, propre à l’analyse SIMS, entraînera par la suite quelques complications, notamment au niveau de la mise en œuvre des traitements numériques. 7.5.2 Asymétrie de la DRF Puisque la double exponentielle n’est pas symétrique, la DRF ne l’est pas non plus. Considérons une double exponentielle dont le point anguleux a pour abscisse z0. La gaussienne, elle, est centrée en 0. Lorsqu’on convolue la double exponentielle avec la gaussienne, on s’aperçoit que le maximum de la DRF obtenue ne correspond pas à celui de la double exponentielle (le point anguleux), mais à une profondeur plus grande que z0 (figure 112). Ceci est le résultat de l’asymétrie de la double exponentielle. On voit donc qu’il y a une certaine ambiguïté sur la signification physique de la forme analytique de la DRF. La position réelle du delta-dopage est située sur le moment d’ordre 1 de la fonction de résolution, mais uniquement si le mixage collisionnel est la seule cause de dégradation du profil. Or, bien que le mixage collisionnel soit toujours présent, nous avons vu que d’autres facteurs peuvent détériorer le profil (diffusions, rugosités, ségrégation...). Il se pourrait donc que la position réelle du delta-dopage soit encore différente de z , le moment d’ordre 1. 46 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 La figure 1-12 résume les différentes abscisses remarquables de la DRF. Les premiers ions secondaires provenant du delta-dopage apparaissent à la profondeur zδ − W , mais comme le pic de la DRF est plus facilement identifiable, on mesurera plutôt le décalage avec le delta-dopage réel par la distance zmax − zδ . Si on considère que zδ est confondu avec z , alors on peut mesurer l’anticipation ∆zδ de la DRF par rapport au Dirac qui l’a généré par : ∆zδ = zmax − zδ (1.18) avec : zδ z = λd − λu + z0 (1.19) 7.6 Cas du bore dans le silicium Afin d’appliquer les résultats de ce travail à des profils réels, il est nécessaire de quantifier la DRF par la mesure dans diverses conditions expérimentales. Ayant privilégié le cas du bore dans le silicium, nous avons analysé plusieurs échantillons contenant des deltasdopage (« multi deltas-dopage») de B dans Si. Chaque échantillon est caractérisé par la distance séparant les deltas, et par la concentration du bore. Les analyses ont été faites avec un microanalyseur ionique CAMECA IMS3/4f, sous faisceau d’ions primaires O2+ ou Xe, avec ou sans soufflage d’oxygène. Le but de ces analyses est de mesurer la fonction de résolution du bore dans le silicium à diverses énergies et divers angles d’incidences. Ces analyses nous permettrons de tracer l’évolution des paramètres de la DRF et d’en extraire des lois de variation. 7.6.1 Ajustement des deltas-dopage Le premier échantillon ayant servi à mesurer la fonction de résolution est un multi deltas-dopage composé de douze deltas (voir la figure 1-8). Les quatre premiers sont espacés de 500 A° et les suivants de 1000 A°. Cet échantillon a été analysé avec différentes combinaisons de tension primaire (duoplasmatron) / tension secondaire (échantillon). A chaque analyse correspond une énergie d’impact Ei, un angle d’incidence θ et une profondeur de pénétration Rp. Les figure 1-13 et 1-14 montrent les fittages de deltas-dopage mesurés à 5.5 keV/O2+ d’impact, 42.4° d’incidence, puis à 1 keV/O2+, 60° d’incidence. On remarque la qualité du fittage sur la quasi-totalité de la dynamique, excepté sur la partie où le rapport signal/bruit est mauvais. Visuellement on a donc, tant en échelle linéaire qu’en échelle logarithmique, une excellente superposition de la forme analytique de la DRF et du deltadopage mesuré. 47 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 Delta-dopage mesuré Fittage λ up 10000 Intensité (u.a) = 3.7 Å λ down = 44.0 Å σ = 22.5 Å 1000 100 400 500 600 700 800 900 Profondeur (Å) Figure 1-13 : Fittage par la forme analytique de la DRF (1.15) d’un delta-dopage de Bore dans du Silicium analysé à 5.5 keV/O2+. Représentation logarithmique. Delta-dopage mesuré Fittage 7000 6000 Intensité (u.a) 5000 4000 λ up 3000 σ = 18.3 Å λ down = 17.3 Å = 11.1 Å 2000 1000 0 3250 3300 3350 3400 3450 3500 3550 Profondeur (Å) Figure 1-14 : Fittage par la forme analytique de la DRF (1.15) d’un delta-dopage de bore dans du silicium analysé à 1 keV/O2+. Représentation linéaire. Pour chaque mesure il a été effectué un fittage de chacun des deltas-dopage. Néanmoins, toutes les mesures ne sont pas parfaites, mais la majeure partie des causes conduisant à une DRF faussée étant dans notre cas connues (développement de rugosités, 48 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 cratère non homogène), il n’a pas été tenu compte des deltas-dopage concernés. Nous reviendrons plus loin sur la manifestation des phénomènes dégradant la résolution en profondeur au niveau des deltas-dopage. 7.6.2 Approche qualitative et interprétations Observons en première approche le comportement général des deltas-dopage. Lorsqu’on augmente l’énergie des ions primaires, on remarque nettement que la pente descendante de la DRF est de plus en plus faible et longue, et que le sommet s’aplatit de plus en plus. L’interprétation de ces phénomènes est simple : la longueur de la zone mixée augmente avec la profondeur de pénétration des ions primaires, et si on se réfère à la modélisation du comportement exponentiel décroissant en milieu de chapitre, on voit d’une part que la dose d’ions à chaque couche pulvérisée est plus petite (à cause de W), ce qui explique l’abaissement du sommet arrondi, et d’autre part la diminution de cette dose est plus faible, c’est-à-dire que la dose totale sera plus « longue à écouler », ce qui nous donne une traînée exponentielle plus importante. 7.6.3 Evolution des paramètres de la DRF Le tableau suivant regroupe les paramètres de la DRF pour chacune des analyses effectuées. Les résultats sont les paramètres moyens extraits du fittage des « bons » deltasdopage. Ei(eV) E0(eV) 500 1000 1500 1750 2350 2500 2750 3500 5500 8000 1100 3000 3750 4000 6850 7000 5000 8000 10000 12500 EEch(eV) Rp (Å) λu(Å) 600 3.9 2000 15.0 2250 3.8 2250 30 5.9 4500 30 2.1 4500 32 1.8 2250 46 5.9 4500 50 3.0 4500 73 5.6 4500 99 4.0 λd(Å) 7.5 16.0 17.0 28.7 22.9 21.2 28.5 32.0 39.0 46.0 σ(Å) σtot(Å) soufflage Echantillon 5.0 5.6 X Bennett 5.3 22.6 Warwick 1 8.1 19.2 X Bennett 12.8 32.0 Warwick 1 10.8 25.4 X Bennett 8.4 22.9 X Bennett 14.0 32.3 Warwick 1 18.0 36.8 Warwick 1 20.1 44.2 Warwick 1 24.7 52.4 Warwick 1 Etant donné que l’énergie d’impact et l’angle d’incidence sont liés (dans le CAMECA IMS 3/4f), nous avons préféré comparer les paramètres de la DRF par rapport à la profondeur de pénétration des ions Rp, grandeur à notre avis plus parlante que Ei. Les comparaisons avec les résultats d’autres mesures provenant d’appareils différents (en particulier ceux opérant à incidence normale) seront ainsi plus simples. Rp, qui est directement impliqué dans le mixage collisionnel, a été calculé par la relation suivante, donnée par Dupuy et al. [23] : 49 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 R p = 50.46EP0.665 cos θ (1.20) Cette relation n’est valable que pour Rp > 30 A° environ. Notons ici que Ep est l’énergie d’impact par ion incident oxygène, et non pas par ion O2+. L’avantage d’utiliser Rp est de rassembler toutes les combinaisons physiquement possibles (Ep, θ) donnant la même profondeur de pénétration. Par contre cette valeur n’est pas directement mesurable, contrairement à Ep, et elle devra être calculée. Ceci suppose de bien connaître les lois de variations, et les limites de validité de ces lois. Lorsqu’on calcule avec la relation (1.20) un Rp en dessous de 30 A°, la valeur est en fait sous-estimée. Il sera alors nécessaire de calculer spécifiquement Rp, par exemple avec le logiciel de simulation de bombardement ionique TRIM (Transport of Ion in Matter), développé par Ziegler et Biersack [24]. Dans la plage de profondeur de Rp allant de 30 à 100 A°, les trois paramètres de la DRF ont un comportement quasi linéaire : λd et σ sont croissants alors que λu semble pratiquement indépendant de Rp. Bien que la DRF puisse être fittée par la même fonction avec ou sans soufflage, ses paramètres ont un comportement différent, en particulier à basse énergie. Comparaison avec les résultats de la littérature Gautier [2] a étudié, pour le même instrument, les paramètres de DRF pour les énergies allant de 2.5 à 13 keV (soit Rp de 32 à 142 A°) : avec un échantillon contenant des deltas-dopage de B dans Si, il obtient également un comportement linéaire des trois paramètres, sauf pour Ep < 3500 eV (soit Rp < 47.9 Å). Il attribue les divergences des paramètres pour ces faibles énergies d’impact à la difficulté de régler la sonde primaire et aux effets de l’incidence rasante. Les régressions linéaires (en angströms) correspondant à chaque paramètre sont décrites par les relations suivantes [2] : λu = 10.9 − 3.24 ⋅10−3 R p (1.21) λd = 15.5 + 0.302R p (1.22) σ = 12.9 + 0.131R p (1.23) Gautier émet cependant des réserves sur la régression de λu, puisqu’il obtient une erreur de ±5 Å. Nous obtenons pour λu, des valeurs plus faibles, allant le plus souvent de 2 à 6 Å. Nous verrons cependant que λu a beaucoup moins d’influence que les deux autres paramètres lors des traitements numériques. Les valeurs de λd et σ qu’il obtient sont à peu près équivalentes aux nôtres, en particulier dans les plus hautes énergies. Nous utiliserons donc les relations (1.22) et (1.23) dans la plupart des études à haute énergie (alors que λu sera 50 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 tiré de nos fittages), et pour les basses énergies, les paramètres de la DRF seront directement issus du fittage de deltas-dopage analysés dans les mêmes conditions expérimentales. Il n’est pas évident de comparer les différents résultats de la littérature, étant donné qu’il existe plusieurs types d’analyseurs, et que chaque équipe peut personnaliser son propre appareil en modifiant ses caractéristiques. En particulier, il faut différencier les analyses en incidence oblique de celles en incidence normale. Dans les appareils comme le microanalyseur CAMECA IMS3/4f, l’angle d’incidence est tel qu’il n’y pas de formation de SiO2 stœchiométrique, mais seulement de SiOx (avec x < 2) Ainsi, on ne peut pas bénéficier pleinement du phénomène de swelling, qui apporte un gain en résolution en profondeur. Mais de manière générale, les résultats obtenus par Dowsett [11] [25] [26], Barlow [27], Mattey [28] sont sensiblement égaux aux nôtres. 7.6.4 Origine des paramètres de la DRF et mécanismes balistiques Nous avons opté, faute de mieux, pour une forme analytique « semi-empirique » pour décrire la fonction de résolution. Ce choix comporte, comme nous l’avons vu, des avantages et des inconvénients. En fait, l’idéal aurait été de disposer d’une modélisation complète du processus de la mesure SIMS, en incluant les paramètres physiques depuis le faisceau primaire jusqu’à la détection des ions secondaires. Cette modélisation est encore impossible. Le principe même de l’analyse, c’est à dire la pulvérisation de l’échantillon, est loin d’être complètement compris. Ensuite, les mécanismes sont trop dépendants des espèces chimiques de la matrice et des espèces incidentes, et de leur concentration relative. A cela s’ajoute le grand nombre de paramètres expérimentaux réglables par l’opérateur. Parfois leur sensibilité rend difficile la reproductibilité des mesures. Nous avons vu l’origine de λd. Celle de σ a été étudiée par Littmark et il montre que même dans des conditions expérimentales supposées idéales (pas de rugosité, cratère plat,…), σ existe et il dépend de Rp. L’hypothèse est donc que σ est lié aux cascades de collisions isotropes. Le profil est ainsi de plus en plus élargi quand Rp augmente. Nous verrons plus loin que σ est aussi impliqué dans les phénomènes à caractère gaussien de dégradation de la résolution en profondeur. Le comportement de λu est plus ambigu. D’après Badheka et al. [30], il serait principalement relié à la rugosité microscopique au cours de la mesure, alors que Turner [14] trouve son origine dans la profondeur d’échappement des ions secondaires. Quoi qu’il en soit, le comportement apparemment linéaire (quasi constant) de λu est assez mal compris, et il semble ne pas dépendre uniquement du mixage collisionnel. L’équipe de Badheka et Van Den Berg [30] [31] a développé un logiciel de simulation de profils nommé IMPETUS. En fait la partie du logiciel qui calcule la DRF est tout aussi empirique puisque certains paramètres sont ajustés de telle sorte qu’ils « collent » à l’expérience. 51 &KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06 7.6.5 Quelle extrapolation à très basse énergie ? Les progrès récents en instrumentation, tels que par exemple la mise au point de sources d’ions à potentiel flottant, permettent de diminuer l’énergie jusqu’à quelques centaines d’électron-volts. Le comportement des paramètres σ et λd semble être linéaire par rapport à Rp avec une ordonnée à l’origine nulle. Cette propriété semble être cohérente, puisque lorsque le profondeur de pénétration des ions tend vers zéro, il n’y a plus de mixage collisionnel (il n’y a également plus d’érosion). En dessous de 500 eV, il faut cependant prendre en compte divers facteurs : la vitesse d’érosion devient très faible, et d’autres phénomènes parasites tels que l’apparition d’une rugosité (dépendante de l’angle d’incidence) peuvent alors limiter la résolution en profondeur. 8. Conclusion Dans ce chapitre, nous avons exposé les principes de la Spectrométrie de Masse des Ions Secondaires et décrit son appareillage. Malgré de nombreux avantages et une puissance d’analyse poussée, les inconvénients de la technique sont la destruction de l’échantillon et l’altération plus ou moins importante du profil réel de concentration recherché. Nous avons vu que la principale source de dégradation de la résolution en profondeur de la technique est de nature balistique, le mixage collisionnel. Dans le cas du bore dans le silicium, celui-ci peut-être modélisé par une fonction analytique relativement simple d’expression et que nous appelons DRF (Depth Resolution Function). Elle est le résultat de la convolution d’une double exponentielle par une gaussienne et est décrite par trois paramètres indépendants. La DRF représente la réponse impulsionnelle du système transformant le profil réel de concentration d’une espèce en un profil dégradé en résolution en profondeur. Les trois paramètres de la DRF λu , λd , σ ont de manière générale un comportement linéaire en fonction de la profondeur de pénétration des ions primaires et peuvent être estimés assez précisément pour les plus hautes énergies. Dans les très faibles énergies d’impact, ou dans des conditions expérimentales particulières, il est préférable de fitter directement la DRF à partir de la mesure d’un delta-dopage. 52 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV &KDSLWUH /D'pFRQYROXWLRQVRXV &RQWUDLQWHV 1. Introduction Dans le premier chapitre, nous avons posé les bases de la physique qui vont nous permettre d’appliquer les techniques de traitement numérique du signal aux profils de concentration obtenus par analyse SIMS. Nous avons vu qu’au niveau expérimental, il est très difficile d’améliorer la qualité des résultats. Pour obtenir un gain faible en résolution, il faut maintenant mettre en œuvre de grands moyens instrumentaux. Diminuer l’énergie d’impact des ions primaires implique le réglage minutieux du faisceau, sa stabilité et sa focalisation devenant très capricieuses dans ces conditions, conduisant fréquemment à la malformation des cratères et à la naissance de rugosités. D’autre part, le temps d’analyse augmente rapidement avec la diminution de l’énergie primaire et donc de la vitesse d’érosion de l’échantillon. Enfin, les améliorations de l’appareillage nécessaires à l’obtention des résolutions ultimes ont un coût financier élevé. La déconvolution se propose de prendre en charge la restauration d’une partie des informations perdues lors de la mesure. Il s’agit de rétablir autant que possible les véritables dimensions des structures géométriques trop petites pour être mesurées correctement par l’analyse SIMS de routine. Il faut bien entendu garder à l’esprit que le traitement numérique n’est pas fait pour transformer une « mauvaise » mesure SIMS en une « bonne » mesure mais la corriger. Même si la déconvolution aide à l’observation des couches dopées d’un échantillon, elle est subordonnée à une analyse de qualité. En aucun cas il n’est souhaitable d’appliquer la déconvolution à un profil de concentration acquis dans de mauvaises conditions : échantillonnage pauvre, vitesse d’érosion variable, bruit trop important, etc… Parmi les techniques de restauration d’informations (débruitage, filtrage, extraction de contours, etc…), la déconvolution est une de celles qui nécessitent beaucoup de précautions. Si l’on ne prend pas garde à chacun des éléments intervenant dans les calculs, des résultats insensés peuvent apparaître ; une déconvolution incontrôlée peut générer des aberrations, comme des structures inexistantes dans la réalité ou des concentrations négatives. Nous allons, dans ce chapitre, exposer les principes de la déconvolution, d’abord dans un cadre général, puis nous verrons le cas particulier de l’analyse SIMS. Nous passerons en revue différentes méthodes de déconvolution afin de choisir celles qui seront mieux adaptées à notre cas. Ce chapitre fait appel aux compétences de deux domaines, le traitement du signal et l’analyse SIMS. A première vue, on pourrait penser qu’il est simple d’appliquer un tel 53 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV traitement à des signaux unidimensionnels. Nous verrons que le signal SIMS est un cas assez sévère de convolution. Enfin, cette partie s’adresse tant au « lecteur physicien », qui trouvera peut-être certains calculs fastidieux, mais aussi le moyen d’intégrer certains aspects expérimentaux dans les traitements numériques, qu’au « lecteur mathématicien », qui la lira peut être avec facilité, mais découvrira l’exemple intéressant de la restauration de profil en profondeur. Les techniques exposées, connues ou nouvelles, peuvent être facilement étendues à d’autres types de signaux, en particulier les signaux multidimensionnels. 2. Généralités sur la déconvolution De nombreux domaines d’application ont recours à la déconvolution, et par suite différentes méthodes ont vu le jour. Elles peuvent s’appliquer à tout signal ayant été dégradé par un dispositif linéaire et invariant, comme l’analyse SIMS bien sûr, mais aussi d’autres types de mesures : électroniques, optiques, acoustiques... En particulier, la déconvolution est très utilisée dans le domaine des images numériques, qui est la plus grosse source de méthodes de déconvolution en deux dimensions. Les photos astronomiques ou l’imagerie médicale sont des exemples de domaines typiques faisant fréquemment appel aux techniques de déconvolution pour restaurer l’information. Avant d’entrer dans le vif du sujet, il est important de bien comprendre ce qui nous amène à mettre en œuvre une déconvolution. Une telle opération implique qu’il y ait d’abord un signal ayant subit une convolution. Ce signal est inconnu, et en général on ne dispose que du résultat de la convolution de ce signal, mais aussi, partiellement ou complètement, du signal convoluant. Cela nous amène à faire tout d’abord quelques rappels sur la convolution, afin d’utiliser par la suite au mieux ses propriétés. 2.1 Rappels sur la convolution 2.1.1 Définition Un signal dégradé par altération (filtrage de ses variations rapides), peut être compris comme résultant de la composition du signal original (celui que l’on recherche), et d’un signal parasite, par exemple inhérent à la mesure. Nous représenterons dans toute la suite de ce travail, le signal d’entrée recherché par x(t), et le signal de sortie observable par y(t). Désignons par H l’opérateur qui transforme le signal d’entrée x(t) en y(t) : y=H x (2.1) H est un opérateur de convolution si x et y sont fonction d’une même variable indépendante t, et si H est linéaire et invariant au cours de temps, c’est-à-dire : si x (t ) = x1 (t ) + x2 (t ) ,alors y (t ) = y1 (t ) + y2 (t ) 54 (2.2) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV si x (t ) = x1 (t − t0 ) ,alors y (t ) = y1 (t − t0 ) (2.3) y1 = H x1et y2 = H x2 (2.4) avec : Le système qui dégrade le signal x peut être caractérisé par sa réponse impulsionnelle (réponse à une impulsion de Dirac δ(t)), notée h(t). Le signal de sortie y(t) dépend à chaque instant t de toutes les valeurs du signal d’entrée x aux instants (t-τ), et ceci de manière pondérée par h(τ). L’équation (2.1) devient alors l’équation de convolution suivante : y (t ) = +∞ ∫ h (τ ) x (t − τ ) dτ (2.5) −∞ La convolution est noté par le signe ∗ , ce qui simplifie la notation : y (t ) = h (t ) ∗ x (t ) ,ou y = h ∗ x (2.6) Le terme h∗x est appelé produit de convolution de x par h. 2.1.2 Propriétés du produit de convolution Comme le produit simple, le produit de convolution de fonctions est commutatif, associatif et distributif par rapport à l’addition. Si tous les produits de convolution existent (convergence de l’intégrale de convolution), nous avons : h∗ x = x∗h h ∗ ( x1 ∗ x2 ) = ( h ∗ x1 ) ∗ x2 h ∗ ( x1 + x2 ) = h ∗ x1 + h ∗ x2 La propriété la plus intéressante du produit de convolution a lieu dans l’espace de Fourier : son image est un produit simple. Ainsi, si X(f), Y(f) et H(f) désignent respectivement les transformées de Fourier de x(t), y(t) et h(t), nous avons : y (t ) = h (t ) ∗ x (t ) ⇔ Y ( f ) = H ( f ) X ( f ) (2.7) Le produit simple étant d’expression moins complexe que le produit de convolution, cette propriété nous permettra d’obtenir des simplifications en passant dans l’espace de Fourier. Ainsi, on peut distinguer des techniques de déconvolution dans l’espace direct, et d’autres dans l’espace de Fourier. 55 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV Notons que H(f) est la fonction de transfert du système qui dégrade le signal. Ce système est un filtre de type « passe-bas » ; on a donc généralement : H( f ) → 0 (2.8) f →∞ La fonction de transfert est normalisée, ce qui implique ∫ +∞ −∞ h (t )dt = H ( 0 ) = 1 . 2.2 Modélisation d’un profil SIMS par convolution Dans le premier chapitre, nous avons vu que l’on peut exprimer la réponse impulsionnelle caractérisant l’analyse SIMS à l’aide d’une fonction décrite par trois paramètres. Si on dispose d’un échantillon dont les caractéristiques sont parfaitement connues, on souhaitera peut-être prévoir le profil en profondeur que l’on obtiendrait pour différentes énergies primaires. Modéliser un profil mesuré revient alors à convoluer le profil réel avec la fonction de résolution correspondant aux conditions expérimentales souhaitées (en particulier ses caractéristiques géométriques). Cette modélisation de profil SIMS va en fait nous permettre de tester la déconvolution, puisque nous aurons besoin de profils simulés pour tester les différentes méthodes de déconvolution. 2.3 Inversion directe de l’équation de convolution La déconvolution consiste à retrouver le signal original x(t) connaissant le signal de sortie du système de mesure y(t) et sa réponse impulsionnelle h(t). Le but est donc de résoudre l’équation de convolution (2.5). Dans l’espace direct, la présence de l’intégrale rend cette équation difficile à résoudre. Par contre, d’après la propriété (2.7), nous pouvons écrire cette équation dans l’espace de Fourier : Y ( f )= H ( f )X ( f ) Nous avons alors X ( f ) = (2.9) Y(f ) , et en utilisant la transformée de Fourier inverse : H(f) Y ( f ) x (t ) = TF-1 H ( f ) (2.10) C’est donc la manière la plus simple et la plus directe de déconvoluer un signal. Cette solution est formelle. En effet H(f) doit être différente de zéro pour toutes les valeurs de la fréquence f. D’autre part, H(f) ne doit pas être à décroissance trop rapide en fonction de f. On 56 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV notera que H(f) décroît en fonction de la fréquence (la dégradation est du type « filtre passebas ») et donc H(f) tend vers zéro assez rapidement. • Existence de la solution Une autre approche peut être considérée pour vérifier l’existence et l’unicité de la solution au problème de déconvolution. Posons : h* −1 (t ) ∗ h ( t ) = δ (t ) (2.11) −1 où h* (t ) représente l’inverse de convolution h(t). Dans l’espace de Fourier, la relation (2.11) devient : H* −1 ( f ) H ( f ) = 1, soitH * ( f ) = −1 1 H(f) (2.12) La relation (2.12) nous montre que l’existence de l’inverse de convolution au sens des distributions tempérées est subordonnée à la condition que H(f) ne s’annule pas. En fait, on peut montrer que deux conditions permettent l’existence de l’inverse [32] ; il faut d’une part −1 que le module de H ∗ ( f ) soit borné, et d’autre part que H(f) soit à décroissance lente, c’està-dire : H∗ −1 ( f ) < ∞pour f ∈ R (2.13) et H(f ) ∝ f −α quand f → ∞,avecα ∈ N∗ (2.14) Citons quelques exemples : • Fonctions gaussiennes : t 2 2 TF 1 −π →H ( f ) = e −π (τ f ) h (t ) = e τ ← τ Ici, H(f) est à décroissance rapide, donc l’inverse de convolution n’existe pas. 57 (2.15) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV • Fonctions exponentielles : TF 1 − t 1 →H ( f ) = h (t ) = e τ ← τ 1 + 2π jτ f (2.16) Ici l’inverse de convolution existe. 2.4 Solution principale Si H(f) décroît rapidement, on travaille uniquement sur l’intervalle de fréquence où H(f) est inversible. La solution est alors appelée solution principale. En général, on suppose que H(f) s’annule à partir d’une fréquence fc et la relation (2.12) n’est définie que pour les fréquences inférieures à fc. La solution dite « principale » sera alors : Xp(f )= Y(f ) W(f) H(f) (2.17) W ( f ) = 1 f ≤ f c où W(f) est une « fenêtre fréquentielle » définie par : W ( f ) = 0 f ≥ f c Dans l’espace temporel on aura alors : Y ( f ) x p (t ) = )-1 W ( f ) = x ( t ) ∗ w ( t ) H ( f ) avec w (t ) = (2.18) sin ( 2π f c t ) πt Ainsi, on dispose d’une solution approchée à un problème de déconvolution où l’inverse de déconvolution n’existe pas [75]. Exemple de déconvolution simple Nous allons maintenant appliquer la déconvolution dans les conditions les plus favorables qui puissent être : le signal de sortie y(t) et la réponse impulsionnelle du système sont parfaitement connus, et il n’y a pas de bruit de mesure. Il n’y a alors qu’à calculer la solution dans l’espace de Fourier en résolvant l’équation (2.9), puis à la transposer dans le domaine temporel. La figure 2-1 nous montre que la restauration du signal de départ est parfaite : 58 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 2200 Signal réel Signal convolué Réponse impulsionnelle Signal déconvolué 2000 1800 1600 1400 1200 1000 800 600 400 200 0 0 200 400 600 800 1000 1200 1400 1600 1800 Figure 2-1 : Exemple de déconvolution d’un signal non bruité où le signal convoluant est parfaitement connu. Nous présentons cet exemple pour mémoire seulement. Dans la réalité les circonstances dans lesquelles nous aurons à effectuer une déconvolution seront bien différentes. La principale cause rendant la restauration difficile est la présence du bruit de mesure. A cela peuvent s’ajouter d’autres éléments : une réponse impulsionnelle imprécise ou mal connue, ou encore une réponse impulsionnelle fortement dégradante. 2.5 Déconvolution de signaux bruités Toute mesure physique, quelle que soit sa nature (électronique, optique, etc...), est entachée de divers signaux parasites, considérés ensemble comme le bruit de mesure. Il faut cependant distinguer deux sortes de signaux « parasites » venant s’ajouter au signal utile. On considère généralement que le bruit est de nature aléatoire, c’est-à-dire qu’on ne peut pas prédire sa valeur au temps t2 à partir de celle au temps t1. Les autres signaux parasites, comme par exemple une composante continue ou un signal sinusoïdal, ne seront pas considérés comme faisant partie du bruit, puisqu’on peut parfaitement les distinguer et donc les éliminer du signal mesuré. Le bruit de mesure est à l’origine de la plupart des difficultés de la déconvolution. En effet la principale caractéristique du bruit est d’être indissociable du signal utile. Sa présence a presque toujours comme conséquence de masquer plus ou moins de détails dans le signal original. Cela implique qu’on ne sait pas distinguer le signal utile du bruit, ce qui est considéré comme une perte d’information. 59 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 2.6 Différents types de bruit 2.6.1 Caractéristiques fréquentielles du bruit Le bruit fait certes partie des signaux aléatoires, mais on peut distinguer certaines caractéristiques déterministes, notamment dans le domaine des fréquences. Dans ce qui suit, on désigne le bruit intervenant dans les données mesurées par b(t). • Le bruit blanc Ce type de bruit est largement utilisé dans les modélisations et les simulations en traitement du signal, du fait de sa formulation très simple : ce bruit à une densité spectrale de puissance constante sur tout l’espace des fréquences. Autrement dit, ce bruit contient toutes les fréquences possibles et elles ont la même puissance. • Le bruit rose Ce type de bruit est en fait défini de la même manière que le bruit blanc, mais sur un intervalle de fréquences fini. Ce cas est plus réaliste que celui du bruit blanc puisqu’ aucun signal physique ne possède un spectre à support infini. 2.6.2 Caractéristiques probabilistes du bruit Le bruit est modélisé par une fonction aléatoire du temps, mais on peut aussi le caractériser par sa densité de probabilité p(P)dP, qui est normée : ∫ +∞ −∞ p ( P ) dP=1 (2.19) • Bruit gaussien Un bruit gaussien est caractérisé par une densité de probabilité de forme gaussienne. Si on désigne par Pc le centre de cette gaussiene, et par σ sa dispersion, la loi de p s’écrit : − 1 p (P) = e 2πσ ( P − Pc )2 2σ 2 (2.20) Pc représente donc la valeur moyenne de ce bruit, et σ son écart-type. On fait souvent l’hypothèse que le bruit est gaussien car là encore des simplifications en découlent : • Tous les moments de la variable aléatoire peuvent être calculés à partir des moments du 1er et 2nd ordre. • Lorsque plusieurs processus gaussiens de paramètres différents s’ajoutent, il en résulte un processus encore gaussien. • Lorsque qu’un grand nombre processus aléatoires de types quelconques s’ajoutent, le résultat tend à nouveau vers un processus gaussien. 60 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV • Bruit poissonnien Le bruit poissonien est plutôt utilisé lorsqu’on souhaite compter un nombre d’événements (par exemple des particules) dans un intervalle de temps donné. La probabilité d’avoir n particules pendant une durée T est : P ( n,T ) ( KT ) = n n! e − KT (2.21) où K est le paramètre de Poisson. 1/K est le nombre de particules moyen par unité de temps. La densité de probabilité est : λ K −λ p (k ) = e K ∈N K! (2.22) où λ est la variance. Les variables aléatoires poissionniennes sont donc bien adaptées aux processus de comptages, comme celui des ions secondaires en SIMS. Makarov [33] démontre d’ailleurs que le bruit de mesure dans les profils SIMS en profondeur obéit à la loi de Poisson. Il faut noter aussi que la loi de Poisson tend vers une loi de Gauss lorsque le paramètre de Poisson K devient grand. 2.7 Equation de convolution avec bruit Le système linéaire et invariant à l’origine de la dégradation du signal est un filtre passe-bas. De ce fait, en hautes fréquences, le signal de sortie du système (celui qu’on observe ou mesure), n’est en fait que le bruit provenant des capteurs et amplificateurs électroniques. Un modèle réaliste, dans un contexte linéaire, consiste à appliquer le théorème de superposition : le signal de sortie du système est égal à la somme du signal non bruité et d’un bruit large bande : yb (t ) = y (t ) + b (t ) = x (t ) ∗ h (t ) + b (t ) (2.23) L’hypothèse la plus simple consiste à supposer que le bruit est blanc, et c’est celle que nous ferons dans la suite de ce travail. Remarques importantes concernant le bruit Au cours de notre étude, nous avons pu mettre en évidence une différence de vocabulaire entre les spécialistes de l’analyse par SIMS et les spécialistes du traitement du signal. Pour ces derniers, le bruit résulte du système de mesure des ions secondaires, alors que 61 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV les physiciens considèrent également une autre source de bruit, intervenant avant l’entrée du système de mesure, et qui est liée aux variations du courant primaire. Le schéma classique d’un système de mesure est le suivant : E Grandeur physique Système de mesure : Capteurs + Chaîne de mesure Signal de sortie S Bruit Le principe de la mesure globale en SIMS peut être schématisé ainsi : Ions primaires Courant I0 Ions secondaires Courant IE Spectromètre + comptage Signal de sortie IS Mixage La DRF intervient lors du passage de la concentration initiale C(z) à une concentration de surface CS(t). En fait, la fonction de transfert du système est celle de l’ensemble de la chaîne de mesure, dont une partie est physique (mixage collisionnel, érosion, émission d’ions secondaires), et une partie instrumentale (déviation des ions dans un champ magnétique, transformation ions : électrons, comptage). On peut globalement considérer que la partie de la fonction de transfert la plus pénalisante est celle résultant du processus physique (ceci est démontré en suivant l’évolution de la DRF avec l’énergie). Le bruit tel que le définissent les physiciens provient de différents facteurs : • Nature statistique de l’émission ionique secondaire (phénomène aléatoire). • Bruit électronique dans la chaîne de mesure. • Variations du courant primaire I0, dû aux instabilités de la source (duoplasmatron). Ces sources sont introduites en différents points du système : • L’érosion statistique intervient après la formation de la concentration de surface, donc après l’action de la fonction de transfert « principale » (la DRF). Cette source de bruit peut être considérée comme négligeable. 62 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV • • Le bruit électronique intervient lui aussi après la DRF, en sortie du système. Il est notamment caractérisé pas sa large bande de fréquence. L’influence de la variation du courant primaire est plus difficile à situer : ce dernier agit à la fois sur la densité de dommages déposée, donc sur le mixage collisionnel, et sur la quantité d’ions pulvérisés. La concentration de surface est le résultat d’une intégration de l’énergie (les variations de I0 ont donc peu d’influence), alors que le nombre d’atomes pulvérisés est proportionnel au courant primaire quasi-instantané. On peut donc considérer que la plus grande partie du bruit « primaire » est introduite après l’action de la DRF. Le système peut se schématiser ainsi : CS(t) Echantillon : profil C(z) Variations aléatoires du courant primaire Bruit électronique Mixage : DRF = h(z) ; Emission secondaire Spectromètre comptage I û,0 I Courant primaire I0 Dans ces conditions, le bruit généré par la source primaire est indépendant de la DRF, puisqu’il est multiplié par la concentration de surface CS(t). La déconvolution ne tient donc aucun compte de cette source de bruit et agit comme s’il faisait partie intégrante du signal. Le bruit du courant primaire peut être vu comme une modulation du signal utile (le profil de concentration), qui ne sera pas éliminée par la déconvolution. 2.8 Conséquences de la présence du bruit 2.8.1 Saturation des hautes fréquences Maintenant que nous avons introduit le bruit dans les équations de convolution, voyons comment résoudre notre problème. On pourrait à nouveau effectuer une inversion dans le domaine de Fourier, mais les données de départ ont changé. La fonction de transfert du système est un filtre passe-bas, son inverse agit donc comme un amplificateur hautes fréquences. Le bruit sera donc amplifié par la déconvolution. Dans le cas où y(t) n’est pas entaché de bruit, le terme Y(f)/H(f) est strictement égal à X(f). Maintenant, la relation (2.7) s’écrit dans l’espace de Fourier : 63 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV Yb ( f ) = H ( f ) X ( f ) + B ( f ) (2.24) Si on divise les deux membres de cette équation par H(f), on obtient : X ( f ) Yb ( f ) H ( f ) X ( f ) B ( f ) = + H(f) H(f) H(f) B( f ) ⇔ X ( f )= X ( f ) + H(f) (2.25) X ( f ) est une estimation de X ( f ) que l’on obtient en divisant simplement Yb ( f ) par H ( f ) . L’équation (2.25) nous montre que le bruit prend toute son importance ici : X ( f ) est composé du profil réel X ( f ) auquel s’ajoute le bruit B ( f ) fortement amplifié par le terme H −1 ( f ) . X ( f ) a donc un spectre « saturé » de bruit dans les hautes fréquences, et son image x (t ) dans le domaine temporel est un signal fortement oscillatoire et inutilisable. Nous allons voir les moyens qui s’offrent à nous pour déconvoluer en présence du bruit. 2.8.2 Filtrage de la solution : le « filtre optimal de Wiener » On a la possibilité de filtrer les hautes fréquences de X ( f ) portant plus de bruit que d’information utile. Il convient alors de trouver un filtre adéquat de telle sorte que l’on retrouve un profil déconvolué X W ( f ) aussi proche que possible du profil réel X ( f ) . On cherche donc le filtre F(f) tel que X W ( f ) = Yb ( f ) F ( f ) soit le plus proche H(f) possible de X ( f ) . La notion de proximité entre X W ( f ) et X ( f ) peut être traduite mathématiquement par la distance quadratique entre les deux transformées de Fourier, ce qui nous amène à minimiser la quantité : ∫ +∞ −∞ X W ( f ) − X ( f ) df 2 qui s’écrit, en notant que Yb ( f ) = Y ( f ) + B ( f ) et Y ( f ) = H ( f ) X ( f ) : 64 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV ∫ +∞ −∞ =∫ +∞ −∞ Y ( f )+ B( f ) Y(f ) F ( f )− df H(f) H(f) 2 H(f) (Y ( f ) ( F ( f ) − 1)+B ( f ) F ( f ) 2 2 df On a ici le carré d’une différence à développer. Or nous avons fait l’hypothèse au paragraphe précédent que le bruit et le signal mesuré ne sont pas corrélés. Le double produit du binôme, contenant le produit de Y par B, une fois intégré sur f, donne un résultat nul. Une fois cette simplification faite, il nous reste à minimiser une intégrale, ce qui revient en fait à minimiser, après l’avoir dérivée par rapport à F(f), l’intégrande. On a donc à résoudre l’équation : Y(f ) 2 ( F ( f ) − 1) + B ( f ) 2 F( f )=0 (2.26) La solution de cette équation nous donne finalement le filtre optimal de Wiener : FW ( f ) = Y(f ) 2 Y ( f ) + B( f ) 2 (2.27) 2 On peut remarquer dans l’expression du filtre de Wiener que la réponse impulsionnelle H n’intervient pas directement. C’est des données « non bruitées » Y (qui sont liées à H bien sûr) et du bruit que dépend le filtre, plus précisément du module de son spectre. Mais connaître l’expression du bruit revient en fait à le discriminer du signal utile, et c’est justement le problème qui nous a amené à chercher des solutions pour la déconvolution en présence de bruit. Puisqu’il est impossible d’obtenir l’expression du bruit dans les données mesurées, il est nécessaire de recourir à des méthodes d’estimation du bruit. Une première approximation peut être faite en prenant sa variance. Si on a un moyen de l’estimer, par exemple sur une partie du signal de sortie où l’on sait qu’il n’y a pas de signal utile, alors on peut faire l’approximation d’un bruit blanc ( B( f ) 2 constant) et σ B2 = B( f ) . Le filtre de Wiener a dans ce cas l’expression suivante : 2 FW ( f ) = 1+ 1 σ B2 Y(f ) (2.28) 2 2 La difficulté est ici l’estimation de Y ( f ) , module carré du signal convolué sans bruit. Nous verrons dans le prochain chapitre que les performances de la déconvolution par 65 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV cette méthode ne sont pas suffisantes pour notre problème spécifique d’analyse SIMS. Néanmoins elle donne une première approximation de solution au problème de la déconvolution en présence de bruit. Celle-ci conduit généralement à un profil déconvolué contenant des concentrations négatives. Nous n’utiliserons donc pas cette méthode pour déconvoluer nos profils de concentration en profondeur, et nous allons explorer d’autres voies, afin de choisir une méthode plus appropriée. Mais avant d’aller plus loin, il nous faut définir un support pour la mise en pratique de ces différentes méthodes. En effet la résolution du problème passe par le calcul sur ordinateur, ce qui suppose une discrétisation des données. Nous allons donc consacrer une partie entière à exposer le problème avec des données échantillonnées. 3. Passage du domaine continu au domaine discret 3.1 Nature des signaux SIMS mesurés Lors de l’acquisition d’un profil en profondeur, les ions secondaires sont émis de façon continue. C’est l’électronique de commande qui gère le comptage des ions secondaires frappant le détecteur, et cela est fait de manière discrète dans le temps. L’utilisateur a donc le choix de régler le pas d’échantillonnage dans le temps pour chaque profil et même pour chaque masse analysée. Selon la vitesse d’érosion de l’échantillon, on obtient un pas d’échantillonnage spatial de l’ordre de quelques angströms. Les signaux SIMS à notre disposition sont donc des signaux discrets et de durée finie. 3.2 Notations et particularités du domaine discret 3.2.1 Domaine temporel discret Les théories formulées dans le domaine continu sont applicables dans le domaine discret, moyennant quelques précautions. Une fonction à temps discret f = [f0, f1,….fN-1] est notée comme étant une suite de points image d’une autre suite de points t = [t0, t1,….tN-1] espacés d’un même intervalle, le pas d’échantillonnage Te. On notera fe = 1/Te la fréquence d’échantillonnage. Les opérations courantes se retrouvent dans le domaine à temps discret, et par exemple l’équation de convolution (2.5) devient : yn = +∞ ∑ x h i =−∞ i n −i = +∞ ∑ h x i =−∞ i yn = hn ∗ xn = xn ∗ hn 66 n −i (2.29) (2.30) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV La réponse impulsionnelle hn est la réponse du système discret à un Dirac discret δn défini par le symbole de Kronecker : 1 si n = 0 δn = 0si n ≠ 0 (2.31) 3.1.2 Espace de Fourier discret De même, on est amené à discrétiser l’espace des fréquences pour le calcul de la transformée de Fourier. La période d’échantillonnage dans l’espace des fréquences est alors fe /N où N est le nombre d’échantillons du signal. La transformée de Fourier à temps et fréquences discrètes est dite Transformée de Fourier Discrète (TFD). Sa mise en œuvre utilise l’algorithme rapide de Tukey et Cooley dit FFT (Fast Fourier Transform) [52]. Le lecteur trouvera une littérature abondante sur la FFT, et nous rappelerons uniquement son expression : N −1 X k = ∑ xn e −2π jn k N k = 0,1.... N − 1 (2.32) n=0 3.3 Longueur des signaux Les données que nous auront à traiter sont définies sur un intervalle de temps (ou de profondeur) borné. Il est donc inutile de définir le produit de convolution sur [−∞;+ ∞] comme dans l’équation (2.29). Il nous suffira d’effectuer ce produit sur le nombre de points Nh de la réponse impulsionnelle h (ou sur Nx, puisque le produit de convolution est commutatif): yn = N h −1 N x −1 i=0 i=0 ∑ hi xn−i = ∑ x h i n −i (2.33) Il faut cependant prendre garde à la longueur du vecteur y ; l’équation (2.33) nous montre que n peut être défini sur un intervalle [0 ; Ny -1] tel que l’indice (n-i) de x soit lui aussi compris entre 0 et Nx -1 : min(n − i ) = 0⇒n = i⇒min(n) = 0 max(n − i ) = N x − 1⇒n = N x − 1 + i⇒max(n) = N x + N h − 2 (2.34) On en déduit que la longueur du vecteur y est Ny telle que : N y = N x + Nh − 1 67 (2.35) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV On voit donc que le signal de sortie est plus long que les signaux de départ. Cette convolution est appelée convolution linéaire. Si on souhaite travailler avec des signaux qui ne « s’allongent pas » lors de la convolution, on peut effectuer ce qu’on appelle une convolution circulaire, à l’origine employée pour les signaux périodiques. La convolution circulaire nécessite que les deux vecteurs de départ soient de même longueur N, et le résultat de la convolution sera lui aussi de longueur N. Nous savons néanmoins que le vecteur final devra être de longueur N ≥ N y . Le résultat doit être strictement identique à celui obtenu par convolution linéaire. Il suffit donc de compléter les vecteur x et h par des zéros afin que leur longueur atteigne N : xn ;n = 0,..., N x − 1 xC n = 0;n = N x ,..., N − 1 (2.36) yn ;n = 0,..., N y − 1 yC n = 0;n = N y ,..., N − 1 (2.37) xn ;n = 0,..., N h − 1 hC n = 0;n = N h ,..., N − 1 (2.38) L’équation de convolution s’écrit dans le cas de la convolution circulaire : N −1 N −1 i =0 i =0 yC n =∑ hC i xC n −i mod[ N ]=∑ xC i hC n−i mod[ N ] (2.39) Le produit de convolution circulaire présente l’avantage de garder les même longueurs de vecteurs lors des calculs de convolution, mais l’inconvénient est de rallonger le nombre de calculs (Ny multiplications à effectuer au lieu de Nh). Sa mise en œuvre est effectuée dans le domaine de Fourier : yC n = TFD −1 (TFD ( hC ) ⋅ TFD ( xC )) (2.40) 3.4 Notation matricielle Jusqu’ici nous avons utilisé des signaux échantillonnés et des convolutions discrètes. Ces échantillons peuvent être rangés dans un vecteur colonne x = [ x0 , x1 ,..., xn ,..., xN x −1 ]T . La convolution peut être décrite par une opération matricielle. On définit une matrice H de taille N y × N x telle que : y = þ x 68 (2.41) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV où y = [ y0 , y1 ,..., yn ,..., y N x + Nh −1 ]T . Les matrices seront notées dans toute la suite de ce travail par une majuscule en gras et non italique, afin de ne pas les confondre avec les signaux de l’espace de Fourier. H est un opérateur linéaire représenté par une matrice de Toeplitz. • Les matrices de Toeplitz L’équation (2.33) nous montre que H doit être construite à partir de la réponse impulsionnelle h. Le produit de la ligne i de la matrice H par le vecteur x doit conduire à yi. Il s’ensuit que les éléments hi , j de H sont de la forme hi − j . On notera que si j est plus grand que i, alors hi , j = 0 . La réponse impulsionnelle h étant définie sur Nh points, la matrice de Toeplitz de h s’écrit : h0 h1 hN −1 H = h 0 0 0 0 0 0 h0 h1 0 0 h0 h1 hNh −1 0 0 0 hN h −1 0 0 0 N y lignes h0 h1 hNh −1 0 0 h0 h1 hNh −1 0 (2.42) N x colonnes Si on utilise la convolution circulaire, la matrice de Toeplitz de la réponse impulsionnelle s’écrit : h0 h1 hN −1 H C = h 0 0 0 0 0 h0 h1 hN h −1 0 0 0 0 0 h0 h1 hNh −1 0 0 0 h0 h1 hNh −1 0 0 0 0 h0 h1 hN h −1 hNh −1 0 0 0 0 h0 h1 hNh −1 0 0 0 0 h0 h1 h1 hN h −1 0 N y lignes 0 0 0 h0 (2.43) • N y colonnes Inversion de matrice et conditionnement L’inverse d’une matrice carrée H est défini par H-1 tel que : 69 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV H -1H = I (2.44) à la condition que H-1 existe. On définit le conditionnement d’une matrice par le nombre de conditionnement, noté cond(H) et s’exprimant ainsi : cond ( H ) = λmax λmin (2.45) où λmax et λmin sont respectivement les valeurs propres maximale et minimale de H. Plus ce nombre est grand devant 1, plus le système est instable. Une petite variation des données entraîne une grande erreur sur la solution. 4. Problèmes inverses mal posés Nous venons de voir la notation matricielle et ses particularités, que nous allons utiliser pour formuler et mettre en place la résolution de notre problème. On dit d’un problème qu’il est mal posé lorsque la matrice H représentant la réponse impulsionnelle du système est mal conditionnée, c’est-à-dire lorsque son nombre de conditionnement cond(H) est très grand devant 1. 4.1 Résolution de l’équation de convolution 4.1.1 Cas non bruité Avec le formalisme matriciel que nous venons de voir, on peut écrire l’équation de convolution très simplement : y = H x (2.46) Une solution formelle de cette équation serait : x = H −1 y (2.47) On notera que H n’est pas une matrice carrée, elle est donc non inversible. Cependant si l’on garde un nombre de données égal au nombre d’inconnues (les composantes de x), on peut obtenir une matrice carrée en tronquant la matrice H. On notera que y est de dimension supérieur à x et l’opération que l’on vient de décrire n’utilise pas toutes les données disponibles. L’autre manière de résoudre l’équation est d’utiliser la convolution circulaire, où la matrice de Toeplitz de h est carrée et donc inversible. On notera alors : yC = H C xC avec yC = y 70 (2.48) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV et dans l’espace de Fourier : YC = H C X C (2.49) Dans la suite de notre travail, nous n’utiliserons que la convolution circulaire. Pour simplifier la notation, les indices C ne seront pas mentionnés. Dans les deux cas (convolutions linéaire et circulaire), le résultat est identique. L’équation (2.47) ne nous intéressera pas puisqu’elle ne tient pas compte du bruit. 4.1.2 Cas bruité En pratique, nous avons à résoudre l’équation de convolution bruitée : y = H x + b (2.50) Si on applique la même méthode que précédemment à cette équation, on aura une estimation de x qui aura l’expression : x = H −1 y = x + H −1b (2.51) et de la même façon que pour la solution de l’équation (2.24), x est une solution non unique, car elle dépend fortement du bruit, et le mauvais conditionnement de H amplifie dramatiquement le bruit [34]. 4.2 Résolution par les moindres carrés L’équation (2.50) peut être appréhendée selon un autre point de vue : on cherche une solution x telle que y = H x soit le plus proche possible de y au sens des moindres carrés. On part donc de l’idée que le bruit nous empêche de trouver la solution exacte x, et qu’il existe une solution x redonnant pratiquement le signal mesuré après avoir été convolué par h. Nous devons minimiser la quantité suivante : y − H x 2 (2.52) H x est donc le signal reconstruit, c’est-à-dire le signal qui va nous permettre de vérifier si la convolution de x par h donne bien le signal mesuré y. La minimisation de (2.52) par rapport à x nous donne : 71 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV þ T þ x = + T y (2.53) −1 x = ( þ T þ ) + T y (2.54) d’où : L’équation (2.54) est appelée équation normale et x solution des moindres carrés [35]. Cette solution procure la plus grande fidélité aux données mesurées, et de plus assure l’unicité de la solution. Mais on voit, comme dans le cas de l’inversion directe de l’équation de convolution, une matrice mal conditionnée à inverser. Cette méthode nous donne donc aussi une solution dépendant fortement du bruit, et de la même manière que précédemment (équation (2.51)), si H est mal conditionnée, HTH l’est encore plus et cette solution pourra donc n’avoir aucune signification physique. Cette méthode de résolution à son équivalent dans l’espace de Fourier, où la solution estimée s’exprime formellement par : * H Y X C = C* C HC HC (2.55) Si H ≠ 0∀ f , alors : X= Y H (2.56) ce qui revient à la solution trouvée par inversion directe, et n’est donc pas acceptable. Nous venons de voir que quelle que soit la méthode employée, que ce soit dans l’espace de Fourier ou dans le domaine temporel avec les matrices, nous nous trouvons face à un problème de stabilité du système. Les solutions, quand elles existent, sont inutilisables car multiples et physiquement inacceptables. La multiplicité des solutions nous montre que nous manquons d’informations pour justifier du choix de telle ou telle solution parmi celles mathématiquement possibles. Il nous faut donc définir des critères sur la solution recherchée afin de limiter le nombre de solutions à celles physiquement acceptables, ce qui s’appelle « stabiliser le problème », tout en assurant la cohérence des résultats, c’est-à-dire en garantissant la proximité de la solution choisie avec la solution idéale. Cette modification du cahier des charges du problème de la déconvolution est très utilisée en traitement du signal, et est désignée sous le nom de régularisation. Etant donné son importance et la nécessité de l’employer dans notre cas, nous allons consacrer toute une partie à la définition de la régularisation d’un problème inverse. 72 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 5. Régularisation d’un problème mal posé 5.1 Introduction à la régularisation Comme nous venons de le voir, la déconvolution de signaux SIMS fait partie des problèmes inverses mal posés. Pour faire face à l’instabilité du système, il faut établir de nouveaux critères qui nous permettront de choisir parmi les solutions possibles celle que nous aurons jugée la plus acceptable. La régularisation propose donc d’apporter de l’information dans le processus de résolution du problème. Cet apport d’information concerne en général la solution elle-même, et plus précisément ses caractéristiques fréquentielles. Elle sera couplé au premier critère que nous avons déjà formulé, à savoir la proximité du profil reconstruit avec le signal mesuré (2.52). La régularisation est largement employée dans les cas suivants : • Lorsque le nombre d’inconnues est trop grand par rapport au nombre de données disponibles. La solution n’est pas unique pour ce problème sous-déterminé. • Le rapport signal sur bruit est mauvais. Régulariser un problème revient donc à faire l’hypothèse qu’on ne peut pas obtenir la vraie solution uniquement à partir des données, et que la connaissance de la réponse impulsionnelle, qui a dégradé le signal d’origine, ne permet de définir qu’une classe de solutions mathématiquement possibles, contenant les solutions physiquement acceptables et celle qui ne le sont pas. L’apport d’informations par la régularisation constitue un choix assez libre selon les caractéristiques que l’opérateur souhaite privilégier pour la solution recherchée. Cette notion de « choix de la solution » indique donc que la solution trouvée n’est pas la seule possible, mais une de celles qui sont acceptables. 5.2 Formulation de la régularisation Les informations a priori apportées se formulent par un critère d’accord avec cet a priori qui revient à minimiser la quantité ∆2. Il se combine par la suite au critère ∆1 des moindres carrés (2.52). La formulation générale de la régularisation s’exprime alors par le critère suivant à optimiser : ( ) ( ∆ = ∆1 x, x 0 + α ∆ 2 x, x ∞ ) (2.57) L’importance de ∆2 est modulée par le paramètre α. Lorsque α = 0, on obtient la solution extrême x 0 correspondant à une fidélité parfaite aux données mesurées y, et x 0 est déterminée uniquement par le critère des moindres carrés. C’est la solution que l’on admet comme satisfaisante lorsque les données sont suffisamment fiables (donc ne nécessitant pas 73 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV de régularisation). Lorsque α tend vers l’infini, on a au contraire une fidélité parfaite à l’a priori que l’on a introduit, sans forcément avoir une solution correspondant aux données. La régularisation consiste à trouver une solution intermédiaire entre les deux solutions extrêmes x 0 et x ∞ , en ajustant le paramètre de régularisation α qui fixe un compromis entre fidélité aux données et fidélité aux informations a priori. On doit donc chercher α tel que le critère ∆ soit minimal. La figure suivante illustre le compromis entre reconstruction fidèle et stabilité par le choix de α. ∆1 ∆2 ∆ ∆B ∆A ∆ min solution fidèle aux données αA α optimal αB solution stable Figure 2-2 : Influence du choix du paramètre de régularisation α sur la fidélité de la solution x par rapport aux données y et sur la stabilité de la solution. 5.3 Choix de la méthode de régularisation Il existe de nombreuses méthodes pour régulariser un problème, chacune étant plus ou moins bien adaptée selon le domaine d’application. Le terme α ∆ 2 ( x, x ∞ ) sera appelé terme de régularisation et sa valeur régularité du signal. 5.1.1 Régularisation de norme minimale ou d’ordre 0. Nous avons vu précédemment que lorsque le problème est mal posé, certaines solutions sont inacceptables, et notamment elles ne sont pas bornées en amplitude. Puisqu’on sait que la solution recherchée est d’amplitude bornée, on peut apporter cette information sous 74 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV forme d’une norme à minimiser : ∆ 2 = x . Quant à ∆1, nous utiliserons tout simplement le 2 critère des moindres carrés sur la solution trouvée : ∆1 = y − H x 2 (2.58) La régularisation se formule dans ce cas par le critère ∆ à minimiser : ∆ = y − H x + α x 2 2 (2.59) C’est une méthode de régularisation simple, et qui écarte toutes les solutions de norme excessive. 5.1.2 Régularisation de Tikhonov-Miller C’est la régularisation la plus utilisée, qui est basée sur un critère quadratique [36]. Le critère ∆1 est le même que dans le cas précédent (moindres carrés entre les données mesurées et le profil reconstruit). On impose ici à cette grandeur quadratique d’être inférieure à l’énergie du bruit Eb : 2 y − H x ≤ b = Eb2 2 (2.60) On notera que, d’après l’équation qui modélise notre problème, on a b = y − H x . Le critère ∆2 est du même type que précédemment, quadratique, et s’exprime à l’aide d’un opérateur de contraintes D. Les solutions définies comme acceptables seront dépendantes des propriétés choisies pour cet opérateur : ∆ 2 = D x 2 (2.61) ∆2 limite l’espace des solutions mathématiquement possibles à un espace particulier dont les propriétés sont imposées par D [37]. La solution est l’estimée x telle que ∆ soit minimum : ∆ = y − H x + α D x 2 2 (2.62) En utilisant les propriétés des produits scalaires et des dérivées, on démontre que la solution x s’exprime par : 75 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV (þ þ+α ' ' ) x = + T T T (2.63) y soit : −1 x = ( þ T þ+α 'T ' ) + T y (2.64) A = þ T þ+α 'T ' (2.65) x = ù −1+ T y (2.66) En posant : on obtient : Le but de D est de lever le caractère mal posé du problème en améliorant le conditionnement de l’opérateur H. Cela est réalisé par la modification des valeurs propres du système. On voit en effet que par rapport à l’équation (2.54), x fait intervenir non pas (þ þ ) T −1 , qui est instable, mais ( þ T þ+α 'T ' ) . Son conditionnement est donné par : −1 cond ( A ) = ( min ( λ max λH2 + α λD2 2 H + α λD2 ) ) (2.67) où λH2 et λD2 représentent, respectivement, les valeurs propres de þ T þ et DT D . La matrice A doit conserver les grandes valeurs propres de þ T þ et remplacer les petites par celles de α DT D . Ainsi, H étant un filtre passe-bas, D doit être un filtre passe-haut. Cette matrice est de telle sorte que ses valeurs propres soient sensiblement les mêmes que celle de H, sauf les plus petites (source d’instabilité), qui sont remplacées par celles de α DT D . Selon les caractéristiques de D et la valeur de α, le système sera ainsi plus ou moins bien régularisé. On peut mesurer la qualité de la déconvolution à partir de l’erreur de reconstruction, que l’on notera E2TM, et qui mesure l’écart quadratique entre le signal mesuré et le signal reconstruit H x : 2 2 ETM = y − y = y − H x 2 (2.68) 5.1.3 Choix de l’opérateur de régularisation L’information que l’on peut introduire par l’intermédiaire de D est plus précise que dans le cas de la régularisation d’ordre 0, qui n’est finalement qu’un cas particulier de la méthode de Tikhonov-Miller (avec D = I ). On prend généralement pour D un opérateur de 76 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV type filtre passe-haut, afin de limiter l’énergie des hautes fréquences contenues dans la solution recherchée. Ce choix résulte de l’observation des solutions instables trouvées par l’inversion directe du problème (non régularisé). Ces dernières contiennent en effet de fortes composantes dans le haut du spectre, dues à l’amplification des hautes fréquences du bruit lors de l’inversion de H (équation (2.51)). D’autre part, le spectre des signaux recherchés est généralement assez atténué dans les hautes fréquences. Le filtre passe-haut peut par exemple d être l’opérateur de dérivation . Nous verrons plus loin quels autres filtres nous pourront dx utiliser dans les autres méthodes exploitant le même type de régularisation. 5.4 Détermination du paramètre de régularisation Nous allons maintenant voir de quelle manière nous pouvons choisir le paramètre de régularisation α dans le cas de la méthode de Tikhonov. La difficulté de l’estimation de ce paramètre a fait l’objet de nombreux travaux, certains étant orientés vers un domaine d’application particulier. Nous allons présenter brièvement quelques méthodes d’estimation, le lecteur intéressé trouvera une littérature abondante sur ce sujet [38, 39, 40, 41, 42]. Le rôle du paramètre de régularisation est fondamental puisque la qualité de la restauration dépendra fortement de son influence par rapport à celle du bruit, de l’opérateur D choisi, et de la réponse impulsionnelle [43]. Cependant, les différentes méthodes d’estimation de α ne donnent pas forcément une valeur unique, et le résultat de la déconvolution pourra être sensiblement différent sur la plage de valeurs que l’on aura à disposition. Nous allons présenter deux méthodes de calcul de α : • la méthode d’optimisation par rapport au bruit, de Miller [44] • la méthode par validation croisée généralisée, qui découle de la validation croisée simple 5.1.1 Méthode de Miller : optimisation par rapport au bruit Cette méthode se base sur deux hypothèses concernant chacun des termes ∆1 et ∆2 du critère à optimiser. La première est celle que nous avons introduite précédemment (2.60) concernant l’énergie du bruit : y − H x ≤ b 2 2 (2.69) La deuxième suppose que la régularité du signal recherché est bornée par une valeur r² : D x ≤ r 2 2 77 (2.70) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV La combinaison quadratique de ces deux contraintes (2.62) conduit à la solution de Miller qui s’exprime en fonction de b 2 et r² par [44]: xMiller = ( þ T þ+α Miller 'T ' ) + T y −1 (2.71) avec α Miller b = 2 r 2 (2.72) L’énergie du bruit ainsi que la régularité du signal ne sont pas accessibles directement, sauf dans le cas d’une simulation. Dans le cas d’un signal expérimental, il sera donc nécessaire d’effectuer une estimation locale du bruit puis de donner une valeur approximative de la régularité r² à partir des informations a priori. On peut noter que si le bruit est très faible, αMiller sera petit et on aura une solution qui sera plus fidèle aux données. Lorsque le bruit est plus important, αMiller augmente, ce qui renforce l’influence de l’information a priori. 5.1.2 La validation croisée Avant d’exposer la méthode de la validation croisée généralisée, nous allons voir celle de la validation croisée. L’idée de cette méthode est d’enlever un point i du vecteur des données mesurées, ce qui nous donne un vecteur yi de longueur Ny-1, de calculer la solution estimée de Tikhonov-Miller x i correspondante (2.64), et de comparer yi avec le signal reconstruit y i = H x i . Cette comparaison s’effectue sur tous les points i des données mesurées, et en balayant α sur une plage assez grande. Le raisonnement de la validation croisée est de choisir α tel que y i soit une bonne estimation de yi [45]. On retient donc le α tel que l’erreur entre y i et yi sommée sur tous les points i soit minimale. Le principe se résume en 4 étapes : 1. On construit le vecteur x i en excluant la ième composante dans l’équation (2.64) et le vecteur yi à partir de y en enlevant la ième composante. 2. On construit ensuite la prédiction de y i correspondant à x i par y i = H x i et on la compare avec yi : δ i = yi − y i 3. On répète les points 1 et 2 pour i allant de 1 à Ny et on calcule : 78 (2.73) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV Ny VC (α ) = ∑ δ i2 (2.74) i =1 3. VC(α) est calculée pour différente valeur de α, et on choisit celui qui minimise la validation croisée VC(α). C’est une méthode très coûteuse en calculs. Elle n’est jamais appliquée telle quelle, on met donc en place une variante, appelée validation croisée généralisée. 5.1.3 La validation croisée généralisée La validation croisée généralisée se distingue de la validation croisée simple par la modification de l’équation (2.74) de telle sorte que l’influence des points marginaux soit minimisée [45]. Ainsi l’expression de la validation croisée généralisée est [61]: ( y − Hx ) ( y − Hx ) T VCG (α ) = (1 − trace (HA −1 H T ) ) 2 (2.75) On peut noter que cette expression requiert nettement moins de calculs que celle de la validation croisée simple. De plus, on peut la remplacer par une autre expression, particulièrement adaptée à la programmation : (I − HA H ) y VCG (α ) = trace ( I − HA H ) −1 2 T T 2 −1 (2.76) Dans le domaine de Fourier, cette relation s’écrit [68] : N −1 VCG (α ) = ∑ Y (k ) 2 k =0 G 2 (k ) N −1 ∑ G (k ) k =0 (2.77) 2 avec : A (k ) = H (k ) + α D (k ) 2 2 (2.78) et G (k ) = D ( k ) 79 A (k ) 2 (2.79) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 5.5 Conclusion sur les méthodes de régularisation des problèmes inverses mal posés Nous avons vu que la régularisation est indispensable pour garantir l’unicité et la stabilité de la solution. Nous avons jusqu’ici appliqué la régularisation dans le cas de la résolution du problème par inversion directe de l’équation de convolution (dans le domaine de Fourier ou dans le domaine temporel). Malgré la régularisation, ces méthodes conduisent à un résultat trop peu satisfaisant. La quantité d’information apportée n’est pas suffisante pour obtenir une solution proche de la solution idéale. L’alternative consiste à utiliser des méthodes itératives qui convergent vers une solution déterminée par les informations apportées à chaque itération. L’algorithme est ainsi « contraint », et les informations introduites à chaque itération sont appelées contraintes dures. Nous allons donc nous intéresser à quelques méthodes itératives existantes, avant d’exposer celle qui à été mise au point durant ce travail. 6. Les méthodes itératives de déconvolution Elle ont généralement l’avantage de ne pas imposer le calcul direct d’opérateurs inverses, et de permettre le choix de l’information a priori que l’on apporte. Les paramètres et les contraintes sont facilement ajustables au cours du traitement [47]. Ces algorithmes itératifs sont adaptés à une grande variété de signaux [48]: • Dégradation linéaire ou non • Systèmes variants et invariants • Bruit corrélé ou non 6.1 L’algorithme de Van Cittert C’est l’algorithme qui est à la base de nombreuses méthodes itératives de déconvolution. L’algorithme de Van Cittert est une méthode de point fixe [62, 63]. Pris dans sa forme originale, il s’exprime ainsi : xn +1 = xn + ( y − H xn ) x0 = y (2.80) Le vecteur xn est en quelque sorte une solution intermédiaire entre les solutions initiale x0 et finale x∞ . On peut montrer que l’algorithme de Van Cittert converge vers une solution x∞ équivalente à celle obtenue par l’inversion directe [32]: x∞ = H −1 y 80 (2.81) &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 6.2 Régularisation de l’algorithme de Van Cittert Comme dans les méthodes non-itératives, l’algorithme de Van Cittert original conduit à une solution instable si le problème est mal conditionné. Il faudra d’une manière ou d’une autre introduire une régularisation si l’on souhaite obtenir une solution bornée. La première étape consiste à remplacer la résolution itérative de y = H x par celle de H T y = ( þ T þ+λ'T ' ) x . L’algorithme de Van Cittert avec régularisation de TikhonovMiller s’écrit alors : ( xn +1 = xn + H T y − ( þ T þ+λ'T ' ) xn x0 = H T y ) (2.82) Le fait de régulariser l’algorithme de base ne suffit pas encore à obtenir une solution acceptable physiquement. En particulier la solution n’est pas toujours positive, ce qui est gênant pour un profil de concentration ou une image numérique. 6.3 Contraintes dures appliquées à un signal En plus de la régularisation, nous pouvons introduire une information sur la positivité du signal. Cette information est généralement appliquée sous forme de contrainte dure, dont nous allons voir l’expression et les propriétés. 6.3.1 Définition Une contrainte dure se définit par une transformation du signal x de manière à ce qu’il vérifie les propriétés « demandées » par un opérateur C spécifique, l’opérateur de contraintes. Le résultat est un signal xc dit contraint. 6.3.2 Exemples de contraintes dures • Contrainte de positivité Lorsqu’on veut imposer à un signal d’être positif, on peut par exemple le tronquer de telle sorte que les composantes négatives soient ramenées à 0. L’opérateur de positivité P est alors tel que : x+ x P x = (2.83) 2 Dans ce cas, on voit que les composantes positives de x restent inchangées alors que les composantes négatives sont réduites à 0. Si on souhaite plutôt effectuer un repliement des composantes négatives, alors l’opérateur de contrainte de positivité sera l’opérateur valeur absolue : 81 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV P x= x (2.84) On note que ce dernier opérateur permet la conservation de la norme de x. • Contrainte de maintien à zéro Celle-ci est une extension de la contrainte de positivité et n’est applicable que dans les méthodes de déconvolution itératives. Elle consiste à définir une fonction Cm(z), initialement égale à 1 et dont la composante i à l’itération n devient nulle lorsque la composante i du signal déconvolué est négative ou nulle. Le signal déconvolué à l’itération n + 1 est ensuite multiplié par cette fonction Cm, qui permet le maintien à zéro des composantes du signal déconvolué devenues négatives ou nulles durant l’algorithme. On empêche ainsi la naissance d’artefacts sur une plage où le signal déconvolué est nul au début de l’algorithme. Cette contrainte est très intéressante lorsqu’on s’intéresse plus aux niveaux hauts du signal qu’aux faibles niveaux, puisqu’elle diminue considérablement la quantité d’artefacts dont l’origine est le bruit dans la partie basse du signal mesuré, et permet l’obtention d’un signal déconvolué « propre ». Elle est à proscrire si l’on souhaite étudier des faibles niveaux de concentration, il y aura ambiguïté sur l’origine des artefacts (bruit de mesure ou signal utile). La contrainte de positivité sera toujours utilisée en déconvolution SIMS. Elle est par ailleurs incluse dans la contrainte de maintien à zéro. Lorsque nous utiliserons cette dernière, nous le mentionnerons explicitement. • Contrainte d’amplitude De la même façon que pour la positivité, on peut souhaiter qu’un signal ne dépasse pas une certaine amplitude sur tout son intervalle de définition. Cette opération est ainsi une sorte d’écrêtage du signal. Si on désigne par l la limite que l’amplitude du signal ne doit pas dépasser, on peut exprimer cette contrainte par l’opérateur L tel que : L x = (x − l )− x − l 2 +l (2.85) Ainsi, dans un cas pratique d’analyse SIMS, on peut introduire cette contrainte d’amplitude si on sait pertinemment que la concentration de telle espèce ne peut pas dépasser une certaine limite, ou si on souhaite limiter le développement d’oscillations sur un profil déconvolué, sachant que le profil mesuré correspondant présente une concentration constante sur une profondeur assez grande. C’est le cas par exemple des marches de concentration. • Contrainte de support Lors de la convolution d’un signal d’entrée par une réponse impulsionnelle, les structures originales sont « élargies ». En particulier, les queues exponentielles dues à la fonction de résolution rallongent le profil obtenu et on a des composantes non nulles sur un intervalle où l’on sait que le signal d’origine est nul. Lors de la déconvolution, il suffit de forcer à zéro les parties du signal concernées, ce qui correspond à un « fenêtrage » du signal. 82 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV Désignons par s la limite au-delà de laquelle le signal x doit être nul et par S l’opérateur de contrainte de support : xsit < s S x = 0si t > s (2.86) • Application de plusieurs contraintes Si on dispose de plusieurs informations distinctes sous forme de contraintes, on peut appliquer les différents opérateurs quel que soit leur ordre puisqu’ils sont commutatifs : PS x = S P x =C x (2.87) Dans la pratique, c’est la contrainte de positivité qui sera le plus utilisée, car elle est la source d’informations la plus sûre et la plus puissante. Nous désignerons dans la suite de ce travail par C l’opérateur de contraintes globales, qui inclut en particulier la positivité, mais aussi la contrainte de support ou de maintien à zéro selon les cas. • Non expansivité des opérateurs Les opérateurs de contrainte décrits ci-dessus permettent de réduire l’ensemble des solutions de l’équation de convolution régularisée à un ensemble plus petit, dont les éléments satisfont les propriétés imposées par l’opérateur. Ces opérateurs sont dits non expansifs. L’application d’un tel opérateur se traduit par la projection de la solution non contrainte sur l’ensemble convexe fermé des signaux qui satisfont la contrainte : Solution quelconque D1 Projection (Contrainte de positivité) Solution idéale D2 Solution contrainte Ensemble des solutions positives Figure 2-3 : Schéma de la projection de la solution non contrainte. La solution résultante est alors plus proche de la solution idéale ( D2 ≤ D1 ) 83 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 6.3.3 Introduction des contraintes dures dans l’algorithme de Van Cittert Les contraintes dures que nous venons de voir peuvent être appliquées aussi bien aux signaux résultant de la déconvolution par inversion directe que sur les solutions « intermédiaires » des algorithme itératifs. Dans l’algorithme de Van Cittert, il suffit de remplacer xn par C xn avant de calculer xn +1 : xn +1 = C xn + ( y − HC xn ) x0 = y (2.88) En combinant les contraintes dures avec la régularisation, on obtient l’algorithme suivant, mis au point par B. Gautier et R. Prost [2, 32, 70], et que nous avons utilisé dans une partie de nos déconvolutions : ( xn +1 = C xn + µ n H T y − ( þ T þ+λ'T ' ) & xn x0 = y ) (2.89) µ n est un scalaire ajusté à chaque itération de façon à optimiser la rapidité de la convergence [48]. Cet algorithme a prouvé sa fiabilité et sa robustesse pour un large éventail de signaux [53, 61, 69, 70], la contrainte de positivité étant elle-même fortement régularisante. Nous verrons dans les prochains chapitres les performances de cet algorithme sur les simulations ainsi que sur les profils SIMS expérimentaux. Nous allons maintenant voir un nouvel algorithme qui utilise à la fois les transformées de Fourier et les contraintes dures dans le domaine temporel. 7. Proposition d’une nouvelle méthode de déconvolution Nous proposons dans cette partie d’exposer une méthode de restauration basée sur l’apport d’informations concernant directement la forme du signal recherché. Cette nouvelle méthode est inspirée à la fois de l’inversion directe de l’équation de convolution dans l’espace de Fourier, de la régularisation de Tikhonov-Miller, et de l’application de contraintes dures. Mais elle se distingue notamment par l’introduction d’informations sous la forme d’un modèle de la solution, qui évoluera au fil de l’algorithme. 7.1 Introduction du modèle de la solution Nous avons vu au paragraphe 5.3.2 la méthode de déconvolution par régularisation de Tikhonov-Miller (2.64). Si on considère le critère à minimiser (2.62), on s’aperçoit que le terme de régularisation fait référence uniquement à la solution recherchée, et ceci de manière 84 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV globale, c’est-à-dire que la propriété que l’on souhaite imposer à x s’applique sur tout son intervalle de définition, sans distinguer les différentes zones du signal. Barakat et al. [49] ont proposé une extension de cette régularisation en introduisant un terme x mod représentant un modèle a priori : ( ) ( ∆ 2 x, x ∞ = D x − xmod ) 2 (2.90) Ce modèle traduit les propriétés locales du signal telles que les discontinuités, les zones homogènes, etc… [49]. Ainsi, on peut introduire des informations a priori sur la solution de manière locale, tout en manipulant les caractéristiques globales de la solution par l’opérateur D et le paramètre de régularisation α. Le critère à minimiser est alors : ( ∆ = y − H x + α D x − xmod 2 ) 2 (2.91) et la solution recherchée devient : −1 x = ( þ T þ+α 'T ' ) ( + T y + α 'T ' xmod ) (2.92) On note que si on a aucune information à apporter sous forme d’un modèle, xmod est un vecteur nul, et on retrouve la cas de la régularisation de Tikhonov-Miller classique (2.64). 7.2 Equivalence dans le domaine de Fourier Toutes les théories que nous venons de voir ont leur équivalent dans le domaine de Fourier lorsque les convolutions sont circulaires. La régularisation classique s’écrit : X TM = H *Y H +α D 2 2 (2.93) alors que dans le cas de l’introduction du modèle, on a : H *Y + α D X mod 2 X= H +α D 2 2 (2.94) L’avantage certain d’effectuer le travail dans l’espace de Fourier est la rapidité des calculs, par comparaison avec les calculs matriciels, exigeant le maniement de matrices de grandes dimensions. Par contre certaines méthodes ne peuvent être transposées dans l’espace 85 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV de Fourier. Les algorithmes itératifs tels que ceux basés sur l’algorithme de Van Cittert et comportant des contraintes dures non linéaires en sont un exemple. Les opérateurs comme la contrainte de positivité ou d’amplitude n’ont pas d’équivalent dans le domaine de Fourier. 7.3 Justification de l’emploi d’un modèle de la solution Nous avons vu que le mauvais conditionnement du système à résoudre entraîne l’existence de nombreuses solutions, dont la plupart sont instables. La régularisation réduit l’ensemble des solutions possibles à un ensemble de solutions d’amplitude bornée et de spectre assez lisse, selon l’opérateur de régularisation choisi. Les contraintes dures, quant à elles, imposent à la solution de faire partie des signaux positifs, et éventuellement définis sur un intervalle donné. Nous avons également conclu que les méthodes itératives étaient bien plus performantes que l’inversion simple de l’équation de convolution régularisée, grâce à la manière d’introduire les contraintes. Nous proposons maintenant de compléter les informations apportées par l’introduction d’un signal sensé décrire au mieux les variations locales du signal recherché. Cet apport d’informations va encore plus restreindre l’ensemble des solutions. La question est maintenant de savoir si le modèle va dans le sens de nous rapprocher de la solution réelle, qui est inaccessible. Il est évident qu’apporter des informations manquant de précision ou erronées dirigera la méthode vers une solution qui ne sera pas en accord avec la réalité, puisque l’équation à résoudre sera fausse. Par contre, si le choix de l’information apportée est pertinent, les résultats de la déconvolution peuvent être considérablement améliorés par rapport aux méthodes classiques. La précision de la solution dépendra directement de la précision du modèle apporté. Comment être sûr que la modification du critère de régularisation ∆2 n’entraînera pas une dérégularisation du problème ? Lors de l’introduction du modèle dans ∆2, on impose à la différence obtenue x-xmod d’être régulière. Or le modèle de solution que l’on apporte xmod doit être forcément de la même nature que le signal que l’on cherche, c’est-à-dire que xmod doit être d’amplitude bornée, et ayant un spectre de fréquence relativement lisse. Ainsi, même si le critère ∆2 impose seulement à la différence x-xmod d’être régulière, x ne peut pas être instable. La régularisation du système est donc conservée. 7.4 Influence du modèle La qualité du modèle va beaucoup influencer le résultat final. Si on doit se passer de modèle, on se retrouve dans le cas de Tikhonov-Miller, qui n’est finalement qu’un cas particulier où le modèle est nul. Le cas idéal correspondrait à celui où le modèle est égal au signal réel x. Dans l’équation (2.92), x s’écrirait alors : 86 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV −1 x = ( þ T þ+α 'T ' ) ( + T y + α 'T ' x ) ( þ T þ+α 'T ' ) (þ þ( x + n ) + α ' 'x ) (þ þ+α ' ' ) (þ þ+α ' ') x + (þ þ+α ' ') T T −1 T −1 T T T T T −1 þ T þn (2.95) = x + A −1þ T þn = x + A −1H T b où n est le bruit ramené à l’entrée. On voit ici que la solution trouvée est très proche du signal original. En effet le terme additionnel A −1H T b est négligeable devant x : l’inversion de la matrice A ne pose pas de problème puisqu’elle bien conditionné, grâce au terme de régularisation α DT D . Il n’y a donc pas d’amplification du bruit, et le signal déconvolué est identique au signal d’entrée x au « bruit de déconvolution » A −1H T b près. Bien sûr cet exemple n’est là que pour prouver que la méthode du modèle est efficace si ce dernier est correctement choisi. Le signal réel n’est pas accessible puisque c’est justement lui que l’on recherche par déconvolution. Nous devons donc chercher un signal qui contiendra effectivement des informations utiles sur x, sans chercher à tout prix à ce que la solution soit adaptée à un modèle arbitraire. Nous allons voir maintenant de quels moyens nous disposons pour utiliser au mieux cette méthode introduisant un modèle de la solution. 7.5 Expressions du modèle de la solution 7.5.1 Minimisation de l’erreur de reconstruction La principale difficulté consiste à introduire un modèle contenant toutes les propriétés connues a priori sur le signal original recherché. Barakat [49] propose une paramétrisation du modèle, qui pourrait donner plus de souplesse à son approche. Ainsi le signal à restaurer est considéré comme un ensemble d’objets à caractère lisse. Chaque objet peut être alors modélisé par une gaussienne, et défini par un jeu de paramètres (a,b,c..) qui décrivent sa position, son amplitude, etc… On peut alors chercher le modèle tel que l’écart quadratique entre le signal mesuré y et le signal reconstruit H x soit minimal. Ce modèle assure ainsi l’obtention d’une solution x qui est, une fois convoluée par la réponse impulsionnelle, la plus fidèle aux données mesurées (mais elle n’est pas nécessairement la plus proche du signal réel x !). La recherche de ce 2 modèle passe par la minimisation de l’erreur Emod entre la mesure et la reconstruction : 87 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 2 Emod = y − y 2 = y − H x 2 y − H( þ þ+α ' ' ) T T −1 (+ T y + α ' 'xmod ) (2.96) 2 T = y − H( A −1H T y ) + HA −1 (α DT D xmod ) 2 Or nous avons vu, d’après la relation (2.64), que A −1H T y = x TM , et en développant le 2 2 terme quadratique Emod , on aboutit à la relation entre Emod et l’erreur de reconstruction dans le 2 cas classique de Tikhonov-Miller ETM : 2 2 Emod = ETM − 2α y T (I − HA −1H T ) HB xmod + α 2 HB xmod 2 (2.97) si on note B A −1DT D . On peut démontrer que la minimisation de cette erreur conduit à la détermination du modèle a priori xmod tel que [50] : xmod = 1 α ((HB ) (HB )) (HB ) T −1 T (I − H T A −1H ) y (2.98) Nous verrons plus loin que les performances de la déconvolution sont améliorées d’environ 10% par rapport à la régularisation classique de Tikhonov-Miller. 7.5.2 Utilisation d’un signal déconvolué a priori comme modèle de la solution Le fait d’utiliser comme modèle un vecteur minimisant l’erreur de reconstruction ne garantit pas la proximité du signal déconvolué avec le signal recherché, surtout en présence de bruit important. Dans ce cas il est préférable d’introduire des informations qui soient plus directement liées aux caractéristiques locales supposées du signal d’entrée. On peut par exemple établir un modèle paramétrique décrivant les formes contenues dans le signal recherché. En pratique, nous avons un autre moyen à la fois simple et fiable d’apporter des informations sur le signal réel x, en utilisant un signal déconvolué précédemment et sans modèle, solution intermédiaire entre la solution idéale, c’est-à-dire le signal d’entrée, et le signal mesuré. En effet un signal déconvolué, même s’il n’est pas assez précis dans la description du signal réel, donne une bonne approximation de x. Les caractéristiques de ce modèle de la solution sont directement liées à x, puisqu’il en est une approximation, mais à condition bien sûr d’avoir effectué cette « pré-déconvolution » dans de bonnes conditions, c’est-à-dire avec une régularisation suffisante. Ainsi, les caractéristiques du modèle ne 88 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV dépendent pas des grandeurs de reconstruction. De la même façon qu’un signal non borné x peut donner une excellente reconstruction y = H x , un modèle de solution xmod tiré de l’erreur de reconstruction peut ne pas être le meilleur choix. Dans le cas où l’on prend un signal déconvolué X0 comme modèle, la solution s’écrit, dans l’espace de Fourier : H *Y + α D X 0 2 X= H +α D 2 2 (2.99) Il peut paraître curieux de réutiliser un signal déconvolué précédemment dans l’équation de convolution régularisée. Mais ce n’est ni plus ni moins que d’utiliser au maximum les informations sur la solution contenues dans la mesure, à travers le signal déconvolué correspondant. La régularisation impose des caractéristiques globales à la solution recherchée, alors que le modèle les rend plus locales. L’amélioration de la déconvolution est assez nette comparée à la méthode sans modèle, et légèrement supérieure avec le modèle déduit de la minimisation de l’erreur de reconstruction. Néanmoins, comme pour toutes les méthodes directes, les performances sont pauvres lorsqu’on compare les résultats avec ceux des méthodes itératives. De plus, une telle inversion conduit systématiquement à une solution plus ou moins oscillante, c’est-à-dire que certaines parties du signal déconvolué (celles où le signal mesuré est faible) sont négatives. Le fait de contraindre a posteriori la solution pour qu’elle soit positive ne fait que la rendre « physiquement acceptable », mais le résultat final est encore nettement insuffisant. On a donc eu l’idée de boucler la méthode, en réitérant l’équation (2.94), avec un modèle variant à chaque itération. Le but est de calculer un modèle s’approchant au mieux de la solution réelle x au fil des itérations. La philosophie de l’algorithme est la suivante : On prend comme 1er modèle de la solution le résultat d’une déconvolution classique des données mesurées y. • L’équation (2.94) nous donne une solution estimée X qui est, si les paramètres de régularisation ont été correctement choisis, plus proche de la solution réelle X que Y ne l’est. • On attribue à X le statut de « modèle de la solution ». • On recalcule alors X à l’aide de ce modèle, et on réitère le procédé. L’algorithme nécessite quelques précautions : à chaque itération, il faut s’assurer que le modèle calculé est plus proche de la solution que le modèle précédent. La régularisation seule n’étant pas suffisante dans le cas des méthodes itératives, il est essentiel voire obligatoire de rendre la solution positive par la contrainte de positivité. Cette opération n’étant pas possible dans le domaine de Fourier, il faut l’effectuer dans le domaine temporel, 89 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV moyennant une transformation inverse de Fourier avant la contrainte de positivité (ou de maintien à zéro) et une transformation directe après. L’algorithme aura donc l’expression finale suivante : 2 H *Y + α D Xmod n X n+1 = 2 2 H +α D Xmod n = TF C x n x n = TF-1 X n Xmod 0 = 0 (2.100) C’est cet algorithme que nous avons utilisé la plupart du temps dans la partie expérimentale de ce travail. Il est très sensible à la valeur de α. Sa mise en œuvre dans l’espace de Fourier en fait un outil de déconvolution très rapide comparé aux méthodes non linéaires, comme celles basées sur les champs de Markov par exemple [49]. Notons qu’il est possible d’utiliser comme modèle initial non pas un signal nul mais par exemple le modèle déduit de la minimisation de l’erreur de reconstruction que nous avons décrit plus haut. La méthode nécessitant une régularisation importante, la solution intermédiaire X 1 obtenue est quasiment la même dans les deux cas et l’algorithme est pratiquement insensible à cette faible variation. La philosophie de cet algorithme consiste en fait à chercher le meilleur modèle de la solution, et à l’appliquer à une simple inversion de l’équation de convolution (régularisée) avec modèle. En prenant du recul, on voit que les itérations ne portent pas sur le signal mesuré lui-même, mais plutôt sur le modèle recherché. 8. Conclusion Dans ce chapitre, nous avons présenté les bases des techniques de déconvolution dans le cas de systèmes linéaires et invariants. Nous avons vu que les profils en profondeurs provenant des analyses SIMS font partie des signaux dont le noyau de convolution (la réponse impulsionnelle) engendre un système instable, mal conditionné. Les profils SIMS constituent donc un cas de convolution sévère et le bruit de mesure implique de prendre certaines précautions. Celles-ci sont constituées en fait d’informations destinées à réduire l’ensemble des solutions possibles. Nous avons vu que nous pouvions apporter différents types d’informations : régularisation, contraintes dures, modèle de solution. Ce chapitre nous a permis de voir la déconvolution dans le cas général, et va maintenant nous permettre d’appliquer ces techniques dans le cas précis des profils en profondeur, simulés ou expérimentaux. Dans certains domaines de la physique, il peut 90 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV paraître « anormal » de vouloir corriger un signal afin de retrouver certaines informations qui semblent perdues lors de l’analyse. Cependant les signaux SIMS font partie de ceux contenant de l’information « diluée » mais pouvant être restaurée. Il n’y a pas plus de raisons d’obtenir un signal déconvolué « falsifié », voire irréel, que d’obtenir un mauvais profil mesuré suite aux mauvais réglages expérimentaux. Si le profil est acquis dans des conditions normales, alors une déconvolution apportera un profil « intermédiaire » entre les profils réel et mesuré. 91 &KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV 92 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV &KDSLWUH 'pFRQYROXWLRQGH3URILOV 6,066LPXOpV 1. Introduction Dans le chapitre précédent, nous avons exposé différentes méthodes de déconvolution plus ou moins efficaces et complexes. Nous avons pu remarquer l’évolution de ces techniques, l’une étant souvent construite pour palier aux faiblesses de l’autre. Dans cette partie nous allons appliquer quelques-unes de ces méthodes à des profils SIMS simulés, afin de déterminer celle que nous devrons utiliser dans les différentes situations expérimentales. Nous appellerons « profil réel » le profil initial (construit analytiquement), « profil mesuré » le profil tel qu’il résulterait de l’analyse SIMS (convolué et bruité), et « profil déconvolué » le résultat de la déconvolution. 2. Conditions opératoires 2.1 Caractéristiques fréquentielles de la DRF et régularisation Nous avons vu dans le 1er chapitre la description ainsi que la modélisation de la DRF. D’un point de vue du traitement du signal, son spectre dans l’espace de Fourier va aussi beaucoup nous intéresser. L’inversion de ce spectre, lors de la résolution de l’équation de convolution, amplifie considérablement le bruit hautes fréquences contenu dans le signal mesuré. En SIMS, la forme générale du spectre de la DRF est décrite par la figure 3-1. On voit que le spectre est principalement constitué de basses fréquences. Ses composantes chutent rapidement de plusieurs décades à partir d’une fréquence de coupure fc. Au-delà de fc, l’inversion de ce spectre amplifie les composantes du profil mesuré. Il est donc nécessaire de régulariser le problème par l’adjonction du terme de régularisation ∆2 vu dans le chapitre précédent. 91 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV 1000 Figure 3-1 : Modules des transformées de Fourier d’un profil mesuré et de la DRF correspondante. Transformées de Fourier : 100 DRF (Ep = 3 keV, θ = 52°, Rp=40 Å) Profil mesuré 10 Module TF 1 0.1 0.01 1E-3 1E-4 1E-5 1E-6 0.0 0.1 0.2 0.3 0.4 0.5 Fréquence réduite 2.2 Ampleur de la dégradation La perte d’informations due à la convolution du signal de départ par la réponse impulsionnelle peut être estimée en comparant la taille des structures analysées à celle de la réponse impulsionnelle. En SIMS la DRF est souvent caractérisée par son moment centré 2 d’ordre 2, σ tot défini par : 2 2 σ tot = σ 2 + λup2 + λdown (3.1) où σ ,λup etλdown sont les paramètres de la DRF que nous avons définis précédemment. Pour les énergies d’impact accessibles en SIMS (jusqu’à environ 13 keV), le σ tot varie de 10 à 70 Å. Or les échantillons à analyser possédant des structures de l’ordre de quelques dizaines d’angströms sont très courants. Les deltas-dopage sont actuellement composés d’une à quelques couches atomiques de dopant. Nous nous trouvons donc dans le cas où le signal recherché (le profil de concentration réel) à été fortement dégradé par la réponse impulsionnelle du système de mesure. La comparaison des σ tot de la DRF et du profil à déconvoluer nous donnera une idée de la difficulté que nous aurons à restaurer le profil original. 2.3 Mesure de concentration et positivité Les données mesurées lors de l’acquisition d’un profil SIMS représentent la concentration relative d’une espèce dans un échantillon en fonction de la profondeur. La déconvolution doit donc aboutir à un signal déconvolué positif, sans quoi il n’aurait aucun sens physique. Or il arrive fréquemment que les calculs conduisent à un profil déconvolué 92 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV (intermédiaire ou final) possédant des composantes négatives. Que ce soit par les méthodes itératives ou non, le profil déconvolué doit subir la contrainte de positivité afin qu’il respecte cette caractéristique physique. Profil réel Profil mesuré Profil déconvolué 2.0 a) Intensité (u.a) 1.5 1.0 0.5 0.0 0 100 200 300 400 500 600 700 800 Profondeur (Å) Profil réel Profil mesuré Profil déconvolué contraint 2.0 b) Intensité (u.a) 1.5 1.0 0.5 0.0 0 100 200 300 400 500 600 700 800 Profondeur (Å) Figure 3-2 : Déconvolution du signal test par inversion dans l’espace de Fourier avec régularisation de Miller. a) sans contrainte de positivité. b) avec application de la contrainte de positivité a posteriori. 93 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Le fait de « positiver » le signal après la déconvolution dans le cas d’une simple inversion, ou à chaque itération pour un algorithme itératif, peut paraître arbitraire. Mais cela revient uniquement à diriger la solution vers un profil plus proche du profil réel recherché, et donc à apporter de l’information au système. Les figures 3-2a et 3-2b représentent les profils non contraint et contraint lors d’une déconvolution par inversion dans le domaine de Fourier et régularisation de Miller. 2.4 Bruit SIMS Comme tout signal expérimental, les profils SIMS contiennent une composante de bruit, non négligeable pour la restauration de l’information. Nos profils SIMS simulés devront donc être construits avec une certaine proportion de bruit conformément à ce que l’on peut trouver dans les profils expérimentaux. Allen et Dowsett [51] proposent de modéliser le bruit, pour un profil de bore dans du silicium, par une distribution de probabilité gaussienne. D’après leurs observations expérimentales, ils ont établi une loi empirique reliant la valeur moyenne du signal M à l’écart-type du bruit σ : σ ≈ 1.7 M (3.2) Cette relation indique que les variations du bruit sont dépendantes de l’amplitude locale du signal SIMS (pour les valeurs du signal non nulles uniquement). D’après l’étude de Makarov, on pourrait penser qu’utiliser un bruit poissonien est plus en conformité avec le mode de comptage de l’acquisition du profil de concentration [33]. Cependant le bruit de comptage doit être considéré comme poissonien uniquement dans le cas d’une analyse « parfaite », c’est à dire où le bruit de mesure proviendrait exclusivement de la détection des ions secondaires. Dans la réalité, le bruit est le résultat de plusieurs composantes aléatoires : variations de l’intensité primaire, nature statistique de la pulvérisation et de l’ionisation, espèces préexistantes dans l’appareil (effet mémoire), etc… Or nous avons vu dans le chapitre précédent que lorsque plusieurs phénomènes aléatoires se superposent, la loi qui en résulte tend vers une loi normale. Pour chaque profil expérimental, on est loin du cas où seul le bruit de comptage est à prendre en considération. Nous avons donc préféré introduire un bruit de type gaussien pour nos simulations. Dans tous les cas, il a été vérifié que le type de bruit (poissonien, gaussien ou de distribution uniforme) n’avait aucune influence sur le résultat de la déconvolution ; seul le niveau du bruit intervient. On constate expérimentalement que le rapport signal/bruit (SNR) d’un profil en profondeur est typiquement de l’ordre de 30 à 50 dB. La plupart de nos simulations seront effectuées avec un SNR de 35 dB, et nous utiliserons la relation (3.2) pour construire le bruit. 94 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV 2.5 Qualité de l’échantillonnage Au cours de notre travail, nous avons pu constater que le fait d’appliquer la déconvolution à certains profils expérimentaux, qui au départ n’étaient pas destinés à ce type de traitement, n’apportait, contre toute attente, aucune amélioration. En effet, non seulement le niveau de bruit doit être relativement bas, mais la fréquence d’échantillonnage du profil mesuré doit être telle que le critère de Shannon soit respecté. Lors d’une acquisition de routine, un échantillonnage moyen peut paraître suffisant, en particulier à haute énergie. Le caractère filtrant de la réponse impulsionnelle ne nécessite pas la reproduction des plus hautes fréquences du profil réel, filtrées et noyées dans le bruit. Or, le but de la déconvolution est de restaurer au moins partiellement ces hautes fréquences, caractéristiques des détails du profil réel. Etant donné que tous les traitements numériques s’effectuent sans changements de pas d’échantillonnage, le profil déconvolué aura le même que le profil mesuré. La fréquence maximale du spectre du profil déconvolué sera donc limitée par celle du profil mesuré [76]. Il est alors nécessaire d’avoir une qualité d’échantillonnage suffisante lors de la mesure si l’on veut espérer retrouver dans le profil déconvolué les détails présents dans le profil réel. La distance inter-atomique est d’environ 1.25 Å, ce qui fixe l’ultime limite de la résolution en profondeur et donc l’épaisseur minimale d’un delta-dopage que l’on peut restaurer par déconvolution. D’après le critère de Shannon, si l’on souhaite avoir la possibilité de restaurer les plus hautes fréquences d’un profil de concentration, il est nécessaire d’avoir un pas d’échantillonage inférieur à 0.6 Å. Dowsett [64, 66] affirme que toute déconvolution doit être subordonnée à une mesure ayant 10 à 30 échantillons par nanomètres, soit un pas d’échantillonnage de 0.3 à 1 Å, pour déconvoluer dans de bonnes conditions un delta-dopage de 3 Å d’épaisseur. Ces conditions paraissent contraignantes mais sont d’autant plus nécessaires que le profil réel est fin. On ne peut pas espérer s’approcher de la forme originale d’un delta-dopage par déconvolution si le pas d’échantillonnage de la mesure est de 5 ou 10 Å. Bien sûr, le bruit dans les données et donc la régularisation, nécessaire, limitent la résolution accessible par déconvolution. Mais cette limite ne doit pas être supérieure à celle imposée par le critère de Shannon. 160 8000 140 a) b) 120 100 Intensité (cps) Intensité (cps) 6000 4000 2000 80 60 40 20 0 0 -20 760 780 800 820 840 860 880 900 920 940 300 Profondeur (Å) 350 400 450 500 550 600 650 Profondeur (Å) Figure 3-3 : Qualité de l’échantillonnage. a) Echantillonnage correct : 0.4 Å/ech. b) Echantillonnage pauvre : 13.2 Å/ech. 95 700 750 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Afin de nous placer dans des conditions « moyennes », les profils utilisés dans nos simulations seront construits avec un pas d’échantillonnage de 1 Å, ce qui permet théoriquement, en l’absence de bruit, de restaurer des structures de l’ordre de 2 Å d’épaisseur. La figure 3-3 donne deux enregistrements de profils de deltas-dopage de bore dans du silicium. L’échantillonnage est insuffisant pour le profil b). On a alors une perte d’information, qui est aggravée par le bruit. 3. Signaux-types utilisés pour les simulations 3.1 Dirac Les composants de la micro-électronique voient leurs dimensions diminuer au fil des années, et les interfaces dans les matériaux sont de plus en plus abruptes. Il en résulte une présence accrue de hautes fréquences dans le spectre des profils réels. L’étude des deltasdopage est donc d’un intérêt essentiel pour la déconvolution. De plus, un delta-dopage représente la plus petite structure que l’on puisse simuler ou mesurer, et donc il permet de cerner les performances ultimes des méthodes de déconvolution. Il faut cependant distinguer le vrai Dirac, que nous utiliserons uniquement pour les performances ultimes théoriques, et le pseudo-Dirac, qui sera par exemple un créneau de largeur très fine. Celui-ci sera considéré comme plus proche des couches minces réelles. 3.2 Créneau Le créneau est une autre forme caractéristique permettant d’éprouver les méthodes de déconvolution. Celui-ci se retrouve fréquemment dans les échantillons à analyser, avec des fronts montant et descendant plus ou moins abruptes. Il se trouve qu’un créneau est aussi difficile à déconvoluer, voire plus, qu’un delta-dopage. En effet le plateau du créneau n’est pas soumis à une contrainte apportant de l’information, telle que la positivité dans le cas du delta-dopage, qui agit sur quasiment tout le profil à déconvoluer. Il apparaît alors un problème typique de la déconvolution, la génération d’oscillations plus ou moins importantes sur le plateau, et en particulier à proximité des interfaces. 3.3 Gaussienne Afin de traiter un large éventail de cas possibles de déconvolution, nous avons besoin de tester aussi des profils réels de forme lisse, tels que les profils de forte diffusion ou d’implantation d’une espèce. La structure privilégiée est dans ce cas la gaussienne, intervenant très souvent dans ces cas-là. La largeur de cette gaussienne devra être suffisamment grande pour que l’on ne se retrouve pas dans le cas d’un pseudo-Dirac. La figure 3-4 illustre l’ajustement d’un delta-dopage de bore dans du silicium qui a subit un recuit à 800°C pendant 255 secondes. Le bore a diffusé et il a pris une forme gaussienne. 96 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV 2500 Intensité (cps) 2000 1500 1000 500 0 30 32 34 36 38 40 Profondeur (Å) Figure 3-4 : Ajustement d’un delta-dopage diffusé par recuit à 800 °C pendant 255 s. Le profil décrit une gaussienne. 3.4 Deux deltas-dopage proches Il arrive souvent que la réponse impulsionnelle d’un système soit plus « large » que la structure que l’on souhaite analyser. Dans certains cas, cette largeur couvre deux structures consécutives, comme deux deltas-dopage rapprochés. Ceci a pour résultat l’observation d’une seule structure lors de la mesure. La déconvolution doit être capable de séparer les deux couches tout en restituant leurs dimensions respectives. Sur la figure 3-5, nous avons simulé la mesure de deux deltas-dopage distant de 60 Å, et analysés par SIMS à une énergie primaire de 3 keV : Figure 3-5 : Deux deltasdopage distants de 60 Å convolués par une DRF correspondant à une analyse SIMS à 3 keV. 1.0 Profil réel Profil mesuré Intensité (u.a) 0.8 0.6 0.4 0.2 0.0 100 150 200 250 300 350 Profondeur (Å) 97 400 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV 3.5 Construction d’un signal-test « polyvalent » Nous avons imaginé un signal capable de rassembler les trois formes caractéristiques les plus sensibles à la déconvolution, à savoir le delta-dopage, le créneau ainsi que deux deltas-dopage proches. La figure 3-6 montre ce signal construit avec un pas d’échantillonage unitaire, et que nous appellerons par le suite « signal-test » : 2.0 Intensité (u.a) 1.5 1.0 0.5 0.0 0 100 200 300 400 500 600 700 800 Profondeur (Å) Figure 3-6 : Signal-test utilisé dans cette étude pour éprouver les performances des méthodes de déconvolution. Ici le delta-dopage est en fait un pseudo-Dirac (créneau très fin). Pour les simulations, il a été mis volontairement des interfaces parfaitement abruptes, afin de se placer dans les conditions les plus défavorables. 4. Déconvolution par les méthodes non-itératives Nous allons maintenant examiner les résultats obtenus par des méthodes nonitératives, sachant qu’elles sont généralement moins performantes que les méthodes itératives. 4.1 Déconvolution sans régularisation Nous présentons à titre d’information, dans le cas de notre signal-test, un exemple de déconvolution où l’on n'a pas pris la précaution d’introduire une régularisation. Nous prenons deux cas où les rapports signal/bruit sont de 100 dB et 35 dB. 98 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV 6 a) Profil déconvolué Profil mesuré Profil réel 4 5000 Intensité (u.a.) 2 Intensité (u.a.) Profil déconvolué b) 10000 0 -2 0 -5000 -4 -10000 SNR = 100dB SNR = 35dB -6 0 100 200 300 400 500 600 700 800 0 100 200 300 400 500 600 700 800 Profondeur (Angströms) Profondeur (Angtröms) Figure 3-7 : Inversion directe de l’équation de convolution, sans régularisation. a) Rapport signal/bruit de 100dB dans les données mesurées. b) SNR = 35dB. On voit dans les deux cas que le résultat est inacceptable, comme prévu par la théorie. Avec un SNR de 100dB, le profil déconvolué décrit à peine l’allure du signal mesuré, et encore moins celle du profil réel. Dans le cas d’un SNR de 35dB, l’amplification du bruit est telle que le signal déconvolué atteint des amplitudes démesurées. 4.2 Déconvolution par filtre de Wiener Rappelons l’expression du signal déconvolué par filtrage de Wiener : XW ( f ) = Yb ( f ) FW ( f ) H(f) (3.3) où le filtre de Wiener s’exprime en fonction du bruit B : 1 FW ( f ) = 1+ B( f ) 2 Y(f ) 2 (3.4) Si on détaille l’expression de la solution de Wiener X W en fonction du bruit B, on obtient : 99 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Y (f) XW ( f ) = b H(f) Y(f ) Y (f) = b H ( f ) Y ( f )2 + B( f )2 2 1 1+ B( f ) 2 Y(f ) 2 (3.5) Or Y s’écrit aussi HX , ce qui simplifie l’écriture de X W : H* ( f ) X W ( f ) = Yb ( f ) H(f) + 2 B( f ) 2 X(f) 2 (3.6) Cette expression nous rappelle fortement celle de la solution estimée de Miller. Ici le terme de régularisation est en fait remplacé par le rapport bruit/signal d’entrée. La difficulté dans la déconvolution par filtrage de Wiener est d’estimer ce rapport afin d’optimiser le résultat. Le bruit est supposé blanc, mais sa puissance varie localement en fonction de celle du signal de concentration de l’espèce analysée. Dans le cas de simulations, la formule (3.6) peut facilement être mise en œuvre puisqu’on connaît le signal d’entrée X. Nous construisons le signal « mesuré » en convoluant le signal-test par une DRF correspondant à 40 Å de profondeur de pénétration Rp (Ep = 3 keV, θ = 52°), puis en ajoutant une composante de bruit gaussien. Ce bruit est construit de telle sorte que le rapport signal/bruit (SNR) soit de 35 dB. Le calcul de X W ( f ) selon l’équation (3.6) nécessite le calcul de l’énergie du bruit B ( f ) . La figure suivante nous montre le résultat obtenu après 2 transformation inverse de Fourier : Profil réel Profil mesuré Profil déconvolué 2.0 Figure 3-8 : Déconvolution du signal-test par filtrage de Wiener. Intensité (u.a) 1.5 1.0 0.5 0.0 -0.5 0 100 200 300 400 500 Profondeur (Å) 100 600 700 800 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Nous voyons que la méthode par filtrage de Wiener n’apporte pas de résultats satisfaisant pour les profils de type SIMS, fortement convolués et à fronts abrupts. 4.3 Régularisation de Tikhonov-Miller et inversion de l’équation de convolution 4.3.1 Déconvolution du signal-test Nous présentons cette méthode de déconvolution dans le sens où elle fait partie intégrante de l’algorithme avec « modèle numérique » que nous avons développé. Nous utilisons le même profil simulé que précédemment, afin de comparer les performances de ces deux techniques très proches. Nous opérons dans l’espace de Fourier, bien qu’il soit parfaitement possible d’effectuer les calculs dans le domaine matriciel. Le paramètre de régularisation α est théorique, c’est-à-dire qu’il a été calculé à partir du bruit ajouté ainsi que du terme de régularité du signal r 2 = D x α Miller b = 2 r 2 : 2 (3.7) Pour déconvoluer des profils expérimentaux par cette méthode, il est nécessaire de faire une estimation du paramètre de régularisation α, le bruit n’étant pas connu assez précisément, et le signal x n’étant pas accessible. Ici le calcul du α théorique nous place dans les conditions les plus favorables : la qualité du résultat ne dépend plus que de la quantité de bruit ajouté, ainsi que du choix de l’opérateur de régularisation D (auquel nous allons consacrer un paragraphe). La figure 3-9 nous montre le résultat de la déconvolution dans les mêmes conditions que le filtrage de Wiener (même niveau de bruit) : Figure 3-9 : Déconvolution du signal-test par régularisation de Tikhonov-Miller et inversion de l’équation de convolution dans l’espace de Fourier. Profil réel Profil mesuré Profil déconvolué 2.0 Intensité (u.a) 1.5 1.0 0.5 0.0 -0.5 0 200 400 600 Profondeur (Å) 101 800 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Cet exemple de déconvolution nous amène à faire quelques remarques : • Mathématiquement, le signal déconvolué est plus proche du signal réel que le signal mesuré, mais il comporte des composantes négatives et des fortes oscillations. Ces deux caractéristiques sont directement liées à la quantité de bruit et donc au terme de régularisation. Une partie de l’information (en particulier dans les hautes fréquences) est masquée par le bruit et ce manque est compensé par la génération d’oscillation (artefacts). • La contrainte de positivité ne peut être appliquée sans conséquences inacceptables pour l’interprétation physique : la dose mesurée (nombre d’ions comptés sur toute la mesure) doit être identique pour tous les signaux (réel, mesuré, déconvolué) au bruit près. La dose est conservée lors de l’inversion dans l’espace de Fourier, mais elle tient compte des composantes négatives générées. Si on applique la contrainte de positivité (suppression de la « dose négative »), la dose du signal déconvolué et contraint sera supérieure à la dose initiale. Un écart de plusieurs pour-cent ne peut être toléré lors de la quantification d’un profil SIMS. La solution consiste alors à multiplier par un facteur tout le profil déconvolué de telle sorte que sa dose soit la même que celle du mesuré. Ce procédé est simple mais quelque peu arbitraire dans le sens où la « redistribution » de la dose manquante ne privilégie aucune partie du profil. Ce problème n’est pas présent lors de l’utilisation d’algorithmes itératifs, où la dose du profil déconvolué (et contraint) se rapproche de celle du profil mesuré au fil des itérations. 4.3.2 Déconvolution de signaux lisses Le signal-test que nous utilisons, une fois convolué (même par une DRF de faible largeur), n’est pas restauré de façon satisfaisante par cette méthode. La dilution des hautes fréquences dans le bruit en est la principale cause. Néanmoins, il est possible d’utiliser cette technique pour une structure assez lisse, comme une gaussienne ou toute autre structure en forme de cloche. Le spectre d’une gaussienne contient très peu de hautes fréquences, ainsi la restauration est plus aisée que dans le cas d’interfaces abruptes. La figure 3-10 nous montre l’exemple d’une gaussienne de paramètre σ = 30 Å convoluée par une DRF correspondant à Rp = 40 Å (soit σ Tot = 34.7 Å), où le rapport signal/bruit est de 35 dB. Le calcul du paramètre de régularisation (3.7) nous donne un α de 2.44⋅10-4. Là encore on observe des oscillations dans les parties à faible signal, c’est-à-dire là où le rapport signal/bruit est plus faible. 102 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Profil réel Profil mesuré Profil deconvolué 0.010 Figure 3-10 : Déconvolution d’une gaussienne (σ = 30 Å), convoluée avec une DRF de σ Tot = 34.7 Å. Intensité (u.a) 0.008 0.006 0.004 0.002 SNR = 35 dB. α = 2.44 ⋅ 10-4. 0.000 -0.002 0 100 200 300 400 Profondeur (Å) La régularisation a été effectuée avec un paramètre α théorique (3.7). Cependant, si l’on souhaite diminuer les oscillations obtenues dans le profil déconvolué, on peut toujours augmenter α. Il en résultera une diminution des moyennes et hautes fréquences, et donc des oscillations sur le profil déconvolué. Si le paramètre de régularisation est trop fort, il pourra éventuellement y avoir diminution de la dose totale du profil, ce qui est gênant pour la quantification. En multipliant α par 10, la dose est conservée et les oscillations parasites ont quasiment disparu (figure 3-11) : Figure 3-11 : Déconvolution d’une gaussienne (σ = 30 Å), convoluée avec une DRF de σ Tot = 34.7 Å. Profil réel Profil mesuré Profil déconvolué 0.010 Intensité (u.a) 0.008 0.006 0.004 SNR = 35 dB. α = 2.44 ⋅ 10-3. 0.002 0.000 0 100 200 300 Profondeur (Å) 103 400 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV On obtient ainsi un profil déconvolué très proche du profil de concentration réel (hormis quelques écarts dans les faibles concentrations). 4.3.3 Conclusion sur l’inversion de l’équation de convolution régularisée Nous venons de voir que cette méthode n’est pas suffisante pour restaurer les profils contenant de forts gradients de concentration, puisque les hautes fréquences du profil « mesuré sans bruit » et celles du bruit ne peuvent être suffisamment distinguées pour être restaurées dans le domaine temporel. Il faut donc nous tourner vers les méthodes itératives, qui nous permettent d’introduire et de contrôler plus précisément les contraintes. Cependant, le profil d’une structure assez lisse peut être déconvolué de manière satisfaisante avec cette méthode, moyennant le réglage du terme de régularisation. De plus elle constitue une bonne approximation, tout comme la méthode par filtrage de Wiener. 5. Déconvolution par recherche du meilleur modèle numérique de la solution Dans le chapitre précédent, nous avons exposé le principe de l’algorithme permettant la prise en compte d’un modèle numérique de la solution, et nous allons maintenant l’appliquer à nos profils simulés. Nous pourrons ainsi examiner les performances ultimes de cet algorithme et évaluer la résolution en profondeur maximale que l’on peut atteindre en analyse SIMS couplée au traitement du signal. Dans un premier temps, nous étudierons l’influence des paramètres de déconvolution, notamment les éléments qui constituent les conditions initiales de l’algorithme. Le modèle évolue au fil de l’algorithme, mais cette évolution dépend du modèle initial. Il convient donc de le choisir correctement. D’autre part, le terme de régularisation choisi pour une déconvolution non itérative (inversion unique) n’est pas forcément adapté à un algorithme itératif. Son choix sera déterminant dans l’efficacité de la déconvolution. 5.1 Conditions idéales : modèle parfait de la solution Afin de valider cette théorie et de prouver qu’elle peut apporter une amélioration dans la restauration de signaux, nous allons nous placer dans les conditions idéales, c’est-à-dire dans le cas où le modèle est égal au signal recherché (mais toujours en présence de bruit). Avant cela, nous allons comparer les étapes successives qui nous ont amené à choisir notre méthode. Lorsque qu’on n’apporte pas de modèle ( X mod = 0 ), on se trouve dans le cas particulier de l’inversion de l’équation de convolution avec régularisation de Tikhonov-Miller (voir chapitre précédent). L’introduction du modèle modifie la solution obtenue et la rapproche du signal original si le modèle est correctement choisi. Les paramètres de régularisation sont tout aussi importants que dans la déconvolution sans modèle. Lorsque ce dernier est égal au signal original, le résultat est sans appel, la solution est très proche du signal recherché. Ce cas ne sera évidemment jamais rencontré en dehors des tests de la méthode, mais il permet de justifier l’emploi d’un modèle numérique de la solution. Notons 104 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV que dans cette série de comparaisons, nous avons légèrement augmenté le paramètre de régularisation α, jugeant que les profils déconvolués avec un paramètre égal à αMiller comportaient des oscillations trop marquées. Les figure 3-12 et 3-13 comparent la déconvolution du signal-test sans modèle, puis avec un modèle parfait, avec un paramètre α = 2Â-3 au lieu de 9Â-4 : Déconvolution sans modèle 2.0 Figure 3-12 : Déconvolution du signal-test par régularisation classique de Tikhonov-Miller, sans introduction de modèle numérique de la solution. DRF de σ Tot = 34.7 Å, Profil réel Profil mesuré Profil déconvolué Intensité (u.a) 1.5 1.0 0.5 0.0 0 100 200 300 400 500 600 700 800 SNR = 35 dB, α = 2⋅10-3. Profondeur (Å) Intensité (u.a) 1.5 Figure 3-13 : Déconvolution avec introduction du modèle numérique de la solution. Modèle parfait : X mod = X . DRF de Profil réel Profil mesuré Profil déconvolué Déconvolution avec modèle parfait 2.0 1.0 σ Tot = 34.7 Å, 0.5 SNR = 35 dB, α = 2⋅10-3. 0.0 0 100 200 300 400 500 600 700 800 Profondeur (Å) Même en présence de bruit, la méthode conduit à un profil déconvolué pratiquement égal au signal recherché. L’apport d’information par le modèle a donc fortement contribué à nous rapprocher de la solution. Ce cas est extrême mais il laisse penser qu’un modèle intermédiaire entre le modèle parfait et le modèle nul apporterait un gain de performance non négligeable pour la déconvolution. 105 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Afin de vérifier l’efficacité d’une méthode de déconvolution, il est nécessaire de calculer l’erreur commise entre les profils réel et déconvolué d’une part, appelée erreur non observable ou erreur vraie, et l’erreur entre les profils mesuré et « reconstruit » d’autre part, appelée erreur observable ou erreur de reconstruction. On rappelle que le profil reconstruit est le résultat de la convolution du profil déconvolué par la DRF. L’erreur vraie n’est bien sûr accessible qu’en simulation, mais elle permet de comparer les performances théoriques des différentes méthodes. Afin de mieux percevoir l’erreur commise, nous calculerons l’amplitude moyenne de l’erreur, s’exprimant ainsi : EM = 1 N N −1 ∑E n =0 2 n (3.8) L’amplitude moyenne de l’erreur, que nous appellerons par la suite « erreur » pour simplifier, représente la moyenne des distances entre les points d’indice n des deux profils concernés. L’erreur calculée a de cette manière une signification physique immédiate. Pour la déconvolution que nous venons d’effectuer, sans modèle, l’erreur vraie est ainsi de 8.9Â-3, alors qu’elle est de 1.6Â-4 pour le profil déconvolué avec modèle parfait. L’erreur observable est de 2.56Â-4 sans modèle et de 2.42Â-4 avec modèle parfait de la solution. 5.2 Modèle numérique tiré de l’erreur de reconstruction Dans le chapitre précédent, nous avons exposé la possibilité de calculer le modèle numérique à partir du « profil reconstruit ». Le critère de minimisation de l’erreur de ( y − H x est couplé avec le critère de minimisation de D x − xmod 2 reconstruction ) 2 pour déterminer la meilleure solution x . Il nous faut aussi un critère supplémentaire si l’on souhaite calculer analytiquement un modèle de la solution xmod . Une fois x exprimé en fonction de y et de xmod , on peut imposer à xmod de satisfaire la condition suivante : l’erreur de 2 reconstruction Emod doit être minimale (2.93). Cette équation nous donne le modèle analytique minimisant l’erreur de reconstruction, mais il n’est pas dit que le profil déconvolué soit le plus proche possible du profil réel. Les erreurs sont présentées dans le tableau du paragraphe suivant. 5.3 Utilisation du « signal déconvolué sans modèle » comme modèle numérique Il est assez difficile de construire un modèle paramétrique de la solution recherchée : le nombre de paramètres augmente considérablement si l’on souhaite avoir un modèle précis. Le résultat d’une déconvolution classique constitue lui-même un modèle numérique qui est 106 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV une alternative au modèle paramétrique. La figure 3-14 compare la déconvolution, dans les mêmes conditions que précédemment (signal-test, DRF de σ Tot = 34.7 Å, SNR de 35 dB), avec les différents modèles rencontrés. sans modèle avec modèle déduit de l'erreur de reconstruction avec profil déconvolué précédemment comme modèle 1.2 1.0 Intensité (u.a) 0.8 0.6 0.4 0.2 0.0 0 100 200 300 400 500 600 700 800 Profondeur (Å) Figure 3-14 : Déconvolution du signal-test en utilisant divers modèles numériques de la solution recherchée. C’est sur les structures les plus fines, et donc les plus difficiles à restaurer, que l’on caractérise le mieux les performances de chaque modèle. Le modèle égal au profil déconvolué précédemment offre le meilleur résultat, vient ensuite le modèle basé sur la minimisation de l’erreur de reconstruction, puis la déconvolution classique sans modèle. Le tableau ci-dessous présente les erreurs observables et non observables des déconvolutions effectuées avec les différents modèles numériques de la solution : 107 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV modèle erreur non observable erreur observable sans modèle tiré de Emod2 déconvolué précédemment modèle parfait 8.9412Â-3 8.7438Â-3 8.4822Â-3 3.8027Â-4 2.5252Â-4 2.4823Â-4 2.3914Â-4 2.3642Â-4 Ce tableau confirme que la proximité du modèle numérique avec la solution apporte de meilleurs résultats. Le profil déconvolué par la méthode classique, régularisée et contrainte, constitue le meilleur modèle que l’on puisse prendre sans apport d’informations extérieures à l’analyse. Le modèle tiré de l’erreur de reconstruction garantit la plus petite erreur entre le profil mesuré et le profil reconstruit (cette erreur est sensiblement la même que celle obtenue avec le modèle parfait), mais l’erreur n’est que légèrement diminuée par rapport à celle obtenue sans modèle. Nous n’avons pas représenté les différents profils reconstruits, étant donné qu’ils sont tous superposés avec le profil mesuré, et par conséquent les courbes sont pratiquement indistinctes. Un profil déconvolué dans ces conditions ne doit rester qu’un point de départ dans la recherche du meilleur modèle. En effet le résultat est à peine plus satisfaisant que sans modèle. Les oscillations sont encore trop importantes, ce qui nous incite à augmenter considérablement α si l’on souhaite intégrer le résultat de cette déconvolution dans l’algorithme itératif avec modèle. Nous discuterons plus loin de la valeur correcte du paramètre de régularisation à utiliser. 5.4 Choix du terme de régularisation L’algorithme de déconvolution par recherche du meilleur modèle, tel qu’il a été décrit dans le chapitre précédent, nécessite le réglage plus ou moins minutieux du terme de régularisation α D . Nous allons voir en détail son influence et son réglage optimal. 2 5.4.1 Choix du filtre D Le but de l’opérateur de régularisation est à l’origine de limiter la quantité de hautes fréquences contenues dans la solution estimée. Il est donc apparu naturel de choisir un filtre passe-haut pour l’opérateur D. L’expérience nous a montré que ce filtre doit être très « doux », c’est-à-dire que son spectre ne doit pas comporter de zéros ou de zones à très faible niveau, sous peine d’obtenir un signal déconvolué non régularisé. L’équation (2.65) (déconvolution classique par régularisation de Tikhonov-Miller) s’écrit dans l’espace de Fourier : X TM = H *Y H +α D 2 108 2 (3.9) &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Cette équation nous montre que le terme A = H + α D 2 2 ne doit pas comporter de zéros. H est généralement de type passe-bas, D de type passe-haut, et donc α doit être réglé de telle sorte que le dénominateur n’amplifie aucune composante fréquentielle du numérateur de manière excessive. La figure 3-15 montre les spectres de H, D et A : 10 0 Spectre de la DRF H Spectre du filtre D Spectre de A = ( H² + α D² ) Amplification (dB) -10 -20 -30 -40 -50 -60 0.0 0.1 0.2 0.3 0.4 0.5 Fréquence réduite Figure 3-15 : Spectres de la DRF, du filtre D et de l’opérateur A. Ici α est arbitraire. Dans notre algorithme de recherche du modèle, le terme de régularisation varie à chaque itération, puisqu’il est fonction du modèle : ( ∆ 2 = D X − X mod n ) 2 (3.10) Ce critère impose à la solution X d’être proche du modèle X mod n , en particulier au niveau des hautes fréquences. Au cours de notre étude, nous avons utilisé deux filtres D différents. Le premier a été synthétisé et comporte cinq points. Son spectre, de type passehaut, a une pente très douce. Le deuxième filtre, qui convient tout à fait à notre problème, est tout simplement l’opérateur identité. Le critère de régularisation s’écrira dans ce cas : ∆ 2 = X − X mod n 109 2 (3.11) &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV et il impose au signal X d’être proche du modèle sur toute la bande de fréquences. Nous avons vérifié que l’utilisation de l’un ou l’autre de ces deux critères de régularisation (3.10) et (3.11) donnait des résultats quasi similaires. L’importance de l’opérateur de régularisation réside dans sa capacité à combler les zéros de l’opérateur H de manière assez égale quelle que soit la fréquence. 5.4.2 Calcul de α Lorsqu’on utilise la déconvolution non itérative, α est calculé par la méthode de Miller (voir chapitre précédent), ou par validation croisée généralisée dans les cas expérimentaux. On obtient ainsi un paramètre de régularisation assez fort pour régulariser le signal, mais suffisamment faible pour restituer la quantité nécessaire de hautes fréquences. Les conditions sont différentes pour l’algorithme de recherche du modèle numérique : les oscillations créées lors d’une itération n de l’algorithme sont intégrées dans le nouveau modèle X mod n et amplifiées à l’itération n+1. Il est donc nécessaire de limiter ces oscillations en imposant un paramètre de régularisation α beaucoup plus élevé que αMiller. Les premières itérations de l’algorithme donneront un signal déconvolué très lisse, une grande partie des hautes fréquences ayant été filtrées par le terme de régularisation. Parallèlement, le modèle utilisé à chaque itération va s’affiner et se rapprocher de plus en plus du signal recherché. La proximité du modèle avec le signal de départ va permettre au fur et à mesure des itérations de restituer correctement la partie des hautes fréquences permise par le critère de régularisation. On a donc à faire un compromis entre l’aspect lisse du signal déconvolué et sa proximité avec le modèle. Nous allons voir que la valeur de α sera déterminante dans le résultat final. 5.5 Convergence de l’algorithme De nombreuses simulations nous ont montré que lorsque α est choisi trop faible, les oscillations et artefacts s’amplifient au cours de l’algorithme. On se retrouve alors dans le cas d’un problème non ou peu régularisé : l’algorithme diverge. Inversement, si α est trop fort, le profil déconvolué intermédiaire, et donc le modèle à l’itération n, évolue trop lentement. Il reste trop lisse et éloigné du profil recherché même après un grand nombre d’itérations. La figure 3-16 nous montre un exemple où α est égal à αMiller avec un profil déconvolué obtenu après 5 puis 50 itérations. Cet exemple nous montre la rapidité de variation des profils déconvolués xn, ainsi que l’apparition d’artefacts sur des zones où le signal devrait être nul. Si on poursuit l’algorithme, xn diverge. Il est évident que plus on diminue α, plus la solution obtenue est oscillatoire. Dans le cas où le paramètre de régularisation est trop grand (figure 3-17), le profil déconvolué xn (même avec n grand) est plus proche du signal mesuré que du signal recherché. 110 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Profil déconvolué 5 itérations Profil déconvolué 50 itérations Profil réel Profil mesuré 1.4 1.2 Intensité (u.a) 1.0 0.8 0.6 0.4 0.2 0.0 0 100 200 300 400 500 600 700 800 Profondeur (Å) Figure 3-16 : Déconvolution du signal-test (DRF de σ Tot = 34.7 Å, SNR = 35 dB) avec un paramètre de régularisation trop faible : αMiller = 9⋅10-4. Résultats à 5 et 50 itérations. Profil réel Profil mesuré Profil déconvolué : 200 itérations Profil déconvolué : 2000 itérations Profil déconvolué : 20000 itérations 1.4 1.2 Intensité (u.a) 1.0 0.8 0.6 0.4 0.2 0.0 0 100 200 300 400 500 600 700 800 Profondeur (Å) Figure 3-17 : Déconvolution du signal-test (DRF de σ Tot = 34.7 Å. SNR = 35 dB) avec un paramètre de régularisation surestimé : α = 100. Résultats à 200, 2000 et 20000 itérations. 111 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Cette fois le système est « sur-régularisé » et l’algorithme converge vers une solution intermédiaire entre celle que l’on obtiendrait avec le paramètre de régularisation optimal et le profil mesuré. On remarque par ailleurs que le fait de prendre un α grand ne fait pas que retarder l’apparition d’une divergence, mais il la supprime totalement. Le paramètre α qui nous semble optimal est initialement choisit arbitrairement, mais il apparaît que cette valeur est systématiquement 103 à 105 supérieure à αMiller. Pour l’exemple étudié dans ce paragraphe (signal de départ = signal-test, DRF correspondant à Rp = 40 Å, soit σtot = 34.7 Å, SNR = 35 dB) nous avons testé avec succès deux valeurs différentes du paramètre de régularisation : α = 0.1 avec n = 1000 itérations, et α = 1 avec n = 4000 itérations. La figure 3-18 nous montre les profils déconvolués avec chacune des valeurs de α : 2.0 Profil Profil Profil Profil Intensité (u.a) 1.5 réel mesuré déconvolué α = 0.1 , n = 1000 itérations déconvolué α = 1 , n = 4000 itérations 1.0 0.5 0.0 0 200 400 600 800 Profondeur (Å) Figure 3-18 : Déconvolution du signal-test (DRF de σ Tot = 34.7 Å. SNR = 35 dB) avec deux valeurs du paramètre de régularisation correctes : α = 0.1 et n = 1000 itérations, puis α = 1 et n = 4000 itérations. Les résultats sont sensiblement équivalents pour les deux valeurs de α, la restauration en hautes fréquences étant plus satisfaisante pour α = 0.1, sachant qu’il a fallu quatre fois moins d’itérations qu’avec α = 1. On remarque par ailleurs l’apparition d’artefacts de part et d’autre de chacune des trois structures du signal pour la plus faible valeur de α. Ce 112 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV comportement est conforme à ce que nous avons dit plus haut : plus α est grand, plus il faut affiner le modèle par un nombre élevé d’itérations, et plus α est petit, plus les oscillations déforment le profil. On vérifie par ailleurs que le profil reconstruit se superpose exactement au profil mesuré : 0.3 Profil mesuré Profil reconstruit α = 0.1 Profil reconstruit α = 1 Figure 3-19 : Comparaison des profils reconstruits avec le profil mesuré. Intensité (u.a) 0.2 0.1 0.0 0 50 100 150 200 Profondeur (Å) La figure 3-19 montre la première couche fine modélisée du profil étudié. La reconstruction étant quasiment parfaite sur tout le profil, nous n’avons représenté qu’une partie afin de distinguer les trois courbes. Etant donné que l’échelle logarithmique est systématiquement utilisée en analyse SIMS, il est indispensable de comparer tous les profils de cette manière. La figure suivante nous montre que les pentes exponentielles dans les bas niveaux ont complètement disparu. Profil réel Profil mesuré Profil déconvolué α = 0.1 , n = 1000 itérations Figure 3-20 : Représentation logarithmique du résultat de la déconvolution pour α = 0.1. Intensité (u.a) 1 0.1 0.01 1E-3 0 200 400 600 Profondeur (Å) 113 800 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV La dynamique et la résolution sont largement améliorées, en particulier sur les plus petites structures. Parallèlement, on distingue mieux les artefacts, qui sont ici négligeables comparés à la distorsion crée par la mesure. Avant de détailler différents aspects des résultats obtenus par cette méthode de déconvolution, nous allons la tester sur d’autres types de profils. 6. Déconvolution de différentes structures Nous allons brièvement étudier les performances de la méthode de déconvolution appliquée aux signaux typiquement rencontrés en traitement du signal ainsi qu’en SIMS. Le cas spécifique du Dirac ou delta-dopage sera étudié en détail et un paragraphe entier lui sera consacré. Cette partie prétend seulement donner une idée du résultat que l’on peut attendre de la déconvolution de certaines structures typiques rencontrées en SIMS. 6.1 Gaussiennes Les fonctions gaussiennes sont fréquemment employées pour modéliser les phénomènes de type diffusionnels ou les implantations de dopant dans une matrice. Le spectre d’une telle structure est composé essentiellement de basses fréquences. Si la gaussienne à un σ plus grand que le σtot de la DRF, le fait de convoluer une gaussienne par une réponse impulsionnelle telle que la DRF ne provoquera pas de perte d’information par filtrage des hautes fréquences. Nous allons présenter deux exemples de déconvolution, l’un où l’écart-type de la gaussienne est plus grand que celui de la DRF, et l’autre où il est plus petit. Dans cette dernière situation, lorsque σ est très petit, on se rapproche du cas difficile des structures très fines (comportant beaucoup de hautes fréquences), c’est-à-dire le pseudo-Dirac. • Gaussienne d’écart-type σ = 100 Å avec DRF de Rp = 40 Å ( σ Tot = 34.7 Å) La déconvolution de ce profil ne pose pas vraiment de problèmes puisque 10 itérations suffisent à restaurer complètement la gaussienne d’origine, même lorsque le rapport signal/bruit descend à 30 dB. La possibilité de restaurer complètement un profil s’explique par le fait que les composantes hautes fréquences de la gaussienne sont quasiment inexistantes et le bruit a peu d’influence. La distinction de toutes les fréquences est plus facile et peu d’itérations suffisent pour restaurer complètement le profil. De plus, le profil mesuré est ici peu différent du profil réel. Avec un paramètre de régularisation de 1 et un SNR de 35 dB, la restauration est totalement achevée à la 10ème itération. La figure 3-21 montre le résultat de cette déconvolution. On distingue de part et d’autre de la gaussienne, dans les parties où le bruit est dominant, des petites oscillations du même ordre de grandeur que le bruit. Celles-ci ne sont donc pas rédhibitoires. Le fait d’augmenter le paramètre de régularisation n’améliore pas le résultat pour une raison importante : 114 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV • Les oscillations se situent dans des zones où le signal mesuré est dominé par le bruit, qui a une valeur moyenne non nulle. Etant donné que ces oscillations sont de faible amplitude (le signal déconvolué tout comme le signal réel comporte peu de hautes fréquences), aucune composante négative n’est générée par le processus de déconvolution. La contrainte de positivité ne joue donc aucun rôle et les oscillations ont tendance à s’amplifier avec le nombre d’itérations, le modèle n’étant d’aucune utilité dans ces zones. Cette remarque est importante dans le sens où nous retrouverons ce problème d’oscillations sur les hauts niveaux de signal. Figure 3-21 : Déconvolution d’une gaussienne d’écart-type plus important que celui de la DRF (Profil mesuré peu différent du profil réel). Résultats pour α = 1, n = 10 itérations. Profil réel Profil mesuré Profil déconvolué 0.004 Intensité (u.a) 0.003 0.002 0.001 0.000 200 400 600 800 1000 1200 1400 Profondeur (Å) De même, la représentation logarithmique nous montre une excellent restauration sur toute la dynamique du signal : Profil réel Profil mesuré Profil déconvolué Intensité (u.a) 1E-3 1E-4 1E-5 200 400 600 800 1000 Profondeur (Å) 115 1200 1400 Figure 3-22 : Représentation logarithmique de la déconvolution de la gaussienne. &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Gaussienne d’écart-type σ = 20 Å avec DRF de Rp = 40 Å ( σ Tot = 34.7 Å) • Ici la déconvolution est plus difficile puisque la réponse impulsionnelle est plus « large » que la structure analysée. La répartition spectrale de cette gaussienne nous amène à régulariser plus fortement (sous peine de voir apparaître des artefacts dus au bruit dans les données) et à augmenter le nombre d’itérations afin d’affiner le modèle. Les meilleurs résultats sont obtenus pour un paramètre de régularisation de 5 à 10. Sur la figure 3-23, on voit que le profil déconvolué n’est pas complètement restauré, contrairement à celui du cas précédent. 0.020 0.015 Intensité (u.a) Figure 3-23 : a) Déconvolution d’une gaussienne d’écart-type plus faible que celui de la DRF. Paramètre de régularisation α = 5. Résultats pour 200 et 500 itérations. Profil réel Profil mesuré Profil déconvolué : 200 itérations Profil déconvolué : 500 itérations 0.010 0.005 0.000 100 200 300 400 Profondeur (Å) Figure 3-24 : b) Représentation logarithmique. Profil réel Profil mesuré Profil déconvolué : 500 itérations 0.01 Intensité (u.a) 1E-3 1E-4 1E-5 0 100 200 300 Profondeur (Å) 116 400 500 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Plusieurs remarques peuvent être faites sur cette déconvolution : • La restauration n’est pas complète, même après 500 itérations. Nous avons cependant vérifié qu’au bout de 4000 itérations, le maximum de la gaussienne est restauré à 97%. La figure 3-25 montre le résultat à 10000 itérations. • Les « pieds » de la gaussienne ne sont pas correctement restaurés. Sur le profil déconvolué, on observe un point anguleux lorsque le signal tombe à zéro. C’est ici que l’erreur commise est la plus grande. • A 500 itérations, il apparaît déjà des artefacts de part et d’autre du profil déconvolué. Ces artefacts sont typiques des profils gaussiens, et ils ont tendance à se rapprocher du centre de la gaussienne au fil des itérations (figure3-25). 0.020 Profil réel Profil mesuré Profil déconvolué : 10000 itérations Intensité (u.a) 0.015 0.010 0.005 0.000 100 200 300 400 Profondeur (Å) Figure 3-25 : Déconvolution d’une gaussienne d’écart-type plus faible que celui de la DRF. Paramètre de régularisation α = 5. n = 10000 itérations. Discussion sur les artefacts : Deux « lobes » parasites non négligeables apparaissent au pied du profil déconvolué. Ce phénomène se retrouve aussi avec d’autres méthodes de déconvolution appliquées aux formes gaussiennes, en particulier l’algorithme de Van Cittert régularisé et contraint [2]. Lorsqu’on regarde l’évolution du profil déconvolué, notamment ces lobes se rapprochant des pieds de la gaussienne, on ne peut s’empêcher de penser à une compensation de la dose manquante de part et d’autre du pic. Ces deux lobes ne seraient donc pas des artefacts mais le résultat de la mauvaise distribution de la dose au début de la déconvolution, qui est corrigée ensuite par un grand nombre d’itérations. Une étude approfondie sur la déconvolution de gaussiennes a été réalisée par B. Gautier, notamment sur l’influence du rapport des « largeurs » de la réponse 117 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV impulsionnelle et de la gaussienne. Le lecteur intéressé pourra donc se reporter à la référence [2] pour de plus amples informations. On y trouve notamment les gains apportés par la déconvolution, calculés à partir des écarts-types et ceci sur une plage d’énergie d’impact allant de 3.5 à 13 keV. 6.2 Créneaux Tout comme les gaussiennes, les créneaux constituent un cas intéressant de déconvolution SIMS puisqu’ils représentent les couches de dopant dans une matrice avec interfaces abruptes. Dans le signal-test, que nous avons largement utilisé au cours de cette étude, on a un créneau de 250 Å de largeur. Nous allons approfondir le cas du créneau en étudiant l’influence de sa largeur et du bruit de mesure. La dégradation résultant de la mesure d’un créneau de concentration porte essentiellement sur les fronts montant et descendant, qui apparaissent exponentiels sur le profil mesuré. Les fronts sont partiellement restaurés, mais en contrepartie on observe systématiquement la génération d’oscillations sur le plateau du créneau (que l’on retrouve d’ailleurs dans la plupart des techniques de restauration de signaux) • Créneau de 60 Å de largeur, convolué par une DRF de Rp = 40 Å, σ Tot = 34.7 Å. Ce créneau de faible largeur peut encore être considéré comme une structure fine dans le sens où les fronts montant et descendant mesurés s’étendent sur pratiquement toute la longueur du profil. L’intérêt de déconvoluer un créneau de cette taille est donc de restaurer sa largeur réelle. La figure 3-26 nous montre l’exemple de la déconvolution d’un créneau de 60 Å, convolué par une DRF d’écart-type σ Tot = 34.7 Å. Figure 3-26 : Déconvolution d’un créneau de 60 Å de largeur convolué par une DRF de d’écart-type σ Tot = 34.7 Å. SNR = 35 dB, α = 5, n = 10000 itérations. Représentations linéaire et logarithmique. 118 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV La largeur du profil déconvolué peut être mesurée d’une manière simple. Les fronts du créneau ne sont pas complètement restaurés, mais sont suffisamment raides pour que l’on puisse supposer que la largeur du profil déconvolué soit presque la même que celle du profil réel. Comparons les largeurs des différents profils par leur FWHM (largeur à mi-hauteur) : − − − Profil mesuré : Profil réel : Profil déconvolué : 124 Å 60 Å 59 Å Dans cet exemple, on obtient un profil déconvolué de même FWMH que le profil réel. D’autre part, il est nettement plus proche du profil réel que du profil mesuré. On remarque cependant que la concentration est surestimée au centre du créneau. Cette caractéristique apparaît généralement lorsqu’on a un front abrupt suivi d’un plateau : les oscillations générées par la déconvolution sur le plateau ne sont pas compensées par une contrainte d’amplitude, alors que dans le cas d’un Dirac, la contrainte de positivité s’applique sur pratiquement tout le profil déconvolué et élimine presque complètement les oscillations. Un autre moyen d’estimer la qualité de la déconvolution est de comparer la pente des fronts de chaque profil. L’idéal serait de restaurer la pente infinie du profil réel. La réponse impulsionnelle en SIMS est caractérisée par une pente descendante plus faible que la pente montante. Dans cet exemple, nous comparons les fronts en prenant les abscisses des valeurs du profil à 90% du maximum et 10 % du minimum. La distance séparant ces deux valeurs est de 71 Å pour le profil mesuré, alors qu’elle n’est plus que de 19 Å pour le profil déconvolué. On obtient donc un gain d’environ 3.7 sur cette longueur de queue de profil, qui peut être considéré comme un gain en résolution. 1.2 1.0 déconvolué déconvolué Intensité (u.a) 0.8 b) Profil à Rp = 100 Å a) et SNR = 35 dB 0.6 Profil à Rp = 40 Å et SNR = 30 dB mesuré mesuré 0.4 0.2 0.0 0 50 100 150 200 250 Profondeur (Å) 119 300 350 400 Figure 3-27 : Déconvolution du créneau de 60 Å de largeur, α = 5, n = 10000 itérations : a) convolué par une DRF de Rp = 100 Å, avec SNR = 35 dB b) convolué par une DRF de Rp = 40 Å, avec SNR = 30 dB. &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Il est évident que la qualité de la déconvolution baisse lorsque la DRF devient plus large ou lorsque le bruit de mesure augmente. La figure 3-27 montre la déconvolution du même créneau simulé dans des conditions de mesures légèrement différentes : la 1ère mesure correspond à une plus haute énergie d’impact (Rp = 100 Å), alors que sur la 2ème on a un bruit plus important (SNR = 30 dB). Les résultats sont sensiblement les mêmes que précédemment au niveau de la largeur à mi-hauteur. Les bases des deux profils déconvolués sont également de même largeur. On remarque cependant que le sommet du déconvolué a) est plus proéminent que le b). D’une manière générale, on voit que les deux profils sont moins bien restaurés que dans le cas où Rp = 40 Å et SNR = 35 dB. La distance séparant les valeurs à 10% et 90% du front descendant est d’environ 26 Å. Ces exemples illustrent le fait que les performances de la déconvolution diminuent si la largeur (écart-type) de la DRF et le bruit augmentent. • Créneau de 300 Å de largeur L’intérêt de déconvoluer une structure plus grande que la réponse impulsionnelle réside dans la restauration des zones à fort gradient de concentration. Celles-ci sont connues pour générer de fortes oscillations si aucune information n’est apportée sous forme de contraintes. De part et d’autre du créneau, la contrainte de positivité contribue fortement à l’atténuation voire la disparition des oscillations. Pour la partie supérieure du créneau, en l’absence de modèle parfait, les éventuelles oscillations ne peuvent être compensées que par une contrainte d’amplitude. Celle-ci est très rarement utilisée, car elle implique la connaissance de la concentration maximale de l’espèce dans la matrice, ainsi que d’un étalonnage du profil mesuré. De plus, la contrainte d’amplitude ne devrait être appliquée que si l’on est certain d’avoir un créneau parfait, c’est-à-dire sans variations de concentration sur le plateau, sous peine de les tronquer arbitrairement. Nous avons simulé les mêmes conditions expérimentales que précédemment. Le processus de déconvolution est cependant plus délicat : la génération d’oscillations n’étant pas contrôlée au niveau du plateau, il est déconseillé de déconvoluer avec un grand nombre d’itérations. Les oscillations s’amplifieraient sans être compensées par une contrainte dure. La régularisation est insuffisante pour atténuer ces oscillations car ces dernières sont principalement constituées de moyennes fréquences, et le fait d’augmenter le paramètre de régularisation ne ferait qu’empêcher la restauration correcte des fronts du créneau. Nous avons vérifié dans le cas d’un créneau de 300 Å de largeur, qu’au-delà d’une centaine d’itérations, la raideur des fronts du profil déconvolué n’évoluait pas tellement. Les oscillations ont par contre tendance à s’accentuer en amplitude mais aussi en fréquence. La figure 3-28 montre le résultat pour 50 itérations effectuées avec un paramètre de régularisation de 1 : 120 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Figure 3-28 : Déconvolution d’un créneau de 300 Å de largeur. Rp = 40 Å, SNR = 35 dB, α = 1, n = 50 itérations. Les flancs du créneau sont partiellement restaurés, et la décroissance exponentielle visible dans le profil mesuré a ici complètement disparu (représentation logarithmique). On remarque deux pics plus prononcés près des sommets du créneau, alors que les oscillations s’atténuent au centre du plateau. Celles-ci rappellent les oscillations de Gibbs, mais leur origine résiderait plutôt dans la forte concentration locale de hautes fréquences, qui ne peut être correctement restaurée à cause du bruit. 6.3 Déconvolution de deux structures adjacentes d’amplitude très différentes Nous étudions maintenant le cas particulier où une petite structure (par exemple un delta-dopage ou un créneau assez mince et de faible concentration) est située 40 Å après un créneau de concentration élevée. Dans ce cas, la mesure ne révèle pas la présence de la couche mince, qui est masquée par la décroissance exponentielle du créneau. La figure suivante montre l’exemple d’un créneau de 200 Å de large, suivi d’un autre de 8 Å. La concentration du 1er est quatre fois supérieure à celle du 2ème, ce qui représente une dose 100 fois supérieure. Dans cet exemple, l’algorithme permet de retrouver une partie de la dose apportée par le petit créneau, avec cependant un décalage de la structure vers la droite. En observant l’évolution du profil déconvolué toutes les 50 itérations (figure 3-30), on remarque que la dose correspondant à ce créneau, que l’on pourrait assimiler à un artefact, se déplace vers la gauche, c’est-à-dire vers la position réelle de la structure. 121 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Profil réel Profil mesuré Profil déconvolué 350 itérations 4 Intensité (u.a) 3 2 1 0 0 100 200 300 400 500 Profondeur (Å) Figure 3-29 : Simulation et déconvolution de deux créneaux adjacents de doses très différentes. Rp = 40 Å, α = 1, SNR = 35 dB, n = 350 itérations. 1.0 Profil réel Profil déconvolué : (nombre d'itérations) 50 100 150 200 250 300 350 Intensité (u.a) 0.8 0.6 0.4 0.2 0.0 300 320 340 360 380 400 Profondeur (Å) Figure 3-30 : Détail de la petite structure lors de la déconvolution. 122 420 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Si on compare cet exemple avec celui des gaussiennes de faible largeur, on aboutit à la conclusion qu’un « artefact » d’une telle taille, qui tend à se décaler au cours de la déconvolution, peut finalement révéler une structure existante séparée des autres ou un gradient de concentration, que la déconvolution n’a pas restauré suffisamment au début de l’algorithme. L’interprétation des artefacts doit donc être mesurée, surtout si leur dose n’est pas négligeable, et ne doit pas conduire à leur élimination systématique des profils. 7. Critères d’arrêt de l’algorithme 7.1 Définition des erreurs Si le paramètre α est choisi correctement, l’algorithme converge vers une solution stable. Selon sa valeur, la vitesse de convergence varie et il est nécessaire de définir un critère d’arrêt de l’algorithme, sans quoi le nombre d’itérations augmente sans pour autant que le résultat s’améliore remarquablement. Il y a plusieurs manières de dire que l’algorithme à atteint la solution : • L’idéal serait de pouvoir mesurer l’erreur entre le profil déconvolué et le profil réel, et d’arrêter l’algorithme lorsque cette valeur (l’erreur non observable) est suffisamment petite. Cette méthode n’est bien sûr valable qu’en simulation, puisque le profil réel est censé être inconnu. • Une alternative consiste à mesurer l’erreur observable entre le profil mesuré et le profil reconstruit. Normalement, plus le profil déconvolué se rapproche du profil réel, plus l’erreur observable diminue. On peut suivre soit la valeur absolue de cette erreur, soit son évolution par sa dérivée en fonction du nombre d’itérations. Cependant, deux raisons nous incitent à rechercher d’autres critères d’arrêt : − Un profil déconvolué mais présentant de fortes oscillations, une fois reconvolué par la DRF, peut conduire à une erreur très faible, du même ordre que celle obtenue avec un « bon » profil déconvolué (figure 3-31). La fréquence des oscillations correspond à un zéro de H(f) et génère une composante sinusoïdale dite « muette ». − Dans les simulations, lorsqu’on compare l’erreur observable et l’erreur non observable, on constate qu’elle ne diminuent pas de la même manière. L’erreur observable décroît bien plus vite et sa courbe en fonction du nombre d’itérations tend vers une asymptote horizontale proche de l’énergie du bruit. Lors d’une « bonne » déconvolution, l’erreur observable ne reflète pas suffisamment la qualité de la déconvolution dans son évolution. Généralement, après un certain nombre d’itérations, elle ne décroît pratiquement plus alors que l’erreur non observable continue à décroître de manière significative. La figure 3-32 nous montre l’exemple d’une déconvolution satisfaisante, où le nombre d’itérations a été porté à 2000 pour comparer l’évolution des erreurs observable et non observable. 123 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Figure 3-31 : Exemple de mauvaise restauration : le paramètre de régularisation n’est pas assez fort, causant l’apparition de fortes oscillations (20 itérations). Le profil reconstruit est cependant de bonne qualité, et l’erreur observable est du même niveau que le bruit. Figure 3-32 : Déconvolution avec restauration satisfaisante du signal-test effectuée avec 2000 itérations. Rp = 40 Å, SNR = 35 dB, α = 1. Ici, l’énergie de l’erreur observable est de 6.97Â-2, alors que dans le cas de la déconvolution précédente, elle est de 6.86Â-2. Cet exemple montre qu’une erreur de reconstruction faible ne garantit pas que l’on a atteint la meilleure solution. Néanmoins, au cours de l’algorithme, son évolution renseigne sur la stabilité de la solution. La décroissance indique que le profil déconvolué se rapproche de la solution idéale. Si à un moment l’erreur 124 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV observable remonte, c’est que le profil déconvolué diverge. La figure 3-33 compare les différentes erreurs dans le cas des deux précédentes déconvolutions : Figure 3-33 : Evolution des erreurs non observable et observable en fonction du nombre d’itérations lors de la déconvolution du signal-test. Dans le cas de la déconvolution effectuée avec un paramètre α trop petit, les erreurs observable et non observable présente un minimum avant les 50 premières itérations, confirmant que la déconvolution est mauvaise. 7.2 Evolution du profil déconvolué en fonction du nombre d’itérations Afin de compléter les informations apportées par l’erreur observable, nous avons recherché une autre façon de déterminer si le nombre d’itérations est suffisant lors d’une déconvolution. Nous avons adopté un autre point de vue : l’algorithme étant convergent, à partir d’un nombre d’itérations nconv le profil déconvolué évolue très peu. Cela implique que la valeur de dx = x n − x n −1 ne décroît pratiquement plus lorsque n > n ( V représente la conv n somme des valeurs absolues des composantes du vecteur V ). Le critère d’arrêt consiste donc x n − x n −1 à mesurer dxn = et à stopper l’algorithme lorsque sa valeur atteint un seuil défini y par l’utilisateur. La figure 3-34 montre les profils déconvolués x n ainsi que dxn, représenté par l’aire contenue entre deux courbes successives. 125 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Figure 3-34 : Evolution du profil déconvolué x n en fonction du nombre d’itérations. L’aire dxn délimitée par deux courbes successives diminue au fil des itérations. Si l’algorithme converge, la distance géométrique dxn entre deux profils déconvolués successifs tend vers une valeur proche de 0 (contrairement à l’erreur observable qui, au mieux, tend vers l’énergie du bruit). On peut donc déterminer de manière absolue le critère d’arrêt de l’algorithme, indépendamment de la quantité de bruit de mesure. Nous avons constaté que le nombre d’itérations atteint est suffisant lorsque la courbe représentant dxn en fonction du nombre d’itérations n devient presque horizontale. Cependant, dans les mêmes conditions d’analyse et de déconvolution, le nombre d’itérations nécessaire à une bonne restauration diffère selon le profil de départ. Plus les profils sont fins et abrupts, plus il faudra d’itérations. La figure 3-35 montre l’évolution de dxn pour quelques profils types, tous déconvolués dans les mêmes conditions. 0.0014 Creneau d'épaisseur 60 Creneau d'épaisseur 200 Signal-test Dirac numérique 0.0012 Figure 3-35 : Evolution de la distance géométrique dxn entre deux profils déconvolué xn et xn-1 pour différents profils. Rp = 40 Å, SNR = 35 dB, α = 1. 0.0010 dx n 0.0008 0.0006 0.0004 0.0002 0.0000 0 200 400 600 800 1000 1200 Nombre d'itérations 126 1400 1600 1800 2000 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Afin de vérifier la pertinence de ce critère d’arrêt, nous contrôlons l’évolution de l’erreur vraie (non observable), dont la courbe pour chaque profil est représentée figure 3-36 : 0.0004 creneau200 dirac xtest2 creneau Intensité (u.a) 0.0003 0.0002 0.0001 0.0000 0 200 400 600 800 1000 1200 1400 1600 1800 2000 Profondeur (Å) Figure 3-36 : Evolution de l’erreur non observable pour les déconvolutions effectuées avec Rp = 40 Å, SNR = 35 dB, α = 1. Les valeurs pour le Dirac numérique ont toutes été divisées par 10 pour des raisons d’échelles. La figure 3-35 nous amène à faire quelques commentaires : • La courbe correspondant au créneau d’épaisseur 60 atteint assez rapidement son asymptote. L’algorithme peut être stoppé au bout de 200 à 250 itérations. Visuellement, les bords du créneau sont restaurés après une centaine d’itérations (ce que confirme l’erreur observable), et les variations de dxn au-delà de n = 100 proviennent essentiellement de l’aplatissement du signal déconvolué au niveau du plateau (alors que la dose correspondante évolue peu). • Pour le créneau d’épaisseur 200, on observe le même phénomène mais à n = 500 pour dxn comme pour l’erreur non observable. L’absence de contrainte d’amplitude sur le plateau engendre le développement d’oscillations dont la fréquence augmente au fil des itérations. D’autres simulations nous ont montré que leur amplitude varie légèrement selon l’énergie et la distribution du bruit. • Les courbes relatives au Dirac numérique sont plus difficiles à interpréter : dxn décroît de manière significative jusqu’à n = 1600, alors que l’erreur vraie se stabilise dès les 500 premières itérations. Ce phénomène s’explique par la manière de calculer dxn et l’erreur vraie : Le profil déconvolué intermédiaire évolue rapidement et la distance à − parcourir entre le mesuré et le Dirac est telle qu’un grand nombre d’itérations est nécessaire avant de converger vers une solution stable. Cette évolution concerne toute la longueur du profil et entraîne une diminution continue de dxn. 127 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV − Parallèlement, l’erreur vraie est ici calculée uniquement en un point, puisqu’on travaille sur un Dirac numérique. Cette erreur est donc la différence entre 1 et la valeur du maximum du profil déconvolué. Ce maximum, dans cet exemple, ne dépassera pas 5 à 10% de celui du Dirac, soit 0.1. On observera donc une asymptote pour l’erreur vraie assez haute comparée à celles des autres profils. • Enfin, le signal-test présente une courbe de dxn intermédiaire aux autres. Elle montre qu’à partir de 6 à 800 itérations le profil déconvolué varie assez peu, alors que l’erreur non observable continue à décroître fortement. D’une part, des oscillations se développent lentement sur le plateau du créneau (ce qui affecte assez peu l’erreur vraie), et d’autre part les pseudo-Diracs se restaurent assez vite, influençant fortement l’erreur vraie (qui est calculée non pas en un seul point, comme dans le cas du Dirac numérique, mais sur 50 points). Il est donc assez difficile d’appliquer un critère d’arrêt de l’algorithme sur un profil où chaque partie réagit différemment vis-à-vis de la déconvolution. Les simulations que nous avons effectuées nous ont conduit à la conclusion que la valeur à atteindre pour dxn oscille autour de 5Â-4 pour la plupart des profils. En fait lorsque la convergence est lente (Diracs), on a intérêt à choisir un dxnconv plus petit, ce qui revient à imposer un nconv plus grand. Ainsi, dans des conditions de simulation (convolution et bruit) similaires, chaque type de structure nécessite un nombre d’itérations n différent. A titre d’exemple, le tableau suivant présente un nombre d’itérations optimal pour une restauration satisfaisante (en terme de convergence) de différentes structures : Rp = 40 Å Rp = 100 Å Dirac numérique α = 0.01 dxnconv = 7Â -4 n = 300 dxnconv = 8Â-4 n = 300 Pseudo-Dirac (6 points) α = 0.01 dxnconv = 9Â-4 n = 270 dxnconv = 9Â-4 n = 270 2 Pseudo-Diracs proches α = 0.01 dxnconv = 6Â-4 n = 400 dxnconv = 4Â-4 n = 700 Gaussienne σ = 10 Å, α = 0.1 dxnconv = 3Â-4 n = 180 dxnconv = 4.4Â-3 n = 300 Gaussienne σ = 20 Å, α = 1 dxnconv = 7.6Â-4 n = 80 dxnconv = 4Â-4 n = 200 Gaussienne σ = 100 Å, α = 1 dxnconv = 5Â-4 n = 10 dxnconv = 4Â-4 n = 15 Créneau L = 60 Å, α = 1 dxnconv = 5Â-4 n = 100 dxnconv = 4Â-4 n = 240 Créneau L = 200 Å, α = 1 dxnconv = 2Â-4 n = 160 dxnconv = 7.3Â-5 n = 100 7.3 Déconvolution « par zones » Lorsque le profil comporte plusieurs types de structures, le nombre d’itérations (ou le critère d’arrêt) choisi globalement ne sera pas optimal pour chacune d’elles. Par exemple, la 128 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV composition du signal-test (trois pseudo-Diracs et un créneau), implique de faire un choix entre un petit ou un grand nombre d’itérations : • Si on souhaite limiter le nombre d’itérations, les pseudo-Diracs seront peu restaurés alors que le créneau le sera de manière satisfaisante. • Inversement, une déconvolution poussée entraînera une bonne restauration des pseudo-Diracs ainsi que la séparation totale des deux derniers, mais pourra éventuellement occasionner le développement des oscillations sur le plateau du créneau. Selon les conditions expérimentales (niveau de bruit et énergie d’impact), augmenter le nombre d’itérations améliorera ou non le résultat. Dans le cas précis du signal-test, tout dépendra du développement ou de l’atténuation des oscillations sur le créneau. Une alternative consiste alors à diviser le profil en plusieurs zones et à effectuer des déconvolutions plus ou moins poussées dans chacune d’elles. Lorsqu’on regarde le profil mesuré, on voit que chacune des trois structures est couplée avec la suivante (ou la précédente). Couper le profil à une profondeur où le signal n’est pas nul revient à le fausser puisque la dose de la structure « isolée » n’est pas complète. De plus, on créerait une structure avec un front abrupt, ce qui est impossible à obtenir par la mesure, la DRF agissant comme un filtre passe-bas. Il faut donc commencer la déconvolution sur tout le profil, jusqu’à ce qu’entre chaque structure, une plage de signal nul assez grande apparaisse. Dans le cas étudié, la division du profil peut être effectuée à partir d’une quinzaine d’itérations : 2.00 Profil réel Profil mesuré Profil déconvolué 50 itérations 1.75 Intensité (u.a) 1.50 1.25 Zone 1 Zone 2 Zone 3 1.00 0.75 0.50 0.25 0.00 0 100 200 300 400 500 600 700 800 900 Profondeur (Å) Figure 3-37 : Division du profil en trois zones où la déconvolution sera plus ou moins poussée dans chacune d’elles. 129 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Dans cet exemple, les 50 premières itérations sont effectuées avec un paramètre de régularisation fort (α = 1), puis chaque zone peut être déconvoluée avec un α dépendant de l’apparence de la structure correspondante : 2.0 Profil réel Profil mesuré Profil déconvolué par zones Intensité (u.a) 1.5 Zone 1 : α = 0.01 5000 itérations 1.0 Zone 3 : α = 0.1 1000 itérations Zone 2 : α=1 100 itérations 0.5 0.0 0 200 400 600 800 Profondeur (Å) Figure 3-38 : Résultat de la déconvolution effectuée de manière indépendante dans les trois zones du profil. Ici le nombre d’itérations sur chaque zone a été déterminé arbitrairement, mais l’opérateur peut facilement juger de la finesse de la structure à déconvoluer et donc de la valeur de dxnconv que l’on peut imposer. A titre d’exemple, la valeur de dxnconv obtenue pour le premier pseudo-Dirac (11 points) est de 2.5Â-5, et pour les deux derniers (20 points chacun), elle est de 1.5Â-4. Ces valeurs sont dans ce cas précis inférieures à celles du tableau précédent en raison du nombre élevé d’itérations demandé. 8. Déconvolution de deltas-dopage L’obtention de courbes en forme de cloche, avec une forte décroissance exponentielle, à la place de pseudo-Diracs est une des principales raisons qui ont motivé l’utilisation de la déconvolution en SIMS. Le delta-dopage est aussi la structure la plus difficile à restaurer. Dans le meilleur des cas, on obtiendra un gain inférieur à 10 entre les maxima de la concentration mesurée et celle déconvoluée, mais c’est paradoxalement lors de la déconvolution des deltas-dopage que l’on observe les plus grands gains de résolution en profondeur. 130 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Nous allons tout d’abord étudier la déconvolution des deltas-dopage dans son aspect le plus théorique, c’est-à-dire en prenant comme signal de départ un vrai Dirac numérique. Nous appellerons cette technique l’auto-déconvolution, puisqu’elle consiste à déconvoluer un signal identique à la DRF au bruit près. Nous obtiendrons ainsi les performances ultimes de la méthode que nous comparerons par la suite aux résultats obtenus sur des profils expérimentaux. 8.1 L’auto-déconvolution Le principe de la simulation de ce problème de déconvolution consiste à choisir une réponse impulsionnelle h et à lui rajouter une composante de bruit. Ce signal représentera le signal mesuré y. La déconvolution se fera alors avec la réponse impulsionnelle h. En fait, le profil simulé est équivalent à celui que l’on aurait fabriqué en convoluant un Dirac numérique avec la réponse impulsionnelle, puis en rajoutant du bruit. • Conditions de déconvolution Théoriquement, le signal mesuré y et la réponse impulsionnelle h ont le même nombre de points : N y = N h + N x − 1 = N h , puisque N x = 1 . Cela implique que le profil déconvolué est aussi composé d’un seul point. Or on sait que le profil ne pourra être complètement restauré, et que le profil déconvolué sera intermédiaire entre le profil réel et le profil mesuré, c’est-àdire qu’il aura une longueur comprise entre 1 et N y points. Si on veut éviter d’avoir un profil déconvolué tronqué sur les bords, il est nécessaire de partir d’un profil réel comportant assez de points pour éviter la troncature du profil déconvolué. La technique consiste simplement à rajouter des zéros de part et d’autre du signal de départ. L’expérience nous a montré qu’en choisissant pour le profil de départ un support d’environ 3 à 6 fois plus grand que celui de la réponse impulsionnelle, le profil déconvolué intermédiaire (itération n quelconque) n’est pas tronqué. Ce phénomène s’explique par la rapide restauration des composantes exponentielles, qui disparaissent au profit d’une zone de signal nul. La longueur nécessaire du support dépend fortement du paramètre de régularisation : plus ce dernier est fort, plus le profil s’étalera sur un grand nombre de points. • Remarque importante sur le support Dans le cas où le profil déconvolué à l’itération n serait tronqué, ni la dose ni la forme du profil obtenu ne pourraient être considérées exactes en fin de déconvolution. Cependant un profil intermédiaire x n n’est autre que le modèle de solution pour le profil suivant x n +1 . Ce modèle, bien que tronqué, permet tout de même à l’algorithme de converger vers une solution tout aussi satisfaisante que dans le cas d’un support assez grand (figure 3-39). Dans certaines conditions, le fait d’avoir un modèle tronqué permet même d’accélérer la convergence de l’algorithme. En effet les fronts du profil recherché sont censés être très abrupts, et ceux d’un modèle tronqué s’en rapprochent plus que les pentes douces d’un profil intermédiaire non tronqué. Le modèle tronqué devient ainsi (bien que ce soit involontaire) plus adapté que le modèle complet (figure 3-40). 131 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Dirac Déconvolué sur 40 points (pas de troncature) Déconvolué sur 20 points (troncature sur les 300 premières itération) 0.150 0.125 Intensité (u.a) 0.100 0.075 0.050 0.025 0.000 12 14 16 18 20 22 24 26 28 Profondeur (Å) Figure 3-39 : Comparaison de la déconvolution avec modèle standard et avec modèle tronqué sur les bords lors des 300 premières itérations. Dirac numérique convolué par une DRF avec Rp = 40 Å, SNR = 35 dB, α = 10-3, 1000 itérations. Dirac Déconvolué sur 100 points (pas de troncature) Déconvolué sur 40 points (troncature sur les 60 premières itérations) Déconvolué 1ère itération 0.12 0.10 Intensité (u.a) 0.08 0.06 0.04 0.02 0.00 0 5 10 15 20 25 30 35 40 Profondeur (Å) Figure 3-40 : Comparaison de la déconvolution avec modèle standard et avec modèle tronqué sur les bords lors des 60 premières itérations. Dirac numérique convolué par une DRF avec Rp = 100 Å, SNR = 35 dB, α = 10-3, 2000 itérations. Si on ne rajoute pas de zéros, la contrainte de support, ici implicite, est trop dure. Il faut contrôler (et donc rallonger) la longueur du support de telle façon que le modèle présente 132 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV une dose suffisamment proche de la dose originale (unitaire ici). Il y a donc un compromis à trouver entre : • La proximité de la forme du modèle avec celle du profil recherché (fronts abrupts). Un support trop réduit conduit à un modèle déformé, non symétrique, qui dirige l’algorithme vers une solution absurde. • La vitesse de convergence de l’algorithme ainsi que la distance entre les solutions obtenues avec modèle tronqué ou non. 8.2 Résultats et performances de l’algorithme de déconvolution Nous allons maintenant quantifier les performances de la méthode en comparant les caractéristiques des profils mesurés et déconvolués dans des conditions de simulation différentes, qui correspondent à diverses énergies d’impact. La grandeur qu’il apparaît comme le plus naturel de mesurer est la largeur des pics, puisqu’elle reflète directement la résolution en profondeur accessible par déconvolution, ainsi que le gain de résolution obtenu. D’autre part, la comparaison du maximum du pic déconvolué avec celui mesuré permettra d’obtenir une concentration de la couche plus réaliste (bien qu’insuffisante) que celle donnée par le profil mesuré. Les paramètres physiques que nous ferons varier sont les suivants : • La profondeur de pénétration Rp des ions primaires, ce qui revient à modifier la décroissance exponentielle λd ainsi que l’écart-type σtot de la DRF. • Le bruit de mesure (en terme de rapport signal/bruit), qui nous permettra de quantifier son influence sur le résultat. D’autre part, les paramètres internes à l’algorithme de déconvolution seront identiques pour toutes les simulations, afin que les comparaisons soient possibles : • Opérateur de régularisation D : nous utiliserons l’opérateur identité. Ainsi, dans les hautes fréquences, lorsque H 2 0 , on a A α . • Paramètre de régularisation α : ce paramètre est difficile à estimer. Dans le cas particulier des Diracs numériques, nous avons constaté que la valeur α = 0.001 entraînait une déformation du profil déconvolué à partir d’un certain nombre d’itérations, alors que α = 0.01 rendait la solution stable quelles que soient les conditions de simulations. C’est donc cette valeur « semi-arbitraire » qui sera utilisée pour les déconvolutions qui suivront. • Critère d’arrêt dxnconv : c’est lui qui définit la qualité du résultat final. Avec le Dirac numérique, il n’y a pas de développement d’oscillations comme avec le créneau. On peut donc augmenter le nombre d’itérations sans craindre une dégradation du profil déconvolué (si α est bien choisi). Le résultat ira donc en s’améliorant, mais 133 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV au prix d’un temps de calcul exponentiel. Il faut donc faire un nouveau compromis, cette fois entre le temps de calcul et le gain en résolution apporté. Dans la suite, nous travaillons avec un dxnconv de 5Â-5, ce qui correspond à un nombre d’itérations moyen raisonnable pour le résultat obtenu. Notons que dans toute l’étude de l’auto-déconvolution, nous avons utilisé la contrainte de maintien à zéro au lieu de la contrainte de positivité. En effet nous supposons ici qu’en dehors du delta-dopage, aucune petite structure n’est diluée dans le profil mesuré, et que les artefacts apparaissant lors de la déconvolution ne proviennent que du bruit de mesure. La contrainte de maintien à zéro élimine donc ces artefacts et permet une répartition correcte de la dose dans le profil déconvolué. Dans une première série de déconvolutions, nous avons fixé le rapport signal/bruit à 35 dB. Le tableau ci-dessous compare les largeurs à mi-hauteur des profils avant et après déconvolution, ainsi que leur maximum. Rp 10 nconv FWHM(y) FWHM(xconv) gain en FWHM max(y) Â-2 max(xconv) Â-2 gain en max 4357 49 7 7 1.79 15.3 8.5 SNR = 35 dB 20 40 5493 53 7 7.57 1.65 14.7 8.9 5245 62 8 7.75 1.39 13.7 9.8 70 100 140 4098 77 11 7 1.12 9.7 8.7 4723 92 13 7 0.95 8.3 8.8 4563 111 15 7.75 0.8 6.8 8.8 Gains en résolution en profondeur et en maximum de concentration apportés par la déconvolution du Dirac numérique en fonction de la profondeur de pénétration Rp. α = 0.01, SNR = 35 dB. On observe une certaine constance dans les résultats : le gain en résolution en profondeur, mesuré à partir de la FWHM, est de 7 à 7.75, et le gain en concentration maximum oscille entre 8.5 et 9.8. Cette invariance relative des gains montre que le critère d’arrêt choisi est indépendant de la profondeur de pénétration, et qu’il est représentatif de la qualité du résultat obtenue (ou désirée). La figure suivante compare les profils déconvolués à 1000, 4000 et 10000 itérations pour la simulation effectuée avec Rp = 40 Å. Cette figure nous montre qu’en doublant le nombre d’itérations (n = 10000 au lieu de n = 5245), on n’obtient qu’un gain en maximum de concentration de 2%, alors que le gain en résolution en profondeur est négligeable. 134 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV 0.14 Dirac numérique déconvolué avec α = 0.01 0.12 0.10 Intensité (u.a) n = 1000 n = 4000 n conv = 5245 n = 10000 Figure 3-41 : Comparaison des profils déconvolués pour diverses valeurs de n. 0.08 0.06 0.04 0.02 0.00 30 35 40 45 50 55 60 65 70 Profondeur (Å) Nous reprenons maintenant la même série de déconvolutions, avec cette fois-ci un rapport signal/bruit de 40, 30 puis 20 dB (profil très bruité). Rp nconv FWHM(y) FWHM(xconv) gain en FWHM max(y)Â-2 max(xconv) Â-2 gain en max 10 3775 48 7 6.86 1.81 15.4 8.5 SNR = 40 dB 20 40 4486 4834 54 64 7 9 7.71 7.11 1.64 1.38 13.8 12.7 8.4 9.2 70 4424 78 11 7.09 1.12 10.0 8.9 100 4843 91 13 7 0.94 8.5 9.0 140 4192 112 15 7.47 0.77 7.0 9.0 70 5455 77 10 7.7 1.13 1.09 9.6 100 5137 92 12 7.67 0.95 0.91 9.6 140 5051 112 14 8 0.77 0.74 9.6 SNR = 30 dB Rp nconv FWHM(y) FWHM(xconv) gain en FWHM max(y)Â-2 max(xconv) Â-1 gain en max 10 4416 48 7 6.86 1.82 1.55 8.5 20 4465 54 7 7.71 1.65 1.57 9.5 40 5458 61 8 6.78 1.41 1.25 8.9 135 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Rp 10 nconv FWHM(y) FWHM(xconv) gain en FWHM max(y)Â-2 max(xconv) Â-2 gain en max 5259 47 7 6.71 1.93 5.3 7.9 SNR = 20 dB 20 40 4480 51 8 6.38 1.71 14.0 8.2 4580 61 9 6.78 1.44 12.6 8.7 70 100 140 4113 78 10 7.8 1.16 9.8 8.4 4694 87 12 7.25 0.99 8.7 8.8 4713 105 14 7.5 0.81 7.9 9.7 Les trois tableaux ci-dessus montrent de toute évidence que le gain en résolution est indépendant du bruit (dans la limite de ce que l’on peut trouver expérimentalement en SIMS). Cependant, il faut relativiser ces résultats pour plusieurs raisons : • • • Les simulations sont effectuées avec un bruit qui est par définition un signal aléatoire. Cela implique que chaque essai de déconvolution sur un profil défini par Rp, α, et SNR, donnera un résultat unique dépendant de la distribution du bruit sur le profil mesuré. Le nombre d’itérations à effectuer pourra alors varier de ±1000 pour atteindre un même gain en résolution. Les tableaux précédents présentent donc des essais représentatifs de la moyenne. La finesse des profils déconvolués entraîne une erreur possible non négligeable sur le gain en résolution en profondeur, due à la nature numérique des signaux. Le cas étudié est d’une part le plus difficile en terme de restauration, mais aussi le plus simple puisqu’il n’y a aucune source d’oscillations. Le paramètre de régularisation est ainsi plus faible que dans la plupart des autres types de profils, et le nombre d’itérations peut être augmenté sans risque de dégradation du résultat. Il est évident que sur d’autres types de profils, l’augmentation du bruit entraînerait une diminution de la qualité de la déconvolution (développement d’artefacts). Le delta-dopage est néanmoins le cas le plus intéressant pour la déconvolution en SIMS. Si d’autres structures, comme les marches de concentration, nécessitent moins de traitements, les profils de monocouches font l’objet de toute l’attention puisqu’ils représentent la résolution ultime accessible par l’ensemble SIMS-traitement du signal. Le gain en résolution en profondeur peut aisément être amélioré dans le cas des deltas-dopage grâce à la déconvolution, mais ce dernier illustre plus les performances de la méthode de déconvolution que l’amélioration que l’on peut obtenir en profil SIMS. Cette série de calculs a été menée avec un critère d’arrêt choisi en tenant compte d’un compromis (temps de calcul)/(gain de résolution en profondeur). Nous aurions pu exiger une déconvolution plus poussée en diminuant nettement dxnconv , mais l’amélioration du résultat n’est pas spectaculaire après un certain nconv. Dans la réalité, les profils SIMS sont déformés 136 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV par divers phénomènes que nous allons aborder dans le chapitre suivant (non-linéarités entre le temps et la profondeur, système variant,…), et imposer un très grand nombre d’itérations risquerait de provoquer la naissance d’artefacts. A titre d’exemple, la déconvolution d’un Dirac numérique dans des conditions similaires (SNR = 35 dB, Rp = 40 Å) a été effectuée avec 100 000 itérations. Les figures 3-42 et 3-43 représentent les différentes étapes de cette déconvolution, avec les profils déconvolués à k × 10000, ainsi que la courbe de la résolution en profondeur (moment centré d’ordre 2 et FWHM) en fonction du nombre d’itérations. 0.275 0.250 Profil déconvolué en fonction du nombre d'itérations n = 10 000 n = 20 000 n = 30 000 n = 40 000 n = 50 000 n = 60 000 n = 70 000 n = 80 000 n = 90 000 n = 100 000 Déconvolution du Dirac numérique 0.225 0.200 0.150 0.125 0.100 0.075 0.050 0.025 0.000 40 42 44 46 48 50 52 54 56 58 60 Profondeur (Å) 10 9 Moment centré d'ordre 2 Largeur à mi-hauteur 8 Moment centré d'ordre 2 Intensité (u.a) 0.175 Figure 3-42 : Evolution du profil déconvolué en fonction du nombre d’itérations. Dirac numérique convolué par une DRF correspondant à Rp = 40 Å, puis bruité avec un SNR de 35 dB. α = 0.01, n = 100 000. 7 6 5 4 3 2 1 0 0 10000 20000 30000 40000 50000 60000 Nombre d'itérations 137 70000 80000 90000 100000 Figure 3-43 : Moment centré d’ordre 2 et FWHM du profil déconvolué en fonction du nombre d’itérations. &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV En conclusion, nous pouvons affirmer que notre méthode de déconvolution appliquée aux Diracs numériques permet d’améliorer la résolution en profondeur d’un facteur supérieur à 7 dans la plupart des cas (comparaison des largeurs à mi-hauteur). Dans une précédente étude de l’auto-déconvolution, réalisée avec l’algorithme de Van Cittert régularisé et contraint, nous parvenions à des résultats nettement inférieurs [73]. Avec un SNR de 35 dB, nous n’obtenions qu’un gain de résolution en profondeur (calculé sur la comparaison des FWHM) allant de 4.4 à 4.9 pour la plage de Rp de 10 à 140 Å. En baissant le rapport signal/bruit à 20 dB, ce même gain n’était plus que de 3.2 à 4.5. De plus, toutes les simulations avaient été effectuées avec le critère d’arrêt dxnconv = 2 ⋅10−5 , soit un nombre d’itérations moyen de 10000 pour le rapport signal/bruit de 35 dB. Les performances de l’algorithme de Van Cittert régularisé et contraint sont donc moins bonnes que celles de l’algorithme que nous avons développé dans ce travail dans le cas des structures ultimes. En effet l’algorithme de Van Cittert modifié est fortement régularisant, et même en l’absence du terme de régularisation α D x , il converge vers une solution régulière mais, par rapport à 2 celle que nous obtenons avec notre algorithme dans le domaine de Fourier, plus éloignée de la solution idéale : FWHM (y) Rp = 40 Å, SNR = 35 dB Van Cittert modifié Rp = 40 Å, SNR = 35 dB Méthode avec Modèle Rp = 100 Å, SNR = 20 dB Van Cittert modifié Rp = 100 Å, SNR = 20 dB Méthode avec Modèle FWHM (xconv) gain en FWHM 13 4.8 62 max(y) -10-2 max(xconv) Â-2 gain en max 7.9 5.7 1.4 8 7.8 13.7 9.8 17 5.2 6.2 6.3 8.7 8.8 88 0.99 12 7.3 Les simulations effectuées nous ont permis de cerner les limites de la nouvelle méthode de déconvolution au niveau du gain en résolution en profondeur, ainsi que de la résolution elle-même. 138 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV 8.3 Séparation de deltas-dopage Lorsque deux deltas-dopage sont trop proches, le mixage collisionnel entraîne une superposition des deux couches lors de la mesure. Ce phénomène apparaît lorsque la distance qui les sépare dans l’échantillon est plus petite que la longueur de la DRF. On peut distinguer deux types de superposition des pics mesurés : • Dans un premier cas, on discerne la présence des deux couches grâce aux maxima qui sont bien visibles. On peut alors définir, conformément à ce que nous avons vu I −I dans le premier chapitre, un taux de séparation T = Max Min de départ. La I Max • déconvolution devra ici améliorer ce taux, et au mieux aboutira à la séparation complète des deux couches. Dans le deuxième cas, la mesure ne fait apparaître qu’un seul pic. Selon les conditions de mesure et le niveau de bruit, la déconvolution aboutira ou non à la distinction des deux couches (séparation complète ou partielle). Nous avons simulé des profils contenant deux deltas-dopage séparés d’une distance d égale à 10, 20 et 30 Å, pour une DRF de 40 Å de Rp et un SNR de 35 dB. Chaque profil a été déconvolué avec un paramètre de régularisation de 0.01 puis de 0.1. Dans les trois cas, les couches ne sont pas discernables dans le profil de départ (On notera que pour un Rp de 40 Å, la DRF à un niveau significatif sur environ 250 Å). Là aussi la contrainte de maintien à zéro a été utilisée. Nous présentons brièvement les résultats de chaque déconvolution, réalisées avec 10000 itérations: • d = 10 Å : α = 0.01 : Les couches restent indiscernables tout au long de la déconvolution. Cependant, l’invariance du profil déconvolué nous montre que la convergence a été atteinte et que l’on ne pourra pas obtenir de meilleur résultat au-delà de 2000 itérations (figure 3-44). De plus, même si l’erreur observable est décroissante, l’erreur non observable présente un minimum à l’itération n = 2550, ce qui nous indique que l’algorithme a atteint le meilleur profil déconvolué. α = 0.1 : Là aussi les deux pics restent complètement confondus (ce qui est prévisible puisque l’on régularise plus), et la convergence est atteinte assez rapidement (à 3000 itérations). L’erreur observable augmente à partir de n = 2700. 139 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Figure 3-44 : Déconvolution du couple de Diracs numériques distant de d = 10 Å. Rp = 40 Å, SNR = 35 dB α = 0.01. 0.12 Intensité (u.a) 0.10 0.08 Déconvolution de deux Diracs distants de 10 Å α = 0.01 0.06 n = 1000 n = 5000 n = 10000 0.04 0.02 0.00 35 40 45 50 55 60 65 Profondeur (Å) • d = 20 Å : α = 0.01 : A partir de n = 5000 itérations, les deux pics commencent à se détacher et on peut mesurer un taux de séparation à n = 10000 de 35% (alors qu’il n’est que de 4% à n = 5000). La distance d est encore trop faible pour avoir un découplage total des deux pics. La figure 3-45 nous montre l’évolution du profil déconvolué toutes les 1000 itérations : 0.08 0.07 Intensité (u.a) 0.06 n = 1000 n = 10000 Profil mesuré Déconvolution de deux Diracs numériques distants de 20 Å. α = 0.01 Figure 3-45 : Découplage partiel des deux pics. d = 20 Å, Rp = 40 Å, SNR = 35 dB, α = 0.01. 0.05 0.04 0.03 0.02 0.01 0.00 10 20 30 40 50 60 Profondeur (Å) 140 70 80 90 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV α = 0.1 : Avec ce paramètre de régularisation, les hautes fréquences sont dans l’ensemble plus pénalisées que précédemment et les pics restent indiscernables jusqu’à n = 10000, où un léger creux se forme sur le profil déconvolué. Dans les deux cas, l’erreur observable est décroissante tout au long de la déconvolution. • d = 30 Å : Avec une telle distance les séparant dans le profil réel, les deux pics sont totalement découplés après déconvolution. Le découplage apparaît à n = 1500 pour α = 0.01, et à n = 8500 pour α = 0.1. Le profil déconvolué évolue alors de la même manière que dans le cas d’un simple Dirac. On observe cependant une dissymétrie des pics, variable selon la distribution du bruit (figure 3-46). D’une part la hauteur des pics déconvolués peut être légèrement différente entre l’un et l’autre (quelques pour-cent seulement), et d’autre part le front descendant du premier et le front montant du deuxième sont moins abrupts que les fronts extérieurs. Cette dernière caractéristique suggère que de l’information est perdue localement, à l’endroit où la superposition a eu lieu. Doublet de Diracs: n = 1000 n = 5000 n = 10000 Dirac seul: n = 1000 n = 5000 n = 10000 0.16 0.14 Découplage des deux pics. d = 30, α = 0.01 Intensité (u.a) 0.12 0.10 0.08 0.06 0.04 0.02 0.00 10 20 30 40 50 60 70 80 90 Profondeur (Å) Figure 3-46 : Comparaison de l’amplitude et de la largeur des pics déconvolués avec et sans couplage dans le profil mesuré. 141 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV La figure 3-46 compare le déconvolué du doublet de Diracs avec celui du Dirac seul. L’amplitude des pics n’est pas aussi bien restaurée que dans le cas d’un Dirac seul. Tout se passe comme si la dégradation produite par le système était plus forte. Par suite, à nombre d’itérations égal, on n’obtient pas la même largeur à mi-hauteur, et donc la même résolution. Nous avons testé les capacités de la méthode de déconvolution à séparer deux Diracs en balayant Rp sur une plage allant de 10 à 100 Å, et d de 10 à 40 Å. Toutes les simulations ont été effectuées avec n = 10000 itérations et un rapport signal sur bruit de 35 dB. Sur la figure 3-47 nous avons représenté trois zones reflétant le résultat de la déconvolution : Taux de séparation des deux couches après déconvolution 40 Distance réelle entre les deux couches (Å) Séparation impossible 0 à 39% 35 40 à 59% 30 60 à 79% 80 à 99% 25 Séparation totale 20 15 10 20 40 60 80 100 Profondeur de pénétration des ions (Å) Figure 3-47 : Taux de séparation de deux deltas-dopage en fonction de leur espacement et de la profondeur de pénétration des ions, pour un rapport signal/bruit de 35 dB. • • • Zone rouge : celle-ci regroupe les combinaisons (Rp, d) où la séparation des pics est impossible par déconvolution. Augmenter le nombre d’itérations n’amène aucune amélioration car l’erreur observable atteint un minimum puis est croissante. Zone verte : dans cette zone les couples (Rp, d) sont tels que les pics sont complètement dissociés dans le profil déconvolué. Zone intermédiaire : ici le découplage est partiel. Un nombre plus élevé d’itérations mènerait soit à un découplage total soit à une solution instable. 142 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV Lorsque la DRF est trop large par rapport à la distance d, la convolution (et donc la perte d’informations) est telle que les pics ne sont pas dissociables. On observe alors une stagnation du profil déconvolué, qui ne s’affine plus comme dans le cas d’un Dirac seul. Les contraintes que nous avons introduites dans l’algorithme ne suffisent plus pour déconvoluer correctement, et ce dernier n’est plus convergent. D’autres informations seraient nécessaires. Il faut donc arrêter l’algorithme si l’erreur observable atteint un minimum. Cette figure nous permet de prévoir grossièrement la limite de séparation que l’on peut obtenir en fonction des conditions expérimentales (énergie d’impact ou profondeur de pénétration des ions) à niveau de bruit donné. Les lignes de niveau séparant les deux zones extrêmes apparaissent ici irrégulières à cause du caractère aléatoire du bruit. Des valeurs moyennes prises sur un grand nombre de simulations nous donneraient des courbes plus lisses. En présence de petites structures, une déconvolution locale et l’observation de l’erreur de reconstruction doivent permettre de déceler soit un Dirac, soit une structure gaussienne ou de type créneau, soit deux couches adjacentes. Il serait intéressant aussi de tracer l’évolution du taux de séparation en fonction du niveau de bruit. 9. Conclusion Dans ce chapitre, nous avons tout d’abord défini les caractéristiques minimales que doivent respecter les signaux avant tout traitement numérique. En particulier, il est nécessaire de disposer d’un échantillonnage satisfaisant, c’est-à-dire ayant un pas inférieur à 1 ou 2 Å. Un pas d’échantillonnage supérieur, bien que suffisant pour l’étude des structures larges et à pentes douces, diminuera la fréquence de coupure spatiale du profil, et donc la résolution en profondeur accessible par déconvolution. Nous avons ensuite défini les différents types de profils simulés afin de tester la méthode de déconvolution développée dans ce travail. Un signal-test a été construit, et l’observation des résultats de méthodes de déconvolution non itératives nous ont confirmé la nécessité d’employer des algorithmes itératifs. La méthode de déconvolution dans l’espace de Fourier avec introduction d’un modèle numérique de la solution a été retenue pour sa capacité à intégrer les contraintes dures et l’information contenue dans le modèle. Les performances de cette méthode ont ensuite été évaluées sur différents types de profils : créneaux, gaussiennes, deltas-dopage. Certains auteurs affirment que les méthodes de déconvolution utilisant les transformations de Fourier ne sont pas applicables aux profils SIMS [74]. Malgré le fait que nous obtenions des performances relativement équivalentes à celles d’autres méthodes de déconvolution itératives (maximum d’entropie, algorithme de Van Cittert régularisé et contraint), notre méthode a prouvé son efficacité, en particulier pour les deltas-dopage simulés. Nous avons obtenu, avec l’auto-déconvolution, un gain de résolution en profondeur de 7, que nous pouvons augmenter avec le nombre d’itérations. Enfin, nous avons déterminé les conditions pour que deux Diracs numériques proches et superposés lors de la mesure soient découplés après déconvolution. 143 &KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV 144 &KDSLWUH $SSOLFDWLRQGHOD0pWKRGHGH 'pFRQYROXWLRQDX[3URILOV6,06 ([SpULPHQWDX[0RGpOLVDWLRQGH 3KpQRPqQHV'pJUDGDQWOD 5pVROXWLRQHQ3URIRQGHXU 1. Introduction Nous disposons maintenant d’une méthode de déconvolution que nous allons appliquer à des profils SIMS expérimentaux. Nos essais de déconvolution porteront d’une part sur des mesures effectuées avec notre appareil, le CAMECA IMS3/4f, et d’autre part sur des mesures provenant d’autres laboratoires, faites sur des appareils légèrement différents. Nous aurons aussi à faire face à des problèmes d’ordre expérimental qu’il faudra résoudre avant d’appliquer la déconvolution, sous peine d’obtenir un résultat faussé par les mauvaises données de départ. Lorsque cela n’est pas précisé, les analyses ont été effectuées en ions primaires O2+. 2. Déconvolution d’échantillons « multi deltas-dopage » Nous disposons de trois échantillons comportant un grand nombre de deltas-dopage plus ou moins espacés. La concentration est également variable d’un échantillon à l’autre. Deux d’entre eux nous ont été fournis par l’Université de Warwick (Angleterre), le premier comportant douze deltas-dopage de bore dans du silicium pour une profondeur totale de 10000 Å, et le deuxième en contenant onze. Nous les nommerons respectivement « Warwick 1 » et « Warwick 2 ». Le troisième échantillon a également été fabriqué par l’Université de Warwick, pour J. Bennett [67], et contient seize deltas-dopage. Nous l’appellerons « échantillon Bennett ». 2.1 Déconvolution du multi deltas-dopage Warwick 1. Profil en profondeur à haute énergie d’impact Composition de l’échantillon et conditions de déconvolution La composition supposée réelle de cet échantillon est représentée sur la figure 4-1. 145 Profil réel Warwick 1 bore dans silicium Figure 4-1 : Structure schématique de l’échantillon Warwick 1. 1.0 concentration (u.a) 0.8 0.6 0.4 0.2 0.0 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 11000 Profondeur (Å) Les deltas-dopage contiennent une forte dose de bore et leur analyse par SIMS nous offre une grande dynamique : 100000 Figure 4-2 : Profil en profondeur de l’échantillon Warwick 1. Conditions expérimentales : Ep = 8 keV/O2+, 38.7° d’incidence, soit Rp = 99 Å. Pas d’échantillonnage Te = 2.2 Å. 10000 Intensité (cps) 1000 100 10 1 0.1 0 2000 4000 6000 8000 10000 12000 Profondeur (Å) C’est cet échantillon qui nous a servi à mesurer la DRF du bore dans le silicium à différentes énergies. Des mesures au MET (Microscope à Transmission Electronique) ont été faites sur cet échantillon et nous ont confirmé la bonne qualité des deltas-dopage (de 1 à 3 ou 4 couches d’épaisseur) (figure 4-3). On peut donc considérer que les paramètres de la DRF obtenus à partir de cet échantillon sont valables dans la plage d’énergies que nous avons utilisées. Cette acquisition va donc nous permettre de tester l’auto-déconvolution, mais aussi la séparabilité de deux deltas-dopage adjacents. La figure 4-4 nous montre le résultat de la déconvolution du profil mesuré à 8 keV. Celle-ci a été effectuée avec un paramètre de 146 régularisation α de 1 et 1000 itérations. Nous avons choisi pour α une valeur bien plus élevée que dans les simulations, pour deux raisons : • Dans les simulations, la DRF servant à la déconvolution est strictement la même que celle intervenant lors de la construction du profil mesuré. Avec les profils expérimentaux, la DRF est obtenue en ajustant un delta-dopage dans les mêmes conditions de mesure que le profil. Ni le delta-dopage ni la mesure n’étant parfait, l’ajustement pourra donner des paramètres de DRF λu , λd et σ légèrement différents des paramètres réels. Une légère erreur sur ces paramètres peut donc entraîner la naissance d’artefacts lors de la déconvolution [53]. Une régularisation plus forte atténue ces artefacts. • Les deltas-dopage ne sont jamais parfaits dans un échantillon. Une imperfection ou une légère diffusion des espèces concernées donneront un profil nécessitant une régularisation plus importante que dans le cas de Diracs numériques (voir le chapitre précédent sur la déconvolution de gaussiennes). Figure 4-3 : Photo prise au microscope à transmission électronique de l’échantillon Warwick 1 en coupe. Chaque trait foncé est un delta-dopage. La courbe superposée est le profil SIMS mesuré à 3 keV (représentation logarithmique). 147 Résultat de la déconvolution Le profil déconvolué nous montre une nette amélioration de la résolution en profondeur (figure 4-4). Les deltas-dopage ne font plus que quelques angströms de large, et les pentes exponentielles ont été complètement supprimées. Quant aux quatre premiers pics, qui étaient légèrement superposés lors de la mesure, la déconvolution les a totalement séparés. Profil mesuré 8keV Profil déconvolué - 1000 itérations 100000 Intensité (cps) 10000 1000 100 10 1 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 11000 Profondeur (Å) Figure 4-4 : Comparaison des profils mesuré et déconvolué de l’échantillon Warwick 1 à 8 keV d’impact. α = 1, n = 1000 itérations. Des artefacts apparaissent cependant dans la deuxième partie du profil, là où les couches de bore sont le plus espacées. Ceux-ci ont une amplitude d’environ une à deux décades supérieure à celle du bruit. Leur interprétation peut être trouvée dans la représentation linéaire du profil déconvolué à la première itération (figure 4-5). On voit dès le début de la déconvolution des oscillations générées aux pieds des pics déconvolués. La partie positive de ces oscillations ne sera pas compensée par la contrainte de positivité. Nous les retrouverons donc tout au long de l’algorithme, à moins que leur « pseudo-période » ne varie (comme dans le cas des créneaux), ce qui conduirait à leur élimination progressive par la contrainte de maintien à zéro. Notons aussi que ces oscillations apparaissent avec d’autres méthodes de déconvolution (algorithme de Van Cittert régularisé et contraint, maximum d’entropie). 148 600 y xb miller- 1 Profil déconvolué 500 Intensité (cps) 400 ère Figure 4-5 : Mise en évidence de la naissance des artefacts lors de la déconvolution de deltas-dopage. itération Profil mesuré 300 oscillation positive 200 100 0 -100 2800 2900 3000 3100 3200 3300 3400 3500 3600 3700 3800 Profondeur (Å) L’élément frappant dans le profil déconvolué est l’absence d’artefacts dans la première partie, là où les pics mesurés sont superposés. L’interprétation est quasiment évidente : lorsque les pics se chevauchent, le minimum du signal a une ou deux décades de plus que le minimum détectable. Le rapport signal utile sur bruit est donc localement bien plus fort ici que lorsque les deltas-dopage sont bien séparés à la mesure. On en déduit alors une difficulté de déconvoluer les zones à faible rapport signal/bruit. Cette caractéristique de la déconvolution semble paradoxale puisqu’un profil mesuré où les deltas-dopage se chevauchent légèrement (profil haute énergie) sera déconvolué avec moins d’artefacts qu’un profil mesuré bien résolu (basse énergie). On notera aussi que les oscillations rattachées à un delta-dopage peuvent introduire une erreur sur le delta-dopage voisin. Les FWHM respectives du 5ème pic mesuré et déconvolué sont 88.0 Å et 24.2 Å, ce qui nous donne un gain de résolution en profondeur de 3.6. Reconstruction du profil Le profil reconstruit est quant à lui très satisfaisant, en particulier sur les derniers deltas-dopage (figure 4-6). Les écarts entre le profil mesuré et le reconstruit se situent principalement aux jonctions des pics de concentration. On remarque sur les pics 5 à 10 du profil mesuré un léger renflement au pied de la pente montante, qui diminue avec la profondeur. Ce dernier n’est pas présent sur d’autres mesures faites sur le même échantillon. On peut donc supposer que son origine est purement instrumentale (cratère non plat, rugosités,…), et que la qualité de la reconstruction est par suite moins bonne dans ces zones à très faible signal. Nous pouvons ainsi conclure à un résultat très satisfaisant à la fois pour la mesure, la déconvolution et la reconstruction du profil. 149 Profil mesuré Profil reconstruit 10000 Intensité (cps) 1000 100 10 1 0.1 0 4000 8000 Profondeur (Å) Figure 4-6 : Reconstruction du profil mesuré à partir du profil déconvolué et de la DRF. 2.2 Déconvolution du multi deltas-dopage Bennett. Profil en profondeur à basse énergie Cet échantillon à été fabriqué comme l’indique la figure suivante : 1.2 50 Å 150 Å 100 Å 50 Å 1.0 0.8 0.6 0.4 0.2 0.0 -200 0 200 400 600 800 1000 1200 1400 1600 1800 Profondeur (Å) Figure 4-7 : Structure schématique de l’échantillon Bennett. 150 2000 Il a été analysé sous soufflage d’oxygène et à faible énergie d’impact : 3.75 kV pour la tension primaire et 2.25 kV pour la tension secondaire, ce qui nous donne 1500 eV d’impact pour les ions primaires. Dans ces conditions, le mixage collisionnel est faible mais les pics distants nominalement de 150 Å ne sont pas encore complètement dissociés lors de la mesure à cette énergie. Les cinq premiers deltas-dopage, distants de 50 Å, sont encore largement superposés (figure 4-8). Nous avons effectué la déconvolution dans les mêmes conditions que précédemment (α = 1, n = 1000 itérations puis 10000). Le résultat à n = 1000 est excellent : Profil mesuré 1500 eV Profil déconvolué - 1000 itérations Intensité (cps) 10000 1000 100 10 0 200 400 600 800 1000 1200 1400 1600 1800 2000 Profondeur (Å) Figure 4-8 : Déconvolution de l’échantillon Bennett analysé à 1500 eV. Pas d’échantillonnage Te = 0.4 Å, α = 1, n = 1000 itérations. Tous les pics sont maintenant dissociés, et le gain en résolution en profondeur est de 2.9 pour 1000 itérations, et de 4.75 pour 10000 itérations. Ce gain en résolution est calculé en mesurant la FWHM du 6ème pic, qui n’est plus que de 6.49 Å à la fin de la déconvolution (n = 10000). Le résultat est tout aussi saisissant lorsqu’il est représenté en échelle linéaire : 151 25000 Profil mesuré - 1500 eV Profil déconvolué - 1000 itérations Intensité (cps) 20000 15000 10000 5000 0 0 200 400 600 800 1000 1200 1400 1600 1800 2000 Profondeur (Å) Figure 4-9 : Représentation en échelle linéaire des profils mesuré et déconvolué. Lorsqu’on arrive à des distances aussi petites, il est nécessaire de faire un choix pour la grandeur qui va quantifier exactement la résolution en profondeur. Le 6ème pic de ce profil déconvolué à une largeur à mi-hauteur de 6.49 Å, et son moment centré d’ordre 2 est de 2.13 Å. Considérons un créneau dont la largeur est L : son moment centré d’ordre 2 est L . Ici, le moment centré d’ordre 2 du 6ème pic du profil déconvolué est de 2.13 Å, ce σc = 2 3 qui correspondrait à un créneau de largeur 7.39 Å. On peut comparer ce résultat à la limite ultime qui peut être théoriquement atteinte : pour un échantillon idéalement épitaxié avec une seule monocouche dopée bore, « l’épaisseur » de cette couche correspondrait en fait à deux distances inter-plans pour le silicium (100), c’est-à-dire à 2.72 Å. On constate que malgré tous les phénomènes dégradants liés à l’analyse SIMS, on se rapproche de cette limite avec un facteur d’élargissement de seulement 2.4. Notons que le 1er delta-dopage, qui n’est enterré qu’à 50 Å de profondeur ne devrait pas être pris en compte, puisqu’à cette énergie, il se situe encore à la limite du régime transitoire de l’analyse. Sur le coté gauche des cinq derniers pics, il apparaît des artefacts 152 croissant avec la profondeur. Cette observation nous suggère soit des problèmes d’ordre expérimental (auquel cas la DRF est variante avec la profondeur), soit une dégradation du rapport signal/bruit. Or la représentation logarithmique du profil mesuré nous montre clairement que le rapport signal/bruit est meilleur là où les artefacts apparaissent. Nous supposons donc qu’une dégradation de la qualité de la mesure intervient à partir de 1200 Å et va en augmentant. La DRF est alors légèrement faussée à cette profondeur. L’échantillon a également été analysé à 2,5 keV (7 kV – 4.5 kV), et deux acquisitions distinctes, avec et sans porte électronique limitant la zone analysée, ont été effectuées. La figure 4-10 nous montre les effets des bords de cratère apparaissant sur le profil mesuré sans porte électronique. Profil mesuré avec effets de bord du cratère Profil mesuré sans effets Intensité (u.a) 1 0.1 0.01 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 Echelle arbitraire Figure 4-10 : Comparaison de deux profils mesurés avec et sans porte électronique au niveau de la zone analysée du cratère. Ep = 2500 eV. Dans certains cas, lorsqu’on effectue l’analyse sans porte électronique, des ions provenant des bords du cratère (donc à diverses profondeurs) viennent entacher la détection des ions secondaires. La résolution en profondeur est alors moins bonne en apparence. La figure 4-10 nous montre que la dynamique du signal est plus importante avec la porte électronique (après normalisation des deux profils), la résolution en profondeur est donc meilleure. De plus, l’écart de résolution tend à augmenter avec la profondeur. Dans le profil précédent (1500 eV), les problèmes de bords de cratère sont négligeables dans la 1ère moitié du profil et apparaissent progressivement dans la 2ème moitié, 153 générant des artefacts lors de la déconvolution. Ces affirmations sont confirmées par la déconvolution d’une mesure effectuée à 2350 eV (α = 1, n = 4000 itérations), où aucun artefact n’apparaît, hormis à la fin du profil, où le signal de bore n’est plus que bruit, et entre les deux derniers pics (figure 4-11). Le gain en résolution en profondeur obtenu est ici de 4.33 (calculé sur la FWHM du 5ème pic avant et après déconvolution). Les variations des conditions expérimentales peuvent ainsi être assez bien mises en évidence par les multi deltas-dopage. Avec une déconvolution classique, des artefacts apparaissent et révèlent la présence d’une dégradation des conditions expérimentales. Il serait intéressant de pouvoir les prendre en considération pendant la restauration. Cela nous amène à envisager la déconvolution des profils SIMS où la fonction de résolution en profondeur est variante. Profil mesuré à 2350 eV Profil déconvolué - 4000 itérations Intensité (cps) 10000 1000 100 10 0 200 400 600 800 1000 1200 1400 1600 1800 2000 Profondeur (Å) Figure 4-11 : Déconvolution de l’échantillon Bennett analysé à 2350 eV. α = 1, n = 4000 itérations. 2.3 Gain en résolution en profondeur par déconvolution Le tableau ci-dessous résume les différents gains en résolution et en maximum de concentration obtenus sur les deux échantillons précédents pour différentes énergies d’analyse: 154 Echantillon Ep Bennett 1500 eV Bennett 1500 eV Bennett 2350 eV nconv FWHM(y) FWHM(xconv) gain en FWHM max(y) max(xconv) gain en max 1000 30.8 10.6 2.9 4.1Â3 14.7Â3 3.6 10000 30.8 6.5 4.75 4.1Â3 23.6Â3 5.8 4000 40.8 9.4 4.3 1.0Â4 5.9Â4 5.9 Warwick 1 Warwick 1 Warwick 1 8000 eV 13000 eV 13000 eV 1000 88.0 24.2 3.6 7.4Â4 3.1Â4 4.3 1000 116.8 40.9 2.9 4.4Â4 15.8Â4 3.6 10000 116.8 29.2 4.0 4.4Â4 25.0Â4 5.7 Nous obtenons, par rapport aux simulations du chapitre 3, un gain en résolution en profondeur divisé par deux, sachant que la régularisation est ici beaucoup plus forte, entraînant une diminution de la restauration des plus hautes fréquences. Les résultats sont donc tout à fait satisfaisants. On voit en particulier sur l’échantillon Bennett à 1500 eV, que le gain passe de 2.9 à 4.75 entre 1000 et 10000 itérations. Cette amélioration notable des performances avec le nombre d’itérations est due à la bonne qualité de cette mesure : pas d’échantillonnage faible (Te = 0.4 Å), bon niveau de signal et peu de rugosité. Avec les profils expérimentaux, les performances de la déconvolution sont surtout limitées par les imperfections de la mesure. Mis à part la génération d’artefacts dans les régions à faibles concentrations, les mauvaises conditions expérimentales conduisent soit au développement d’oscillations soit à la stagnation du profil déconvolué. On notera les gains en résolution et en maximum de concentration identiques obtenus pour les profils Bennett à 1500 eV et Warwick 1 à 13000 eV, tous deux déconvolué avec 1000 itérations. 3. Déconvolution de profils quelconques 3.1 Pseudo deltas-dopage (Warwick 2) Cet échantillon, initialement destiné à contenir des deltas-dopage aussi fins que possible, nous a semblé, après avoir été analysé à basse énergie (1500 eV, 2000 eV), être composé de couches de bore de mauvaise qualité. Sa structure schématique est représentée sur la figure 4-12 . Plusieurs analyses à 1500 eV avec soufflage d’oxygène nous ont confirmé la « largeur » relative de ces deltas-dopage, après ajustement par la DRF analytique: λu = 14.9 Å, λd = 21.4 Å, σ = 11.3 Å, soit σtot = 28.4 Å alors que pour l’échantillon Bennett analysé à la même énergie, nous obtenons les paramètres suivants : λu = 3.8 Å, λd = 17.0 Å, σ = 8.1 Å, soit σtot = 19.2 Å 155 Profil réel Warwick 2 bore dans silicium 1.2 50 Å 250 Å Figure 4-12 : Structure schématique de l’échantillon Warwick 2. 500 Å 1.0 Intensité (u.a) 0.8 0.6 0.4 0.2 0.0 0 200 400 600 800 1000 1200 1400 1600 1800 2000 2200 Profondeur (Å) Il ne fait aucun doute que la croissance de cet échantillon n’a pas été aussi bonne que pour les deux précédents. La déconvolution d’un profil effectué à 2500 eV nous confirme ce fait (figure 4-13). Celle-ci a été effectuée avec les paramètres de DRF que nous avons utilisés pour l’échantillon Bennett à 2500 eV. Intensité (cps) 10000 1000 100 Profil mesuré - 2500 eV Profil deconvolué - 200 itérations Profil reconstruit 0 250 500 750 1000 1250 1500 1750 2000 Profondeur (Å) Figure 4-13 : Déconvolution de l’échantillon Warwick 2 analysé à 2500 eV. Les profils mesuré et reconstruit sont pratiquement superposés. α = 1, n = 200 itérations. 156 La première chose qui frappe est le peu de différence entre le profil mesuré et le déconvolué. Dans la représentation linéaire en particulier, on n’observe qu’une suppression partielle de la décroissance exponentielle et de la composante gaussienne du profil mesuré. Profil mesuré - 2500 eV Profil deconvolué - 200 itérations 25000 Intensité (cps) 20000 15000 10000 5000 0 0 250 500 750 1000 1250 1500 1750 2000 Profondeur (Å) Figure 4-14 : Déconvolution de l’échantillon Warwick 2 analysé à 2500 eV. Représentation linéaire. Lorsqu’on regarde l’évolution du profil déconvolué en fonction du nombre d’itérations (figure 4-15), on s’aperçoit que ce dernier ne varie que très peu, ce qui montre que l’algorithme atteint rapidement son point de convergence. Par conséquent, le profil réel de concentration n’est pas aussi fin et abrupt que celui des deux échantillons précédents. La croissance de cet échantillon n’a donc pas été bien maîtrisée. On est donc loin des deltas-dopage de bonne qualité. Aux pieds de chaque pic, on observe des oscillations, très visibles en échelle logarithmique. Celles-ci s’amplifient avec le nombre d’itérations et, puisque le niveau de signal est faible mais non nul dans cette zone, aucune contrainte ou information ne peut être introduite pour les supprimer ou les atténuer (on retrouve le même problème que dans le cas des gaussiennes (voir chapitre précédent)). L’ensemble du profil évoluant très peu après 40 à 60 itérations, il n’est pas nécessaire de continuer l’algorithme au-delà. 157 25000 24000 n = 1000 23000 22500 22000 n = 1000 20000 Intensité (cps) 17500 15000 n = 200 21000 20000 Evolution du profil déconvolué de n = 20 à n = 1000 itérations 19000 n = 20 18000 n = 20 1390 1395 1400 1405 12500 10000 7500 5000 2500 0 1300 1320 1340 1360 1380 1400 1420 1440 1460 1480 1500 Profondeur (Å) Figure 4-15 : Evolution du profil déconvolué, représenté à 20, 80, 140, 200 et 1000 itérations. Enfin, le 1er groupe de cinq deltas-dopage, espacés nominalement de 50 Å, sont superposés à la mesure et le restent après déconvolution. Les acquisitions effectuées à 1500 eV ne donnent aucune amélioration dans la séparabilité des deltas-dopage. Le mixage collisionnel étant la principale source de dégradation de la résolution en profondeur, nous pouvons affirmer que les cinq premiers deltas-dopage ne sont pas distincts dans le profil réel de concentration. La déconvolution nous permet ici de déceler les deltas-dopage de mauvaise qualité. 3.2 Triple marche de concentration à haute et basse énergie L’échantillon que nous allons maintenant étudier à été fabriqué au CNET de Meylan (« échantillon 53 »). Il est constitué d’une première couche de silicium non dopée suivi de trois couches dopées bore à différentes concentrations. Son analyse à 6.5 keV (10 kV – 4.5 kV) ainsi que son profil déconvolué sont représentés sur les figures 4-16 et 4-17 : 158 1400 Profil mesuré - 6500 eV Profil déconvolué - 30 itérations 1200 Intensité (cps) 1000 800 600 400 200 0 0 1000 2000 3000 4000 5000 6000 Profondeur (Å) Figure 4-16 : Analyse SIMS à 6.5 keV et déconvolution du profil de l’échantillon 53. Représentation linéaire. α = 5, Te = 1.58 Å, n = 30 itérations. Profil mesuré - 6500 eV Profil déconvolué - 30 itérations Intensité (cps) 1000 100 10 1 0 1000 2000 3000 4000 5000 6000 Profondeur (Å) Figure 4-17 : Analyse SIMS à 6.5 keV et déconvolution du profil de l’échantillon 53. Représentation logarithmique. 159 Le profil déconvolué est globalement de la même forme que le profil mesuré. A cette énergie d’analyse, la DRF a les paramètres suivants : λu = 10.6 Å, λd = 40.8 Å, σ = 23.9 Å, soit σtot = 48.5 Å Vu les dimensions des structures de cet échantillon, il est normal que peu de différences soient constatées entre le mesuré et le déconvolué. En particulier, les plateaux de concentration, qui font plus de 1000 Å de longueur chacun, sont invariants par la convolution. On observe en fait quelques oscillations sur le profil déconvolué, dues au niveau élevé du bruit dans tout le profil mesuré : le rapport signal/bruit est d’environ 32 dB sur le 1er plateau de concentration. Ce qui est tout de même intéressant dans cet exemple de déconvolution, c’est la réduction de la pente décroissante de chaque palier de concentration. Entre le 1er et le 2ème plateau, la partie au centre de la pente décroissante peut être modélisée par une fonction affine de pente -3.9 cps/Å. Après déconvolution, la pente est un peu plus abrupte (-5.3 cps/Å). Le gain n’est pas énorme mais il nous rapproche de la pente réelle de la concentration entre les deux plateaux. 1400 Profil mesuré Profil déconvolué 1200 Intensité (cps) 1000 800 600 400 200 1250 1300 1350 1400 1450 1500 1550 1600 1650 Profondeur (Å) Figure 4-18 : Détail de la pente de concentration entre les deux premiers plateaux L’échantillon a également été analysé à 2500 eV d’impact, sous soufflage d’oxygène (λu = 1.8 Å, λd = 21.2 Å, σ = 8.4 Å). La comparaison des profils mesuré et déconvolué nous montre que l’analyse donne quasiment le profil réel de concentration du bore : 160 2000 Profil mesuré - 2500 eV Profil déconvolué - 40 itérations 1750 Intensité (cps) 1500 1250 1000 750 500 250 0 0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 5500 6000 Profondeur (Å) Figure 4-19 : Résultat de la déconvolution de la triple marche de concentration analysée à 2500 eV. Les profils mesuré, déconvolué et reconstruit (non représenté) sont identiques, au bruit près et sans tenir compte du transitoire. Te = 1.2 Å, α = 5, n = 40. La pente reliant les deux premiers plateaux est identique à celle du profil déconvolué à 6500 eV. Si on normalise les profils issus de cette analyse de façon à les comparer à ceux effectués à 6500 eV, la valeur de la pente est après déconvolution de -5.4 cps/Å, que l’on peut comparer à la valeur -5.3 cps/Å pour le profil déconvolué à 6500 eV. Les principales remarques que l’on puisse faire sur un tel échantillon sont les suivantes : Le profil de concentration de bore ne comporte pas d’interfaces abruptes. Le front descendant entre les deux premiers plateaux s’étend sur 250 Å, alors que le σtot de la DRF est de 48.5 Å à 6500 eV et de 22.9 Å à 2500 eV. Bien que le mixage collisionnel ait lieu, comme dans toute analyse SIMS, le profil de concentration des plateaux reste inchangé. Les interfaces de cet échantillon sont peu affectées, étant donné leur faible pente. En dessous d’une certaine énergie d’impact, située entre 2500 et 6500 eV, le profil mesuré est pratiquement identique aux profils déconvolué et réel. La déconvolution est donc inutile et n’apporte que des oscillations parasites dues au fort niveau de bruit, en particulier sur le 1er plateau. 161 3.3 Créneaux de concentration « étroits » Cet échantillon a été fabriqué par SIEMENS AG (Münich) et est composé de deux créneaux de concentration de 100 Å de bore dans du silicium, séparés par 100 Å de silicium non dopé. Les concentrations respectives du 1er et 2ème créneau sont 1019 et 3Â18 at/cm3. Une première mesure à 5.5 keV/02+, correspondant à une profondeur de pénétration de 73 Å, a été effectuée. Les paramètres de la DRF sont λup = 10.7 Å, λdown = 37.6 Å, σ = 22.5 Å. La zone de régime transitoire, avec une telle profondeur de pénétration, s’étend sur environ 140 Å. La 1ère couche de bore étant nominalement située à 100 Å de profondeur, nous émettrons des réserves sur le résultat de la déconvolution, au niveau du front montant du 1er créneau. Les profils mesuré, déconvolué et reconstruit sont représentés sur la figure 4-20 : Profil mesuré - 5.5 keV Profil déconvolué - 60 itérations Profil reconstruit 3000 Intensité (cps) 2500 2000 1500 1000 500 0 0 100 200 300 400 500 600 700 800 Profondeur (Å) Figure 4-20 : Déconvolution de l’échantillon SIEMENS. Ep = 5.5 keV/02+, Rp = 73 Å, Te = 2.1 Å. Déconvolution effectuée avec n = 60 itérations, α = 5. Représentation linéaire. Là aussi la reconstruction est parfaite (sans tenir compte du transitoire). L’amélioration apportée par cette déconvolution porte principalement sur l’affinement et la séparation totale des deux structures. La forme supposée originale n’est pas restaurée de manière satisfaisante. Nous retrouvons cependant l’allure du profil déconvolué d’un créneau de concentration que nous avons simulé dans le chapitre précédent, où les dimensions de la DRF sont du même ordre que celles du créneau. Pour le 1er pic, le gain apparent en concentration relative est de 30%, sachant qu’il est surestimé au niveau du maximum (voir les simulations du chapitre 3). Etant donné que ce n’est pas une couche mince que l’on mesure, et qu’on attend par conséquent le profil d’une 162 structure relativement large, on doit comparer non pas les largeurs à mi-hauteur mais les largeurs à la base de chaque structure (figure 4-21). Ainsi, en prolongeant artificiellement la pente décroissante du 1er créneau mesuré de façon à ce qu’elle ait la même allure que celle du 2ème créneau, on a une largeur de base d’environ 330 Å. Après déconvolution, elle n’est plus que de 180 Å, c’est-à-dire qu’on obtient une réduction de près de 45%. Profil mesuré - 5.5 keV Profil déconvolué - 60 itérations Profil reconstruit Intensité (cps) 1000 100 330 Å 180 Å 10 0 100 200 300 400 500 600 700 800 Profondeur (Å) Figure 4-21 : Mise en évidence de la réduction de la largeur à la base des créneaux. Un renflement apparaît sur la pente descendante du 2ème pic. Nous ne pouvons pas certifier que c’est un artefact, et son déplacement vers la gauche au cours de l’algorithme nous rappelle l’éventualité d’une dose mal redistribuée par la déconvolution (voir les simulations sur les gaussiennes et les structures masquées par la décroissance exponentielle). Nous avons une autre analyse de cet échantillon effectuée à 1 keV d’impact (3 kV – 2 kV), mais avec des ions primaires xénon et sous soufflage d’oxygène. Nous rappelons que le soufflage est indispensable dans ce cas, l’oxygène permettant l’oxydation des premières couches et donc un taux d’ionisation acceptable. A cette énergie d’analyse, et sachant que le profil ne contient pas de deltas-dopage, on peut espérer avoir un profil mesuré assez proche du profil réel. Les paramètres de la DRF sont ici λup = 16.9 Å, λdown = 18.1 Å, σ = 6.4 Å. Ils sont tirés de l’ajustement d’un delta-dopage analysé dans les mêmes conditions expérimentales. Sur la figure 4-22, on remarque le peu d’amélioration apporté par la déconvolution, effectuée avec un α égal à 5 et 40 itérations. Les pentes exponentielles sont 163 assez bien restaurées, mais l’imprécision de la mesure (pas d’échantillonage égal à 2.6 Å, niveau de bruit élevé) ne nous permet pas de restaurer, s’il en contient, les hautes fréquences du profil réel. 900 Profil mesuré - 1 keV Profil déconvolué - 40 itérations Profil reconstruit 800 700 Intensité (cps) 600 500 400 300 200 100 0 0 50 100 150 200 250 300 350 400 450 500 550 600 Profondeur (Å) Figure 4-22 : Déconvolution de l’échantillon SIEMENS analysé à 1 keV sous faisceau d’ions xénon. Te = 2.6 Å, α = 5, n = 40 itérations. Représentation linéaire. Il apparaît évident que les deux structures ne sont pas réellement des créneaux, leur « plateau » révélant un fort gradient positif. Nous retrouvons de part et d’autre du 2ème pic un renflement dont l’origine est difficile à interpréter. Les déconvolutions avec contrainte de positivité ou de maintien à zéro donnent sensiblement le même résultat. 3.4 Déconvolution d’un créneau à basse énergie. Invariance du profil déconvolué Nous avons un autre échantillon contenant un créneau de bore dans du silicium (« échantillon 63 »), dont la largeur est environ 100 Å et sa distance par rapport à la surface d’environ 500 Å. Les conditions expérimentales sont les mêmes les suivantes : Ep = 1500 eV avec soufflage d’oxygène. Nous avons vu dans le précédent chapitre les simulations concernant les créneaux de faible largeur. L’allure de leur profil mesuré est très proche de celle de la DRF, en particulier à haute énergie, et leur déconvolué est symétrique. Ici, à basse énergie, les défauts de croissance de la couche commencent à apparaître : la partie supérieure gauche du profil mesuré révèle un gradient de concentration similaire à celui présent dans 164 l’échantillon SIEMENS. La figure suivante nous montre la proximité des profils mesuré et déconvolué : 2500 Profil mesuré 1500 eV Profil déconvolué 40 itérations 2250 2000 Figure 4-23 : Déconvolution de l’échantillon 63 analysé à 1500 eV sous soufflage d’oxygène. Te = 1.7 Å, α = 5, n = 40 itérations. Intensité (u.a) 1750 1500 1250 1000 750 500 250 0 100 200 300 400 500 600 700 800 Profondeur (Å) De toute évidence, la déconvolution n’apporte pas de réelle amélioration par rapport à la mesure brute, si ce n’est une légère correction du front descendant du créneau, qui se traduit par une petite augmentation de la dose dans le haut du créneau. A mi-hauteur, la largeur du créneau (mesuré ou déconvolué) est d’environ 130 Å alors qu’à la base elle est de 200 Å. Figure 4-24 : Représentation logarithmique du profil déconvolué de l’échantillon 63. Intensité (u.a) 1000 100 10 Profil mesuré 1500 eV Profil déconvolué 40 itérations 100 200 300 400 500 600 700 800 Profondeur (Å) La structure est donc plus étendue que prévu et ici, la déconvolution nous permet de confirmer d’une part la trop grande largeur du créneau par rapport à la largeur nominale, et 165 d’autre part la présence de traînées exponentielles (voir la représentation logarithmique cidessus) qui polluent les fronts du créneau. On notera que si la déconvolution n’apporte pas d’amélioration par rapport à la mesure, elle n’est pas néfaste, et elle s’apparente à un lissage du profil mesuré. 3.5 Déconvolution d’un échantillon « bi-delta ». Profil fortement bruité Cet échantillon (n° 51) contient deux couches minces de bore nominalement séparées de 80 Å. Une première analyse sous faisceau d’oxygène a été effectuée à 5.5 keV sans soufflage. La faible concentration de bore entraîne un mauvais rapport signal/bruit sur tout le profil, que nous avons estimé à environ 20.9 dB. La figure suivante nous montre les relatives améliorations apportées par la déconvolution dans de telles conditions : 500 400 Intensité (cps) Figure 4-25 : Déconvolution de l’échantillon 51 analysé sans soufflage à 5.5 keV. Te = 1.7 Å, SNR = 20.9 dB, α = 1, n = 300 itérations. Profil mesuré 5500 eV Profil déconvolué 300 itérations Profil reconstruit 300 200 100 0 100 200 300 400 500 600 700 800 Profondeur (Å) Comme pour la plupart des échantillons analysés avec notre appareil CAMECA IMS3/4f, la calibration en profondeur a été effectuée par une mesure de profilométrie mécanique. Après déconvolution, les maxima des deux pics sont distants de 95 Å, au lieu des 80 Å attendus. Les largeurs à mi-hauteur des 1er et 2ème pics déconvolués sont respectivement de 41 et 48 Å, alors que dans le profil mesuré, ces derniers sont largement superposés (on ne distingue pas de minimum entre les deux structures). On observe aussi d’importants artefacts de part et d’autre des deux couches déconvoluées. Celles-ci trouvent certainement leur origine dans le mauvais rapport signal/bruit du profil mesuré, et la méthode de déconvolution n’est pas assez discriminante dans la répartition de la concentration au niveau des pentes exponentielles. En prolongeant l’algorithme jusqu’à 5000 itérations, nous n’avons noté aucune amélioration dans la finesse des couches déconvoluées, mais simplement un léger décalage 166 des artefacts vers l’intérieur du profil. Le profil reconstruit est quant à lui parfaitement superposé au profil mesuré, au bruit près. Une analyse à plus faible énergie (1500 eV) a été effectuée sur cet échantillon, avec soufflage d’oxygène. La séparation des couches est encore partielle, mais nettement meilleure qu’à 5500 eV. D’autre part, le soufflage d’oxygène durant l’analyse a permis un taux d’ionisation supérieur à celui de l’analyse précédente, et a par conséquent amélioré le rapport signal/bruit du profil mesuré. Sur la figure 4-26, on constate l’amélioration de la résolution en profondeur apportée par la déconvolution, avec cependant une impossibilité à séparer les deux couches, contrairement à la déconvolution précédente : 10000 Figure 4.26 : Déconvolution de l’échantillon 51 analysé à basse énergie. Ep = 1500 eV, Te = 0.532 Å, α = 5,n = 100 itérations. Intensité (cps) 1000 100 Profil mesuré - 1500 eV Profil déconvolué 100 itérations Profil reconstruit 10 100 200 300 400 500 600 700 Profondeur (Å) La largeur à mi-hauteur des pics est de 35 et 40 Å avant déconvolution, et de 28 Å pour les deux après déconvolution. On retrouve le même artefact situé après le 2ème pic, avec une amplitude bien moindre que dans l’analyse à 5500 eV, et il a lui-même une pente descendante se rapprochant du profil mesuré. Par contre, à gauche du 1er pic, on n’a pas d’artefacts, mais un profil déconvolué qui suit le profil mesuré sur une pente montante exponentielle, jusqu’à une trentaine d’angströms avant le pic lui-même, où on trouve une oscillation parasite. Au milieu des deux pics déconvolués, on trouve là aussi un artefact (contrairement à la déconvolution précédente). Si on suppose que la croissance des deux couches était du même type pour les deux, alors on peut penser que la pente montante exponentielle que l’on voit à gauche du 1er pic existe aussi à gauche du 2ème. Celle-ci entraînerait alors la superposition des deux couches dans le profil réel de concentration, et donc l’impossibilité de les séparer à faible énergie d’analyse et par déconvolution. C’est ce qu’on observe dans cette étude à 1500 eV, plus fiable que celle à 5500 eV, où l’on a un signal très bruité et un pas d’échantillonnage trois fois plus grand. 167 4. Déconvoluer avec une DRF variante. Correction de l’échelle des profondeurs 4.1 Sources de variations de la DRF On peut envisager principalement deux causes de dégradation de la résolution en profondeur lors d’une acquisition : l’érosion non uniforme du cratère, et la variation du courant ionique primaire. Nous allons brièvement étudier ces deux phénomènes. Erosion non uniforme du cratère • Développement de rugosités Leur origine est physico-chimique, et elles peuvent être de l’ordre du nanomètre ou du micromètre. Celles-ci peuvent être de plus en plus importantes avec la profondeur d’érosion. La sonde ionique « voit » alors non pas une couche atomique parallèle à la surface de l’échantillon, mais plusieurs couches en même temps : Rugosités Figure 4-27 : Lorsque des rugosités se développent au fond du cratère, plusieurs couches sont concernées par l’érosion. Il existe plusieurs types de rugosités (vagues, îlots, etc..), mais on peut dans un premier temps, pour la déconvolution, supposer qu’elles sont uniformes sur le fond du cratère. La sonde ionique érode alors plusieurs couches en même temps, indépendamment du mixage collisionnel, dont l’effet est à additionner à celui des rugosités. Une première approximation peut être faite en modélisant l’influence des rugosités par une gaussienne que l’on convoluera à la DRF initiale, ce qui nous donnera une nouvelle réponse impulsionnelle tenant compte des rugosités. Le paramètre de cette gaussienne est généralement croissant avec la profondeur, et son évolution peut être mesurée à partir du fittage des deltas-dopage. En fait, l’incidence du faisceau primaire conduit souvent au développement de « ripples » (vagues), dont la profondeur d’apparition, la forme et l’amplitude dépendent des nombreux paramètres expérimentaux (angle d’incidence, énergie d’impact, pression d’oxygène,…) [54]. Les rugosités entraînent non seulement une dégradation de la résolution en profondeur, mais aussi une variation du taux d’ionisation et de la vitesse d’érosion. L’angle d’incidence et la pression d’oxygène (soufflage) influencent fortement la formation et l’évolution des rugosités [55] [56]. 168 • Inclinaison ou bombement du cratère Un autre problème instrumental courant dégrade la résolution en profondeur : le balayage non uniforme de la zone érodée façonne le fond du cratère en forme de plan incliné ou de cuvette. Comme dans le cas des rugosités, il en résulte une fonction « parasite » que l’on doit convoluer à la DRF initiale. Un balayage de la zone érodée non uniforme dans le temps, mais aussi une défocalisation de la sonde, dépendant du point d’impact du faisceau, peuvent entraîner une érosion plus importante sur l’un des cotés du cratère. Il en résulte par exemple une inclinaison suivant l’un des axes du cratère au cours de l’analyse, où l’angle avec la surface augmente avec la profondeur d’érosion. La figure suivante montre que là aussi plusieurs couches sont analysées simultanément lorsqu’on a une inclinaison de cratère : L Figure 4-28 : A l’instant t, plusieurs couches sont concernées par l’érosion lorsque le cratère est incliné. McPhail et Dowsett ont proposé une modélisation générale de l’influence de la nonplanéité du cratère [57]. La complexité de l’évolution des paramètres et la diversité des configurations possibles (conditions expérimentales, espèces présentes dans la matrice) nécessiteraient une étude spécifique aboutissant, si cela est possible, à la fonction « parasite » se greffant à la DRF initiale. On peut cependant prévoir un élargissement de la DRF, croissant avec la profondeur et résultant de la convolution de cette fonction parasite avec la DRF initiale. Une modélisation simple consisterait à choisir une fonction « porte » de largeur L (intégration de la contribution de chaque couche érodée simultanément sur la profondeur L). Dans le cas d’un cratère bombé (concavité tournée vers le haut ou vers le bas), on aurait une fonction parasite asymétrique. Variation du courant ionique primaire La stabilité du spectromètre n’est pas toujours garantie, en particulier lors d’une analyse longue en temps (plusieurs heures selon la vitesse d’érosion et la profondeur à analyser). Il arrive que le courant primaire dérive et influence la vitesse d’érosion de l’échantillon. La linéarité entre le temps d’analyse et la profondeur érodée n’est alors plus assurée. Sur un multi deltas-dopage, cela se traduit par un élargissement ou au contraire un affinement des pics avec la profondeur. L’échelle des profondeurs n’est plus valable et il est nécessaire de la corriger. La correction peut être faite en suivant la variation des signaux de 169 matrice et en modifiant chaque incrément de temps de telle sorte que le signal de matrice considéré garde la même dose par incrément sur tout le profil [N. Baboux, communication personnelle]. Le pas d’échantillonnage temporel n’est plus constant et il est nécessaire de rééchantillonner le profil avant tout traitement numérique. Notons aussi que la présence de rugosités peut influencer la vitesse d’érosion, et dans ce cas il faut aussi corriger l’échelle des temps (ou des profondeurs). 4.2 Essai de déconvolution d’un profil mesuré où la DRF est variante Cette partie du travail ne prétend qu’aborder le sujet de la déconvolution de profils SIMS acquis dans des conditions expérimentales où certains paramètres varient. La mise en œuvre de la déconvolution « variante » (ce qui est un abus de langage puisque l’opérateur de convolution est par définition invariant) n’est pas possible dans l’espace de Fourier. Nous utiliserons donc la méthode de déconvolution par l’algorithme de Van Cittert avec régularisation de Miller et contraintes dures [2], où nous introduirons une réponse impulsionnelle hn dont les paramètres varient avec la profondeur z (ou l’indice n). Il en résulte une matrice H légèrement différente de la matrice de Toeplitz, où la ligne n contient les éléments de hn ordonnés de la même manière que la matrice de Toeplitz classique : h0, 0 h1,1 hN −1, N −1 H = h h 0 0 0 0 0 h1, 0 h2,1 hN h , N h −1 0 0 0 0 0 h2, 0 hNh −1,1 0 0 0 hNh −1, 0 hN h ,1 hN x −1, N h −1 0 N lignes y hN x , Nh −1 0 0 0 hN h , 0 (4.1) N x colonnes ♦ Note sur la position des deltas-dopage : Jusqu’ici, nous n’avons pas tenu compte de la position réelle des deltas-dopage. Nous avons vu dans le 1er chapitre qu’il y a une incertitude sur les positions relatives du pic initial et du pic mesuré. De plus, le décalage du profil mesuré apporté par le transitoire n’est pas quantifié. Le « shift » total du profil mesuré résultant est donc mal connu mais il est constant dans tout le régime permanent, ce qui permet d’effectuer la déconvolution en choisissant arbitrairement la position de la DRF, puis d’ajuster « visuellement » les profils mesuré et déconvolué. Ici, la DRF est variante et son barycentre, qui approche au mieux la position réelle du delta-dopage initial s’éloigne de son maximum lorsque la profondeur augmente. Il est donc nécessaire de choisir le barycentre comme référence commune à toutes les DRF pour 170 chaque profondeur z. Si on ne procède pas de cette manière, le profil déconvolué aura une échelle des profondeurs « compressée » vers les z négatifs. Nous disposons de profils en profondeur de l’échantillon Warwick 1 où le cratère à été érodé de manière non uniforme (figure 4-29). Nous étudions le profil dont les conditions expérimentales étaient les suivantes : énergie d’impact Ep = 1750 eV, angle d’incidence α = 49°, pas d’échantillonage Te = 2.2 Å. Figure 4-29 : Mesure de profilomètrie du cratère avec un appareil de type ALPHASTEP. Nous nous contenterons de déconvoluer les quatre premiers pics du profil. En effet le reste du profil étant trop dégradé, nous n’avons pas pu déterminer correctement le type de la fonction à convoluer avec la DRF initiale. Les paramètres de la DRF variante ont dans ce cas précis été tirés du fittage des deltas-dopage mesurés, et nous supposons que leur variation suit une loi affine : Pic 1 : λu = 6.8 Å, λd = 29.0 Å, σ = 12.8 Å Pic 4 : λu = 8.7 Å, λd = 70.0 Å, σ = 18.3 Å Le résultat de la déconvolution (200 itérations) est représenté sur la figure 4-30 : Profil mesuré - 1750 eV Profil déconvolué - 200 itérations Profil reconstruit Figure 4-30 : Résultat de la déconvolution de l’échantillon Warwick 1 avec réponse impulsionnelle variante. α = 10-4, n = 200 itérations. Intensité (cps) 10000 1000 100 10 1 0 250 500 750 1000 1250 1500 Profondeur (Å) 171 1750 2000 2250 2500 Le résultat est satisfaisant, bien que la reconstruction ne soit pas aussi bonne que dans le cas où la DRF est constante. Il n’y a pas d’artefacts hormis dans la zone du transitoire, qui est à exclure de l’interprétation des résultats. On remarque, malgré l’ajustement du barycentre de chaque DRF hn, un glissement vers la droite du maximum de chaque pic déconvolué par rapport au maximum mesuré correspondant. Il est donc clair que le barycentre de la réponse impulsionnelle réelle qui a convolué le profil réel ne correspond pas au barycentre de la DRF classique que nous avons utilisée pour cette déconvolution. Nous avons donc à chaque profondeur z un décalage du barycentre de la DRF hn simulée par rapport à celui de la réponse impulsionnelle réelle. Le barycentre étant une bonne approximation de la position réelle du delta-dopage, et la déconvolution conduisant à un profil très fin, il s’ensuit un décalage des pics déconvolués, croissant avec la profondeur. Cet écart entre les barycentres réels et simulés vient de l’asymétrie de la fonction parasite se greffant à la DRF initiale, et qui n’a pas été prise en compte. Il serait intéressant de poursuivre cette étude en modélisant les fonctions de dégradation les plus couramment rencontrés en SIMS (cratères inclinés, bombés, rugosités) et d’ajuster leurs paramètres en fonction de l’observation du cratère final et du fittage des deltasdopage à diverses profondeurs. 5. Conclusion Dans ce chapitre, nous avons appliqué la méthode de déconvolution que nous avons développé au cours de ce travail à des profils de bore dans du silicium. Différents types de profils et conditions expérimentales ont été étudiés. Nous avons ainsi pu quantifier le gain en résolution en profondeur à l’aide de deltas-dopage, et les autres structures nous ont permis de voir l’intérêt de la déconvolution selon leurs caractéristiques et l’énergie d’analyse. L’étude des échantillons contenant des deltas-dopage nous a permis de dégager les conclusions suivantes : • A haute énergie aussi bien qu’à basse énergie, le gain en résolution en profondeur obtenu par déconvolution est de l’ordre de 3 à 5. • Nous avons obtenu la meilleure résolution en profondeur avec le profil d’un échantillon analysé à 1500 eV puis déconvolué, et elle est de 7.4 Å. • La déconvolution permet la mise en évidence des deltas-dopage de mauvaise qualité, notamment par l’invariance relative du profil déconvolué et sa proximité avec le profil mesuré. Nous avons ensuite appliqué la méthode de déconvolution à des profils de type « marche de concentration ». Nous avons ainsi pu constater que la déconvolution est surtout utile à haute énergie pour les structures de grandes dimensions. A basse énergie, l’amélioration est moins sensible. En revanche, elle permet de se rapprocher de la forme présumée des créneaux de plus petites dimensions, notamment en restaurant les dimensions de leur base. 172 Enfin, nous avons déconvolué un profil fortement bruité et contenant deux deltasdopage proche. La comparaison du résultat de la déconvolution avec une analyse du même échantillon à basse énergie nous a montré que l’on pouvait être amené à surestimer la qualité de couches dopées si on applique la déconvolution à des profils très bruités ou ayant un échantillonnage insuffisant. 173 &RQFOXVLRQ*pQpUDOH Cette étude portait sur l’amélioration de la résolution en profondeur en analyse SIMS, et de manière plus générale, sur la restauration d’informations à partir des profils de concentration en profondeur au moyen de techniques de déconvolution. Nous nous sommes limités au cas du bore dans le silicium. Notre approche du problème a débuté par une description de la technique d’analyse par SIMS ainsi que des mécanismes responsables de la dégradation de la résolution en profondeur. L’observation des profils de concentration mesurés, en particulier les deltasdopage, a conduit à une modélisation semi-empirique mais simple du mixage collisionnel, considéré comme principal responsable de la dégradation de la résolution. La fonction de résolution trouvée devient ainsi la réponse impulsionnelle du système de mesure, dont la connaissance est essentielle à la mise en œuvre de la déconvolution. Nous avons ensuite exposé les bases des techniques de restauration d’informations, et plusieurs méthodes de déconvolution ont ainsi été présentées. Au cours de ce travail, nous avons développé un algorithme de déconvolution intégrant plusieurs types d’informations, contraintes dures et contraintes douces, mais aussi un modèle numérique de la solution recherchée. Ce moyen original d’apporter de l’information au système se révèle être un outil puissant si le modèle est bien choisi. En analyse SIMS, le modèle est un profil issu d’une déconvolution précédente. Notre étude s’est poursuivie par la déconvolution de profils simulés de différentes formes et plus ou moins dégradés. L’étude des deltas-dopage simulés nous a permis de cerner les performances ultimes de notre méthode de déconvolution. Nous avons ensuite appliqué la déconvolution à des profils expérimentaux, ce qui nous a permis de tester ses performances dans des conditions où les facteurs expérimentaux entrent en jeu. • • • Les principaux éléments qui ressortent de ce travail sont les suivants : Dans le cas des simulations et avec des conditions opératoires se rapprochant au maximum de celles de l’analyse SIMS, le gain en résolution en profondeur atteint est d’au moins 7. Ce gain est mesuré à partir des largeurs à mi-hauteur de deltas-dopage simulés puis déconvolués. Avec les profils expérimentaux de deltas-dopage, le gain en résolution est de 3 à 4, sachant que d’autres facteurs (instabilité des paramètres instrumentaux, topographie du cratère, échantillons imparfaits) ont imposé une régularisation plus importante. Dans la plupart des profils, les pentes exponentielles ayant pour origine le mixage collisionnel sont pratiquement supprimées, alors que « l’élargissement des structures », à caractère gaussien, est plus ou moins corrigé en fonction du nombre d’itérations effectuées lors de la déconvolution. Nous avons également dégagé une relation simple donnant la distance minimale entre deux couches minces, en fonction de la profondeur de pénétration des ions primaires, pour que la déconvolution puisse arriver à leur distinction complète. 175 • Quelle que soit l’énergie d’analyse et donc le niveau de dégradation du profil réel de concentration, le gain de résolution en profondeur est toujours du même ordre, c’est-à-dire que même en utilisant les performances ultimes de l’analyseur ionique, la déconvolution apporte un gain de résolution en profondeur appréciable. • La plupart des méthodes déconvolution (la nôtre y compris) conduisent à la formation d’oscillations ou d’artefacts qui apparaissent sur les profils déconvolués. Leur origine est le manque d’informations sur la répartition locale de la dose, diluée par le mixage collisionnel et entachée d’une composante de bruit non négligeable. Selon les contraintes appliquées, ces artefacts pourront ou non disparaître au cours de l’algorithme. Nous avons pu cependant remarqué que si l’artefact se déplaçait à chaque itération, il pouvait révélé une mauvaise répartition de la dose par la méthode de déconvolution, ou alors une structure existante dans le profil réel de concentration mais complètement masquée lors de la mesure. Dans ces deux cas il convient de ne pas supprimer arbitrairement cet artefact et de considérer que le prolongement (en théorie) de l’algorithme à l’infini le replacerait au bon endroit dans le profil déconvolué. L’étude expérimentale du bi-delta nous a permis de voir que le résultat d’une déconvolution était très dépendant de la qualité de la mesure. L’analyse à haute énergie, faible échantillonnage et bruit élevé conduit à un profil déconvolué relativement oscillant, avec une grande incertitude sur l’interprétation des artefacts. La mesure à basse énergie, échantillonnage satisfaisant et faible bruit révéle la présence de gradients de concentration faibles, qui sont conservés dans le profil déconvolué, lequel est rapidement stabilisé au cours de l’algorithme. Cet exemple illustre le fait qu’une déconvolution doit toujours être subordonnée à une analyse de bonne qualité : échantillonnage suffisant, bruit aussi faible que possible, paramètres instrumentaux constants. Les deltas-dopage sont plus faciles à déconvoluer, en terme de quantité d’oscillations générées, que les structures de type marches de concentrations. Nous avons vu que ce phénomène s’explique par la quantité d’informations apportée par les contraintes dures : un profil de deltas-dopage bénéficie d’une contrainte de positivité qui aura une action efficace sur une grande proportion du profil, alors que cette même contrainte n’aura aucune influence au niveau du plateau d’un créneau de concentration. • • Nous avons évoqué et testé la déconvolution avec une réponse impulsionnelle variante, applicable par exemple dans le cas de développement d’une topographie sur le fond du cratère. Cette étude mérite d’être approfondie, puisque selon les conditions d’analyse, en particulier à très basse énergie, les rugosités et inclinaisons de cratère sont très courantes. Dans ce cas relativement simple, la réponse impulsionnelle du système est légèrement différente à chaque profondeur. On pourrait maintenant envisager l’étude de la variation de la réponse impulsionnelle dans le régime transitoire de l’analyse. Cette étude soulèverait bien des problèmes puisque les mécanismes de l’analyse SIMS sont mal connus dans le régime transitoire. Si ces phénomènes pouvaient être modélisés par des simples variations de la DRF en début d’analyse, moyennant une correction des échelles des profondeurs et des 176 concentrations, on pourrait appliquer la déconvolution « variante » de la même façon que pour les variations de topographie. Nous savons que la déconvolution est très efficace dans la restauration des pentes exponentielles, et l’est moins dans celle de l’élargissement (composante gaussienne de la DRF). Un profil mesuré à basse énergie est plus proche du profil réel qu’un profil mesuré à haute énergie. De même, la déconvolution doit nous permettre de nous rapprocher du profil réel, sachant que le résultat ne sera pas équivalent à une mesure à plus faible énergie. Dans le cas où la mesure ne dégrade pas vraiment le profil réel (profils lisses ou structures larges à basse énergie), la déconvolution n’apporte pas d’amélioration visible, mais elle n’est pas néfaste puisqu’elle ne change pas le profil, si ce n’est qu’elle effectue un lissage de la courbe correspondante. 177 5pIpUHQFHV [1] Prudon G., Etude de la sensibilité et de la résolution en profondeur lors de l’analyse par SIMS. Application à la silice et au silicium. Thèse de Doctorat : INSA de Lyon, 1990. 299 p. [2] Gautier B., Etude de la résolution en profondeur lors de l’analyse par SIMS. Détermination de la fonction de résolution pour le bore dans le silicium, mise au point d’une procédure de déconvolution et applications. Thèse de Doctorat : INSA de Lyon, 1997. 231 p. [3] Vandervorst W., Alay J. Brijs B. De Coster W., Elst K., Depth profiling with oxygen beams, In : International Conference on Secondary Ion Mass Spectrometry 1993 : Yokohama, Japan (SIMS IX), A. Benninghoven ed. New York : Wiley, 1994, p 599-607 [4] Collins R., On the collective current concept in the theory of atomic mixing, Nuclear Instruments and Methods for Physic Research, 1984, vol B 2, p 809-813 [5] Clegg J.B., Game I.G., SIMS profile simulation using delta function distributions, Surface and Interface Analysis, 1991, vol 17, p 190-196 [6] Smirnov V.K., Simakin S.G., Potapov E.V., Makarov V.V., SIMS depth profiling of deltadoped layers in silicon, Surface and Interface Analysis, 1996, vol 24, p 469-475 [7] Petravic M., Elliman R.G., Williams J.S., Recoil mixing in SIMS profiling of thin buried layers, In : International Conference on Secondary Ion Mass Spectrometry 1991 : Amsterdam, The Netherlands (SIMS VIII), A. Benninghoven ed. New York : Wiley, 1992, p 367-370 [8] Petravic M., Svensson B.G., Williams J.S., On the estimation of depth resolution during sputter profiling, Journal of Applied Physic, 1993, vol 62, n°3, p 278-280 [9] Magee C.W., Honig R.E., Depth profiling by SIMS : depth resolution, dynamic range and sensitivity, Surface and Interface Analysis, 1982, vol 4, n°2, p 35-41 [10] Herzel F., Ehwald K.E., Heunemann B., Krüger D., Kurps R., Röpke W., Zeindl H.P., Deconvolution of narrow Boron SIMS depth profiles in Si and SiGe, Surface and Interface Analysis, 1995, vol 23, p 764-770 [11] Dowsett M.G., Rowlands G., Allen P.N., Barlow R.D., An analytic form for the SIMS response function measured from ultra-thin impurity layers, Surface and Interface Analysis, 1994, vol 21, p 310-315 [12] Zalm P.C., Ultra shallow doping profiling with SIMS, Rep. Prog. Phys., 1995, vol 58, p 1321-1374 [13] Wilson R.G, Stevie F.A, Magee C.W., SIMS : a practical handbook for depth profiling and bulk impurity analysis, New York :Wiley, 1989, 220 p. [14] Turner J.E., Keller H., Mars D.E., High depth resolution SIMS by deconvolution of the instrumental function, In : International Conference on Secondary Ion Mass Spectrometry 179 1989 : Monterey, California, USA (SIMS VII), A. Benninghoven ed. New York : Wiley, 1990, p 95-98 [15] Littmark U., Hofer W., Recoil mixing in solids by energetic ion beams, Nuclear instruments and methods, 1980, vol 168, p 329-342 [16] Homma Y., Maruo T., Comparison of beam induced profile broadening effects of gallium and copper in oxygen bombarded silicon, Surface and Interface Analysis, 1989, vol 14, p 725-729 [17] Vandevorst W., Sheperd F.R.,Swanson M.L., Plattner H.H., Westcott O.M., Mitchell I.V., Segregation of Arsenic during SIMS analysis with an oxygen beam, Nuclear instruments and methods, 1986, vol B15, p 201 [18] Williams J.S., Petravic M., Svensson B.G., Conway, Oxydation of silicon by low energy bombardment, Journal of Applied Physic, 1994, vol 76, n°3, p 1840-1846 [19] Dowsett M.G., James D.M., Drummond I.W., El Gomati M.M., Bakush T.A., Street F.J., Barlow R.D., Redistribution of Ge in the SIMS altered layer during normal incidence 02+ bombardment of SiGe alloy material, In : International Conference on Secondary Ion Mass Spectrometry 1991 : Amsterdam, The Netherlands (SIMS VIII), A. Benninghoven ed. New York : Wiley, 1992, p 359-362 [20] Meuris M., Vandervorst W., On the effect of an oxygen beam in sputter depth profiling, Journal of vacuum science and technology, 1991, vol A9, n°3, p 1482-1488 [21] Zalm P.C., Vriezema, Oxygen bleed-in during SIMS depth profiling : curse or blessing ?, Nuclear Instruments and Methods for Physic Research, 1992, vol B 64, p 626-631 [22] Vandervorst W., Sheperd, Secondary ion mass spectrometry profiling of shallow, implanted layers using quadrupole and magnetic sector instruments, Journal of vacuum science and technology, 1987, vol A5, n°3, p 313-320 [23] Dupuy J.C., Prudon G., Dubois C., Warren P., Dutartre D., Depth resolution in SIMS study of boron delta-doping in epitaxial silicon, Nuclear Instruments and Methods for Physic Research, 1994, vol B 85, p 379-382 [24] Ziegler J.F., Biersack J.P., Littmark U., The stopping and range of ions in solids, vol 1. In : The stopping and range of ions in matter, New York : Pergamon Press, 1985, 321 p [25] Dowsett M.G., Barlow R.D., Allen P.N., SIMS analysis of ultrathin impurity layers in semiconductors and their use in quantification, instrumental assessment and fundamental measurements, Journal of vacuum science and technology, 1993, vol B12, n°1, p 186-198 [26] Dowsett M.G., Barlow R.D., Fox H.S., Kubiak RA.A., Collins R., Sims depth profiling of boron, antimony and germanium deltas in silicon and implications for profile deconvolution, Journal of vacuum science and technology, 1992, vol B10, n°1, p 336-341 180 [27] Barlow R.D., Dowsett M.G., Fox H.S., Kubiak R.A.A., Newstead S.M., SIMS response functions for MBE grown delta layers in silicon, Nuclear Instruments and Methods for Physic Research, 1992, vol B 72, p 442-446 [28] Mattey N.L., Dowsett M.G., Parker E.H.C., Whall T.E., Taylor S., Zhang J.F., p-type delta doped layers in silicon : structural and electronic properties, Applied Physic Letters, 1990, vol 57, n°16, p 1648-1650 [29] Littmark U., Hofer W.O, The theory of recoil mixing in solids, in Thin films and depth profile analysis, H. Oechsner ed. Berlin : Springer-Verlag, 1984 [30] Badheka R., Wadsworth M., Armour D.G., Van den Berg J.A., Clegg J.B., Theoretical and experimental studies of the broadening of dilute delta-doped Si spikes in GaAs during SIMS depth profiling, Surface and Interface Analysis, 1990, vol 15, p 550-558 [31] Badheka R., Wadsworth M., Van Den Berg J.A., Armour D.G., Theoretical calculations of dilute B profiles in Si using IMPETUS, In : International Conference on Secondary Ion Mass Spectrometry 1993 : Yokohama, Japan (SIMS IX), A. Benninghoven ed. New York : Wiley, 1994, p 219-222 [32] Prost R., Contribution à l’élaboration d’algorithmes itératifs discrets super-résolvants de déconvolution avec contraintes. Applications. Thèse de Doctorat : INSA de Lyon, 1984. 278 p. [33] Makarov V.V., Nature of noise in SIMS depth profiling data, Surface and Interface Analysis, 1999, vol 27, p 801-804 [34] Bertero M., Poggio T.A., Torre V., Ill-posed problems in early vision, Proceedings of IEEE, 1988, vol 76, n° 8, p 869-889 [35] Demoment G., Image reconstruction and restoration : overview of common estimation strutures and problems, IEEE Transactions on Acoustics, Speech and Signal Processing, 1989, vol 37, n° 12, p 2024-2035 [36] Tikhonov A.N., Arsenin V.Y., Solutions of ill-posed problems, Washington : Halsted Press, 1977, 258 p. [37] Leung C.M, Lu W.-S., On the use of discret Laplacian operators in image restoration, IEEE Pacific RIM Conference on Communications, Computers and Signal Processing Proceedings 1995, New York : IEEE, 1995, p 411-415 [38] Connolly T.J., Lane R.G., Constrained regularization methods for superresolution, IEEE Signal Processing Society, International Conference on Image Processing 1998, Chicago, Illinois, USA. Los Alamitos, California : IEEE Computer Society, 1998, p 727-731 [39] Berger T., Strömberg J.O., Eltoft T., Adaptative regularized constrained least squares image restoration, IEEE Transactions on Image Processing, 1999, vol 8, n° 9, p 1191-1203 [40] Weyrich N., Warhola G.T., Wavelet shrinkage and generalized cross validation for image denoising, IEEE Transactions on Image Processing, 1998, vol 7, n° 1, p 82-90 181 [41] Acton S.C., Bovik A.C., Piecewise and local image models for regularized image restoration using cross-validation., IEEE Transactions on Image Processing, 1999, vol 8, n° 5, p 652-665 [42] Molina R., Katsaggelos A.K., Mateos J., Bayesian and regularisation methods for hyperparameter estimation in image restoration, IEEE Transactions on Image Processing, 1999, vol 8, n° 2, p 231-246 [43] Leung C.M, Lu W.-S., Optimal determination of regularization parameters and the stabilizing operator, IEEE Pacific RIM Conference on Communications, Computers and Signal Processing Proceedings 1995, Victoria, BC., Canada. New York : Institute of Electrical and Electronics Engineers, 1995, p 403-406 [44] Miller K., Least sqaures method for ill-posed problems with a prescribed bound, SIAM J. Math. Anal., 1970, vol 1, p 52-74 [45] Wahba G., Practical approximate solutions to linear operator equations when the data are noisy, SIAM, Journal of Numerical Analysis, 1977, vol 14, n°4, p 651-667 [46] Golub G.H., Heath M., Wahba G., Generalized cross validation as a method for choosing a good ridge parameter, Technometrics, 1979, vol 21, n°2, p 215-223 [47] Katsaggelos A.K., Biemond J., Mersereau R.M., Schafer R.W., General formulation of constrained iterative restoration algorithms, IEEE International Conference on Acoustic, Speech and Signal Processing 1985, Tampa, Florida, USA. New York : Institute of Electrical and Electronics Engineers, 1985, p 700-703 [48] Prost R., Goutte R., Discrete constrained iterative deconvolution algorithms with optimized rate of convergence, Signal Processing, 1984, vol 7, n°3, p 209-230 [49] Barakat V., Contribution à la restauration d’images dégradées par un système spatialement variant. Apport d’un modèle de l’image. Thèse de Doctorat : INSA de Lyon, 1998. 149 p. [50] Barakat V., Guilpart B., Goutte R., Prost R., Model-based Tikhonov-Miller image restoration, Proceedings of International Conference on Image Processing, 1997, Santa Barbara CA, vol 1, p 310-313 [51] Allen P.N., Dowsett M.G., Collins R., SIMS profile quantification by maximum entropy deconvolution, Surface and Interface Analysis, 1993, vol 20, p 696-702 [52] Cooley J.W., Tukey J.W, An algorithm for the machine calculation of complex fourier series, Mathematics of Computation, 1965, vol 19, p 297-301 [53] Gautier B., Prudon G., Dupuy J.C., Toward a better reliability in the deconvolution of SIMS depth profiles, Surface and Interface Analysis, 1998, vol 26, p 974-983 [54] Elst K., Vandervorst W., Alay J., Influence of oxygen on the formation of ripples on Si, Journal of Vacuum Science & Technology, 1993, vol B 11, n°6, p 1968-1981 182 [55] Wittmaak K., Effect of surface roughening on secondary ion yields and erosion rates of silicon subject to oblique oxygen bombardment, Journal of Vacuum Science & Technology A, 1990, vol 8, n°3, p 2246-2250 [56] Wittmaak K., Artifact in low-energy depth profiling using oxygen primary ion beams : Dependence on Impact Angle and Oxygen Flooding Conditions, Journal of Vacuum Science & Technology B, 1998, vol 16, n°5, p 2776-2785 [57] McPhail D.S., Dowsett M.G., Fox H., Houghton R., Leong W.Y., Parker E.H.C., Patel G.K., Quantifying the effects of uneven etching during the SIMS analysis of periodic doping structures grown by silicon MBE, Surface and Interface Analysis, 1998, vol 11, p 80-87 [58] Collins R., Marsh T., Jimenez-Rodriguez J.J., The diffusion approximation in atomic mixing, Nuclear Instruments and Methods, 1983, vol 209-210, p 147-156 [59] Sigmund P., Recoil implantation and ion-beam-induced composition changes in alloys and compounds, Nuclear Instruments and Methods for Physic Research, 1980, vol 68, p 389394 [60] Badheka R., Van Den Berg J.A., Armour D.G., Wadsworth M., Theoretical calculations of the broadening of dilute Si, Al and Be doped delta layers in GaAs during SIMS depth profiling, Vacuum, 1993, vol 44, n° 3-4, p 331-335 [61] Gautier B., Dupuy J.C., Prost R., Prudon G., Effectiveness and limits of the deconvolution of SIMS depth profiles of boron in silicon, Surface and Interface Analysis, 1997, vol 25, p 464-477 [62] Van Cittert P.H., Zum einfluss der spaltbreite auf die intensitätsverteilung in spektrallinien II, Zeitschrift für Physik, 1931, vol 69, p 298-308 [63] Thomas G., A modified version of Van Cittert iterative deconvolution procedure, IEEE Transactions on acoustics, speech and signal processing, 1981, vol 29 n°4, p 938-939 [64] Dowsett M.G., Collins R., Noise, resolution and entropy in sputter profiling, Phil. Trans. R. Soc. Lod. A, 1996, n° 354, p 2713-2729 [65] Dowsett M.G., Depth resolution parameters and separability, In : International Conference on Secondary Ion Mass Spectrometry 1995 : Muenster, Germany (SIMS X), A. Benninghoven ed. New York : Wiley, 1997, p 355-358 [66] Chu D.P., Dowsett M.G., Resolving two adjacent delta-layers : from Rayleigh criterion to information entropy limit, In : International Conference on Secondary Ion Mass Spectrometry 1997 : Orlando, Florida, USA (SIMS XI), A. Benninghoven ed. New York : Wiley, 1998, p 355-358 [67] Bennett J., Diebold A., Round robin study of ultra shallow B depth profiling experimental conditions, In : International Conference on Secondary Ion Mass Spectrometry 1999 : Brussels, Belgium (SIMS XII), A. Benninghoven ed. Amsterdam : Elsevier, 2000, p 541-544 183 [68] Galatsanos N.P., Katsaggelos A.K., Methods for choosing the regularization parameter ans estimating the noise variance in image restoration and their relation, IEEE Transactions on Image Processing, 1992, vol 1, n° 3, p 322-336 [69] Gautier B., Dupuy J.C., Semmache B., Prudon G., SIMS depth profile correction for the study of the first step of the diffusion of boron in silicon, Nuclear Instruments and Methods for Physic Research, 1998, vol B 142, p 361-376 [70] Gautier B., Prost R., Prudon G., Dupuy J.C., Deconvolution of SIMS depth profiles of boron, in silicon, Surface and Interface Analysis, 1996, vol 24, p 733-745 [71] Hofmann S., Ultimate depth resolution and profile reconstruction in sputter profiling with AES and SIMS, Surface and Interface Analysis, 2000, vol 30, p 228-236 [72] Dowsett M.G., Barlow R.D., Fox H.S., Kubiak R.A.A, Secondary ion mass spectrometry depth profiling of boron, antimony and germanium deltas in silicon and implications for profil deconvolution, Journal of vacuum science and technology, 1992, vol B10, n°1, p 336341 [73] Mancina G., Prost R., Prudon G., Gautier B., Dupuy J.C., Deconvolution of SIMS depth profiles : toward the limits of the resolution by self-deconvolution test, In : International Conference on Secondary Ion Mass Spectrometry 1999 : Brussels, Belgium (SIMS XII), A. Benninghoven ed. Amsterdam : Elsevier, 2000, p 497-500 [74] Collins R., Dowsett M.G., Allen P.N., Deconvolution of concentration profiles from SIMS data using measured response function, In : International Conference on Secondary Ion Mass Spectrometry 1991 : Amsterdam, The Netherlands (SIMS VIII), A. Benninghoven ed. New York : Wiley, 1992, p 111-115 [75] Prost R., Goutte R., Deconvolution when the convolution kernel has no inverse, IEEE Transactions on Acoustics, Speech and Signal Processing, 1977, vol 25, n° 6, p 542-549 [76] Magain, P., Coubin, F., & Sohy, S., Deconvolution with correct sampling, Astrophysical Journal, 1998, vol 494, p 472-477 184