Amélioration de la résolution en profondeur de l`analyse SIMS par

Transcription

Amélioration de la résolution en profondeur de l`analyse SIMS par
N° d'ordre : 01 ISAL 0016
Année 2001
7KqVH
Présentée
DEVANT L'INSTITUT NATIONAL DES SCIENCES APPLIQUEES DE LYON
pour obtenir
/(*5$'('('2&7(85
FORMATION DOCTORALE : Dispositifs de l'Electronique Intégrée
ECOLE DOCTORALE : Electronique, Electrotechnique, Automatique.
par
Gérard MANCINA
Maître ès Sciences
Amélioration de la résolution en profondeur de l'analyse
SIMS par déconvolution : algorithmes spécifiques et
application aux couches dopées ultra-minces de la
micro-électronique silicium.
Soutenue le 10 juillet 2001 devant la Commission d'Examen
Président
: G. GUILLOT
Professeur, LPM, Lyon
Rapporteurs
: M. GAUNEAU
Ingénieur de recherche, France Telecom R&D
: D. MATHIOT
Professeur, PHASE, CNRS Strasbourg
: G. PRUDON
Maître de conférences, LPM, Lyon
: B. GAUTIER
Maître de conférences, CREST, Montbéliard
Examinateurs
: M. SCHUHMACHER Société CAMECA, Courbevoie
: G. THOMAS
Directeurs de thèse : J.C. DUPUY
: R. PROST
Professeur, LAGEP, Lyon
Professeur, LPM, Lyon
Professeur, CREATIS, Lyon
Cette thèse a été préparée au Laboratoire de Physique de la Matière et au Centre de
Recherche et d'Applications en Traitement de l'Image et du Signal de l’INSA de LYON
FEVRIER 2000
1/2
INSTITUT NATIONAL DES SCIENCES APPLIQUEES DE LYON
Directeur : J.ROCHAT
Professeurs :
AUDISIO S.
BABOUX J.C.
BALLAND B.
BARBIER D.
BASTIDE J.P.
BAYADA G.
BERGER C. (Melle)
BETEMPS M.
BLANCHARD J.M.
BOISSON C.
BOIVIN M.
BOTTA H.
BOTTA-ZIMMERMANN M. (Mme)
BOULAYE G. (Prof. émérite)
BRAU J.
BRISSAU M.
BRUNET M.
BRUNIE L.
BUREAU J.C.
CAVAILLE J.Y.
CHANTE J.P.
CHOCAT B.
COUSIN M.
DOUTHEAU A.
DUFOUR R.
DUPUY J.C.
EMPTOZ H.
ESNOUF C.
EYRAUD L. (Prof. émérite)
FANTOZZI G.
FAVREL J.
FAYARD J.M.
FAYET M.
FERRARIS-BESSO G.
FLAMAND L.
FLEISCHMANN P.
FLORY A.
FOUGERES R.
FOUQUET F.
FRECON L.
GERARD J.F.
GIMENEZ G.
GONNARD P.
GONTRAND M.
GOUTTE R. (Prof. émérite)
GRANGE G.
GUENIN G.
GUICHARDANT M.
GUILLOT G.
GUINET A.
GUYADER J.L.
GUYOMAR D.
JACQUET RICHARDET G.
JOLION J.M.
JULLIEN J.F.
JUTARD A.
KASTNER R.
KOULOUMDJIAN J.
LAGARDE M.
LALANNE M. (Prof. émérite)
PHYSICOCHIMIE INDUSTRIELLE
GEMPPM*
PHYSIQUE DE LA MATIERE
PHYSIQUE DE LA MATIERE
THERMODYNAMIQUE APPLIQUEE
MODELISATION MATHEMATIQUE ET CALCUL SCIENTIFIQUE
PHYSIQUE DE LA MATIERE
AUTOMATIQUE INDUSTRIELLE
LAEPSI***
VIBRATIONS-ACOUSTIQUE
MECANIQUE DES SOLIDES
Equipe DEVELOPPEMENT URBAIN
Equipe DEVELOPPEMENT URBAIN
INFORMATIQUE
CENTRE DE THERMIQUE DE LYON - Thermique du bâtiment
GENIE ELECTRIQUE ET FERROELECTRICITE
MECANIQUE DES SOLIDES
INGENIERIE DES SYSTEMES D’INFORMATION
THERMODYNAMIQUE APPLIQUEE
GEMPPM*
CEGELY**** - Composants de puissance et applications
UNITE DE RECHERCHE EN GENIE CIVIL - Hydrologie urbaine
UNITE DE RECHERCHE EN GENIE CIVIL - Structures
CHIMIE ORGANIQUE
MECANIQUE DES STRUCTURES
PHYSIQUE DE LA MATIERE
RECONNAISSANCE DES FORMES ET VISION
GEMPPM*
GENIE ELECTRIQUE ET FERROELECTRICITE
GEMPPM*
PRISMa - PRoductique et Informatique des Systèmes Manufacturiers
BIOLOGIE APPLIQUEE
MECANIQUE DES SOLIDES
MECANIQUE DES STRUCTURES
MECANIQUE DES CONTACTS
GEMPPM*
INGENIERIE DES SYSTEMES D’INFORMATION
GEMPPM*
GEMPPM*
INFORMATIQUE
MATERIAUX MACROMOLECULAIRES
CREATIS**
GENIE ELECTRIQUE ET FERROELECTRICITE
CEGELY**** - Composants de puissance et applications
CREATIS**
GENIE ELECTRIQUE ET FERROELECTRICITE
GEMPPM*
BIOCHIMIE ET PHARMACOLOGIE
PHYSIQUE DE LA MATIERE
PRISMa - PRoductique et Informatique des Systèmes Manufacturiers
VIBRATIONS-ACOUSTIQUE
GENIE ELECTRIQUE ET FERROELECTRICITE
MECANIQUE DES STRUCTURES
RECONNAISSANCE DES FORMES ET VISION
UNITE DE RECHERCHE EN GENIE CIVIL - Structures
AUTOMATIQUE INDUSTRIELLE
UNITE DE RECHERCHE EN GENIE CIVIL - Géotechnique
INGENIERIE DES SYSTEMES D’INFORMATION
BIOCHIMIE ET PHARMACOLOGIE
MECANIQUE DES STRUCTURES
FEVRIER 2000
MARTINEZ Y.
MAZILLE H.
MERLE P.
MERLIN J.
MILLET J.P.
MIRAMOND M.
MOREL R.
MOSZKOWICZ P.
NARDON P. (Prof. émérite)
NAVARRO A.
NOURI A. (Mme)
ODET C.
OTTERBEIN M. (Prof. émérite)
PASCAULT J.P.
PAVIC G.
PELLETIER J.M.
PERA J.
PERACHON G.
PERRIAT P.
J. PERRIN J.
PINARD P. (Prof. émérite)
PINON J.M.
PLAY D.
POUSIN J.
PREVOT P.
2/2
PROST R.
RAYNAUD M.
REDARCE H.
REYNOUARD J.M.
RIGAL J.F.
RIEUTORD E. (Prof. émérite)
ROBERT-BAUDOUY J. (Mme) (Prof. émérite)
ROUBY D.
ROUX J.J.
RUBEL P.
RUMELHART C.
SACADURA J.F.
SAUTEREAU H.
SCAVARDA S.
THOMASSET D.
TROCCAZ M.
UNTERREINER R.
VELEX P.
VIGIER G.
VINCENT A.
VUILLERMOZ P.L. (Prof. émérite)
INGENIERIE INFORMATIQUE INDUSTRIELLE
PHYSICOCHIMIE INDUSTRIELLE
GEMPPM*
GEMPPM*
PHYSICOCHIMIE INDUSTRIELLE
UNITE DE RECHERCHE EN GENIE CIVIL - Hydrologie urbaine
MECANIQUE DES FLUIDES
LAEPSI***
BIOLOGIE APPLIQUEE
LAEPSI***
MODELISATION MATHEMATIQUE ET CALCUL SCIENTIFIQUE
CREATIS**
LAEPSI***
MATERIAUX MACROMOLECULAIRES
VIBRATIONS-ACOUSTIQUE
GEMPPM*
UNITE DE RECHERCHE EN GENIE CIVIL - Matériaux
THERMODYNAMIQUE APPLIQUEE
GEMPPM*
ESCHIL – Equipe SCiences Humaines de l’Insa de Lyon
PHYSIQUE DE LA MATIERE
INGENIERIE DES SYSTEMES D’INFORMATION
CONCEPTION ET ANALYSE DES SYSTEMES MECANIQUES
MODELISATION MATHEMATIQUE ET CALCUL SCIENTIFIQUE
GRACIMP – Groupe de Recherche en Apprentissage, Coopération et Interfaces
Multimodales pour la Productique
CREATIS**
CENTRE DE THERMIQUE DE LYON - Transferts Interfaces et Matériaux
AUTOMATIQUE INDUSTRIELLE
UNITE DE RECHERCHE EN GENIE CIVIL - Structures
CONCEPTION ET ANALYSE DES SYSTEMES MECANIQUES
MECANIQUE DES FLUIDES
GENETIQUE MOLECULAIRE DES MICROORGANISMES
GEMPPM*
CENTRE DE THERMIQUE DE LYON
INGENIERIE DES SYSTEMES D’INFORMATION
MECANIQUE DES SOLIDES
CENTRE DE THERMIQUE DE LYON - Transferts Interfaces et Matériaux
MATERIAUX MACROMOLECULAIRES
AUTOMATIQUE INDUSTRIELLE
AUTOMATIQUE INDUSTRIELLE
GENIE ELECTRIQUE ET FERROELECTRICITE
CREATIS**
MECANIQUE DES CONTACTS
GEMPPM*
GEMPPM*
PHYSIQUE DE LA MATIERE
Directeurs de recherche C.N.R.S. :
Y.BERTHIER
N.COTTE-PATAT (Mme)
P.FRANCIOSI
M.A. MANDRAND (Mme)
J.F.QUINSON
A.ROCHE
A. SEGUELA
MECANIQUE DES CONTACTS
UNITE MICROBIOLOGIE ET GENETIQUE
GEMPPM*
UNITE MICROBIOLOGIE ET GENETIQUE
GEMPPM*
MATERIAUX MACROMOLECULAIRES
GEMPPM*
Directeurs de recherche I.N.R.A. :
G.FEBVAY
S.GRENIER
BIOLOGIE APPLIQUEE
BIOLOGIE APPLIQUEE
Directeurs de recherche I.N.S.E.R.M. :
A-F.PRIGENT (Mme)
I.MAGNIN (Mme)
BIOLOGIE ET PHARMACOLOGIE
CREATIS**
* GEMPPM GROUPE D'ETUDE METALLURGIE PHYSIQUE ET PHYSIQUE DES MATERIAUX
** CREATIS CENTRE DE RECHERCHE ET D’APPLICATIONS ENTRAITEMENT DE L’IMAGE ET DU SIGNAL
*** LAEPSI LABORATOIRE D’ANALYSE ENVIRONNEMENTALE DESPROCEDES ET SYSTEMES INDUSTRIELS
**** CEGELY CENTRE DE GENIE ELECTRIQUE DE LYON
INSA DE LYON
DEPARTEMENT DES ETUDES DOCTORALES
ET RELATIONS INTERNATIONALES SCIENTIFIQUES
AVRIL 2001
Ecoles Doctorales et Diplômes d’Etudes Approfondies
habilités pour la période 1999-2003
ECOLES DOCTORALES
n° code national
RESPONSABLE
PRINCIPAL
CORRESPONDANT
INSA
CHIMIE DE LYON
M. D. SINOU
UCBL1
04.72.44.62.63
Sec 04.72.44.62.64
Fax 04.72.44.81.60
M. P. MOSZKOWICZ
83.45
Sec 84.30
Fax 87.17
DEA INSA
n° code national
Chimie Inorganique
(Chimie, Procédés, Environnement)
EDA206
ECONOMIE, ESPACE ET
MODELISATION DES
COMPORTEMENTS
(E2MC)
M.A. BONNAFOUS
LYON 2
04.72.72.64.38
Sec 04.72.72.64.03
Fax 04.72.72.64.48
Mme M. ZIMMERMANN
84.71
Fax 87.96
910643
RESPONSABLE
DEA INSA
M. J.F. QUINSON
Tél 83.51 Fax 85.28
Sciences et Stratégies Analytiques
910634
Sciences et Techniques du Déchet
910675
M. P. MOSZKOWICZ
Tél 83.45 Fax 87.17
Villes et Sociétés
Mme M. ZIMMERMANN
Tél 84.71 Fax 87.96
911218
Dimensions Cognitives et Modélisation
992678
M. L. FRECON
Tél 82.39 Fax 85.18
Automatique Industrielle
910676
M. M. BETEMPS
Tél 85.59 Fax 85.35
Dispositifs de l’Electronique Intégrée
910696
M. D. BARBIER
Tél 85.47 Fax 60.81
Génie Electrique de Lyon
910065
M. J.P. CHANTE
Tél 87.26 Fax 85.30
Images et Systèmes
Mme I. MAGNIN
Tél 85.63 Fax 85.26
M. S. GRENIER
Tél 79.88 Fax 85.34
EDA417
ELECTRONIQUE,
ELECTROTECHNIQUE,
AUTOMATIQUE
M. G. GIMENEZ
INSA DE LYON
83.32
Fax 85.26
(E.E.A.)
EDA160
992254
EVOLUTION, ECOSYSTEME,
MICROBIOLOGIE , MODELISATION
(E2M2)
M. J.P FLANDROIS
UCBL1
04.78.86.31.50
Sec 04.78.86.31.52
Fax 04.78.86.31.49
M. S. GRENIER
79.88
Fax 85.34
Analyse et Modélisation des Systèmes Biologiques
910509
EDA403
INFORMATIQUE ET INFORMATION
POUR LA SOCIETE
(EDIIS)
Documents Multimédia, Images et Systèmes
d’Information Communicants
992774
Extraction des Connaissances à partir des Données
992099
M. J.M. JOLION
INSA DE LYON
87.59
Fax 80.97
EDA 407
Informatique et Systèmes Coopératifs pour l’Entreprise
950131
Biochimie
INTERDISCIPLINAIRE SCIENCESSANTE
(EDISS)
M. A.J. COZZONE
UCBL1
04.72.72.26.72
Sec 04.72.72.26.75
Fax 04.72.72.26.01
M. M. LAGARDE
82.40
Fax 85.24
M. J. JOSEPH
ECL
04.72.18.62.44
Sec 04.72.18.62.51
Fax 04.72.18.60.90
M. J.M. PELLETIER
83.18
Fax 84.29
930032
M. A. FLORY
Tél 84.66 Fax 85.97
M. J.F. BOULICAUT
Tél 89.05 Fax 87.13
M. A. GUINET
Tél 85.94 Fax 85.38
M. M. LAGARDE
Tél 82.40 Fax 85.24
EDA205
MATERIAUX DE LYON
UNIVERSITE LYON 1
EDA 034
MATHEMATIQUES ET
INFORMATIQUE FONDAMENTALE
(Math IF)
M. NICOLAS
UCBL1
04.72.44.83.11
Fax 04.72.43.00.35
M. J. POUSIN
88.36
Fax 85.29
M. J. BATAILLE
ECL
04.72.18.61.56
Sec 04.72.18.61.60
Fax 04.78.64.71.45
G.DALMAZ
83.03
Fax 04.72.89.09.80
Génie des Matériaux : Microstructure, Comportement
Mécanique, Durabilité
910527
M. J.M.PELLETIER
Tél 83.18 Fax 85.28
Matériaux Polymères et Composites
910607
M. H. SAUTEREAU
Tél 81.78 Fax 85.27
Matière Condensée, Surfaces et Interfaces
910577
M. G. GUILLOT
Tél 81.61 Fax 85.31
Analyse Numérique, Equations aux dérivées partielles
et Calcul Scientifique
910281
M. G. BAYADA
Tél 83.12 Fax 85.29
Acoustique
910016
M. J.L. GUYADER
Tél 80.80 Fax 87.12
992610
M. M. MIRAMOND
Tél 82.16 Fax 87.10
EDA 409
MECANIQUE, ENERGETIQUE, GENIE
CIVIL, ACOUSTIQUE
(MEGA)
EDA162
Génie Civil
Génie Mécanique
992111
Thermique et Energétique
910018
En grisé : Les Ecoles doctorales et DEA dont l’INSA est établissement principal
M. G. DALMAZ
Tél 83.03
Fax 04.78.89.09.80
Mme. M. LALLEMAND
Tél 81.54 Fax 60.10
Remerciements
Je remercie Messieurs Gérard GUILLOT, Directeur du Laboratoire de Physique de la
Matière et président du jury, et Gérard GIMENEZ, Directeur du Centre de Recherche et
d'Applications en Traitement de l'Image et du Signal, de m’avoir accueilli dans leur
laboratoire.
Mes remerciements s’adressent ensuite à Messieurs Marcel GAUNEAU, Ingénieur de
Recherche HDR au CNET Lannion, et Daniel MATHIOT, Directeur du Laboratoire PHASE à
Strasbourg, d’avoir bien voulu être rapporteurs de cette thèse.
Je remercie Messieurs Gilles PRUDON et Brice GAUTIER, qui ont examiné mon
travail et m’ont aussi épaulé tout au long de ces trois années.
Je remercie également Monsieur Gérard THOMAS, Professeur au LAGEP à Lyon,
d’avoir examiné mon travail.
J’adresse toute ma gratitude à Messieurs Jean-Claude DUPUY, Professeur au LPM, et
Rémy PROST, Professeur à CREATIS, tout deux co-directeurs de thèse, pour m’avoir
proposé ce sujet de thèse et m’avoir suivi tout au long de cette étude.
Je remercie également toutes les personnes qui ont participé de près ou de loin à ce
travail, par leurs aides ou conseils, par leurs encouragements ou simplement leur présence, en
particulier :
Nicolas BABOUX, Doctorant et co-bureau, pour les excellentes mesures SIMS qu’il
m’a fourni, mais surtout pour son aide, sa présence et sa complicité.
Gilles PRUDON, Maître de conférences au LPM, pour les conseils et l’aide qu’il m’a
apportés.
Christiane DUBOIS, Ingénieur CNRS, également pour les analyses SIMS.
Jacques DELMAS, Technicien, et Philippe BASTIANI, Doctorant à l’INSA, pour les
agréables moments passés ensembles.
Ainsi que tous les autres membre de l’équipe SIMS ou du LPM, Jean-Pierre
VALLARD, Technicien, Martine ROJAS et Patricia COMBIER, Secrétaires, Sylvia CROCI,
Doctorante, et une pensée particulière pour Youri TSYBINE.
Enfin, je remercie tout particulièrement Lilia, qui m’a encouragé et supporté tout au
long de ce travail de thèse.
Table des matières
,QWURGXFWLRQ…………………………………………………………………………………………9
&KDSLWUH/¶DQDO\VHHQSURIRQGHXUSDU6,06
1.
GÉNÉRALITÉS SUR L’ANALYSE SIMS ............................................................................................. 15
1.1
1.2
1.3
1.4
1.5
2.
PRINCIPE ET CARACTÉRISTIQUES ............................................................................................................. 15
LES POSSIBILITÉS ET LES PERFORMANCES DE LA TECHNIQUE ................................................................... 16
LES INCONVÉNIENTS DE LA TECHNIQUE ................................................................................................... 16
UNE TECHNIQUE DE SURFACE ET DE PROFONDEUR ................................................................................... 16
LES BESOINS DE LA MICRO-ÉLECTRONIQUE .............................................................................................. 17
DESCRIPTION DE L’ANALYSEUR IONIQUE ................................................................................... 17
2.1 DU FAISCEAU D’IONS PRIMAIRES À L’ÉCHANTILLON ................................................................................ 17
2.1.1
La source d’ions primaires............................................................................................................ 17
2.1.2
La colonne primaire ...................................................................................................................... 19
1.1.3
La chambre objet ........................................................................................................................... 19
1.2 DE L’ÉCHANTILLON AU SYSTÈME DE DÉTECTION ..................................................................................... 20
1.2.1
La colonne secondaire................................................................................................................... 20
1.2.2
Le prisme électrostatique............................................................................................................... 21
1.2.3
Le secteur magnétique ................................................................................................................... 21
1.2.4
Le système de détection des ions secondaires................................................................................ 22
1.2.5
Le détecteur d’images ioniques ..................................................................................................... 23
1.3 LES AUTRES CLASSES D’ANALYSEURS IONIQUES ...................................................................................... 23
1.3.1
Le SIMS à temps de vol.................................................................................................................. 23
1.3.2
Le SIMS à quadrupôle ................................................................................................................... 24
3.
LES PROCESSUS DE PULVÉRISATION ET D’IONISATION ......................................................... 24
3.1 LE MIXAGE COLLISIONNEL ....................................................................................................................... 25
3.1.1
Description du mixage collisionnel ............................................................................................... 25
3.1.2
Les conséquences du mixage collisionnel...................................................................................... 26
1.1.3
Modélisation du comportement exponentiel décroissant............................................................... 28
1.1.1
Observations expérimentales de λd................................................................................................ 28
1.2 LES TAUX DE PULVÉRISATION ET D’IONISATION....................................................................................... 29
4.
PARTICULARITÉS DE L’OXYGÈNE DANS L’ANALYSE PAR SIMS........................................... 30
4.1 LA SÉGRÉGATION DE CERTAINES ESPÈCES ............................................................................................... 30
1.2 LE GONFLEMENT DE LA MATRICE : LE SWELLING ...................................................................................... 31
1.3 L’UTILISATION DU SOUFFLAGE D’OXYGÈNE............................................................................................. 32
1.3.1
Description .................................................................................................................................... 32
1.1.2
Avantages et inconvénients du soufflage d’oxygène ...................................................................... 32
5.
EXEMPLES DE PROFILS EN PROFONDEUR ET POSITION DU PROBLÈME .......................... 33
6.
DÉFINITION DE LA RÉSOLUTION EN PROFONDEUR ................................................................. 35
6.1 LES CRITÈRES DE QUALITÉ D’UN PROFIL EN PROFONDEUR ....................................................................... 35
6.2 DIFFÉRENTES MÉTHODES D’ÉVALUATION ................................................................................................ 36
6.2.1
Evaluation par front montant ou descendant................................................................................. 36
1.1.2
Evaluation sur un delta-dopage..................................................................................................... 37
1.1.3
Séparabilité de deux deltas-dopage............................................................................................... 39
7.
LA FONCTION DE RÉSOLUTION EN PROFONDEUR .................................................................... 40
7.1
1.2
1.3
LA RÉPONSE IMPULSIONNELLE EN SIMS.................................................................................................. 40
APPROCHE EXPÉRIMENTALE DE LA DRF.................................................................................................. 41
MODÉLISATION DE LA DRF ..................................................................................................................... 41
1.4 QUELLE FORME ANALYTIQUE POUR LA DRF ? ......................................................................................... 42
1.5 PROPRIÉTÉS DE LA DRF........................................................................................................................... 45
1.5.1
Causalité........................................................................................................................................ 45
1.5.2
Asymétrie de la DRF...................................................................................................................... 46
1.6 CAS DU BORE DANS LE SILICIUM .............................................................................................................. 47
1.6.1
Fittage des deltas-dopage.............................................................................................................. 47
1.1.2
Approche qualitative et interprétations ......................................................................................... 49
1.1.3
Evolution des paramètres de la DRF............................................................................................. 49
1.1.4
Origine des paramètres de la DRF et mécanismes balistiques...................................................... 51
1.1.5
Quelle extrapolation à très basse énergie ? .................................................................................. 52
8.
CONCLUSION .......................................................................................................................................... 52
&KDSLWUH±/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
1.
INTRODUCTION...................................................................................................................................... 53
2.
GÉNÉRALITÉS SUR LA DÉCONVOLUTION .................................................................................... 54
2.1 RAPPELS SUR LA CONVOLUTION............................................................................................................... 54
2.1.1
Définition ....................................................................................................................................... 54
2.1.2
Propriétés du produit de convolution ............................................................................................ 55
2.2 MODÉLISATION D’UN PROFIL SIMS PAR CONVOLUTION .......................................................................... 56
2.3 INVERSION DIRECTE DE L’ÉQUATION DE CONVOLUTION........................................................................... 56
2.4 SOLUTION PRINCIPALE ............................................................................................................................. 58
2.5 DÉCONVOLUTION DE SIGNAUX BRUITÉS................................................................................................... 59
2.6 DIFFÉRENTS TYPES DE BRUIT ................................................................................................................... 60
2.6.1
Caractéristiques fréquentielles du bruit ........................................................................................ 60
2.6.2
Caractéristiques probabilistes du bruit ......................................................................................... 60
2.7 EQUATION DE CONVOLUTION AVEC BRUIT ............................................................................................... 61
2.8 CONSÉQUENCES DE LA PRÉSENCE DU BRUIT............................................................................................. 63
2.8.1
Saturation des hautes fréquences .................................................................................................. 63
2.8.2
Filtrage de la solution : le « filtre optimal de Wiener » ................................................................ 64
3.
PASSAGE DU DOMAINE CONTINU AU DOMAINE DISCRET ...................................................... 66
3.1 NATURE DES SIGNAUX SIMS MESURÉS ................................................................................................... 66
3.2 NOTATIONS ET PARTICULARITÉS DU DOMAINE DISCRET........................................................................... 66
3.2.1
Domaine temporel discret.............................................................................................................. 66
3.2.2
Espace de Fourier discret.............................................................................................................. 67
3.3 LONGUEUR DES SIGNAUX ......................................................................................................................... 67
3.4 NOTATION MATRICIELLE.......................................................................................................................... 68
4.
PROBLÈMES MAL POSÉS..................................................................................................................... 70
4.1 RÉSOLUTION DE L’ÉQUATION DE CONVOLUTION ...................................................................................... 70
4.1.1
Cas non bruité ............................................................................................................................... 70
4.1.2
Cas bruité ...................................................................................................................................... 71
4.2 RÉSOLUTION PAR LES MOINDRES CARRÉS ................................................................................................ 71
5.
RÉGULARISATION D’UN PROBLÈME MAL POSÉ ........................................................................ 73
5.1 INTRODUCTION À LA RÉGULARISATION .................................................................................................... 73
5.2 FORMULATION DE LA RÉGULARISATION .................................................................................................. 73
5.3 CHOIX DE LA MÉTHODE DE RÉGULARISATION .......................................................................................... 74
5.3.1
Régularisation de norme minimale ou d’ordre 0........................................................................... 74
5.3.2
Régularisation de Tikhonov-Miller................................................................................................ 75
5.3.3
Choix de l’opérateur de régularisation ......................................................................................... 76
5.4 DÉTERMINATION DU PARAMÈTRE DE RÉGULARISATION ........................................................................... 77
5.4.1
Méthode de Miller : optimisation par rapport au bruit ................................................................. 77
5.4.2
La validation croisée ..................................................................................................................... 78
5.4.3
La validation croisée généralisée .................................................................................................. 79
5.5 CONCLUSION SUR LES MÉTHODES DE RÉGULARISATION DES PROBLÈMES INVERSES MAL POSÉS .............. 79
6.
LES MÉTHODES ITÉRATIVES DE DÉCONVOLUTION ................................................................. 80
6.1 L’ALGORITHME DE VAN CITTERT ............................................................................................................ 80
6.2 RÉGULARISATION DE L’ALGORITHME DE VAN CITTERT........................................................................... 80
6.3 CONTRAINTES DURES APPLIQUÉES À UN SIGNAL ...................................................................................... 81
6.3.1
Définition ....................................................................................................................................... 81
6.3.2
Exemples de contraintes dures ...................................................................................................... 81
6.3.3
Introduction des contraintes dures dans l’algorithme de Van Cittert ........................................... 83
7.
PROPOSITION D’UNE NOUVELLE MÉTHODE DE DÉCONVOLUTION.................................... 84
7.1 INTRODUCTION DU MODÈLE DE LA SOLUTION .......................................................................................... 84
7.2 EQUIVALENCE DANS LE DOMAINE DE FOURIER ........................................................................................ 85
7.3 JUSTIFICATION DE L’EMPLOI D’UN MODÈLE DE LA SOLUTION................................................................... 86
7.4 INFLUENCE DU MODÈLE ........................................................................................................................... 86
7.5 EXPRESSIONS DU MODÈLE DE LA SOLUTION ............................................................................................. 87
7.5.1
Minimisation de l’erreur de reconstruction................................................................................... 87
7.5.2
Utilisation d’un signal déconvolué a priori comme modèle de la solution ................................... 88
8.
CONCLUSION .......................................................................................................................................... 90
&KDSLWUH±'pFRQYROXWLRQVGH3URILOV6,066LPXOpV
1.
INTRODUCTION...................................................................................................................................... 91
2.
CONDITIONS OPÉRATOIRES.............................................................................................................. 91
2.1
2.2
2.3
2.4
2.5
3.
SIGNAUX-TYPES UTILISÉS POUR LES SIMULATIONS................................................................ 96
3.1
3.2
3.3
3.4
3.5
4.
CARACTÉRISTIQUES FRÉQUENTIELLES DE LA DRF ET RÉGULARISATION ................................................. 91
AMPLEUR DE LA DÉGRADATION ............................................................................................................... 92
MESURE DE CONCENTRATION ET POSITIVITÉ............................................................................................ 92
BRUIT SIMS ............................................................................................................................................ 94
QUALITÉ DE L’ÉCHANTILLONNAGE .......................................................................................................... 95
DIRAC ...................................................................................................................................................... 96
CRÉNEAU ................................................................................................................................................. 96
GAUSSIENNE ............................................................................................................................................ 96
DEUX DELTAS-DOPAGE PROCHES ............................................................................................................. 97
CONSTRUCTION D’UN SIGNAL-TEST « POLYVALENT ».............................................................................. 98
DÉCONVOLUTION PAR LES MÉTHODES NON-ITÉRATIVES .................................................... 98
4.1 DÉCONVOLUTION SANS RÉGULARISATION ............................................................................................... 98
4.2 DÉCONVOLUTION PAR FILTRE DE WIENER ............................................................................................... 99
4.3 RÉGULARISATION DE TIKHONOV-MILLER ET INVERSION DE L’ÉQUATION DE CONVOLUTION................. 101
4.3.1
Déconvolution du signal-test ....................................................................................................... 101
4.3.2
Déconvolution de signaux lisses .................................................................................................. 102
4.3.3
Conclusion sur l’inversion de l’équation de convolution régularisée ......................................... 104
5.
DÉCONVOLUTION PAR RECHERCHE DU MEILLEUR MODÈLE NUMÉRIQUE DE LA
SOLUTION........................................................................................................................................................ 104
5.1 CONDITIONS IDÉALES : MODÈLE PARFAIT DE LA SOLUTION.................................................................... 104
5.2 MODÈLE NUMÉRIQUE TIRÉ DE L’ERREUR DE RECONSTRUCTION ............................................................. 106
5.3 UTILISATION DU « SIGNAL DÉCONVOLUÉ SANS MODÈLE » COMME MODÈLE NUMÉRIQUE ...................... 106
5.4 CHOIX DU TERME DE RÉGULARISATION.................................................................................................. 108
5.4.1
Choix du filtre D .......................................................................................................................... 108
5.4.2
Calcul de α .................................................................................................................................. 110
5.5 CONVERGENCE DE L’ALGORITHME ........................................................................................................ 110
6.
DÉCONVOLUTION DE DIFFÉRENTES STRUCTURES ................................................................ 114
6.1
GAUSSIENNES ........................................................................................................................................ 114
6.2
6.3
7.
CRITÈRES D’ARRÊT DE L’ALGORITHME .................................................................................... 123
7.1
7.2
7.3
8.
DÉFINITION DES ERREURS ...................................................................................................................... 123
EVOLUTION DU PROFIL DÉCONVOLUÉ EN FONCTION DU NOMBRE D’ITÉRATIONS ................................... 125
DÉCONVOLUTION « PAR ZONES »........................................................................................................... 128
DÉCONVOLUTION DE DELTAS-DOPAGE...................................................................................... 130
8.1
8.2
8.3
9.
CRÉNEAUX ............................................................................................................................................. 118
DÉCONVOLUTION DE DEUX STRUCTURES ADJACENTES D’AMPLITUDE TRÈS DIFFÉRENTES ..................... 121
L’AUTO-DÉCONVOLUTION ..................................................................................................................... 131
RÉSULTATS ET PERFORMANCES DE L’ALGORITHME DE DÉCONVOLUTION .............................................. 133
SÉPARATION DE DELTAS-DOPAGE .......................................................................................................... 139
CONCLUSION ........................................................................................................................................ 143
&KDSLWUH ± $SSOLFDWLRQ GH OD 0pWKRGH GH
'pFRQYROXWLRQ DX[ 3URILOV 6,06 ([SpULPHQWDX[
0RGpOLVDWLRQ GH 3KpQRPqQHV 'pJUDGDQW OD 5pVROXWLRQ
HQ3URIRQGHXU
1.
INTRODUTION ...................................................................................................................................... 145
2.
DÉCONVOLUTION D’ÉCHANTILLONS « MULTI DELTAS-DOPAGE »................................... 145
2.1 DÉCONVOLUTION DU MULTI DELTAS-DOPAGE WARWICK 1. PROFIL EN PROFONDEUR À HAUTE ÉNERGIE
D’IMPACT ........................................................................................................................................................ 145
2.2 DÉCONVOLUTION DU MULTI DELTAS-DOPAGE BENNETT. PROFIL EN PROFONDEUR À BASSE ÉNERGIE ... 150
2.3 GAIN EN RÉSOLUTION EN PROFONDEUR PAR DÉCONVOLUTION .............................................................. 154
3.
DÉCONVOLUTION DE PROFILS QUELCONQUES....................................................................... 155
3.1
3.2
3.3
3.4
3.5
PSEUDO DELTAS-DOPAGE (WARWICK 2)................................................................................................ 155
TRIPLE MARCHE DE CONCENTRATION À HAUTE ET BASSE ÉNERGIE ........................................................ 158
CRÉNEAUX DE CONCENTRATION « ÉTROITS » ........................................................................................ 162
DÉCONVOLUTION D’UN CRÉNEAU À BASSE ÉNERGIE. INVARIANCE DU PROFIL DÉCONVOLUÉ ................ 164
DÉCONVOLUTION D’UN ÉCHANTILLON « BI-DELTA ». PROFIL FORTEMENT BRUITÉ ............................... 166
4.
DÉCONVOLUER AVEC UNE DRF VARIANTE. CORRECTION DE L’ÉCHELLE DES
PROFONDEURS............................................................................................................................................... 168
4.1
4.2
5.
SOURCES DE VARIATIONS DE LA DRF .................................................................................................... 168
ESSAI DE DÉCONVOLUTION D’UN PROFIL MESURÉ OÙ LA DRF EST VARIANTE ....................................... 170
CONCLUSION ........................................................................................................................................ 172
&RQFOXVLRQ*pQpUDOH………………………………………………………………………175
5pIpUHQFHV……..……………………………………………………………………………………179
,QWURGXFWLRQ
Les composants de la micro-électronique contiennent désormais des structures dont les
dimensions sont nanométriques. La Spectrométrie de Masse des Ions Secondaires (SIMS),
s’est imposée comme la technique incontournable pour caractériser les jonctions, grâce à sa
sensibilité, de l’ordre du ppm, ainsi qu’à sa résolution en profondeur qui atteint quelques
dizaines d’angströms. Les développements de l’instrumentation SIMS ne sont pas aussi
prononcés et rapides que ceux des techniques de fabrication des matériaux de la microélectronique. La résolution en profondeur est maintenant insuffisante pour la caractérisation
des jonctions abruptes et des monocouches.
La mesure par SIMS, de par son principe, implique une déformation locale de la
distribution des éléments de l’échantillon analysé, et entraîne une distorsion du profil en
profondeur de la concentration d’une espèce donnée. Cette distorsion étant de type filtre
passe-bas, il y a perte de résolution en profondeur, même en utilisant les appareils les plus
précis et dans les meilleures conditions expérimentales. Par ailleurs, la complexité des
mécanismes mis en jeu lors d’une mesure par SIMS ne permet pas la modélisation complète
du système et encore moins la quantification des profils obtenus. Ainsi, l’amélioration de la
résolution en profondeur passe pour l’instant par l’utilisation de techniques de traitement du
signal appliquées aux profils mesurés. Nous avons retenu l’une d’entre elles, la
déconvolution, qui permet une restauration partielle ou complète des caractéristiques
géométriques des structures analysées.
Le premier chapitre de ce travail décrit tout d’abord les principaux organes de
l’analyseur ionique, puis les mécanismes intervenant dans la formation du profil en
profondeur. Nous nous attacherons en particulier aux caractéristiques de l’analyse par ions
primaires oxygène, largement utilisés en SIMS. Cela nous amènera à définir la résolution en
profondeur ainsi que la réponse impulsionnelle du système d’analyse, appelée fonction de
résolution en profondeur, ou depth resolution function (DRF). Ce chapitre, décrivant l’aspect
physique de cette étude de la déconvolution de profils SIMS, permettra de cerner les
particularités du problème qui se traduiront dans les chapitres suivants par des conditions
opératoires et des propriétés à respecter lors de la mise en œuvre de la déconvolution.
Le deuxième chapitre présente les bases de la restauration d’informations par
déconvolution. Les aspects théoriques sont abordés avant la description de quelques méthodes
simples, à la base de méthodes plus complexes et orientées vers les systèmes fortement
dégradants. Cette partie se terminera par la présentation d’un nouvel algorithme de
déconvolution bien adapté aux signaux SIMS abrupts.
Dans le troisième chapitre, nous effectuons les simulations de déconvolution
nécessaires à la validation des techniques employées. L’étude de différents profils permettra
en particulier de définir les conditions opératoires que nous utiliserons en fonction des types
de profils expérimentaux possibles. Nous insistons également sur la nécessité d’avoir dès le
départ des données de qualité. Nous abordons finalement les performances ultimes de la
déconvolution avec le cas particulier des deltas-dopage.
Enfin, le quatrième et dernier chapitre de cette étude présentera les résultats que nous
avons obtenus par la méthode de déconvolution appliquée à des profils de concentration réels.
Ce sera l’occasion d’aborder les problèmes liés aux conditions expérimentales. Nous
discuterons également de l’intérêt d’utiliser ou non la déconvolution selon les données de
départ.
Nous conclurons enfin par un bilan du travail effectué et les perspectives dans ce
domaine.
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
&KDSLWUH
/¶$QDO\VHHQ3URIRQGHXU
SDU6,06
1. Généralités sur l’analyse SIMS
La Spectrométrie de Masse des Ions Secondaires est une technique d’expertise des
matériaux et des échantillons bien adaptée à la micro-électronique, puisque les performances
de l’analyseur permettent d’obtenir un excellent compromis entre la sensibilité dans la
détection des éléments, parfois en quantité très faible dans les composants, et la résolution en
profondeur.
1.1 Principe et caractéristiques
L’analyse SIMS consiste à éroder progressivement et très lentement un échantillon au
moyen d’un faisceau d’ions, et d’étudier la nature ainsi que la quantité des espèces chimiques
présentes dans cet échantillon et qui ont été éjectées par l’érosion. Le faisceau d’ions incidents
est dit primaire, par comparaison avec le faisceau d’ions secondaires provenant de
l’échantillon analysé. Lors du bombardement, les ions primaires provoquent des collisions sur
et sous la surface de l’échantillon, ce qui conduit à l’émission de diverses espèces : atomes et
molécules neutres, ions mono et polyatomiques, ainsi que photons et électrons.
Les ions secondaires émis constituent l’information recherchée. Une partie provient
des ions incidents, et l’autre de l’échantillon. La figure 1-1 nous montre le principe de
l’érosion et de l’émission des ions secondaires.
Ions primaires
Courant I0
Ions secondaires
Courant IE
Surface
Mixage
substrat
Figure 1-1 : Schéma de principe de l’analyse par SIMS.
15
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
1.2 Les possibilités et les performances de la technique
L’analyse SIMS permet la détection et la mesure de n’importe quel élément de la
classification périodique dans une matrice donnée. La sensibilité est de l’ordre du ppm pour la
plupart des éléments, voire du ppb. C’est donc une technique d’analyse très bien adaptée aux
semi-conducteurs, qui sont maintenant dopés avec des concentrations très faibles ou très
fortes sur des épaisseurs toujours plus petites. C’est une analyse dite « semi-quantitative », car
on a besoin d’une mesure de référence pour comparer les concentrations réelles et mesurées.
La résolution est de l’ordre du µm latéralement, et du nm en profondeur. On peut ainsi
aisément obtenir une image ionique d’une surface ou un profil en profondeur de la
concentration d’une espèce dans une matrice. La résolution en masse de la technique est tout
aussi performante, puisqu’on peut discriminer deux éléments de même masse nominale mais
distantes de ∆M/M de l’ordre de 10-4.
1.3 Les inconvénients de la technique
Plusieurs limitations découlent du procédé de la mesure. Tout d’abord, l’analyse est
destructive, puisque l’échantillon est érodé pratiquement plan atomique par plan atomique,
mais jusqu’à des profondeurs de l’ordre du µm ou plus. La surface endommagée est à chaque
nouvelle mesure d’environ 500 µm x 500 µm ; il faudra donc tenir compte de la surface
disponible à la mesure sur l’échantillon.
De par les dimensions de l’aire analysée, on ne peut obtenir qu’une étude locale de
l’échantillon. On ne peut donc pas étudier un échantillon hétérogène ou de structure latérale
complexe avec une unique mesure. On peut cependant accumuler des images à différentes
profondeurs.
L’inconvénient majeur de l’analyse SIMS est la quantification des résultats obtenus.
En effet, la complexité du processus d’émission ionique ne permet pas de modéliser
totalement l’analyse, et encore moins de la quantifier analytiquement. La connaissance d’une
concentration exacte passe par une mesure étalon faite sur un échantillon de référence dans les
mêmes conditions expérimentales. En micro-électronique, on fait appel à des échantillons
standards implantés de doses connues des différents dopants à analyser.
1.4 Une technique de surface et de profondeur
Le bombardement de l’échantillon par des ions primaires entraîne une érosion lente du
matériau. Les ions secondaires émis proviennent au maximum des trois premières couches
atomiques sous la surface de l’échantillon. Une première approche consiste à obtenir une
image ionique de la surface, en balayant celle-ci avec le faisceau d’ions primaires.
Mais cette technique de surface n’empêche pas le caractère dynamique de l’analyse
SIMS, c’est-à-dire que l’érosion permet aussi de faire l’analyse en profondeur de
l’échantillon. C’est l’aspect qui nous intéressera dans ce travail. Le profil en profondeur de
concentration est donc un découpage plan par plan de l’échantillon pour donner la distribution
en profondeur d’une espèce donnée dans la matrice.
16
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
1.5 Les besoins de la micro-électronique
Les technologies de fabrication des composants de la micro-électronique tendent sans
cesse vers la miniaturisation. L’analyse SIMS, au regard de la caractérisation précise de ces
structures, touche ses limites. Les mécanismes d’implantation propres à la mesure limitent
l’accès à l’information ultime de profondeur, du fait du mixage ionique sur une certaine
épaisseur. Plusieurs raisons motivent l’amélioration de l’analyse :
• Les fondeurs demandent une information de plus en plus précise sur les structures
extrêmement fines (deltas-dopage, interfaces abruptes), tant en profondeur qu’en
concentration.
• L’analyse de ces structures n’est pas assez fine pour que les échantillons puissent
être considérés comme standards.
Des efforts sont donc encore à faire à deux niveaux :
• Au niveau de l’instrumentation.
• Au niveau des techniques de traitement du signal.
2. Description de l’analyseur ionique
On distingue plusieurs familles d’analyseurs ioniques, chacune étant optimisée pour
telle ou telle utilisation. Nous allons décrire de manière générale celui de notre laboratoire, le
CAMECA IMS3/4f.
Le schéma de principe est représenté sur la figure 1-2 (tirée de la référence [2]). On
peut distinguer cinq parties importantes :
• La colonne primaire : elle transporte les ions primaires de la source à l’échantillon
grâce à une optique de transfert ionique.
• La colonne secondaire : elle amène les ions secondaires de l’échantillon au système
de tri.
• Le secteur électrostatique trie les ions en énergie.
• Le secteur magnétique les trie en masse.
• Enfin, on a le système de détection des ions pour leur comptage.
Nous allons décrire brièvement chacune des étapes de l’analyse associées aux
différentes parties du spectromètre.
2.1 Du faisceau d’ions primaires à l’échantillon
2.1.1 La source d’ions primaires
Les ions utilisés habituellement en analyse SIMS peuvent être des ions oxygène ou
césium, mais on peut aussi prendre l’azote (N2+) ou le xénon (Xe+). Une source d’oxygène
peut produire des ions O+, O-, O2+ et O2-. C’est un duoplasmatron à cathode froide qui les
crée, ce qui permet, en changeant la bouteille d’oxygène par une bouteille d’argon, d’obtenir
des ions Ar+, également employés en SIMS. Les ions O2+ sont les plus largement utilisés,
17
fentes d'énergie
lentille du spectromètre
prisme
électrostatique
électrode
intermédiaire
prisme
magnétique
duoplasmatron
diaphragme de champ
oxygène
fentes d'entrée
diaphragme de contraste
cathode
déflecteur 2
stigmateur
lentilles de transfert
bobine
fentes de sortie
anode
plasma d'O 2+
lentilles de projection
électrode d'accélération
déflecteur 3
prisme électrostatique
déflecteur 1
lentille 1
plaques de transfert
dynamique
limiteur
lentille 2
diaphragme d'ouverture
électromultiplieur
stigmateur
cage de faraday
double déflecteur
écran fluorescent
cage de faraday
lentille 3
lentille d'extraction
échantillon
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
18
Figure 1-2 : Schéma de principe de l’analyseur ionique CAMECA IMS3/4f.
déflecteur 1
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
à l’origine parce qu’ils sont les plus nombreux dans le plasma, et aussi parce que l’énergie est
divisée par deux par rapport à un ion simple, ce qui améliore la résolution en profondeur.
Une source de nature différente est également assez employée, la source césium, qui
émet les ions Cs+ à partir d’un composé solide. L’émission des ions secondaires négatifs
(halogènes, phosphore, carbone, oxygène…) est améliorée par un bombardement d’ions Cs+.
Les deux sources sont décrites en détail dans la référence [1].
2.1.2 La colonne primaire
A la sortie de la source un filtrage magnétique assure la pureté du faisceau d’ions. La
colonne contient un système d’optique ionique composé de lentilles électrostatiques et de
déflecteurs, afin de focaliser, positionner et balayer le faisceau sur l’échantillon.
Dans le cas du CAMECA IMS3/4f, on peut agir sur trois lentilles et un double déflecteur afin
d’amener le faisceau primaire focalisé à l’endroit fixé par la lentille à immersion, qui servira à
extraire les ions secondaires de l’échantillon. Le faisceau primaire doit être du mieux possible
centré sur cette région afin d’avoir une aire analysée symétrique.
C’est aux deux extrémités de la colonne primaire que l’on contrôle l’énergie des ions
incidents : l’échantillon est soumis à un potentiel fixe (4500 V le plus souvent, mais nous
verrons plus loin qu’on utilise de plus en plus des tensions plus petites, 2250 V et 1125 V), et
on fait varier le potentiel de l’électrode d’accélération. L’énergie d’impact des ions primaires,
varie est typiquement de 1 à 15 keV/O2+. La valeur du courant primaire se règle également, et
elle influera directement sur la vitesse d’érosion de l’échantillon. Dans le cas du CAMECA,
son intensité peut varier de 1 à 2000 nA, en fonction de l’énergie d’impact choisie.
Le balayage du faisceau permet de creuser un cratère homogène ayant jusqu’à 500 µm
de coté.
2.1.3 La chambre objet
C’est elle qui contient l’échantillon, dans un vide poussé (2Â-9 à 2Â-8 torr). Le
porte-échantillon est polarisé à ±4500 Volts alors que la lentille à immersion est à la masse, ce
qui permet de choisir la polarité des ions secondaires à extraire, positifs ou négatifs.
Dans le cas de l’IMS3/4f, la colonne primaire fait un angle de 30° par rapport à la
normale à l’échantillon. Cet angle est fixe, mais l’angle d’incidence des ions primaires au
moment de l’impact sur l’échantillon est modifié par le champ électrostatique crée par la
lentille à immersion (figure 1-3). Ce champ est volontairement crée entre l’échantillon et la
lentille à immersion afin d’extraire les ions secondaires en fonction de leur polarité. Il en
résulte une courbure de la trajectoire des ions primaires, et selon la polarité des ions primaires
et celle du champ électrostatique, l’angle d’incidence pourra varier entre 25° et 55° avec la
normale à l’échantillon.
19
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
ions primaires
positifs
lentille à
immersion
ions secondaires
positifs
θ0
θ
)&
E
échantillon
+4500 V
Figure 1-3 : Influence de la polarisation de l’échantillon sur l’angle d’incidence.
Plusieurs articles [1] [13] donnent un calcul détaillé de l’angle d’incidence exact dans
des conditions d’utilisation standard : énergie d’impact entre 2 et 13 keV, et angle d’incidence
inférieur à 55°. Dans la zone de champ uniforme E, on a conservation de la composante
parallèle (à l’échantillon) de la vitesse des ions primaires. Pour un angle θ 0 = 30° à l’entrée
dans le champ électrostatique, on obtient un angle d’incidence θ tel que :
sin θ 0 = sin θ
E0 − EEch
E0
(1.1)
E0 est la tension primaire, EEch le potentiel appliqué à l’échantillon. L’énergie
d’impact des ions primaires est donc Ei = E0 - EEch .
2.2 De l’échantillon au système de détection
2.2.1 La colonne secondaire
La colonne secondaire correspond à la partie de l’analyseur assurant le tri des ions
secondaires extraits de l’échantillon avant leur détection et comptage. Elle permet le transport
de l’image ionique de la surface de l’échantillon depuis ce dernier jusqu’aux détecteurs.
Après la lentille à immersion une optique de transfert à trois électrodes améliore le
rendement de la collecte des ions et définit la grandeur de l’image analysée. Des plaques de
transfert dynamique permettent d’optimiser la collection des ions secondaires dans le cratère.
On a ensuite les diaphragmes de contraste et de champ :
• Le diaphragme de contraste transmet les ions secondaires ayant une énergie latérale
inférieure à un seuil donné selon le diamètre de ce diaphragme. On appelle crossover le point de focalisation du faisceau. Il est transporté tout au long de la colonne
secondaire. L’optique de transfert est telle que les ions de plus forte énergie latérale
20
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
•
se trouvent sur les bords de ce point de focalisation. Le diaphragme de contraste les
élimine donc de l’analyse et évite les aberrations chromatiques.
Le diaphragme de champ est lui placé dans un plan image de la surface de
l’échantillon pulvérisé intermédiaire tel qu’il définit le champ imagé, et donc la
surface analysée. Sur le CAMECA, trois diamètres de diaphragme sont disponibles
(100 µm, 750 µm et 1800 µm), ce qui nous permet d’obtenir un champ imagé de 1
à 400 µm en fonction du grandissement définit par l’optique de transfert.
2.2.2 Le prisme électrostatique
Il trie les ions selon leur énergie. Le cross-over à l’entrée du secteur électrostatique (au
niveau du diaphragme de contraste) est dit « multi-masses » et « multi-énergies ». Il est
transformé en cross-over dispersé en énergie après passage dans le champ électrostatique. A
la sortie de ce secteur, on peut discriminer les ions moléculaires des ions polyatomiques. En
effet, il est montré que les énergies de ces deux types d’ions ont une distribution différente :
les ions monoatomiques ont une distribution large en fonction de l’énergie, alors que celle des
ions moléculaires est étroite. En choisissant une certaine bande d’énergie au moyen d’une
fente mécanique, on peut ainsi filtrer les ions désirés (figure 1-4).
Sur l’IMS3/4f, un déplacement latéral de la fente de 1 mm correspond à une
translation énergétique de 26 eV, sur une plage maximum de 130 eV pour 5 mm. En pratique,
deux manières équivalentes peuvent être utilisées pour filtrer en énergie :
• On règle la fente afin de choisir une plage énergétique, puis on la translate
mécaniquement la pour centrer cette plage.
• Dans une position de la fente fixée, on applique à l’échantillon une légère tension de
décalage par rapport à la tension normale de ±4500 V, ce qui translate la
distribution énergétique des ions secondaires et permet à la fente de filtrer une
plage énergétique différente.
2.2.3 Le secteur magnétique
Cette partie du spectromètre assure le filtrage en masse des ions sortis du secteur
électrostatique. Ils sont soumis à un champ magnétique B, et prennent donc une trajectoire
circulaire dont le rayon de courbure s’exprime en fonction de la tension de sortie V du prisme
électrostatique et du rapport masse/charge de l’espèce concernée :
R=
k mV
avec k = 1.436 ⋅10-4
B q
(1.2)
La figure 1-5 nous montre les trajectoires des ions selon leur masse et leur énergie.
21
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
Ve
ε
Champ électrique
E+∆E, M+∆M
E, M+∆M
Champ magnétique
E+∆E
ε
B
B
E
E+∆E, M
E, M
Vi
Secteur
électrostatique
Fente
d’énergie
Secteur
magnétique
R
E+∆E E
Fente d’entrée : cross-over
multi-énergies et multi-masses.
Figure 1-4 : Schéma de la dispersion en
énergie des ions par le secteur
électrostatique, indépendamment de leur
masse.
E, M+∆M
E, M
E+∆E, M
E+∆E, M+∆M
Figure 1-5 : Schéma de la dispersion en
masse des ions par le secteur magnétique.
En faisant varier la valeur du champ magnétique B, on sélectionne une masse m/q
donnée qui sera transmise via le diaphragme de sortie du spectromètre au cross-over du
système optique. Plus cette fente est fermée, plus le pouvoir de séparation en masse est grand.
Bien que la résolution en masse accessible en SIMS soit excellente, elle nécessite un
réglage très fin afin de pouvoir distinguer deux espèces ioniques différentes. Par exemple,
l’ion phosphore P+ et l’ion SiH+ ont des masses très voisines et nécessitent le « mode haute
résolution », avec un pouvoir de séparation de 6000.
Le projecteur placé en sortie du prisme magnétique (deux lentilles électrostatiques) à
pour rôle de convertir l’image virtuelle de la surface en image réelle agrandie.
2.2.4 Le système de détection des ions secondaires
Il est constitué de deux parties, une cage de Faraday pour les forts courants ioniques
7
( > 10 coups par seconde), et un multiplicateur d’électrons pour les faibles intensités. Ce
dernier est constitué d’une succession d’électrodes appelées dynodes, connectées le long d’un
fil résistif relié d’une part à une haute tension et d’autre part à la masse. Le potentiel des
dynodes varie graduellement tout au long de la chaîne. Quand une particule (ion, électron,…)
frappe la 1ère dynode, elle produit des électrons secondaires. Ceux-ci sont multipliés et
accélérés par la dynode suivante bombardée à son tour. Il s’ensuit alors une cascade
d’électrons secondaires contrôlée par la tension d’accélération appliquée. Chaque cascade
comptabilisée correspond à un coup, donc à un ion incident.
L’avantage du multiplicateur d’électrons réside dans le fait qu’il a un très faible bruit
de fond, ce qui permet d’avoir de très bonnes sensibilités. Ce mode de détection, qui est
utilisé sur notre appareil, est appelé mode comptage. Un autre type de dynode existe et utilise
un mode d’amplification continue du courant détecté (la dynode est alors un canal continu).
22
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
Le mode comptage implique une excellente résolution temporelle, afin de distinguer deux
ions successifs très proches dans le temps arrivant sur le détecteur.
La cage de Faraday est, elle, une électrode qui mesure directement le courant
lorsqu’un faisceau de particules chargées la bombarde. Sa forme particulière permet de piéger
au maximum les électrons secondaires afin d’établir et mesurer un courant continu au travers
d’une résistance R.
2.2.5 Le détecteur d’images ioniques
Lorsqu’on souhaite visualiser directement l’image ionique, on utilise une plaque de
microcanaux jouant le rôle de multiplicateurs d’électrons secondaires. L’arrivée d’un ion
provoque une cascade locale d’électrons, accélérés par un champ électrique, et venant frapper
la surface d’un écran fluorescent. L’image ionique donnée par le projecteur est ainsi
transformée en image photonique percue par l’œil humain.
2.3 Les autres classes d’analyseurs ioniques
Il existe différents types d’analyseurs ioniques orientés vers des mesures plus ou
moins spécifiques. Nous allons brièvement exposer leurs caractéristiques et leurs
performances.
2.3.1 Le SIMS à temps de vol
Dans ce type d’appareil, on utilise une des propriétés des particules chargées dans un
champ électrostatique, à savoir la conservation de l’énergie dans une zone de champ
uniforme. Les ions secondaires sont accélérés et acquièrent une énergie E = qU indépendante
de leur masse. Chaque espèce ionique ayant un rapport masse/charge donné, la relation
mv 2
nous montre que la vitesse au cours du mouvement est différente pour chacune
2
d’entre elles. Il en résulte à la sortie de la zone du champ électrique que les ions peuvent être
distingués par leur temps d’arrivée sur le détecteur, les ions les plus lourds étant les plus lents.
On mesure le temps séparant la sortie des ions du champ et l’arrivée sur le détecteur.
L’instant où a lieu l’émission ionique est repéré grâce au fait que l’émission des ions
primaires est pulsée. On néglige le temps séparant l’émission des ions primaires de celle des
ions secondaires correspondants. Chaque cycle émission/détection dure en moyenne 200 µs.
Les analyseurs à temps de vol ont une excellente transmission, entre 50 et 100%, donc
une bonne sensibilité. Leur résolution en masse, très élevée, est quasiment constante sur toute
la gamme analysée, et ils peuvent théoriquement accéder à toutes les masses possibles. Ils
sont donc principalement utilisés dans l’analyse des matières organiques, surtout les
polymères, où la gamme de masse est très large.
Le mode de pulsage du faisceau primaire entraîne une érosion relativement lente de
l’échantillon. Ce type de spectromètre est donc bien adaptée au « SIMS statique » (analyse de
E=
23
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
surface), où la sensibilité est très importante. Notons qu’il est possible de rajouter une source
d’ions primaires continue, en parallèle, afin d’éroder plus rapidement l’échantillon et
d’effectuer une analyse en profondeur.
2.3.2 Le SIMS à quadrupôle
Le principe du spectromètre à quadrupôle repose sur le filtrage des ions secondaires
par un champ électrostatique très spécifique. Quatre cylindres métalliques sont reliées deux à
deux électriquement, et on applique à l’une des paires une tension continue superposée à une
tension alternative de haute fréquence, tandis que la deuxième paire est reliée à un potentiel
égal mais de signe opposé. Les ions secondaires passent dans le champ résultant entre les
quatre cylindres métalliques. La plupart des espèces ioniques acquièrent un mouvement
oscillatoire divergent, et terminent leur parcours piégées sur l’une des barres du quadrupôle.
Seuls les ions ayant un certain rapport masse/charge traversent entièrement la zone de champ
et arrivent sur un détecteur. Pour collecter une autre espèce ionique il suffit d’appliquer un
autre potentiel aux bornes du quadrupôle.
Ce type d’analyseur se distingue par sa faible transmission, qui est de l’ordre de 1%,
alors que le rapport masse/charge est inférieur à 1000. De plus, l’énergie des ions secondaires
doit être assez basse ( < 15 eV), afin que les espèces non désirées soient « absorbées » par les
bords du quadrupôle avant la fin du parcours dans le champ électrostatique.
Par rapport aux spectromètres à secteur magnétique, on obtient une plus faible
résolution en masse, mais l’analyse simultanée de plusieurs espèces est plus souple, car le
spectromètre change non pas la valeur d’un champ magnétique (ce qui implique un effet
d’hystérésis dans le cas du SIMS à secteur magnétique), mais juste la valeur des potentiels à
appliquer aux barres métalliques. Le grand avantage du SIMS à quadrupôle est
l’indépendance de l’angle d’incidence des ions primaires par rapport à leur énergie. En effet
on a ici une faible tension d’extraction des ions secondaires, et le faisceau primaire n’est pas
dévié à l’approche de l’échantillon. Cela permet de baisser l’énergie primaire, sans pour
autant obtenir un angle d’incidence trop fort, et d’analyser facilement facilement les isolants.
3. Les processus de pulvérisation et d’ionisation
Nous avons vu que le principe du SIMS est d’éroder progressivement la surface d’un
échantillon afin d’en analyser les espèces présentes, pulvérisées en partie sous forme d’ions.
Dans le cas d’une analyse en profondeur, on recueille le nombre d’ions à un instant t donné,
correspondant à une profondeur z, et on dresse ainsi une courbe appelée profil en profondeur
pour une espèce donnée dans une matrice donnée, par exemple le bore dans le silicium.
Dans le cas idéal, l’érosion se ferait couche par couche, et chacune des espèces serait
quantifiée correctement d’un bout à l’autre de l’analyse. Le cas réel est loin d’être aussi
simple. De nombreux mécanismes inhérents à la mesure et non contrôlés viennent se greffer
au processus d’analyse. On peut citer par ordre d’importance:
24
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
−
−
−
Le mixage collisionnel
Les taux de pulvérisation et d’ionisation
L’érosion non homogène de l’échantillon
3.1 Le mixage collisionnel
3.1.1 Description du mixage collisionnel
C’est le phénomène le plus problématique dans l’analyse SIMS. Les développements
récents visent à le minimiser, sachant qu’il ne sera jamais totalement éliminé. Il est le résultat
du bombardement de la cible par les ions primaires. En effet l’énergie cinétique des ions
incidents est, au moment de l’impact, transférée à l’intérieur de la cible sous forme de
déplacement d’atomes. Il en résulte une nouvelle distribution locale des espèces. On peut
distinguer deux modes de mixage collisionnel :
• Le mixage par choc direct : c’est le premier choc de l’ion incident avec un atome de
la cible, donc sur la première couche à la surface de l’échantillon. De par le
caractère unidirectionnel du faisceau primaire, le transfert d’énergie est très
anisotrope et les atomes frappés sont énergiquement « poussés » vers l’intérieur.
• Le mixage par cascades (cascade mixing) : c’est la succession de chocs entre les
atomes de l’échantillon, initiée par le premier choc direct. Ces chocs sont moins
énergétiques que les chocs directs, mais beaucoup plus nombreux. De plus, un
caractère isotropique se développe au fil de la cascade. Ainsi, l’énergie d’impact
d’un ion primaire est transférée dans le déplacement de nombreux atomes de la
cible (figure 1-6), jusqu’à ce que les derniers atomes de la cascade de collisions
reçoivent une énergie inférieure à l’énergie de déplacement des atomes, qui est
d’environ 20 eV. L’énergie cinétique en excès est alors dissipée sous forme de
phonons [2].
Emission de
particules
Ion primaire
incident
Surface de
l’échantillon
Choc initial
Incorporation
des ions
primaires
Cascade de
collisions
Figure 1-6 : Principe du mixage collisionnel.
25
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
Au final, on obtiendra une redistribution des espèces atomiques sous la surface de
l’échantillon. Cette surface est d’ailleurs dite « instantanée », puisque l’échantillon est
progressivement érodé. Des atomes initialement situés à la même profondeur pourront être
soit éjectés de la surface, soit repoussés vers l’intérieur de la cible.
Ce phénomène existe indépendamment des éléments chimiques mis en jeu, il a lieu
quels que soient le type d’ions primaires et les matériaux constituant l’échantillon. Ce
mécanisme est purement balistique (c’est à dire qu’il y a transfert d’énergie cinétique entre les
atomes de la cible), et donc athermique. Sa durée approximative est de 10-13 s.
Par contre, la cascade de collisions a créé une région endommagée avec apparition de
trous et atomes interstitiels, ainsi qu’une accumulation d’énergie cinétique en excès (mais
inférieure au seuil de déplacement des atomes). Le retour à un état énergétique stable se fait
en dissipant l’énergie de manière thermique, et ce retour prend environ 10-12 à 10-11 s selon les
matériaux. Ensuite, il peut y avoir des mécanismes du type diffusion ou recristallisation, suite
à la génération de lacunes et atomes intersticiels. Ces phénomènes sont surtout présents avec
les métaux. Dans notre cas (semi-conducteurs), nous nous limiterons à l’influence du mixage
collisionnel.
Nous n’entrerons pas dans le détail des équations régissant le mixage collisionnel,
mais le lecteur intéressé pourra se reporter aux références [4], [29], [30], [31], [58], [59] et
[60] pour des plus amples informations sur la théorie du mixage collisionnel.
3.1.2 Les conséquences du mixage collisionnel
‰ Aspects physiques
Dans l’analyse SIMS, ce qui est intéressant, c’est l’effet du mixage collisionnel sur la
résolution en profondeur. Les méthodes utilisées donnent une idée assez bonne des dommages
crées dans les couches mixées, mais la complexité des phénomènes ne permet ni de quantifier
ni de prévoir un profil de concentration de manière précise. Ceux-ci sont fortement
dépendants des espèces présentes : interactions impuretés-matrice-ions primaires, sections
efficaces de collision et réglages instrumentaux sont autant de paramètres influençant le
mixage collisionnel.
De manière générale, on peut dire que le mixage collisionnel est une étape à part
entière dans le processus d’analyse « pulvérisation de l’échantillon - détection des
éléments », dans le sens où l’on va analyser non pas le profil réel de concentration mais le
profil où les atomes ont été redistribués par le mixage.
En effet, les dégâts causés par les collisions s’étendent, à partir de la surface de
l’échantillon sur une profondeur W, que l’on appelle zone mixée, et qui est de l’ordre de
quelques dizaines d’angtröms. Puisque les ions éjectés ne proviennent que des deux ou trois
premières couches atomiques, on peut considérer que le détecteur ne compte pas les ions
provenant de l’échantillon original, mais ceux du même échantillon dont le profil de
concentration est légèrement modifié par le mixage collisionnel. Toute la difficulté dans la
reproduction d’un profil de concentration en profondeur réside donc dans la dégradation du
26
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
profil réel causée par le mécanisme du mixage collisionnel, qui est directement lié aux
conditions expérimentales.
‰ Quantification
Nous venons de voir la nature du mixage collisionnel. Nous allons maintenant nous
pencher sur son aspect quantitatif. Considérons un échantillon constitué d’une seule couche
atomique dans une matrice donnée, par exemple du bore dans du silicium. Cette couche,
appelée delta-dopage, nous donne un profil SIMS qui est l’équivalent de la réponse
impulsionnelle d’un processus composé du mixage collisionnel et de tous les autres
mécanismes subis par les ions secondaires lors de l’analyse.
L’expérience nous montre qu’un profil de concentration initial, supposé être un deltadopage, est représenté après analyse par une courbe en forme de cloche, asymétrique, ayant
un front montant rapide et un front descendant plus lent. Ces parties montante et descendante
ont une allure exponentielle, alors que la partie haute de la courbe est de forme arrondie,
gaussienne (figure 1-7).
40000
10000
Intensité (cps)
Intensité (cps)
30000
20000
10000
1000
100
0
10
2600
2800
3000
3200
3400
3600
2600
2800
Profondeur (Å)
3000
3200
3400
3600
Profondeur (Å)
Profondeur (Å)
Profondeur (Å)
Figure 1-7 : Analyse d’un delta-dopage de bore dans du silicium à 8 keV/O 2+.
Représentations linéaire et logarithmique.
Dans la littérature, les parties exponentielles sont associées aux constantes Λup et Λdown
(ou Λu et Λd), représentant la longueur nécessaire pour que le signal croisse ou décroisse
d’une décade. Etant donné que cette courbe sera exploitée analytiquement, on préfère lui
±
z
λ
associer une fonction exponentielle en base e, donc de type Ae , et par suite on utilise plutôt
λ = Λ/2.3, qui représente donc la distance où le signal varie d’un facteur e.
La figure 1-7 nous montre l’exemple d’un delta-dopage de bore dans du silicium,
mesuré dans des conditions expérimentales très courantes (8 keV/O2+). On voit ici qu’on est
loin d’observer une simple couche fine de quelques angströms seulement. De même, la
mesure d’une marche de concentration fait apparaître très nettement la traînée exponentielle
en bout de profil. Si derrière le profil de concentration réel de cette marche il y avait une
27
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
couche mince ou tout autre motif de petites dimensions ou de concentration plus faible que
cette même marche, son profil mesuré serait partiellement ou même complètement dissimulé
par la décroissance exponentielle.
3.1.3 Modélisation du comportement exponentiel décroissant
La littérature compte plusieurs théories concernant la décroissance exponentielle de la
concentration lors d’un bombardement par un faisceau d’ions. Un modèle simple permet de
percevoir ce qui se passe lors du mixage collisionnel. Considérons une couche ∆ d’une
impureté dans une matrice, située à la profondeur z∆. On fait tout d’abord l’hypothèse qu’une
couche z est instantanément diluée sur une distance W lorsque la couche z-W est sur le point
d’être pulvérisée (donc à la surface de l’échantillon). Dans notre cas, la couche mince de dose
D sera diluée sur une distance W, et certains atomes originaires de cette couche seront
pulvérisés.
La pulvérisation de la couche supérieure d’épaisseur dz entraîne une diminution de la
dose, qui devient alors D1 = DÂ(W-dz)/W. Cette nouvelle dose est instantanément diluée sur
une distance W : la concentration a alors diminué de (W-dz)/W.
A chaque épaisseur dz pulvérisée, la dose et donc la concentration locale auront été
divisées par (W-dz)/W ; c’est ce qui nous donne le comportement exponentiel de la
concentration. Or, l’épaisseur de la zone mixée W est directement reliée à l’énergie primaire
Ei, et W augmente avec Ei. Ce modèle de mixage collisionnel permet donc d’associer la
décroissance exponentielle λd avec l’énergie primaire des ions incidents.
On désigne par Rp la profondeur moyenne de pénétration des ions primaires dans la
cible, qui est elle-même directement liée à l’épaisseur de la zone mixée W. Le logiciel TRIM
(TRansport of Ions in Matter), développé par Ziegler et Biersack [5], permet de calculer cette
valeur en fonction de l’énergie d’impact Ei, l’angle d’incidence θ, et de la nature des espèces
en jeu. TRIM utilise la méthode de Monte Carlo, et la relation entre Rp et les conditions
expérimentales est de la forme :
R p = AEin cos θ
(1.3)
n est compris entre 0.5 et 1, et A entre 20 et 60.
3.1.4 Observations expérimentales de λd
Il a été constaté expérimentalement que λd a un comportement globalement linéaire en
fonction de la profondeur de pénétration des ions Rp. Petravic et al. [7] l’ont étudié en
particulier dans le cas de Ge dans Si et Si dans GaAs, alors que Meuris et al. [20] ainsi que
Smirnov et al. [6] dans le cas de l’arsenic ou du bore dans le silicium.
Le coefficient de linéarité entre λd et Rp est très dépendant de la nature des ions
primaires ainsi que des éléments constituant de l’échantillon [7] [20]. L’oxygène est par
exemple bien connu pour générer des pentes λd plus faibles, grâce au phénomène de
28
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
gonflement de la matrice ou swelling (incorporation des ions O2+ sous la surface), que nous
développerons plus loin.
Petravic et al. ont également vérifié que λd est dépendant de cosθ. Les diverses études
sur λd ont abouti à sa modélisation par une loi quadratique [8] :
λd2 ( E ,θ ) = λint2 + ( AE 0.5 cos θ )
(1.4)
où λint est supposé être la pente intrinsèque du profil de concentration réel.
Là encore, la complexité des mécanismes physiques et leur méconnaissance ne
permettent pas, malgré cette loi empirique, de prévoir de manière exacte la valeur de λd.
3.2 Les taux de pulvérisation et d’ionisation
‰ Le taux de pulvérisation
Lors du bombardement ionique, la partie des cascades de collisions localisée vers la
surface engendre l’éjection d’atomes hors de l’échantillon. Au bout d’un certain temps, tous
les atomes sont bien sûr pulvérisés, mais il est intéressant de comparer le nombre d’atomes
éjectés par rapport au nombre d’ions incidents. On définit pour cela le taux de pulvérisation
(nombres d’atomes pulvérisés par ion incident). Chaque espèce a son propre taux de
pulvérisation Yk, et le taux total Yt, est la somme des taux de chacune d’entre elles :
Yt = ∑ Yk
(1.5)
k
L’intérêt du taux de pulvérisation global est de comparer par la suite l’intensité
secondaire par rapport à l’intensité du courant ionique primaire, de l’énergie et angle
d’incidence des ions primaires. D’autre part, les atomes ne sont pas pulvérisés
proportionnellement à leur concentration dans la matrice mais selon un processus de
pulvérisation préférentielle. Ce phénomène entraîne localement un appauvrissement de
l’espèce pulvérisée préférentiellement, et donc une concentration dynamique de chaque
élément.
En effet l’appauvrissement d’une espèce, et donc l’enrichissement d’une autre à la
surface de l’échantillon va initier un régime transitoire des concentrations locales jusqu'à ce
qu’un certain rapport d’équilibre de concentration entre les deux espèces soit atteint. Le
régime permanent (pour la pulvérisation) est alors installé. Ce phénomène transitoire rend
encore plus difficile la quantification des profils sur de très faibles épaisseurs.
‰ Le taux d’ionisation
C’est en fait une probabilité d’ionisation d’une espèce au cours de sa pulvérisation. Il
est noté α n ± et représente le rapport du nombre de particules ionisées n fois sur le nombre
total d’atomes pulvérisés pour cette espèce. Comme le taux de pulvérisation, il est différent
29
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
pour chaque espèce de la matrice dans de beaucoup plus larges proportions (102 à 106) et sera
dépendant des concentrations relatives ainsi que des conditions expérimentales.
‰ Le facteur de transmission
Les atomes ionisés doivent maintenant rejoindre le détecteur afin d’être comptabilisés
et incorporés au profil de concentration de leur espèce. Comme dans tout appareillage, la
transmission n’est pas parfaite et tous les ions crées n’arriveront pas jusqu’au détecteur.
Certains seront absorbés par l’appareillage, alors que d’autres seront filtrés lors des
différentes étapes sur le chemin optique : diaphragmes, secteurs électrostatique et magnétique.
Ce facteur ηk est donc le rapport entre le nombre d’ions détectés par le multiplicateur
d’électrons ou la cage de Faraday et le nombre d’ions sortis de l’échantillon. Il est noté avec
un indice k car il peut également varier selon l’espèce considérée.
‰ L’équation ionique SIMS
A partir des taux de pulvérisation et d’ionisation, ainsi que du facteur de transmission,
on peut comparer le nombre d’ions de l’espèce que l’on souhaite étudier avec le nombre
d’ions primaires bombardés sur l’échantillon. Si on se place dans l’hypothèse où il n’y a pas
de pulvérisation préférentielle, l’équation SIMS de base d’écrit :
I k = I p Yt α N± Ckηk
(1.6)
où Ip et Ik sont respectivement les intensités ioniques primaire et secondaire, Ck étant la de
concentration de l’espèce k (il s’agit d’une mesure instantanée).
Cette équation est utilisée dans la quantification de l’analyse SIMS. Nous ne
l’approfondirons pas dans la suite de ce travail, plutôt orienté vers l’amélioration de la
résolution en profondeur.
4. Particularités de l’oxygène dans l’analyse par SIMS.
Nous avons vu que l’analyse avec ions primaires O2+ est des plus répandues. Son
utilisation intensive trouve son origine dans les propriétés de facteur chimique améliorant la
résolution en profondeur. Voyons rapidement les conséquences diverses de l’utilisation de
l’oxygène comme élément bombardant la cible.
4.1 La ségrégation de certaines espèces
Lorsqu’on bombarde du silicium par des ions O2+, il y a une importante incorporation
des ions primaires dans la cible. Cela se traduit par une oxydation des couches atomiques
proches de la surface de l’échantillon. On obtient donc une interface dynamique SiO2/Si qui
se déplace vers l’intérieur de l’échantillon au fur et à mesure de l’analyse. Or certaines
espèces réagissent à ce phénomène et migrent vers l’interface SiO2/Si, là où il n’y a plus
30
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
d’oxygène. C’est par exemple le cas du cuivre [16], de l’argent, et de l’arsenic [17]. Ce
phénomène est appelé ségrégation et entraîne une dégradation supplémentaire à celle due au
mixage collisionnel, puisque les impuretés ségrégées fuient constamment vers l’intérieur et
donnent des queues de profil très longues (λd très grand). La résolution en profondeur est
alors très mauvaise.
La ségrégation est très dépendante des conditions expérimentales, c’est-à-dire de la
quantité d’ions oxygène reçue, ainsi que de l’angle d’incidence des ces ions (plus l’angle est
faible, plus la quantité d’oxygène incorporé est grande). Lorsqu’on a un angle d’incidence
inférieur à environ 25°, une couche de SiO2 stœchiométrique se forme [18], et la ségrégation
est importante.
D’autres comportements par rapport à l’incorporation de l’oxygène dans la cible,
totalement différents, sont observables, comme par exemple pour le Germanium. Cet élément
réagit à l’oxydation en se regroupant en couches de Ge pur puis en amas de Ge.
Contrairement à la ségrégation, ce phénomène ne nuit pas forcément à la résolution en
profondeur, tout du moins expérimentalement [19], et semble au contraire l’améliorer dans
certaines conditions d’analyse. En fait au niveau théorique, cela pose un problème : si une
analyse montre une bonne résolution en profondeur, c’est-à-dire un λd petit (ce qui est
commun pour Ge dans Si), on ne peut pas l’attribuer à un mixage collisionnel peu influent,
c’est-à-dire à une « bonne » analyse SIMS, puisque le mixage collisionnel n’est pas seul
responsable de la distribution du Germanium. Il faut donc être vigilant sur l’interprétation
d’un tel profil.
4.2 Le gonflement de la matrice
En l’absence de ségrégation, l’oxydation des premières couches atomiques de la
matrice s’accompagne, d’un point de vue géométrique, d’un gonflement local de la matrice,
appelé swelling, lié à l’incorporation des ions primaires. Ce phénomène, apparemment
transparent pour l’opérateur, va en fait provoquer d’une part une augmentation très importante
du taux d’ionisation des espèces à analyser, et d’autre part une dilution locale de toutes les
espèces par la présence des atome d’oxygène incorporés.
L’augmentation du taux d’ionisation se traduit par une sensibilité et une dynamique du
signal bien plus élevées que dans le cas d’ions primaires neutres. Les phénomènes mis en jeu
sont aussi manifestement beaucoup plus complexes et souvent encore mal compris, en
particulier dans leur phase transitoire (début d’analyse).
Le gonflement de la matrice, lui, agit comme une sorte de dilatation locale de l’échelle
des profondeurs, due à l’incorporation des ions primaires, et se traduit par une amélioration de
la résolution en profondeur. Les atomes d’oxygène incorporés reçoivent une partie des chocs
initialement destinés à ceux de silicium (ainsi qu’aux impuretés), et sont eux-mêmes
pulvérisés par les ions incidents suivants. Cette conséquence très importante impose souvent
l’utilisation de l’oxygène comme faisceau primaire dans de nombreux cas.
Meuris et al. [20] ont développé un modèle pour l’origine de l’amélioration de la
résolution en profondeur par l’utilisation d’ions primaires O2+. Ils ont montré que le gain de
31
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
résolution en profondeur obtenu par le gonflement de la matrice est de 2.26. Une autre
approche a été formulée par Gautier [2], où il montre que le gain obtenu est de 2.35 pour
l’incorporation de l’oxygène dans le silicium. Les résultats expérimentaux confirment ce gain
obtenu par le gonflement, même si les valeurs sont parfois dispersées : Petravic et al. [7]
obtiennent des gains de 1.8 à 2.3 pour Ge dans Si, Meuris et al [20] obtiennent 1.7 pour As
dans Si. Cette faible valeur serait due à un effet opposé à l’amélioration de la résolution, à
savoir la ségrégation de l’arsenic en présence d’oxygène.
D’autre part, on constate que l’analyse d’une impureté dans une matrice de SiO2 est
équivalente en résolution, que ce soit avec des ions primaires O2+ ou des ions primaires non
réactifs. En effet la matrice est déjà saturée en oxygène dès le départ, et l’incorporation des
ions primaires O2+ n’a pas lieu comme dans le cas d’une matrice de silicium : il n’y a pas de
gonflement, et puisque la profondeur érodée correspond à celle initiale du SiO2, il n’y a pas
d’amélioration de la résolution spatiale.
4.3 L’utilisation du soufflage d’oxygène
4.3.1 Description
Il existe une autre technique d’analyse SIMS, légèrement différente de la normale, dite
sous soufflage d’oxygène. Elle se caractérise par l’existence d’une pression d’oxygène dans la
chambre de l’échantillon, au lieu d’un vide poussé.
Cette technique est surtout bénéfique pour l’analyse des métaux par exemple, où il se
développe rapidement une topographie de surface qui dégrade complètement la précision de
la mesure. L’exemple frappant de l’analyse d’un échantillon composé de couches alternées de
Fer et de Titane a été mis en évidence par Prudon [1]. Dans cette série de mesures, seules les
deux ou trois premières couches sont discernables pour une analyse sans soufflage, et le profil
de concentration s’atténue jusqu’à devenir quasiment plat. Avec une faible pression
d’oxygène (2Â-7 Torr), toutes les couches sont discernables, mais l’atténuation augmente
avec la profondeur et la résolution est encore très insuffisante. Enfin, en utilisant une pression
d’oxygène plus importante ( > 2Â-6 Torr), l’amélioration de la résolution (dès le début du
profil) est spectaculaire et aucune dégradation n’est visible avec la profondeur.
Cette expérience peut se généraliser à de nombreux métaux ou autres matériaux
propices à l’apparition d’une topographie de surface : l’oxydation locale de la surface de la
cible évite la formation d’une rugosité tout au long de l’analyse. De plus, le taux d’ionisation
des espèces pulvérisées augmente sensiblement, comme dans le cas du gonflement du fait de
la saturation en oxygène.
4.3.2 Avantages et inconvénients du soufflage d’oxygène
L'un des principaux avantages du soufflage réside dans sa capacité à diminuer
considérablement la longueur du régime transitoire de la mesure. En effet, en l’absence de
pression d’oxygène, les premières couches atomiques de la cible ne sont pas saturées en ions
32
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
primaires O2+, mais leur nombre augmente avec le temps. Cela implique des taux d’ionisation
et de pulvérisation en constante évolution. Ce phénomène, très complexe et souvent mis de
côté lors de l’interprétation, dure jusqu’à ce qu’un équilibre ait lieu entre les ions incorporés
et les ions incidents.
Le régime transitoire de l’analyse SIMS devient problématique lorsque les structures à
analyser sont enterrées très peu profondément, à quelques dizaines d’angtröms de la surface.
Dans cette plage de profondeur les phénomènes mis en jeu sont encore mal compris et aucune
quantification n’est possible, trop de paramètres à la fois théoriques et expérimentaux entrant
en jeu. En soufflage, grâce à la pression d’oxygène, une couche oxydée apparaît pratiquement
immédiatement à la surface, permettant d’entrer rapidement dans le régime permanent de
l’analyse.
Au niveau du régime permanent, en l’absence de ségrégation ou de tout autre
phénomène autre que le mixage collisionnel, les résultats sont contradictoires pour le
soufflage d’oxygène avec diverses impuretés. A haute énergie, on obtient un λd inférieur ou
égal pour le bore ou le phosphore dans le silicium, mais il apparaît plus grand dans le cas de
l’arsenic ou du gallium[21]. Par contre à basse énergie, le soufflage d’oxygène aboutit pour
tous ces éléments (sauf pour le bore) à une baisse de la résolution en profondeur.
L’autre avantage du soufflage d’oxygène est l’augmentation du taux d’ionisation des
impuretés électropositives (comme le bore). Ce taux est déjà amélioré par l’utilisation de
l’oxygène comme faisceau primaire, par rapport à d’autres éléments comme le xénon ou le
césium. Cependant, à basse énergie et sans pression d’oxygène, le swelling est insuffisant (la
profondeur de pénétration des ions est faible et l’angle d’incidence élevé). Avec le soufflage,
l’incorporation est plus importante, ce qui augmente l’ionisation et la résolution en
profondeur. Tous ces avantages assurent d’autre part une meilleure reproductibilité des
profils.
L’inconvénient de l’incorporation et de la saturation de la surface en oxygène est la
diminution de la vitesse d’érosion par un facteur 2 à 4, et donc l’allongement des temps de
mesures. Un autre désavantage de l’emploi du soufflage d’oxygène est la difficulté de régler
le faisceau primaire. La pression d’oxygène entraîne une focalisation moins bonne que dans le
vide, en particulier à basse énergie [22]. Enfin, si elle a lieu, la ségrégation est amplifiée par
l’incorporation importante de l’oxygène.
5. Exemples de profils en profondeur et position du problème
Voici un exemple typique d’analyse SIMS : la figure 1-8 est une photo de MET
(Microscope à Transmission Electronique) d’un échantillon contenant douze couches très
fines de bore dans du silicium. Nous lui avons superposé l’analyse SIMS de ce même
échantillon effectuée à 8 keV d’impact. Alors que la photo MET montre la géométrie réelle
des deltas-dopage (lignes sombres sur la photo), le profil en profondeur les restitue de
manière déformée. Cette déformation est inévitable en SIMS, et elle définit la limite de la
résolution en profondeur de l’analyse.
33
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
La réduction continue des dimensions des composants de la micro-électronique
silicium s’accompagne d’une diminution des épaisseurs des couches actives, qui sont
maintenant de quelques nanomètres, et impose l’élaboration d’interfaces abruptes bien
contrôlées. L’analyse par SIMS est la méthode incontournable pour mesurer les profils de
concentration des dopants, mais comme nous le montre cette figure, la résolution en
profondeur doit être améliorée.
En baissant l’énergie d’impact des ions primaires, la résolution en profondeur de la
technique SIMS s’améliore mais est insuffisante, et il convient de d’explorer d’autres moyens
pour en abaisser la limite. La restauration d’information par traitement du signal a été retenue.
Figure 1-8 : Photo prise au microscope à transmission électronique d’un échantillon
contenant des deltas-dopage. Chaque trait foncé est un delta-dopage. En rouge, le profil
SIMS mesuré à 3 keV (représentation linéaire).
Une avancée importante dans cette voie a été faite grâce à la technique de
déconvolution (sous certaines conditions). Elle revient à restaurer des informations masquées
ou diluées au cours d’une opération équivalente à un filtrage, ici les mécanismes de l’analyse
SIMS. La déconvolution, opération inverse de la convolution, s’apparente à une division dans
l’espace de Fourier, et plusieurs méthodes de résolution existent, chacune étant adaptée à des
conditions particulières. Nous verrons en détail dans les prochains chapitres les méthodes
existantes et celles que nous avons retenues afin de résoudre ce problème inverse.
34
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
Le but principal de la déconvolution est de s’approcher autant que possible de la forme
originale d’un signal dégradé par une opération de convolution. Dans notre cas, l’obtention
d’un profil plus proche de la réalité que le profil SIMS mesuré permet ainsi d’améliorer la
résolution en profondeur.
Dans le domaine de la micro-électronique, les fondeurs expérimentent de nouvelles
technologies afin de fabriquer des structures toujours plus petites. Ces technologies
nécessitent à la fois d’être validées par la vérification des produits fabriqués, et d’être
contrôlées, expertisées si une partie d’un dispositif micro-électronique ne fonctionne pas.
Au niveau purement instrumental, la technique d’analyse par SIMS, bien qu’étant la
plus qualifiée dans de nombreux cas, atteint parfois ses limites. Nous proposons donc dans ce
travail d’aider à la résolution de ces problèmes en utilisant des méthodes de traitement
numérique du signal. Avant de traiter de la déconvolution elle-même, nous allons voir
certains éléments et les circonstances dans lesquelles nous utiliserons ces méthodes
numériques : la résolution en profondeur et la réponse instrumentale de l’appareil SIMS
constituent le cœur de notre problème.
6. Définition de la résolution en profondeur
6.1 Les critères de qualité d’un profil en profondeur
La qualité d’une mesure par rapport à une autre est définie selon plusieurs critères.
Suivant le type d’appareil utilisé et les conditions expérimentales choisies par l’opérateur,
l’acquisition d’un profil en profondeur sur un même échantillon peut s’avérer très différente
d’une mesure à l’autre. Pour une impureté donnée, on peut donc comparer plusieurs
grandeurs :
•
•
•
Le niveau de bruit : une mesure trop bruitée défigure le profil de concentration que
l’on souhaite reproduire, et certains détails pourront être masqués.
La puissance du signal : cette valeur est à corréler avec celle du bruit. Plus le signal
de concentration d’une espèce est fort, moins le bruit déforme ce profil. De plus,
l’acquisition étant de nature discrète, une bonne dynamique sur un profil reflétera
plus précisément ce dernier, et les calculs numériques généreront moins d’erreurs
d’arrondi.
Enfin, l’élément le plus important dans un profil de concentration, la résolution en
profondeur : c’est elle qui quantifie l’aspect « fidélité » de la reproduction du profil
réel. Elle peut être estimée par la déformation d’une structure caractéristique, un
front montant ou descendant, ou un Dirac, et est spécifique selon les espèces et les
conditions expérimentales.
35
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
6.2 Différentes méthodes d’évaluation
6.2.1 Evaluation par front montant ou descendant
Etant donné que la mesure SIMS a tendance à élargir la courbe de concentration
originale, on peut définir, comme pour un signal électrique, un temps de montée ou de
descente pour la réponse à un front parfaitement abrupt : on mesure alors l’intervalle de temps
∆t (ou de profondeur ∆z) nécessaire pour que le signal passe de 84% à 16% pour un front
descendant [9]. Ce critère a été choisi pour la ressemblance entre l’allure de l’interface
mesurée et celle de la fonction erreur, résultat de la convolution d’une interface abrupte avec
une gaussienne d’écart-type σ : la distance ∆z séparant ces deux valeurs est égale à 2σ (figure
1-9).
Profil initial
Profil mesuré
1.0
84 %
Intensité (u.a)
0.8
0.6
0.4
0.2
16 %
0.0
800
900
1000
2σ
1100
1200
Profondeur (Å)
Figure 1-9 : Définition de la résolution en profondeur à partir de la mesure
d’une interface abrupte.
D’autres intervalles en relation avec la fonction erreur sont utilisés dans la littérature :
90% et 10% du signal maximum, ce qui correspond à 2.564σ, ou 95% et 5% pour 3.29σ. Quel
que soit le choix de l’intervalle comme critère définissant la résolution en profondeur, on ne
doit pas oublier qu’il est complètement arbitraire. En effet, d’une part on devra utiliser le
même pour différents profils, afin d’établir des comparaisons correctes et ne pas surestimer un
résultat, et d’autre part le front n’est pas réellement gaussien.
Comme nous l’avons vu plus haut, la mesure d’une interface abrupte par SIMS se
traduit par une traînée exponentielle caractérisée par le paramètre λd. De plus, si on prend un
front montant au lieu d’un front descendant, on s’aperçoit que la distance ∆z n’est pas la
même que pour le front descendant. Ceci est dû à une dissymétrie de la réponse
impulsionnelle du système. Le front montant possède lui aussi une partie exponentielle, mais
36
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
son paramètre est souvent inférieur à celui du front descendant, et il est plus difficile à
mesurer.
6.2.2 Evaluation sur un delta-dopage
Un delta-dopage est par définition la plus petite structure géométrique qui puisse
exister pour un couple impureté-matrice, c’est-à-dire une seule couche atomique d’une
impureté dopante à l’intérieur d’une matrice. L’élaboration de telles couches n’est pas
toujours possible dans les semi-conducteurs. Les technologies actuelles de dépôt sous jets
moléculaires permettent d’élaborer, par exemple, B, Ge dans Si ou Si dans GaAs.
Dans le cas où son élaboration est possible, la particularité d’un delta-dopage est de
donner directement, par sa mesure, la réponse impulsionnelle du système de mesure. La
courbe obtenue peut alors être considérée comme le résultat de la plus petite structure
mesurable, et permet des comparaisons directes par l’un de ses paramètres caractéristiques. La
figure 1-10 représente une telle mesure, dans le cas suivant : bore dans silicium, 8 keV, 38.7°
d’angle d’incidence.
FWHM
Intensité (cps)
10000
1000
100
Λd
Λu
10
2600
2800
3000
3200
3400
3600
Profondeur (Å)
Figure 1-10 : Evaluation de la résolution en profondeur à partir
du profil mesuré d’un delta-dopage.
On utilise souvent comme critère de mesure dans ce type de courbe, la largeur à mihauteur, abréviée par FWHM (pour « Full Width at Half Maximum »). Même si ce paramètre
est simple à obtenir et assez intuitif, il faut l’utiliser avec parcimonie, étant donné la nature
asymétrique de la réponse impulsionnelle [65].
Nous avons vu que la mesure d’un delta-dopage donne également des pentes
exponentielles de part et d’autre du profil mesuré. On se focalise généralement sur la pente
37
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
exponentielle décroissante, puisque c’est elle qui reflète l’importance du mixage collisionnel
par son paramètre λd (distance nécessaire pour que le signal décroisse d’un facteur e).
De nombreuses études de résolution en profondeur à partir de deltas-dopage ou de
marches de concentration descendantes assimilent la résolution en profondeur obtenue au
paramètre λd. La prépondérance du mixage collisionnel dans la déformation des profils en
profondeur justifie cette comparaison. Ceci suppose que la dégradation est entièrement décrite
par le mixage collisionnel.
Mais ce rapprochement entre résolution en profondeur et mixage collisionnel ne peut
être fait que dans certaines conditions. Lorsque le mixage collisionnel n’est pas prépondérant,
par exemple lors d’une analyse à basse énergie, ou lorsque d’autres facteurs dégradent la
résolution, la mesure de λd devient insuffisante, et les autres caractéristiques de la courbe
mesurée ont autant de poids que λd.
Une autre manière d’évaluer la résolution en profondeur, plus poussée, est d’utiliser
les moments. En particulier, le moment centré d’ordre 2 d’une fonction mesure la dispersion
autour de la valeur moyenne, ce qui permet de prendre en compte toutes les caractéristiques
de la courbe représentant la fonction.
Nous allons passer en revue brièvement les différents moments usuels. Supposons que
f(z) soit la fonction représentant analytiquement le delta-dopage mesuré. Le moment d’ordre n
de f(z) est défini par :
µn = ∫
+∞
−∞
z n f ( z ) dz
(1.7)
µ 0 (qui est aussi l’intégrale de f(z)) représente la surface sous la courbe de f(z), ce qui
correspond à la dose recueillie par l’analyse pour cette couche dopée.
µ 1 représente le centroïde de f(z), notée z .
Les moments µ 2, µ 3, etc… pris tels quels ne sont pas intéressants car ils ne rendent pas
compte des caractéristiques de f(z) de manière relative. On définit donc un nouveau moment,
le moment centré d’ordre n (n ≥ 2), par :
µ nc = ∫
+∞
−∞
(z − z)
n
f ( z ) dz
(1.8)
On a donc le moment centré d’ordre 2, ou variance, qui mesure la dispersion de f(z)
autour de z . µ 2c tient compte de toutes les caractéristiques de f(z), ses fronts montant et
descendant ainsi que sa largeur. Si f(z) est une gaussienne pure, alors son paramètre σ est égal
à
µ 2c (écart-type).
38
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
µ 2c , µ3c et µ 4c sont utilisés pour caractériser la forme d'une distribution. Ces
indicateurs n'ont de sens que dans le cas d'une distribution unimodale, c’est-à-dire avec un
seul maximum. µ3c reflète l’asymétrie de la courbe et µ 4c son aplatissement.
Intensité (u.a)
6.2.3 Séparabilité de deux deltas-dopage
Un autre moyen intuitif de quantifier la résolution en profondeur est de voir l’effet de
la mesure sur deux deltas-dopage séparés d’une distance d très courte : jusqu’où peut-on
diminuer d de telle façon que les deux couches soient détectables par la mesure ?
Typiquement, l’analyse SIMS de deux deltas-dopage très proches conduit à un profil
en profondeur montrant deux courbes en forme de cloches s’interpénétrant (figure 1-11). On
peut alors distinguer deux maxima séparés par un minimum local. Lorsque la superposition
est trop grande, on ne les distingue plus et il en résulte une courbe simple en forme de cloche,
plus large que les précédentes.
10000
Imax1
8000
Imax2
6000
Imin
4000
d
2000
0
1500
1550
1600
1650
1700
1750
Profondeur (Å)
Figure 1-11 : Evaluation de la résolution en profondeur à partir de la mesure
de deux couches très proches.
Pour quantifier cela, on calcule le contraste pour les deux couches :
C=
I max − I min
I max
39
(1.9)
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
C est bien sûr croissant avec d, et on choisit un seuil de contraste C0 correspondant à
d0, tel que C0 permette de distinguer les deux couches. On assimile alors la résolution en
profondeur à cette distance critique d0.
7. La fonction de résolution en profondeur
Nous allons maintenant nous pencher sur le moyen de quantifier la résolution en
profondeur au niveau analytique. Avant de chercher à approfondir les techniques de résolution
de problèmes inverses, il est nécessaire de bien définir les éléments faisant l'interface entre les
phénomènes physiques réels, la modélisation de ces phénomènes, et leur intégration dans les
équations de traitement du signal.
Quelles que soient les méthodes de résolution que nous utiliserons dans ce problème
inverse spécifique, nous aurons besoin de connaître une certaine quantité d'informations sur le
système étudié. Comme la plupart des systèmes, il est en grande partie caractérisé par sa
réponse impulsionnelle, ou fonction de transfert, transformant le signal d'entrée - ici le profil
réel de concentration - en signal de sortie (le profil mesuré).
7.1 La réponse impulsionnelle en SIMS.
Par définition, la réponse impulsionnelle d'un système est la réponse de ce dernier à un
signal d'entrée égal à un Dirac. Le Dirac est une fonction théorique d'épaisseur nulle,
d'amplitude infinie et dont l'intégrale sur R est égale à 1. Il va de soi que dans le domaine de
la physique, un tel signal n'existe pas, et il est remplacé par un signal fini d'épaisseur non
nulle ("pseudo-Dirac").
Si on se place dans le domaine continu, le "pseudo-Dirac" pourra typiquement être une
fonction nulle ou quasi nulle sur tout son domaine de définition, sauf sur un intervalle très
petit autour de 0. Son intégrale devra aussi être égale à 1. Voici quelques exemples de
fonctions assimilées à un Dirac et souvent utilisées :
−
−
−
créneau d'épaisseur d, de hauteur 1/d
gaussienne de paramètre σ et d'amplitude 1/ 2πσ
fonction "triangle", de base a et de hauteur 1/(2a)
Dans notre cas, il ne s'agit pas de signal électrique ou optique, mais de successions de
plans atomiques. La plus petite structure existante sera alors une couche atomique, ce qui veut
dire que dans la réalité, et comme dans tout système réel, on n’obtiendra jamais la vraie
réponse impulsionnelle, mais au mieux la réponse à une couche atomique, que l'on peut
assimiler à un créneau d’épaisseur égale à la distance moyenne inter-atomique.
Dans toute la suite de ce travail, la réponse à ce « pseudo-Dirac » sera donc assimilée à
la vraie réponse impulsionnelle SIMS. En outre, étant donné que c'est elle qui donne la
mesure de la plus petite structure existante, elle fixera une limite : la résolution en profondeur
maximum sera donnée par la mesure d'un "Dirac" ou delta-dopage. On appellera cette réponse
40
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
impulsionnelle "Fonction de Résolution en Profondeur", ou DRF, pour "Depth Resolution
Function".
7.2 Approche expérimentale de la DRF
Les techniques de fabrication des matériaux semi-conducteurs, "l'épitaxie par jets
moléculaires" ou MBE (Molecular Beam Epitaxy), ou la CVD (Chemical Vapor Deposition),
permettent maintenant l'élaboration de telle couches, grâce à la maîtrise de la vitesse de
croissance. Nous avons vu au paragraphe 3.1.2 que la mesure d'un delta-dopage conduit à une
courbe arrondie au sommet et ayant des pentes montante et descendante exponentielles.
Quels sont les facteurs donnant à la fonction de résolution son allure? La DRF n'est
pas simplement fonction de l'appareil, et on ne peut pas la fixer une fois pour toutes pour
différentes mesures :
• D'une part, elle est très dépendante de l'échantillon à analyser. Chaque couple
matrice-élément produit sa propre DRF. Nous avons vu au paragraphe 3.1.2 que
l'importance du mixage collisionnel dépend des éléments en jeu : interactions
atomiques impureté-matrice, sections efficaces de collision.
• D'autre part, tous les paramètres expérimentaux influencent la mesure : l'énergie
primaire et l'angle d'incidence déterminent une profondeur de pénétration Rp, des
taux d'ionisation et de pulvérisation différents selon leur valeur. Cela influence
donc aussi le mixage collisionnel. Au niveau de la colonne secondaire de l'appareil
ensuite, la sélection selon l'énergie latérale, l'éloignement du centre de l'aire
analysée, ainsi que le système de tri, sont des paramètres expérimentaux
contribuant aussi à la formation de la DRF, en particulier à son amplitude relative
par rapport à une autre mesure.
• Enfin, les imperfections inévitables au niveau expérimental tendent à déformer la
DRF : la taille, la focalisation ainsi que la pureté du faisceau primaire, la planéité de
l'échantillon initial et du cratère formé, etc... modifient le résultat de la mesure. Par
suite on suppose que chaque classe d'appareils a sa propre DRF.
7.3 Modélisation de la DRF
Si on souhaite comparer les résultats provenant de diverses mesures, faites ou non
dans les mêmes conditions expérimentales, il est préférable de pouvoir exprimer la fonction
de résolution en fonction de paramètres analytiques ajustables, plutôt que de travailler sur des
DRF numériques (expérimentales).
Il y a plusieurs avantages à modéliser la DRF :
• Suppression du bruit : tout d’abord, le fittage, par principe, effectue un lissage local
de la courbe représentant la DRF. En SIMS, on considère que le bruit est additif et
aléatoire. Le fittage permet alors de supprimer le bruit de la fonction de résolution
mesurée. De plus, la réponse impulsionnelle ne possède pas de points anguleux, et
est de forme générale assez lisse. Il n’y donc pas de perte d’information suite au
41
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
•
•
•
fittage. Les calculs effectués avec une fonction analytique seront donc plus justes et
plus précis qu’avec une DRF définie numériquement. La suppression du bruit est
surtout importante lorsqu’on passe dans le domaine de Fourier. En effet, les
nombreuses et rapides variations (bien que petites) de la composante « bruit » du
signal SIMS donnent dans l’espace de Fourier de fortes valeurs dans le haut du
spectre. Ces hautes fréquences peuvent considérablement gêner les calculs dans
l’espace de Fourier.
Echantillonnage adaptable : lorsque qu’on mesure un profil par SIMS, l’appareil
effectue des acquisitions régulièrement espacées d’un intervalle de temps dt. Ce
laps de temps dt correspond à une profondeur érodée dz. Selon la vitesse d’érosion
de l’échantillon, à dt fixé, dz pourra varier de plusieurs fois sa valeur (en particulier
en fonction de l’intensité ionique primaire). Lorsqu’on veut effectuer un traitement
numérique sur un profil, on a souvent besoin de la DRF. Si on la mesure à partir
d’un delta-dopage situé sur un autre échantillon, il y a toutes les chances pour que
le pas d’échantillonage soit différent de celui du profil à traiter (à cause de la
variation de la vitesse d’érosion). La déconvolution est dans ce cas impossible, à
moins d’effectuer un ré-échantillonnage, qui peut être source d’imprécision. La
connaissance de la DRF par une forme analytique permet d’échantillonner cette
dernière avec la bonne valeur pour la déconvolution.
Abaques de DRF : en faisant de nombreuses mesures dans des conditions
expérimentales différentes, la forme de la DRF, et donc les paramètres analytiques
la caractérisant varient. On peut obtenir, grâce à ces séries de mesures, des abaques
de fonction de résolution permettant de prévoir ses paramètres en fonction de
l’énergie et de l’angle d’incidence. La modélisation de la DRF permet alors
d’effectuer la déconvolution sans avoir à faire une mesure de delta-dopage.
Calculs de profils : avec une « bonne » fonction de fittage pour la DRF, on peut
prévoir de manière analytique le profil SIMS d’une structure particulière supposée
connue. La comparaison avec le ou les profils mesurés de cette structure permettra
éventuellement de déterminer les performances de l’appareil ou de vérifier que
l’échantillon a été bien fabriqué.
7.4 Quelle forme analytique pour la DRF ?
Le choix de la fonction analytique fittant au mieux la DRF peut être assez différent
selon les auteurs, même si quelques-unes de ces fonctions reviennent le plus souvent. D’un
point de vue pratique, il est important que la forme analytique puisse fitter correctement la
fonction de résolution dans des conditions expérimentales assez différentes, c’est-à-dire sur
une plage d’énergies primaires et d’angles d’incidence assez grande, sans qu’il n’y ait besoin
d’apporter de corrections artificielles.
Herzel et al. [10] proposent de fitter la DRF par un polynôme d’ordre 12 dans le cas de
B dans Si ou SiGe. A notre avis, un tel choix n’est pas judicieux étant donné qu’un polynôme
ne peut pas avoir un comportement asymptotique exponentiel. Herzel a par la suite
artificiellement limité le domaine de définition de la fonction puis extrapolé par des parties
42
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
exponentielles les deux zones de faible signal, c’est-à-dire de part et d’autre de la partie
arrondie de la DRF.
Un fittage par un polynôme est généralement utilisé pour réaliser un lissage de courbe.
Le fittage d’Herzel semble donc être équivalent à un lissage de la courbe expérimentale de la
fonction de résolution, « modifié exponentiellement » aux extrémités.
Nous avons vu que la courbe de la DRF est caractérisée par trois parties
remarquables : une pente exponentielle montante, un sommet arrondi, et enfin une pente
exponentielle descendante. Mis à part la position globale (en profondeur) de la courbe, on
peut espérer caractériser la DRF par trois paramètres indépendants. L’ajustement de Herzel
nécessite 13 paramètres, ce qui nous incite à penser qu’il risque d’y avoir de fortes
dépendances entre les paramètres, et donc de nombreuses fonctions polynomiales pouvant
fitter la DRF. De plus, il n’est pas possible avec autant de paramètres de donner des
significations physiques ou expérimentales à chacun d’eux.
Les parties exponentielles de la DRF peuvent aisément être fittées par une famille de
fonctions appelées double exponentielle. Une double exponentielle est définie comme suit :
 z λ− z0
e u z ≤ z0
D exp( z ) = A  z − z
0
 − λd
z ≥ z0
e
(1.10)
Cette fonction seule n’est pas suffisante pour être assimilée à la DRF, car la zone
autour de z0 n’est pas arrondie (par rapport aux profils expérimentaux), et il y a un point
anguleux en z0. Pour corriger ce problème, on utilise l’astuce de convoluer cette 1ère fonction
avec une autre, de préférence symétrique, afin « d’arrondir » la partie anguleuse. Zalm [12] a
étudié divers exemples de fonction pouvant arrondir la double exponentielle. Turner et al.
[14] ont implicitement utilisé cette méthode, en convoluant une DRF constituée simplement
d’une double exponentielle, par une gaussienne de paramètre σ. Cette gaussienne
représenterait la contribution des phénomènes dégradant la résolution (rugosité) et de la
diffusion. Le fittage est alors excellent. Il attribue les parties exponentielles montante et
descendante, et le paramètre gaussien σ, respectivement aux effets de la profondeur
d’échappement, du mixage collisionnel, et de l’élargissement du profil dû à la rugosité.
Zalm [12] affirme que le choix de la fonction d’élargissement est assez ambigu, et que
celle qu’il utilise, une fonction triangle, donne d’aussi bons résultats au niveau du fittage que
la gaussienne. La fonction triangle utilisée par Zalm est définie sur un intervalle fini [−∆, +∆ ]
par :
Tr ( z ) =
z
∆
∆
1−
43
(1.11)
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
Toutes les fonctions qu’il a étudiées n’ont qu’un seul paramètre, ce qui permet, en
ajoutant les deux paramètres de la double exponentielle, d’en avoir trois au total,
conformément à ce que nous souhaitions pour définir la DRF. Nous avons opté pour une
« fonction d’élargissement » gaussienne, choisie aussi par Dowsett et al. [11], pour plusieurs
raisons :
• D’après les comparaisons, elle semble donner le meilleur résultat de fittage dans le
cas du bore dans le silicium.
• La gaussienne est d’expression simple, elle est continue, dérivable, et n’a pas de
point anguleux. De plus, les propriétés de la gaussienne sont intéressantes, et
peuvent faciliter les calculs : la Transformée de Fourier d’une gaussienne est aussi
une gaussienne, et la dérivée d’une gaussienne est une gaussienne multipliée par la
variable
• D’un point de vue expérimental, les phénomènes aléatoires de nature physique qui
pourraient intervenir lors de la mesure sont eux-mêmes caractérisés par une
gaussienne. Si l’un d’eux venait à s’ajouter à la fonction de résolution, sa
contribution viendrait se combiner à la partie gaussienne de la fonction de
résolution, ce qui donnerait à nouveau une fonction de même type que la DRF.
Nous utiliserons donc dans toute la suite de ce travail la DRF proposée par Dowsett et
al. [11]. Voyons maintenant son expression analytique détaillée. Après convolution de la
double exponentielle par la gaussienne, on obtient une fonction de résolution décrite par trois
paramètres de forme et un paramètre de position.
 z λ− z0
e u z ≤ z0
D exp( z ) = A  z − z
0
 − λd
z ≥ z0
e

(1.12)
− z2
B
Gauss ( z ) =
e 2σ
2πσ
(1.13)
h ( z ) = D exp ( z ) ⊗ Gauss ( z )
(1.14)
Comme toute réponse impulsionnelle d’un système, la DRF doit être normalisée. Les
2 z 2
amplitudes relatives A et B sont donc éliminées. En rappelant que erf( z ) = ∫ e− t dt , le
π 0
résultat final est :
44
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06

 − ( z − z0 )
σ
1
h(z) =
−
1 + erf 

2 ( λu + λd ) 
2 σ
2 λu


 ( z − z0 ) σ 2 
+
  exp 
2 
2λu 
 λu


 ( z − z0 )
σ
−
+ 1 + erf 

2 λd
 2σ


 − ( z − z0 ) σ 2  
+

  exp 
2 
λd
2λd  


(1.15)
z0 représente l’abscisse du point anguleux de la double exponentielle. Il faut noter que
cette valeur n’a pas de signification physique réelle, contrairement à ce que l’on pourrait
croire.
Comme nous l’avons vu précédemment, on peut caractériser la résolution en
profondeur au moyen d’un delta-dopage, en calculant le moment centré d’ordre 2. La forme
analytique de la DRF étant mathématiquement assez simple (1.14), on peut relativement
facilement calculer les moments associés :
• moment d’ordre 1 (centroïde) :
•
µ1 = z = λd − λu + z0
(1.16)
2
µ 2c = σ tot
= λu2 + λd2 + σ 2
(1.17)
moment centré d’ordre 2 :
µ 2c représente la variance de la fonction de résolution autour de sa valeur moyenne z .
2
σ tot est alors l’écart-type, et on voit que σ tot
, qui nous donne une estimation de la résolution
en profondeur, est tout simplement la somme des carrés des paramètres de la DRF.
7.5 Propriétés de la DRF
7.5.1 Causalité
Lors de l’analyse d’un échantillon par SIMS, on s’aperçoit que la structure
géométrique que l’on souhaite analyser apparaît avant que le cratère n’ait effectivement
atteint la première couche atomique de cette structure. Dans le cas d’un delta-dopage, ce
phénomène est nettement visible, puisque le caractère abrupt de la structure disparaît au profit
d’une montée exponentielle apparaissant quelques angtröms avant la profondeur prévue.
La DRF n’est donc pas causale. Ce phénomène s’explique par la longueur W de la
zone mixée, où les atomes des couches profondes jusqu’à W sont brassés jusqu’à la surface.
Des calculs ont été menés afin d’estimer le décalage de la DRF par rapport à la position réelle
du delta-dopage. Littmark et Hofer [15] montrent que si le mixage collisionnel est la
45
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
principale cause de dégradation du profil, alors le moment d’ordre 1 de la DRF correspond à
la position initiale du delta-dopage (figure 1-12).
z
z0
zmax
-200
-100
zδ
Intensité (u.a)
0.01
1E-3
1E-4
1E-5
-300
0
100
200
Profondeur (Å)
Figure 1-12 : Positions relatives de la DRF et du delta-dopage qui lui a donné naissance.
Cette anticipation, propre à l’analyse SIMS, entraînera par la suite quelques
complications, notamment au niveau de la mise en œuvre des traitements numériques.
7.5.2 Asymétrie de la DRF
Puisque la double exponentielle n’est pas symétrique, la DRF ne l’est pas non plus.
Considérons une double exponentielle dont le point anguleux a pour abscisse z0. La
gaussienne, elle, est centrée en 0. Lorsqu’on convolue la double exponentielle avec la
gaussienne, on s’aperçoit que le maximum de la DRF obtenue ne correspond pas à celui de la
double exponentielle (le point anguleux), mais à une profondeur plus grande que z0 (figure 112). Ceci est le résultat de l’asymétrie de la double exponentielle.
On voit donc qu’il y a une certaine ambiguïté sur la signification physique de la forme
analytique de la DRF. La position réelle du delta-dopage est située sur le moment d’ordre 1 de
la fonction de résolution, mais uniquement si le mixage collisionnel est la seule cause de
dégradation du profil. Or, bien que le mixage collisionnel soit toujours présent, nous avons vu
que d’autres facteurs peuvent détériorer le profil (diffusions, rugosités, ségrégation...). Il se
pourrait donc que la position réelle du delta-dopage soit encore différente de z , le moment
d’ordre 1.
46
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
La figure 1-12 résume les différentes abscisses remarquables de la DRF. Les premiers
ions secondaires provenant du delta-dopage apparaissent à la profondeur zδ − W , mais
comme le pic de la DRF est plus facilement identifiable, on mesurera plutôt le décalage avec
le delta-dopage réel par la distance zmax − zδ .
Si on considère que zδ est confondu avec z , alors on peut mesurer l’anticipation ∆zδ
de la DRF par rapport au Dirac qui l’a généré par :
∆zδ = zmax − zδ
(1.18)
avec :
zδ
z = λd − λu + z0
(1.19)
7.6 Cas du bore dans le silicium
Afin d’appliquer les résultats de ce travail à des profils réels, il est nécessaire de
quantifier la DRF par la mesure dans diverses conditions expérimentales. Ayant privilégié le
cas du bore dans le silicium, nous avons analysé plusieurs échantillons contenant des deltasdopage (« multi deltas-dopage») de B dans Si. Chaque échantillon est caractérisé par la
distance séparant les deltas, et par la concentration du bore.
Les analyses ont été faites avec un microanalyseur ionique CAMECA IMS3/4f, sous
faisceau d’ions primaires O2+ ou Xe, avec ou sans soufflage d’oxygène. Le but de ces
analyses est de mesurer la fonction de résolution du bore dans le silicium à diverses énergies
et divers angles d’incidences. Ces analyses nous permettrons de tracer l’évolution des
paramètres de la DRF et d’en extraire des lois de variation.
7.6.1 Ajustement des deltas-dopage
Le premier échantillon ayant servi à mesurer la fonction de résolution est un multi
deltas-dopage composé de douze deltas (voir la figure 1-8). Les quatre premiers sont espacés
de 500 A° et les suivants de 1000 A°. Cet échantillon a été analysé avec différentes
combinaisons de tension primaire (duoplasmatron) / tension secondaire (échantillon). A
chaque analyse correspond une énergie d’impact Ei, un angle d’incidence θ et une profondeur
de pénétration Rp. Les figure 1-13 et 1-14 montrent les fittages de deltas-dopage mesurés à
5.5 keV/O2+ d’impact, 42.4° d’incidence, puis à 1 keV/O2+, 60° d’incidence. On remarque la
qualité du fittage sur la quasi-totalité de la dynamique, excepté sur la partie où le rapport
signal/bruit est mauvais. Visuellement on a donc, tant en échelle linéaire qu’en échelle
logarithmique, une excellente superposition de la forme analytique de la DRF et du deltadopage mesuré.
47
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
Delta-dopage mesuré
Fittage
λ up
10000
Intensité (u.a)
= 3.7 Å
λ down = 44.0 Å
σ
= 22.5 Å
1000
100
400
500
600
700
800
900
Profondeur (Å)
Figure 1-13 : Fittage par la forme analytique de la DRF (1.15) d’un delta-dopage
de Bore dans du Silicium analysé à 5.5 keV/O2+. Représentation logarithmique.
Delta-dopage mesuré
Fittage
7000
6000
Intensité (u.a)
5000
4000
λ up
3000
σ
= 18.3 Å
λ down = 17.3 Å
= 11.1 Å
2000
1000
0
3250
3300
3350
3400
3450
3500
3550
Profondeur (Å)
Figure 1-14 : Fittage par la forme analytique de la DRF (1.15) d’un delta-dopage
de bore dans du silicium analysé à 1 keV/O2+. Représentation linéaire.
Pour chaque mesure il a été effectué un fittage de chacun des deltas-dopage.
Néanmoins, toutes les mesures ne sont pas parfaites, mais la majeure partie des causes
conduisant à une DRF faussée étant dans notre cas connues (développement de rugosités,
48
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
cratère non homogène), il n’a pas été tenu compte des deltas-dopage concernés. Nous
reviendrons plus loin sur la manifestation des phénomènes dégradant la résolution en
profondeur au niveau des deltas-dopage.
7.6.2 Approche qualitative et interprétations
Observons en première approche le comportement général des deltas-dopage.
Lorsqu’on augmente l’énergie des ions primaires, on remarque nettement que la pente
descendante de la DRF est de plus en plus faible et longue, et que le sommet s’aplatit de plus
en plus. L’interprétation de ces phénomènes est simple : la longueur de la zone mixée
augmente avec la profondeur de pénétration des ions primaires, et si on se réfère à la
modélisation du comportement exponentiel décroissant en milieu de chapitre, on voit d’une
part que la dose d’ions à chaque couche pulvérisée est plus petite (à cause de W), ce qui
explique l’abaissement du sommet arrondi, et d’autre part la diminution de cette dose est plus
faible, c’est-à-dire que la dose totale sera plus « longue à écouler », ce qui nous donne une
traînée exponentielle plus importante.
7.6.3 Evolution des paramètres de la DRF
Le tableau suivant regroupe les paramètres de la DRF pour chacune des analyses
effectuées. Les résultats sont les paramètres moyens extraits du fittage des « bons » deltasdopage.
Ei(eV)
E0(eV)
500
1000
1500
1750
2350
2500
2750
3500
5500
8000
1100
3000
3750
4000
6850
7000
5000
8000
10000
12500
EEch(eV) Rp (Å) λu(Å)
600
3.9
2000
15.0
2250
3.8
2250
30
5.9
4500
30
2.1
4500
32
1.8
2250
46
5.9
4500
50
3.0
4500
73
5.6
4500
99
4.0
λd(Å)
7.5
16.0
17.0
28.7
22.9
21.2
28.5
32.0
39.0
46.0
σ(Å) σtot(Å) soufflage Echantillon
5.0
5.6
X
Bennett
5.3
22.6
Warwick 1
8.1
19.2
X
Bennett
12.8 32.0
Warwick 1
10.8 25.4
X
Bennett
8.4
22.9
X
Bennett
14.0 32.3
Warwick 1
18.0 36.8
Warwick 1
20.1 44.2
Warwick 1
24.7 52.4
Warwick 1
Etant donné que l’énergie d’impact et l’angle d’incidence sont liés (dans le CAMECA
IMS 3/4f), nous avons préféré comparer les paramètres de la DRF par rapport à la profondeur
de pénétration des ions Rp, grandeur à notre avis plus parlante que Ei. Les comparaisons avec
les résultats d’autres mesures provenant d’appareils différents (en particulier ceux opérant à
incidence normale) seront ainsi plus simples.
Rp, qui est directement impliqué dans le mixage collisionnel, a été calculé par la
relation suivante, donnée par Dupuy et al. [23] :
49
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
R p = 50.46EP0.665 cos θ
(1.20)
Cette relation n’est valable que pour Rp > 30 A° environ. Notons ici que Ep est
l’énergie d’impact par ion incident oxygène, et non pas par ion O2+. L’avantage d’utiliser Rp
est de rassembler toutes les combinaisons physiquement possibles (Ep, θ) donnant la même
profondeur de pénétration. Par contre cette valeur n’est pas directement mesurable,
contrairement à Ep, et elle devra être calculée. Ceci suppose de bien connaître les lois de
variations, et les limites de validité de ces lois. Lorsqu’on calcule avec la relation (1.20) un Rp
en dessous de 30 A°, la valeur est en fait sous-estimée. Il sera alors nécessaire de calculer
spécifiquement Rp, par exemple avec le logiciel de simulation de bombardement ionique
TRIM (Transport of Ion in Matter), développé par Ziegler et Biersack [24].
Dans la plage de profondeur de Rp allant de 30 à 100 A°, les trois paramètres de la
DRF ont un comportement quasi linéaire : λd et σ sont croissants alors que λu semble
pratiquement indépendant de Rp. Bien que la DRF puisse être fittée par la même fonction avec
ou sans soufflage, ses paramètres ont un comportement différent, en particulier à basse
énergie.
‰ Comparaison avec les résultats de la littérature
Gautier [2] a étudié, pour le même instrument, les paramètres de DRF pour les
énergies allant de 2.5 à 13 keV (soit Rp de 32 à 142 A°) : avec un échantillon contenant des
deltas-dopage de B dans Si, il obtient également un comportement linéaire des trois
paramètres, sauf pour Ep < 3500 eV (soit Rp < 47.9 Å). Il attribue les divergences des
paramètres pour ces faibles énergies d’impact à la difficulté de régler la sonde primaire et aux
effets de l’incidence rasante.
Les régressions linéaires (en angströms) correspondant à chaque paramètre sont
décrites par les relations suivantes [2] :
λu = 10.9 − 3.24 ⋅10−3 R p
(1.21)
λd = 15.5 + 0.302R p
(1.22)
σ = 12.9 + 0.131R p
(1.23)
Gautier émet cependant des réserves sur la régression de λu, puisqu’il obtient une
erreur de ±5 Å. Nous obtenons pour λu, des valeurs plus faibles, allant le plus souvent de 2 à
6 Å. Nous verrons cependant que λu a beaucoup moins d’influence que les deux autres
paramètres lors des traitements numériques. Les valeurs de λd et σ qu’il obtient sont à peu
près équivalentes aux nôtres, en particulier dans les plus hautes énergies. Nous utiliserons
donc les relations (1.22) et (1.23) dans la plupart des études à haute énergie (alors que λu sera
50
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
tiré de nos fittages), et pour les basses énergies, les paramètres de la DRF seront directement
issus du fittage de deltas-dopage analysés dans les mêmes conditions expérimentales.
Il n’est pas évident de comparer les différents résultats de la littérature, étant donné
qu’il existe plusieurs types d’analyseurs, et que chaque équipe peut personnaliser son propre
appareil en modifiant ses caractéristiques.
En particulier, il faut différencier les analyses en incidence oblique de celles en
incidence normale. Dans les appareils comme le microanalyseur CAMECA IMS3/4f, l’angle
d’incidence est tel qu’il n’y pas de formation de SiO2 stœchiométrique, mais seulement de
SiOx (avec x < 2) Ainsi, on ne peut pas bénéficier pleinement du phénomène de swelling, qui
apporte un gain en résolution en profondeur. Mais de manière générale, les résultats obtenus
par Dowsett [11] [25] [26], Barlow [27], Mattey [28] sont sensiblement égaux aux nôtres.
7.6.4 Origine des paramètres de la DRF et mécanismes balistiques
Nous avons opté, faute de mieux, pour une forme analytique « semi-empirique » pour
décrire la fonction de résolution. Ce choix comporte, comme nous l’avons vu, des avantages
et des inconvénients. En fait, l’idéal aurait été de disposer d’une modélisation complète du
processus de la mesure SIMS, en incluant les paramètres physiques depuis le faisceau
primaire jusqu’à la détection des ions secondaires. Cette modélisation est encore impossible.
Le principe même de l’analyse, c’est à dire la pulvérisation de l’échantillon, est loin d’être
complètement compris. Ensuite, les mécanismes sont trop dépendants des espèces chimiques
de la matrice et des espèces incidentes, et de leur concentration relative. A cela s’ajoute le
grand nombre de paramètres expérimentaux réglables par l’opérateur. Parfois leur sensibilité
rend difficile la reproductibilité des mesures.
Nous avons vu l’origine de λd. Celle de σ a été étudiée par Littmark et il montre que
même dans des conditions expérimentales supposées idéales (pas de rugosité, cratère plat,…),
σ existe et il dépend de Rp. L’hypothèse est donc que σ est lié aux cascades de collisions
isotropes. Le profil est ainsi de plus en plus élargi quand Rp augmente. Nous verrons plus loin
que σ est aussi impliqué dans les phénomènes à caractère gaussien de dégradation de la
résolution en profondeur.
Le comportement de λu est plus ambigu. D’après Badheka et al. [30], il serait
principalement relié à la rugosité microscopique au cours de la mesure, alors que Turner [14]
trouve son origine dans la profondeur d’échappement des ions secondaires. Quoi qu’il en soit,
le comportement apparemment linéaire (quasi constant) de λu est assez mal compris, et il
semble ne pas dépendre uniquement du mixage collisionnel.
L’équipe de Badheka et Van Den Berg [30] [31] a développé un logiciel de simulation
de profils nommé IMPETUS. En fait la partie du logiciel qui calcule la DRF est tout aussi
empirique puisque certains paramètres sont ajustés de telle sorte qu’ils « collent » à
l’expérience.
51
&KDSLWUH/·DQDO\VHHQSURIRQGHXUSDU6,06
7.6.5 Quelle extrapolation à très basse énergie ?
Les progrès récents en instrumentation, tels que par exemple la mise au point de
sources d’ions à potentiel flottant, permettent de diminuer l’énergie jusqu’à quelques
centaines d’électron-volts. Le comportement des paramètres σ et λd semble être linéaire par
rapport à Rp avec une ordonnée à l’origine nulle. Cette propriété semble être cohérente,
puisque lorsque le profondeur de pénétration des ions tend vers zéro, il n’y a plus de mixage
collisionnel (il n’y a également plus d’érosion).
En dessous de 500 eV, il faut cependant prendre en compte divers facteurs : la vitesse
d’érosion devient très faible, et d’autres phénomènes parasites tels que l’apparition d’une
rugosité (dépendante de l’angle d’incidence) peuvent alors limiter la résolution en profondeur.
8. Conclusion
Dans ce chapitre, nous avons exposé les principes de la Spectrométrie de Masse des
Ions Secondaires et décrit son appareillage. Malgré de nombreux avantages et une puissance
d’analyse poussée, les inconvénients de la technique sont la destruction de l’échantillon et
l’altération plus ou moins importante du profil réel de concentration recherché.
Nous avons vu que la principale source de dégradation de la résolution en profondeur
de la technique est de nature balistique, le mixage collisionnel. Dans le cas du bore dans le
silicium, celui-ci peut-être modélisé par une fonction analytique relativement simple
d’expression et que nous appelons DRF (Depth Resolution Function). Elle est le résultat de la
convolution d’une double exponentielle par une gaussienne et est décrite par trois paramètres
indépendants. La DRF représente la réponse impulsionnelle du système transformant le profil
réel de concentration d’une espèce en un profil dégradé en résolution en profondeur.
Les trois paramètres de la DRF λu , λd , σ ont de manière générale un comportement
linéaire en fonction de la profondeur de pénétration des ions primaires et peuvent être estimés
assez précisément pour les plus hautes énergies. Dans les très faibles énergies d’impact, ou
dans des conditions expérimentales particulières, il est préférable de fitter directement la DRF
à partir de la mesure d’un delta-dopage.
52
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
&KDSLWUH
/D'pFRQYROXWLRQVRXV
&RQWUDLQWHV
1. Introduction
Dans le premier chapitre, nous avons posé les bases de la physique qui vont nous
permettre d’appliquer les techniques de traitement numérique du signal aux profils de
concentration obtenus par analyse SIMS. Nous avons vu qu’au niveau expérimental, il est très
difficile d’améliorer la qualité des résultats. Pour obtenir un gain faible en résolution, il faut
maintenant mettre en œuvre de grands moyens instrumentaux. Diminuer l’énergie d’impact
des ions primaires implique le réglage minutieux du faisceau, sa stabilité et sa focalisation
devenant très capricieuses dans ces conditions, conduisant fréquemment à la malformation
des cratères et à la naissance de rugosités. D’autre part, le temps d’analyse augmente
rapidement avec la diminution de l’énergie primaire et donc de la vitesse d’érosion de
l’échantillon. Enfin, les améliorations de l’appareillage nécessaires à l’obtention des
résolutions ultimes ont un coût financier élevé.
La déconvolution se propose de prendre en charge la restauration d’une partie des
informations perdues lors de la mesure. Il s’agit de rétablir autant que possible les véritables
dimensions des structures géométriques trop petites pour être mesurées correctement par
l’analyse SIMS de routine. Il faut bien entendu garder à l’esprit que le traitement numérique
n’est pas fait pour transformer une « mauvaise » mesure SIMS en une « bonne » mesure mais
la corriger. Même si la déconvolution aide à l’observation des couches dopées d’un
échantillon, elle est subordonnée à une analyse de qualité. En aucun cas il n’est souhaitable
d’appliquer la déconvolution à un profil de concentration acquis dans de mauvaises
conditions : échantillonnage pauvre, vitesse d’érosion variable, bruit trop important, etc…
Parmi les techniques de restauration d’informations (débruitage, filtrage, extraction de
contours, etc…), la déconvolution est une de celles qui nécessitent beaucoup de précautions.
Si l’on ne prend pas garde à chacun des éléments intervenant dans les calculs, des résultats
insensés peuvent apparaître ; une déconvolution incontrôlée peut générer des aberrations,
comme des structures inexistantes dans la réalité ou des concentrations négatives.
Nous allons, dans ce chapitre, exposer les principes de la déconvolution, d’abord dans
un cadre général, puis nous verrons le cas particulier de l’analyse SIMS. Nous passerons en
revue différentes méthodes de déconvolution afin de choisir celles qui seront mieux adaptées
à notre cas. Ce chapitre fait appel aux compétences de deux domaines, le traitement du signal
et l’analyse SIMS. A première vue, on pourrait penser qu’il est simple d’appliquer un tel
53
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
traitement à des signaux unidimensionnels. Nous verrons que le signal SIMS est un cas assez
sévère de convolution. Enfin, cette partie s’adresse tant au « lecteur physicien », qui trouvera
peut-être certains calculs fastidieux, mais aussi le moyen d’intégrer certains aspects
expérimentaux dans les traitements numériques, qu’au « lecteur mathématicien », qui la lira
peut être avec facilité, mais découvrira l’exemple intéressant de la restauration de profil en
profondeur. Les techniques exposées, connues ou nouvelles, peuvent être facilement étendues
à d’autres types de signaux, en particulier les signaux multidimensionnels.
2. Généralités sur la déconvolution
De nombreux domaines d’application ont recours à la déconvolution, et par suite
différentes méthodes ont vu le jour. Elles peuvent s’appliquer à tout signal ayant été dégradé
par un dispositif linéaire et invariant, comme l’analyse SIMS bien sûr, mais aussi d’autres
types de mesures : électroniques, optiques, acoustiques... En particulier, la déconvolution est
très utilisée dans le domaine des images numériques, qui est la plus grosse source de
méthodes de déconvolution en deux dimensions. Les photos astronomiques ou l’imagerie
médicale sont des exemples de domaines typiques faisant fréquemment appel aux techniques
de déconvolution pour restaurer l’information. Avant d’entrer dans le vif du sujet, il est
important de bien comprendre ce qui nous amène à mettre en œuvre une déconvolution. Une
telle opération implique qu’il y ait d’abord un signal ayant subit une convolution. Ce signal
est inconnu, et en général on ne dispose que du résultat de la convolution de ce signal, mais
aussi, partiellement ou complètement, du signal convoluant. Cela nous amène à faire tout
d’abord quelques rappels sur la convolution, afin d’utiliser par la suite au mieux ses
propriétés.
2.1 Rappels sur la convolution
2.1.1 Définition
Un signal dégradé par altération (filtrage de ses variations rapides), peut être compris
comme résultant de la composition du signal original (celui que l’on recherche), et d’un signal
parasite, par exemple inhérent à la mesure. Nous représenterons dans toute la suite de ce
travail, le signal d’entrée recherché par x(t), et le signal de sortie observable par y(t).
Désignons par H l’opérateur qui transforme le signal d’entrée x(t) en y(t) :
y=H x
(2.1)
H est un opérateur de convolution si x et y sont fonction d’une même variable
indépendante t, et si H est linéaire et invariant au cours de temps, c’est-à-dire :
si x (t ) = x1 (t ) + x2 (t ) ,alors y (t ) = y1 (t ) + y2 (t )
54
(2.2)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
si x (t ) = x1 (t − t0 ) ,alors y (t ) = y1 (t − t0 )
(2.3)
y1 = H x1et y2 = H x2
(2.4)
avec :
Le système qui dégrade le signal x peut être caractérisé par sa réponse impulsionnelle
(réponse à une impulsion de Dirac δ(t)), notée h(t). Le signal de sortie y(t) dépend à chaque
instant t de toutes les valeurs du signal d’entrée x aux instants (t-τ), et ceci de manière
pondérée par h(τ).
L’équation (2.1) devient alors l’équation de convolution suivante :
y (t ) =
+∞
∫ h (τ ) x (t − τ ) dτ
(2.5)
−∞
La convolution est noté par le signe ∗ , ce qui simplifie la notation :
y (t ) = h (t ) ∗ x (t ) ,ou y = h ∗ x
(2.6)
Le terme h∗x est appelé produit de convolution de x par h.
2.1.2 Propriétés du produit de convolution
Comme le produit simple, le produit de convolution de fonctions est commutatif,
associatif et distributif par rapport à l’addition. Si tous les produits de convolution existent
(convergence de l’intégrale de convolution), nous avons :
h∗ x = x∗h
h ∗ ( x1 ∗ x2 ) = ( h ∗ x1 ) ∗ x2
h ∗ ( x1 + x2 ) = h ∗ x1 + h ∗ x2
La propriété la plus intéressante du produit de convolution a lieu dans l’espace de
Fourier : son image est un produit simple. Ainsi, si X(f), Y(f) et H(f) désignent respectivement
les transformées de Fourier de x(t), y(t) et h(t), nous avons :
y (t ) = h (t ) ∗ x (t ) ⇔ Y ( f ) = H ( f ) X ( f )
(2.7)
Le produit simple étant d’expression moins complexe que le produit de convolution,
cette propriété nous permettra d’obtenir des simplifications en passant dans l’espace de
Fourier. Ainsi, on peut distinguer des techniques de déconvolution dans l’espace direct, et
d’autres dans l’espace de Fourier.
55
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
Notons que H(f) est la fonction de transfert du système qui dégrade le signal. Ce
système est un filtre de type « passe-bas » ; on a donc généralement :
H( f ) → 0
(2.8)
f →∞
La fonction de transfert est normalisée, ce qui implique
∫
+∞
−∞
h (t )dt = H ( 0 ) = 1 .
2.2 Modélisation d’un profil SIMS par convolution
Dans le premier chapitre, nous avons vu que l’on peut exprimer la réponse
impulsionnelle caractérisant l’analyse SIMS à l’aide d’une fonction décrite par trois
paramètres. Si on dispose d’un échantillon dont les caractéristiques sont parfaitement
connues, on souhaitera peut-être prévoir le profil en profondeur que l’on obtiendrait pour
différentes énergies primaires. Modéliser un profil mesuré revient alors à convoluer le profil
réel avec la fonction de résolution correspondant aux conditions expérimentales souhaitées
(en particulier ses caractéristiques géométriques).
Cette modélisation de profil SIMS va en fait nous permettre de tester la déconvolution,
puisque nous aurons besoin de profils simulés pour tester les différentes méthodes de
déconvolution.
2.3 Inversion directe de l’équation de convolution
La déconvolution consiste à retrouver le signal original x(t) connaissant le signal de
sortie du système de mesure y(t) et sa réponse impulsionnelle h(t). Le but est donc de résoudre
l’équation de convolution (2.5). Dans l’espace direct, la présence de l’intégrale rend cette
équation difficile à résoudre. Par contre, d’après la propriété (2.7), nous pouvons écrire cette
équation dans l’espace de Fourier :
Y ( f )= H ( f )X ( f )
Nous avons alors X ( f ) =
(2.9)
Y(f )
, et en utilisant la transformée de Fourier inverse :
H(f)
 Y ( f ) 
x (t ) = TF-1 

 H ( f ) 
(2.10)
C’est donc la manière la plus simple et la plus directe de déconvoluer un signal. Cette
solution est formelle. En effet H(f) doit être différente de zéro pour toutes les valeurs de la
fréquence f. D’autre part, H(f) ne doit pas être à décroissance trop rapide en fonction de f. On
56
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
notera que H(f) décroît en fonction de la fréquence (la dégradation est du type « filtre passebas ») et donc H(f) tend vers zéro assez rapidement.
•
Existence de la solution
Une autre approche peut être considérée pour vérifier l’existence et l’unicité de la
solution au problème de déconvolution. Posons :
h*
−1
(t ) ∗ h ( t ) = δ (t )
(2.11)
−1
où h* (t ) représente l’inverse de convolution h(t). Dans l’espace de Fourier, la relation (2.11)
devient :
H*
−1
( f ) H ( f ) = 1, soitH * ( f ) =
−1
1
H(f)
(2.12)
La relation (2.12) nous montre que l’existence de l’inverse de convolution au sens des
distributions tempérées est subordonnée à la condition que H(f) ne s’annule pas. En fait, on
peut montrer que deux conditions permettent l’existence de l’inverse [32] ; il faut d’une part
−1
que le module de H ∗ ( f ) soit borné, et d’autre part que H(f) soit à décroissance lente, c’està-dire :
H∗
−1
( f ) < ∞pour f ∈ R
(2.13)
et
H(f ) ∝ f
−α
quand f → ∞,avecα ∈ N∗
(2.14)
Citons quelques exemples :
• Fonctions gaussiennes :
t
2
2
TF
1 −π   
→H ( f ) = e −π (τ f )
h (t ) = e  τ  ←

τ
Ici, H(f) est à décroissance rapide, donc l’inverse de convolution n’existe pas.
57
(2.15)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
•
Fonctions exponentielles :
TF
1 − t 
1
→H ( f ) =
h (t ) = e τ ←

τ
1 + 2π jτ f
(2.16)
Ici l’inverse de convolution existe.
2.4 Solution principale
Si H(f) décroît rapidement, on travaille uniquement sur l’intervalle de fréquence où
H(f) est inversible. La solution est alors appelée solution principale.
En général, on suppose que H(f) s’annule à partir d’une fréquence fc et la relation
(2.12) n’est définie que pour les fréquences inférieures à fc. La solution dite « principale » sera
alors :
Xp(f )=
Y(f )
W(f)
H(f)
(2.17)
W ( f ) = 1 f ≤ f c
où W(f) est une « fenêtre fréquentielle » définie par : 
W ( f ) = 0 f ≥ f c
Dans l’espace temporel on aura alors :
 Y ( f )

x p (t ) = )-1 
W ( f ) = x ( t ) ∗ w ( t )
 H ( f )

avec w (t ) =
(2.18)
sin ( 2π f c t )
πt
Ainsi, on dispose d’une solution approchée à un problème de déconvolution où
l’inverse de déconvolution n’existe pas [75].
‰ Exemple de déconvolution simple
Nous allons maintenant appliquer la déconvolution dans les conditions les plus
favorables qui puissent être : le signal de sortie y(t) et la réponse impulsionnelle du système
sont parfaitement connus, et il n’y a pas de bruit de mesure. Il n’y a alors qu’à calculer la
solution dans l’espace de Fourier en résolvant l’équation (2.9), puis à la transposer dans le
domaine temporel. La figure 2-1 nous montre que la restauration du signal de départ est
parfaite :
58
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
2200
Signal réel
Signal convolué
Réponse impulsionnelle
Signal déconvolué
2000
1800
1600
1400
1200
1000
800
600
400
200
0
0
200
400
600
800
1000
1200
1400
1600
1800
Figure 2-1 : Exemple de déconvolution d’un signal non bruité où le signal
convoluant est parfaitement connu.
Nous présentons cet exemple pour mémoire seulement. Dans la réalité les
circonstances dans lesquelles nous aurons à effectuer une déconvolution seront bien
différentes. La principale cause rendant la restauration difficile est la présence du bruit de
mesure. A cela peuvent s’ajouter d’autres éléments : une réponse impulsionnelle imprécise ou
mal connue, ou encore une réponse impulsionnelle fortement dégradante.
2.5 Déconvolution de signaux bruités
Toute mesure physique, quelle que soit sa nature (électronique, optique, etc...), est
entachée de divers signaux parasites, considérés ensemble comme le bruit de mesure.
Il faut cependant distinguer deux sortes de signaux « parasites » venant s’ajouter au
signal utile. On considère généralement que le bruit est de nature aléatoire, c’est-à-dire qu’on
ne peut pas prédire sa valeur au temps t2 à partir de celle au temps t1. Les autres signaux
parasites, comme par exemple une composante continue ou un signal sinusoïdal, ne seront pas
considérés comme faisant partie du bruit, puisqu’on peut parfaitement les distinguer et donc
les éliminer du signal mesuré.
Le bruit de mesure est à l’origine de la plupart des difficultés de la déconvolution. En
effet la principale caractéristique du bruit est d’être indissociable du signal utile. Sa présence a
presque toujours comme conséquence de masquer plus ou moins de détails dans le signal
original. Cela implique qu’on ne sait pas distinguer le signal utile du bruit, ce qui est
considéré comme une perte d’information.
59
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
2.6 Différents types de bruit
2.6.1 Caractéristiques fréquentielles du bruit
Le bruit fait certes partie des signaux aléatoires, mais on peut distinguer certaines
caractéristiques déterministes, notamment dans le domaine des fréquences. Dans ce qui suit,
on désigne le bruit intervenant dans les données mesurées par b(t).
•
Le bruit blanc
Ce type de bruit est largement utilisé dans les modélisations et les simulations en
traitement du signal, du fait de sa formulation très simple : ce bruit à une densité spectrale de
puissance constante sur tout l’espace des fréquences. Autrement dit, ce bruit contient toutes
les fréquences possibles et elles ont la même puissance.
•
Le bruit rose
Ce type de bruit est en fait défini de la même manière que le bruit blanc, mais sur un
intervalle de fréquences fini. Ce cas est plus réaliste que celui du bruit blanc puisqu’ aucun
signal physique ne possède un spectre à support infini.
2.6.2 Caractéristiques probabilistes du bruit
Le bruit est modélisé par une fonction aléatoire du temps, mais on peut aussi le
caractériser par sa densité de probabilité p(P)dP, qui est normée :
∫
+∞
−∞
p ( P ) dP=1
(2.19)
•
Bruit gaussien
Un bruit gaussien est caractérisé par une densité de probabilité de forme gaussienne. Si
on désigne par Pc le centre de cette gaussiene, et par σ sa dispersion, la loi de p s’écrit :
−
1
p (P) =
e
2πσ
( P − Pc )2
2σ 2
(2.20)
Pc représente donc la valeur moyenne de ce bruit, et σ son écart-type. On fait souvent
l’hypothèse que le bruit est gaussien car là encore des simplifications en découlent :
• Tous les moments de la variable aléatoire peuvent être calculés à partir des
moments du 1er et 2nd ordre.
• Lorsque plusieurs processus gaussiens de paramètres différents s’ajoutent, il en
résulte un processus encore gaussien.
• Lorsque qu’un grand nombre processus aléatoires de types quelconques
s’ajoutent, le résultat tend à nouveau vers un processus gaussien.
60
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
•
Bruit poissonnien
Le bruit poissonien est plutôt utilisé lorsqu’on souhaite compter un nombre
d’événements (par exemple des particules) dans un intervalle de temps donné. La probabilité
d’avoir n particules pendant une durée T est :
P ( n,T )
( KT )
=
n
n!
e − KT
(2.21)
où K est le paramètre de Poisson. 1/K est le nombre de particules moyen par unité de temps.
La densité de probabilité est :
λ K −λ
p (k ) =
e K ∈N
K!
(2.22)
où λ est la variance.
Les variables aléatoires poissionniennes sont donc bien adaptées aux processus de
comptages, comme celui des ions secondaires en SIMS. Makarov [33] démontre d’ailleurs
que le bruit de mesure dans les profils SIMS en profondeur obéit à la loi de Poisson. Il faut
noter aussi que la loi de Poisson tend vers une loi de Gauss lorsque le paramètre de Poisson K
devient grand.
2.7 Equation de convolution avec bruit
Le système linéaire et invariant à l’origine de la dégradation du signal est un filtre
passe-bas. De ce fait, en hautes fréquences, le signal de sortie du système (celui qu’on observe
ou mesure), n’est en fait que le bruit provenant des capteurs et amplificateurs électroniques.
Un modèle réaliste, dans un contexte linéaire, consiste à appliquer le théorème de
superposition : le signal de sortie du système est égal à la somme du signal non bruité et d’un
bruit large bande :
yb (t ) = y (t ) + b (t ) = x (t ) ∗ h (t ) + b (t )
(2.23)
L’hypothèse la plus simple consiste à supposer que le bruit est blanc, et c’est celle que
nous ferons dans la suite de ce travail.
‰ Remarques importantes concernant le bruit
Au cours de notre étude, nous avons pu mettre en évidence une différence de
vocabulaire entre les spécialistes de l’analyse par SIMS et les spécialistes du traitement du
signal. Pour ces derniers, le bruit résulte du système de mesure des ions secondaires, alors que
61
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
les physiciens considèrent également une autre source de bruit, intervenant avant l’entrée du
système de mesure, et qui est liée aux variations du courant primaire.
Le schéma classique d’un système de mesure est le suivant :
E
Grandeur
physique
Système de mesure :
Capteurs + Chaîne de mesure
Signal de
sortie S
Bruit
Le principe de la mesure globale en SIMS peut être schématisé ainsi :
Ions primaires
Courant I0
Ions secondaires
Courant IE
Spectromètre
+
comptage
Signal de
sortie IS
Mixage
La DRF intervient lors du passage de la concentration initiale C(z) à une concentration
de surface CS(t). En fait, la fonction de transfert du système est celle de l’ensemble de la
chaîne de mesure, dont une partie est physique (mixage collisionnel, érosion, émission d’ions
secondaires), et une partie instrumentale (déviation des ions dans un champ magnétique,
transformation ions : électrons, comptage).
On peut globalement considérer que la partie de la fonction de transfert la plus
pénalisante est celle résultant du processus physique (ceci est démontré en suivant l’évolution
de la DRF avec l’énergie).
Le bruit tel que le définissent les physiciens provient de différents facteurs :
• Nature statistique de l’émission ionique secondaire (phénomène aléatoire).
• Bruit électronique dans la chaîne de mesure.
• Variations du courant primaire I0, dû aux instabilités de la source (duoplasmatron).
Ces sources sont introduites en différents points du système :
• L’érosion statistique intervient après la formation de la concentration de surface,
donc après l’action de la fonction de transfert « principale » (la DRF). Cette source
de bruit peut être considérée comme négligeable.
62
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
•
•
Le bruit électronique intervient lui aussi après la DRF, en sortie du système. Il est
notamment caractérisé pas sa large bande de fréquence.
L’influence de la variation du courant primaire est plus difficile à situer : ce dernier
agit à la fois sur la densité de dommages déposée, donc sur le mixage collisionnel,
et sur la quantité d’ions pulvérisés. La concentration de surface est le résultat d’une
intégration de l’énergie (les variations de I0 ont donc peu d’influence), alors que le
nombre d’atomes pulvérisés est proportionnel au courant primaire quasi-instantané.
On peut donc considérer que la plus grande partie du bruit « primaire » est
introduite après l’action de la DRF.
Le système peut se schématiser ainsi :
CS(t)
Echantillon :
profil C(z)
Variations
aléatoires du
courant primaire
Bruit
électronique
Mixage :
DRF = h(z)
;
Emission
secondaire
Spectromètre
comptage
I
û,0
I
Courant primaire
I0
Dans ces conditions, le bruit généré par la source primaire est indépendant de la DRF,
puisqu’il est multiplié par la concentration de surface CS(t). La déconvolution ne tient donc
aucun compte de cette source de bruit et agit comme s’il faisait partie intégrante du signal. Le
bruit du courant primaire peut être vu comme une modulation du signal utile (le profil de
concentration), qui ne sera pas éliminée par la déconvolution.
2.8 Conséquences de la présence du bruit
2.8.1 Saturation des hautes fréquences
Maintenant que nous avons introduit le bruit dans les équations de convolution,
voyons comment résoudre notre problème. On pourrait à nouveau effectuer une inversion
dans le domaine de Fourier, mais les données de départ ont changé. La fonction de transfert
du système est un filtre passe-bas, son inverse agit donc comme un amplificateur hautes
fréquences. Le bruit sera donc amplifié par la déconvolution.
Dans le cas où y(t) n’est pas entaché de bruit, le terme Y(f)/H(f) est strictement égal à
X(f). Maintenant, la relation (2.7) s’écrit dans l’espace de Fourier :
63
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
Yb ( f ) = H ( f ) X ( f ) + B ( f )
(2.24)
Si on divise les deux membres de cette équation par H(f), on obtient :
X ( f ) Yb ( f ) H ( f ) X ( f ) B ( f )
=
+
H(f)
H(f)
H(f)
B( f )
⇔ X ( f )= X ( f ) +
H(f)
(2.25)
X ( f ) est une estimation de X ( f ) que l’on obtient en divisant simplement Yb ( f )
par H ( f ) . L’équation (2.25) nous montre que le bruit prend toute son importance ici :
X ( f ) est composé du profil réel X ( f ) auquel s’ajoute le bruit B ( f ) fortement amplifié par
le terme H −1 ( f ) .
X ( f ) a donc un spectre « saturé » de bruit dans les hautes fréquences, et son image
x (t ) dans le domaine temporel est un signal fortement oscillatoire et inutilisable. Nous allons
voir les moyens qui s’offrent à nous pour déconvoluer en présence du bruit.
2.8.2 Filtrage de la solution : le « filtre optimal de Wiener »
On a la possibilité de filtrer les hautes fréquences de X ( f ) portant plus de bruit que
d’information utile. Il convient alors de trouver un filtre adéquat de telle sorte que l’on
retrouve un profil déconvolué X W ( f ) aussi proche que possible du profil réel X ( f ) .
On cherche donc le filtre F(f) tel que X W ( f ) =
Yb ( f )
F ( f ) soit le plus proche
H(f)
possible de X ( f ) .
La notion de proximité entre X W ( f ) et X ( f ) peut être traduite mathématiquement
par la distance quadratique entre les deux transformées de Fourier, ce qui nous amène à
minimiser la quantité :
∫
+∞
−∞
X W ( f ) − X ( f ) df
2
qui s’écrit, en notant que Yb ( f ) = Y ( f ) + B ( f ) et Y ( f ) = H ( f ) X ( f ) :
64
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
∫
+∞
−∞
=∫
+∞
−∞
Y ( f )+ B( f )
Y(f )
F ( f )−
df
H(f)
H(f)
2
H(f)
(Y ( f ) ( F ( f ) − 1)+B ( f ) F ( f )
2
2
df
On a ici le carré d’une différence à développer. Or nous avons fait l’hypothèse au
paragraphe précédent que le bruit et le signal mesuré ne sont pas corrélés. Le double produit
du binôme, contenant le produit de Y par B, une fois intégré sur f, donne un résultat nul. Une
fois cette simplification faite, il nous reste à minimiser une intégrale, ce qui revient en fait à
minimiser, après l’avoir dérivée par rapport à F(f), l’intégrande. On a donc à résoudre
l’équation :
Y(f )
2
( F ( f ) − 1) + B ( f )
2
F( f )=0
(2.26)
La solution de cette équation nous donne finalement le filtre optimal de Wiener :
FW ( f ) =
Y(f )
2
Y ( f ) + B( f )
2
(2.27)
2
On peut remarquer dans l’expression du filtre de Wiener que la réponse impulsionnelle
H n’intervient pas directement. C’est des données « non bruitées » Y (qui sont liées à H bien
sûr) et du bruit que dépend le filtre, plus précisément du module de son spectre. Mais
connaître l’expression du bruit revient en fait à le discriminer du signal utile, et c’est
justement le problème qui nous a amené à chercher des solutions pour la déconvolution en
présence de bruit. Puisqu’il est impossible d’obtenir l’expression du bruit dans les données
mesurées, il est nécessaire de recourir à des méthodes d’estimation du bruit.
Une première approximation peut être faite en prenant sa variance. Si on a un moyen
de l’estimer, par exemple sur une partie du signal de sortie où l’on sait qu’il n’y a pas de
signal utile, alors on peut faire l’approximation d’un bruit blanc ( B( f )
2
constant) et
σ B2 = B( f ) . Le filtre de Wiener a dans ce cas l’expression suivante :
2
FW ( f ) =
1+
1
σ B2
Y(f )
(2.28)
2
2
La difficulté est ici l’estimation de Y ( f ) , module carré du signal convolué sans
bruit. Nous verrons dans le prochain chapitre que les performances de la déconvolution par
65
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
cette méthode ne sont pas suffisantes pour notre problème spécifique d’analyse SIMS.
Néanmoins elle donne une première approximation de solution au problème de la
déconvolution en présence de bruit. Celle-ci conduit généralement à un profil déconvolué
contenant des concentrations négatives. Nous n’utiliserons donc pas cette méthode pour
déconvoluer nos profils de concentration en profondeur, et nous allons explorer d’autres
voies, afin de choisir une méthode plus appropriée.
Mais avant d’aller plus loin, il nous faut définir un support pour la mise en pratique de
ces différentes méthodes. En effet la résolution du problème passe par le calcul sur ordinateur,
ce qui suppose une discrétisation des données. Nous allons donc consacrer une partie entière à
exposer le problème avec des données échantillonnées.
3. Passage du domaine continu au domaine discret
3.1
Nature des signaux SIMS mesurés
Lors de l’acquisition d’un profil en profondeur, les ions secondaires sont émis de
façon continue. C’est l’électronique de commande qui gère le comptage des ions secondaires
frappant le détecteur, et cela est fait de manière discrète dans le temps. L’utilisateur a donc le
choix de régler le pas d’échantillonnage dans le temps pour chaque profil et même pour
chaque masse analysée. Selon la vitesse d’érosion de l’échantillon, on obtient un pas
d’échantillonnage spatial de l’ordre de quelques angströms. Les signaux SIMS à notre
disposition sont donc des signaux discrets et de durée finie.
3.2
Notations et particularités du domaine discret
3.2.1 Domaine temporel discret
Les théories formulées dans le domaine continu sont applicables dans le domaine
discret, moyennant quelques précautions. Une fonction à temps discret f = [f0, f1,….fN-1] est
notée comme étant une suite de points image d’une autre suite de points t = [t0, t1,….tN-1]
espacés d’un même intervalle, le pas d’échantillonnage Te. On notera fe = 1/Te la fréquence
d’échantillonnage. Les opérations courantes se retrouvent dans le domaine à temps discret, et
par exemple l’équation de convolution (2.5) devient :
yn =
+∞
∑ x h
i =−∞
i
n −i
=
+∞
∑ h x
i =−∞
i
yn = hn ∗ xn = xn ∗ hn
66
n −i
(2.29)
(2.30)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
La réponse impulsionnelle hn est la réponse du système discret à un Dirac discret δn
défini par le symbole de Kronecker :
1 si n = 0
δn = 
0si n ≠ 0
(2.31)
3.1.2 Espace de Fourier discret
De même, on est amené à discrétiser l’espace des fréquences pour le calcul de la
transformée de Fourier. La période d’échantillonnage dans l’espace des fréquences est alors
fe /N où N est le nombre d’échantillons du signal. La transformée de Fourier à temps et
fréquences discrètes est dite Transformée de Fourier Discrète (TFD). Sa mise en œuvre utilise
l’algorithme rapide de Tukey et Cooley dit FFT (Fast Fourier Transform) [52]. Le lecteur
trouvera une littérature abondante sur la FFT, et nous rappelerons uniquement son
expression :
N −1
X k = ∑ xn e
−2π jn
k
N
k = 0,1....
N − 1
(2.32)
n=0
3.3 Longueur des signaux
Les données que nous auront à traiter sont définies sur un intervalle de temps (ou de
profondeur) borné. Il est donc inutile de définir le produit de convolution sur [−∞;+ ∞]
comme dans l’équation (2.29). Il nous suffira d’effectuer ce produit sur le nombre de points
Nh de la réponse impulsionnelle h (ou sur Nx, puisque le produit de convolution est
commutatif):
yn =
N h −1
N x −1
i=0
i=0
∑ hi xn−i =
∑ x h
i
n −i
(2.33)
Il faut cependant prendre garde à la longueur du vecteur y ; l’équation (2.33) nous
montre que n peut être défini sur un intervalle [0 ; Ny -1] tel que l’indice (n-i) de x soit lui
aussi compris entre 0 et Nx -1 :
min(n − i ) = 0⇒n = i⇒min(n) = 0
max(n − i ) = N x − 1⇒n = N x − 1 + i⇒max(n) = N x + N h − 2
(2.34)
On en déduit que la longueur du vecteur y est Ny telle que :
N y = N x + Nh − 1
67
(2.35)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
On voit donc que le signal de sortie est plus long que les signaux de départ. Cette
convolution est appelée convolution linéaire. Si on souhaite travailler avec des signaux qui ne
« s’allongent pas » lors de la convolution, on peut effectuer ce qu’on appelle une convolution
circulaire, à l’origine employée pour les signaux périodiques.
La convolution circulaire nécessite que les deux vecteurs de départ soient de même
longueur N, et le résultat de la convolution sera lui aussi de longueur N. Nous savons
néanmoins que le vecteur final devra être de longueur N ≥ N y . Le résultat doit être
strictement identique à celui obtenu par convolution linéaire. Il suffit donc de compléter les
vecteur x et h par des zéros afin que leur longueur atteigne N :
 xn ;n = 0,..., N x − 1
xC n = 
0;n = N x ,..., N − 1
(2.36)
 yn ;n = 0,..., N y − 1
yC n = 
0;n = N y ,..., N − 1
(2.37)
 xn ;n = 0,..., N h − 1
hC n = 
0;n = N h ,..., N − 1
(2.38)
L’équation de convolution s’écrit dans le cas de la convolution circulaire :
N −1
N −1
i =0
i =0
yC n =∑ hC i xC n −i mod[ N ]=∑ xC i hC n−i mod[ N ]
(2.39)
Le produit de convolution circulaire présente l’avantage de garder les même longueurs
de vecteurs lors des calculs de convolution, mais l’inconvénient est de rallonger le nombre de
calculs (Ny multiplications à effectuer au lieu de Nh). Sa mise en œuvre est effectuée dans le
domaine de Fourier :
yC n = TFD −1 (TFD ( hC ) ⋅ TFD ( xC ))
(2.40)
3.4 Notation matricielle
Jusqu’ici nous avons utilisé des signaux échantillonnés et des convolutions discrètes.
Ces échantillons peuvent être rangés dans un vecteur colonne x = [ x0 , x1 ,..., xn ,..., xN x −1 ]T . La
convolution peut être décrite par une opération matricielle. On définit une matrice H de taille
N y × N x telle que :
y = þ x
68
(2.41)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
où y = [ y0 , y1 ,..., yn ,..., y N x + Nh −1 ]T .
Les matrices seront notées dans toute la suite de ce travail par une majuscule en gras et
non italique, afin de ne pas les confondre avec les signaux de l’espace de Fourier. H est un
opérateur linéaire représenté par une matrice de Toeplitz.
• Les matrices de Toeplitz
L’équation (2.33) nous montre que H doit être construite à partir de la réponse
impulsionnelle h. Le produit de la ligne i de la matrice H par le vecteur x doit conduire à yi. Il
s’ensuit que les éléments hi , j de H sont de la forme hi − j . On notera que si j est plus grand que
i, alors hi , j = 0 . La réponse impulsionnelle h étant définie sur Nh points, la matrice de
Toeplitz de h s’écrit :
 h0

 h1
 
hN −1
H =  h
0

 0
 0

 0

0
0
h0
h1
0
0
h0
h1
hNh −1
0
0
0
hN h −1
0
0





0 
N y lignes
h0 

h1 


hNh −1 
0
0
h0
h1
hNh −1
0
(2.42)
N x colonnes Si on utilise la convolution circulaire, la matrice de Toeplitz de la réponse
impulsionnelle s’écrit :
 h0

 h1
 
hN −1
H C =  h
0

 0
 0

 0

0
h0
h1
hN h −1
0
0
0
0
0
h0
h1
hNh −1
0
0
0
h0
h1
hNh −1
0
0
0
0
h0
h1
hN h −1
hNh −1
0
0
0
0
h0
h1
hNh −1
0
0
0
0
h0
h1
h1 


hN h −1 

0 
N y lignes
0 

0 
0 

h0 
(2.43)
•
N y colonnes Inversion de matrice et conditionnement
L’inverse d’une matrice carrée H est défini par H-1 tel que :
69
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
H -1H = I
(2.44)
à la condition que H-1 existe. On définit le conditionnement d’une matrice par le
nombre de conditionnement, noté cond(H) et s’exprimant ainsi :
cond ( H ) =
λmax
λmin
(2.45)
où λmax et λmin sont respectivement les valeurs propres maximale et minimale de H. Plus ce
nombre est grand devant 1, plus le système est instable. Une petite variation des données
entraîne une grande erreur sur la solution.
4. Problèmes inverses mal posés
Nous venons de voir la notation matricielle et ses particularités, que nous allons
utiliser pour formuler et mettre en place la résolution de notre problème. On dit d’un
problème qu’il est mal posé lorsque la matrice H représentant la réponse impulsionnelle du
système est mal conditionnée, c’est-à-dire lorsque son nombre de conditionnement cond(H)
est très grand devant 1.
4.1 Résolution de l’équation de convolution
4.1.1 Cas non bruité
Avec le formalisme matriciel que nous venons de voir, on peut écrire l’équation de
convolution très simplement :
y = H x
(2.46)
Une solution formelle de cette équation serait :
x = H −1 y
(2.47)
On notera que H n’est pas une matrice carrée, elle est donc non inversible. Cependant
si l’on garde un nombre de données égal au nombre d’inconnues (les composantes de x), on
peut obtenir une matrice carrée en tronquant la matrice H. On notera que y est de dimension
supérieur à x et l’opération que l’on vient de décrire n’utilise pas toutes les données
disponibles.
L’autre manière de résoudre l’équation est d’utiliser la convolution circulaire, où la
matrice de Toeplitz de h est carrée et donc inversible. On notera alors :
yC = H C xC avec yC = y
70
(2.48)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
et dans l’espace de Fourier :
YC = H C X C
(2.49)
Dans la suite de notre travail, nous n’utiliserons que la convolution circulaire. Pour
simplifier la notation, les indices C ne seront pas mentionnés. Dans les deux cas (convolutions
linéaire et circulaire), le résultat est identique.
L’équation (2.47) ne nous intéressera pas puisqu’elle ne tient pas compte du bruit.
4.1.2 Cas bruité
En pratique, nous avons à résoudre l’équation de convolution bruitée :
y = H x + b
(2.50)
Si on applique la même méthode que précédemment à cette équation, on aura une
estimation de x qui aura l’expression :
x = H −1 y = x + H −1b
(2.51)
et de la même façon que pour la solution de l’équation (2.24), x est une solution non unique,
car elle dépend fortement du bruit, et le mauvais conditionnement de H amplifie
dramatiquement le bruit [34].
4.2 Résolution par les moindres carrés
L’équation (2.50) peut être appréhendée selon un autre point de vue : on cherche une
solution x telle que y = H x soit le plus proche possible de y au sens des moindres carrés. On
part donc de l’idée que le bruit nous empêche de trouver la solution exacte x, et qu’il existe
une solution x redonnant pratiquement le signal mesuré après avoir été convolué par h. Nous
devons minimiser la quantité suivante :
y − H x
2
(2.52)
H x est donc le signal reconstruit, c’est-à-dire le signal qui va nous permettre de
vérifier si la convolution de x par h donne bien le signal mesuré y. La minimisation de (2.52)
par rapport à x nous donne :
71
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
þ T þ x = + T y
(2.53)
−1
x = ( þ T þ ) + T y
(2.54)
d’où :
L’équation (2.54) est appelée équation normale et x solution des moindres carrés
[35]. Cette solution procure la plus grande fidélité aux données mesurées, et de plus assure
l’unicité de la solution. Mais on voit, comme dans le cas de l’inversion directe de l’équation
de convolution, une matrice mal conditionnée à inverser. Cette méthode nous donne donc
aussi une solution dépendant fortement du bruit, et de la même manière que précédemment
(équation (2.51)), si H est mal conditionnée, HTH l’est encore plus et cette solution pourra
donc n’avoir aucune signification physique.
Cette méthode de résolution à son équivalent dans l’espace de Fourier, où la solution
estimée s’exprime formellement par :
*
H Y
X C = C* C
HC HC
(2.55)
Si H ≠ 0∀ f , alors :
X=
Y
H
(2.56)
ce qui revient à la solution trouvée par inversion directe, et n’est donc pas acceptable.
Nous venons de voir que quelle que soit la méthode employée, que ce soit dans
l’espace de Fourier ou dans le domaine temporel avec les matrices, nous nous trouvons face à
un problème de stabilité du système. Les solutions, quand elles existent, sont inutilisables car
multiples et physiquement inacceptables. La multiplicité des solutions nous montre que nous
manquons d’informations pour justifier du choix de telle ou telle solution parmi celles
mathématiquement possibles.
Il nous faut donc définir des critères sur la solution recherchée afin de limiter le
nombre de solutions à celles physiquement acceptables, ce qui s’appelle « stabiliser le
problème », tout en assurant la cohérence des résultats, c’est-à-dire en garantissant la
proximité de la solution choisie avec la solution idéale. Cette modification du cahier des
charges du problème de la déconvolution est très utilisée en traitement du signal, et est
désignée sous le nom de régularisation. Etant donné son importance et la nécessité de
l’employer dans notre cas, nous allons consacrer toute une partie à la définition de la
régularisation d’un problème inverse.
72
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
5. Régularisation d’un problème mal posé
5.1
Introduction à la régularisation
Comme nous venons de le voir, la déconvolution de signaux SIMS fait partie des
problèmes inverses mal posés. Pour faire face à l’instabilité du système, il faut établir de
nouveaux critères qui nous permettront de choisir parmi les solutions possibles celle que nous
aurons jugée la plus acceptable. La régularisation propose donc d’apporter de l’information
dans le processus de résolution du problème. Cet apport d’information concerne en général la
solution elle-même, et plus précisément ses caractéristiques fréquentielles. Elle sera couplé au
premier critère que nous avons déjà formulé, à savoir la proximité du profil reconstruit avec le
signal mesuré (2.52).
La régularisation est largement employée dans les cas suivants :
• Lorsque le nombre d’inconnues est trop grand par rapport au nombre de données
disponibles. La solution n’est pas unique pour ce problème sous-déterminé.
• Le rapport signal sur bruit est mauvais.
Régulariser un problème revient donc à faire l’hypothèse qu’on ne peut pas obtenir la
vraie solution uniquement à partir des données, et que la connaissance de la réponse
impulsionnelle, qui a dégradé le signal d’origine, ne permet de définir qu’une classe de
solutions mathématiquement possibles, contenant les solutions physiquement acceptables et
celle qui ne le sont pas.
L’apport d’informations par la régularisation constitue un choix assez libre selon les
caractéristiques que l’opérateur souhaite privilégier pour la solution recherchée. Cette notion
de « choix de la solution » indique donc que la solution trouvée n’est pas la seule possible,
mais une de celles qui sont acceptables.
5.2 Formulation de la régularisation
Les informations a priori apportées se formulent par un critère d’accord avec cet a
priori qui revient à minimiser la quantité ∆2. Il se combine par la suite au critère ∆1 des
moindres carrés (2.52). La formulation générale de la régularisation s’exprime alors par le
critère suivant à optimiser :
(
)
(
∆ = ∆1 x, x 0 + α ∆ 2 x, x ∞
)
(2.57)
L’importance de ∆2 est modulée par le paramètre α. Lorsque α = 0, on obtient la
solution extrême x 0 correspondant à une fidélité parfaite aux données mesurées y, et x 0 est
déterminée uniquement par le critère des moindres carrés. C’est la solution que l’on admet
comme satisfaisante lorsque les données sont suffisamment fiables (donc ne nécessitant pas
73
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
de régularisation). Lorsque α tend vers l’infini, on a au contraire une fidélité parfaite à l’a
priori que l’on a introduit, sans forcément avoir une solution correspondant aux données.
La régularisation consiste à trouver une solution intermédiaire entre les deux solutions
extrêmes x 0 et x ∞ , en ajustant le paramètre de régularisation α qui fixe un compromis entre
fidélité aux données et fidélité aux informations a priori. On doit donc chercher α tel que le
critère ∆ soit minimal. La figure suivante illustre le compromis entre reconstruction fidèle et
stabilité par le choix de α.
∆1
∆2
∆
∆B
∆A
∆ min
solution fidèle
aux données
αA
α optimal
αB
solution
stable
Figure 2-2 : Influence du choix du paramètre de régularisation α sur la
fidélité de la solution x par rapport aux données y et sur la stabilité de la solution.
5.3 Choix de la méthode de régularisation
Il existe de nombreuses méthodes pour régulariser un problème, chacune étant plus ou
moins bien adaptée selon le domaine d’application. Le terme α ∆ 2 ( x, x ∞ ) sera appelé terme
de régularisation et sa valeur régularité du signal.
5.1.1 Régularisation de norme minimale ou d’ordre 0.
Nous avons vu précédemment que lorsque le problème est mal posé, certaines
solutions sont inacceptables, et notamment elles ne sont pas bornées en amplitude. Puisqu’on
sait que la solution recherchée est d’amplitude bornée, on peut apporter cette information sous
74
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
forme d’une norme à minimiser : ∆ 2 = x . Quant à ∆1, nous utiliserons tout simplement le
2
critère des moindres carrés sur la solution trouvée :
∆1 = y − H x
2
(2.58)
La régularisation se formule dans ce cas par le critère ∆ à minimiser :
∆ = y − H x + α x
2
2
(2.59)
C’est une méthode de régularisation simple, et qui écarte toutes les solutions de norme
excessive.
5.1.2 Régularisation de Tikhonov-Miller
C’est la régularisation la plus utilisée, qui est basée sur un critère quadratique [36]. Le
critère ∆1 est le même que dans le cas précédent (moindres carrés entre les données mesurées
et le profil reconstruit). On impose ici à cette grandeur quadratique d’être inférieure à
l’énergie du bruit Eb :
2
y − H x ≤ b = Eb2
2
(2.60)
On notera que, d’après l’équation qui modélise notre problème, on a b = y − H x .
Le critère ∆2 est du même type que précédemment, quadratique, et s’exprime à l’aide
d’un opérateur de contraintes D. Les solutions définies comme acceptables seront
dépendantes des propriétés choisies pour cet opérateur :
∆ 2 = D x
2
(2.61)
∆2 limite l’espace des solutions mathématiquement possibles à un espace particulier dont les
propriétés sont imposées par D [37]. La solution est l’estimée x telle que ∆ soit minimum :
∆ = y − H x + α D x
2
2
(2.62)
En utilisant les propriétés des produits scalaires et des dérivées, on démontre que la
solution x s’exprime par :
75
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
(þ þ+α ' ' ) x = +
T
T
T
(2.63)
y
soit :
−1
x = ( þ T þ+α 'T ' ) + T y
(2.64)
A = þ T þ+α 'T '
(2.65)
x = ù −1+ T y
(2.66)
En posant :
on obtient :
Le but de D est de lever le caractère mal posé du problème en améliorant le
conditionnement de l’opérateur H. Cela est réalisé par la modification des valeurs propres du
système. On voit en effet que par rapport à l’équation (2.54), x fait intervenir non pas
(þ þ )
T
−1
, qui est instable, mais ( þ T þ+α 'T ' ) . Son conditionnement est donné par :
−1
cond ( A ) =
(
min ( λ
max λH2 + α λD2
2
H
+ α λD2
)
)
(2.67)
où λH2 et λD2 représentent, respectivement, les valeurs propres de þ T þ et DT D . La matrice A
doit conserver les grandes valeurs propres de þ T þ et remplacer les petites par celles de
α DT D . Ainsi, H étant un filtre passe-bas, D doit être un filtre passe-haut.
Cette matrice est de telle sorte que ses valeurs propres soient sensiblement les mêmes
que celle de H, sauf les plus petites (source d’instabilité), qui sont remplacées par celles de
α DT D . Selon les caractéristiques de D et la valeur de α, le système sera ainsi plus ou moins
bien régularisé.
On peut mesurer la qualité de la déconvolution à partir de l’erreur de reconstruction,
que l’on notera E2TM, et qui mesure l’écart quadratique entre le signal mesuré et le signal
reconstruit H x :
2
2
ETM
= y − y = y − H x
2
(2.68)
5.1.3 Choix de l’opérateur de régularisation
L’information que l’on peut introduire par l’intermédiaire de D est plus précise que
dans le cas de la régularisation d’ordre 0, qui n’est finalement qu’un cas particulier de la
méthode de Tikhonov-Miller (avec D = I ). On prend généralement pour D un opérateur de
76
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
type filtre passe-haut, afin de limiter l’énergie des hautes fréquences contenues dans la
solution recherchée. Ce choix résulte de l’observation des solutions instables trouvées par
l’inversion directe du problème (non régularisé). Ces dernières contiennent en effet de fortes
composantes dans le haut du spectre, dues à l’amplification des hautes fréquences du bruit
lors de l’inversion de H (équation (2.51)). D’autre part, le spectre des signaux recherchés est
généralement assez atténué dans les hautes fréquences. Le filtre passe-haut peut par exemple
d
être l’opérateur de dérivation
. Nous verrons plus loin quels autres filtres nous pourront
dx
utiliser dans les autres méthodes exploitant le même type de régularisation.
5.4 Détermination du paramètre de régularisation
Nous allons maintenant voir de quelle manière nous pouvons choisir le paramètre de
régularisation α dans le cas de la méthode de Tikhonov. La difficulté de l’estimation de ce
paramètre a fait l’objet de nombreux travaux, certains étant orientés vers un domaine
d’application particulier. Nous allons présenter brièvement quelques méthodes d’estimation,
le lecteur intéressé trouvera une littérature abondante sur ce sujet [38, 39, 40, 41, 42].
Le rôle du paramètre de régularisation est fondamental puisque la qualité de la
restauration dépendra fortement de son influence par rapport à celle du bruit, de l’opérateur D
choisi, et de la réponse impulsionnelle [43]. Cependant, les différentes méthodes d’estimation
de α ne donnent pas forcément une valeur unique, et le résultat de la déconvolution pourra
être sensiblement différent sur la plage de valeurs que l’on aura à disposition.
Nous allons présenter deux méthodes de calcul de α :
• la méthode d’optimisation par rapport au bruit, de Miller [44]
• la méthode par validation croisée généralisée, qui découle de la validation croisée
simple
5.1.1 Méthode de Miller : optimisation par rapport au bruit
Cette méthode se base sur deux hypothèses concernant chacun des termes ∆1 et ∆2 du
critère à optimiser. La première est celle que nous avons introduite précédemment (2.60)
concernant l’énergie du bruit :
y − H x ≤ b
2
2
(2.69)
La deuxième suppose que la régularité du signal recherché est bornée par une valeur r² :
D x ≤ r 2
2
77
(2.70)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
La combinaison quadratique de ces deux contraintes (2.62) conduit à la solution de
Miller qui s’exprime en fonction de b
2
et r² par [44]:
xMiller = ( þ T þ+α Miller 'T ' ) + T y
−1
(2.71)
avec
α Miller
b
= 2
r
2
(2.72)
L’énergie du bruit ainsi que la régularité du signal ne sont pas accessibles directement,
sauf dans le cas d’une simulation. Dans le cas d’un signal expérimental, il sera donc
nécessaire d’effectuer une estimation locale du bruit puis de donner une valeur approximative
de la régularité r² à partir des informations a priori. On peut noter que si le bruit est très
faible, αMiller sera petit et on aura une solution qui sera plus fidèle aux données. Lorsque le
bruit est plus important, αMiller augmente, ce qui renforce l’influence de l’information a priori.
5.1.2 La validation croisée
Avant d’exposer la méthode de la validation croisée généralisée, nous allons voir celle
de la validation croisée. L’idée de cette méthode est d’enlever un point i du vecteur des
données mesurées, ce qui nous donne un vecteur yi de longueur Ny-1, de calculer la solution
estimée de Tikhonov-Miller x i correspondante (2.64), et de comparer yi avec le signal
reconstruit y i = H x i . Cette comparaison s’effectue sur tous les points i des données
mesurées, et en balayant α sur une plage assez grande. Le raisonnement de la validation
croisée est de choisir α tel que y i soit une bonne estimation de yi [45]. On retient donc le α
tel que l’erreur entre y i et yi sommée sur tous les points i soit minimale.
Le principe se résume en 4 étapes :
1. On construit le vecteur x i en excluant la ième composante dans l’équation (2.64) et le
vecteur yi à partir de y en enlevant la ième composante.
2. On construit ensuite la prédiction de y i correspondant à x i par y i = H x i et on la
compare avec yi :
δ i = yi − y i
3. On répète les points 1 et 2 pour i allant de 1 à Ny et on calcule :
78
(2.73)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
Ny
VC (α ) = ∑ δ i2
(2.74)
i =1
3. VC(α) est calculée pour différente valeur de α, et on choisit celui qui minimise la
validation croisée VC(α).
C’est une méthode très coûteuse en calculs. Elle n’est jamais appliquée telle quelle, on
met donc en place une variante, appelée validation croisée généralisée.
5.1.3 La validation croisée généralisée
La validation croisée généralisée se distingue de la validation croisée simple par la
modification de l’équation (2.74) de telle sorte que l’influence des points marginaux soit
minimisée [45]. Ainsi l’expression de la validation croisée généralisée est [61]:
( y − Hx ) ( y − Hx )
T
VCG (α ) =
(1 − trace (HA
−1
H T )
)
2
(2.75)
On peut noter que cette expression requiert nettement moins de calculs que celle de la
validation croisée simple. De plus, on peut la remplacer par une autre expression,
particulièrement adaptée à la programmation :
(I − HA H ) y
VCG (α ) =
trace ( I − HA H )
−1
2
T
T 2
−1
(2.76)
Dans le domaine de Fourier, cette relation s’écrit [68] :
N −1
VCG (α ) =
∑ Y (k )
2
k =0
G 2 (k )
 N −1

 ∑ G (k )
 k =0

(2.77)
2
avec :
A (k ) = H (k ) + α D (k )
2
2
(2.78)
et
G (k ) =
D ( k )
79
A (k )
2
(2.79)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
5.5 Conclusion sur les méthodes de régularisation des problèmes
inverses mal posés
Nous avons vu que la régularisation est indispensable pour garantir l’unicité et la
stabilité de la solution. Nous avons jusqu’ici appliqué la régularisation dans le cas de la
résolution du problème par inversion directe de l’équation de convolution (dans le domaine de
Fourier ou dans le domaine temporel). Malgré la régularisation, ces méthodes conduisent à un
résultat trop peu satisfaisant. La quantité d’information apportée n’est pas suffisante pour
obtenir une solution proche de la solution idéale.
L’alternative consiste à utiliser des méthodes itératives qui convergent vers une
solution déterminée par les informations apportées à chaque itération. L’algorithme est ainsi
« contraint », et les informations introduites à chaque itération sont appelées contraintes
dures. Nous allons donc nous intéresser à quelques méthodes itératives existantes, avant
d’exposer celle qui à été mise au point durant ce travail.
6. Les méthodes itératives de déconvolution
Elle ont généralement l’avantage de ne pas imposer le calcul direct d’opérateurs
inverses, et de permettre le choix de l’information a priori que l’on apporte. Les paramètres et
les contraintes sont facilement ajustables au cours du traitement [47]. Ces algorithmes itératifs
sont adaptés à une grande variété de signaux [48]:
• Dégradation linéaire ou non
• Systèmes variants et invariants
• Bruit corrélé ou non
6.1
L’algorithme de Van Cittert
C’est l’algorithme qui est à la base de nombreuses méthodes itératives de
déconvolution. L’algorithme de Van Cittert est une méthode de point fixe [62, 63]. Pris dans
sa forme originale, il s’exprime ainsi :
 xn +1 = xn + ( y − H xn )

 x0 = y
(2.80)
Le vecteur xn est en quelque sorte une solution intermédiaire entre les solutions initiale
x0 et finale x∞ . On peut montrer que l’algorithme de Van Cittert converge vers une solution
x∞ équivalente à celle obtenue par l’inversion directe [32]:
x∞ = H −1 y
80
(2.81)
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
6.2 Régularisation de l’algorithme de Van Cittert
Comme dans les méthodes non-itératives, l’algorithme de Van Cittert original conduit
à une solution instable si le problème est mal conditionné. Il faudra d’une manière ou d’une
autre introduire une régularisation si l’on souhaite obtenir une solution bornée.
La première étape consiste à remplacer la résolution itérative de y = H x par celle de
H T y = ( þ T þ+λ'T ' ) x . L’algorithme de Van Cittert avec régularisation de TikhonovMiller s’écrit alors :
(
 xn +1 = xn + H T y − ( þ T þ+λ'T ' ) xn

 x0 = H T y
)
(2.82)
Le fait de régulariser l’algorithme de base ne suffit pas encore à obtenir une solution
acceptable physiquement. En particulier la solution n’est pas toujours positive, ce qui est
gênant pour un profil de concentration ou une image numérique.
6.3 Contraintes dures appliquées à un signal
En plus de la régularisation, nous pouvons introduire une information sur la positivité
du signal. Cette information est généralement appliquée sous forme de contrainte dure, dont
nous allons voir l’expression et les propriétés.
6.3.1 Définition
Une contrainte dure se définit par une transformation du signal x de manière à ce qu’il
vérifie les propriétés « demandées » par un opérateur C spécifique, l’opérateur de
contraintes. Le résultat est un signal xc dit contraint.
6.3.2 Exemples de contraintes dures
• Contrainte de positivité
Lorsqu’on veut imposer à un signal d’être positif, on peut par exemple le tronquer de
telle sorte que les composantes négatives soient ramenées à 0. L’opérateur de positivité P est
alors tel que :
x+ x
P x =
(2.83)
2
Dans ce cas, on voit que les composantes positives de x restent inchangées alors que
les composantes négatives sont réduites à 0.
Si on souhaite plutôt effectuer un repliement des composantes négatives, alors
l’opérateur de contrainte de positivité sera l’opérateur valeur absolue :
81
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
P x= x
(2.84)
On note que ce dernier opérateur permet la conservation de la norme de x.
• Contrainte de maintien à zéro
Celle-ci est une extension de la contrainte de positivité et n’est applicable que dans les
méthodes de déconvolution itératives. Elle consiste à définir une fonction Cm(z), initialement
égale à 1 et dont la composante i à l’itération n devient nulle lorsque la composante i du signal
déconvolué est négative ou nulle. Le signal déconvolué à l’itération n + 1 est ensuite multiplié
par cette fonction Cm, qui permet le maintien à zéro des composantes du signal déconvolué
devenues négatives ou nulles durant l’algorithme. On empêche ainsi la naissance d’artefacts
sur une plage où le signal déconvolué est nul au début de l’algorithme. Cette contrainte est
très intéressante lorsqu’on s’intéresse plus aux niveaux hauts du signal qu’aux faibles
niveaux, puisqu’elle diminue considérablement la quantité d’artefacts dont l’origine est le
bruit dans la partie basse du signal mesuré, et permet l’obtention d’un signal déconvolué
« propre ». Elle est à proscrire si l’on souhaite étudier des faibles niveaux de concentration, il
y aura ambiguïté sur l’origine des artefacts (bruit de mesure ou signal utile).
La contrainte de positivité sera toujours utilisée en déconvolution SIMS. Elle est par
ailleurs incluse dans la contrainte de maintien à zéro. Lorsque nous utiliserons cette dernière,
nous le mentionnerons explicitement.
• Contrainte d’amplitude
De la même façon que pour la positivité, on peut souhaiter qu’un signal ne dépasse pas
une certaine amplitude sur tout son intervalle de définition. Cette opération est ainsi une sorte
d’écrêtage du signal. Si on désigne par l la limite que l’amplitude du signal ne doit pas
dépasser, on peut exprimer cette contrainte par l’opérateur L tel que :
L x =
(x − l )− x − l
2
+l
(2.85)
Ainsi, dans un cas pratique d’analyse SIMS, on peut introduire cette contrainte
d’amplitude si on sait pertinemment que la concentration de telle espèce ne peut pas dépasser
une certaine limite, ou si on souhaite limiter le développement d’oscillations sur un profil
déconvolué, sachant que le profil mesuré correspondant présente une concentration constante
sur une profondeur assez grande. C’est le cas par exemple des marches de concentration.
•
Contrainte de support
Lors de la convolution d’un signal d’entrée par une réponse impulsionnelle, les
structures originales sont « élargies ». En particulier, les queues exponentielles dues à la
fonction de résolution rallongent le profil obtenu et on a des composantes non nulles sur un
intervalle où l’on sait que le signal d’origine est nul. Lors de la déconvolution, il suffit de
forcer à zéro les parties du signal concernées, ce qui correspond à un « fenêtrage » du signal.
82
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
Désignons par s la limite au-delà de laquelle le signal x doit être nul et par S l’opérateur de
contrainte de support :
 xsit < s
S x = 
0si t > s
(2.86)
•
Application de plusieurs contraintes
Si on dispose de plusieurs informations distinctes sous forme de contraintes, on peut
appliquer les différents opérateurs quel que soit leur ordre puisqu’ils sont commutatifs :
PS x = S P x =C x
(2.87)
Dans la pratique, c’est la contrainte de positivité qui sera le plus utilisée, car elle est la
source d’informations la plus sûre et la plus puissante. Nous désignerons dans la suite de ce
travail par C l’opérateur de contraintes globales, qui inclut en particulier la positivité, mais
aussi la contrainte de support ou de maintien à zéro selon les cas.
•
Non expansivité des opérateurs
Les opérateurs de contrainte décrits ci-dessus permettent de réduire l’ensemble des
solutions de l’équation de convolution régularisée à un ensemble plus petit, dont les éléments
satisfont les propriétés imposées par l’opérateur. Ces opérateurs sont dits non expansifs.
L’application d’un tel opérateur se traduit par la projection de la solution non contrainte sur
l’ensemble convexe fermé des signaux qui satisfont la contrainte :
Solution
quelconque
D1
Projection
(Contrainte
de positivité)
Solution
idéale
D2
Solution
contrainte
Ensemble des
solutions
positives
Figure 2-3 : Schéma de la projection de la solution non contrainte. La solution résultante est
alors plus proche de la solution idéale ( D2 ≤ D1 )
83
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
6.3.3 Introduction des contraintes dures dans l’algorithme de Van Cittert
Les contraintes dures que nous venons de voir peuvent être appliquées aussi bien aux
signaux résultant de la déconvolution par inversion directe que sur les solutions
« intermédiaires » des algorithme itératifs. Dans l’algorithme de Van Cittert, il suffit de
remplacer xn par C xn avant de calculer xn +1 :
 xn +1 = C xn + ( y − HC xn )

 x0 = y
(2.88)
En combinant les contraintes dures avec la régularisation, on obtient l’algorithme
suivant, mis au point par B. Gautier et R. Prost [2, 32, 70], et que nous avons utilisé dans une
partie de nos déconvolutions :
(
 xn +1 = C xn + µ n H T y − ( þ T þ+λ'T ' ) & xn

 x0 = y
)
(2.89)
µ n est un scalaire ajusté à chaque itération de façon à optimiser la rapidité de la
convergence [48]. Cet algorithme a prouvé sa fiabilité et sa robustesse pour un large éventail
de signaux [53, 61, 69, 70], la contrainte de positivité étant elle-même fortement
régularisante. Nous verrons dans les prochains chapitres les performances de cet algorithme
sur les simulations ainsi que sur les profils SIMS expérimentaux.
Nous allons maintenant voir un nouvel algorithme qui utilise à la fois les transformées
de Fourier et les contraintes dures dans le domaine temporel.
7. Proposition d’une nouvelle méthode de déconvolution
Nous proposons dans cette partie d’exposer une méthode de restauration basée sur
l’apport d’informations concernant directement la forme du signal recherché. Cette nouvelle
méthode est inspirée à la fois de l’inversion directe de l’équation de convolution dans l’espace
de Fourier, de la régularisation de Tikhonov-Miller, et de l’application de contraintes dures.
Mais elle se distingue notamment par l’introduction d’informations sous la forme d’un modèle
de la solution, qui évoluera au fil de l’algorithme.
7.1 Introduction du modèle de la solution
Nous avons vu au paragraphe 5.3.2 la méthode de déconvolution par régularisation de
Tikhonov-Miller (2.64). Si on considère le critère à minimiser (2.62), on s’aperçoit que le
terme de régularisation fait référence uniquement à la solution recherchée, et ceci de manière
84
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
globale, c’est-à-dire que la propriété que l’on souhaite imposer à x s’applique sur tout son
intervalle de définition, sans distinguer les différentes zones du signal. Barakat et al. [49] ont
proposé une extension de cette régularisation en introduisant un terme x mod représentant un
modèle a priori :
(
)
(
∆ 2 x, x ∞ = D x − xmod
)
2
(2.90)
Ce modèle traduit les propriétés locales du signal telles que les discontinuités, les
zones homogènes, etc… [49].
Ainsi, on peut introduire des informations a priori sur la solution de manière locale,
tout en manipulant les caractéristiques globales de la solution par l’opérateur D et le
paramètre de régularisation α. Le critère à minimiser est alors :
(
∆ = y − H x + α D x − xmod
2
)
2
(2.91)
et la solution recherchée devient :
−1
x = ( þ T þ+α 'T ' ) ( + T y + α 'T ' xmod )
(2.92)
On note que si on a aucune information à apporter sous forme d’un modèle, xmod est
un vecteur nul, et on retrouve la cas de la régularisation de Tikhonov-Miller classique (2.64).
7.2 Equivalence dans le domaine de Fourier
Toutes les théories que nous venons de voir ont leur équivalent dans le domaine de
Fourier lorsque les convolutions sont circulaires. La régularisation classique s’écrit :
X TM =
H *Y
H +α D
2
2
(2.93)
alors que dans le cas de l’introduction du modèle, on a :
H *Y + α D X mod
2
X=
H +α D
2
2
(2.94)
L’avantage certain d’effectuer le travail dans l’espace de Fourier est la rapidité des
calculs, par comparaison avec les calculs matriciels, exigeant le maniement de matrices de
grandes dimensions. Par contre certaines méthodes ne peuvent être transposées dans l’espace
85
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
de Fourier. Les algorithmes itératifs tels que ceux basés sur l’algorithme de Van Cittert et
comportant des contraintes dures non linéaires en sont un exemple. Les opérateurs comme la
contrainte de positivité ou d’amplitude n’ont pas d’équivalent dans le domaine de Fourier.
7.3 Justification de l’emploi d’un modèle de la solution
Nous avons vu que le mauvais conditionnement du système à résoudre entraîne
l’existence de nombreuses solutions, dont la plupart sont instables. La régularisation réduit
l’ensemble des solutions possibles à un ensemble de solutions d’amplitude bornée et de
spectre assez lisse, selon l’opérateur de régularisation choisi. Les contraintes dures, quant à
elles, imposent à la solution de faire partie des signaux positifs, et éventuellement définis sur
un intervalle donné. Nous avons également conclu que les méthodes itératives étaient bien
plus performantes que l’inversion simple de l’équation de convolution régularisée, grâce à la
manière d’introduire les contraintes.
Nous proposons maintenant de compléter les informations apportées par l’introduction
d’un signal sensé décrire au mieux les variations locales du signal recherché. Cet apport
d’informations va encore plus restreindre l’ensemble des solutions. La question est
maintenant de savoir si le modèle va dans le sens de nous rapprocher de la solution réelle, qui
est inaccessible. Il est évident qu’apporter des informations manquant de précision ou
erronées dirigera la méthode vers une solution qui ne sera pas en accord avec la réalité,
puisque l’équation à résoudre sera fausse.
Par contre, si le choix de l’information apportée est pertinent, les résultats de la
déconvolution peuvent être considérablement améliorés par rapport aux méthodes classiques.
La précision de la solution dépendra directement de la précision du modèle apporté.
Comment être sûr que la modification du critère de régularisation ∆2 n’entraînera pas
une dérégularisation du problème ? Lors de l’introduction du modèle dans ∆2, on impose à la
différence obtenue x-xmod d’être régulière. Or le modèle de solution que l’on apporte xmod doit
être forcément de la même nature que le signal que l’on cherche, c’est-à-dire que xmod doit
être d’amplitude bornée, et ayant un spectre de fréquence relativement lisse. Ainsi, même si le
critère ∆2 impose seulement à la différence x-xmod d’être régulière, x ne peut pas être instable.
La régularisation du système est donc conservée.
7.4 Influence du modèle
La qualité du modèle va beaucoup influencer le résultat final. Si on doit se passer de
modèle, on se retrouve dans le cas de Tikhonov-Miller, qui n’est finalement qu’un cas
particulier où le modèle est nul. Le cas idéal correspondrait à celui où le modèle est égal au
signal réel x. Dans l’équation (2.92), x s’écrirait alors :
86
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
−1
x = ( þ T þ+α 'T ' ) ( + T y + α 'T ' x )
( þ T þ+α 'T ' )
(þ þ( x + n ) + α ' 'x )
(þ þ+α ' ' ) (þ þ+α ' ') x + (þ þ+α ' ')
T
T
−1
T
−1
T
T
T
T
T
−1
þ T þn
(2.95)
= x + A −1þ T þn
= x + A −1H T b
où n est le bruit ramené à l’entrée.
On voit ici que la solution trouvée est très proche du signal original. En effet le terme
additionnel A −1H T b est négligeable devant x : l’inversion de la matrice A ne pose pas de
problème puisqu’elle bien conditionné, grâce au terme de régularisation α DT D . Il n’y a donc
pas d’amplification du bruit, et le signal déconvolué est identique au signal d’entrée x au
« bruit de déconvolution » A −1H T b près.
Bien sûr cet exemple n’est là que pour prouver que la méthode du modèle est efficace
si ce dernier est correctement choisi. Le signal réel n’est pas accessible puisque c’est
justement lui que l’on recherche par déconvolution. Nous devons donc chercher un signal qui
contiendra effectivement des informations utiles sur x, sans chercher à tout prix à ce que la
solution soit adaptée à un modèle arbitraire. Nous allons voir maintenant de quels moyens
nous disposons pour utiliser au mieux cette méthode introduisant un modèle de la solution.
7.5 Expressions du modèle de la solution
7.5.1 Minimisation de l’erreur de reconstruction
La principale difficulté consiste à introduire un modèle contenant toutes les propriétés
connues a priori sur le signal original recherché. Barakat [49] propose une paramétrisation du
modèle, qui pourrait donner plus de souplesse à son approche. Ainsi le signal à restaurer est
considéré comme un ensemble d’objets à caractère lisse. Chaque objet peut être alors
modélisé par une gaussienne, et défini par un jeu de paramètres (a,b,c..) qui décrivent sa
position, son amplitude, etc…
On peut alors chercher le modèle tel que l’écart quadratique entre le signal mesuré y et
le signal reconstruit H x soit minimal. Ce modèle assure ainsi l’obtention d’une solution x
qui est, une fois convoluée par la réponse impulsionnelle, la plus fidèle aux données mesurées
(mais elle n’est pas nécessairement la plus proche du signal réel x !). La recherche de ce
2
modèle passe par la minimisation de l’erreur Emod
entre la mesure et la reconstruction :
87
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
2
Emod
= y − y
2
= y − H x
2
y − H( þ þ+α ' ' )
T
T
−1
(+
T
y + α ' 'xmod )
(2.96)
2
T
= y − H( A −1H T y ) + HA −1 (α DT D xmod )
2
Or nous avons vu, d’après la relation (2.64), que A −1H T y = x TM , et en développant le
2
2
terme quadratique Emod
, on aboutit à la relation entre Emod
et l’erreur de reconstruction dans le
2
cas classique de Tikhonov-Miller ETM
:
2
2
Emod
= ETM
− 2α y T (I − HA −1H T ) HB xmod + α 2 HB xmod 2
(2.97)
si on note B A −1DT D .
On peut démontrer que la minimisation de cette erreur conduit à la détermination du
modèle a priori xmod tel que [50] :
xmod =
1
α
((HB ) (HB )) (HB )
T
−1
T
(I − H
T
A −1H ) y
(2.98)
Nous verrons plus loin que les performances de la déconvolution sont améliorées
d’environ 10% par rapport à la régularisation classique de Tikhonov-Miller.
7.5.2 Utilisation d’un signal déconvolué a priori comme modèle de la solution
Le fait d’utiliser comme modèle un vecteur minimisant l’erreur de reconstruction ne
garantit pas la proximité du signal déconvolué avec le signal recherché, surtout en présence de
bruit important. Dans ce cas il est préférable d’introduire des informations qui soient plus
directement liées aux caractéristiques locales supposées du signal d’entrée. On peut par
exemple établir un modèle paramétrique décrivant les formes contenues dans le signal
recherché. En pratique, nous avons un autre moyen à la fois simple et fiable d’apporter des
informations sur le signal réel x, en utilisant un signal déconvolué précédemment et sans
modèle, solution intermédiaire entre la solution idéale, c’est-à-dire le signal d’entrée, et le
signal mesuré. En effet un signal déconvolué, même s’il n’est pas assez précis dans la
description du signal réel, donne une bonne approximation de x. Les caractéristiques de ce
modèle de la solution sont directement liées à x, puisqu’il en est une approximation, mais à
condition bien sûr d’avoir effectué cette « pré-déconvolution » dans de bonnes conditions,
c’est-à-dire avec une régularisation suffisante. Ainsi, les caractéristiques du modèle ne
88
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
dépendent pas des grandeurs de reconstruction. De la même façon qu’un signal non borné x
peut donner une excellente reconstruction y = H x , un modèle de solution xmod tiré de
l’erreur de reconstruction peut ne pas être le meilleur choix. Dans le cas où l’on prend un
signal déconvolué X0 comme modèle, la solution s’écrit, dans l’espace de Fourier :
H *Y + α D X 0
2
X=
H +α D
2
2
(2.99)
Il peut paraître curieux de réutiliser un signal déconvolué précédemment dans
l’équation de convolution régularisée. Mais ce n’est ni plus ni moins que d’utiliser au
maximum les informations sur la solution contenues dans la mesure, à travers le signal
déconvolué correspondant. La régularisation impose des caractéristiques globales à la solution
recherchée, alors que le modèle les rend plus locales.
L’amélioration de la déconvolution est assez nette comparée à la méthode sans
modèle, et légèrement supérieure avec le modèle déduit de la minimisation de l’erreur de
reconstruction. Néanmoins, comme pour toutes les méthodes directes, les performances sont
pauvres lorsqu’on compare les résultats avec ceux des méthodes itératives. De plus, une telle
inversion conduit systématiquement à une solution plus ou moins oscillante, c’est-à-dire que
certaines parties du signal déconvolué (celles où le signal mesuré est faible) sont négatives.
Le fait de contraindre a posteriori la solution pour qu’elle soit positive ne fait que la rendre
« physiquement acceptable », mais le résultat final est encore nettement insuffisant.
On a donc eu l’idée de boucler la méthode, en réitérant l’équation (2.94), avec un
modèle variant à chaque itération. Le but est de calculer un modèle s’approchant au mieux de
la solution réelle x au fil des itérations. La philosophie de l’algorithme est la suivante :
On prend comme 1er modèle de la solution le résultat d’une déconvolution classique
des données mesurées y.
•
L’équation (2.94) nous donne une solution estimée X qui est, si les paramètres de
régularisation ont été correctement choisis, plus proche de la solution réelle X que
Y ne l’est.
•
On attribue à X le statut de « modèle de la solution ».
•
On recalcule alors X à l’aide de ce modèle, et on réitère le procédé.
L’algorithme nécessite quelques précautions : à chaque itération, il faut s’assurer que
le modèle calculé est plus proche de la solution que le modèle précédent. La régularisation
seule n’étant pas suffisante dans le cas des méthodes itératives, il est essentiel voire
obligatoire de rendre la solution positive par la contrainte de positivité. Cette opération n’étant
pas possible dans le domaine de Fourier, il faut l’effectuer dans le domaine temporel,
89
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
moyennant une transformation inverse de Fourier avant la contrainte de positivité (ou de
maintien à zéro) et une transformation directe après.
L’algorithme aura donc l’expression finale suivante :
2

H *Y + α D Xmod n
 X n+1 =
2
2
H +α D


 Xmod n = TF C x n 

 x n = TF-1  X n 
 

 Xmod 0 = 0
(2.100)
C’est cet algorithme que nous avons utilisé la plupart du temps dans la partie
expérimentale de ce travail. Il est très sensible à la valeur de α. Sa mise en œuvre dans
l’espace de Fourier en fait un outil de déconvolution très rapide comparé aux méthodes non
linéaires, comme celles basées sur les champs de Markov par exemple [49]. Notons qu’il est
possible d’utiliser comme modèle initial non pas un signal nul mais par exemple le modèle
déduit de la minimisation de l’erreur de reconstruction que nous avons décrit plus haut. La
méthode nécessitant une régularisation importante, la solution intermédiaire X 1 obtenue est
quasiment la même dans les deux cas et l’algorithme est pratiquement insensible à cette faible
variation.
La philosophie de cet algorithme consiste en fait à chercher le meilleur modèle de la
solution, et à l’appliquer à une simple inversion de l’équation de convolution (régularisée)
avec modèle. En prenant du recul, on voit que les itérations ne portent pas sur le signal
mesuré lui-même, mais plutôt sur le modèle recherché.
8. Conclusion
Dans ce chapitre, nous avons présenté les bases des techniques de déconvolution dans
le cas de systèmes linéaires et invariants. Nous avons vu que les profils en profondeurs
provenant des analyses SIMS font partie des signaux dont le noyau de convolution (la réponse
impulsionnelle) engendre un système instable, mal conditionné.
Les profils SIMS constituent donc un cas de convolution sévère et le bruit de mesure
implique de prendre certaines précautions. Celles-ci sont constituées en fait d’informations
destinées à réduire l’ensemble des solutions possibles. Nous avons vu que nous pouvions
apporter différents types d’informations : régularisation, contraintes dures, modèle de
solution.
Ce chapitre nous a permis de voir la déconvolution dans le cas général, et va
maintenant nous permettre d’appliquer ces techniques dans le cas précis des profils en
profondeur, simulés ou expérimentaux. Dans certains domaines de la physique, il peut
90
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
paraître « anormal » de vouloir corriger un signal afin de retrouver certaines informations qui
semblent perdues lors de l’analyse. Cependant les signaux SIMS font partie de ceux contenant
de l’information « diluée » mais pouvant être restaurée. Il n’y a pas plus de raisons d’obtenir
un signal déconvolué « falsifié », voire irréel, que d’obtenir un mauvais profil mesuré suite
aux mauvais réglages expérimentaux. Si le profil est acquis dans des conditions normales,
alors une déconvolution apportera un profil « intermédiaire » entre les profils réel et mesuré.
91
&KDSLWUH/DGpFRQYROXWLRQVRXVFRQWUDLQWHV
92
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
&KDSLWUH
'pFRQYROXWLRQGH3URILOV
6,066LPXOpV
1. Introduction
Dans le chapitre précédent, nous avons exposé différentes méthodes de déconvolution
plus ou moins efficaces et complexes. Nous avons pu remarquer l’évolution de ces
techniques, l’une étant souvent construite pour palier aux faiblesses de l’autre. Dans cette
partie nous allons appliquer quelques-unes de ces méthodes à des profils SIMS simulés, afin
de déterminer celle que nous devrons utiliser dans les différentes situations expérimentales.
Nous appellerons « profil réel » le profil initial (construit analytiquement), « profil mesuré »
le profil tel qu’il résulterait de l’analyse SIMS (convolué et bruité), et « profil déconvolué » le
résultat de la déconvolution.
2. Conditions opératoires
2.1 Caractéristiques fréquentielles de la DRF et régularisation
Nous avons vu dans le 1er chapitre la description ainsi que la modélisation de la DRF.
D’un point de vue du traitement du signal, son spectre dans l’espace de Fourier va aussi
beaucoup nous intéresser. L’inversion de ce spectre, lors de la résolution de l’équation de
convolution, amplifie considérablement le bruit hautes fréquences contenu dans le signal
mesuré. En SIMS, la forme générale du spectre de la DRF est décrite par la figure 3-1.
On voit que le spectre est principalement constitué de basses fréquences. Ses
composantes chutent rapidement de plusieurs décades à partir d’une fréquence de coupure fc.
Au-delà de fc, l’inversion de ce spectre amplifie les composantes du profil mesuré. Il est donc
nécessaire de régulariser le problème par l’adjonction du terme de régularisation ∆2 vu dans le
chapitre précédent.
91
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
1000
Figure 3-1 :
Modules des
transformées de
Fourier d’un
profil mesuré et
de la DRF
correspondante.
Transformées de Fourier :
100
DRF (Ep = 3 keV, θ = 52°, Rp=40 Å)
Profil mesuré
10
Module TF
1
0.1
0.01
1E-3
1E-4
1E-5
1E-6
0.0
0.1
0.2
0.3
0.4
0.5
Fréquence réduite
2.2 Ampleur de la dégradation
La perte d’informations due à la convolution du signal de départ par la réponse
impulsionnelle peut être estimée en comparant la taille des structures analysées à celle de la
réponse impulsionnelle. En SIMS la DRF est souvent caractérisée par son moment centré
2
d’ordre 2, σ tot
défini par :
2
2
σ tot
= σ 2 + λup2 + λdown
(3.1)
où σ ,λup etλdown sont les paramètres de la DRF que nous avons définis précédemment. Pour
les énergies d’impact accessibles en SIMS (jusqu’à environ 13 keV), le σ tot varie de 10 à
70 Å. Or les échantillons à analyser possédant des structures de l’ordre de quelques dizaines
d’angströms sont très courants. Les deltas-dopage sont actuellement composés d’une à
quelques couches atomiques de dopant.
Nous nous trouvons donc dans le cas où le signal recherché (le profil de concentration
réel) à été fortement dégradé par la réponse impulsionnelle du système de mesure. La
comparaison des σ tot de la DRF et du profil à déconvoluer nous donnera une idée de la
difficulté que nous aurons à restaurer le profil original.
2.3 Mesure de concentration et positivité
Les données mesurées lors de l’acquisition d’un profil SIMS représentent la
concentration relative d’une espèce dans un échantillon en fonction de la profondeur. La
déconvolution doit donc aboutir à un signal déconvolué positif, sans quoi il n’aurait aucun
sens physique. Or il arrive fréquemment que les calculs conduisent à un profil déconvolué
92
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
(intermédiaire ou final) possédant des composantes négatives. Que ce soit par les méthodes
itératives ou non, le profil déconvolué doit subir la contrainte de positivité afin qu’il respecte
cette caractéristique physique.
Profil réel
Profil mesuré
Profil déconvolué
2.0
a)
Intensité (u.a)
1.5
1.0
0.5
0.0
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Profil réel
Profil mesuré
Profil déconvolué
contraint
2.0
b)
Intensité (u.a)
1.5
1.0
0.5
0.0
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Figure 3-2 : Déconvolution du signal test par inversion dans l’espace de Fourier
avec régularisation de Miller. a) sans contrainte de positivité.
b) avec application de la contrainte de positivité a posteriori.
93
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Le fait de « positiver » le signal après la déconvolution dans le cas d’une simple
inversion, ou à chaque itération pour un algorithme itératif, peut paraître arbitraire. Mais cela
revient uniquement à diriger la solution vers un profil plus proche du profil réel recherché, et
donc à apporter de l’information au système. Les figures 3-2a et 3-2b représentent les profils
non contraint et contraint lors d’une déconvolution par inversion dans le domaine de Fourier
et régularisation de Miller.
2.4 Bruit SIMS
Comme tout signal expérimental, les profils SIMS contiennent une composante de
bruit, non négligeable pour la restauration de l’information. Nos profils SIMS simulés devront
donc être construits avec une certaine proportion de bruit conformément à ce que l’on peut
trouver dans les profils expérimentaux.
Allen et Dowsett [51] proposent de modéliser le bruit, pour un profil de bore dans du
silicium, par une distribution de probabilité gaussienne. D’après leurs observations
expérimentales, ils ont établi une loi empirique reliant la valeur moyenne du signal M à
l’écart-type du bruit σ :
σ ≈ 1.7 M
(3.2)
Cette relation indique que les variations du bruit sont dépendantes de l’amplitude
locale du signal SIMS (pour les valeurs du signal non nulles uniquement).
D’après l’étude de Makarov, on pourrait penser qu’utiliser un bruit poissonien est plus
en conformité avec le mode de comptage de l’acquisition du profil de concentration [33].
Cependant le bruit de comptage doit être considéré comme poissonien uniquement dans le cas
d’une analyse « parfaite », c’est à dire où le bruit de mesure proviendrait exclusivement de la
détection des ions secondaires. Dans la réalité, le bruit est le résultat de plusieurs composantes
aléatoires : variations de l’intensité primaire, nature statistique de la pulvérisation et de
l’ionisation, espèces préexistantes dans l’appareil (effet mémoire), etc… Or nous avons vu
dans le chapitre précédent que lorsque plusieurs phénomènes aléatoires se superposent, la loi
qui en résulte tend vers une loi normale.
Pour chaque profil expérimental, on est loin du cas où seul le bruit de comptage est à
prendre en considération. Nous avons donc préféré introduire un bruit de type gaussien pour
nos simulations. Dans tous les cas, il a été vérifié que le type de bruit (poissonien, gaussien ou
de distribution uniforme) n’avait aucune influence sur le résultat de la déconvolution ; seul le
niveau du bruit intervient.
On constate expérimentalement que le rapport signal/bruit (SNR) d’un profil en
profondeur est typiquement de l’ordre de 30 à 50 dB. La plupart de nos simulations seront
effectuées avec un SNR de 35 dB, et nous utiliserons la relation (3.2) pour construire le bruit.
94
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
2.5 Qualité de l’échantillonnage
Au cours de notre travail, nous avons pu constater que le fait d’appliquer la
déconvolution à certains profils expérimentaux, qui au départ n’étaient pas destinés à ce type
de traitement, n’apportait, contre toute attente, aucune amélioration. En effet, non seulement
le niveau de bruit doit être relativement bas, mais la fréquence d’échantillonnage du profil
mesuré doit être telle que le critère de Shannon soit respecté.
Lors d’une acquisition de routine, un échantillonnage moyen peut paraître suffisant, en
particulier à haute énergie. Le caractère filtrant de la réponse impulsionnelle ne nécessite pas
la reproduction des plus hautes fréquences du profil réel, filtrées et noyées dans le bruit. Or, le
but de la déconvolution est de restaurer au moins partiellement ces hautes fréquences,
caractéristiques des détails du profil réel. Etant donné que tous les traitements numériques
s’effectuent sans changements de pas d’échantillonnage, le profil déconvolué aura le même
que le profil mesuré. La fréquence maximale du spectre du profil déconvolué sera donc
limitée par celle du profil mesuré [76]. Il est alors nécessaire d’avoir une qualité
d’échantillonnage suffisante lors de la mesure si l’on veut espérer retrouver dans le profil
déconvolué les détails présents dans le profil réel.
La distance inter-atomique est d’environ 1.25 Å, ce qui fixe l’ultime limite de la
résolution en profondeur et donc l’épaisseur minimale d’un delta-dopage que l’on peut
restaurer par déconvolution. D’après le critère de Shannon, si l’on souhaite avoir la possibilité
de restaurer les plus hautes fréquences d’un profil de concentration, il est nécessaire d’avoir
un pas d’échantillonage inférieur à 0.6 Å. Dowsett [64, 66] affirme que toute déconvolution
doit être subordonnée à une mesure ayant 10 à 30 échantillons par nanomètres, soit un pas
d’échantillonnage de 0.3 à 1 Å, pour déconvoluer dans de bonnes conditions un delta-dopage
de 3 Å d’épaisseur. Ces conditions paraissent contraignantes mais sont d’autant plus
nécessaires que le profil réel est fin. On ne peut pas espérer s’approcher de la forme originale
d’un delta-dopage par déconvolution si le pas d’échantillonnage de la mesure est de 5 ou
10 Å. Bien sûr, le bruit dans les données et donc la régularisation, nécessaire, limitent la
résolution accessible par déconvolution. Mais cette limite ne doit pas être supérieure à celle
imposée par le critère de Shannon.
160
8000
140
a)
b)
120
100
Intensité (cps)
Intensité (cps)
6000
4000
2000
80
60
40
20
0
0
-20
760
780
800
820
840
860
880
900
920
940
300
Profondeur (Å)
350
400
450
500
550
600
650
Profondeur (Å)
Figure 3-3 : Qualité de l’échantillonnage. a) Echantillonnage correct : 0.4 Å/ech.
b) Echantillonnage pauvre : 13.2 Å/ech.
95
700
750
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Afin de nous placer dans des conditions « moyennes », les profils utilisés dans nos
simulations seront construits avec un pas d’échantillonnage de 1 Å, ce qui permet
théoriquement, en l’absence de bruit, de restaurer des structures de l’ordre de 2 Å d’épaisseur.
La figure 3-3 donne deux enregistrements de profils de deltas-dopage de bore dans du
silicium. L’échantillonnage est insuffisant pour le profil b). On a alors une perte
d’information, qui est aggravée par le bruit.
3. Signaux-types utilisés pour les simulations
3.1 Dirac
Les composants de la micro-électronique voient leurs dimensions diminuer au fil des
années, et les interfaces dans les matériaux sont de plus en plus abruptes. Il en résulte une
présence accrue de hautes fréquences dans le spectre des profils réels. L’étude des deltasdopage est donc d’un intérêt essentiel pour la déconvolution. De plus, un delta-dopage
représente la plus petite structure que l’on puisse simuler ou mesurer, et donc il permet de
cerner les performances ultimes des méthodes de déconvolution. Il faut cependant distinguer
le vrai Dirac, que nous utiliserons uniquement pour les performances ultimes théoriques, et le
pseudo-Dirac, qui sera par exemple un créneau de largeur très fine. Celui-ci sera considéré
comme plus proche des couches minces réelles.
3.2 Créneau
Le créneau est une autre forme caractéristique permettant d’éprouver les méthodes de
déconvolution. Celui-ci se retrouve fréquemment dans les échantillons à analyser, avec des
fronts montant et descendant plus ou moins abruptes. Il se trouve qu’un créneau est aussi
difficile à déconvoluer, voire plus, qu’un delta-dopage. En effet le plateau du créneau n’est
pas soumis à une contrainte apportant de l’information, telle que la positivité dans le cas du
delta-dopage, qui agit sur quasiment tout le profil à déconvoluer. Il apparaît alors un problème
typique de la déconvolution, la génération d’oscillations plus ou moins importantes sur le
plateau, et en particulier à proximité des interfaces.
3.3 Gaussienne
Afin de traiter un large éventail de cas possibles de déconvolution, nous avons besoin
de tester aussi des profils réels de forme lisse, tels que les profils de forte diffusion ou
d’implantation d’une espèce. La structure privilégiée est dans ce cas la gaussienne,
intervenant très souvent dans ces cas-là. La largeur de cette gaussienne devra être
suffisamment grande pour que l’on ne se retrouve pas dans le cas d’un pseudo-Dirac. La
figure 3-4 illustre l’ajustement d’un delta-dopage de bore dans du silicium qui a subit un
recuit à 800°C pendant 255 secondes. Le bore a diffusé et il a pris une forme gaussienne.
96
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
2500
Intensité (cps)
2000
1500
1000
500
0
30
32
34
36
38
40
Profondeur (Å)
Figure 3-4 : Ajustement d’un delta-dopage diffusé par recuit à 800 °C pendant 255 s.
Le profil décrit une gaussienne.
3.4 Deux deltas-dopage proches
Il arrive souvent que la réponse impulsionnelle d’un système soit plus « large » que la
structure que l’on souhaite analyser. Dans certains cas, cette largeur couvre deux structures
consécutives, comme deux deltas-dopage rapprochés. Ceci a pour résultat l’observation d’une
seule structure lors de la mesure. La déconvolution doit être capable de séparer les deux
couches tout en restituant leurs dimensions respectives. Sur la figure 3-5, nous avons simulé
la mesure de deux deltas-dopage distant de 60 Å, et analysés par SIMS à une énergie primaire
de 3 keV :
Figure 3-5 : Deux deltasdopage distants de 60 Å
convolués par une DRF
correspondant à une
analyse SIMS à 3 keV.
1.0
Profil réel
Profil mesuré
Intensité (u.a)
0.8
0.6
0.4
0.2
0.0
100
150
200
250
300
350
Profondeur (Å)
97
400
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
3.5
Construction d’un signal-test « polyvalent »
Nous avons imaginé un signal capable de rassembler les trois formes caractéristiques
les plus sensibles à la déconvolution, à savoir le delta-dopage, le créneau ainsi que deux
deltas-dopage proches. La figure 3-6 montre ce signal construit avec un pas d’échantillonage
unitaire, et que nous appellerons par le suite « signal-test » :
2.0
Intensité (u.a)
1.5
1.0
0.5
0.0
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Figure 3-6 : Signal-test utilisé dans cette étude pour éprouver les
performances des méthodes de déconvolution.
Ici le delta-dopage est en fait un pseudo-Dirac (créneau très fin). Pour les simulations,
il a été mis volontairement des interfaces parfaitement abruptes, afin de se placer dans les
conditions les plus défavorables.
4. Déconvolution par les méthodes non-itératives
Nous allons maintenant examiner les résultats obtenus par des méthodes nonitératives, sachant qu’elles sont généralement moins performantes que les méthodes itératives.
4.1 Déconvolution sans régularisation
Nous présentons à titre d’information, dans le cas de notre signal-test, un exemple de
déconvolution où l’on n'a pas pris la précaution d’introduire une régularisation. Nous prenons
deux cas où les rapports signal/bruit sont de 100 dB et 35 dB.
98
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
6
a)
Profil déconvolué
Profil mesuré
Profil réel
4
5000
Intensité (u.a.)
2
Intensité (u.a.)
Profil déconvolué
b)
10000
0
-2
0
-5000
-4
-10000
SNR = 100dB
SNR = 35dB
-6
0
100
200
300
400
500
600
700
800
0
100
200
300
400
500
600
700
800
Profondeur (Angströms)
Profondeur (Angtröms)
Figure 3-7 : Inversion directe de l’équation de convolution, sans régularisation.
a) Rapport signal/bruit de 100dB dans les données mesurées. b) SNR = 35dB.
On voit dans les deux cas que le résultat est inacceptable, comme prévu par la théorie.
Avec un SNR de 100dB, le profil déconvolué décrit à peine l’allure du signal mesuré, et
encore moins celle du profil réel. Dans le cas d’un SNR de 35dB, l’amplification du bruit est
telle que le signal déconvolué atteint des amplitudes démesurées.
4.2 Déconvolution par filtre de Wiener
Rappelons l’expression du signal déconvolué par filtrage de Wiener :
XW ( f ) =
Yb ( f )
FW ( f )
H(f)
(3.3)
où le filtre de Wiener s’exprime en fonction du bruit B :
1
FW ( f ) =
1+
B( f )
2
Y(f )
2
(3.4)
Si on détaille l’expression de la solution de Wiener X W en fonction du bruit B, on
obtient :
99
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Y (f)
XW ( f ) = b
H(f)
Y(f )
Y (f)
= b
H ( f ) Y ( f )2 + B( f )2
2
1
1+
B( f )
2
Y(f )
2
(3.5)
Or Y s’écrit aussi HX , ce qui simplifie l’écriture de X W :
H* ( f )
X W ( f ) = Yb ( f )
H(f) +
2
B( f )
2
X(f)
2
(3.6)
Cette expression nous rappelle fortement celle de la solution estimée de Miller. Ici le
terme de régularisation est en fait remplacé par le rapport bruit/signal d’entrée.
La difficulté dans la déconvolution par filtrage de Wiener est d’estimer ce rapport afin
d’optimiser le résultat. Le bruit est supposé blanc, mais sa puissance varie localement en
fonction de celle du signal de concentration de l’espèce analysée. Dans le cas de simulations,
la formule (3.6) peut facilement être mise en œuvre puisqu’on connaît le signal d’entrée X.
Nous construisons le signal « mesuré » en convoluant le signal-test par une DRF
correspondant à 40 Å de profondeur de pénétration Rp (Ep = 3 keV, θ = 52°), puis en ajoutant
une composante de bruit gaussien. Ce bruit est construit de telle sorte que le rapport
signal/bruit (SNR) soit de 35 dB. Le calcul de X W ( f ) selon l’équation (3.6) nécessite le
calcul de l’énergie du bruit B ( f ) . La figure suivante nous montre le résultat obtenu après
2
transformation inverse de Fourier :
Profil réel
Profil mesuré
Profil déconvolué
2.0
Figure 3-8 :
Déconvolution du
signal-test par
filtrage de Wiener.
Intensité (u.a)
1.5
1.0
0.5
0.0
-0.5
0
100
200
300
400
500
Profondeur (Å)
100
600
700
800
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Nous voyons que la méthode par filtrage de Wiener n’apporte pas de résultats
satisfaisant pour les profils de type SIMS, fortement convolués et à fronts abrupts.
4.3 Régularisation de Tikhonov-Miller et inversion de l’équation de
convolution
4.3.1 Déconvolution du signal-test
Nous présentons cette méthode de déconvolution dans le sens où elle fait partie
intégrante de l’algorithme avec « modèle numérique » que nous avons développé. Nous
utilisons le même profil simulé que précédemment, afin de comparer les performances de ces
deux techniques très proches. Nous opérons dans l’espace de Fourier, bien qu’il soit
parfaitement possible d’effectuer les calculs dans le domaine matriciel.
Le paramètre de régularisation α est théorique, c’est-à-dire qu’il a été calculé à partir
du bruit ajouté ainsi que du terme de régularité du signal r 2 = D x
α Miller
b
= 2
r
2
:
2
(3.7)
Pour déconvoluer des profils expérimentaux par cette méthode, il est nécessaire de
faire une estimation du paramètre de régularisation α, le bruit n’étant pas connu assez
précisément, et le signal x n’étant pas accessible. Ici le calcul du α théorique nous place dans
les conditions les plus favorables : la qualité du résultat ne dépend plus que de la quantité de
bruit ajouté, ainsi que du choix de l’opérateur de régularisation D (auquel nous allons
consacrer un paragraphe). La figure 3-9 nous montre le résultat de la déconvolution dans les
mêmes conditions que le filtrage de Wiener (même niveau de bruit) :
Figure 3-9 :
Déconvolution du
signal-test par
régularisation de
Tikhonov-Miller et
inversion de l’équation
de convolution dans
l’espace de Fourier.
Profil réel
Profil mesuré
Profil déconvolué
2.0
Intensité (u.a)
1.5
1.0
0.5
0.0
-0.5
0
200
400
600
Profondeur (Å)
101
800
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Cet exemple de déconvolution nous amène à faire quelques remarques :
•
Mathématiquement, le signal déconvolué est plus proche du signal réel que le signal
mesuré, mais il comporte des composantes négatives et des fortes oscillations. Ces
deux caractéristiques sont directement liées à la quantité de bruit et donc au terme de
régularisation. Une partie de l’information (en particulier dans les hautes
fréquences) est masquée par le bruit et ce manque est compensé par la génération
d’oscillation (artefacts).
•
La contrainte de positivité ne peut être appliquée sans conséquences inacceptables
pour l’interprétation physique : la dose mesurée (nombre d’ions comptés sur toute la
mesure) doit être identique pour tous les signaux (réel, mesuré, déconvolué) au bruit
près. La dose est conservée lors de l’inversion dans l’espace de Fourier, mais elle
tient compte des composantes négatives générées. Si on applique la contrainte de
positivité (suppression de la « dose négative »), la dose du signal déconvolué et
contraint sera supérieure à la dose initiale. Un écart de plusieurs pour-cent ne peut
être toléré lors de la quantification d’un profil SIMS. La solution consiste alors à
multiplier par un facteur tout le profil déconvolué de telle sorte que sa dose soit la
même que celle du mesuré. Ce procédé est simple mais quelque peu arbitraire dans
le sens où la « redistribution » de la dose manquante ne privilégie aucune partie du
profil. Ce problème n’est pas présent lors de l’utilisation d’algorithmes itératifs, où
la dose du profil déconvolué (et contraint) se rapproche de celle du profil mesuré au
fil des itérations.
4.3.2 Déconvolution de signaux lisses
Le signal-test que nous utilisons, une fois convolué (même par une DRF de faible
largeur), n’est pas restauré de façon satisfaisante par cette méthode. La dilution des hautes
fréquences dans le bruit en est la principale cause. Néanmoins, il est possible d’utiliser cette
technique pour une structure assez lisse, comme une gaussienne ou toute autre structure en
forme de cloche. Le spectre d’une gaussienne contient très peu de hautes fréquences, ainsi la
restauration est plus aisée que dans le cas d’interfaces abruptes.
La figure 3-10 nous montre l’exemple d’une gaussienne de paramètre σ = 30 Å
convoluée par une DRF correspondant à Rp = 40 Å (soit σ Tot = 34.7 Å), où le rapport
signal/bruit est de 35 dB. Le calcul du paramètre de régularisation (3.7) nous donne un α de
2.44⋅10-4. Là encore on observe des oscillations dans les parties à faible signal, c’est-à-dire là
où le rapport signal/bruit est plus faible.
102
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Profil réel
Profil mesuré
Profil deconvolué
0.010
Figure 3-10 :
Déconvolution
d’une gaussienne
(σ = 30 Å),
convoluée avec
une DRF
de σ Tot = 34.7 Å.
Intensité (u.a)
0.008
0.006
0.004
0.002
SNR = 35 dB.
α = 2.44 ⋅ 10-4.
0.000
-0.002
0
100
200
300
400
Profondeur (Å)
La régularisation a été effectuée avec un paramètre α théorique (3.7). Cependant, si
l’on souhaite diminuer les oscillations obtenues dans le profil déconvolué, on peut toujours
augmenter α. Il en résultera une diminution des moyennes et hautes fréquences, et donc des
oscillations sur le profil déconvolué. Si le paramètre de régularisation est trop fort, il pourra
éventuellement y avoir diminution de la dose totale du profil, ce qui est gênant pour la
quantification. En multipliant α par 10, la dose est conservée et les oscillations parasites ont
quasiment disparu (figure 3-11) :
Figure 3-11 :
Déconvolution
d’une gaussienne
(σ = 30 Å),
convoluée avec
une DRF
de σ Tot = 34.7 Å.
Profil réel
Profil mesuré
Profil déconvolué
0.010
Intensité (u.a)
0.008
0.006
0.004
SNR = 35 dB.
α = 2.44 ⋅ 10-3.
0.002
0.000
0
100
200
300
Profondeur (Å)
103
400
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
On obtient ainsi un profil déconvolué très proche du profil de concentration réel
(hormis quelques écarts dans les faibles concentrations).
4.3.3 Conclusion sur l’inversion de l’équation de convolution régularisée
Nous venons de voir que cette méthode n’est pas suffisante pour restaurer les profils
contenant de forts gradients de concentration, puisque les hautes fréquences du profil
« mesuré sans bruit » et celles du bruit ne peuvent être suffisamment distinguées pour être
restaurées dans le domaine temporel. Il faut donc nous tourner vers les méthodes itératives,
qui nous permettent d’introduire et de contrôler plus précisément les contraintes.
Cependant, le profil d’une structure assez lisse peut être déconvolué de manière
satisfaisante avec cette méthode, moyennant le réglage du terme de régularisation. De plus
elle constitue une bonne approximation, tout comme la méthode par filtrage de Wiener.
5. Déconvolution par recherche du meilleur modèle numérique
de la solution
Dans le chapitre précédent, nous avons exposé le principe de l’algorithme permettant
la prise en compte d’un modèle numérique de la solution, et nous allons maintenant
l’appliquer à nos profils simulés. Nous pourrons ainsi examiner les performances ultimes de
cet algorithme et évaluer la résolution en profondeur maximale que l’on peut atteindre en
analyse SIMS couplée au traitement du signal.
Dans un premier temps, nous étudierons l’influence des paramètres de déconvolution,
notamment les éléments qui constituent les conditions initiales de l’algorithme. Le modèle
évolue au fil de l’algorithme, mais cette évolution dépend du modèle initial. Il convient donc
de le choisir correctement. D’autre part, le terme de régularisation choisi pour une
déconvolution non itérative (inversion unique) n’est pas forcément adapté à un algorithme
itératif. Son choix sera déterminant dans l’efficacité de la déconvolution.
5.1 Conditions idéales : modèle parfait de la solution
Afin de valider cette théorie et de prouver qu’elle peut apporter une amélioration dans
la restauration de signaux, nous allons nous placer dans les conditions idéales, c’est-à-dire
dans le cas où le modèle est égal au signal recherché (mais toujours en présence de bruit).
Avant cela, nous allons comparer les étapes successives qui nous ont amené à choisir
notre méthode. Lorsque qu’on n’apporte pas de modèle ( X mod = 0 ), on se trouve dans le cas
particulier de l’inversion de l’équation de convolution avec régularisation de Tikhonov-Miller
(voir chapitre précédent). L’introduction du modèle modifie la solution obtenue et la
rapproche du signal original si le modèle est correctement choisi. Les paramètres de
régularisation sont tout aussi importants que dans la déconvolution sans modèle. Lorsque ce
dernier est égal au signal original, le résultat est sans appel, la solution est très proche du
signal recherché. Ce cas ne sera évidemment jamais rencontré en dehors des tests de la
méthode, mais il permet de justifier l’emploi d’un modèle numérique de la solution. Notons
104
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
que dans cette série de comparaisons, nous avons légèrement augmenté le paramètre de
régularisation α, jugeant que les profils déconvolués avec un paramètre égal à αMiller
comportaient des oscillations trop marquées. Les figure 3-12 et 3-13 comparent la
déconvolution du signal-test sans modèle, puis avec un modèle parfait, avec un paramètre
α = 2Â-3 au lieu de 9Â-4 :
Déconvolution
sans modèle
2.0
Figure 3-12 :
Déconvolution du
signal-test par
régularisation
classique de
Tikhonov-Miller, sans
introduction de
modèle numérique de
la solution.
DRF de σ Tot = 34.7 Å,
Profil réel
Profil mesuré
Profil déconvolué
Intensité (u.a)
1.5
1.0
0.5
0.0
0
100
200
300
400
500
600
700
800
SNR = 35 dB,
α = 2⋅10-3.
Profondeur (Å)
Intensité (u.a)
1.5
Figure 3-13 :
Déconvolution avec
introduction du
modèle numérique de
la solution.
Modèle parfait :
X mod = X . DRF de
Profil réel
Profil mesuré
Profil déconvolué
Déconvolution
avec modèle
parfait
2.0
1.0
σ Tot = 34.7 Å,
0.5
SNR = 35 dB,
α = 2⋅10-3.
0.0
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Même en présence de bruit, la méthode conduit à un profil déconvolué pratiquement
égal au signal recherché. L’apport d’information par le modèle a donc fortement contribué à
nous rapprocher de la solution. Ce cas est extrême mais il laisse penser qu’un modèle
intermédiaire entre le modèle parfait et le modèle nul apporterait un gain de performance non
négligeable pour la déconvolution.
105
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Afin de vérifier l’efficacité d’une méthode de déconvolution, il est nécessaire de
calculer l’erreur commise entre les profils réel et déconvolué d’une part, appelée erreur non
observable ou erreur vraie, et l’erreur entre les profils mesuré et « reconstruit » d’autre part,
appelée erreur observable ou erreur de reconstruction. On rappelle que le profil reconstruit
est le résultat de la convolution du profil déconvolué par la DRF.
L’erreur vraie n’est bien sûr accessible qu’en simulation, mais elle permet de
comparer les performances théoriques des différentes méthodes. Afin de mieux percevoir
l’erreur commise, nous calculerons l’amplitude moyenne de l’erreur, s’exprimant ainsi :
EM =
1
N
N −1
∑E
n =0
2
n
(3.8)
L’amplitude moyenne de l’erreur, que nous appellerons par la suite « erreur » pour
simplifier, représente la moyenne des distances entre les points d’indice n des deux profils
concernés. L’erreur calculée a de cette manière une signification physique immédiate.
Pour la déconvolution que nous venons d’effectuer, sans modèle, l’erreur vraie est
ainsi de 8.9Â-3, alors qu’elle est de 1.6Â-4 pour le profil déconvolué avec modèle parfait.
L’erreur observable est de 2.56Â-4 sans modèle et de 2.42Â-4 avec modèle parfait de la
solution.
5.2 Modèle numérique tiré de l’erreur de reconstruction
Dans le chapitre précédent, nous avons exposé la possibilité de calculer le modèle
numérique à partir du « profil reconstruit ». Le critère de minimisation de l’erreur de
(
y − H x est couplé avec le critère de minimisation de D x − xmod
2
reconstruction
)
2
pour
déterminer la meilleure solution x . Il nous faut aussi un critère supplémentaire si l’on
souhaite calculer analytiquement un modèle de la solution xmod . Une fois x exprimé en
fonction de y et de xmod , on peut imposer à xmod de satisfaire la condition suivante : l’erreur de
2
reconstruction Emod
doit être minimale (2.93). Cette équation nous donne le modèle
analytique minimisant l’erreur de reconstruction, mais il n’est pas dit que le profil déconvolué
soit le plus proche possible du profil réel. Les erreurs sont présentées dans le tableau du
paragraphe suivant.
5.3 Utilisation du « signal déconvolué sans modèle » comme modèle
numérique
Il est assez difficile de construire un modèle paramétrique de la solution recherchée :
le nombre de paramètres augmente considérablement si l’on souhaite avoir un modèle précis.
Le résultat d’une déconvolution classique constitue lui-même un modèle numérique qui est
106
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
une alternative au modèle paramétrique. La figure 3-14 compare la déconvolution, dans les
mêmes conditions que précédemment (signal-test, DRF de σ Tot = 34.7 Å, SNR de 35 dB),
avec les différents modèles rencontrés.
sans modèle
avec modèle déduit de l'erreur de reconstruction
avec profil déconvolué précédemment comme modèle
1.2
1.0
Intensité (u.a)
0.8
0.6
0.4
0.2
0.0
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Figure 3-14 : Déconvolution du signal-test en utilisant divers modèles
numériques de la solution recherchée.
C’est sur les structures les plus fines, et donc les plus difficiles à restaurer, que l’on
caractérise le mieux les performances de chaque modèle. Le modèle égal au profil déconvolué
précédemment offre le meilleur résultat, vient ensuite le modèle basé sur la minimisation de
l’erreur de reconstruction, puis la déconvolution classique sans modèle.
Le tableau ci-dessous présente les erreurs observables et non observables des
déconvolutions effectuées avec les différents modèles numériques de la solution :
107
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
modèle
erreur non observable
erreur observable
sans modèle
tiré de Emod2
déconvolué précédemment
modèle parfait
8.9412Â-3
8.7438Â-3
8.4822Â-3
3.8027Â-4
2.5252Â-4
2.4823Â-4
2.3914Â-4
2.3642Â-4
Ce tableau confirme que la proximité du modèle numérique avec la solution apporte
de meilleurs résultats. Le profil déconvolué par la méthode classique, régularisée et
contrainte, constitue le meilleur modèle que l’on puisse prendre sans apport d’informations
extérieures à l’analyse. Le modèle tiré de l’erreur de reconstruction garantit la plus petite
erreur entre le profil mesuré et le profil reconstruit (cette erreur est sensiblement la même que
celle obtenue avec le modèle parfait), mais l’erreur n’est que légèrement diminuée par rapport
à celle obtenue sans modèle. Nous n’avons pas représenté les différents profils reconstruits,
étant donné qu’ils sont tous superposés avec le profil mesuré, et par conséquent les courbes
sont pratiquement indistinctes.
Un profil déconvolué dans ces conditions ne doit rester qu’un point de départ dans la
recherche du meilleur modèle. En effet le résultat est à peine plus satisfaisant que sans
modèle. Les oscillations sont encore trop importantes, ce qui nous incite à augmenter
considérablement α si l’on souhaite intégrer le résultat de cette déconvolution dans
l’algorithme itératif avec modèle. Nous discuterons plus loin de la valeur correcte du
paramètre de régularisation à utiliser.
5.4 Choix du terme de régularisation
L’algorithme de déconvolution par recherche du meilleur modèle, tel qu’il a été décrit
dans le chapitre précédent, nécessite le réglage plus ou moins minutieux du terme de
régularisation α D . Nous allons voir en détail son influence et son réglage optimal.
2
5.4.1 Choix du filtre D
Le but de l’opérateur de régularisation est à l’origine de limiter la quantité de hautes
fréquences contenues dans la solution estimée. Il est donc apparu naturel de choisir un filtre
passe-haut pour l’opérateur D. L’expérience nous a montré que ce filtre doit être très
« doux », c’est-à-dire que son spectre ne doit pas comporter de zéros ou de zones à très faible
niveau, sous peine d’obtenir un signal déconvolué non régularisé. L’équation (2.65)
(déconvolution classique par régularisation de Tikhonov-Miller) s’écrit dans l’espace de
Fourier :
X TM =
H *Y
H +α D
2
108
2
(3.9)
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Cette équation nous montre que le terme A = H + α D
2
2
ne doit pas comporter de
zéros. H est généralement de type passe-bas, D de type passe-haut, et donc α doit être réglé de
telle sorte que le dénominateur n’amplifie aucune composante fréquentielle du numérateur de
manière excessive. La figure 3-15 montre les spectres de H, D et A :
10
0
Spectre de la DRF H
Spectre du filtre D
Spectre de A = ( H² + α D² )
Amplification (dB)
-10
-20
-30
-40
-50
-60
0.0
0.1
0.2
0.3
0.4
0.5
Fréquence réduite
Figure 3-15 : Spectres de la DRF, du filtre D et de l’opérateur A. Ici α est arbitraire.
Dans notre algorithme de recherche du modèle, le terme de régularisation varie à
chaque itération, puisqu’il est fonction du modèle :
(
∆ 2 = D X − X mod n
)
2
(3.10)
Ce critère impose à la solution X d’être proche du modèle X mod n , en particulier au
niveau des hautes fréquences. Au cours de notre étude, nous avons utilisé deux filtres D
différents. Le premier a été synthétisé et comporte cinq points. Son spectre, de type passehaut, a une pente très douce. Le deuxième filtre, qui convient tout à fait à notre problème, est
tout simplement l’opérateur identité. Le critère de régularisation s’écrira dans ce cas :
∆ 2 = X − X mod n
109
2
(3.11)
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
et il impose au signal X d’être proche du modèle sur toute la bande de fréquences. Nous avons
vérifié que l’utilisation de l’un ou l’autre de ces deux critères de régularisation (3.10) et (3.11)
donnait des résultats quasi similaires. L’importance de l’opérateur de régularisation réside
dans sa capacité à combler les zéros de l’opérateur H de manière assez égale quelle que soit la
fréquence.
5.4.2 Calcul de α
Lorsqu’on utilise la déconvolution non itérative, α est calculé par la méthode de Miller
(voir chapitre précédent), ou par validation croisée généralisée dans les cas expérimentaux.
On obtient ainsi un paramètre de régularisation assez fort pour régulariser le signal, mais
suffisamment faible pour restituer la quantité nécessaire de hautes fréquences.
Les conditions sont différentes pour l’algorithme de recherche du modèle numérique :
les oscillations créées lors d’une itération n de l’algorithme sont intégrées dans le nouveau
modèle X mod n et amplifiées à l’itération n+1. Il est donc nécessaire de limiter ces oscillations
en imposant un paramètre de régularisation α beaucoup plus élevé que αMiller. Les premières
itérations de l’algorithme donneront un signal déconvolué très lisse, une grande partie des
hautes fréquences ayant été filtrées par le terme de régularisation. Parallèlement, le modèle
utilisé à chaque itération va s’affiner et se rapprocher de plus en plus du signal recherché. La
proximité du modèle avec le signal de départ va permettre au fur et à mesure des itérations de
restituer correctement la partie des hautes fréquences permise par le critère de régularisation.
On a donc à faire un compromis entre l’aspect lisse du signal déconvolué et sa
proximité avec le modèle. Nous allons voir que la valeur de α sera déterminante dans le
résultat final.
5.5 Convergence de l’algorithme
De nombreuses simulations nous ont montré que lorsque α est choisi trop faible, les
oscillations et artefacts s’amplifient au cours de l’algorithme. On se retrouve alors dans le cas
d’un problème non ou peu régularisé : l’algorithme diverge.
Inversement, si α est trop fort, le profil déconvolué intermédiaire, et donc le modèle à
l’itération n, évolue trop lentement. Il reste trop lisse et éloigné du profil recherché même
après un grand nombre d’itérations.
La figure 3-16 nous montre un exemple où α est égal à αMiller avec un profil
déconvolué obtenu après 5 puis 50 itérations. Cet exemple nous montre la rapidité de
variation des profils déconvolués xn, ainsi que l’apparition d’artefacts sur des zones où le
signal devrait être nul. Si on poursuit l’algorithme, xn diverge. Il est évident que plus on
diminue α, plus la solution obtenue est oscillatoire.
Dans le cas où le paramètre de régularisation est trop grand (figure 3-17), le profil
déconvolué xn (même avec n grand) est plus proche du signal mesuré que du signal recherché.
110
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Profil déconvolué 5 itérations
Profil déconvolué 50 itérations
Profil réel
Profil mesuré
1.4
1.2
Intensité (u.a)
1.0
0.8
0.6
0.4
0.2
0.0
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Figure 3-16 : Déconvolution du signal-test (DRF de σ Tot = 34.7 Å, SNR = 35 dB) avec un
paramètre de régularisation trop faible : αMiller = 9⋅10-4. Résultats à 5 et 50 itérations.
Profil réel
Profil mesuré
Profil déconvolué : 200 itérations
Profil déconvolué : 2000 itérations
Profil déconvolué : 20000 itérations
1.4
1.2
Intensité (u.a)
1.0
0.8
0.6
0.4
0.2
0.0
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Figure 3-17 : Déconvolution du signal-test (DRF de σ Tot = 34.7 Å. SNR = 35 dB) avec un
paramètre de régularisation surestimé : α = 100. Résultats à 200, 2000 et 20000 itérations.
111
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Cette fois le système est « sur-régularisé » et l’algorithme converge vers une solution
intermédiaire entre celle que l’on obtiendrait avec le paramètre de régularisation optimal et le
profil mesuré. On remarque par ailleurs que le fait de prendre un α grand ne fait pas que
retarder l’apparition d’une divergence, mais il la supprime totalement.
Le paramètre α qui nous semble optimal est initialement choisit arbitrairement, mais il
apparaît que cette valeur est systématiquement 103 à 105 supérieure à αMiller. Pour l’exemple
étudié dans ce paragraphe (signal de départ = signal-test, DRF correspondant à Rp = 40 Å, soit
σtot = 34.7 Å, SNR = 35 dB) nous avons testé avec succès deux valeurs différentes du
paramètre de régularisation : α = 0.1 avec n = 1000 itérations, et α = 1 avec n = 4000
itérations. La figure 3-18 nous montre les profils déconvolués avec chacune des valeurs de α :
2.0
Profil
Profil
Profil
Profil
Intensité (u.a)
1.5
réel
mesuré
déconvolué α = 0.1 , n = 1000 itérations
déconvolué α = 1 , n = 4000 itérations
1.0
0.5
0.0
0
200
400
600
800
Profondeur (Å)
Figure 3-18 : Déconvolution du signal-test (DRF de σ Tot = 34.7 Å. SNR = 35 dB)
avec deux valeurs du paramètre de régularisation correctes :
α = 0.1 et n = 1000 itérations, puis α = 1 et n = 4000 itérations.
Les résultats sont sensiblement équivalents pour les deux valeurs de α, la restauration
en hautes fréquences étant plus satisfaisante pour α = 0.1, sachant qu’il a fallu quatre fois
moins d’itérations qu’avec α = 1. On remarque par ailleurs l’apparition d’artefacts de part et
d’autre de chacune des trois structures du signal pour la plus faible valeur de α. Ce
112
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
comportement est conforme à ce que nous avons dit plus haut : plus α est grand, plus il faut
affiner le modèle par un nombre élevé d’itérations, et plus α est petit, plus les oscillations
déforment le profil. On vérifie par ailleurs que le profil reconstruit se superpose exactement
au profil mesuré :
0.3
Profil mesuré
Profil reconstruit α = 0.1
Profil reconstruit α = 1
Figure 3-19 :
Comparaison
des profils
reconstruits
avec le profil
mesuré.
Intensité (u.a)
0.2
0.1
0.0
0
50
100
150
200
Profondeur (Å)
La figure 3-19 montre la première couche fine modélisée du profil étudié. La
reconstruction étant quasiment parfaite sur tout le profil, nous n’avons représenté qu’une
partie afin de distinguer les trois courbes.
Etant donné que l’échelle logarithmique est systématiquement utilisée en analyse
SIMS, il est indispensable de comparer tous les profils de cette manière. La figure suivante
nous montre que les pentes exponentielles dans les bas niveaux ont complètement disparu.
Profil réel
Profil mesuré
Profil déconvolué α = 0.1 , n = 1000 itérations
Figure 3-20 :
Représentation
logarithmique du
résultat de la
déconvolution
pour α = 0.1.
Intensité (u.a)
1
0.1
0.01
1E-3
0
200
400
600
Profondeur (Å)
113
800
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
La dynamique et la résolution sont largement améliorées, en particulier sur les plus
petites structures. Parallèlement, on distingue mieux les artefacts, qui sont ici négligeables
comparés à la distorsion crée par la mesure.
Avant de détailler différents aspects des résultats obtenus par cette méthode de
déconvolution, nous allons la tester sur d’autres types de profils.
6. Déconvolution de différentes structures
Nous allons brièvement étudier les performances de la méthode de déconvolution
appliquée aux signaux typiquement rencontrés en traitement du signal ainsi qu’en SIMS. Le
cas spécifique du Dirac ou delta-dopage sera étudié en détail et un paragraphe entier lui sera
consacré. Cette partie prétend seulement donner une idée du résultat que l’on peut attendre de
la déconvolution de certaines structures typiques rencontrées en SIMS.
6.1 Gaussiennes
Les fonctions gaussiennes sont fréquemment employées pour modéliser les
phénomènes de type diffusionnels ou les implantations de dopant dans une matrice. Le spectre
d’une telle structure est composé essentiellement de basses fréquences. Si la gaussienne à un
σ plus grand que le σtot de la DRF, le fait de convoluer une gaussienne par une réponse
impulsionnelle telle que la DRF ne provoquera pas de perte d’information par filtrage des
hautes fréquences.
Nous allons présenter deux exemples de déconvolution, l’un où l’écart-type de la
gaussienne est plus grand que celui de la DRF, et l’autre où il est plus petit. Dans cette
dernière situation, lorsque σ est très petit, on se rapproche du cas difficile des structures très
fines (comportant beaucoup de hautes fréquences), c’est-à-dire le pseudo-Dirac.
•
Gaussienne d’écart-type σ = 100 Å avec DRF de Rp = 40 Å ( σ Tot = 34.7 Å)
La déconvolution de ce profil ne pose pas vraiment de problèmes puisque 10 itérations
suffisent à restaurer complètement la gaussienne d’origine, même lorsque le rapport
signal/bruit descend à 30 dB. La possibilité de restaurer complètement un profil s’explique
par le fait que les composantes hautes fréquences de la gaussienne sont quasiment inexistantes
et le bruit a peu d’influence. La distinction de toutes les fréquences est plus facile et peu
d’itérations suffisent pour restaurer complètement le profil. De plus, le profil mesuré est ici
peu différent du profil réel.
Avec un paramètre de régularisation de 1 et un SNR de 35 dB, la restauration est
totalement achevée à la 10ème itération. La figure 3-21 montre le résultat de cette
déconvolution. On distingue de part et d’autre de la gaussienne, dans les parties où le bruit est
dominant, des petites oscillations du même ordre de grandeur que le bruit. Celles-ci ne sont
donc pas rédhibitoires. Le fait d’augmenter le paramètre de régularisation n’améliore pas le
résultat pour une raison importante :
114
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
•
Les oscillations se situent dans des zones où le signal mesuré est dominé par le
bruit, qui a une valeur moyenne non nulle. Etant donné que ces oscillations sont de
faible amplitude (le signal déconvolué tout comme le signal réel comporte peu de
hautes fréquences), aucune composante négative n’est générée par le processus de
déconvolution. La contrainte de positivité ne joue donc aucun rôle et les oscillations
ont tendance à s’amplifier avec le nombre d’itérations, le modèle n’étant d’aucune
utilité dans ces zones. Cette remarque est importante dans le sens où nous
retrouverons ce problème d’oscillations sur les hauts niveaux de signal.
Figure 3-21 :
Déconvolution
d’une gaussienne
d’écart-type plus
important que
celui de la DRF
(Profil mesuré peu
différent du profil
réel). Résultats
pour α = 1,
n = 10 itérations.
Profil réel
Profil mesuré
Profil déconvolué
0.004
Intensité (u.a)
0.003
0.002
0.001
0.000
200
400
600
800
1000
1200
1400
Profondeur (Å)
De même, la représentation logarithmique nous montre une excellent restauration sur
toute la dynamique du signal :
Profil réel
Profil mesuré
Profil déconvolué
Intensité (u.a)
1E-3
1E-4
1E-5
200
400
600
800
1000
Profondeur (Å)
115
1200
1400
Figure 3-22 :
Représentation
logarithmique de
la déconvolution
de la gaussienne.
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Gaussienne d’écart-type σ = 20 Å avec DRF de Rp = 40 Å ( σ Tot = 34.7 Å)
•
Ici la déconvolution est plus difficile puisque la réponse impulsionnelle est plus
« large » que la structure analysée. La répartition spectrale de cette gaussienne nous amène à
régulariser plus fortement (sous peine de voir apparaître des artefacts dus au bruit dans les
données) et à augmenter le nombre d’itérations afin d’affiner le modèle.
Les meilleurs résultats sont obtenus pour un paramètre de régularisation de 5 à 10. Sur
la figure 3-23, on voit que le profil déconvolué n’est pas complètement restauré,
contrairement à celui du cas précédent.
0.020
0.015
Intensité (u.a)
Figure 3-23 :
a) Déconvolution
d’une gaussienne
d’écart-type plus
faible que celui
de la DRF.
Paramètre de
régularisation
α = 5. Résultats
pour 200 et 500
itérations.
Profil réel
Profil mesuré
Profil déconvolué :
200 itérations
Profil déconvolué :
500 itérations
0.010
0.005
0.000
100
200
300
400
Profondeur (Å)
Figure 3-24 :
b) Représentation
logarithmique.
Profil réel
Profil mesuré
Profil déconvolué :
500 itérations
0.01
Intensité (u.a)
1E-3
1E-4
1E-5
0
100
200
300
Profondeur (Å)
116
400
500
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Plusieurs remarques peuvent être faites sur cette déconvolution :
• La restauration n’est pas complète, même après 500 itérations. Nous avons
cependant vérifié qu’au bout de 4000 itérations, le maximum de la gaussienne est
restauré à 97%. La figure 3-25 montre le résultat à 10000 itérations.
• Les « pieds » de la gaussienne ne sont pas correctement restaurés. Sur le profil
déconvolué, on observe un point anguleux lorsque le signal tombe à zéro. C’est ici
que l’erreur commise est la plus grande.
• A 500 itérations, il apparaît déjà des artefacts de part et d’autre du profil
déconvolué. Ces artefacts sont typiques des profils gaussiens, et ils ont tendance à
se rapprocher du centre de la gaussienne au fil des itérations (figure3-25).
0.020
Profil réel
Profil mesuré
Profil déconvolué :
10000 itérations
Intensité (u.a)
0.015
0.010
0.005
0.000
100
200
300
400
Profondeur (Å)
Figure 3-25 : Déconvolution d’une gaussienne d’écart-type plus faible que celui de la DRF.
Paramètre de régularisation α = 5. n = 10000 itérations.
‰ Discussion sur les artefacts :
Deux « lobes » parasites non négligeables apparaissent au pied du profil déconvolué.
Ce phénomène se retrouve aussi avec d’autres méthodes de déconvolution appliquées aux
formes gaussiennes, en particulier l’algorithme de Van Cittert régularisé et contraint [2].
Lorsqu’on regarde l’évolution du profil déconvolué, notamment ces lobes se rapprochant des
pieds de la gaussienne, on ne peut s’empêcher de penser à une compensation de la dose
manquante de part et d’autre du pic. Ces deux lobes ne seraient donc pas des artefacts mais le
résultat de la mauvaise distribution de la dose au début de la déconvolution, qui est corrigée
ensuite par un grand nombre d’itérations.
Une étude approfondie sur la déconvolution de gaussiennes a été réalisée par
B. Gautier, notamment sur l’influence du rapport des « largeurs » de la réponse
117
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
impulsionnelle et de la gaussienne. Le lecteur intéressé pourra donc se reporter à la référence
[2] pour de plus amples informations. On y trouve notamment les gains apportés par la
déconvolution, calculés à partir des écarts-types et ceci sur une plage d’énergie d’impact
allant de 3.5 à 13 keV.
6.2 Créneaux
Tout comme les gaussiennes, les créneaux constituent un cas intéressant de
déconvolution SIMS puisqu’ils représentent les couches de dopant dans une matrice avec
interfaces abruptes. Dans le signal-test, que nous avons largement utilisé au cours de cette
étude, on a un créneau de 250 Å de largeur. Nous allons approfondir le cas du créneau en
étudiant l’influence de sa largeur et du bruit de mesure.
La dégradation résultant de la mesure d’un créneau de concentration porte
essentiellement sur les fronts montant et descendant, qui apparaissent exponentiels sur le
profil mesuré. Les fronts sont partiellement restaurés, mais en contrepartie on observe
systématiquement la génération d’oscillations sur le plateau du créneau (que l’on retrouve
d’ailleurs dans la plupart des techniques de restauration de signaux)
•
Créneau de 60 Å de largeur, convolué par une DRF de Rp = 40 Å, σ Tot = 34.7 Å.
Ce créneau de faible largeur peut encore être considéré comme une structure fine dans
le sens où les fronts montant et descendant mesurés s’étendent sur pratiquement toute la
longueur du profil. L’intérêt de déconvoluer un créneau de cette taille est donc de restaurer sa
largeur réelle. La figure 3-26 nous montre l’exemple de la déconvolution d’un créneau de 60
Å, convolué par une DRF d’écart-type σ Tot = 34.7 Å.
Figure 3-26 : Déconvolution d’un créneau de 60 Å de largeur convolué par une DRF de
d’écart-type σ Tot = 34.7 Å. SNR = 35 dB, α = 5, n = 10000 itérations. Représentations
linéaire et logarithmique.
118
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
La largeur du profil déconvolué peut être mesurée d’une manière simple. Les fronts du
créneau ne sont pas complètement restaurés, mais sont suffisamment raides pour que l’on
puisse supposer que la largeur du profil déconvolué soit presque la même que celle du profil
réel. Comparons les largeurs des différents profils par leur FWHM (largeur à mi-hauteur) :
−
−
−
Profil mesuré :
Profil réel :
Profil déconvolué :
124 Å
60 Å
59 Å
Dans cet exemple, on obtient un profil déconvolué de même FWMH que le profil réel.
D’autre part, il est nettement plus proche du profil réel que du profil mesuré. On remarque
cependant que la concentration est surestimée au centre du créneau. Cette caractéristique
apparaît généralement lorsqu’on a un front abrupt suivi d’un plateau : les oscillations générées
par la déconvolution sur le plateau ne sont pas compensées par une contrainte d’amplitude,
alors que dans le cas d’un Dirac, la contrainte de positivité s’applique sur pratiquement tout le
profil déconvolué et élimine presque complètement les oscillations.
Un autre moyen d’estimer la qualité de la déconvolution est de comparer la pente des
fronts de chaque profil. L’idéal serait de restaurer la pente infinie du profil réel. La réponse
impulsionnelle en SIMS est caractérisée par une pente descendante plus faible que la pente
montante. Dans cet exemple, nous comparons les fronts en prenant les abscisses des valeurs
du profil à 90% du maximum et 10 % du minimum. La distance séparant ces deux valeurs est
de 71 Å pour le profil mesuré, alors qu’elle n’est plus que de 19 Å pour le profil déconvolué.
On obtient donc un gain d’environ 3.7 sur cette longueur de queue de profil, qui peut être
considéré comme un gain en résolution.
1.2
1.0
déconvolué
déconvolué
Intensité (u.a)
0.8
b)
Profil à Rp = 100 Å
a) et SNR = 35 dB
0.6
Profil à Rp = 40 Å
et SNR = 30 dB
mesuré
mesuré
0.4
0.2
0.0
0
50
100
150
200
250
Profondeur (Å)
119
300
350
400
Figure 3-27 :
Déconvolution du
créneau de 60 Å
de largeur,
α = 5, n = 10000
itérations :
a) convolué par
une DRF de
Rp = 100 Å, avec
SNR = 35 dB
b) convolué par
une DRF de
Rp = 40 Å, avec
SNR = 30 dB.
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Il est évident que la qualité de la déconvolution baisse lorsque la DRF devient plus
large ou lorsque le bruit de mesure augmente. La figure 3-27 montre la déconvolution du
même créneau simulé dans des conditions de mesures légèrement différentes : la 1ère mesure
correspond à une plus haute énergie d’impact (Rp = 100 Å), alors que sur la 2ème on a un bruit
plus important (SNR = 30 dB).
Les résultats sont sensiblement les mêmes que précédemment au niveau de la largeur à
mi-hauteur. Les bases des deux profils déconvolués sont également de même largeur. On
remarque cependant que le sommet du déconvolué a) est plus proéminent que le b).
D’une manière générale, on voit que les deux profils sont moins bien restaurés que
dans le cas où Rp = 40 Å et SNR = 35 dB. La distance séparant les valeurs à 10% et 90% du
front descendant est d’environ 26 Å. Ces exemples illustrent le fait que les performances de la
déconvolution diminuent si la largeur (écart-type) de la DRF et le bruit augmentent.
•
Créneau de 300 Å de largeur
L’intérêt de déconvoluer une structure plus grande que la réponse impulsionnelle
réside dans la restauration des zones à fort gradient de concentration. Celles-ci sont connues
pour générer de fortes oscillations si aucune information n’est apportée sous forme de
contraintes. De part et d’autre du créneau, la contrainte de positivité contribue fortement à
l’atténuation voire la disparition des oscillations. Pour la partie supérieure du créneau, en
l’absence de modèle parfait, les éventuelles oscillations ne peuvent être compensées que par
une contrainte d’amplitude. Celle-ci est très rarement utilisée, car elle implique la
connaissance de la concentration maximale de l’espèce dans la matrice, ainsi que d’un
étalonnage du profil mesuré. De plus, la contrainte d’amplitude ne devrait être appliquée que
si l’on est certain d’avoir un créneau parfait, c’est-à-dire sans variations de concentration sur
le plateau, sous peine de les tronquer arbitrairement.
Nous avons simulé les mêmes conditions expérimentales que précédemment. Le
processus de déconvolution est cependant plus délicat : la génération d’oscillations n’étant pas
contrôlée au niveau du plateau, il est déconseillé de déconvoluer avec un grand nombre
d’itérations. Les oscillations s’amplifieraient sans être compensées par une contrainte dure. La
régularisation est insuffisante pour atténuer ces oscillations car ces dernières sont
principalement constituées de moyennes fréquences, et le fait d’augmenter le paramètre de
régularisation ne ferait qu’empêcher la restauration correcte des fronts du créneau.
Nous avons vérifié dans le cas d’un créneau de 300 Å de largeur, qu’au-delà d’une
centaine d’itérations, la raideur des fronts du profil déconvolué n’évoluait pas tellement. Les
oscillations ont par contre tendance à s’accentuer en amplitude mais aussi en fréquence. La
figure 3-28 montre le résultat pour 50 itérations effectuées avec un paramètre de
régularisation de 1 :
120
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Figure 3-28 : Déconvolution d’un créneau de 300 Å de largeur.
Rp = 40 Å, SNR = 35 dB, α = 1, n = 50 itérations.
Les flancs du créneau sont partiellement restaurés, et la décroissance exponentielle
visible dans le profil mesuré a ici complètement disparu (représentation logarithmique). On
remarque deux pics plus prononcés près des sommets du créneau, alors que les oscillations
s’atténuent au centre du plateau. Celles-ci rappellent les oscillations de Gibbs, mais leur
origine résiderait plutôt dans la forte concentration locale de hautes fréquences, qui ne peut
être correctement restaurée à cause du bruit.
6.3 Déconvolution de deux structures adjacentes d’amplitude très
différentes
Nous étudions maintenant le cas particulier où une petite structure (par exemple un
delta-dopage ou un créneau assez mince et de faible concentration) est située 40 Å après un
créneau de concentration élevée. Dans ce cas, la mesure ne révèle pas la présence de la
couche mince, qui est masquée par la décroissance exponentielle du créneau. La figure
suivante montre l’exemple d’un créneau de 200 Å de large, suivi d’un autre de 8 Å. La
concentration du 1er est quatre fois supérieure à celle du 2ème, ce qui représente une dose 100
fois supérieure.
Dans cet exemple, l’algorithme permet de retrouver une partie de la dose apportée par
le petit créneau, avec cependant un décalage de la structure vers la droite. En observant
l’évolution du profil déconvolué toutes les 50 itérations (figure 3-30), on remarque que la
dose correspondant à ce créneau, que l’on pourrait assimiler à un artefact, se déplace vers la
gauche, c’est-à-dire vers la position réelle de la structure.
121
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Profil réel
Profil mesuré
Profil déconvolué
350 itérations
4
Intensité (u.a)
3
2
1
0
0
100
200
300
400
500
Profondeur (Å)
Figure 3-29 : Simulation et déconvolution de deux créneaux adjacents de doses
très différentes. Rp = 40 Å, α = 1, SNR = 35 dB, n = 350 itérations.
1.0
Profil réel
Profil déconvolué :
(nombre d'itérations)
50
100
150
200
250
300
350
Intensité (u.a)
0.8
0.6
0.4
0.2
0.0
300
320
340
360
380
400
Profondeur (Å)
Figure 3-30 : Détail de la petite structure lors de la déconvolution.
122
420
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Si on compare cet exemple avec celui des gaussiennes de faible largeur, on aboutit à la
conclusion qu’un « artefact » d’une telle taille, qui tend à se décaler au cours de la
déconvolution, peut finalement révéler une structure existante séparée des autres ou un
gradient de concentration, que la déconvolution n’a pas restauré suffisamment au début de
l’algorithme. L’interprétation des artefacts doit donc être mesurée, surtout si leur dose n’est
pas négligeable, et ne doit pas conduire à leur élimination systématique des profils.
7. Critères d’arrêt de l’algorithme
7.1 Définition des erreurs
Si le paramètre α est choisi correctement, l’algorithme converge vers une solution
stable. Selon sa valeur, la vitesse de convergence varie et il est nécessaire de définir un critère
d’arrêt de l’algorithme, sans quoi le nombre d’itérations augmente sans pour autant que le
résultat s’améliore remarquablement. Il y a plusieurs manières de dire que l’algorithme à
atteint la solution :
• L’idéal serait de pouvoir mesurer l’erreur entre le profil déconvolué et le profil réel,
et d’arrêter l’algorithme lorsque cette valeur (l’erreur non observable) est
suffisamment petite. Cette méthode n’est bien sûr valable qu’en simulation, puisque
le profil réel est censé être inconnu.
•
Une alternative consiste à mesurer l’erreur observable entre le profil mesuré et le
profil reconstruit. Normalement, plus le profil déconvolué se rapproche du profil
réel, plus l’erreur observable diminue. On peut suivre soit la valeur absolue de cette
erreur, soit son évolution par sa dérivée en fonction du nombre d’itérations.
Cependant, deux raisons nous incitent à rechercher d’autres critères d’arrêt :
− Un profil déconvolué mais présentant de fortes oscillations, une fois
reconvolué par la DRF, peut conduire à une erreur très faible, du même ordre que
celle obtenue avec un « bon » profil déconvolué (figure 3-31). La fréquence des
oscillations correspond à un zéro de H(f) et génère une composante sinusoïdale dite
« muette ».
− Dans les simulations, lorsqu’on compare l’erreur observable et l’erreur
non observable, on constate qu’elle ne diminuent pas de la même manière. L’erreur
observable décroît bien plus vite et sa courbe en fonction du nombre d’itérations
tend vers une asymptote horizontale proche de l’énergie du bruit.
Lors d’une « bonne » déconvolution, l’erreur observable ne reflète pas suffisamment
la qualité de la déconvolution dans son évolution. Généralement, après un certain nombre
d’itérations, elle ne décroît pratiquement plus alors que l’erreur non observable continue à
décroître de manière significative. La figure 3-32 nous montre l’exemple d’une déconvolution
satisfaisante, où le nombre d’itérations a été porté à 2000 pour comparer l’évolution des
erreurs observable et non observable.
123
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Figure 3-31 : Exemple de mauvaise restauration : le paramètre de régularisation n’est pas
assez fort, causant l’apparition de fortes oscillations (20 itérations). Le profil reconstruit est
cependant de bonne qualité, et l’erreur observable est du même niveau que le bruit.
Figure 3-32 : Déconvolution avec restauration satisfaisante du signal-test
effectuée avec 2000 itérations. Rp = 40 Å, SNR = 35 dB, α = 1.
Ici, l’énergie de l’erreur observable est de 6.97Â-2, alors que dans le cas de la
déconvolution précédente, elle est de 6.86Â-2. Cet exemple montre qu’une erreur de
reconstruction faible ne garantit pas que l’on a atteint la meilleure solution. Néanmoins, au
cours de l’algorithme, son évolution renseigne sur la stabilité de la solution. La décroissance
indique que le profil déconvolué se rapproche de la solution idéale. Si à un moment l’erreur
124
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
observable remonte, c’est que le profil déconvolué diverge. La figure 3-33 compare les
différentes erreurs dans le cas des deux précédentes déconvolutions :
Figure 3-33 : Evolution des erreurs non observable et observable en fonction
du nombre d’itérations lors de la déconvolution du signal-test.
Dans le cas de la déconvolution effectuée avec un paramètre α trop petit, les erreurs
observable et non observable présente un minimum avant les 50 premières itérations,
confirmant que la déconvolution est mauvaise.
7.2 Evolution du profil déconvolué en fonction du nombre d’itérations
Afin de compléter les informations apportées par l’erreur observable, nous avons
recherché une autre façon de déterminer si le nombre d’itérations est suffisant lors d’une
déconvolution. Nous avons adopté un autre point de vue : l’algorithme étant convergent, à
partir d’un nombre d’itérations nconv le profil déconvolué évolue très peu. Cela implique que la
valeur de dx = x n − x n −1 ne décroît pratiquement plus lorsque n > n
( V représente la
conv
n
somme des valeurs absolues des composantes du vecteur V ). Le critère d’arrêt consiste donc
x n − x n −1
à mesurer dxn =
et à stopper l’algorithme lorsque sa valeur atteint un seuil défini
y
par l’utilisateur. La figure 3-34 montre les profils déconvolués x n ainsi que dxn, représenté
par l’aire contenue entre deux courbes successives.
125
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Figure 3-34 :
Evolution du profil
déconvolué x n en
fonction du nombre
d’itérations. L’aire
dxn délimitée par
deux courbes
successives diminue
au fil des itérations.
Si l’algorithme converge, la distance géométrique dxn entre deux profils déconvolués
successifs tend vers une valeur proche de 0 (contrairement à l’erreur observable qui, au
mieux, tend vers l’énergie du bruit). On peut donc déterminer de manière absolue le critère
d’arrêt de l’algorithme, indépendamment de la quantité de bruit de mesure. Nous avons
constaté que le nombre d’itérations atteint est suffisant lorsque la courbe représentant dxn en
fonction du nombre d’itérations n devient presque horizontale. Cependant, dans les mêmes
conditions d’analyse et de déconvolution, le nombre d’itérations nécessaire à une bonne
restauration diffère selon le profil de départ. Plus les profils sont fins et abrupts, plus il faudra
d’itérations. La figure 3-35 montre l’évolution de dxn pour quelques profils types, tous
déconvolués dans les mêmes conditions.
0.0014
Creneau d'épaisseur 60
Creneau d'épaisseur 200
Signal-test
Dirac numérique
0.0012
Figure 3-35 :
Evolution de la
distance
géométrique dxn
entre deux profils
déconvolué xn et
xn-1 pour différents
profils. Rp = 40 Å,
SNR = 35 dB,
α = 1.
0.0010
dx
n
0.0008
0.0006
0.0004
0.0002
0.0000
0
200
400
600
800
1000
1200
Nombre d'itérations
126
1400
1600
1800
2000
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Afin de vérifier la pertinence de ce critère d’arrêt, nous contrôlons l’évolution de
l’erreur vraie (non observable), dont la courbe pour chaque profil est représentée figure 3-36 :
0.0004
creneau200
dirac
xtest2
creneau
Intensité (u.a)
0.0003
0.0002
0.0001
0.0000
0
200
400
600
800
1000
1200
1400
1600
1800
2000
Profondeur (Å)
Figure 3-36 : Evolution de l’erreur non observable pour les déconvolutions
effectuées avec Rp = 40 Å, SNR = 35 dB, α = 1. Les valeurs pour le Dirac
numérique ont toutes été divisées par 10 pour des raisons d’échelles.
La figure 3-35 nous amène à faire quelques commentaires :
• La courbe correspondant au créneau d’épaisseur 60 atteint assez rapidement son
asymptote. L’algorithme peut être stoppé au bout de 200 à 250 itérations.
Visuellement, les bords du créneau sont restaurés après une centaine d’itérations (ce
que confirme l’erreur observable), et les variations de dxn au-delà de n = 100
proviennent essentiellement de l’aplatissement du signal déconvolué au niveau du
plateau (alors que la dose correspondante évolue peu).
• Pour le créneau d’épaisseur 200, on observe le même phénomène mais à n = 500
pour dxn comme pour l’erreur non observable. L’absence de contrainte d’amplitude
sur le plateau engendre le développement d’oscillations dont la fréquence augmente
au fil des itérations. D’autres simulations nous ont montré que leur amplitude varie
légèrement selon l’énergie et la distribution du bruit.
• Les courbes relatives au Dirac numérique sont plus difficiles à interpréter : dxn
décroît de manière significative jusqu’à n = 1600, alors que l’erreur vraie se
stabilise dès les 500 premières itérations. Ce phénomène s’explique par la manière
de calculer dxn et l’erreur vraie :
Le profil déconvolué intermédiaire évolue rapidement et la distance à
−
parcourir entre le mesuré et le Dirac est telle qu’un grand nombre d’itérations est
nécessaire avant de converger vers une solution stable. Cette évolution concerne
toute la longueur du profil et entraîne une diminution continue de dxn.
127
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
− Parallèlement, l’erreur vraie est ici calculée uniquement en un point,
puisqu’on travaille sur un Dirac numérique. Cette erreur est donc la différence entre
1 et la valeur du maximum du profil déconvolué. Ce maximum, dans cet exemple,
ne dépassera pas 5 à 10% de celui du Dirac, soit 0.1. On observera donc une
asymptote pour l’erreur vraie assez haute comparée à celles des autres profils.
•
Enfin, le signal-test présente une courbe de dxn intermédiaire aux autres. Elle montre
qu’à partir de 6 à 800 itérations le profil déconvolué varie assez peu, alors que
l’erreur non observable continue à décroître fortement. D’une part, des oscillations
se développent lentement sur le plateau du créneau (ce qui affecte assez peu l’erreur
vraie), et d’autre part les pseudo-Diracs se restaurent assez vite, influençant
fortement l’erreur vraie (qui est calculée non pas en un seul point, comme dans le
cas du Dirac numérique, mais sur 50 points). Il est donc assez difficile d’appliquer
un critère d’arrêt de l’algorithme sur un profil où chaque partie réagit différemment
vis-à-vis de la déconvolution.
Les simulations que nous avons effectuées nous ont conduit à la conclusion que la
valeur à atteindre pour dxn oscille autour de 5Â-4 pour la plupart des profils. En fait lorsque
la convergence est lente (Diracs), on a intérêt à choisir un dxnconv plus petit, ce qui revient à
imposer un nconv plus grand. Ainsi, dans des conditions de simulation (convolution et bruit)
similaires, chaque type de structure nécessite un nombre d’itérations n différent. A titre
d’exemple, le tableau suivant présente un nombre d’itérations optimal pour une restauration
satisfaisante (en terme de convergence) de différentes structures :
Rp = 40 Å
Rp = 100 Å
Dirac numérique α = 0.01
dxnconv = 7Â
-4
n = 300
dxnconv = 8Â-4
n = 300
Pseudo-Dirac (6 points) α = 0.01
dxnconv = 9Â-4
n = 270
dxnconv = 9Â-4
n = 270
2 Pseudo-Diracs proches α = 0.01
dxnconv = 6Â-4
n = 400
dxnconv = 4Â-4
n = 700
Gaussienne σ = 10 Å, α = 0.1
dxnconv = 3Â-4
n = 180
dxnconv = 4.4Â-3
n = 300
Gaussienne σ = 20 Å, α = 1
dxnconv = 7.6Â-4
n = 80
dxnconv = 4Â-4
n = 200
Gaussienne σ = 100 Å, α = 1
dxnconv = 5Â-4
n = 10
dxnconv = 4Â-4
n = 15
Créneau L = 60 Å, α = 1
dxnconv = 5Â-4
n = 100
dxnconv = 4Â-4
n = 240
Créneau L = 200 Å, α = 1
dxnconv = 2Â-4
n = 160
dxnconv = 7.3Â-5
n = 100
7.3 Déconvolution « par zones »
Lorsque le profil comporte plusieurs types de structures, le nombre d’itérations (ou le
critère d’arrêt) choisi globalement ne sera pas optimal pour chacune d’elles. Par exemple, la
128
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
composition du signal-test (trois pseudo-Diracs et un créneau), implique de faire un choix
entre un petit ou un grand nombre d’itérations :
• Si on souhaite limiter le nombre d’itérations, les pseudo-Diracs seront peu restaurés
alors que le créneau le sera de manière satisfaisante.
• Inversement, une déconvolution poussée entraînera une bonne restauration des
pseudo-Diracs ainsi que la séparation totale des deux derniers, mais pourra
éventuellement occasionner le développement des oscillations sur le plateau du
créneau.
Selon les conditions expérimentales (niveau de bruit et énergie d’impact), augmenter
le nombre d’itérations améliorera ou non le résultat. Dans le cas précis du signal-test, tout
dépendra du développement ou de l’atténuation des oscillations sur le créneau.
Une alternative consiste alors à diviser le profil en plusieurs zones et à effectuer des
déconvolutions plus ou moins poussées dans chacune d’elles. Lorsqu’on regarde le profil
mesuré, on voit que chacune des trois structures est couplée avec la suivante (ou la
précédente). Couper le profil à une profondeur où le signal n’est pas nul revient à le fausser
puisque la dose de la structure « isolée » n’est pas complète. De plus, on créerait une structure
avec un front abrupt, ce qui est impossible à obtenir par la mesure, la DRF agissant comme un
filtre passe-bas. Il faut donc commencer la déconvolution sur tout le profil, jusqu’à ce
qu’entre chaque structure, une plage de signal nul assez grande apparaisse. Dans le cas étudié,
la division du profil peut être effectuée à partir d’une quinzaine d’itérations :
2.00
Profil réel
Profil mesuré
Profil déconvolué 50 itérations
1.75
Intensité (u.a)
1.50
1.25
Zone 1
Zone 2
Zone 3
1.00
0.75
0.50
0.25
0.00
0
100
200
300
400
500
600
700
800
900
Profondeur (Å)
Figure 3-37 : Division du profil en trois zones où la déconvolution sera
plus ou moins poussée dans chacune d’elles.
129
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Dans cet exemple, les 50 premières itérations sont effectuées avec un paramètre de
régularisation fort (α = 1), puis chaque zone peut être déconvoluée avec un α dépendant de
l’apparence de la structure correspondante :
2.0
Profil réel
Profil mesuré
Profil déconvolué par zones
Intensité (u.a)
1.5
Zone 1 :
α = 0.01
5000 itérations
1.0
Zone 3 :
α = 0.1
1000 itérations
Zone 2 :
α=1
100 itérations
0.5
0.0
0
200
400
600
800
Profondeur (Å)
Figure 3-38 : Résultat de la déconvolution effectuée de manière indépendante
dans les trois zones du profil.
Ici le nombre d’itérations sur chaque zone a été déterminé arbitrairement, mais
l’opérateur peut facilement juger de la finesse de la structure à déconvoluer et donc de la
valeur de dxnconv que l’on peut imposer. A titre d’exemple, la valeur de dxnconv obtenue pour le
premier pseudo-Dirac (11 points) est de 2.5Â-5, et pour les deux derniers (20 points chacun),
elle est de 1.5Â-4. Ces valeurs sont dans ce cas précis inférieures à celles du tableau
précédent en raison du nombre élevé d’itérations demandé.
8. Déconvolution de deltas-dopage
L’obtention de courbes en forme de cloche, avec une forte décroissance exponentielle,
à la place de pseudo-Diracs est une des principales raisons qui ont motivé l’utilisation de la
déconvolution en SIMS. Le delta-dopage est aussi la structure la plus difficile à restaurer.
Dans le meilleur des cas, on obtiendra un gain inférieur à 10 entre les maxima de la
concentration mesurée et celle déconvoluée, mais c’est paradoxalement lors de la
déconvolution des deltas-dopage que l’on observe les plus grands gains de résolution en
profondeur.
130
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Nous allons tout d’abord étudier la déconvolution des deltas-dopage dans son aspect le
plus théorique, c’est-à-dire en prenant comme signal de départ un vrai Dirac numérique. Nous
appellerons cette technique l’auto-déconvolution, puisqu’elle consiste à déconvoluer un signal
identique à la DRF au bruit près. Nous obtiendrons ainsi les performances ultimes de la
méthode que nous comparerons par la suite aux résultats obtenus sur des profils
expérimentaux.
8.1 L’auto-déconvolution
Le principe de la simulation de ce problème de déconvolution consiste à choisir une
réponse impulsionnelle h et à lui rajouter une composante de bruit. Ce signal représentera le
signal mesuré y. La déconvolution se fera alors avec la réponse impulsionnelle h. En fait, le
profil simulé est équivalent à celui que l’on aurait fabriqué en convoluant un Dirac numérique
avec la réponse impulsionnelle, puis en rajoutant du bruit.
•
Conditions de déconvolution
Théoriquement, le signal mesuré y et la réponse impulsionnelle h ont le même nombre
de points : N y = N h + N x − 1 = N h , puisque N x = 1 . Cela implique que le profil déconvolué est
aussi composé d’un seul point. Or on sait que le profil ne pourra être complètement restauré,
et que le profil déconvolué sera intermédiaire entre le profil réel et le profil mesuré, c’est-àdire qu’il aura une longueur comprise entre 1 et N y points. Si on veut éviter d’avoir un profil
déconvolué tronqué sur les bords, il est nécessaire de partir d’un profil réel comportant assez
de points pour éviter la troncature du profil déconvolué. La technique consiste simplement à
rajouter des zéros de part et d’autre du signal de départ. L’expérience nous a montré qu’en
choisissant pour le profil de départ un support d’environ 3 à 6 fois plus grand que celui de la
réponse impulsionnelle, le profil déconvolué intermédiaire (itération n quelconque) n’est pas
tronqué. Ce phénomène s’explique par la rapide restauration des composantes exponentielles,
qui disparaissent au profit d’une zone de signal nul. La longueur nécessaire du support dépend
fortement du paramètre de régularisation : plus ce dernier est fort, plus le profil s’étalera sur
un grand nombre de points.
•
Remarque importante sur le support
Dans le cas où le profil déconvolué à l’itération n serait tronqué, ni la dose ni la forme
du profil obtenu ne pourraient être considérées exactes en fin de déconvolution. Cependant un
profil intermédiaire x n n’est autre que le modèle de solution pour le profil suivant x n +1 . Ce
modèle, bien que tronqué, permet tout de même à l’algorithme de converger vers une solution
tout aussi satisfaisante que dans le cas d’un support assez grand (figure 3-39). Dans certaines
conditions, le fait d’avoir un modèle tronqué permet même d’accélérer la convergence de
l’algorithme. En effet les fronts du profil recherché sont censés être très abrupts, et ceux d’un
modèle tronqué s’en rapprochent plus que les pentes douces d’un profil intermédiaire non
tronqué. Le modèle tronqué devient ainsi (bien que ce soit involontaire) plus adapté que le
modèle complet (figure 3-40).
131
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Dirac
Déconvolué sur 40 points
(pas de troncature)
Déconvolué sur 20 points
(troncature sur les 300
premières itération)
0.150
0.125
Intensité (u.a)
0.100
0.075
0.050
0.025
0.000
12
14
16
18
20
22
24
26
28
Profondeur (Å)
Figure 3-39 : Comparaison de la déconvolution avec modèle standard et avec modèle
tronqué sur les bords lors des 300 premières itérations. Dirac numérique convolué
par une DRF avec Rp = 40 Å, SNR = 35 dB, α = 10-3, 1000 itérations.
Dirac
Déconvolué sur 100 points
(pas de troncature)
Déconvolué sur 40 points
(troncature sur les 60
premières itérations)
Déconvolué 1ère itération
0.12
0.10
Intensité (u.a)
0.08
0.06
0.04
0.02
0.00
0
5
10
15
20
25
30
35
40
Profondeur (Å)
Figure 3-40 : Comparaison de la déconvolution avec modèle standard et avec modèle
tronqué sur les bords lors des 60 premières itérations. Dirac numérique convolué
par une DRF avec Rp = 100 Å, SNR = 35 dB, α = 10-3, 2000 itérations.
Si on ne rajoute pas de zéros, la contrainte de support, ici implicite, est trop dure. Il
faut contrôler (et donc rallonger) la longueur du support de telle façon que le modèle présente
132
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
une dose suffisamment proche de la dose originale (unitaire ici). Il y a donc un compromis à
trouver entre :
• La proximité de la forme du modèle avec celle du profil recherché (fronts abrupts).
Un support trop réduit conduit à un modèle déformé, non symétrique, qui dirige
l’algorithme vers une solution absurde.
• La vitesse de convergence de l’algorithme ainsi que la distance entre les solutions
obtenues avec modèle tronqué ou non.
8.2 Résultats et performances de l’algorithme de déconvolution
Nous allons maintenant quantifier les performances de la méthode en comparant les
caractéristiques des profils mesurés et déconvolués dans des conditions de simulation
différentes, qui correspondent à diverses énergies d’impact. La grandeur qu’il apparaît comme
le plus naturel de mesurer est la largeur des pics, puisqu’elle reflète directement la résolution
en profondeur accessible par déconvolution, ainsi que le gain de résolution obtenu. D’autre
part, la comparaison du maximum du pic déconvolué avec celui mesuré permettra d’obtenir
une concentration de la couche plus réaliste (bien qu’insuffisante) que celle donnée par le
profil mesuré.
Les paramètres physiques que nous ferons varier sont les suivants :
• La profondeur de pénétration Rp des ions primaires, ce qui revient à modifier la
décroissance exponentielle λd ainsi que l’écart-type σtot de la DRF.
• Le bruit de mesure (en terme de rapport signal/bruit), qui nous permettra de
quantifier son influence sur le résultat.
D’autre part, les paramètres internes à l’algorithme de déconvolution seront identiques
pour toutes les simulations, afin que les comparaisons soient possibles :
•
Opérateur de régularisation D : nous utiliserons l’opérateur identité. Ainsi, dans les
hautes fréquences, lorsque H
2
0 , on a A α .
•
Paramètre de régularisation α : ce paramètre est difficile à estimer. Dans le cas
particulier des Diracs numériques, nous avons constaté que la valeur α = 0.001
entraînait une déformation du profil déconvolué à partir d’un certain nombre
d’itérations, alors que α = 0.01 rendait la solution stable quelles que soient les
conditions de simulations. C’est donc cette valeur « semi-arbitraire » qui sera
utilisée pour les déconvolutions qui suivront.
•
Critère d’arrêt dxnconv : c’est lui qui définit la qualité du résultat final. Avec le Dirac
numérique, il n’y a pas de développement d’oscillations comme avec le créneau.
On peut donc augmenter le nombre d’itérations sans craindre une dégradation du
profil déconvolué (si α est bien choisi). Le résultat ira donc en s’améliorant, mais
133
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
au prix d’un temps de calcul exponentiel. Il faut donc faire un nouveau compromis,
cette fois entre le temps de calcul et le gain en résolution apporté. Dans la suite,
nous travaillons avec un dxnconv de 5Â-5, ce qui correspond à un nombre
d’itérations moyen raisonnable pour le résultat obtenu.
Notons que dans toute l’étude de l’auto-déconvolution, nous avons utilisé la contrainte
de maintien à zéro au lieu de la contrainte de positivité. En effet nous supposons ici qu’en
dehors du delta-dopage, aucune petite structure n’est diluée dans le profil mesuré, et que les
artefacts apparaissant lors de la déconvolution ne proviennent que du bruit de mesure. La
contrainte de maintien à zéro élimine donc ces artefacts et permet une répartition correcte de
la dose dans le profil déconvolué.
Dans une première série de déconvolutions, nous avons fixé le rapport signal/bruit à
35 dB. Le tableau ci-dessous compare les largeurs à mi-hauteur des profils avant et après
déconvolution, ainsi que leur maximum.
Rp
10
nconv
FWHM(y)
FWHM(xconv)
gain en FWHM
max(y) Â-2
max(xconv) Â-2
gain en max
4357
49
7
7
1.79
15.3
8.5
SNR = 35 dB
20
40
5493
53
7
7.57
1.65
14.7
8.9
5245
62
8
7.75
1.39
13.7
9.8
70
100
140
4098
77
11
7
1.12
9.7
8.7
4723
92
13
7
0.95
8.3
8.8
4563
111
15
7.75
0.8
6.8
8.8
Gains en résolution en profondeur et en maximum de concentration
apportés par la déconvolution du Dirac numérique en fonction
de la profondeur de pénétration Rp. α = 0.01, SNR = 35 dB.
On observe une certaine constance dans les résultats : le gain en résolution en
profondeur, mesuré à partir de la FWHM, est de 7 à 7.75, et le gain en concentration
maximum oscille entre 8.5 et 9.8. Cette invariance relative des gains montre que le critère
d’arrêt choisi est indépendant de la profondeur de pénétration, et qu’il est représentatif de la
qualité du résultat obtenue (ou désirée). La figure suivante compare les profils déconvolués à
1000, 4000 et 10000 itérations pour la simulation effectuée avec Rp = 40 Å. Cette figure nous
montre qu’en doublant le nombre d’itérations (n = 10000 au lieu de n = 5245), on n’obtient
qu’un gain en maximum de concentration de 2%, alors que le gain en résolution en
profondeur est négligeable.
134
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
0.14
Dirac numérique
déconvolué avec
α = 0.01
0.12
0.10
Intensité (u.a)
n = 1000
n = 4000
n conv = 5245
n = 10000
Figure 3-41 :
Comparaison
des profils
déconvolués
pour diverses
valeurs de n.
0.08
0.06
0.04
0.02
0.00
30
35
40
45
50
55
60
65
70
Profondeur (Å)
Nous reprenons maintenant la même série de déconvolutions, avec cette fois-ci un
rapport signal/bruit de 40, 30 puis 20 dB (profil très bruité).
Rp
nconv
FWHM(y)
FWHM(xconv)
gain en FWHM
max(y)Â-2
max(xconv) Â-2
gain en max
10
3775
48
7
6.86
1.81
15.4
8.5
SNR = 40 dB
20
40
4486
4834
54
64
7
9
7.71
7.11
1.64
1.38
13.8
12.7
8.4
9.2
70
4424
78
11
7.09
1.12
10.0
8.9
100
4843
91
13
7
0.94
8.5
9.0
140
4192
112
15
7.47
0.77
7.0
9.0
70
5455
77
10
7.7
1.13
1.09
9.6
100
5137
92
12
7.67
0.95
0.91
9.6
140
5051
112
14
8
0.77
0.74
9.6
SNR = 30 dB
Rp
nconv
FWHM(y)
FWHM(xconv)
gain en FWHM
max(y)Â-2
max(xconv) Â-1
gain en max
10
4416
48
7
6.86
1.82
1.55
8.5
20
4465
54
7
7.71
1.65
1.57
9.5
40
5458
61
8
6.78
1.41
1.25
8.9
135
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Rp
10
nconv
FWHM(y)
FWHM(xconv)
gain en FWHM
max(y)Â-2
max(xconv) Â-2
gain en max
5259
47
7
6.71
1.93
5.3
7.9
SNR = 20 dB
20
40
4480
51
8
6.38
1.71
14.0
8.2
4580
61
9
6.78
1.44
12.6
8.7
70
100
140
4113
78
10
7.8
1.16
9.8
8.4
4694
87
12
7.25
0.99
8.7
8.8
4713
105
14
7.5
0.81
7.9
9.7
Les trois tableaux ci-dessus montrent de toute évidence que le gain en résolution est
indépendant du bruit (dans la limite de ce que l’on peut trouver expérimentalement en SIMS).
Cependant, il faut relativiser ces résultats pour plusieurs raisons :
•
•
•
Les simulations sont effectuées avec un bruit qui est par définition un signal
aléatoire. Cela implique que chaque essai de déconvolution sur un profil défini par
Rp, α, et SNR, donnera un résultat unique dépendant de la distribution du bruit sur
le profil mesuré. Le nombre d’itérations à effectuer pourra alors varier de ±1000
pour atteindre un même gain en résolution. Les tableaux précédents présentent donc
des essais représentatifs de la moyenne.
La finesse des profils déconvolués entraîne une erreur possible non négligeable sur
le gain en résolution en profondeur, due à la nature numérique des signaux.
Le cas étudié est d’une part le plus difficile en terme de restauration, mais aussi le
plus simple puisqu’il n’y a aucune source d’oscillations. Le paramètre de
régularisation est ainsi plus faible que dans la plupart des autres types de profils, et
le nombre d’itérations peut être augmenté sans risque de dégradation du résultat. Il
est évident que sur d’autres types de profils, l’augmentation du bruit entraînerait
une diminution de la qualité de la déconvolution (développement d’artefacts).
Le delta-dopage est néanmoins le cas le plus intéressant pour la déconvolution en
SIMS. Si d’autres structures, comme les marches de concentration, nécessitent moins de
traitements, les profils de monocouches font l’objet de toute l’attention puisqu’ils représentent
la résolution ultime accessible par l’ensemble SIMS-traitement du signal. Le gain en
résolution en profondeur peut aisément être amélioré dans le cas des deltas-dopage grâce à la
déconvolution, mais ce dernier illustre plus les performances de la méthode de déconvolution
que l’amélioration que l’on peut obtenir en profil SIMS.
Cette série de calculs a été menée avec un critère d’arrêt choisi en tenant compte d’un
compromis (temps de calcul)/(gain de résolution en profondeur). Nous aurions pu exiger une
déconvolution plus poussée en diminuant nettement dxnconv , mais l’amélioration du résultat
n’est pas spectaculaire après un certain nconv. Dans la réalité, les profils SIMS sont déformés
136
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
par divers phénomènes que nous allons aborder dans le chapitre suivant (non-linéarités entre
le temps et la profondeur, système variant,…), et imposer un très grand nombre d’itérations
risquerait de provoquer la naissance d’artefacts. A titre d’exemple, la déconvolution d’un
Dirac numérique dans des conditions similaires (SNR = 35 dB, Rp = 40 Å) a été effectuée avec
100 000 itérations. Les figures 3-42 et 3-43 représentent les différentes étapes de cette
déconvolution, avec les profils déconvolués à k × 10000, ainsi que la courbe de la résolution
en profondeur (moment centré d’ordre 2 et FWHM) en fonction du nombre d’itérations.
0.275
0.250
Profil déconvolué
en fonction du
nombre d'itérations
n = 10 000
n = 20 000
n = 30 000
n = 40 000
n = 50 000
n = 60 000
n = 70 000
n = 80 000
n = 90 000
n = 100 000
Déconvolution du
Dirac numérique
0.225
0.200
0.150
0.125
0.100
0.075
0.050
0.025
0.000
40
42
44
46
48
50
52
54
56
58
60
Profondeur (Å)
10
9
Moment centré d'ordre 2
Largeur à mi-hauteur
8
Moment centré d'ordre 2
Intensité (u.a)
0.175
Figure 3-42 :
Evolution du profil
déconvolué en
fonction du nombre
d’itérations.
Dirac numérique
convolué par une
DRF correspondant
à Rp = 40 Å,
puis bruité avec un
SNR de 35 dB.
α = 0.01,
n = 100 000.
7
6
5
4
3
2
1
0
0
10000
20000
30000
40000
50000
60000
Nombre d'itérations
137
70000
80000
90000 100000
Figure 3-43 :
Moment centré
d’ordre 2 et FWHM
du profil déconvolué
en fonction du
nombre d’itérations.
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
En conclusion, nous pouvons affirmer que notre méthode de déconvolution appliquée
aux Diracs numériques permet d’améliorer la résolution en profondeur d’un facteur supérieur
à 7 dans la plupart des cas (comparaison des largeurs à mi-hauteur).
Dans une précédente étude de l’auto-déconvolution, réalisée avec l’algorithme de Van
Cittert régularisé et contraint, nous parvenions à des résultats nettement inférieurs [73]. Avec
un SNR de 35 dB, nous n’obtenions qu’un gain de résolution en profondeur (calculé sur la
comparaison des FWHM) allant de 4.4 à 4.9 pour la plage de Rp de 10 à 140 Å. En baissant le
rapport signal/bruit à 20 dB, ce même gain n’était plus que de 3.2 à 4.5. De plus, toutes les
simulations avaient été effectuées avec le critère d’arrêt dxnconv = 2 ⋅10−5 , soit un nombre
d’itérations moyen de 10000 pour le rapport signal/bruit de 35 dB. Les performances de
l’algorithme de Van Cittert régularisé et contraint sont donc moins bonnes que celles de
l’algorithme que nous avons développé dans ce travail dans le cas des structures ultimes. En
effet l’algorithme de Van Cittert modifié est fortement régularisant, et même en l’absence du
terme de régularisation α D x , il converge vers une solution régulière mais, par rapport à
2
celle que nous obtenons avec notre algorithme dans le domaine de Fourier, plus éloignée de la
solution idéale :
FWHM
(y)
Rp = 40 Å,
SNR = 35 dB
Van Cittert modifié
Rp = 40 Å,
SNR = 35 dB
Méthode avec Modèle
Rp = 100 Å,
SNR = 20 dB
Van Cittert modifié
Rp = 100 Å,
SNR = 20 dB
Méthode avec Modèle
FWHM
(xconv)
gain en
FWHM
13
4.8
62
max(y)
-10-2
max(xconv)
Â-2
gain en
max
7.9
5.7
1.4
8
7.8
13.7
9.8
17
5.2
6.2
6.3
8.7
8.8
88
0.99
12
7.3
Les simulations effectuées nous ont permis de cerner les limites de la nouvelle
méthode de déconvolution au niveau du gain en résolution en profondeur, ainsi que de la
résolution elle-même.
138
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
8.3 Séparation de deltas-dopage
Lorsque deux deltas-dopage sont trop proches, le mixage collisionnel entraîne une
superposition des deux couches lors de la mesure. Ce phénomène apparaît lorsque la distance
qui les sépare dans l’échantillon est plus petite que la longueur de la DRF. On peut distinguer
deux types de superposition des pics mesurés :
• Dans un premier cas, on discerne la présence des deux couches grâce aux maxima
qui sont bien visibles. On peut alors définir, conformément à ce que nous avons vu
I −I
dans le premier chapitre, un taux de séparation T = Max Min de départ. La
I Max
•
déconvolution devra ici améliorer ce taux, et au mieux aboutira à la séparation
complète des deux couches.
Dans le deuxième cas, la mesure ne fait apparaître qu’un seul pic. Selon les
conditions de mesure et le niveau de bruit, la déconvolution aboutira ou non à la
distinction des deux couches (séparation complète ou partielle).
Nous avons simulé des profils contenant deux deltas-dopage séparés d’une distance d
égale à 10, 20 et 30 Å, pour une DRF de 40 Å de Rp et un SNR de 35 dB. Chaque profil a été
déconvolué avec un paramètre de régularisation de 0.01 puis de 0.1. Dans les trois cas, les
couches ne sont pas discernables dans le profil de départ (On notera que pour un Rp de 40 Å,
la DRF à un niveau significatif sur environ 250 Å). Là aussi la contrainte de maintien à zéro a
été utilisée. Nous présentons brièvement les résultats de chaque déconvolution, réalisées avec
10000 itérations:
•
d = 10 Å :
α = 0.01 : Les couches restent indiscernables tout au long de la déconvolution.
Cependant, l’invariance du profil déconvolué nous montre que la convergence a été
atteinte et que l’on ne pourra pas obtenir de meilleur résultat au-delà de 2000 itérations
(figure 3-44). De plus, même si l’erreur observable est décroissante, l’erreur non
observable présente un minimum à l’itération n = 2550, ce qui nous indique que
l’algorithme a atteint le meilleur profil déconvolué.
α = 0.1 : Là aussi les deux pics restent complètement confondus (ce qui est
prévisible puisque l’on régularise plus), et la convergence est atteinte assez rapidement
(à 3000 itérations). L’erreur observable augmente à partir de n = 2700.
139
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Figure 3-44 :
Déconvolution du
couple de Diracs
numériques
distant de
d = 10 Å.
Rp = 40 Å,
SNR = 35 dB
α = 0.01.
0.12
Intensité (u.a)
0.10
0.08
Déconvolution de deux
Diracs distants de 10 Å
α = 0.01
0.06
n = 1000
n = 5000
n = 10000
0.04
0.02
0.00
35
40
45
50
55
60
65
Profondeur (Å)
•
d = 20 Å :
α = 0.01 : A partir de n = 5000 itérations, les deux pics commencent à se
détacher et on peut mesurer un taux de séparation à n = 10000 de 35% (alors qu’il
n’est que de 4% à n = 5000). La distance d est encore trop faible pour avoir un
découplage total des deux pics. La figure 3-45 nous montre l’évolution du profil
déconvolué toutes les 1000 itérations :
0.08
0.07
Intensité (u.a)
0.06
n = 1000
n = 10000
Profil mesuré
Déconvolution de deux
Diracs numériques
distants de 20 Å.
α = 0.01
Figure 3-45 :
Découplage
partiel des deux
pics. d = 20 Å,
Rp = 40 Å,
SNR = 35 dB,
α = 0.01.
0.05
0.04
0.03
0.02
0.01
0.00
10
20
30
40
50
60
Profondeur (Å)
140
70
80
90
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
α = 0.1 : Avec ce paramètre de régularisation, les hautes fréquences sont dans
l’ensemble plus pénalisées que précédemment et les pics restent indiscernables jusqu’à
n = 10000, où un léger creux se forme sur le profil déconvolué.
Dans les deux cas, l’erreur observable est décroissante tout au long de la
déconvolution.
•
d = 30 Å :
Avec une telle distance les séparant dans le profil réel, les deux pics sont
totalement découplés après déconvolution. Le découplage apparaît à n = 1500 pour
α = 0.01, et à n = 8500 pour α = 0.1. Le profil déconvolué évolue alors de la même
manière que dans le cas d’un simple Dirac. On observe cependant une dissymétrie des
pics, variable selon la distribution du bruit (figure 3-46). D’une part la hauteur des pics
déconvolués peut être légèrement différente entre l’un et l’autre (quelques pour-cent
seulement), et d’autre part le front descendant du premier et le front montant du
deuxième sont moins abrupts que les fronts extérieurs. Cette dernière caractéristique
suggère que de l’information est perdue localement, à l’endroit où la superposition a
eu lieu.
Doublet de Diracs:
n = 1000
n = 5000
n = 10000
Dirac seul:
n = 1000
n = 5000
n = 10000
0.16
0.14
Découplage des
deux pics.
d = 30, α = 0.01
Intensité (u.a)
0.12
0.10
0.08
0.06
0.04
0.02
0.00
10
20
30
40
50
60
70
80
90
Profondeur (Å)
Figure 3-46 : Comparaison de l’amplitude et de la largeur des pics déconvolués
avec et sans couplage dans le profil mesuré.
141
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
La figure 3-46 compare le déconvolué du doublet de Diracs avec celui du Dirac
seul. L’amplitude des pics n’est pas aussi bien restaurée que dans le cas d’un Dirac
seul. Tout se passe comme si la dégradation produite par le système était plus forte.
Par suite, à nombre d’itérations égal, on n’obtient pas la même largeur à mi-hauteur, et
donc la même résolution.
Nous avons testé les capacités de la méthode de déconvolution à séparer deux Diracs
en balayant Rp sur une plage allant de 10 à 100 Å, et d de 10 à 40 Å. Toutes les simulations
ont été effectuées avec n = 10000 itérations et un rapport signal sur bruit de 35 dB. Sur la
figure 3-47 nous avons représenté trois zones reflétant le résultat de la déconvolution :
Taux de séparation des deux
couches après déconvolution
40
Distance réelle entre les deux couches (Å)
Séparation impossible
0 à 39%
35
40 à 59%
30
60 à 79%
80 à 99%
25
Séparation totale
20
15
10
20
40
60
80
100
Profondeur de pénétration des ions (Å)
Figure 3-47 : Taux de séparation de deux deltas-dopage en fonction de leur espacement et de
la profondeur de pénétration des ions, pour un rapport signal/bruit de 35 dB.
•
•
•
Zone rouge : celle-ci regroupe les combinaisons (Rp, d) où la séparation des pics est
impossible par déconvolution. Augmenter le nombre d’itérations n’amène aucune
amélioration car l’erreur observable atteint un minimum puis est croissante.
Zone verte : dans cette zone les couples (Rp, d) sont tels que les pics sont
complètement dissociés dans le profil déconvolué.
Zone intermédiaire : ici le découplage est partiel. Un nombre plus élevé d’itérations
mènerait soit à un découplage total soit à une solution instable.
142
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
Lorsque la DRF est trop large par rapport à la distance d, la convolution (et donc la
perte d’informations) est telle que les pics ne sont pas dissociables. On observe alors une
stagnation du profil déconvolué, qui ne s’affine plus comme dans le cas d’un Dirac seul. Les
contraintes que nous avons introduites dans l’algorithme ne suffisent plus pour déconvoluer
correctement, et ce dernier n’est plus convergent. D’autres informations seraient nécessaires.
Il faut donc arrêter l’algorithme si l’erreur observable atteint un minimum.
Cette figure nous permet de prévoir grossièrement la limite de séparation que l’on peut
obtenir en fonction des conditions expérimentales (énergie d’impact ou profondeur de
pénétration des ions) à niveau de bruit donné. Les lignes de niveau séparant les deux zones
extrêmes apparaissent ici irrégulières à cause du caractère aléatoire du bruit. Des valeurs
moyennes prises sur un grand nombre de simulations nous donneraient des courbes plus
lisses. En présence de petites structures, une déconvolution locale et l’observation de l’erreur
de reconstruction doivent permettre de déceler soit un Dirac, soit une structure gaussienne ou
de type créneau, soit deux couches adjacentes. Il serait intéressant aussi de tracer l’évolution
du taux de séparation en fonction du niveau de bruit.
9. Conclusion
Dans ce chapitre, nous avons tout d’abord défini les caractéristiques minimales que
doivent respecter les signaux avant tout traitement numérique. En particulier, il est nécessaire
de disposer d’un échantillonnage satisfaisant, c’est-à-dire ayant un pas inférieur à 1 ou 2 Å.
Un pas d’échantillonnage supérieur, bien que suffisant pour l’étude des structures larges et à
pentes douces, diminuera la fréquence de coupure spatiale du profil, et donc la résolution en
profondeur accessible par déconvolution.
Nous avons ensuite défini les différents types de profils simulés afin de tester la
méthode de déconvolution développée dans ce travail. Un signal-test a été construit, et
l’observation des résultats de méthodes de déconvolution non itératives nous ont confirmé la
nécessité d’employer des algorithmes itératifs. La méthode de déconvolution dans l’espace de
Fourier avec introduction d’un modèle numérique de la solution a été retenue pour sa capacité
à intégrer les contraintes dures et l’information contenue dans le modèle.
Les performances de cette méthode ont ensuite été évaluées sur différents types de
profils : créneaux, gaussiennes, deltas-dopage. Certains auteurs affirment que les méthodes de
déconvolution utilisant les transformations de Fourier ne sont pas applicables aux profils
SIMS [74]. Malgré le fait que nous obtenions des performances relativement équivalentes à
celles d’autres méthodes de déconvolution itératives (maximum d’entropie, algorithme de
Van Cittert régularisé et contraint), notre méthode a prouvé son efficacité, en particulier pour
les deltas-dopage simulés.
Nous avons obtenu, avec l’auto-déconvolution, un gain de résolution en profondeur de
7, que nous pouvons augmenter avec le nombre d’itérations. Enfin, nous avons déterminé les
conditions pour que deux Diracs numériques proches et superposés lors de la mesure soient
découplés après déconvolution.
143
&KDSLWUH'pFRQYROXWLRQGHSURILOV6,06VLPXOpV
144
&KDSLWUH
$SSOLFDWLRQGHOD0pWKRGHGH
'pFRQYROXWLRQDX[3URILOV6,06
([SpULPHQWDX[0RGpOLVDWLRQGH
3KpQRPqQHV'pJUDGDQWOD
5pVROXWLRQHQ3URIRQGHXU
1. Introduction
Nous disposons maintenant d’une méthode de déconvolution que nous allons
appliquer à des profils SIMS expérimentaux. Nos essais de déconvolution porteront d’une part
sur des mesures effectuées avec notre appareil, le CAMECA IMS3/4f, et d’autre part sur des
mesures provenant d’autres laboratoires, faites sur des appareils légèrement différents.
Nous aurons aussi à faire face à des problèmes d’ordre expérimental qu’il faudra
résoudre avant d’appliquer la déconvolution, sous peine d’obtenir un résultat faussé par les
mauvaises données de départ. Lorsque cela n’est pas précisé, les analyses ont été effectuées
en ions primaires O2+.
2. Déconvolution d’échantillons « multi deltas-dopage »
Nous disposons de trois échantillons comportant un grand nombre de deltas-dopage
plus ou moins espacés. La concentration est également variable d’un échantillon à l’autre.
Deux d’entre eux nous ont été fournis par l’Université de Warwick (Angleterre), le premier
comportant douze deltas-dopage de bore dans du silicium pour une profondeur totale de
10000 Å, et le deuxième en contenant onze. Nous les nommerons respectivement
« Warwick 1 » et « Warwick 2 ». Le troisième échantillon a également été fabriqué par
l’Université de Warwick, pour J. Bennett [67], et contient seize deltas-dopage. Nous
l’appellerons « échantillon Bennett ».
2.1 Déconvolution du multi deltas-dopage Warwick 1. Profil en
profondeur à haute énergie d’impact
‰ Composition de l’échantillon et conditions de déconvolution
La composition supposée réelle de cet échantillon est représentée sur la figure 4-1.
145
Profil réel Warwick 1
bore dans silicium
Figure 4-1 : Structure
schématique de
l’échantillon Warwick 1.
1.0
concentration (u.a)
0.8
0.6
0.4
0.2
0.0
0
1000
2000
3000
4000
5000
6000
7000
8000
9000 10000 11000
Profondeur (Å)
Les deltas-dopage contiennent une forte dose de bore et leur analyse par SIMS nous
offre une grande dynamique :
100000
Figure 4-2 : Profil en
profondeur de
l’échantillon Warwick 1.
Conditions
expérimentales :
Ep = 8 keV/O2+, 38.7°
d’incidence, soit
Rp = 99 Å. Pas
d’échantillonnage
Te = 2.2 Å.
10000
Intensité (cps)
1000
100
10
1
0.1
0
2000
4000
6000
8000
10000
12000
Profondeur (Å)
C’est cet échantillon qui nous a servi à mesurer la DRF du bore dans le silicium à
différentes énergies. Des mesures au MET (Microscope à Transmission Electronique) ont été
faites sur cet échantillon et nous ont confirmé la bonne qualité des deltas-dopage (de 1 à 3 ou
4 couches d’épaisseur) (figure 4-3). On peut donc considérer que les paramètres de la DRF
obtenus à partir de cet échantillon sont valables dans la plage d’énergies que nous avons
utilisées. Cette acquisition va donc nous permettre de tester l’auto-déconvolution, mais aussi
la séparabilité de deux deltas-dopage adjacents. La figure 4-4 nous montre le résultat de la
déconvolution du profil mesuré à 8 keV. Celle-ci a été effectuée avec un paramètre de
146
régularisation α de 1 et 1000 itérations. Nous avons choisi pour α une valeur bien plus élevée
que dans les simulations, pour deux raisons :
• Dans les simulations, la DRF servant à la déconvolution est strictement la même que
celle intervenant lors de la construction du profil mesuré. Avec les profils
expérimentaux, la DRF est obtenue en ajustant un delta-dopage dans les mêmes
conditions de mesure que le profil. Ni le delta-dopage ni la mesure n’étant parfait,
l’ajustement pourra donner des paramètres de DRF λu , λd et σ légèrement différents
des paramètres réels. Une légère erreur sur ces paramètres peut donc entraîner la
naissance d’artefacts lors de la déconvolution [53]. Une régularisation plus forte
atténue ces artefacts.
• Les deltas-dopage ne sont jamais parfaits dans un échantillon. Une imperfection ou
une légère diffusion des espèces concernées donneront un profil nécessitant une
régularisation plus importante que dans le cas de Diracs numériques (voir le
chapitre précédent sur la déconvolution de gaussiennes).
Figure 4-3 : Photo prise au microscope à transmission électronique de l’échantillon
Warwick 1 en coupe. Chaque trait foncé est un delta-dopage.
La courbe superposée est le profil SIMS mesuré à 3 keV (représentation logarithmique).
147
‰ Résultat de la déconvolution
Le profil déconvolué nous montre une nette amélioration de la résolution en
profondeur (figure 4-4). Les deltas-dopage ne font plus que quelques angströms de large, et
les pentes exponentielles ont été complètement supprimées. Quant aux quatre premiers pics,
qui étaient légèrement superposés lors de la mesure, la déconvolution les a totalement séparés.
Profil mesuré 8keV
Profil déconvolué - 1000 itérations
100000
Intensité (cps)
10000
1000
100
10
1
0
1000
2000
3000
4000
5000
6000
7000
8000
9000 10000 11000
Profondeur (Å)
Figure 4-4 : Comparaison des profils mesuré et déconvolué de l’échantillon
Warwick 1 à 8 keV d’impact. α = 1, n = 1000 itérations.
Des artefacts apparaissent cependant dans la deuxième partie du profil, là où les
couches de bore sont le plus espacées. Ceux-ci ont une amplitude d’environ une à deux
décades supérieure à celle du bruit. Leur interprétation peut être trouvée dans la représentation
linéaire du profil déconvolué à la première itération (figure 4-5).
On voit dès le début de la déconvolution des oscillations générées aux pieds des pics
déconvolués. La partie positive de ces oscillations ne sera pas compensée par la contrainte de
positivité. Nous les retrouverons donc tout au long de l’algorithme, à moins que leur
« pseudo-période » ne varie (comme dans le cas des créneaux), ce qui conduirait à leur
élimination progressive par la contrainte de maintien à zéro. Notons aussi que ces oscillations
apparaissent avec d’autres méthodes de déconvolution (algorithme de Van Cittert régularisé et
contraint, maximum d’entropie).
148
600
y
xb miller- 1
Profil déconvolué
500
Intensité (cps)
400
ère
Figure 4-5 : Mise
en évidence de la
naissance des
artefacts lors de la
déconvolution de
deltas-dopage.
itération
Profil mesuré
300
oscillation positive
200
100
0
-100
2800
2900
3000
3100
3200
3300
3400
3500
3600
3700
3800
Profondeur (Å)
L’élément frappant dans le profil déconvolué est l’absence d’artefacts dans la première
partie, là où les pics mesurés sont superposés. L’interprétation est quasiment évidente :
lorsque les pics se chevauchent, le minimum du signal a une ou deux décades de plus que le
minimum détectable. Le rapport signal utile sur bruit est donc localement bien plus fort ici
que lorsque les deltas-dopage sont bien séparés à la mesure. On en déduit alors une difficulté
de déconvoluer les zones à faible rapport signal/bruit. Cette caractéristique de la
déconvolution semble paradoxale puisqu’un profil mesuré où les deltas-dopage se
chevauchent légèrement (profil haute énergie) sera déconvolué avec moins d’artefacts qu’un
profil mesuré bien résolu (basse énergie). On notera aussi que les oscillations rattachées à un
delta-dopage peuvent introduire une erreur sur le delta-dopage voisin.
Les FWHM respectives du 5ème pic mesuré et déconvolué sont 88.0 Å et 24.2 Å, ce qui
nous donne un gain de résolution en profondeur de 3.6.
‰ Reconstruction du profil
Le profil reconstruit est quant à lui très satisfaisant, en particulier sur les derniers
deltas-dopage (figure 4-6). Les écarts entre le profil mesuré et le reconstruit se situent
principalement aux jonctions des pics de concentration. On remarque sur les pics 5 à 10 du
profil mesuré un léger renflement au pied de la pente montante, qui diminue avec la
profondeur. Ce dernier n’est pas présent sur d’autres mesures faites sur le même échantillon.
On peut donc supposer que son origine est purement instrumentale (cratère non plat,
rugosités,…), et que la qualité de la reconstruction est par suite moins bonne dans ces zones à
très faible signal.
Nous pouvons ainsi conclure à un résultat très satisfaisant à la fois pour la mesure, la
déconvolution et la reconstruction du profil.
149
Profil mesuré
Profil reconstruit
10000
Intensité (cps)
1000
100
10
1
0.1
0
4000
8000
Profondeur (Å)
Figure 4-6 : Reconstruction du profil mesuré à partir du profil déconvolué et de la DRF.
2.2 Déconvolution du multi deltas-dopage Bennett. Profil en profondeur
à basse énergie
Cet échantillon à été fabriqué comme l’indique la figure suivante :
1.2
50 Å
150 Å
100 Å
50 Å
1.0
0.8
0.6
0.4
0.2
0.0
-200
0
200
400
600
800
1000
1200
1400
1600
1800
Profondeur (Å)
Figure 4-7 : Structure schématique de l’échantillon Bennett.
150
2000
Il a été analysé sous soufflage d’oxygène et à faible énergie d’impact : 3.75 kV pour la
tension primaire et 2.25 kV pour la tension secondaire, ce qui nous donne 1500 eV d’impact
pour les ions primaires. Dans ces conditions, le mixage collisionnel est faible mais les pics
distants nominalement de 150 Å ne sont pas encore complètement dissociés lors de la mesure
à cette énergie. Les cinq premiers deltas-dopage, distants de 50 Å, sont encore largement
superposés (figure 4-8).
Nous avons effectué la déconvolution dans les mêmes conditions que précédemment
(α = 1, n = 1000 itérations puis 10000). Le résultat à n = 1000 est excellent :
Profil mesuré 1500 eV
Profil déconvolué - 1000 itérations
Intensité (cps)
10000
1000
100
10
0
200
400
600
800
1000
1200
1400
1600
1800
2000
Profondeur (Å)
Figure 4-8 : Déconvolution de l’échantillon Bennett analysé à 1500 eV.
Pas d’échantillonnage Te = 0.4 Å, α = 1, n = 1000 itérations.
Tous les pics sont maintenant dissociés, et le gain en résolution en profondeur est de
2.9 pour 1000 itérations, et de 4.75 pour 10000 itérations. Ce gain en résolution est calculé en
mesurant la FWHM du 6ème pic, qui n’est plus que de 6.49 Å à la fin de la déconvolution
(n = 10000).
Le résultat est tout aussi saisissant lorsqu’il est représenté en échelle linéaire :
151
25000
Profil mesuré - 1500 eV
Profil déconvolué - 1000 itérations
Intensité (cps)
20000
15000
10000
5000
0
0
200
400
600
800
1000
1200
1400
1600
1800
2000
Profondeur (Å)
Figure 4-9 : Représentation en échelle linéaire des profils mesuré et déconvolué.
Lorsqu’on arrive à des distances aussi petites, il est nécessaire de faire un choix pour
la grandeur qui va quantifier exactement la résolution en profondeur. Le 6ème pic de ce profil
déconvolué à une largeur à mi-hauteur de 6.49 Å, et son moment centré d’ordre 2 est de
2.13 Å.
Considérons un créneau dont la largeur est L : son moment centré d’ordre 2 est
L
. Ici, le moment centré d’ordre 2 du 6ème pic du profil déconvolué est de 2.13 Å, ce
σc =
2 3
qui correspondrait à un créneau de largeur 7.39 Å. On peut comparer ce résultat à la limite
ultime qui peut être théoriquement atteinte : pour un échantillon idéalement épitaxié avec une
seule monocouche dopée bore, « l’épaisseur » de cette couche correspondrait en fait à deux
distances inter-plans pour le silicium (100), c’est-à-dire à 2.72 Å. On constate que malgré tous
les phénomènes dégradants liés à l’analyse SIMS, on se rapproche de cette limite avec un
facteur d’élargissement de seulement 2.4.
Notons que le 1er delta-dopage, qui n’est enterré qu’à 50 Å de profondeur ne devrait
pas être pris en compte, puisqu’à cette énergie, il se situe encore à la limite du régime
transitoire de l’analyse. Sur le coté gauche des cinq derniers pics, il apparaît des artefacts
152
croissant avec la profondeur. Cette observation nous suggère soit des problèmes d’ordre
expérimental (auquel cas la DRF est variante avec la profondeur), soit une dégradation du
rapport signal/bruit. Or la représentation logarithmique du profil mesuré nous montre
clairement que le rapport signal/bruit est meilleur là où les artefacts apparaissent. Nous
supposons donc qu’une dégradation de la qualité de la mesure intervient à partir de 1200 Å et
va en augmentant. La DRF est alors légèrement faussée à cette profondeur.
L’échantillon a également été analysé à 2,5 keV (7 kV – 4.5 kV), et deux acquisitions
distinctes, avec et sans porte électronique limitant la zone analysée, ont été effectuées. La
figure 4-10 nous montre les effets des bords de cratère apparaissant sur le profil mesuré sans
porte électronique.
Profil mesuré avec effets de bord du cratère
Profil mesuré sans effets
Intensité (u.a)
1
0.1
0.01
0.0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
Echelle arbitraire
Figure 4-10 : Comparaison de deux profils mesurés avec et sans porte
électronique au niveau de la zone analysée du cratère. Ep = 2500 eV.
Dans certains cas, lorsqu’on effectue l’analyse sans porte électronique, des ions
provenant des bords du cratère (donc à diverses profondeurs) viennent entacher la détection
des ions secondaires. La résolution en profondeur est alors moins bonne en apparence. La
figure 4-10 nous montre que la dynamique du signal est plus importante avec la porte
électronique (après normalisation des deux profils), la résolution en profondeur est donc
meilleure. De plus, l’écart de résolution tend à augmenter avec la profondeur.
Dans le profil précédent (1500 eV), les problèmes de bords de cratère sont
négligeables dans la 1ère moitié du profil et apparaissent progressivement dans la 2ème moitié,
153
générant des artefacts lors de la déconvolution. Ces affirmations sont confirmées par la
déconvolution d’une mesure effectuée à 2350 eV (α = 1, n = 4000 itérations), où aucun
artefact n’apparaît, hormis à la fin du profil, où le signal de bore n’est plus que bruit, et entre
les deux derniers pics (figure 4-11). Le gain en résolution en profondeur obtenu est ici de 4.33
(calculé sur la FWHM du 5ème pic avant et après déconvolution).
Les variations des conditions expérimentales peuvent ainsi être assez bien mises en
évidence par les multi deltas-dopage. Avec une déconvolution classique, des artefacts
apparaissent et révèlent la présence d’une dégradation des conditions expérimentales. Il serait
intéressant de pouvoir les prendre en considération pendant la restauration. Cela nous amène à
envisager la déconvolution des profils SIMS où la fonction de résolution en profondeur est
variante.
Profil mesuré à 2350 eV
Profil déconvolué - 4000 itérations
Intensité (cps)
10000
1000
100
10
0
200
400
600
800
1000
1200
1400
1600
1800
2000
Profondeur (Å)
Figure 4-11 : Déconvolution de l’échantillon Bennett analysé à 2350 eV.
α = 1, n = 4000 itérations.
2.3 Gain en résolution en profondeur par déconvolution
Le tableau ci-dessous résume les différents gains en résolution et en maximum de
concentration obtenus sur les deux échantillons précédents pour différentes énergies
d’analyse:
154
Echantillon
Ep
Bennett
1500 eV
Bennett
1500 eV
Bennett
2350 eV
nconv
FWHM(y)
FWHM(xconv)
gain en FWHM
max(y)
max(xconv)
gain en max
1000
30.8
10.6
2.9
4.1Â3
14.7Â3
3.6
10000
30.8
6.5
4.75
4.1Â3
23.6Â3
5.8
4000
40.8
9.4
4.3
1.0Â4
5.9Â4
5.9
Warwick 1 Warwick 1 Warwick 1
8000 eV
13000 eV 13000 eV
1000
88.0
24.2
3.6
7.4Â4
3.1Â4
4.3
1000
116.8
40.9
2.9
4.4Â4
15.8Â4
3.6
10000
116.8
29.2
4.0
4.4Â4
25.0Â4
5.7
Nous obtenons, par rapport aux simulations du chapitre 3, un gain en résolution en
profondeur divisé par deux, sachant que la régularisation est ici beaucoup plus forte,
entraînant une diminution de la restauration des plus hautes fréquences. Les résultats sont
donc tout à fait satisfaisants. On voit en particulier sur l’échantillon Bennett à 1500 eV, que le
gain passe de 2.9 à 4.75 entre 1000 et 10000 itérations. Cette amélioration notable des
performances avec le nombre d’itérations est due à la bonne qualité de cette mesure : pas
d’échantillonnage faible (Te = 0.4 Å), bon niveau de signal et peu de rugosité.
Avec les profils expérimentaux, les performances de la déconvolution sont surtout
limitées par les imperfections de la mesure. Mis à part la génération d’artefacts dans les
régions à faibles concentrations, les mauvaises conditions expérimentales conduisent soit au
développement d’oscillations soit à la stagnation du profil déconvolué. On notera les gains en
résolution et en maximum de concentration identiques obtenus pour les profils Bennett à
1500 eV et Warwick 1 à 13000 eV, tous deux déconvolué avec 1000 itérations.
3. Déconvolution de profils quelconques
3.1 Pseudo deltas-dopage (Warwick 2)
Cet échantillon, initialement destiné à contenir des deltas-dopage aussi fins que
possible, nous a semblé, après avoir été analysé à basse énergie (1500 eV, 2000 eV), être
composé de couches de bore de mauvaise qualité. Sa structure schématique est représentée sur
la figure 4-12 .
Plusieurs analyses à 1500 eV avec soufflage d’oxygène nous ont confirmé la
« largeur » relative de ces deltas-dopage, après ajustement par la DRF analytique:
λu = 14.9 Å, λd = 21.4 Å, σ = 11.3 Å, soit σtot = 28.4 Å
alors que pour l’échantillon Bennett analysé à la même énergie, nous obtenons les paramètres
suivants :
λu = 3.8 Å, λd = 17.0 Å, σ = 8.1 Å, soit σtot = 19.2 Å
155
Profil réel Warwick 2
bore dans silicium
1.2
50 Å
250 Å
Figure 4-12 : Structure
schématique de
l’échantillon Warwick 2.
500 Å
1.0
Intensité (u.a)
0.8
0.6
0.4
0.2
0.0
0
200
400
600
800
1000
1200
1400
1600
1800
2000
2200
Profondeur (Å)
Il ne fait aucun doute que la croissance de cet échantillon n’a pas été aussi bonne que
pour les deux précédents. La déconvolution d’un profil effectué à 2500 eV nous confirme ce
fait (figure 4-13). Celle-ci a été effectuée avec les paramètres de DRF que nous avons utilisés
pour l’échantillon Bennett à 2500 eV.
Intensité (cps)
10000
1000
100
Profil mesuré - 2500 eV
Profil deconvolué - 200 itérations
Profil reconstruit
0
250
500
750
1000
1250
1500
1750
2000
Profondeur (Å)
Figure 4-13 : Déconvolution de l’échantillon Warwick 2 analysé à 2500 eV. Les profils
mesuré et reconstruit sont pratiquement superposés. α = 1, n = 200 itérations.
156
La première chose qui frappe est le peu de différence entre le profil mesuré et le déconvolué.
Dans la représentation linéaire en particulier, on n’observe qu’une suppression partielle de la
décroissance exponentielle et de la composante gaussienne du profil mesuré.
Profil mesuré - 2500 eV
Profil deconvolué - 200 itérations
25000
Intensité (cps)
20000
15000
10000
5000
0
0
250
500
750
1000
1250
1500
1750
2000
Profondeur (Å)
Figure 4-14 : Déconvolution de l’échantillon Warwick 2 analysé à 2500 eV.
Représentation linéaire.
Lorsqu’on regarde l’évolution du profil déconvolué en fonction du nombre d’itérations
(figure 4-15), on s’aperçoit que ce dernier ne varie que très peu, ce qui montre que
l’algorithme atteint rapidement son point de convergence. Par conséquent, le profil réel de
concentration n’est pas aussi fin et abrupt que celui des deux échantillons précédents. La
croissance de cet échantillon n’a donc pas été bien maîtrisée.
On est donc loin des deltas-dopage de bonne qualité. Aux pieds de chaque pic, on
observe des oscillations, très visibles en échelle logarithmique. Celles-ci s’amplifient avec le
nombre d’itérations et, puisque le niveau de signal est faible mais non nul dans cette zone,
aucune contrainte ou information ne peut être introduite pour les supprimer ou les atténuer (on
retrouve le même problème que dans le cas des gaussiennes (voir chapitre précédent)).
L’ensemble du profil évoluant très peu après 40 à 60 itérations, il n’est pas nécessaire de
continuer l’algorithme au-delà.
157
25000
24000
n = 1000
23000
22500
22000
n = 1000
20000
Intensité (cps)
17500
15000
n = 200
21000
20000
Evolution du profil
déconvolué de n = 20
à n = 1000 itérations
19000
n = 20
18000
n = 20
1390
1395
1400
1405
12500
10000
7500
5000
2500
0
1300
1320
1340
1360
1380
1400
1420
1440
1460
1480
1500
Profondeur (Å)
Figure 4-15 : Evolution du profil déconvolué, représenté
à 20, 80, 140, 200 et 1000 itérations.
Enfin, le 1er groupe de cinq deltas-dopage, espacés nominalement de 50 Å, sont
superposés à la mesure et le restent après déconvolution. Les acquisitions effectuées à
1500 eV ne donnent aucune amélioration dans la séparabilité des deltas-dopage. Le mixage
collisionnel étant la principale source de dégradation de la résolution en profondeur, nous
pouvons affirmer que les cinq premiers deltas-dopage ne sont pas distincts dans le profil réel
de concentration. La déconvolution nous permet ici de déceler les deltas-dopage de mauvaise
qualité.
3.2 Triple marche de concentration à haute et basse énergie
L’échantillon que nous allons maintenant étudier à été fabriqué au CNET de Meylan
(« échantillon 53 »). Il est constitué d’une première couche de silicium non dopée suivi de
trois couches dopées bore à différentes concentrations. Son analyse à 6.5 keV (10 kV – 4.5
kV) ainsi que son profil déconvolué sont représentés sur les figures 4-16 et 4-17 :
158
1400
Profil mesuré - 6500 eV
Profil déconvolué - 30 itérations
1200
Intensité (cps)
1000
800
600
400
200
0
0
1000
2000
3000
4000
5000
6000
Profondeur (Å)
Figure 4-16 : Analyse SIMS à 6.5 keV et déconvolution du profil de l’échantillon 53.
Représentation linéaire. α = 5, Te = 1.58 Å, n = 30 itérations.
Profil mesuré - 6500 eV
Profil déconvolué - 30 itérations
Intensité (cps)
1000
100
10
1
0
1000
2000
3000
4000
5000
6000
Profondeur (Å)
Figure 4-17 : Analyse SIMS à 6.5 keV et déconvolution
du profil de l’échantillon 53. Représentation logarithmique.
159
Le profil déconvolué est globalement de la même forme que le profil mesuré. A cette
énergie d’analyse, la DRF a les paramètres suivants :
λu = 10.6 Å, λd = 40.8 Å, σ = 23.9 Å, soit σtot = 48.5 Å
Vu les dimensions des structures de cet échantillon, il est normal que peu de
différences soient constatées entre le mesuré et le déconvolué. En particulier, les plateaux de
concentration, qui font plus de 1000 Å de longueur chacun, sont invariants par la convolution.
On observe en fait quelques oscillations sur le profil déconvolué, dues au niveau élevé du
bruit dans tout le profil mesuré : le rapport signal/bruit est d’environ 32 dB sur le 1er plateau
de concentration.
Ce qui est tout de même intéressant dans cet exemple de déconvolution, c’est la
réduction de la pente décroissante de chaque palier de concentration. Entre le 1er et le 2ème
plateau, la partie au centre de la pente décroissante peut être modélisée par une fonction affine
de pente -3.9 cps/Å. Après déconvolution, la pente est un peu plus abrupte (-5.3 cps/Å). Le
gain n’est pas énorme mais il nous rapproche de la pente réelle de la concentration entre les
deux plateaux.
1400
Profil mesuré
Profil déconvolué
1200
Intensité (cps)
1000
800
600
400
200
1250
1300
1350
1400
1450
1500
1550
1600
1650
Profondeur (Å)
Figure 4-18 : Détail de la pente de concentration entre les deux premiers plateaux
L’échantillon a également été analysé à 2500 eV d’impact, sous soufflage d’oxygène
(λu = 1.8 Å, λd = 21.2 Å, σ = 8.4 Å). La comparaison des profils mesuré et déconvolué nous
montre que l’analyse donne quasiment le profil réel de concentration du bore :
160
2000
Profil mesuré - 2500 eV
Profil déconvolué - 40 itérations
1750
Intensité (cps)
1500
1250
1000
750
500
250
0
0
500
1000 1500 2000 2500 3000 3500 4000 4500 5000 5500 6000
Profondeur (Å)
Figure 4-19 : Résultat de la déconvolution de la triple marche de concentration analysée à
2500 eV. Les profils mesuré, déconvolué et reconstruit (non représenté) sont identiques, au
bruit près et sans tenir compte du transitoire. Te = 1.2 Å, α = 5, n = 40.
La pente reliant les deux premiers plateaux est identique à celle du profil déconvolué à
6500 eV. Si on normalise les profils issus de cette analyse de façon à les comparer à ceux
effectués à 6500 eV, la valeur de la pente est après déconvolution de -5.4 cps/Å, que l’on peut
comparer à la valeur -5.3 cps/Å pour le profil déconvolué à 6500 eV.
Les principales remarques que l’on puisse faire sur un tel échantillon sont les
suivantes :
Le profil de concentration de bore ne comporte pas d’interfaces abruptes. Le front
descendant entre les deux premiers plateaux s’étend sur 250 Å, alors que le σtot de la
DRF est de 48.5 Å à 6500 eV et de 22.9 Å à 2500 eV. Bien que le mixage collisionnel
ait lieu, comme dans toute analyse SIMS, le profil de concentration des plateaux reste
inchangé. Les interfaces de cet échantillon sont peu affectées, étant donné leur faible
pente. En dessous d’une certaine énergie d’impact, située entre 2500 et 6500 eV, le
profil mesuré est pratiquement identique aux profils déconvolué et réel. La
déconvolution est donc inutile et n’apporte que des oscillations parasites dues au fort
niveau de bruit, en particulier sur le 1er plateau.
161
3.3 Créneaux de concentration « étroits »
Cet échantillon a été fabriqué par SIEMENS AG (Münich) et est composé de deux
créneaux de concentration de 100 Å de bore dans du silicium, séparés par 100 Å de silicium
non dopé. Les concentrations respectives du 1er et 2ème créneau sont 1019 et 3Â18 at/cm3. Une
première mesure à 5.5 keV/02+, correspondant à une profondeur de pénétration de 73 Å, a été
effectuée. Les paramètres de la DRF sont λup = 10.7 Å, λdown = 37.6 Å, σ = 22.5 Å. La zone
de régime transitoire, avec une telle profondeur de pénétration, s’étend sur environ 140 Å. La
1ère couche de bore étant nominalement située à 100 Å de profondeur, nous émettrons des
réserves sur le résultat de la déconvolution, au niveau du front montant du 1er créneau. Les
profils mesuré, déconvolué et reconstruit sont représentés sur la figure 4-20 :
Profil mesuré - 5.5 keV
Profil déconvolué - 60 itérations
Profil reconstruit
3000
Intensité (cps)
2500
2000
1500
1000
500
0
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Figure 4-20 : Déconvolution de l’échantillon SIEMENS. Ep = 5.5 keV/02+, Rp = 73 Å,
Te = 2.1 Å. Déconvolution effectuée avec n = 60 itérations, α = 5. Représentation linéaire.
Là aussi la reconstruction est parfaite (sans tenir compte du transitoire).
L’amélioration apportée par cette déconvolution porte principalement sur l’affinement et la
séparation totale des deux structures. La forme supposée originale n’est pas restaurée de
manière satisfaisante. Nous retrouvons cependant l’allure du profil déconvolué d’un créneau
de concentration que nous avons simulé dans le chapitre précédent, où les dimensions de la
DRF sont du même ordre que celles du créneau.
Pour le 1er pic, le gain apparent en concentration relative est de 30%, sachant qu’il est
surestimé au niveau du maximum (voir les simulations du chapitre 3). Etant donné que ce
n’est pas une couche mince que l’on mesure, et qu’on attend par conséquent le profil d’une
162
structure relativement large, on doit comparer non pas les largeurs à mi-hauteur mais les
largeurs à la base de chaque structure (figure 4-21). Ainsi, en prolongeant artificiellement la
pente décroissante du 1er créneau mesuré de façon à ce qu’elle ait la même allure que celle du
2ème créneau, on a une largeur de base d’environ 330 Å. Après déconvolution, elle n’est plus
que de 180 Å, c’est-à-dire qu’on obtient une réduction de près de 45%.
Profil mesuré - 5.5 keV
Profil déconvolué - 60 itérations
Profil reconstruit
Intensité (cps)
1000
100
330 Å
180 Å
10
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Figure 4-21 : Mise en évidence de la réduction de la largeur à la base des créneaux.
Un renflement apparaît sur la pente descendante du 2ème pic. Nous ne pouvons pas
certifier que c’est un artefact, et son déplacement vers la gauche au cours de l’algorithme nous
rappelle l’éventualité d’une dose mal redistribuée par la déconvolution (voir les simulations
sur les gaussiennes et les structures masquées par la décroissance exponentielle).
Nous avons une autre analyse de cet échantillon effectuée à 1 keV d’impact (3 kV –
2 kV), mais avec des ions primaires xénon et sous soufflage d’oxygène. Nous rappelons que
le soufflage est indispensable dans ce cas, l’oxygène permettant l’oxydation des premières
couches et donc un taux d’ionisation acceptable. A cette énergie d’analyse, et sachant que le
profil ne contient pas de deltas-dopage, on peut espérer avoir un profil mesuré assez proche
du profil réel. Les paramètres de la DRF sont ici λup = 16.9 Å, λdown = 18.1 Å, σ = 6.4 Å. Ils
sont tirés de l’ajustement d’un delta-dopage analysé dans les mêmes conditions
expérimentales. Sur la figure 4-22, on remarque le peu d’amélioration apporté par la
déconvolution, effectuée avec un α égal à 5 et 40 itérations. Les pentes exponentielles sont
163
assez bien restaurées, mais l’imprécision de la mesure (pas d’échantillonage égal à 2.6 Å,
niveau de bruit élevé) ne nous permet pas de restaurer, s’il en contient, les hautes fréquences
du profil réel.
900
Profil mesuré - 1 keV
Profil déconvolué - 40 itérations
Profil reconstruit
800
700
Intensité (cps)
600
500
400
300
200
100
0
0
50
100
150
200
250
300
350
400
450
500
550
600
Profondeur (Å)
Figure 4-22 : Déconvolution de l’échantillon SIEMENS analysé à 1 keV sous faisceau d’ions
xénon. Te = 2.6 Å, α = 5, n = 40 itérations. Représentation linéaire.
Il apparaît évident que les deux structures ne sont pas réellement des créneaux, leur
« plateau » révélant un fort gradient positif. Nous retrouvons de part et d’autre du 2ème pic un
renflement dont l’origine est difficile à interpréter. Les déconvolutions avec contrainte de
positivité ou de maintien à zéro donnent sensiblement le même résultat.
3.4 Déconvolution d’un créneau à basse énergie. Invariance du profil
déconvolué
Nous avons un autre échantillon contenant un créneau de bore dans du silicium
(« échantillon 63 »), dont la largeur est environ 100 Å et sa distance par rapport à la surface
d’environ 500 Å. Les conditions expérimentales sont les mêmes les suivantes : Ep = 1500 eV
avec soufflage d’oxygène. Nous avons vu dans le précédent chapitre les simulations
concernant les créneaux de faible largeur. L’allure de leur profil mesuré est très proche de
celle de la DRF, en particulier à haute énergie, et leur déconvolué est symétrique. Ici, à basse
énergie, les défauts de croissance de la couche commencent à apparaître : la partie supérieure
gauche du profil mesuré révèle un gradient de concentration similaire à celui présent dans
164
l’échantillon SIEMENS. La figure suivante nous montre la proximité des profils mesuré et
déconvolué :
2500
Profil mesuré 1500 eV
Profil déconvolué
40 itérations
2250
2000
Figure 4-23 :
Déconvolution de
l’échantillon 63 analysé
à 1500 eV sous
soufflage d’oxygène.
Te = 1.7 Å, α = 5,
n = 40 itérations.
Intensité (u.a)
1750
1500
1250
1000
750
500
250
0
100
200
300
400
500
600
700
800
Profondeur (Å)
De toute évidence, la déconvolution n’apporte pas de réelle amélioration par rapport à
la mesure brute, si ce n’est une légère correction du front descendant du créneau, qui se
traduit par une petite augmentation de la dose dans le haut du créneau. A mi-hauteur, la
largeur du créneau (mesuré ou déconvolué) est d’environ 130 Å alors qu’à la base elle est de
200 Å.
Figure 4-24 :
Représentation
logarithmique du
profil déconvolué de
l’échantillon 63.
Intensité (u.a)
1000
100
10
Profil mesuré 1500 eV
Profil déconvolué
40 itérations
100
200
300
400
500
600
700
800
Profondeur (Å)
La structure est donc plus étendue que prévu et ici, la déconvolution nous permet de
confirmer d’une part la trop grande largeur du créneau par rapport à la largeur nominale, et
165
d’autre part la présence de traînées exponentielles (voir la représentation logarithmique cidessus) qui polluent les fronts du créneau.
On notera que si la déconvolution n’apporte pas d’amélioration par rapport à la
mesure, elle n’est pas néfaste, et elle s’apparente à un lissage du profil mesuré.
3.5 Déconvolution d’un échantillon « bi-delta ». Profil fortement bruité
Cet échantillon (n° 51) contient deux couches minces de bore nominalement séparées
de 80 Å. Une première analyse sous faisceau d’oxygène a été effectuée à 5.5 keV sans
soufflage. La faible concentration de bore entraîne un mauvais rapport signal/bruit sur tout le
profil, que nous avons estimé à environ 20.9 dB. La figure suivante nous montre les relatives
améliorations apportées par la déconvolution dans de telles conditions :
500
400
Intensité (cps)
Figure 4-25 :
Déconvolution de
l’échantillon 51
analysé sans
soufflage à 5.5 keV.
Te = 1.7 Å,
SNR = 20.9 dB,
α = 1, n = 300
itérations.
Profil mesuré 5500 eV
Profil déconvolué
300 itérations
Profil reconstruit
300
200
100
0
100
200
300
400
500
600
700
800
Profondeur (Å)
Comme pour la plupart des échantillons analysés avec notre appareil CAMECA
IMS3/4f, la calibration en profondeur a été effectuée par une mesure de profilométrie
mécanique. Après déconvolution, les maxima des deux pics sont distants de 95 Å, au lieu des
80 Å attendus. Les largeurs à mi-hauteur des 1er et 2ème pics déconvolués sont respectivement
de 41 et 48 Å, alors que dans le profil mesuré, ces derniers sont largement superposés (on ne
distingue pas de minimum entre les deux structures). On observe aussi d’importants artefacts
de part et d’autre des deux couches déconvoluées. Celles-ci trouvent certainement leur origine
dans le mauvais rapport signal/bruit du profil mesuré, et la méthode de déconvolution n’est
pas assez discriminante dans la répartition de la concentration au niveau des pentes
exponentielles.
En prolongeant l’algorithme jusqu’à 5000 itérations, nous n’avons noté aucune
amélioration dans la finesse des couches déconvoluées, mais simplement un léger décalage
166
des artefacts vers l’intérieur du profil. Le profil reconstruit est quant à lui parfaitement
superposé au profil mesuré, au bruit près.
Une analyse à plus faible énergie (1500 eV) a été effectuée sur cet échantillon, avec
soufflage d’oxygène. La séparation des couches est encore partielle, mais nettement meilleure
qu’à 5500 eV. D’autre part, le soufflage d’oxygène durant l’analyse a permis un taux
d’ionisation supérieur à celui de l’analyse précédente, et a par conséquent amélioré le rapport
signal/bruit du profil mesuré. Sur la figure 4-26, on constate l’amélioration de la résolution en
profondeur apportée par la déconvolution, avec cependant une impossibilité à séparer les deux
couches, contrairement à la déconvolution précédente :
10000
Figure 4.26 :
Déconvolution
de l’échantillon
51 analysé à
basse énergie.
Ep = 1500 eV,
Te = 0.532 Å,
α = 5,n = 100
itérations.
Intensité (cps)
1000
100
Profil mesuré - 1500 eV
Profil déconvolué
100 itérations
Profil reconstruit
10
100
200
300
400
500
600
700
Profondeur (Å)
La largeur à mi-hauteur des pics est de 35 et 40 Å avant déconvolution, et de 28 Å
pour les deux après déconvolution. On retrouve le même artefact situé après le 2ème pic, avec
une amplitude bien moindre que dans l’analyse à 5500 eV, et il a lui-même une pente
descendante se rapprochant du profil mesuré. Par contre, à gauche du 1er pic, on n’a pas
d’artefacts, mais un profil déconvolué qui suit le profil mesuré sur une pente montante
exponentielle, jusqu’à une trentaine d’angströms avant le pic lui-même, où on trouve une
oscillation parasite.
Au milieu des deux pics déconvolués, on trouve là aussi un artefact (contrairement à la
déconvolution précédente). Si on suppose que la croissance des deux couches était du même
type pour les deux, alors on peut penser que la pente montante exponentielle que l’on voit à
gauche du 1er pic existe aussi à gauche du 2ème. Celle-ci entraînerait alors la superposition des
deux couches dans le profil réel de concentration, et donc l’impossibilité de les séparer à
faible énergie d’analyse et par déconvolution. C’est ce qu’on observe dans cette étude à
1500 eV, plus fiable que celle à 5500 eV, où l’on a un signal très bruité et un pas
d’échantillonnage trois fois plus grand.
167
4. Déconvoluer avec une DRF variante. Correction de l’échelle
des profondeurs
4.1
Sources de variations de la DRF
On peut envisager principalement deux causes de dégradation de la résolution en
profondeur lors d’une acquisition : l’érosion non uniforme du cratère, et la variation du
courant ionique primaire. Nous allons brièvement étudier ces deux phénomènes.
‰ Erosion non uniforme du cratère
•
Développement de rugosités
Leur origine est physico-chimique, et elles peuvent être de l’ordre du nanomètre ou du
micromètre. Celles-ci peuvent être de plus en plus importantes avec la profondeur d’érosion.
La sonde ionique « voit » alors non pas une couche atomique parallèle à la surface de
l’échantillon, mais plusieurs couches en même temps :
Rugosités
Figure 4-27 : Lorsque des rugosités se développent au fond du cratère,
plusieurs couches sont concernées par l’érosion.
Il existe plusieurs types de rugosités (vagues, îlots, etc..), mais on peut dans un
premier temps, pour la déconvolution, supposer qu’elles sont uniformes sur le fond du cratère.
La sonde ionique érode alors plusieurs couches en même temps, indépendamment du mixage
collisionnel, dont l’effet est à additionner à celui des rugosités. Une première approximation
peut être faite en modélisant l’influence des rugosités par une gaussienne que l’on convoluera
à la DRF initiale, ce qui nous donnera une nouvelle réponse impulsionnelle tenant compte des
rugosités. Le paramètre de cette gaussienne est généralement croissant avec la profondeur, et
son évolution peut être mesurée à partir du fittage des deltas-dopage.
En fait, l’incidence du faisceau primaire conduit souvent au développement
de « ripples » (vagues), dont la profondeur d’apparition, la forme et l’amplitude dépendent
des nombreux paramètres expérimentaux (angle d’incidence, énergie d’impact, pression
d’oxygène,…) [54].
Les rugosités entraînent non seulement une dégradation de la résolution en profondeur,
mais aussi une variation du taux d’ionisation et de la vitesse d’érosion. L’angle d’incidence et
la pression d’oxygène (soufflage) influencent fortement la formation et l’évolution des
rugosités [55] [56].
168
•
Inclinaison ou bombement du cratère
Un autre problème instrumental courant dégrade la résolution en profondeur : le
balayage non uniforme de la zone érodée façonne le fond du cratère en forme de plan incliné
ou de cuvette. Comme dans le cas des rugosités, il en résulte une fonction « parasite » que
l’on doit convoluer à la DRF initiale.
Un balayage de la zone érodée non uniforme dans le temps, mais aussi une
défocalisation de la sonde, dépendant du point d’impact du faisceau, peuvent entraîner une
érosion plus importante sur l’un des cotés du cratère. Il en résulte par exemple une inclinaison
suivant l’un des axes du cratère au cours de l’analyse, où l’angle avec la surface augmente
avec la profondeur d’érosion. La figure suivante montre que là aussi plusieurs couches sont
analysées simultanément lorsqu’on a une inclinaison de cratère :
L
Figure 4-28 : A l’instant t, plusieurs couches sont concernées par
l’érosion lorsque le cratère est incliné.
McPhail et Dowsett ont proposé une modélisation générale de l’influence de la nonplanéité du cratère [57]. La complexité de l’évolution des paramètres et la diversité des
configurations possibles (conditions expérimentales, espèces présentes dans la matrice)
nécessiteraient une étude spécifique aboutissant, si cela est possible, à la fonction « parasite »
se greffant à la DRF initiale. On peut cependant prévoir un élargissement de la DRF, croissant
avec la profondeur et résultant de la convolution de cette fonction parasite avec la DRF
initiale. Une modélisation simple consisterait à choisir une fonction « porte » de largeur L
(intégration de la contribution de chaque couche érodée simultanément sur la profondeur L).
Dans le cas d’un cratère bombé (concavité tournée vers le haut ou vers le bas), on aurait une
fonction parasite asymétrique.
‰ Variation du courant ionique primaire
La stabilité du spectromètre n’est pas toujours garantie, en particulier lors d’une
analyse longue en temps (plusieurs heures selon la vitesse d’érosion et la profondeur à
analyser). Il arrive que le courant primaire dérive et influence la vitesse d’érosion de
l’échantillon. La linéarité entre le temps d’analyse et la profondeur érodée n’est alors plus
assurée. Sur un multi deltas-dopage, cela se traduit par un élargissement ou au contraire un
affinement des pics avec la profondeur. L’échelle des profondeurs n’est plus valable et il est
nécessaire de la corriger. La correction peut être faite en suivant la variation des signaux de
169
matrice et en modifiant chaque incrément de temps de telle sorte que le signal de matrice
considéré garde la même dose par incrément sur tout le profil [N. Baboux, communication
personnelle]. Le pas d’échantillonnage temporel n’est plus constant et il est nécessaire de rééchantillonner le profil avant tout traitement numérique.
Notons aussi que la présence de rugosités peut influencer la vitesse d’érosion, et dans
ce cas il faut aussi corriger l’échelle des temps (ou des profondeurs).
4.2 Essai de déconvolution d’un profil mesuré où la DRF est variante
Cette partie du travail ne prétend qu’aborder le sujet de la déconvolution de profils
SIMS acquis dans des conditions expérimentales où certains paramètres varient. La mise en
œuvre de la déconvolution « variante » (ce qui est un abus de langage puisque l’opérateur de
convolution est par définition invariant) n’est pas possible dans l’espace de Fourier. Nous
utiliserons donc la méthode de déconvolution par l’algorithme de Van Cittert avec
régularisation de Miller et contraintes dures [2], où nous introduirons une réponse
impulsionnelle hn dont les paramètres varient avec la profondeur z (ou l’indice n). Il en résulte
une matrice H légèrement différente de la matrice de Toeplitz, où la ligne n contient les
éléments de hn ordonnés de la même manière que la matrice de Toeplitz classique :
 h0, 0

 h1,1
 
hN −1, N −1
H =  h h
0

0


0


0

0
h1, 0
h2,1
hN h , N h −1
0
0
0
0
0
h2, 0
hNh −1,1
0
0
0
hNh −1, 0
hN h ,1
hN x −1, N h −1
0





 N lignes
y





hN x , Nh −1 
0
0
0
hN h , 0
(4.1)
N x colonnes ♦ Note sur la position des deltas-dopage :
Jusqu’ici, nous n’avons pas tenu compte de la position réelle des deltas-dopage. Nous
avons vu dans le 1er chapitre qu’il y a une incertitude sur les positions relatives du pic initial et
du pic mesuré. De plus, le décalage du profil mesuré apporté par le transitoire n’est pas
quantifié. Le « shift » total du profil mesuré résultant est donc mal connu mais il est constant
dans tout le régime permanent, ce qui permet d’effectuer la déconvolution en choisissant
arbitrairement la position de la DRF, puis d’ajuster « visuellement » les profils mesuré et
déconvolué. Ici, la DRF est variante et son barycentre, qui approche au mieux la position
réelle du delta-dopage initial s’éloigne de son maximum lorsque la profondeur augmente. Il
est donc nécessaire de choisir le barycentre comme référence commune à toutes les DRF pour
170
chaque profondeur z. Si on ne procède pas de cette manière, le profil déconvolué aura une
échelle des profondeurs « compressée » vers les z négatifs.
Nous disposons de profils en profondeur de l’échantillon Warwick 1 où le cratère à été
érodé de manière non uniforme (figure 4-29). Nous étudions le profil dont les conditions
expérimentales étaient les suivantes : énergie d’impact Ep = 1750 eV, angle d’incidence
α = 49°, pas d’échantillonage Te = 2.2 Å.
Figure 4-29 : Mesure de profilomètrie du cratère avec un appareil de type ALPHASTEP.
Nous nous contenterons de déconvoluer les quatre premiers pics du profil. En effet le
reste du profil étant trop dégradé, nous n’avons pas pu déterminer correctement le type de la
fonction à convoluer avec la DRF initiale. Les paramètres de la DRF variante ont dans ce cas
précis été tirés du fittage des deltas-dopage mesurés, et nous supposons que leur variation suit
une loi affine :
Pic 1 : λu = 6.8 Å, λd = 29.0 Å, σ = 12.8 Å
Pic 4 : λu = 8.7 Å, λd = 70.0 Å, σ = 18.3 Å
Le résultat de la déconvolution (200 itérations) est représenté sur la figure 4-30 :
Profil mesuré - 1750 eV
Profil déconvolué - 200 itérations
Profil reconstruit
Figure 4-30 : Résultat
de la déconvolution de
l’échantillon Warwick 1
avec réponse
impulsionnelle variante.
α = 10-4, n = 200
itérations.
Intensité (cps)
10000
1000
100
10
1
0
250
500
750
1000
1250
1500
Profondeur (Å)
171
1750
2000
2250
2500
Le résultat est satisfaisant, bien que la reconstruction ne soit pas aussi bonne que dans
le cas où la DRF est constante. Il n’y a pas d’artefacts hormis dans la zone du transitoire, qui
est à exclure de l’interprétation des résultats. On remarque, malgré l’ajustement du barycentre
de chaque DRF hn, un glissement vers la droite du maximum de chaque pic déconvolué par
rapport au maximum mesuré correspondant. Il est donc clair que le barycentre de la réponse
impulsionnelle réelle qui a convolué le profil réel ne correspond pas au barycentre de la DRF
classique que nous avons utilisée pour cette déconvolution. Nous avons donc à chaque
profondeur z un décalage du barycentre de la DRF hn simulée par rapport à celui de la réponse
impulsionnelle réelle. Le barycentre étant une bonne approximation de la position réelle du
delta-dopage, et la déconvolution conduisant à un profil très fin, il s’ensuit un décalage des
pics déconvolués, croissant avec la profondeur. Cet écart entre les barycentres réels et simulés
vient de l’asymétrie de la fonction parasite se greffant à la DRF initiale, et qui n’a pas été
prise en compte.
Il serait intéressant de poursuivre cette étude en modélisant les fonctions de
dégradation les plus couramment rencontrés en SIMS (cratères inclinés, bombés, rugosités) et
d’ajuster leurs paramètres en fonction de l’observation du cratère final et du fittage des deltasdopage à diverses profondeurs.
5. Conclusion
Dans ce chapitre, nous avons appliqué la méthode de déconvolution que nous avons
développé au cours de ce travail à des profils de bore dans du silicium. Différents types de
profils et conditions expérimentales ont été étudiés. Nous avons ainsi pu quantifier le gain en
résolution en profondeur à l’aide de deltas-dopage, et les autres structures nous ont permis de
voir l’intérêt de la déconvolution selon leurs caractéristiques et l’énergie d’analyse.
L’étude des échantillons contenant des deltas-dopage nous a permis de dégager les
conclusions suivantes :
• A haute énergie aussi bien qu’à basse énergie, le gain en résolution en profondeur
obtenu par déconvolution est de l’ordre de 3 à 5.
• Nous avons obtenu la meilleure résolution en profondeur avec le profil d’un
échantillon analysé à 1500 eV puis déconvolué, et elle est de 7.4 Å.
• La déconvolution permet la mise en évidence des deltas-dopage de mauvaise
qualité, notamment par l’invariance relative du profil déconvolué et sa proximité
avec le profil mesuré.
Nous avons ensuite appliqué la méthode de déconvolution à des profils de type
« marche de concentration ». Nous avons ainsi pu constater que la déconvolution est surtout
utile à haute énergie pour les structures de grandes dimensions. A basse énergie,
l’amélioration est moins sensible. En revanche, elle permet de se rapprocher de la forme
présumée des créneaux de plus petites dimensions, notamment en restaurant les dimensions de
leur base.
172
Enfin, nous avons déconvolué un profil fortement bruité et contenant deux deltasdopage proche. La comparaison du résultat de la déconvolution avec une analyse du même
échantillon à basse énergie nous a montré que l’on pouvait être amené à surestimer la qualité
de couches dopées si on applique la déconvolution à des profils très bruités ou ayant un
échantillonnage insuffisant.
173
&RQFOXVLRQ*pQpUDOH
Cette étude portait sur l’amélioration de la résolution en profondeur en analyse SIMS,
et de manière plus générale, sur la restauration d’informations à partir des profils de
concentration en profondeur au moyen de techniques de déconvolution. Nous nous sommes
limités au cas du bore dans le silicium.
Notre approche du problème a débuté par une description de la technique d’analyse
par SIMS ainsi que des mécanismes responsables de la dégradation de la résolution en
profondeur. L’observation des profils de concentration mesurés, en particulier les deltasdopage, a conduit à une modélisation semi-empirique mais simple du mixage collisionnel,
considéré comme principal responsable de la dégradation de la résolution. La fonction de
résolution trouvée devient ainsi la réponse impulsionnelle du système de mesure, dont la
connaissance est essentielle à la mise en œuvre de la déconvolution. Nous avons ensuite
exposé les bases des techniques de restauration d’informations, et plusieurs méthodes de
déconvolution ont ainsi été présentées. Au cours de ce travail, nous avons développé un
algorithme de déconvolution intégrant plusieurs types d’informations, contraintes dures et
contraintes douces, mais aussi un modèle numérique de la solution recherchée. Ce moyen
original d’apporter de l’information au système se révèle être un outil puissant si le modèle est
bien choisi. En analyse SIMS, le modèle est un profil issu d’une déconvolution précédente.
Notre étude s’est poursuivie par la déconvolution de profils simulés de différentes
formes et plus ou moins dégradés. L’étude des deltas-dopage simulés nous a permis de cerner
les performances ultimes de notre méthode de déconvolution. Nous avons ensuite appliqué la
déconvolution à des profils expérimentaux, ce qui nous a permis de tester ses performances
dans des conditions où les facteurs expérimentaux entrent en jeu.
•
•
•
Les principaux éléments qui ressortent de ce travail sont les suivants :
Dans le cas des simulations et avec des conditions opératoires se rapprochant au
maximum de celles de l’analyse SIMS, le gain en résolution en profondeur atteint est d’au
moins 7. Ce gain est mesuré à partir des largeurs à mi-hauteur de deltas-dopage simulés
puis déconvolués. Avec les profils expérimentaux de deltas-dopage, le gain en résolution
est de 3 à 4, sachant que d’autres facteurs (instabilité des paramètres instrumentaux,
topographie du cratère, échantillons imparfaits) ont imposé une régularisation plus
importante.
Dans la plupart des profils, les pentes exponentielles ayant pour origine le mixage
collisionnel sont pratiquement supprimées, alors que « l’élargissement des structures », à
caractère gaussien, est plus ou moins corrigé en fonction du nombre d’itérations effectuées
lors de la déconvolution.
Nous avons également dégagé une relation simple donnant la distance minimale entre
deux couches minces, en fonction de la profondeur de pénétration des ions primaires, pour
que la déconvolution puisse arriver à leur distinction complète.
175
•
Quelle que soit l’énergie d’analyse et donc le niveau de dégradation du profil réel de
concentration, le gain de résolution en profondeur est toujours du même ordre, c’est-à-dire
que même en utilisant les performances ultimes de l’analyseur ionique, la déconvolution
apporte un gain de résolution en profondeur appréciable.
•
La plupart des méthodes déconvolution (la nôtre y compris) conduisent à la formation
d’oscillations ou d’artefacts qui apparaissent sur les profils déconvolués. Leur origine est
le manque d’informations sur la répartition locale de la dose, diluée par le mixage
collisionnel et entachée d’une composante de bruit non négligeable. Selon les contraintes
appliquées, ces artefacts pourront ou non disparaître au cours de l’algorithme. Nous avons
pu cependant remarqué que si l’artefact se déplaçait à chaque itération, il pouvait révélé
une mauvaise répartition de la dose par la méthode de déconvolution, ou alors une
structure existante dans le profil réel de concentration mais complètement masquée lors de
la mesure. Dans ces deux cas il convient de ne pas supprimer arbitrairement cet artefact et
de considérer que le prolongement (en théorie) de l’algorithme à l’infini le replacerait au
bon endroit dans le profil déconvolué.
L’étude expérimentale du bi-delta nous a permis de voir que le résultat d’une
déconvolution était très dépendant de la qualité de la mesure. L’analyse à haute énergie,
faible échantillonnage et bruit élevé conduit à un profil déconvolué relativement oscillant,
avec une grande incertitude sur l’interprétation des artefacts. La mesure à basse énergie,
échantillonnage satisfaisant et faible bruit révéle la présence de gradients de concentration
faibles, qui sont conservés dans le profil déconvolué, lequel est rapidement stabilisé au
cours de l’algorithme. Cet exemple illustre le fait qu’une déconvolution doit toujours être
subordonnée à une analyse de bonne qualité : échantillonnage suffisant, bruit aussi faible
que possible, paramètres instrumentaux constants.
Les deltas-dopage sont plus faciles à déconvoluer, en terme de quantité d’oscillations
générées, que les structures de type marches de concentrations. Nous avons vu que ce
phénomène s’explique par la quantité d’informations apportée par les contraintes dures :
un profil de deltas-dopage bénéficie d’une contrainte de positivité qui aura une action
efficace sur une grande proportion du profil, alors que cette même contrainte n’aura
aucune influence au niveau du plateau d’un créneau de concentration.
•
•
Nous avons évoqué et testé la déconvolution avec une réponse impulsionnelle
variante, applicable par exemple dans le cas de développement d’une topographie sur le fond
du cratère. Cette étude mérite d’être approfondie, puisque selon les conditions d’analyse, en
particulier à très basse énergie, les rugosités et inclinaisons de cratère sont très courantes.
Dans ce cas relativement simple, la réponse impulsionnelle du système est légèrement
différente à chaque profondeur. On pourrait maintenant envisager l’étude de la variation de la
réponse impulsionnelle dans le régime transitoire de l’analyse. Cette étude soulèverait bien
des problèmes puisque les mécanismes de l’analyse SIMS sont mal connus dans le régime
transitoire. Si ces phénomènes pouvaient être modélisés par des simples variations de la DRF
en début d’analyse, moyennant une correction des échelles des profondeurs et des
176
concentrations, on pourrait appliquer la déconvolution « variante » de la même façon que pour
les variations de topographie.
Nous savons que la déconvolution est très efficace dans la restauration des pentes
exponentielles, et l’est moins dans celle de l’élargissement (composante gaussienne de la
DRF). Un profil mesuré à basse énergie est plus proche du profil réel qu’un profil mesuré à
haute énergie. De même, la déconvolution doit nous permettre de nous rapprocher du profil
réel, sachant que le résultat ne sera pas équivalent à une mesure à plus faible énergie. Dans le
cas où la mesure ne dégrade pas vraiment le profil réel (profils lisses ou structures larges à
basse énergie), la déconvolution n’apporte pas d’amélioration visible, mais elle n’est pas
néfaste puisqu’elle ne change pas le profil, si ce n’est qu’elle effectue un lissage de la courbe
correspondante.
177
5pIpUHQFHV
[1] Prudon G., Etude de la sensibilité et de la résolution en profondeur lors de l’analyse par
SIMS. Application à la silice et au silicium. Thèse de Doctorat : INSA de Lyon, 1990. 299 p.
[2] Gautier B., Etude de la résolution en profondeur lors de l’analyse par SIMS.
Détermination de la fonction de résolution pour le bore dans le silicium, mise au point d’une
procédure de déconvolution et applications. Thèse de Doctorat : INSA de Lyon, 1997. 231 p.
[3] Vandervorst W., Alay J. Brijs B. De Coster W., Elst K., Depth profiling with oxygen
beams, In : International Conference on Secondary Ion Mass Spectrometry 1993 : Yokohama,
Japan (SIMS IX), A. Benninghoven ed. New York : Wiley, 1994, p 599-607
[4] Collins R., On the collective current concept in the theory of atomic mixing, Nuclear
Instruments and Methods for Physic Research, 1984, vol B 2, p 809-813
[5] Clegg J.B., Game I.G., SIMS profile simulation using delta function distributions, Surface
and Interface Analysis, 1991, vol 17, p 190-196
[6] Smirnov V.K., Simakin S.G., Potapov E.V., Makarov V.V., SIMS depth profiling of deltadoped layers in silicon, Surface and Interface Analysis, 1996, vol 24, p 469-475
[7] Petravic M., Elliman R.G., Williams J.S., Recoil mixing in SIMS profiling of thin buried
layers, In : International Conference on Secondary Ion Mass Spectrometry 1991 : Amsterdam,
The Netherlands (SIMS VIII), A. Benninghoven ed. New York : Wiley, 1992, p 367-370
[8] Petravic M., Svensson B.G., Williams J.S., On the estimation of depth resolution during
sputter profiling, Journal of Applied Physic, 1993, vol 62, n°3, p 278-280
[9] Magee C.W., Honig R.E., Depth profiling by SIMS : depth resolution, dynamic range and
sensitivity, Surface and Interface Analysis, 1982, vol 4, n°2, p 35-41
[10] Herzel F., Ehwald K.E., Heunemann B., Krüger D., Kurps R., Röpke W., Zeindl H.P.,
Deconvolution of narrow Boron SIMS depth profiles in Si and SiGe, Surface and Interface
Analysis, 1995, vol 23, p 764-770
[11] Dowsett M.G., Rowlands G., Allen P.N., Barlow R.D., An analytic form for the SIMS
response function measured from ultra-thin impurity layers, Surface and Interface Analysis,
1994, vol 21, p 310-315
[12] Zalm P.C., Ultra shallow doping profiling with SIMS, Rep. Prog. Phys., 1995, vol 58,
p 1321-1374
[13] Wilson R.G, Stevie F.A, Magee C.W., SIMS : a practical handbook for depth profiling
and bulk impurity analysis, New York :Wiley, 1989, 220 p.
[14] Turner J.E., Keller H., Mars D.E., High depth resolution SIMS by deconvolution of the
instrumental function, In : International Conference on Secondary Ion Mass Spectrometry
179
1989 : Monterey, California, USA (SIMS VII), A. Benninghoven ed. New York : Wiley,
1990, p 95-98
[15] Littmark U., Hofer W., Recoil mixing in solids by energetic ion beams, Nuclear
instruments and methods, 1980, vol 168, p 329-342
[16] Homma Y., Maruo T., Comparison of beam induced profile broadening effects of
gallium and copper in oxygen bombarded silicon, Surface and Interface Analysis, 1989, vol
14, p 725-729
[17] Vandevorst W., Sheperd F.R.,Swanson M.L., Plattner H.H., Westcott O.M., Mitchell
I.V., Segregation of Arsenic during SIMS analysis with an oxygen beam, Nuclear instruments
and methods, 1986, vol B15, p 201
[18] Williams J.S., Petravic M., Svensson B.G., Conway, Oxydation of silicon by low energy
bombardment, Journal of Applied Physic, 1994, vol 76, n°3, p 1840-1846
[19] Dowsett M.G., James D.M., Drummond I.W., El Gomati M.M., Bakush T.A., Street F.J.,
Barlow R.D., Redistribution of Ge in the SIMS altered layer during normal incidence 02+
bombardment of SiGe alloy material, In : International Conference on Secondary Ion Mass
Spectrometry 1991 : Amsterdam, The Netherlands (SIMS VIII), A. Benninghoven ed. New
York : Wiley, 1992, p 359-362
[20] Meuris M., Vandervorst W., On the effect of an oxygen beam in sputter depth profiling,
Journal of vacuum science and technology, 1991, vol A9, n°3, p 1482-1488
[21] Zalm P.C., Vriezema, Oxygen bleed-in during SIMS depth profiling : curse or blessing ?,
Nuclear Instruments and Methods for Physic Research, 1992, vol B 64, p 626-631
[22] Vandervorst W., Sheperd, Secondary ion mass spectrometry profiling of shallow,
implanted layers using quadrupole and magnetic sector instruments, Journal of vacuum
science and technology, 1987, vol A5, n°3, p 313-320
[23] Dupuy J.C., Prudon G., Dubois C., Warren P., Dutartre D., Depth resolution in SIMS
study of boron delta-doping in epitaxial silicon, Nuclear Instruments and Methods for Physic
Research, 1994, vol B 85, p 379-382
[24] Ziegler J.F., Biersack J.P., Littmark U., The stopping and range of ions in solids, vol 1.
In : The stopping and range of ions in matter, New York : Pergamon Press, 1985, 321 p
[25] Dowsett M.G., Barlow R.D., Allen P.N., SIMS analysis of ultrathin impurity layers in
semiconductors and their use in quantification, instrumental assessment and fundamental
measurements, Journal of vacuum science and technology, 1993, vol B12, n°1, p 186-198
[26] Dowsett M.G., Barlow R.D., Fox H.S., Kubiak RA.A., Collins R., Sims depth profiling of
boron, antimony and germanium deltas in silicon and implications for profile deconvolution,
Journal of vacuum science and technology, 1992, vol B10, n°1, p 336-341
180
[27] Barlow R.D., Dowsett M.G., Fox H.S., Kubiak R.A.A., Newstead S.M., SIMS response
functions for MBE grown delta layers in silicon, Nuclear Instruments and Methods for Physic
Research, 1992, vol B 72, p 442-446
[28] Mattey N.L., Dowsett M.G., Parker E.H.C., Whall T.E., Taylor S., Zhang J.F., p-type
delta doped layers in silicon : structural and electronic properties, Applied Physic Letters,
1990, vol 57, n°16, p 1648-1650
[29] Littmark U., Hofer W.O, The theory of recoil mixing in solids, in Thin films and depth
profile analysis, H. Oechsner ed. Berlin : Springer-Verlag, 1984
[30] Badheka R., Wadsworth M., Armour D.G., Van den Berg J.A., Clegg J.B., Theoretical
and experimental studies of the broadening of dilute delta-doped Si spikes in GaAs during
SIMS depth profiling, Surface and Interface Analysis, 1990, vol 15, p 550-558
[31] Badheka R., Wadsworth M., Van Den Berg J.A., Armour D.G., Theoretical calculations
of dilute B profiles in Si using IMPETUS, In : International Conference on Secondary Ion
Mass Spectrometry 1993 : Yokohama, Japan (SIMS IX), A. Benninghoven ed. New York :
Wiley, 1994, p 219-222
[32] Prost R., Contribution à l’élaboration d’algorithmes itératifs discrets super-résolvants de
déconvolution avec contraintes. Applications. Thèse de Doctorat : INSA de Lyon, 1984.
278 p.
[33] Makarov V.V., Nature of noise in SIMS depth profiling data, Surface and Interface
Analysis, 1999, vol 27, p 801-804
[34] Bertero M., Poggio T.A., Torre V., Ill-posed problems in early vision, Proceedings of
IEEE, 1988, vol 76, n° 8, p 869-889
[35] Demoment G., Image reconstruction and restoration : overview of common estimation
strutures and problems, IEEE Transactions on Acoustics, Speech and Signal Processing,
1989, vol 37, n° 12, p 2024-2035
[36] Tikhonov A.N., Arsenin V.Y., Solutions of ill-posed problems, Washington : Halsted
Press, 1977, 258 p.
[37] Leung C.M, Lu W.-S., On the use of discret Laplacian operators in image restoration,
IEEE Pacific RIM Conference on Communications, Computers and Signal Processing
Proceedings 1995, New York : IEEE, 1995, p 411-415
[38] Connolly T.J., Lane R.G., Constrained regularization methods for superresolution, IEEE
Signal Processing Society, International Conference on Image Processing 1998, Chicago,
Illinois, USA. Los Alamitos, California : IEEE Computer Society, 1998, p 727-731
[39] Berger T., Strömberg J.O., Eltoft T., Adaptative regularized constrained least squares
image restoration, IEEE Transactions on Image Processing, 1999, vol 8, n° 9, p 1191-1203
[40] Weyrich N., Warhola G.T., Wavelet shrinkage and generalized cross validation for
image denoising, IEEE Transactions on Image Processing, 1998, vol 7, n° 1, p 82-90
181
[41] Acton S.C., Bovik A.C., Piecewise and local image models for regularized image
restoration using cross-validation., IEEE Transactions on Image Processing, 1999, vol 8,
n° 5, p 652-665
[42] Molina R., Katsaggelos A.K., Mateos J., Bayesian and regularisation methods for
hyperparameter estimation in image restoration, IEEE Transactions on Image Processing,
1999, vol 8, n° 2, p 231-246
[43] Leung C.M, Lu W.-S., Optimal determination of regularization parameters and the
stabilizing operator, IEEE Pacific RIM Conference on Communications, Computers and
Signal Processing Proceedings 1995, Victoria, BC., Canada. New York : Institute of
Electrical and Electronics Engineers, 1995, p 403-406
[44] Miller K., Least sqaures method for ill-posed problems with a prescribed bound, SIAM
J. Math. Anal., 1970, vol 1, p 52-74
[45] Wahba G., Practical approximate solutions to linear operator equations when the data
are noisy, SIAM, Journal of Numerical Analysis, 1977, vol 14, n°4, p 651-667
[46] Golub G.H., Heath M., Wahba G., Generalized cross validation as a method for
choosing a good ridge parameter, Technometrics, 1979, vol 21, n°2, p 215-223
[47] Katsaggelos A.K., Biemond J., Mersereau R.M., Schafer R.W., General formulation of
constrained iterative restoration algorithms, IEEE International Conference on Acoustic,
Speech and Signal Processing 1985, Tampa, Florida, USA. New York : Institute of Electrical
and Electronics Engineers, 1985, p 700-703
[48] Prost R., Goutte R., Discrete constrained iterative deconvolution algorithms with
optimized rate of convergence, Signal Processing, 1984, vol 7, n°3, p 209-230
[49] Barakat V., Contribution à la restauration d’images dégradées par un système
spatialement variant. Apport d’un modèle de l’image. Thèse de Doctorat : INSA de Lyon,
1998. 149 p.
[50] Barakat V., Guilpart B., Goutte R., Prost R., Model-based Tikhonov-Miller image
restoration, Proceedings of International Conference on Image Processing, 1997, Santa
Barbara CA, vol 1, p 310-313
[51] Allen P.N., Dowsett M.G., Collins R., SIMS profile quantification by maximum entropy
deconvolution, Surface and Interface Analysis, 1993, vol 20, p 696-702
[52] Cooley J.W., Tukey J.W, An algorithm for the machine calculation of complex fourier
series, Mathematics of Computation, 1965, vol 19, p 297-301
[53] Gautier B., Prudon G., Dupuy J.C., Toward a better reliability in the deconvolution of
SIMS depth profiles, Surface and Interface Analysis, 1998, vol 26, p 974-983
[54] Elst K., Vandervorst W., Alay J., Influence of oxygen on the formation of ripples on Si,
Journal of Vacuum Science & Technology, 1993, vol B 11, n°6, p 1968-1981
182
[55] Wittmaak K., Effect of surface roughening on secondary ion yields and erosion rates of
silicon subject to oblique oxygen bombardment, Journal of Vacuum Science & Technology A,
1990, vol 8, n°3, p 2246-2250
[56] Wittmaak K., Artifact in low-energy depth profiling using oxygen primary ion beams :
Dependence on Impact Angle and Oxygen Flooding Conditions, Journal of Vacuum Science
& Technology B, 1998, vol 16, n°5, p 2776-2785
[57] McPhail D.S., Dowsett M.G., Fox H., Houghton R., Leong W.Y., Parker E.H.C., Patel
G.K., Quantifying the effects of uneven etching during the SIMS analysis of periodic doping
structures grown by silicon MBE, Surface and Interface Analysis, 1998, vol 11, p 80-87
[58] Collins R., Marsh T., Jimenez-Rodriguez J.J., The diffusion approximation in atomic
mixing, Nuclear Instruments and Methods, 1983, vol 209-210, p 147-156
[59] Sigmund P., Recoil implantation and ion-beam-induced composition changes in alloys
and compounds, Nuclear Instruments and Methods for Physic Research, 1980, vol 68, p 389394
[60] Badheka R., Van Den Berg J.A., Armour D.G., Wadsworth M., Theoretical calculations
of the broadening of dilute Si, Al and Be doped delta layers in GaAs during SIMS depth
profiling, Vacuum, 1993, vol 44, n° 3-4, p 331-335
[61] Gautier B., Dupuy J.C., Prost R., Prudon G., Effectiveness and limits of the
deconvolution of SIMS depth profiles of boron in silicon, Surface and Interface Analysis,
1997, vol 25, p 464-477
[62] Van Cittert P.H., Zum einfluss der spaltbreite auf die intensitätsverteilung in
spektrallinien II, Zeitschrift für Physik, 1931, vol 69, p 298-308
[63] Thomas G., A modified version of Van Cittert iterative deconvolution procedure, IEEE
Transactions on acoustics, speech and signal processing, 1981, vol 29 n°4, p 938-939
[64] Dowsett M.G., Collins R., Noise, resolution and entropy in sputter profiling, Phil. Trans.
R. Soc. Lod. A, 1996, n° 354, p 2713-2729
[65] Dowsett M.G., Depth resolution parameters and separability, In : International
Conference on Secondary Ion Mass Spectrometry 1995 : Muenster, Germany (SIMS X), A.
Benninghoven ed. New York : Wiley, 1997, p 355-358
[66] Chu D.P., Dowsett M.G., Resolving two adjacent delta-layers : from Rayleigh criterion
to information entropy limit, In : International Conference on Secondary Ion Mass
Spectrometry 1997 : Orlando, Florida, USA (SIMS XI), A. Benninghoven ed. New York :
Wiley, 1998, p 355-358
[67] Bennett J., Diebold A., Round robin study of ultra shallow B depth profiling
experimental conditions, In : International Conference on Secondary Ion Mass Spectrometry
1999 : Brussels, Belgium (SIMS XII), A. Benninghoven ed. Amsterdam : Elsevier, 2000, p
541-544
183
[68] Galatsanos N.P., Katsaggelos A.K., Methods for choosing the regularization parameter
ans estimating the noise variance in image restoration and their relation, IEEE Transactions
on Image Processing, 1992, vol 1, n° 3, p 322-336
[69] Gautier B., Dupuy J.C., Semmache B., Prudon G., SIMS depth profile correction for the
study of the first step of the diffusion of boron in silicon, Nuclear Instruments and Methods for
Physic Research, 1998, vol B 142, p 361-376
[70] Gautier B., Prost R., Prudon G., Dupuy J.C., Deconvolution of SIMS depth profiles of
boron, in silicon, Surface and Interface Analysis, 1996, vol 24, p 733-745
[71] Hofmann S., Ultimate depth resolution and profile reconstruction in sputter profiling
with AES and SIMS, Surface and Interface Analysis, 2000, vol 30, p 228-236
[72] Dowsett M.G., Barlow R.D., Fox H.S., Kubiak R.A.A, Secondary ion mass spectrometry
depth profiling of boron, antimony and germanium deltas in silicon and implications for
profil deconvolution, Journal of vacuum science and technology, 1992, vol B10, n°1, p 336341
[73] Mancina G., Prost R., Prudon G., Gautier B., Dupuy J.C., Deconvolution of SIMS depth
profiles : toward the limits of the resolution by self-deconvolution test, In : International
Conference on Secondary Ion Mass Spectrometry 1999 : Brussels, Belgium (SIMS XII), A.
Benninghoven ed. Amsterdam : Elsevier, 2000, p 497-500
[74] Collins R., Dowsett M.G., Allen P.N., Deconvolution of concentration profiles from
SIMS data using measured response function, In : International Conference on Secondary Ion
Mass Spectrometry 1991 : Amsterdam, The Netherlands (SIMS VIII), A. Benninghoven ed.
New York : Wiley, 1992, p 111-115
[75] Prost R., Goutte R., Deconvolution when the convolution kernel has no inverse, IEEE
Transactions on Acoustics, Speech and Signal Processing, 1977, vol 25, n° 6, p 542-549
[76] Magain, P., Coubin, F., & Sohy, S., Deconvolution with correct sampling, Astrophysical
Journal, 1998, vol 494, p 472-477
184