Série 11 (Corrigé) - ANMC
Transcription
Série 11 (Corrigé) - ANMC
Algèbre linéaire pour EL et GM
Prof. A. Abdulle
Jeudi 2 décembre 2010
EPFL
Série 11 (Corrigé)
Exercice 1
3
−1
1
Soit u1 = 1 , u2 = 1 , v = 0
.
3
0
1
(i) Vérifier que u1 et u2 sont orthogonaux.
(ii) Calculer la projection orthogonale projW (v) de v sur W = span{u1 , u2 }.
(iii) Donner la décomposition v = z + projW (v), où z ∈ W ⊥ .
Sol.:
(i) Un calcul direct donne u1 · u2 = 1 · (−1) + 1 · 1 + 1 · 0 = 0.
(ii)
7/2
1
−1
v · u1
3
v · u2
6
−3
1
1
projW (v) =
−
=
u1 +
u2 = u 1 +
u2 = 2
1/2 .
u 1 · u1
u2 · u2
3
2
2
1
2
0
(iii) v = z + projW (v), où projW (v) est calculé
dans (ii),
−1/2
et z est donné par z = v − projW (v) =
−1/2 .
1
Remarque : On peut vérifier que z · u1 = z · u2 = 0, c’est-à-dire z ∈ W ⊥ .
Même question pour u1 =
Sol.:
1
0
1
0
, u2 =
0
1
0
1
, u3 =
2
−1
−2
1
, v =
1
2
1
2
.
(i) Les vecteurs u1 , u2 , u3 sont orthogonaux: u1 · u2 = u1 · u3 = u2 · u3 = 0.
(ii)
projW (v) =
v · u1
v · u2
v · u3
u1 +
u2 +
u3 = u1 + 2u2 =
u1 · u1
u2 · u2
u3 · u3
1
1
2
1
2
.
0
0
(iii) z = v − projW (v) =
.
0
0
Remarque: v = projW (v) équivaut à v ∈ W .
1
1
2
Même question pour u1 = 2 , u2 = 2 , v = 0
.
−2
3
1
Sol.:
(i) Les vecteurs u1 , u2 sont orthogonaux: u1 · u2 = 0.
(ii)
2/7
v · u2
2
v · u1
u1 +
u 2 = u1 =
projW (v) =
4/7 .
u 1 · u1
u 2 · u2
7
6/7
5/7
−4/7
(iii) z = v − projW (v) =
.
1/7
Exercice 2
Soit les vecteurs,
2
v= 1
,
1
0
w1 = 2
,
2
1
w2 = 1
.
2
(i) Trouver la meilleure approximation de v par un vecteur de la forme αw1 + βw2 .
Sol.: Attention, ici w1 et w2 ne sous pas orthogonaux (w1 · w2 6= 0), donc on ne peut
pas appliquer directement la même méthode que pour l’exercice 1.
Méthode 1. Soit W = span(w1 , w2 ). La meilleure approximation w = αw1 + βw2
correspond à la projection orthogonale projW v. Elle est déterminée par w ∈ W et
v − w ∈ W ⊥:
(
(w − v) · w1 = 0
(w − v) · w2 = 0
⇔
(
αw1 · w1 + βw2 · w1 = v · w1
αw1 · w2 + βw2 · w2 = v · w2
⇔
(
8α + 6β = 4
.
6α + 6β = 5
4/3
La solution est α = −1/2, β = 4/3. Par conséquent w = − 12 w1 + 34 w2 =
1/3
5/3
0 1
Méthode 2. Soit A = 2 1
. On doit trouver la meilleure approximation de v
1 2 !
α
. L’équation normale pour la solution au sens des
sous la forme Ax, où x =
β
2
moindres carrés de Ax = v est
T
T
A Ax = A v
(
⇔
8α + 6β = 4
6α + 6β = 5
On conclut comme dans la méthode 1.
Méthode 3. On applique la méthode
la famille
de Gram-Schmidt pour orthogonaliser
0
1
w ·u
{w1 , w2 }. On pose u1 = w1 =
2 et u2 = w2 − u12·u11 v1 = −1/2 . Ensuite on
1/2
2
4/3
1
2
procède comme dans l’exercice 1, projspan(w1 ,w2 ) v = uv·u
u1 + uv·u
u2 =
1/3 .
1 ·u1
2 ·u2
5/3
(ii) Calculer la distance entre v et span(w1 , w2 ).
2/3
√
Sol.: kv − projspan(w1 ,w2 ) vk = 2/3 = 2/ 3.
−2/3 Soit maintenant les vecteurs,
v=
2
4
0
−1
,
2
0
−1
−3
w1 =
,
w2 =
5
−2
4
2
.
(iii) Trouver la meilleure approximation de v par un vecteur de la forme αw1 + βw2 .
Sol.: On remarque
que lesvecteurs w1 et w2 sont orthogonaux.
1
0
.
projspan(w1 ,w2 ) v =
−1/2
−3/2
(iv) Calculer la distance entre v et span(w1 , w2 ).
Sol.: kv − projspan(w1 ,w2 ) vk =
q
35
.
2
Exercice 3
Soit {u1 , . . . , un } et {v1 , . . . , vn } deux bases orthonormales de Rn . On définit les matrices
de taille n × n, U = (u1 . . . un ) et V = (v1 . . . vn ). Montrer que U T U = I, V T V = I et que
U V est inversible.
Sol.:
U U =
T
uT1
uT2
..
.
uTN
u1
u 2 · · · uN
3
=
uT1 u1 uT1 u2 · · · uT1 uN
uT2 u1 uT2 u2 · · · uT2 uN
..
..
..
..
.
.
.
.
uTN u1 uTN u2 · · · uTN uN
=
1
0
..
.
0 ··· 0
1 ··· 0
= I.
.. . . ..
. .
.
0 0 ··· 1
Comme v1 , . . . , vn vérifient les mêmes hypothèses, on a également V T V = I.
U V est inversible car V T U T U V = V T V = I, d’où (U V )−1 = V T U T .
Exercice 4
Soit W un sous-espace vectoriel de Rn . Soit {w1 , . . . , wq } une base orthogonale de W . Soit
{v1 , . . . , vr } une base orthogonale de W ⊥ .
Montrer que {w1 , . . . , wq , v1 , . . . , vr } est orthogonale et prouver la relation
dimW + dimW ⊥ = n.
Sol.: Le vecteur wi et le vecteur vj sont orthogonaux pour tout i = 1 . . . q, j = 1 . . . r car
ils appartiennent aux espaces orthogonaux W et W ⊥ . Les vecteurs wi sont orthogonaux
entre eux car ils constituent une base orthogonale, de même pour les vecteurs vj . Ainsi,
n’importe quels deux vecteurs dans la famille {w1 , . . . , wq , v1 , . . . , vr } sont orthogonaux:
c’est une famille orthogonale.
Montrons la relation dimW + dimW ⊥ = n.
Méthode 1: La famille {w1 , . . . , wq , v1 , . . . , vr } est orthogonale donc linéairement indépendante. De plus tout vecteur v ∈ Rn se décompose sous la forme v = z + w avec z ∈ W ⊥
et w = projW v ∈ W . Or z ∈ W ⊥ peut être décomposé dans la base {v1 , . . . , vr } de W ⊥ et
projW v ∈ W peut être décomposé dans la base {w1 , . . . , wq } de W . Ainsi, tout vecteur v ∈
Rn peut se décomposer selon la famille linéairement indépendante {w1 , . . . , wq , v1 , . . . , vr }
qui est donc une base de Rn . Par conséquent q + r = n.
Méthode 2: Appliquons le théorème du rang à l’application linéaire projW :
dim Im projW + dim Ker projW = n.
Or la projection vérifie Ker projW = W ⊥ et Im projW = W , d’où le résultat.
Exercice 5
Appliquer la méthode de Gram-Schmidt pour orthogonaliser les bases de sous-espaces vectoriels de Rn suivantes.
1
1
(i) w1 = 1 , w2 = 2 .
1
1
1
Sol.: La méthode de Gram-Schmidt donne: u1 = w1 =
1 .
1
−1/3
w 2 · u1
u2 = w 2 −
u1 = 2/3
.
u1 · u1
−1/3
4
(ii) w1 =
1
3
2
1
, w2 =
0
1
1
0
, w3 =
0
1
0
0
.
Sol.: La méthode de Gram-Schmidt donne: u1 = w1 =
u2 = w 2 −
u3 = w 3 −
w 2 · u1
u1 =
u1 · u1
−1/3
0
1/3
−1/3
.
w 3 · u2
w 3 · u1
u1 −
u2 =
u1 · u1
u 2 · u2
−1/5
2/5
−2/5
−1/5
1
3
2
1
.
.
(iii) Donner une base orthonormale pour (i) et (ii).
1
−1
1
1
Sol.: Pour (i): u1 /ku1 k = √ 1 , u2 /ku2 k = √ 2 .
3 1
6 −1
1
3
2
1
1
Pour (ii): u1 /ku1 k = √
15
1
, u2 /ku2 k = √
3
−1
0
1
−1
1
, u3 /ku3 k = √
10
−1
2
−2
−1
.
Exercice 6
Calculer la décomposition QR des matrices suivantes:
2 3
(i) A = 2 4
, Sol.: On applique la méthode de Gram-Schmidt aux vecteurs w1 =
1 1
−1/3
2/3
3
2
2 and w2 = 4 . On obtient u1 = 2/3 et u2 = 2/3 ,
−2/3
1/3
1
1
2/3 −1/3
d’où Q =
2/3 2/3 ,
1/3 −2/3
Ainsi, R = QT A =
3 5
0 1
!
.
1 1 −1
(ii) A = 1 2 1
,
1 2 −1
5
√
√
√
√
√
1/√3 −2/√ 6
0√
3 5/√3 −1/√ 3
Sol.: Q = 1/√3 1/√6
1/ √2 , R = 0 2/ 6 2/√ 6 .
2
1/ 3 1/ 6 −1/ 2
0
0
(iii) A =
0
0
1
2
0 −1
−1 1
Sol.: Q =
0√
0
√
3/ √22
1/ 2
0√ −2/√ 22
−1/ 2 3/ 22
√
2
, R =
0
√
1/
2
q
.
11/2
Exercice 7
Soit U un sous-espace vectoriel de Rn et u1 , . . . , up une base orthogonale de U . On considère
la transformation T : Rn → Rn définie par T (v) = projU (v).
Montrer que T est une transformation linéaire.
Sol.: Méthode 1.
T (αv + βw) = u1
= αu1
(αv + βw) · up
(αv + βw) · u1
+ . . . + up
u 1 · u1
up · up
v · u1
w · u1
v · up
w · up
+ βu1
+ . . . + αup
+ βup
= αT (v) + βT (w).
u1 · u1
u 1 · u1
up · u p
up · up
Méthode 2. En utilisant l’identité x · y = xT y = y T x, on a:
T (v) = u1
v · up
v · u1
+ . . . + up
= u1 uT1 (uT1 u1 )−1 v + . . . + up uTp (uTp up )−1 v
u1 · u1
u p · up
= u1 uT1 (uT1 u1 )−1 + . . . + up uTp (uTp up )−1 v.
Ainsi, la transformation T est associée à la matrice u1 uT1 (uT1 u1 )−1 + . . . + up uTp (uTp up )−1 et
est donc linéaire.
Exercice 8
Déterminer la solution au sens des moindres carrés de Ax = b,
(a) en utilisant l’équation normale lorsque
4
2 1
(i) A = −2 0 , b = 1 ,
2
2 3
T
T
Sol.: L’équation normale A Ax = A b est
elle a pour solution x =
5/14
5/7
!
.
6
12 8
8 10
!
x=
10
10
!
,
5
1 3
(ii) A = 1 −1 , b = 1
,
1 1
0
!
3 3
T
Sol.: A A =
, AT b =
3 11
1 0
0 −1
,
(iii) A =
1 1
1 −1
3 0
T
Sol.: A A = 0 3
0 0
1
1
0
−1
b=
2
5
6
6
6
14
!
,x=
1
1
!
.
;
1/3
1
0
T
0 , A b = 14 , x = 14/3
.
−5/3
−5
3
(b) en utilisant la méthode QR,
0
0
1
1
2
0
(i) A =
, b =
0 −1
1
−1 1
0
Sol.: On remarque que la décomposition QR a déjà été obtenue à l’exercice
6. L’approximation x au sens des moindres carrés est la solution du système
Rx = QT b, où
!
!
0√
1/11
T
Q b=
.
, et ainsi x =
−2/11
−2/ 22
0
2 3
(ii) A = 2 4 , b = 0
.
1
1 1
!
1/3
Sol.: QT b =
,x=
−2/3
11/9
−2/3
!
.
Exercice 9
Soit A une matrice de taille m × n.
(i) Montrer KerA = Ker(AT A).
Sol.: Si Ax = 0 alors AT Ax = 0, ce qui montre KerA ⊂ Ker(AT A). Soit maintenant
x tel que AT Ax = 0 ; alors xT AT Ax = 0. Or xT AT Ax = (Ax)T (Ax) = kAxk2 . Ainsi
Ax = 0, et Ker(AT A) ⊂ KerA.
(ii) Montrer que AT A est inversible si et seulement si les colonnes de A sont linéairement
indépendantes.
Sol.: Les colonnes de A = (a1 . . . an ) sont linéairement indépendantes
⇐⇒ (β1 a1 + . . . βn an = 0 ⇒ β1 = . . . = βn = 0)
β1
β1
.
.
⇐⇒ A .. = 0 ⇒ ..
= 0
βn
βn
7
⇐⇒ KerA = {0}.
Ainsi, d’après (i), les colonnes de A sont linéairement indépendantes si et seulement
si Ker(AT A) = {0}, c’est-à-dire AT A inversible.
Informations générales, séries et corrigés http://anmc.epfl.ch/Algebre.html
8