Fractals et IFS - UTC

Transcription

Fractals et IFS - UTC
Fractals et IFS
March 2, 2011
1
Introduction
Le mot fractal est une invention de Benoı̂t MANDELBROT mathématicien Français et Américain
d’origine polonaise. Cette invention est citée en 1975 dans son fameux livre ”les objets fracals”.
On y apprend que e terme fractal a pour racine latine fractus qui signifie brisé, irrégulier et
désigne ainsi tout objet présentant des irrégularités dans sa forme et que la géométrie traditionnelle (celle d’Euclide) ne peut décrire ‘a partir des primitives connues telles que le segment,
l’arc de cercle, le cylindre, etc... Un objet fractal est fascinant dans la mesure où il peut-être
engendré à partir de multiples copies contractées d’un seul objet géométrique simple (triangle, polygône par exemple en 2D, cube ou tétrahèdre en 3D). Le mérite de B.Mandelbrot est
d’avoir inventé des outils et un cadre unifié permettant de décrire ces phénomènes fortement
irréguliers que l’on retrouve dans la nature (voir l’article ”comment mesurer a côte bretonne”,
séismes), dans la ramification des vaisseaux sanguins, les bronches des poumons ou dans les
signaux EEG, ECG et de la finance. Pour illustrer les caractéristiques d’un objet fractal, on
commence par rappeler les remières constructions dùes à Cantor, Von Koch et Sierpinski : on
est en présence d’ objets simples par leur construction, déroutants quant à l̀eur description
par rapport aux objets géométriques classiques et fascinants une fois illustrés sur machine. On
peut dire que l’on y trouve une nouvelle illustration du rôle de la récursivité et de l’itération
‘a l’ infin. Leur tracé ne pouvant être fait à la main; le recours aux ordinateurs est alors
nécessaire avec la contrainte que l’infini est remplacé par un nombre d’itérations qui peut-être
de l’ordre de la dizaine . La justification de l’attracteur obtenu se fait via le théorème du
collage de Barnsley. Il est clair que l’intérêt de ce cours réside en la simulation de fractals
connus. Lors de ce cours, nous serons amenés à la programmation des objets fractals que nous
rencontrerons et on verra que la puissance de la machine est cruciale pour avoir de beaux
rendus. Au delà de tout ”exotisme”, nous donnerons quelques exercices où les mathématiques
interviendront pour donner une variété de propriétés de ces objets fractals : dimension fractale, description de l’intérieur du triangle de Sierpinski à partir du codage binaire du point,
description de l’ensemble de Cantor à partir de la décomposition triadique de ses éléments.
Ainsi, on verra que l’ensembke triadique de Cantor est un parfait contre exemple à l’assertion
” de mesure nulle donc dénombrable”.
Ce cours s’organise comme suit : on rapellera dans un premier paragraphe, les descriptions
d’objets irréguliers classiques : ceux de Cantor, de Sierpinski et de Von Koch. L’idée principale
est de montrer que la notion de dimension entière n’est plus valable : on passe à une notion de
dimension fractale d pouvant ne pas être entière. A paritr de là, on dégagera les caractéristiques
de tels objets : auto-similarité (terme non accepté par l’académie; traduction du mot selfsimilar), présence des détails à toutes les échelles et enfin la similarité entre le local et le
1
global. Ces propriétés sont loin d’être partagées par un objet tel que le cercle par exemple :
en zoomant sur un arcle de cercle on verra se profiler un segment de droite au fur et à mesure
que l’échelle du microscope est grossie.
Dans le deuxième paragraphe, nous aurons recours aux outils de l’algèbre linéaire. On commencera par la notion de transformations linéaires et affines. On se focalisera alors sur les IFS
(iterated function system) et on montrera comment réobtenir les fractals du paragraphe 1 à
l’aide d’un système itératif assez simple. La convergence sera abordée mais très rapidement :
on expliquera que la figure finale est un attracteur pour l’IFS considéré.
2
Exemples d’objets fractals simples
Nous n’abordons pas le cas trivial du segment.
2.1
Ensemble de Cantor (1872)
Cantor (1845-1918) est un mathématicien allemand considéré comme l’un des fondateurs de
la théorie des ensembles.
Description de l’ensemble triadique de Cantor
L’algorithme est le suivant : l’initialisation commence avec E0 ⊂ R comme étant l’intervalle
[0, 1]. On considère E1 l’ensemble obtenu de E0 en lui ôtant son tiers central. On a alors
2
1
E1 = [0, ] ∪ [ , 1].
3
3
Notons P ce procédé. On applique alors ce procédé P à chacun des sous-intervalles constituant
E1 pour avoir
1
2 1
2 7
8
E2 = [0, ] ∪ [ , ] ∪ [ , ] ∪ [ , 1].
9
9 3
3 9
9
En itérant le procédé, on obtient une suite (Ek ) où chaque terme Ek est formé de la réunion
1
de 2k intervalles de longueur k . On note alors l’ensemble triadique de Cantor
3
E = ∩∞
k=0 Ek .
Cet ensemble est appelé aussi attracteur du procédé P. On a obtenu comme objet limite une
”poussière de points”. L’ensemble de Cantor possède des propriétés remarquables :
• Il est auto-similaire (à mettre entre guillemets car terme dérivant de l’anglais : selfsimilar et non accepté par l’académie) : le global et le local se ressemblent. La figure le
représentant est invariante par changement d’échelles.
• Les détails sont similaires à des échelles d’observation arbitrairement grandes ou petites.
• Il ne ressemble à aucune structure géométrique conventionnelle. Pour le décrire, nous
sommes obligés d’avoir recours à la représentation triadique (en base 3) de ses élements.
On a
Theorem 2.1. Tout élément x de E sécrit de manière unique sous la forme (dite triadique)
∞
X
ai
(1)
x=
i
3
i=1
2
oı̀ les ai sont égaux à 0 ou 2. Réciproquement, tout nombre de cette forme appartient à
l’ensemble triadique de Cantor E.
Ceci nous permet alors de déduire le résultat suivant
Corollary 2.2.
1. L’ensemble de Cantor n’est pas dénombrable.
2. L’ensemble de Cantor est d’intérieur vide.
3. Sa mesure de Lebesgue est nulle.
2k
• On voit bien que la longueur de Ek est l(Ek ) = k et donc l(E) = limk→+∞ l(Ek ) = 0.
3
Il est alors urgent de caractériser la ”place qu’occupe” cet objet dans R et pour cela,
nous avons recours à la dimension fractale ou fractionnaire. La définition de la
dimension fractale doit être cohérente dans la mesure où elle doit prendre la valeur 1
pour un segment de droite, la valeur 2 pour un domaine borné de R2 (ex : carré).
Le concept de dimension : afin de pouvoir déterminer la dimension d’un objet géométrique
quelconque (de la géométrie ”traditionnelle”) on procède comme suit :
– Dans le cas de la dimension 1 : on prend un segment [AB] et on le réduit d’un
facteur d’échelle k ∈ N. On compte alors le nombre n de segments ainsi réduits et
contenus dans le segment initial; on en trouve n = k.
– Dans le cas du carré [ABCD]; sa réduction de facteur k donne lieu à n = k 2 .
– Dans le cadre d’un cube, la réduction d’un facteur k donne lieu à k 3 cubes contenus
dans le cube initial.
On a donc la formule de la dimension k d = n ou
d=
ln n
ln d
et on observe que l’on peut définir ainsi une dimension d non entière. C’est une extension
de la dimension que nous connaissons (intuitivement); c’est elle qui rend compte du degré
de ”fractalité” ou d’irrégularité.
On a donc la dimension fractale de Cantor h d vérifie l’équation t 3d = 2 et donc d =
est la dimension de l’ensemble triadique de Cantor.
log2
log 3
Ainsi, un fractal possède les 4 caractéristiques : autosimilarité, détails présents à toutes
échelles, dimension non entière.
2.2
Le triangle de Sierpinski (1916)
Sierpinki (1882-1069) est un mathématicien polonais.
Procédé de construction Soit le procédé suivant :
• considèrer un triangle
• joindre les milieux des côtés;
3
• ôter le triangle central.
On itère le procédé sur chacun des 3 sous-triangles obtenus A la limite, on obtient le triangle
dit triangle de Sierpinski.
Comme nous l’avons fait pour l’ensemble triadique de Cantor, on peut montrer que
• le triangle de Sierpinki a une dimension fractale égale à
d=
log 4
log 3
• supposons le triangle de Sierpinski engendré à partir d’un triangle initial rectangle ayant
pour sommets respectifs les points (0, 0), (0, 1) et (1, 0). On note (0, a1 a2 . . . ak . . .)2 , ai =
0 ou 1 l’écriture en base 2 d’un nombre réel 0 < a < 1.
On a alors : tout point M = (x, y) appartient à l’intérieur du triangle de Sierpinski si
et seulement si on a
xk yk = 0, ∀k ≥ 1.
où on a noté x = (0, x1 x2 . . . xk . . .)2 et y = (0, y1 y2 . . . yk . . .)2 .
2.3
Le flocon (de neige) de Von-Koch 1904
En 1904, Helge Von Koch (Mathématicien suédois, 1870-1924) étonne le monde mathématique
en exhibant une courbe fermée continue, sans point double et sans tangente. Elle est de
longueur infinie mais délimite une surface d’aire finie.
Sa construction est obtenue via le procédé suivant : On considère un segment E0 que l’on
divise en trois segments égaux; on remplace ensuite le tiers central par un triangle équilatéral
sans base. On recommence cette opération sur chacun des trois segments obtenus et ainsi de
suite. La courbe de Von Koch est la courbe limite de toutes les courbes obtenues après avoir
itéré indéfiniment le procédé.
La courbe de Von Koch est de longueur infinie. En effet, si on normalise en imposant à E0
4
d’être de longueur 1, on se rend compte que E1 , image de E0 est de longueur vu que l’on
3
1
a généré 4 segments de longueur . A l’étape d’après, (la deuxième), nous avons 16 segments
3
1
16
de longueur donc la longueur de E2 est de . A l’étape k de l’algorithme, nous disposons
9
9
4k
1
k
de Ek formé de 4 segments de longueur k ; la longueur totale de Ek est donc de
. A la
3
3
limite, l’ensemble ”limite“ est alors de longueur infinie.
Cependant, et c’est l’aspect fascinant, la surface délimitée par E est d’aire finie. En effet,
en supposant que l’on considère un carré E00 de telle sorte que le triangle central construit à
la première itération soit d’aire unité, l’aire de chaque triangle engendré lors de la deuxième
itération est de 19 . L’aire totale de E20 est donc de 94 . En sommant la contribution de tous les
triangles, on déduit facilement que la surface délimitée par le flocon est d’aire SE est finie et
on a
+∞ X
4 k 9
SE 0 =
= .
9)
5
k=0
4
Concernant la dimension fractale de l’objet, on applique la formule : on a une homothétie de
1
rapport qui donne 4 éléments. Ainsi d vérifie
3
3d = 4
log 4
= 1, 26185.
log 3
Décrivons la procédure en termes récursisf : on part donc de [AB] et à la première itération,
on engendre les trois points C,D et E (le sommet du triangle non aligné avec A et B) tels que
√
2A + B
A + 2B
1+i 3
C=
, D=
, E = C + (D − C)
.
3
3
2
Conclusion
Nous remarquons que les premiers fractals étudiés se partagent les propriés d’auto-similarité,
présence des détails à toutes les échelles et une dimension fractale non entière.
et donc d =
3
3.1
IFS et objets fractals
Applications affines. Applications contractantes
On commence par parler des applications linéaires dans R2 , on suppose que R2 est muni de
la base canonique. On se donne u : R2 → R2 une transformation linéaire du plan.On note A
la matrice associée : elle détermine complètement la transformation. Rappelons les exemples
les plus familiers :
λ 0
• L’homothétie de rapport λ, λ > 0 est donnée par A =
.
0 λ
cos θ − sin θ
• Rotation d’angle θ de centre l’origine : A = Rθ =
.
sin θ cos θ
1 0
• Symétrie par rapport à l’axe Ox : la matrice est A = S1 =
.
0 −1
Les matrices Rθ et S1 sont des matrices orthogonales (vu en MT23) et on montre que toute
matrice orthogonale est soit une
une transformation
θ ou Rθ ◦ S1 . Ainsi, matrice orthogonale
R
cos θ − sin θ
cos θ sin θ
ou
.
orthogonale est du type Rθ =
sin θ cos θ
sin θ − cos θ
Autre transformation : une combinaison des matrices de rotation et d’homothétie. Dans ce
cas, on a une similitude représentée par une matrice du type
a −b
A=
.
b a
√
a
et
où a et b sont des réels. En notant ρ = a2 + b2 et θ l’angle tel que cos θ = √
2
a + b2
b
sin θ = − √
. Nous n’avons cité que les exemples familiers; il est clair qu’une contraction
a2 + b 2
ou dilatation en abscisse et en ordonnée avec des rapports respectifs ρ1 et ρ2 est donnée par
une matrice diagonale avec A(1, 1) = λ1 et A(2, 2) = λ2 etc ....
5
Applications affines
e
f
. Elle n’est pas linéaire
Reste la translation de vecteur non nul
e
vu que le vecteur nul est transformé en
et donc en un vecteur non nul. On est alors
f
dans le cadre des transformations affines définie comme suit
Définition : Une transformation affine du plan T : R2 → R2 est la composition d’une
transformation linéaire et d’une translation. Elle se met sous la forme
a b
x
e
T (x, y) = (ax + by + e, cx + dy + f ) =
+
(2)
c d
y
f
Application Affine Contractante et Attracteur
Nous interprèterons d’une autre
manière les objets fracatls : ils sont les ”points fixes” d’un système d’applications affines
contractantes. Nous donnons les définitions de termes que nous utiliserons tout au long de
l’exposé. On a tout d’abord On appelle compact de R2 tout sous-ensemble de R2 fermé
et borné de R2 . On rappelle qu’un sous-ensemble est fermé contient les limites de toutes ses
suites convergentes (on est dans R2 qui est un espace complet).
Définition :
1. Une transformation affine du plan est une contraction si l’image d’un segment est un
segment de longueur infériure.
2. Un IFS est une collection finie de transformations affines.
3. L’attracteur d’un IFS {w1 , w2 , . . . , wN } est l’unique compact K ⊂ R2 (fermé et borné
de R2 ) tel que
K = w( K) ∪ w2 (K) . . . wN (K).
(3)
Nous allons revisiter les objets fractals du paragraphe précédent à partir de cette définition.
L’objet fractal est obtenu comme suit : on part de E0 ⊂ R2 compact, et on considère l’itération
En = w1 (En−1 ) ∪ w2 (En−1 ) . . . wN (En−1 )
avec E0 compact de R2 et f : R2 → R2 . La limite de (En ) est alors l’attracteur K vérifiant
K = w1 (K) ∪ w2 (K) . . . wN (K)
Nous montrons que l’on a convergence de la suite (Ek )k pourvu que la suite d’applications Ak
soit contractante par rapport à une distance appelée distance de Hausdorff. La convergence
du processus est aussi à prendre au sens de la métrique induite par cette même distance. Il
est tout à fait clair que cette approche est celle du point fixe. Elle est due à Barnsley et est
considéré comme un exemple de compression d’images fractales.
6
3.2
IFS aléatoire
Un IFS aléatoire consiste en P
la donnée de N transformations wi , i = 1, ..., N et de N nombres
0 < pi < 1 tel que l’on ait N
i=1 pi = 1. La probabilité pi est attachée à wi . En fait, seule
une application est prise en considération selon le critère : la probabilité de sélectionner la
transformation wi est pi . Pour décrire les premières itérations : on suppose partir de (x0 , y0 ),
on tire aléatoirement un nombre k compris entre 1 et N et on chosit alors (x1 , y1 ) = wk (x0 , y0 )
et on répète l’opération pour avoir (x2 , y2 ). En itérant le procédé, on aboutit alors à un
attracteur qui coincide avec le mème attracteur de l’algorithme déterministe. Cet algorithme
aléatoire est intéressant dans le cas où l’on désire dessiner un objet avec différentes textures.
3.3
Ensemble de Cantor
2
1
Il est clair que le partage de E0 = [0, 1] en deux parties E1 = [0, , ] ∪ [ , 1] s’écrit
3
3
E1 = w1 (E0 ) ∪ w2 (E0 )
où A1 et A2 sont des homothéties de rapport
1
de centres respectifs 0 et 1; plus précisément
3
1
w1 (x) = x
3
et
2
1
w2 x = x + .
3
3
Nous avons abusivement confondu l’endomorphisme et la matrice qui lui est associée.
La théorie des IFS nous assure que les itérations convergent vers E vérifiant l’équation
E = w1 (E) ∪ w2 (E).
3.4
(4)
Triangle de Sierpinski
On note A, B et C les sommets du triangle de départ E0 . L’opération joindre les milieux et
ôter le triangle central montre que l’on a
w(E) = w1 (E0 ) ∪ w2 (E0 ) ∪ w3 (E0 )
òù w1 , w2 et w3 sont des homothéties de rapport
3.5
1
et de centres respectifs A, B et C.
2
Ensemble de Von Koch
C’est plus dur que les deux exemples précédents. Nous partons donc de E0 = [0, 1] et l’on
engendre 4 segments de longueur le tiers de celle de E0 . Notant A = (0, 0) et B = [1, 0], on
se retrouve donc avec 2 points supplémentaires C et E alignés avec les points A et B et un
point D sommet d’un triangle équilatéral de côté 31 . Plus précisément , on a
[AC] = w1 ([AB])
7
où w1 est l’homothétie de sommet A et de rapport 13 ; on a aussi
[EB] = w2 ([AB])
où w2 est l’homothétie de sommet B = (1, 0) et de rapport 31 . Concernant les branches [CE]
et DE, nous avons des similitudes suivies de translations; en effet
[CE] = w3 ([]AB)
où w3 est la similtude de rapport
1
3
et d’angle
π
3
suivie d’une translation par ( 31 , 0) Enfin, on a
[ED] = w4 ([]AB)
où w4 est la similitude de rapport 13 , d’angle − π3 et de centre suivie d’une translation par
(− 31 , 0).
3.6
Autres curiosités : tapis de Sierpinski, ”polygasket”
3.7
Tapis de Sierpinski
On cconsidère E0 un carr ’e du plan; on supposera la longueur du côté égale à un. La procédure
de construction du tapis est la suivante : On découpe le carré E0 en 9 carrés chacun de côté de
longueur 13 . Nous ”oublions ” alors le carré central et nous notons E1 = E0 \Ccentral où Ccentral
est le carré central de centre ( 12 , 12 ) et de côté de longueur 13 . On itère ce procédé sur E1 pour
avoir E2 et ainsi de suite. A la limite, nous obtenons le tapis de Sierpinski. Comme exercice,
on pourra réfléchir sur les questions suivantes :
• Calculer la dimension fractale du tapis de Sierpinski.
• Décrire le tapis de Sierpinski à l’aide d’in IFS : on trouvera les huit applications envoyant
le carré initial dans chacun des huit petits carrés constituant la première itération du
procédé.
• Ecrire un programme Scilab qui permet de générer une approximation du tapis. On
prendra soin d”écrire un IFS où le choix des applications wi est aléatoire : à chaque
itération, seule une application parmi les huit est tirée aléatoirement.
3.8
Dimension Fractale : le retour
3.9
petit rappel et intuitions
On note d la dimension d’un objet plongé dans Rn . A ce scalaire positif, on associe donc une
mesure notée µd adaptée à la dimension : intuitivement, si d est entier on sait que µd coincide
avec la mesure usuelle que l’on connait : si d = 1 alors µd correspond à la longueur d’une
courbe, si d = 2 on mesure des aires de surfaces, etc...De plus, on a
• si d > n on a µd (K) = 0 pour tout compact K ⊂ Rn
• si d < n on a µd (K) = ∞ pour tout compact K ⊂ Rn .
• si on fait subir une homothétie de rapport ρ à K, on a alors µd (λK) = λd µd (A).
8
3.10
Dimension fractale
On revient à la dimension fractale. On voudrait calculer la dimension d’un compact K ⊂ R2
tel que K est l’attracteur de l’IFS composé de N transformations wi , i = 1, . . . , N . On a
K = w1 (K) ∪ w2 (K) ∪ . . . wN (K)
(5)
avec la condition supplémentaire que wi (K) ∩ wj (K) soit de mesure nulle. En supposant que
les homothéties intervenant au niveau de chaque transformation soit de même rapport que
l’on note < ρ1, on a en vertu de l’additivité
µd (K) =
µd (∪N
i=1 wi (K))
=
N
X
µd (wi (K))
i=1
d
(6)
= N ρ µd (K)
lors du passage de la deuxième équation à la deuxième, nous avons utilisé la propriété de
”scaling” de la mesure µ∞ (λA) = λd µ(A). Ainsi, on a
d=−
log N
.
log ρ
(7)
Cette preuve est loin d’être rigoureuse; le lecteur intéressé trouvera dans l’ouvrage de Tricot
une généralisation de ce résultat qui énonce que la dimension d est solution de
N
X
ρdi = 1
i=1
où ρi , i = 1, . . . , N désigne le rapport de la similitude associée à wi .
4
Distance de Hausdorff
Soit K un compact de R2 et a ∈ R2 . On sait que la distance de v à K est définie par
d(a, K) = min d(a, x)
x∈K
(8)
où d(a, x) est la distance euclidienne usuelle de x à a.
Nous aimerions mesurer la distances séparant deux compacts K1 et K2 de R2 . Pour cela, soit
ε > 0 et Ki (ε), i = 1, 2 les compacts définis par
v ∈ Ki (ε) ⇔ ∃w ∈ Ki tel que d(v, w)ε, i = 1, 2.
On définit alors la distance de Hausdorff dH (K1 , K2 ) entre les compacts K1 et K2 par la
définition suivante
dH (K1 , K2 ) = max max d(v, K2 ), max d(w, K1 )
(9)
v∈K1
w∈K2
L’existence de l’attracteur d’un IFS est alors donné par la suite de résultats suivants dont
nous ne donnerons pas de preuve.
9
Theorem 4.1. Théorème de Banach Si f : R2 → R2 est une contraction de facteur r :
dH (f (K1 ), f (K2 )) ≤ rdH (K1 , K2 )
avec 0 < r < 1, alors il exite un point fixe K tel que l’on ait
K = f (K).
Pour justifier la ocnvergence de nos IFS, on supposera connu le fait que l’opérateur w défini
par w(A) = ∪i wi (A) est une contraction lorsque les transformations wi , i = 1, . . . , N sont des
contractions de rapport ρi , i = 1, . . . , N . Le facteur de contraction de w est alors
ρ = max(ρ1 , . . . , ρN ).
Le théorème du collage de Barnsley justifiera que les images obtenus sur ordinateur (sur
lequel on fixera un nombre d’itérations) sont bien les ttracteurs des IFS considérés. On a
Theorem 4.2. Soit l’IFS {w1 , w2 , . . . , wN } de facteur de contraction 0 < r < 1 et d’attracteur
K. Soit K̃ tel que
dH (K̃, w1 (K̃), . . . , wN (K̃)) ≤ ε
où ε > 0. On a alors
dH (K, K̃) ≤
10
ε
.
1−r