Fractals et IFS - UTC
Transcription
Fractals et IFS - UTC
Fractals et IFS March 2, 2011 1 Introduction Le mot fractal est une invention de Benoı̂t MANDELBROT mathématicien Français et Américain d’origine polonaise. Cette invention est citée en 1975 dans son fameux livre ”les objets fracals”. On y apprend que e terme fractal a pour racine latine fractus qui signifie brisé, irrégulier et désigne ainsi tout objet présentant des irrégularités dans sa forme et que la géométrie traditionnelle (celle d’Euclide) ne peut décrire ‘a partir des primitives connues telles que le segment, l’arc de cercle, le cylindre, etc... Un objet fractal est fascinant dans la mesure où il peut-être engendré à partir de multiples copies contractées d’un seul objet géométrique simple (triangle, polygône par exemple en 2D, cube ou tétrahèdre en 3D). Le mérite de B.Mandelbrot est d’avoir inventé des outils et un cadre unifié permettant de décrire ces phénomènes fortement irréguliers que l’on retrouve dans la nature (voir l’article ”comment mesurer a côte bretonne”, séismes), dans la ramification des vaisseaux sanguins, les bronches des poumons ou dans les signaux EEG, ECG et de la finance. Pour illustrer les caractéristiques d’un objet fractal, on commence par rappeler les remières constructions dùes à Cantor, Von Koch et Sierpinski : on est en présence d’ objets simples par leur construction, déroutants quant à l̀eur description par rapport aux objets géométriques classiques et fascinants une fois illustrés sur machine. On peut dire que l’on y trouve une nouvelle illustration du rôle de la récursivité et de l’itération ‘a l’ infin. Leur tracé ne pouvant être fait à la main; le recours aux ordinateurs est alors nécessaire avec la contrainte que l’infini est remplacé par un nombre d’itérations qui peut-être de l’ordre de la dizaine . La justification de l’attracteur obtenu se fait via le théorème du collage de Barnsley. Il est clair que l’intérêt de ce cours réside en la simulation de fractals connus. Lors de ce cours, nous serons amenés à la programmation des objets fractals que nous rencontrerons et on verra que la puissance de la machine est cruciale pour avoir de beaux rendus. Au delà de tout ”exotisme”, nous donnerons quelques exercices où les mathématiques interviendront pour donner une variété de propriétés de ces objets fractals : dimension fractale, description de l’intérieur du triangle de Sierpinski à partir du codage binaire du point, description de l’ensemble de Cantor à partir de la décomposition triadique de ses éléments. Ainsi, on verra que l’ensembke triadique de Cantor est un parfait contre exemple à l’assertion ” de mesure nulle donc dénombrable”. Ce cours s’organise comme suit : on rapellera dans un premier paragraphe, les descriptions d’objets irréguliers classiques : ceux de Cantor, de Sierpinski et de Von Koch. L’idée principale est de montrer que la notion de dimension entière n’est plus valable : on passe à une notion de dimension fractale d pouvant ne pas être entière. A paritr de là, on dégagera les caractéristiques de tels objets : auto-similarité (terme non accepté par l’académie; traduction du mot selfsimilar), présence des détails à toutes les échelles et enfin la similarité entre le local et le 1 global. Ces propriétés sont loin d’être partagées par un objet tel que le cercle par exemple : en zoomant sur un arcle de cercle on verra se profiler un segment de droite au fur et à mesure que l’échelle du microscope est grossie. Dans le deuxième paragraphe, nous aurons recours aux outils de l’algèbre linéaire. On commencera par la notion de transformations linéaires et affines. On se focalisera alors sur les IFS (iterated function system) et on montrera comment réobtenir les fractals du paragraphe 1 à l’aide d’un système itératif assez simple. La convergence sera abordée mais très rapidement : on expliquera que la figure finale est un attracteur pour l’IFS considéré. 2 Exemples d’objets fractals simples Nous n’abordons pas le cas trivial du segment. 2.1 Ensemble de Cantor (1872) Cantor (1845-1918) est un mathématicien allemand considéré comme l’un des fondateurs de la théorie des ensembles. Description de l’ensemble triadique de Cantor L’algorithme est le suivant : l’initialisation commence avec E0 ⊂ R comme étant l’intervalle [0, 1]. On considère E1 l’ensemble obtenu de E0 en lui ôtant son tiers central. On a alors 2 1 E1 = [0, ] ∪ [ , 1]. 3 3 Notons P ce procédé. On applique alors ce procédé P à chacun des sous-intervalles constituant E1 pour avoir 1 2 1 2 7 8 E2 = [0, ] ∪ [ , ] ∪ [ , ] ∪ [ , 1]. 9 9 3 3 9 9 En itérant le procédé, on obtient une suite (Ek ) où chaque terme Ek est formé de la réunion 1 de 2k intervalles de longueur k . On note alors l’ensemble triadique de Cantor 3 E = ∩∞ k=0 Ek . Cet ensemble est appelé aussi attracteur du procédé P. On a obtenu comme objet limite une ”poussière de points”. L’ensemble de Cantor possède des propriétés remarquables : • Il est auto-similaire (à mettre entre guillemets car terme dérivant de l’anglais : selfsimilar et non accepté par l’académie) : le global et le local se ressemblent. La figure le représentant est invariante par changement d’échelles. • Les détails sont similaires à des échelles d’observation arbitrairement grandes ou petites. • Il ne ressemble à aucune structure géométrique conventionnelle. Pour le décrire, nous sommes obligés d’avoir recours à la représentation triadique (en base 3) de ses élements. On a Theorem 2.1. Tout élément x de E sécrit de manière unique sous la forme (dite triadique) ∞ X ai (1) x= i 3 i=1 2 oı̀ les ai sont égaux à 0 ou 2. Réciproquement, tout nombre de cette forme appartient à l’ensemble triadique de Cantor E. Ceci nous permet alors de déduire le résultat suivant Corollary 2.2. 1. L’ensemble de Cantor n’est pas dénombrable. 2. L’ensemble de Cantor est d’intérieur vide. 3. Sa mesure de Lebesgue est nulle. 2k • On voit bien que la longueur de Ek est l(Ek ) = k et donc l(E) = limk→+∞ l(Ek ) = 0. 3 Il est alors urgent de caractériser la ”place qu’occupe” cet objet dans R et pour cela, nous avons recours à la dimension fractale ou fractionnaire. La définition de la dimension fractale doit être cohérente dans la mesure où elle doit prendre la valeur 1 pour un segment de droite, la valeur 2 pour un domaine borné de R2 (ex : carré). Le concept de dimension : afin de pouvoir déterminer la dimension d’un objet géométrique quelconque (de la géométrie ”traditionnelle”) on procède comme suit : – Dans le cas de la dimension 1 : on prend un segment [AB] et on le réduit d’un facteur d’échelle k ∈ N. On compte alors le nombre n de segments ainsi réduits et contenus dans le segment initial; on en trouve n = k. – Dans le cas du carré [ABCD]; sa réduction de facteur k donne lieu à n = k 2 . – Dans le cadre d’un cube, la réduction d’un facteur k donne lieu à k 3 cubes contenus dans le cube initial. On a donc la formule de la dimension k d = n ou d= ln n ln d et on observe que l’on peut définir ainsi une dimension d non entière. C’est une extension de la dimension que nous connaissons (intuitivement); c’est elle qui rend compte du degré de ”fractalité” ou d’irrégularité. On a donc la dimension fractale de Cantor h d vérifie l’équation t 3d = 2 et donc d = est la dimension de l’ensemble triadique de Cantor. log2 log 3 Ainsi, un fractal possède les 4 caractéristiques : autosimilarité, détails présents à toutes échelles, dimension non entière. 2.2 Le triangle de Sierpinski (1916) Sierpinki (1882-1069) est un mathématicien polonais. Procédé de construction Soit le procédé suivant : • considèrer un triangle • joindre les milieux des côtés; 3 • ôter le triangle central. On itère le procédé sur chacun des 3 sous-triangles obtenus A la limite, on obtient le triangle dit triangle de Sierpinski. Comme nous l’avons fait pour l’ensemble triadique de Cantor, on peut montrer que • le triangle de Sierpinki a une dimension fractale égale à d= log 4 log 3 • supposons le triangle de Sierpinski engendré à partir d’un triangle initial rectangle ayant pour sommets respectifs les points (0, 0), (0, 1) et (1, 0). On note (0, a1 a2 . . . ak . . .)2 , ai = 0 ou 1 l’écriture en base 2 d’un nombre réel 0 < a < 1. On a alors : tout point M = (x, y) appartient à l’intérieur du triangle de Sierpinski si et seulement si on a xk yk = 0, ∀k ≥ 1. où on a noté x = (0, x1 x2 . . . xk . . .)2 et y = (0, y1 y2 . . . yk . . .)2 . 2.3 Le flocon (de neige) de Von-Koch 1904 En 1904, Helge Von Koch (Mathématicien suédois, 1870-1924) étonne le monde mathématique en exhibant une courbe fermée continue, sans point double et sans tangente. Elle est de longueur infinie mais délimite une surface d’aire finie. Sa construction est obtenue via le procédé suivant : On considère un segment E0 que l’on divise en trois segments égaux; on remplace ensuite le tiers central par un triangle équilatéral sans base. On recommence cette opération sur chacun des trois segments obtenus et ainsi de suite. La courbe de Von Koch est la courbe limite de toutes les courbes obtenues après avoir itéré indéfiniment le procédé. La courbe de Von Koch est de longueur infinie. En effet, si on normalise en imposant à E0 4 d’être de longueur 1, on se rend compte que E1 , image de E0 est de longueur vu que l’on 3 1 a généré 4 segments de longueur . A l’étape d’après, (la deuxième), nous avons 16 segments 3 1 16 de longueur donc la longueur de E2 est de . A l’étape k de l’algorithme, nous disposons 9 9 4k 1 k de Ek formé de 4 segments de longueur k ; la longueur totale de Ek est donc de . A la 3 3 limite, l’ensemble ”limite“ est alors de longueur infinie. Cependant, et c’est l’aspect fascinant, la surface délimitée par E est d’aire finie. En effet, en supposant que l’on considère un carré E00 de telle sorte que le triangle central construit à la première itération soit d’aire unité, l’aire de chaque triangle engendré lors de la deuxième itération est de 19 . L’aire totale de E20 est donc de 94 . En sommant la contribution de tous les triangles, on déduit facilement que la surface délimitée par le flocon est d’aire SE est finie et on a +∞ X 4 k 9 SE 0 = = . 9) 5 k=0 4 Concernant la dimension fractale de l’objet, on applique la formule : on a une homothétie de 1 rapport qui donne 4 éléments. Ainsi d vérifie 3 3d = 4 log 4 = 1, 26185. log 3 Décrivons la procédure en termes récursisf : on part donc de [AB] et à la première itération, on engendre les trois points C,D et E (le sommet du triangle non aligné avec A et B) tels que √ 2A + B A + 2B 1+i 3 C= , D= , E = C + (D − C) . 3 3 2 Conclusion Nous remarquons que les premiers fractals étudiés se partagent les propriés d’auto-similarité, présence des détails à toutes les échelles et une dimension fractale non entière. et donc d = 3 3.1 IFS et objets fractals Applications affines. Applications contractantes On commence par parler des applications linéaires dans R2 , on suppose que R2 est muni de la base canonique. On se donne u : R2 → R2 une transformation linéaire du plan.On note A la matrice associée : elle détermine complètement la transformation. Rappelons les exemples les plus familiers : λ 0 • L’homothétie de rapport λ, λ > 0 est donnée par A = . 0 λ cos θ − sin θ • Rotation d’angle θ de centre l’origine : A = Rθ = . sin θ cos θ 1 0 • Symétrie par rapport à l’axe Ox : la matrice est A = S1 = . 0 −1 Les matrices Rθ et S1 sont des matrices orthogonales (vu en MT23) et on montre que toute matrice orthogonale est soit une une transformation θ ou Rθ ◦ S1 . Ainsi, matrice orthogonale R cos θ − sin θ cos θ sin θ ou . orthogonale est du type Rθ = sin θ cos θ sin θ − cos θ Autre transformation : une combinaison des matrices de rotation et d’homothétie. Dans ce cas, on a une similitude représentée par une matrice du type a −b A= . b a √ a et où a et b sont des réels. En notant ρ = a2 + b2 et θ l’angle tel que cos θ = √ 2 a + b2 b sin θ = − √ . Nous n’avons cité que les exemples familiers; il est clair qu’une contraction a2 + b 2 ou dilatation en abscisse et en ordonnée avec des rapports respectifs ρ1 et ρ2 est donnée par une matrice diagonale avec A(1, 1) = λ1 et A(2, 2) = λ2 etc .... 5 Applications affines e f . Elle n’est pas linéaire Reste la translation de vecteur non nul e vu que le vecteur nul est transformé en et donc en un vecteur non nul. On est alors f dans le cadre des transformations affines définie comme suit Définition : Une transformation affine du plan T : R2 → R2 est la composition d’une transformation linéaire et d’une translation. Elle se met sous la forme a b x e T (x, y) = (ax + by + e, cx + dy + f ) = + (2) c d y f Application Affine Contractante et Attracteur Nous interprèterons d’une autre manière les objets fracatls : ils sont les ”points fixes” d’un système d’applications affines contractantes. Nous donnons les définitions de termes que nous utiliserons tout au long de l’exposé. On a tout d’abord On appelle compact de R2 tout sous-ensemble de R2 fermé et borné de R2 . On rappelle qu’un sous-ensemble est fermé contient les limites de toutes ses suites convergentes (on est dans R2 qui est un espace complet). Définition : 1. Une transformation affine du plan est une contraction si l’image d’un segment est un segment de longueur infériure. 2. Un IFS est une collection finie de transformations affines. 3. L’attracteur d’un IFS {w1 , w2 , . . . , wN } est l’unique compact K ⊂ R2 (fermé et borné de R2 ) tel que K = w( K) ∪ w2 (K) . . . wN (K). (3) Nous allons revisiter les objets fractals du paragraphe précédent à partir de cette définition. L’objet fractal est obtenu comme suit : on part de E0 ⊂ R2 compact, et on considère l’itération En = w1 (En−1 ) ∪ w2 (En−1 ) . . . wN (En−1 ) avec E0 compact de R2 et f : R2 → R2 . La limite de (En ) est alors l’attracteur K vérifiant K = w1 (K) ∪ w2 (K) . . . wN (K) Nous montrons que l’on a convergence de la suite (Ek )k pourvu que la suite d’applications Ak soit contractante par rapport à une distance appelée distance de Hausdorff. La convergence du processus est aussi à prendre au sens de la métrique induite par cette même distance. Il est tout à fait clair que cette approche est celle du point fixe. Elle est due à Barnsley et est considéré comme un exemple de compression d’images fractales. 6 3.2 IFS aléatoire Un IFS aléatoire consiste en P la donnée de N transformations wi , i = 1, ..., N et de N nombres 0 < pi < 1 tel que l’on ait N i=1 pi = 1. La probabilité pi est attachée à wi . En fait, seule une application est prise en considération selon le critère : la probabilité de sélectionner la transformation wi est pi . Pour décrire les premières itérations : on suppose partir de (x0 , y0 ), on tire aléatoirement un nombre k compris entre 1 et N et on chosit alors (x1 , y1 ) = wk (x0 , y0 ) et on répète l’opération pour avoir (x2 , y2 ). En itérant le procédé, on aboutit alors à un attracteur qui coincide avec le mème attracteur de l’algorithme déterministe. Cet algorithme aléatoire est intéressant dans le cas où l’on désire dessiner un objet avec différentes textures. 3.3 Ensemble de Cantor 2 1 Il est clair que le partage de E0 = [0, 1] en deux parties E1 = [0, , ] ∪ [ , 1] s’écrit 3 3 E1 = w1 (E0 ) ∪ w2 (E0 ) où A1 et A2 sont des homothéties de rapport 1 de centres respectifs 0 et 1; plus précisément 3 1 w1 (x) = x 3 et 2 1 w2 x = x + . 3 3 Nous avons abusivement confondu l’endomorphisme et la matrice qui lui est associée. La théorie des IFS nous assure que les itérations convergent vers E vérifiant l’équation E = w1 (E) ∪ w2 (E). 3.4 (4) Triangle de Sierpinski On note A, B et C les sommets du triangle de départ E0 . L’opération joindre les milieux et ôter le triangle central montre que l’on a w(E) = w1 (E0 ) ∪ w2 (E0 ) ∪ w3 (E0 ) òù w1 , w2 et w3 sont des homothéties de rapport 3.5 1 et de centres respectifs A, B et C. 2 Ensemble de Von Koch C’est plus dur que les deux exemples précédents. Nous partons donc de E0 = [0, 1] et l’on engendre 4 segments de longueur le tiers de celle de E0 . Notant A = (0, 0) et B = [1, 0], on se retrouve donc avec 2 points supplémentaires C et E alignés avec les points A et B et un point D sommet d’un triangle équilatéral de côté 31 . Plus précisément , on a [AC] = w1 ([AB]) 7 où w1 est l’homothétie de sommet A et de rapport 13 ; on a aussi [EB] = w2 ([AB]) où w2 est l’homothétie de sommet B = (1, 0) et de rapport 31 . Concernant les branches [CE] et DE, nous avons des similitudes suivies de translations; en effet [CE] = w3 ([]AB) où w3 est la similtude de rapport 1 3 et d’angle π 3 suivie d’une translation par ( 31 , 0) Enfin, on a [ED] = w4 ([]AB) où w4 est la similitude de rapport 13 , d’angle − π3 et de centre suivie d’une translation par (− 31 , 0). 3.6 Autres curiosités : tapis de Sierpinski, ”polygasket” 3.7 Tapis de Sierpinski On cconsidère E0 un carr ’e du plan; on supposera la longueur du côté égale à un. La procédure de construction du tapis est la suivante : On découpe le carré E0 en 9 carrés chacun de côté de longueur 13 . Nous ”oublions ” alors le carré central et nous notons E1 = E0 \Ccentral où Ccentral est le carré central de centre ( 12 , 12 ) et de côté de longueur 13 . On itère ce procédé sur E1 pour avoir E2 et ainsi de suite. A la limite, nous obtenons le tapis de Sierpinski. Comme exercice, on pourra réfléchir sur les questions suivantes : • Calculer la dimension fractale du tapis de Sierpinski. • Décrire le tapis de Sierpinski à l’aide d’in IFS : on trouvera les huit applications envoyant le carré initial dans chacun des huit petits carrés constituant la première itération du procédé. • Ecrire un programme Scilab qui permet de générer une approximation du tapis. On prendra soin d”écrire un IFS où le choix des applications wi est aléatoire : à chaque itération, seule une application parmi les huit est tirée aléatoirement. 3.8 Dimension Fractale : le retour 3.9 petit rappel et intuitions On note d la dimension d’un objet plongé dans Rn . A ce scalaire positif, on associe donc une mesure notée µd adaptée à la dimension : intuitivement, si d est entier on sait que µd coincide avec la mesure usuelle que l’on connait : si d = 1 alors µd correspond à la longueur d’une courbe, si d = 2 on mesure des aires de surfaces, etc...De plus, on a • si d > n on a µd (K) = 0 pour tout compact K ⊂ Rn • si d < n on a µd (K) = ∞ pour tout compact K ⊂ Rn . • si on fait subir une homothétie de rapport ρ à K, on a alors µd (λK) = λd µd (A). 8 3.10 Dimension fractale On revient à la dimension fractale. On voudrait calculer la dimension d’un compact K ⊂ R2 tel que K est l’attracteur de l’IFS composé de N transformations wi , i = 1, . . . , N . On a K = w1 (K) ∪ w2 (K) ∪ . . . wN (K) (5) avec la condition supplémentaire que wi (K) ∩ wj (K) soit de mesure nulle. En supposant que les homothéties intervenant au niveau de chaque transformation soit de même rapport que l’on note < ρ1, on a en vertu de l’additivité µd (K) = µd (∪N i=1 wi (K)) = N X µd (wi (K)) i=1 d (6) = N ρ µd (K) lors du passage de la deuxième équation à la deuxième, nous avons utilisé la propriété de ”scaling” de la mesure µ∞ (λA) = λd µ(A). Ainsi, on a d=− log N . log ρ (7) Cette preuve est loin d’être rigoureuse; le lecteur intéressé trouvera dans l’ouvrage de Tricot une généralisation de ce résultat qui énonce que la dimension d est solution de N X ρdi = 1 i=1 où ρi , i = 1, . . . , N désigne le rapport de la similitude associée à wi . 4 Distance de Hausdorff Soit K un compact de R2 et a ∈ R2 . On sait que la distance de v à K est définie par d(a, K) = min d(a, x) x∈K (8) où d(a, x) est la distance euclidienne usuelle de x à a. Nous aimerions mesurer la distances séparant deux compacts K1 et K2 de R2 . Pour cela, soit ε > 0 et Ki (ε), i = 1, 2 les compacts définis par v ∈ Ki (ε) ⇔ ∃w ∈ Ki tel que d(v, w)ε, i = 1, 2. On définit alors la distance de Hausdorff dH (K1 , K2 ) entre les compacts K1 et K2 par la définition suivante dH (K1 , K2 ) = max max d(v, K2 ), max d(w, K1 ) (9) v∈K1 w∈K2 L’existence de l’attracteur d’un IFS est alors donné par la suite de résultats suivants dont nous ne donnerons pas de preuve. 9 Theorem 4.1. Théorème de Banach Si f : R2 → R2 est une contraction de facteur r : dH (f (K1 ), f (K2 )) ≤ rdH (K1 , K2 ) avec 0 < r < 1, alors il exite un point fixe K tel que l’on ait K = f (K). Pour justifier la ocnvergence de nos IFS, on supposera connu le fait que l’opérateur w défini par w(A) = ∪i wi (A) est une contraction lorsque les transformations wi , i = 1, . . . , N sont des contractions de rapport ρi , i = 1, . . . , N . Le facteur de contraction de w est alors ρ = max(ρ1 , . . . , ρN ). Le théorème du collage de Barnsley justifiera que les images obtenus sur ordinateur (sur lequel on fixera un nombre d’itérations) sont bien les ttracteurs des IFS considérés. On a Theorem 4.2. Soit l’IFS {w1 , w2 , . . . , wN } de facteur de contraction 0 < r < 1 et d’attracteur K. Soit K̃ tel que dH (K̃, w1 (K̃), . . . , wN (K̃)) ≤ ε où ε > 0. On a alors dH (K, K̃) ≤ 10 ε . 1−r