Untitled - Impala Utopia
Transcription
Untitled - Impala Utopia
TX : Audionumérique et Synthèse sonore Remerciements Nous tenons à remercier particulièrement Mr Regis Lengelle pour le temps qu’il nous a consacré et pour ces explications. Nous tenons également à remercier Mr Alain Millet pour les explications qu’il nous a apportées sur la modélisation physique des instruments à cordes. Enfin nous remercions Mr Nicolas Castagné, chercheur en synthèse sonore par modèle physique travaillant dans l’organisme ACROE/ICA et rédacteur de plusieurs document parus dans les Computer Music Journal , pour ces explications sur la synthèse sonore par modèle physique. Université de Technologie de Troyes 1 Automne 2004 TX : Audionumérique et Synthèse sonore Table des matières Introduction _______________________________________________________________ 4 I. Numérisation des signaux audios ____________________________________________ 5 I.1. Introduction à la Psychoacoustique ______________________________________ 5 I.1.1. L’appareil auditif humain ____________________________________________ 5 I.1.2. Perception de l’intensité______________________________________________ 6 I.1.3. Perception des fréquences ____________________________________________ 6 I.1.4. Effet de masque.____________________________________________________ 7 I.1.5. Image spatiale _____________________________________________________ 8 I.2. Conversion Analogique Numérique ______________________________________ 9 I.2.1. Historique_________________________________________________________ 9 I.2.1.1. L’analogique ___________________________________________________ 9 I.2.1.2. Le numérique __________________________________________________ 9 I.2.2. Le principe de la Conversion Analogique Numérique (CAN) ________________ 9 I.2.3. Les problèmes liés à la conversion et leur solution ________________________ 10 I.2.3.1. Le recouvrement spectral ________________________________________ 10 I.2.3.2. Le bruit (ou erreur) de quantification _______________________________ 11 I.2.3.3. Le bruit de quantification à faible niveau ____________________________ 12 I.2.3.4. La distorsion de phase___________________________________________ 13 I.2.4. Implémentation des convertisseurs ____________________________________ 14 II. Synthèse sonore _________________________________________________________ 15 II.1. Introduction a la synthèse sonore ______________________________________ 15 II.1.1. Les enveloppes ___________________________________________________ 15 II.1.2. Le formalisme utilisé ______________________________________________ 16 II.1.2.1. Les générateurs de signaux ______________________________________ 16 II.1.2.2. Les enveloppes _______________________________________________ 16 II.1.2.3. Les mixeurs __________________________________________________ 16 II.1.2.4. Les filtres ____________________________________________________ 16 II.2. La synthèse sonore additive ___________________________________________ 17 II.2.1. Historique _______________________________________________________ 17 II.2.2. Principe_________________________________________________________ 17 II.2.3. Implémentation___________________________________________________ 17 II.3. La synthèse soustractive ______________________________________________ 19 II.3.1. Historique _______________________________________________________ 19 II.3.2. Principe_________________________________________________________ 19 II.3.3. Implémentation___________________________________________________ 20 II.4. Synthèse FM _______________________________________________________ 21 II.4.1. Historique _______________________________________________________ 21 II.4.2. Principe_________________________________________________________ 21 II.4.3. Implémentation___________________________________________________ 23 II.5. Synthèse granulaire__________________________________________________ 24 II.5.1. Historique _______________________________________________________ 24 II.5.2. Principe_________________________________________________________ 24 II.5.2.1. Le grain sonore _______________________________________________ 24 Université de Technologie de Troyes 2 Automne 2004 TX : Audionumérique et Synthèse sonore II.5.2.2. Organisations granulaires de haut niveau ___________________________ 24 II.5.3. Implémentation___________________________________________________ 26 II.6. Synthèse sonore par modèle physique___________________________________ 27 II.6.1. Historique _______________________________________________________ 27 II.6.2. Principe_________________________________________________________ 27 II.6.2.1. Excitation et résonance _________________________________________ 27 II.6.2.2. Méthodologie classique des modèles physiques ______________________ 27 II.6.3. Implementation___________________________________________________ 28 II.6.3.1. Equation de propagation ________________________________________ 28 II.6.3.2. Application __________________________________________________ 28 II.7. Synthèse ___________________________________________________________ 31 Conclusion _______________________________________________________________ 32 Annexes__________________________________________________________________ 33 Université de Technologie de Troyes 3 Automne 2004 TX : Audionumérique et Synthèse sonore Introduction Les techniques numériques sont de plus en plus souvent utilisées et trouvent des domaines d’application de plus en plus important. A ce titre, nous avons décidé de réaliser un travail de recherche sur quelques techniques numériques dans un domaine particulier : l’audio. Dans notre travail sur les signaux audio, nous avons considéré deux aspects : l’audionumérique et la synthèse sonore. L’audionumérique est la discipline regroupant l’ensemble des aspects lié à la numérisation de signaux sonores. La synthèse sonore permet d’obtenir des productions sonores originales à partir de techniques variées en utilisant des outils du traitement du signal. Après une introduction sur la psychoacoustique, nous présenterons la conversion analogique numérique et ses problèmes. Puis nous verrons quelques exemples de synthèses sonores. Université de Technologie de Troyes 4 Automne 2004 TX : Audionumérique et Synthèse sonore I. Numérisation des signaux audios I.1. Introduction à la Psychoacoustique I.1.1. L’appareil auditif humain Nos oreilles sont tout aussi remarquables que nos yeux. Elles ont accès aux ondes sonores d’amplitudes pouvant varier dans une gamme dynamique très importante et, en association avec notre cerveau, elles peuvent instantanément identifier la direction d’où leur parvient le son, en reconnaître la fréquence et les caractéristiques, et accéder au contenu informatif dans le cas de la parole. En vue de la conception de système audio, il est important de comprendre les possibilités et les limites de cet appareil biologique. La discipline qui concerne l’étude de cet appareil est communément appelée psychoacoustique. Figure 1 : Représentation schématique du système auditif humain La cochlée est montrée ici déroulée ; elle est normalement enroulée comme la coquille d’un escargot. La figure montre une représentation de l’oreille humaine appelée aussi système auditif périphérique. Le système auditif périphérique peut être décomposé en trois parties : l’oreille externe, l’oreille moyenne et l’oreille interne. - L’oreille externe, amplifie les vibrations entrantes de l’air. L’oreille moyenne traduit ces vibrations en vibrations mécaniques L’oreille interne effectue filtre ces vibrations puis les traduit mécaniquement, hydrodynamiquement et électrochimiquement. Les signaux électrochimiques sont transmis jusqu’au cerveau par les nerfs auditifs. La cochlée est l’organe central de l’oreille qui, via un ensemble de mécanismes complexes, traduit les vibrations en signaux neuraux ou code. Les signaux sont véhiculés jusqu’au cerveau. Celui-ci s’occupe alors de combiner les signaux en provenance des deux oreilles afin de construire l’image spatiale et d’analyser les informations sonores (dans le cas de la parole). Université de Technologie de Troyes 5 Automne 2004 TX : Audionumérique et Synthèse sonore I.1.2. Perception de l’intensité L’intensité est liée à l’énergie (ou variation de pression d’air) d’une onde. L’attribut perceptuel lié à l’intensité s’appelle la sonie (force sonore). Cependant comme nous allons le voir par la suite, il n’existe pas de relations simples reliant l’intensité et la sonie. En effet la force sonore dépend de paramètres tels que la fréquence des ondes sonores, la durée et les sons d’arrière-plan etc. L’appareil auditif humain est capable d’entendre une étendue large d’intensité. De plus la sensibilité aux changements d’intensité est proportionnelle à la quantité d’intensité. On utilise alors logiquement une échelle logarithmique pour décrire l’intensité sonore. L’intensité est alors mesurée en terme de niveau de pression (SPL :sound pressure level) définit par la relation. dBSPL = 20 log( P P0 ) La pression de référence P0 est de 2.10-5 N/m2. Elle correspond au seuil de l’audition pour une fréquence de 1kHz. L’exposition prolongée à des intensités fortes (120 dB : seuil de douleur) peut provoquer des traumatismes graves et irrémédiables pour l’appareil auditif humain. Ce seuil peut être atteint par la pollution sonore urbaine (circulation routière, marteaux piqueurs, aéroport etc) et les événements musicaux de grandes ampleurs. I.1.3. Perception des fréquences L’oreille, en théorie, peut détecter des fréquences comprises entre 20Hz et 20kHz. Les propriétés remarquables sont exposées ci dessous : • L’attribut de sonie est fonction de la fréquence, la région la plus sensible est située entre 2700Hz et 3200Hz et la sensibilité chute plus ou moins graduellement sur chaque côté de ces régions cela signifie pour une personne qu’une sinusoïde a 3kHz ayant une certaine intensité va sonner plus « fortement » qu’une sinusoïde à 200Hz ou 8kHz ayant la même intensité. (cf annexe Diagramme de FletcherMunson : Courbes isophoniques) • Les sons en dessous de 20Hz, plus graves, ne sont pas perçus par l’oreille mais certains d’entre eux peuvent être captés par la paroi abdominale (propriété largement utilisée dans les musiques et bruitages de film, le son n’est plus entendu mais ressenti). • La limite supérieure de 20kHz dépend de beaucoup de paramètres comme l’âge. De récentes études scientifiques ont montré que la limite supérieure de la sensibilité peut s’étendre bien au-dessus de 20kHz. La limite de 20 Khz est un sujet brûlant suscitant beaucoup de controverses chez les scientifiques. Les diagrammes de Fletcher Mundson témoignent de ces propriétés. Les courbes sont présentées ci-dessous. Fletcher, Munson,1933. « Loudness, its definition, measurement, and calculation. »Journal of the Acoustical Society of America Université de Technologie de Troyes 6 Automne 2004 TX : Audionumérique et Synthèse sonore Figure2 : Diagramme de Fletcher-Munson : Courbes isophoniques Les phones correspondent aux décibels d’un son pur a 1000 Hz. Ainsi une sinusoïde à 1000 Hz ayant une intensité de 40 dB SPL aura une sonie de 40 phones. Si nous voulons produire une sinusoïde a 300 Hz avec le même niveau de sonie que celle de 1000 Hz ayant un niveau d’intensité de 40 dB, nous pouvons suivre la courbe de 40 phones de 1000 a 300 Hz, et nous voyons qu’il faut environ 47 dB SPL pour obtenir ce même niveau de sonie. I.1.4. Effet de masque Les études concernant l’interaction, sur le plan de la perception, de plusieurs sons ont exposé un phénomène important, l’effet de masque. Les grands points de ce phénomène sont les suivants : • • • Masque simultané : Un son d’intensité faible peut être masqué par un autre son d’intensité plus élevée. Une combinaison de deux sons peut aussi provoquer l’apparition de nouvelles harmoniques (son différentiel et son différentiel cubique). Masque en avant : un événement sonore peut en masquer un autre, apparaissant après son extinction. Masque en arrière : un événement sonore peut en masque un autre, apparaissant avant son arrivée. Le format de compression mp3, permettant de diviser la quantité d’informations sonores par 11, se base essentiellement sur les propriétés d’effets de masque. Université de Technologie de Troyes 7 Automne 2004 TX : Audionumérique et Synthèse sonore I.1.5. Image spatiale L’oreille couplée à un système d’analyse complexe (le cerveau) permet de localiser les événements sonores dans l’espace. En temps normal, nous bougeons sans arrêt la tête, ne serait-ce que de quelques millimètres, dans les trois dimensions, et ces déplacements infinitésimaux se traduisent, par des micros modifications de perception. Ce phénomène permet de localiser les sources dans un espace tridimensionnel. Concrètement, le système humain permet en moyenne de détecter des mouvements de source sonore de 3° dans l’espace. Dans la nature l’écoute est transaurale c'est-à-dire que les sons en provenance d’une enceinte localisée à droite vont quand même parvenir à l’oreille gauche de l’auditeur, il y a corrélation entre les canaux. Par opposition l’écoute au casque est qualifiée de binaurale, car chaque oreille perçoit un signal qui lui est propre. Ce système d’écoute empêche le cerveau à placer le signal dans un espace à 3 dimensions. Rmq : Le procédé Dolby Headphone, permet de remédier à ce problème via des études complexes sur l’acoustique virtuelle et offre à l’auditeur un paysage sonore tridimensionnel à partir d’un casque. Cette introduction à la psychoacoustique constitue des connaissances essentielles pour l’élaboration de systèmes audionumériques. Cependant cette discipline est complexe et les chercheurs dans le domaine sont peu nombreux. Il est clair que l’appareil auditif est un organe très complexe, on peut imaginer que d’autres paramètres comme la langue et l’environnement jouent un rôle important dans la perception des sons. Université de Technologie de Troyes 8 Automne 2004 TX : Audionumérique et Synthèse sonore I.2. Conversion Analogique Numérique I.2.1. Historique I.2.1.1. L’analogique Le terme « analogique » fait référence à la forme d’onde codée sur bande magnétique. Les dates clés sont : - 1922 : enregistrement optique sur film - 1930 : enregistrement sur bande recouverte de matériaux magnétiques pulvérisés - Apres la Seconde Guerre Mondiale : Démocratisation des enregistreurs allemand « Magnetophon ». Les enregistrements « analogiques » continuent encore d’être améliorés mais doivent faire face à des limites physiques fondamentales. Ces limites sont plus apparentes lors de la copie d’un support analogique a un autre : un bruit additionnel est inévitable. L’enregistrement numérique, discrétisation du signal analogique, a su pallier ces contraintes. I.2.1.2. Le numérique Il est intéressant de dresser un historique relatif à la numérisation du signal. Les dates clés sont : - 1841 : Travaux de Louis Cauchy (1er version du théorème fondamental de l’échantillonnage) - 1928 : Travaux de Harold Nyquist (Théorème de l’échantillonnage) - 1948 : Développement de la théorie de l’information par Shannon - 1977 : Premier enregistreur numérique développé par Sony - 1982 : Démocratisation du format CD 44,1kHz/16 bits I.2.2. Le principe de la Conversion Analogique Numérique (CAN) La conversion analogique-numérique est l’opération qui permet de passer d’un signal analogique à un signal numérique. Cette dernière, qui n’est autre qu’une discrétisation du signal, se base sur deux phases distinctes : l’échantillonnage et la quantification. Considérons le cas suivant : Un signal analogique est présenté à l’entrée du convertisseur, ce signal est alors échantillonné avec une fréquence d’échantillonnage Fe, puis quantifié suivant un certain nombre de bits. On obtient alors en sortie du convertisseur une succession de mots binaires. Dans le cas précédent, il est à noter que l’ordre des opérations est interchangeable, ce dernier n’ayant aucune influence sur le résultat. Université de Technologie de Troyes 9 Automne 2004 TX : Audionumérique et Synthèse sonore Considérons le signal sonore analogique ci dessous : Figure 3 : Phases de la conversion analogique-numérique L’échantillonnage est le processus consistant à ne retenir d’un signal analogique que ses valeurs à des instants réguliers (tout les Te) La quantification est le processus qui consiste à convertir les valeurs analogiques prises par une fonction continue en la valeur numérique la plus proche parmi celles qui sont disponibles. I.2.3. Les problèmes liés à la conversion et leur solution I.2.3.1. Le recouvrement spectral Le problème : Lors d’un échantillonnage, le spectre du signal numérisé est égal à la transformée de Fourier convolué avec un peigne de Dirac (cf. Annexe) : X e(f) = X ( f ) * ∑ δ ( f − nFe) = ∑ X ( f − nFe) n∈Ζ Université de Technologie de Troyes n∈Ζ 10 Automne 2004 TX : Audionumérique et Synthèse sonore Cependant, dans certains cas, on peut observer le phénomène suivant : Figure4 : Repliement d’un spectre Il y a superposition de la partie repliée qui correspond aux hautes fréquences du signal avec la bande [Fe − F max, Fe / 2] du signal x(t). Ce phénomène est appelé « repliement spectrale ». La solution : La solution à ce type de problème fut apportée par le théorème de l’échantillonnage. Afin d’obtenir une restitution du signal la plus proche possible de l’original, il est nécessaire de respecter le théorème de l’échantillonnage. Ce théorème spécifie la relation entre le taux d’échantillonnage et la largeur de bande audio. Soit un signal de fréquence maximale fmax, et fe la fréquence d’échantillonnage minimal nécessaire à la numérisation du signal, le théorème d’échantillonnage spécifie la condition : f e ≥ 2. f max Cette condition est aussi appelée critère de Nyquist ou de Shanon. Dans la pratique, pour éviter ce phénomène, on utilise un filtre anti-repliement, qui est un simple filtre passe-bas de fréquence de coupure Fe/2. Le chapitre sur la psychoacoustique a permis de déterminer la fréquence maximale du spectre audible par l’homme. Cette limite, suscitant énormément de controverse, est fixée à 20kHz. La fréquence d’échantillonnage d’un système audionumérique, restituant le spectre audible par l’homme, doit donc être supérieure a 40 kHz. Cependant, on verra dans le chapitre qui suit que certaines contraintes, notamment liées au filtrage pré convertisseur, obligent le recours a une fréquence d’échantillonnage supérieure a 40 Khz. I.2.3.2. Le bruit (ou erreur) de quantification Le problème : Comme nous l’avons vu précédement, la quantification permet de convertir les valeurs analogiques prises par le signal entrant en la valeur numérique la plus proche. Le signal numérique de sortie est une approximation du signal analogique proposé en entrée du convertisseur. Cette différence entre les deux signaux est appelé « Bruit (Erreur) de quantification ». Université de Technologie de Troyes 11 Automne 2004 TX : Audionumérique et Synthèse sonore Figure 5 : Son d’orgue quantifié sur 3 bits Cette erreur de quantification dépend de deux facteurs : le signal en lui-même et l’exactitude avec laquelle il est convertit numériquement. Pour évaluer le rapport signal sur bruit d’un système quantifiant sur N bit, on utilise la relation SNR = N * 6.11 dB Soit 96 dB pour un CAN travaillant sur 16 bits. Les solutions : L’utilisation d’un nombre de bits plus élevé réduit considérablement l’impact du bruit de quantification mais va aussi augmenter la quantité d’information stockée sur le medium (CD, Disque dur). Le standard 24 bits semble s’être imposé pour les systèmes audionumériques de « haute qualités ». On peut également noter l’intérêt de la technique du suréchantillonnage qui permet une augmentation du rapport signal bruit de 3dB pour un facteur de suréchantillonnage de 2. Cette technique est présentée en annexe. I.2.3.3. Le bruit de quantification à faible niveau Le problème : La quantification d’un signal de très faible niveau ne provoque des variations que sur le bit le plus bas. Ces variations de 1 bit ont l’apparence d’une onde carrée qui est un signal riche en harmonique. Ceci provoque donc une grande variation par rapport au signal d’entrée. Bien évidemment, si le signal est gardé à un faible niveau d’écoute, ces artefacts peuvent être ignorés. Université de Technologie de Troyes 12 Automne 2004 TX : Audionumérique et Synthèse sonore Une solution : Pour combattre ce problème de quantification à faible niveau, on utilise le procédé du Bruit de dispersion (ou dithering). Ce dernier consiste à introduire une incertitude aléatoire (un bruit) sur le signal en vue de minimiser les effets du bruit de quantification. sinusoide a 1kHz d amplitude 1/2 bit 3000 2000 1000 0 0 2000 4000 6000 8000 10000 sinusoide a 1kHz d amplitude 1/2 bit avec utilisation du dithering avant CAN 3000 2000 1000 0 0 2000 4000 6000 8000 10000 Figure 6 : Mise en évidence de l’intérêt du dithering L’exemple ci-dessus permet de mettre en évidence l’efficacité du procédé. Une sinusoïde de fréquence 1kHz d’amplitude ½ bit est présenté en entrée du convertisseur A/N, elle est transformée en un signal carré après quantification (apparition des harmoniques impaires). L’utilisation d’un bruit (d’amplitude comprise entre -0.5 et 0.5) va atténuer les harmoniques du signal carré (figure2) I.2.3.4. La distorsion de phase Le problème : Nous avons vu précédemment que la conversion analogique numérique nécessite un filtrage du signal analogique afin d’éviter les problèmes de repliements du spectre. Cependant ce filtre passe-bas (du a sa forte pente) introduit une distorsion sur le signal analogique. Université de Technologie de Troyes 13 Automne 2004 TX : Audionumérique et Synthèse sonore Figure 7 : Exemple de distorsion de phase Le schéma présenté ci-dessus montre l’artefact lié à la pente du filtre : la distorsion de phase. Les deux courbes représentent un signal carré de fréquence 100 Hz filtré par un filtre passebas de type Butterworth d’ordre 10 et de fréquence de coupure 1000 Hz. • Le signal en bleu résulte d’un filtrage sans correction de phase (la phase n’évolue pas de façon linéaire avec la fréquence). • Le signal en rouge résulte d’un filtrage avec correction de phase Ce type de distorsion est causé par le filtre anti-repliement. Le filtrage en mur de brique possède une courbe raide de rejet de fréquence pouvant aller jusqu'à 90dB/octave à la fréquence de Nyquist. (Woszczyk et Toole 1983). Musicalement, ce phénomène est perceptible et donne un son « dur » et peu naturel aux hautes fréquences. Les solutions : Pour corriger ce problème, les solutions ont été de 3 types. • Application d’un filtre de repliement moins raide (de 40 à 60 dB/octave) • Application d’un filtre correction temporelle avant la conversion Analogique Numérique (Blesser 1984, Greenspun 1984, Meyer 1984) • Application de la technologie de suréchantillonnage (technique la plus utilisée) I.2.4. Implémentation des convertisseurs Signal Audio Filtre Passe-bas Conversion A/N Stockage Figure 8 : Implémentation d’un Convertisseur Analogique Numérique (CAN) Prenons comme exemple le format CD (44.1kHz 16 bits). Le filtre passe-bas a pour paramètre une fréquence de coupure de 20 kHz, ainsi que la suppression de toutes fréquences supérieures a 22.05kHz. (Respect du critère du Nyquist) Le convertisseur A/N peut alors échantillonner à une fréquence de 44.1kHz et quantifier sur 16 bits. Université de Technologie de Troyes 14 Automne 2004 TX : Audionumérique et Synthèse sonore II. Synthèse sonore II.1. Introduction a la synthèse sonore Avant de commencer l’étude des différentes synthèses sonores, il est nécessaire d’introduire des notions communes à toutes les formes de synthèse. II.1.1. Les enveloppes Une enveloppe permet de définir une variation de l’amplitude d’un son ou d’un oscillateur en fonction du temps. Dans la plupart des synthétiseurs commerciaux, l’enveloppe d’amplitude est défini par quatre paramètres : L’attaque, le déclin, le maintien et le relâchement (enveloppe ADSR en anglais). Ce type d’enveloppe est très populaire car leur forme permet d’approcher les propriétés physiques et acoustiques d’un instrument. 1 0.5 0 -0.5 -1 0 0.02 0.04 0.06 Figure 9 : Enveloppe ADSR D’autres types d’enveloppe sont utilisés suivant le type d’application sonore. Par exemple, la synthèse granulaire présentée dans un chapitre suivant utilisée des enveloppes type « courbe de Gauss » pour contrôler l’amplitude des grains. Les applications de « sound designing » actuelles permettent un contrôle des enveloppes très précis n’utilisant plus 4 points caractéristiques (ADSR) mais 128 afin de contrôler l’amplitude des oscillateurs. Université de Technologie de Troyes 15 Automne 2004 TX : Audionumérique et Synthèse sonore II.1.2. Le formalisme utilisé Pour synthétiser le fonctionnement des instruments développés via Matlab©, un formalisme sera utilisé. Les différents composants (modules) de ce formalisme sont présentés ci-dessous. II.1.2.1. Les générateurs de signaux Par défaut, l’inscription OSC décrit l’utilisation d’un générateur de signal sinusoïdal. L’utilisation d’un Sortie OSC Amplitude autre type de signal (différent d’une sinusoïde) sera mentionnée en dessous de l’inscription OSC. L’entrée « Fréquence » permet de contrôler la fréquence de l’oscillateur. L’entrée « Amplitude » correspond à l’amplitude du signal, il sera très courant que cette entrée soit, en fait, la sortie d’une enveloppe. Fréquence II.1.2.2. Les enveloppes Sortie Le type d’enveloppe utilisé est indiqué via la courbe affichée sur le module. La sortie sert directement à contrôler d’autres modules tels qu’un générateur ou un mixeur. Sortie Le mixeur est un module permettant de réaliser la somme des signaux en entrée et de délivrer un signal de sortie. Le signal de sortie est normalisé c'est-à-dire que l’amplitude maximale est 1. II.1.2.3. Les mixeurs Entrée1 Entrée2 + II.1.2.4. Les filtres Le type filtre est indiqué par les abréviations présentes dans le module ( LP pour un filtre passe-bas, HP pour LP Sortie un filtre passe-haut). Un filtre possède au minimum une entrée (la fréquence de coupure). L’utilisation d’un filtre multi pôle sera signalée sur le module, indiquant le nombre de pôle. L’utilisation de ce type de filtre entraîne l’ajout d’entrées supplémentaires au module afin de contrôler la résonance. Fréquence coupure Université de Technologie de Troyes 16 Automne 2004 TX : Audionumérique et Synthèse sonore II.2. La synthèse additive II.2.1. Historique La synthèse additive est l’une des techniques de synthèses les plus anciennes et l’une de celles qui ont suscité le plus de recherche. Le concept de synthèse additive date de plusieurs siècles (Moyen Age) car il fut, tout d’abord, appliqué dans les orgues d’église grâce à leurs multitudes de registres. En tirant un registre l’air pouvait être dirigé dans un ensemble de tuyaux qui, combinés ensemble, fournissaient un son complexe. En 1906, l’énorme synthétiseur Telharmonium permettait d’additionner le résultat de douzaine de générateurs électriques. Ensuite la commercialisation des orgues Hammond a permis de démocratiser cette première forme de synthèse sonore à un grand nombre de musiciens. II.2.2. Principe La synthèse additive se base sur le théorème de Fourier qui explique qu’un signal peut être décomposé en une somme de signaux sinusoïdaux. x(t ) = ∑ X n .e 2 jπnf 0 .t (Signal périodique) n∈Ζ Xn est un coefficient de Fourier de x(t). Ainsi il est théoriquement possible d’approcher de près n’importe quelle forme d’onde complexe en additionnant des formes d’ondes complémentaires. II.2.3. Implémentation L’implémentation de la synthèse additive est simple, il suffit de sommer la sortie de plusieurs oscillateurs. L’exemple d’implémentation simule de manière basique le fonctionnement des orgues Hammond : - Utilisation de 2 groupes de 4 oscillateurs - Contrôle de l’amplitude d’un groupe avec une enveloppe ADSR - Résultat final obtenu grâce à une addition des signaux audio. Pour une fréquence fondamentale f, les 8 oscillateurs utilisent comme fréquences respectives, f, 2f, 3f, 4f, 6f, 8f, 12f et 16f Les orgues Hammond possèdent des tirettes (ajustable par le musicien) pour contrôler l’amplitude de chaque oscillateur Université de Technologie de Troyes 17 Automne 2004 TX : Audionumérique et Synthèse sonore F=f1 A=A1 F=f2 A=A2 F=f3 A=A3 F=f4 A=A4 F=f5 A=A5 F=f6 A=A6 F=f7 A=A7 F=f8 A=A8 OSC Enveloppe1 OSC + OSC OSC + OSC Enveloppe2 Signal Sortie OSC + OSC OSC Figure 10 : Modélisation d’un instrument de synthèse additive Figure 11 : Représentation fréquentielle du signal (f=100 Hz) Université de Technologie de Troyes 18 Automne 2004 TX : Audionumérique et Synthèse sonore II.3. La synthèse soustractive II.3.1. Historique La synthèse additive, présentée précédemment, permet en théorie d’approximer n’importe quel son. Malheureusement le poids, en terme de calculs, est souvent très important surtout si le son possède un spectre riche en harmoniques. La synthèse soustractive est une solution permettant d’obtenir un son complexe (spectre riche) avec un poids, en terme de calcul, assez faible et au spectre modulable dans le temps. Un des premiers exemples de synthèse soustractive variant dans le temps est le système SYSTER, un processeur de traitement numérique du signal développé à la fin des années 70 au Groupe de Recherches Musicales (GRM) à Paris. Aujourd’hui, les machines utilisant la synthèse soustractive, comme la TB303 ou les synthétiseurs « Moog », sont devenues très populaires dans les musiques électroniques. II.3.2. Principe La synthèse soustractive utilise des générateurs de signaux riches en harmoniques qui sont ensuite filtrés via un filtre variant dans le temp. Les signaux, les plus souvent utilisés, sont présentés ci-dessous : Générateur de signal carré Le signal contient des harmoniques impaires, sa série de Fourier s'écrit : X (t ) = ∑ 1 n∈ℜ (2n + 1) . sin( 2.π .(2n + 1).F0 .t ) Générateur de signale en dent de scie Le signal contenant toutes les harmoniques, sa série de Fourier s'écrit : X (t ) = ∑ 1 . sin( 2.π .n.F0 .t ) n n∈ℜ Le grand intérêt de la synthèse soustractive réside dans l’utilisation d’un ou de plusieurs filtres (type passe-bas, passe-bande, passe-haut) sur ces signaux. Musicalement et subjectivement parlant, certains filtres « sonnent » mieux que d’autres. Dans un contexte musical, les filtres multi-pôles sont très utilisés Ces filtres possèdent 2 paramètres : - la fréquence de coupure variant de 0 à 20 kHz - la résonance (variant de 0 à1 ) autour de la fréquence de coupure. Ces deux paramètres peuvent être modifiés en temps réel via des potentiomètres. Ils offrent ainsi aux musiciens un contrôle riche sur la matière sonore. Université de Technologie de Troyes 19 Automne 2004 TX : Audionumérique et Synthèse sonore L’influence de ces paramètres sur la fonction de transfert du filtre est présentée dans le schéma qui suit Figure 12 : Filtre Passe-Bas :2 pôles II.3.3. Implémentation Pour illustrer le fonctionnement de la synthèse soustractive, nous allons nous focaliser sur un instrument développé par Roland, la TB303 devenue aujourd’hui un instrument de collection. Cet instrument est celui qui fut le premier (Rebirth 1996) et le plus largement émulé en software. Caractéristiques techniques (simplifiées) - deux générateurs de signaux (carré ou dent de scie) - un filtre passe-bas (2 pôles). A=1 f sélecteur OSC Carré + Sélection désaccordage A=1 OSC Dents de Scie Fréquence de coupure Résonance LP 2 pôles Signal Sortie (Vers effets) Figure 13 : Implémentation d’un instrument de la synthèse soustractive Rmq : La qualité des émulations software réside essentiellement dans la modélisation du filtre Université de Technologie de Troyes 20 Automne 2004 TX : Audionumérique et Synthèse sonore L’exemple MATLAB approxime le filtre via un filtre de chebychev (oscillations dans la bande passante) et un effet de delay est utilisé en sortie du filtre. II.4. La synthèse FM II.4.1. Historique En 1973, le chercheur John Chowning de l’université de Stanford en Californie, expérimenta les techniques de vibrato extrêmes, lorsque le vibrato devient si rapide qu’il affecte le timbre du signal. Apres des expériences effectuées avec soin pour explorer le potentiel de cette technique, Chowning déposa un brevet pour l’implémentation de la FM. En 1975, la firme japonaise Nippon Gakki (Yamaha) obtint une licence pour appliquer le brevet à ses productions. Après plusieurs années de développements et d’améliorations de la technique de base, Yamaha présenta le coûteux synthétiseur numérique GS1 (13000 €) en 1980 mais ce fut l’introduction du synthétiseur DX7 de Yamaha en 1983 (1500€) qui démocratisa cette synthèse. II.4.2. Principe Pour expliquer le fonctionnement de cette synthèse, nous allons expliquer les possibilités du DX7. Le DX7 possède 6 oscillateurs (nommés A,B,C,D,E et F) qui effectuent des opérations spécifiques suivant leur positionnement dans une chaîne de câblage, d’où leur appellation d’opérateurs plutôt que d’oscillateurs. Chaque câblage s’appelle un algorithme. Le réglage des paramètres est similaire à ceux d’un oscillateur classique avec un choix de fréquence fixe en supplément. Figure 14 : Exemple d’algorithme de modulation Le fonctionnement de l’algorithme de base en FM utilise 2 opérateurs câblés en série. Le premier est une modulante et sa sortie attaque l’entrée en fréquence du second qui se nomme porteuse (rmq : Un oscillateur peut être modulé par lui-même). Université de Technologie de Troyes 21 Automne 2004 TX : Audionumérique et Synthèse sonore Il n’y a pas d’opérateur qui ait la vocation d’être systématiquement modulante ou porteuse. Chaque opérateur possède une entrée en amplitude et une autre en fréquence. C’est la position dans le câblage qui lui confère le rôle de porteuse ou de modulante. Lorsqu’il n’y a pas de modulation en fréquence, la sortie de la porteuse est une fréquence unique celle de porteuse fp. Au fur et a mesure que le niveau de modulation augmente, de part et d’autre de la porteuse vont apparaître des fréquence parallèle toujours équidistante de la valeur fm (Voir démonstration). Soit x(t) le signal de sortie, fp la fréquence de la porteuse et fm la fréquence de la modulante : ∞ x(t ) = A. ∑ J n ( β ) sin(2π ( f p + nf m )t ) Jn(B) est une fonction de Bessel d’ordre n n = −∞ frequence porteuse 5000, frequence modulante 500 4000 Amplitude 3000 2000 1000 0 3000 4000 5000 6000 Frequence (Hz) 7000 Figure 15 : Spectre d’un oscillateur modulé un fréquence par un second Fm=Fp : Toutes les fréquences qui apparaissent sont distantes de Fm. On génère donc la série harmonique de fréquence fondamentale Fm. Fp=2*Fm : Toutes les fréquences sont distantes de 2*Fm. On génère la série harmonique impaire. Université de Technologie de Troyes 22 Automne 2004 TX : Audionumérique et Synthèse sonore II.4.3. Implémentation Fm1 A1 OSC Fp1 + OSC Fm2 A2 OSC Fp2 + OSC + Signal Sortie Fm3 A3 OSC Fp3 + OSC Figure 16 : Configuration de l’instrument Matlab (3 couples d’opérateur Fm) L’instrument Matlab est construit à partir de 3 couples d’oscillateur (porteuse/modulante). Le signal final est la somme des sorties des 3 couples. Pour des timbres plus complexes, il est possible d’utiliser des formes d’onde complexes dans chaque oscillateur. Figure 17 : représentation fréquentielle du signal Université de Technologie de Troyes 23 Automne 2004 TX : Audionumérique et Synthèse sonore II.5. La synthèse granulaire II.5.1. Historique 1616 : Isaac Beekman établit une théorie corpusculaire du son. 1946 : Dennis Gabor propose une approche granulaire ou quantique du son. Selon lui, la représentation pouvait décrire n’importe quel son. 1960 : Iannis Xenakis fut le premier à fournir une explication compositionnelle des grains sonores. Il créa des sons granulaires en utilisant des générateurs de son analogiques et du découpage de bande. 1974 : Curtis Roads développa la première implémentation logicielle de synthèse granulaire à l’Université de Californie, San Diego. II.5.2. Principe La synthèse granulaire se base sur le principe suivant : « Tout son, même une variation musicale continue, est conçu comme un assemblage d’un grand nombre de sons élémentaires disposés de façon adéquate dans le temps. Dans l’attaque, le corps et l’extinction d’un son, des milliers de sons purs apparaissent dans un intervalle de temps ∆t plus ou moins long » Le son peut donc être considéré sous forme d’ondes ou de particules. La synthèse granulaire construit des événements sonores à partir de milliers de grains sonores de paramètres différents. II.5.2.1. Le grain sonore Le grain sonore constitue une représentation convenable du son car il combine informations temporelles (moment de départ, durée, enveloppe et forme d’onde) et informations fréquentielles (période de la forme d’onde à l’intérieur du grain, spectre de la forme d’onde). La durée du grain peut-être constant, aléatoire ou fonction de la fréquence. Ceci signifie, par exemple, que l’on peut affecter des durées plus courtes aux grains de hautes fréquences. Une enveloppe d’amplitude modèle chaque grain. La forme d’onde à l’intérieur du grain peut-être de deux types : - synthétique : Ces formes d’ondes sont, en général, des sommes de sinusoïdes lues à une fréquence spécifique. - échantillonné : Pour les grains échantillonnés, on extrait la forme d’onde à partir d’un endroit stipulé dans un fichier audio. II.5.2.2. Organisations granulaires de haut niveau Il est intéressant de noter que c’est le niveau de contrôle des paramètres grain par grain qui permet les effets rendus par cette méthode. Cependant, d’un point de vue pratique, la spécification de chacun des paramètres des grains peut s’avérer fastidieuse (ex. 6 paramètres pour un grain 1 ms). Pour palier à cet inconvénient, on a mis en place des systèmes Université de Technologie de Troyes 24 Automne 2004 TX : Audionumérique et Synthèse sonore d’organisations granulaires de haut niveau qui permettent aux compositeurs de stipuler de grandes quantités de grains en n’utilisant que quelques paramètres globaux. Les méthodes de synthèse granulaire existantes peuvent être classées en cinq catégories, selon le type d’organisation des grains : - Grilles de Fourier et d’ondelettes et écrans : La représentation granulaire est purement interne dans l’analyse de Fourier et l’analyse en ondelettes. En fait, un but technique de ces méthodes est de créer l’illusion d’un traitement du signal continu, semblable à une méthode analogique. Pour cela, elles associent à chaque point d’une grille d’analyse une unité d’énergie temps fréquence – un grain ou une ondelette. (cf Figure 18) Une grille de Fourier divise les domaines fréquentiels et temporels en unités limitées. Chaque rangée représente un canal de fréquence et chaque colonne indique une période de temps. L’assombrissement de chaque carré indique l’intensité dans cette région temps fréquence. (cf Figure 18) Fréquence Temps Figure 18 : Cet exemple montre un son montant en fréquence et devenant de plus en plus fort. - Synthèse granulaire synchrone aux hauteurs : C’est une technique conçue pour la génération de sons comportant une ou plusieurs régions formantiques dans leur spectre. Elle comporte plusieurs étapes. La première est une détection de hauteur. Chaque période de hauteur est traitée comme une unité séparée ou grain. Une analyse spectrale est effectuée pour chaque grain. Le système en tire la réponse impulsionnelle du spectre et utilise celle-ci pour déterminer les paramètres du filtrage de la resynthèse. En resynthèse, un train d’impulsions à la période de hauteur détectée pilote une banque de filtres à réponse impulsionnelle finie. Le signal de sortie résulte de l’excitation du train d’impulsions sur la somme des réponses impulsionnelles de tous les filtres. A chaque tranche temporelle, le système émet un grain qui est superposé et ajouté aux grains précédents pour créer un signal lissé. - Synthèse granulaire quasi synchrone : Elle génère un ou plusieurs flux de grains, ceux-ci se suivant, avec un période de retard variable entre les grains. En combinant plusieurs flux de grains quasi synchrones en parallèle (chaque flux créant son propre formant autour d’une fréquence séparée), le signal peut simuler les résonances de la voix chantée ou d’un instrument acoustique. Université de Technologie de Troyes 25 Automne 2004 TX : Audionumérique et Synthèse sonore - Synthèse granulaire asynchrone : Cette synthèse s’est montrée efficace pour modeler des sons qui seraient difficiles à décrire avec des techniques plus anciennes. Elle disperse les grains de façon statique sur une durée spécifiée à l’intérieur dans un plan fréquence temps, appelé nuage. Il est possible de spécifier un nuage selon les paramètres suivants : le temps de départ et durée du nuage, la durée du grain (constant, aléatoire ou fonction de la fréquence), La densité des grains par seconde, la largeur de bande du nuage, l’enveloppe d’amplitude du nuage, la forme d’onde à l’intérieur du grain et la dispersion spatiale des grains dans le nuage. - Granulation temporelle d’un son échantillonné : La granulation temporelle de sons enregistrés fait pénétrer le matériau acoustique dans une sorte de moissonneuse logique délivrant des grains dans un nouvel ordre avec un nouveau microrythme. C’est à dire que le « granutateur » lit une petite partie du son échantillonné et applique une enveloppe à la portion lue. L’ordre dans lequel ce grain est émis (c’est à dire son retard) dépend des paramètres sélectionnés par le compositeur. La granulation temporelle se fait selon trois cas différents : granulation d’un fichier son stocké, granulation continue en temps réel d’un son donné en entrée et granulation continue en temps réel d’un son donné en entrée avec lecture à un taux temporel variable. II.5.3. Implémentation Notre implémentation se base sur un instrument appelé « travelizer » qui utilise de la granulation temporelle de son échantillonné. Figure 19 : Instrument Matlab L’instrument réalise l’opération du dessus un certain nombre de fois (30 par défaut). A chaque fois, un grain de longueur L seconde est prélevé à la position définit par l’utilisateur. Ensuite, on applique une enveloppe d’amplitude et on l’injecte dans une ligne de retard. Université de Technologie de Troyes 26 Automne 2004 TX : Audionumérique et Synthèse sonore II.6. Synthèse par modèle physique II.6.1. Historique Les concepts, la terminologie et certaines des formules employées en synthèse par modèle physique remontent aux traités scientifiques du 19ème siècle sur la nature du son. On peut d’ailleurs cité parmi ces travaux, l’ouvrage de lord Rayleigh (1894-1945), The Theory of Sound. D’autres pionniers de ce siècle construisirent des modèles mécaniques pour simuler la physique des instruments de musique (Helmholtz 1863, Poynting et Thomson 1900, Tyndall 1875, Mayer 1878). Les premiers modèles analogiques électroniques furent construits au début du siècle dernier. Olson (1967) construit des modèles physiques à circuits analogiques d’instruments de percussion, des instruments à anche, des instruments à corde frappée et de la voix. John Kelly et Carol Lochbaum aux Bell Telephone Laboratories furent des pionniers dans l’adaptation d’un modèle physique de la voix humaine sur un ordinateur numérique. Lejaren Hiller, James Beauchamp et Pierre Ruiz à l’université d’Illinois furent les premiers à adapter les modèles physiques à la synthèse des instruments (1967-1971). L’intérêt, dans l’application des guides d’ondes à la synthèse, fut provoqué par la découverte de l’algorithme de corde pincée de Karplus-Strong (1983). En 1993, la compagnie Yamaha présenta des synthétiseurs commerciaux basés sur les guides d’onde, le VL1 et le VP1. II.6.2. Principe La synthèse par modèle physique prend sa source dans les modèles mathématiques de l’acoustique de la production sonore des instruments. C’est-à-dire que les équations de modèle physique décrivent le comportement mécanique et acoustique d’un instrument joué. II.6.2.1. Excitation et résonance Un principe fondamental de la synthèse par modèles physiques est l’interaction entre un excitateur et un résonateur. Une excitation est une action qui provoque des vibrations (coup d’archet, coup de baguette ou souffle d’air). Une résonance est la réponse du corps d’un instrument à la vibration excitatrice. C’est l’interaction entre l’excitation et la résonance qui crée la variété et la subtilité du son que l’on entend lors des interprétations musicales. II.6.2.2. Méthodologie classique des modèles physiques La méthode classique suit le processus suivant : - Spécification des dimensions physiques et des constantes des objets vibrants telles que leur masse et leur élasticité. - Stipulation des conditions limites auxquelles l’objet vibrant est contraint. - Spécification de l’état initial du système. - Spécification de l’excitation dans l’algorithme. - Spécification du filtrage comme restriction supplémentaire aux conditions initiales. Il résulte de ce processus un système plutôt compliqué qui représente le modèle physique d’un instrument. L’équation d’onde correspondante, qui combine tous ces facteurs, est soumise aux conditions initiales et à l’excitation. Université de Technologie de Troyes 27 Automne 2004 TX : Audionumérique et Synthèse sonore En dessous de cette méthodologie, il existe un ensemble d’équations différentielles basées sur un modèle de structure vibrante, le paradigme masse-ressort. II.6.3. Implémentation Pour illustrer un cas d’implémentation de la synthèse sonore par modèle physique, on peut illustrer le cas simple (en terme musical) d’une corde de guitare. II.6.3.1. Equation de propagation Pour pouvoir agir sur la propagation, il est nécessaire d’avoir un modèle mathématique de l’onde qui se propage. Toutes grandeurs caractérisant l’onde acoustique sont solutions d’une équation différentielle du second ordre appelée équation de propagation. Pour une onde transversale, l’équation des ondes s’écrit : 2 ∂2 y 2 ∂ y =C . 2 ∂t 2 ∂x Pour un signal pur se propageant dans un milieu unidimensionnel, la solution générale de l’équation de propagation en un point M quelconque du milieu de propagation est de la forme suivante : y ( x, t ) = A. cos[ωt − kx + ϕ ] + B. cos[ωt + kx + ϕ ] (1) Le premier terme A. cos[ωt − kx + ϕ ] est appelé onde progressive aller, elle s’éloigne du point source. Le second terme B. cos[ωt + kx + ϕ ] est appelé onde progressive retour, elle revient vers le point source. Le déphasage ϕ dépend des conditions initiales de l’onde acoustique. Le coefficient k est appelé facteur d’onde et est égal à ω C II.6.3.2. Application Nous n’allons pas ici nous attarder sur la résolution physique et acoustique d’une corde de guitare qui est une discipline adressée aux acousticiens (la solution est toutefois présentée en annexe). Nous préférons axer l’étude sur l’aspect traitement du signal. En effet, certains algorithmes permettent d’approximer la solution (1). Historiquement, les prémices de la synthèse sonore par modèle physique ont débuté dans les années 1980. Les deux chercheurs, Karplus et Strong de l’université de Stanford, ont alors trouvé (par hasard dit l’histoire) un algorithme simple en terme de calculs, aux sonorités proches de celles des cordes pincées. Cet algorithme appelé aussi algorithme Karplus Strong est un outil redoutable pour la synthèse sonore par modèle physique. Son implémentation est expliquée dans le Computer Music Journal de 1983, intitulé : « Digital Synthesis of PluckedString and Drum Timbres ». Université de Technologie de Troyes 28 Automne 2004 TX : Audionumérique et Synthèse sonore Principe de l’algorithme de Karplus Strong Phase1 : Phase2 : On alimente la ligne de retard par un bruit. La ligne de retour est alors bouclée. Pour chaque boucle, une partie du signal est dissipée et filtrée passe bas. Le coefficient de dissipation permet de recréer une perte du signal (causé en réalité par la friction de l’air et le chevalet). Ce coefficient doit avoir une valeur proche de 1. Le filtre passe bas est réalisé en additionnant l’échantillon n avec l’échantillon n-1 et en divisant le résultat par 2. La fréquence fondamentale du système est déterminée par le nombre d’échantillons présents dans la ligne de retard (fondamentale=Fe/N). Le programme matlab développé dans le cadre de cette TX implémente cet algorithme. Représentation tridimensionnelle (temps, fréquence, amplitude) du signal Signal généré par l’algorithme de Karplus Strong Ce modèle est toutefois assez basique et ne permet pas de jouer sur beaucoup de paramètres. Ainsi, un grand nombre de chercheur ont contribué à perfectionner cet algorithme en créant des systèmes complexes avec de multiples lignes de retard et filtres : Université de Technologie de Troyes 29 Automne 2004 TX : Audionumérique et Synthèse sonore Jaffe, D.A. & Smith, J.O.(1983) « Extensions of the Karplus-Strong plucked-string algorithm » Computer Music Journal. Sullivan, C.R.(1990). Extending the Karplus-Strong algorithm to synthesize electric guitar timbres with distortion and feedback. Computer Music Journal, 14(3), 26-36. La première implémentation commerciale des ces systèmes fut distribué par Yamaha avec la série des synthétiseurs VL dans les années 90. A l’heure actuelle, les produits n’ont cessé de se perfectionner et les sons produits sont très convaincants. Université de Technologie de Troyes 30 Automne 2004 TX : Audionumérique et Synthèse sonore II.7. Synthèse Les synthèses étudiées dans le cadre de cette TX sont largement intégrées dans les synthétiseurs. Cependant, il existe également d’autres types de synthèses sonores comme la synthèse neuronale, stochastique et chaotique mais leur implémentation reste marginale. Aujourd’hui la puissance sonore des gros synthétiseurs, combinant une multitude de synthèse, n’est plus à prouver. Ainsi, même si initialement les synthétiseurs étaient destinés aux musiques électroniques et au « sound designing », les frontières ont aujourd’hui étaient dépassées. La quasi-totalité des musiques actuelles bénéficie largement de leur puissance afin de définir au mieux l’ambiance d’une production musicale, et cela aussi bien en studio que sur scène. Enfin, il est clair que la puissance sonore d’un synthétiseur dépend du nombre de synthèses qu’il implémente et des possibilités de modulation. Les synthétiseurs virtuels (implémentation software de leur confrère hardware) permettent aujourd’hui aux utilisateurs de créer leurs propres synthétiseurs en assemblant différents modules de synthèses et en les interconnectant. Ces synthétiseurs sont appelés « synthétiseurs modulaires ». Ils offrent aujourd’hui les sonorités les plus « riches » (subjectivement parlant) tout en bénéficiant de la convivialité des interfaces informatiques. Aujourd’hui, deux produits semblent se démarquer du lot : Reaktor 4 (développé par Native Instrument) véritable usine à gaz, unanimement reconnu par les professionnels de la musique. Il implémente des modules de synthèses additives, soustractives, FM, par Modèles Physiques et granulaire. L’utilisateur définit à la fois son instrument et l’interface. Tassman3 (développé par Applied Acoustics Systems), synthétiseur accès sur la synthèse sonore par modèle physique. Il implémente également des modules de synthèses additive, soustractive et FM. Bien que ces logiciels ne demandent aucun prérequis en programmation, de bonnes notions en synthèse sonore sont vivement conseillées lorsque l’on veut éditer ses propres instruments. Université de Technologie de Troyes 31 Automne 2004 TX : Audionumérique et Synthèse sonore Conclusion Ce sujet nous a permis de mettre en application les enseignements dispensés dans des matières comme SY06 et IF01. Le chapitre traitant de la Conversion Analogique/Numérique nous a également permis de développer plus précisément une application des convertisseurs dans un domaine bien particulier qui est l’audio. Une multitude d’artefacts nuisibles pour l’auditeur comme le repliement spectral et le bruit de quantification rendent cette conversion difficile et viennent se confronter à la théorie. En tout cas, aujourd’hui, le choix semble s’être penché vers des convertisseurs surréchantillonneurs permettant de stocker les échantillons numériques à une fréquence d’échantillonnage de 96kHz et une quantification de 24 bits. Le chapitre traitant de la synthèse sonore est complété de fichiers Matlab implémentant de façon très simpliste la totalité des synthèses présentées dans ce rapport. Différents outils du traitement du signal ont été utilisés, générateur de signal, filtres, ligne de retard, etc, le tout complété par une analyse théorique. Au niveau de la formation GSID/RCE, ce sujet nous a donné la possibilité d’approfondir un peu plus nos connaissances en traitement du signal, mais également de comprendre les bases de l’audionumérique, domaine particulièrement important dans le milieu des télécommunications. Université de Technologie de Troyes 32 Automne 2004 TX : Audionumérique et Synthèse sonore Annexes Université de Technologie de Troyes 33 Automne 2004 TX : Audionumérique et Synthèse sonore Annexe 1 : Repliement Spectral Considérons une sinusoïde de fréquence f 0 échantillonnée à Fe=44100Khz (Format CD) On considère également que f 0 ∈ [ Fe / 2, Fe] donc supérieur à la fréquence de Nyquist Soit x(t) le signal correspondant à la sinusoïde. x(t) = sin ( 2.π . f .t ) 0 X(f) = 1 [δ ( f − f 0 ) − δ ( f + f 0 )] 2j En échantillonnant le signal a la fréquence Fe, on obtient : X e(f) = ∑ X ( f − nFe) n∈Ζ X e(f) = ∑ 1 n∈Ζ 2j [δ ( f − f 0 − nFe) − δ ( f + f 0 − nFe)] Intéressons nous à la bande audible du format CD [0,Fe/2] On obtient alors comme fréquence reconstituée fr =Fe- f0 ≠ f0: Rmq : On remarque également une symétrie (impaire) par rapport à la fréquence de Nyquist Posons simplement f0=Fe/2+f1,, on a alors: f 0 − Fe / 2 = f 1 f r − Fe / 2 = − f1 On parle alors de miroir spectral. Université de Technologie de Troyes 34 Automne 2004 TX : Audionumérique et Synthèse sonore Annexe 2 : Suréchantillonnage Le suréchantillonnage apporte deux avantages majeurs : • Réduction de la distorsion de phase (causée par le filtre anti-repliement en mur de brique) • Amélioration du rapport signal bruit de 3dB par facteur de suréchantillonnage de 2. L’implémentation d’un type de convertisseur A/N suréchantillonneur est présentée ci-dessous. On définit Fs comme étant la fréquence d’échantillonnage du système et « facteur » comme étant le facteur de suréchantillonnage. La phase de conversion va se faire sur Nbit. Signal Analogique Analogique Filtre Passe-bas Conversion A/N fc=facteur.Fs/2 Conversion Analogique-numérique De fréquence d’échantillonnage Fe Fe=facteur.Fs Nombre Bit=Nbit et quantifiant sur Nbit Numérique Filtre Passe-bas fc=Fs/2 Décimation Fe= Fs Filtre Passe-bas numérique permettant d’éviter le phénomène de repliement lors de la phase de décimation des échantillons Décimation des échantillons. Conservation d’un échantillon sur Fe/Fs Stockage de l’information sur un medium (CD, disque dur etc) Stockage Université de Technologie de Troyes Filtre Anti-repliement filtrant les composantes supérieures à la fréquence de coupure fc 35 Automne 2004 TX : Audionumérique et Synthèse sonore Influence du suréchantillonnage sur le rapport signal bruit. Prenons comme exemple une sinusoïde de fréquence 1kHz, échantillonnée à 44.1kHz et quantifiée sur 16 bits. On va réduire la fréquence d’échantillonnage à 5512 Hz et la quantification à 3 bits. • Le premier schéma correspond à la représentation fréquentielle du signal d’origine (44100Hz/16 bits) • Le second schéma correspond à la représentation fréquentielle du résultat dans le cas : - Filtrage passe-bas (fréquence de coupure 5512/2=2756) - Diminution de la fréquence d’échantillonnage de 44100 Hz à 5512 Hz. - Réduction de la quantification de 16 à 3 bits • Le troisième schéma correspond à la représentation fréquentielle du résultat dans le cas : - Réduction de la quantification de 16 à 3 bits - Filtrage passe-bas (fréquence de coupure 5512/2=2756) - Diminution de la fréquence d’échantillonnage de 44100 Hz à 5512 Hz. Le but de l’expérience est d’illustrer l’augmentation du rapport signal bruit dans le cas de l’utilisation du suréchantillonnage lors de la numérisation d’un signal audio. 1 44100Hz/16 bits 2 5512Hz/3 bits 3 5512Hz/3 bits suréchantillonnés 8X Le fait de quantifier avec un nombre de bits plus faible va introduire la présence d’harmoniques aux fréquences (2n+1)*f (apparence plus carré du signal). Il s’avère en fait qu’expérimentalement les harmoniques sont présentes aux fréquences 5f,7f,11f,13f,17f,19f etc etc Dans le 2ème schéma, ces harmoniques se replient, d’où l’apparition des pics : - Pour n=1, on obtient un pic à Fe/2-(3f -Fe/2) . Si l’on considère le cas précédent (avec f=1000 et Fe=5512), on obtient un pic à 2512 Hz.( cf 3). - Pour n=2, on obtient un pic à Fe/2-(5f -Fe/2) . Si l’on considère le cas précédent (avec f=1000 et Fe=5512), on obtient un pic à 512 Hz.( cf 1). - Pour n=3, on obtient un pic à Fe/2-(7f -Fe/2) . Si l’on considère le cas précédent (avec f=1000 et Fe=5512), on obtient un pic à 1488 Hz.( cf 2) ème Dans le 3 l’utilisation de la technique du suréchantillonnage (avant le stockage des informations) et notamment l’utilisation du filtre passe-bas de fréquence de coupure Fe/2 va supprimer les composantes harmoniques susceptibles de se replier. Université de Technologie de Troyes 36 Automne 2004 TX : Audionumérique et Synthèse sonore Annexe 3 : Modulation de fréquence x(t ) = A. sin(2πf p t + β sin(2πf mt ) { x(t ) = ℑm{A.e x(t ) = ℑm A.e j ( 2πf p t + β sin( 2πf m t )) j 2πf p t } } (1) .e jβ sin( 2πf mt ) Décomposition en série de Fourier du terme e jβ sin( 2πf mt ) ∞ e jβ sin( 2πf mt ) = ∑a e n = −∞ jn 2πf m t n (2) Calcul des coefficients an an = an = 1 T 1 T T 2 ∫e jβ sin( 2πf m t ) − jn 2πf m t ∫e j [β sin( 2πf m t ) − 2πnf m t ] T − 2 T 2 e dt dt T − 2 2π 2π t et dξ = dt T T On pose ensuite ξ = 2πf mt = 1 On obtient alors an = 2π T 2 ∫e j [β sin(ξ ) − nξ ] dξ T − 2 Ce qui correspond à une fonction de Bessel d’ordre n, an = J n ( β ) D’où dans (2) : e jβ sin( 2πf mt ) = ∞ ∑J n = −∞ n ( β )e j 2πnf mt ⎫ ⎧ j 2πf t ∞ Ainsi dans (1), on a : x(t ) = ℑm⎨ A.e p . ∑ J n ( β )e j 2πnf mt ⎬ n = −∞ ⎭ ⎩ ∞ ⎧ j 2 π ( f p + nf m ) t ⎫ x ( t ) = ℑ m ⎨ A. ∑ J n ( β ) e ⎬ ⎭ ⎩ n = −∞ ∞ Finalement x(t ) = A. ∑ J n ( β ) sin(2π ( f p + nf m )t ) n = −∞ Soit X ( f ) = ∞ [ A . ∑ J n ( β ). δ ( f p − nf m ) − δ ( f p + nf m ) 2 j n = −∞ Université de Technologie de Troyes 37 ] Automne 2004 TX : Audionumérique et Synthèse sonore Annexe 4 : Etude vibratoire d’une corde Equation de propagation des vibrations transversales y ( x, t ) , le long d’une corde métallique, à section circulaire, tendue suivant l’axe x' ox . I. Hypothèses L’élongation y ( x, t ) et la pente ∂y ( x, t ) sont toujours faibles quels que soient x et t. ∂x La corde est homogène : sa masse par unité de longueur µ est constante. La corde et un fil sans raideur suffisamment tendue pour que la force de pesanteur s’exerçant ⎯⎯→ sur tout éléments de corde soit négligeable devant la résultante des forces de tension T . Tout élément de corde ne peut se mouvoir que selon l’axe oy , la corde restant dans le plan xoy . II. Résolution du système Equation de propagation y ( x, t ) (corde vibrante) ∂ ² y ( x, t ) ∂ ² y ( x, t ) T = C² où C = µ étant la masse linéique. ∂t ² ∂x ² µ Rmq : C=364.1m.s-1 y ( x, t ) = F ( x).G (t ) (1) Séparation des variables temps et position ∂y ( x, t ) ∂ ² y ( x, t ) = F ' ( x).G (t ) ⇒ = F ' ' ( x).G (t ) ∂x ∂x ² ∂y ( x, t ) ∂ ² y ( x, t ) = F ( x).G ' (t ) ⇒ = F ( x).G ' ' (t ) ∂t ∂t ² Donc l’équation de propagation peut aussi s’écrire F ( x).G ' ' (t ) = C ².F ' ' ( x).G (t ) Soit F ' ' ( x) 1 G ' ' (t ) F ' ' ( x) 1 G ' ' (t ) . . = qui est vrai si et seulement si = =K F ( x) C ² G (t ) F ( x) C ² G (t ) Université de Technologie de Troyes 38 Automne 2004 TX : Audionumérique et Synthèse sonore On obtient alors le système F ' ' ( x) − KF ( x) = 0 G ' ' ( x) − C ².K .G ( x) = 0 Les solutions dépendent du signe de K. II.1 Solution spatiale Solution spatiale pour K > 0 c'est-à-dire K = k ² F ' ' ( x) − k ².F ( x) = 0 β ² − k² = 0 ⇒ β ± k Ce qui donne F ( x) = A.e β1x + B.e β 2 x = A.e − kx + B.e + kx Utilisation des conditions limites y (0, t ) = y ( L, t ) = 0 y (0, t ) = 0 ⇒ A + B = 0 ⇒ A = − B y ( L, t ) = 0 ⇒ A.(e − kL − e + kL ) = 0 ⇒ A = 0 Solution spatiale pour K < 0 c'est-à-dire K = −k ² F ' ' ( x) + k ².F ( x) = 0 β ² + k ² = 0 ⇒ β ² = −k ² = j ² k ² ⇒ β ± jk Ce qui donne F ( x) = A.e β1x + B.e β 2 x = A.e − jkx + B.e + jkx F ( x) = A cos(kx) + B sin( kx) Utilisation des conditions limites y (0, t ) = y ( L, t ) = 0 y (0, t ) = 0 ⇒ A = 0 nπ y ( L, t ) = 0 ⇒ B sin( kL) = 0 ⇒ kL = nπ ⇒ k = avec n ∈ Ν L ∞ nπx On obtient alors comme solution F ( x) = ∑ B sin( ) (2) L n =0 II.2 Solution temporelle G ' ' (t ) − C ².K .G (t ) = 0 G ' ' (t ) + C ².k ².G (t ) = 0 pour K = − k ² Posons w = kC , on obtient alors G ' ' (t ) + w²G (t ) = 0 Soit G (t ) = A. cos( wt ) + B sin( wt ) (3) II.3 Conclusion Finalement d’après (2) et (3), on obtient dans (1) ∞ y ( x, t ) = ∑ sin( n =1 nπx nπCt nπCt ).(a cos( ) + b sin( )) (4) L L L ∞ Qui peut également s’écrire sous la forme y ( x, t ) = ∑ Dn . sin(ω n t + ϕ n ) sin( n =1 Université de Technologie de Troyes 39 nπx ) L Automne 2004 TX : Audionumérique et Synthèse sonore III. Résolution du système pour des cordes frappées Les conditions initiales pour (4) sont les suivantes ∂y ( x,0) = u pour a ≤ x ≤ a + e ∂t ∂y ( x,0) = 0 pour 0 ≤ x ≤ a et (a + e) ≤ x ≤ L ∂t III.1 Calcul de an 2 nπx .∫ y ( x,0). sin( )dx or y ( x,0) = 0 L 0 L L an = donc a n = 0 (5) III.2 Calcul de bn L 2 nπx ∂y bn = .∫ ( x,0). sin( )dx nπC 0 ∂t L a a+e L ∂y ∂y 2 ⎡ ∂y nπx nπx nπx ⎤ bn = .⎢ ∫ ( x,0). sin( )dx + ∫ ( x,0). sin( )dx + ∫ ( x,0). sin( )dx ⎥ ∂t ∂t nπC ⎣ 0 ∂t L L L a a +e ⎦ a +e 2 ⎡ 2u L nπx ⎤ .⎢u. ∫ sin( )dx ⎥ = . bn = nπC ⎣ a L ⎦ nπC nπ cad bn = a +e nπx ⎤ ⎡ ⎢⎣− cos( L )⎥⎦ a 2uL ⎛ nπ (a + e) anπ ⎞ ) + cos( )⎟ ⎜ − cos( n²π ²C ⎝ L L ⎠ 2uL ⎛ nπa nπe nπa nπe nπa ⎞ ) cos( ) − sin( ) sin( ) − cos( )⎟ ⎜ cos( n ²π ²C ⎝ L L L L L ⎠ e n.π .e ⎛ n.π .e ⎞ ⎛ n.π .e ⎞ n.π .e Or << 1 ⇒ → 0 cad cos⎜ ⎟ ≈ 1 et sin ⎜ ⎟≈ L L L ⎝ L ⎠ ⎝ L ⎠ 2ue ⎛ a.n.π ⎞ . sin ⎜ On obtient finalement bn = ⎟ (6) nπC ⎝ L ⎠ III.3 Conclusion bn = D’après (5) et (6), on obtient dans (4) 2ue ⎛ n.π .a ⎞ ⎛ n.π .x ⎞ ⎛ n.π .C.t ⎞ . sin ⎜ ⎟. sin ⎜ ⎟. sin ⎜ ⎟ ⎝ L ⎠ ⎝ L ⎠ ⎝ L ⎠ n =1 nπC ∞ y ( x, t ) = ∑ Université de Technologie de Troyes 40 Automne 2004 TX : Audionumérique et Synthèse sonore IV. Résolution du système pour des cordes pincées Les conditions initiales pour (4) sont les suivantes : 2hx pour 0 ≤ x ≤ L / 2 L 2h y ( x,0) = ( L − x) pour L / 2 ≤ x ≤ L L IV.1 Calcul de an L 2 nπx a n = .∫ y ( x,0). sin( )dx L 0 L y ( x,0) = L/2 L 2 ⎡ nπx nπx ⎤ a n = .⎢ ∫ y ( x,0). sin( )dx + ∫ y ( x,0). sin( )dx ⎥ L⎣0 L L L/2 ⎦ L/2 L nπx nπx ⎤ 2 ⎡ 2hx 2h( L − x ) a n = .⎢ ∫ . sin( )dx + ∫ . sin( )dx ⎥ L⎣0 L L L L L/2 ⎦ L/2 L 4h ⎡ nπx nπx ⎤ an = .⎢ ∫ x. sin( )dx + ∫ ( L − x). sin( )dx ⎥ (7) L² ⎣ 0 L L L/2 ⎦ L/2 ⎡ xL nπx ⎛ nπx ⎞⎤ )dx = ⎢− cos⎜ or ∫ x. sin( ⎟⎥ L ⎝ L ⎠⎦ 0 ⎣ nπ 0 L/2 L/2 − ∫ 0 −L ⎛ nπx ⎞ . cos⎜ ⎟dx nπ ⎝ L ⎠ nπx L² L² ⎛ nπ ⎞ ⎛ nπ ⎞ )dx = − cos⎜ sin ⎜ ⎟+ ⎟ L 2 nπ ⎝ 2 ⎠ n ²π ² ⎝ 2 ⎠ 0 En utilisant le même raisonnement pour le second terme de (7), on obtient L/2 ∫ x. sin( nπ 8h . sin( ) n ²π ² 2 or si n = 2 p → a n = 0 an = et si n = 2 p + 1 → a n = (−1) p 8h (8) (2 p + 1)²π ² IV.2 Calcul de bn dy ( x,0) =0 dt IV.3 Conclusion bn = 0 (9) car D’après (8) et (9), on obtient dans (4) Université de Technologie de Troyes 41 Automne 2004 TX : Audionumérique et Synthèse sonore y ( x, t ) = 8h ∞ (−1) p ⎛ (2 p + 1)πCt ⎞ ⎛ (2 p + 1)πx ⎞ . cos⎜ ⎟. sin ⎜ ⎟ ∑ L L π ² p =0 (2 p + 1)² ⎝ ⎠ ⎝ ⎠ V. Interprétation Etude du premier mode de vibration pour une corde frappée La corde prend la forme d’un fuseau qui oscille autour de sa position d’équilibre à la C . Cette fréquence fondamentale est la plus basse que peut produire la corde fréquence f 0 = 2.L dans les conditions présentes. Il est possible pour un musicien de faire varier facilement cette fréquence fondamentale. On remarque aussi que : Lorsque T augmente f 0 augmente. Lorsque la masse linéique augmente f 0 diminue. Lorsque la longueur diminue f 0 augmente. Université de Technologie de Troyes 42 Automne 2004