Untitled - Impala Utopia

Transcription

Untitled - Impala Utopia
TX : Audionumérique et Synthèse sonore
Remerciements
Nous tenons à remercier particulièrement Mr Regis Lengelle pour le temps qu’il nous a
consacré et pour ces explications.
Nous tenons également à remercier Mr Alain Millet pour les explications qu’il nous a
apportées sur la modélisation physique des instruments à cordes.
Enfin nous remercions Mr Nicolas Castagné, chercheur en synthèse sonore par modèle
physique travaillant dans l’organisme ACROE/ICA et rédacteur de plusieurs document parus
dans les Computer Music Journal , pour ces explications sur la synthèse sonore par modèle
physique.
Université de Technologie de Troyes
1
Automne 2004
TX : Audionumérique et Synthèse sonore
Table des matières
Introduction _______________________________________________________________ 4
I. Numérisation des signaux audios ____________________________________________ 5
I.1. Introduction à la Psychoacoustique ______________________________________ 5
I.1.1. L’appareil auditif humain ____________________________________________ 5
I.1.2. Perception de l’intensité______________________________________________ 6
I.1.3. Perception des fréquences ____________________________________________ 6
I.1.4. Effet de masque.____________________________________________________ 7
I.1.5. Image spatiale _____________________________________________________ 8
I.2. Conversion Analogique Numérique ______________________________________ 9
I.2.1. Historique_________________________________________________________ 9
I.2.1.1. L’analogique ___________________________________________________ 9
I.2.1.2. Le numérique __________________________________________________ 9
I.2.2. Le principe de la Conversion Analogique Numérique (CAN) ________________ 9
I.2.3. Les problèmes liés à la conversion et leur solution ________________________ 10
I.2.3.1. Le recouvrement spectral ________________________________________ 10
I.2.3.2. Le bruit (ou erreur) de quantification _______________________________ 11
I.2.3.3. Le bruit de quantification à faible niveau ____________________________ 12
I.2.3.4. La distorsion de phase___________________________________________ 13
I.2.4. Implémentation des convertisseurs ____________________________________ 14
II. Synthèse sonore _________________________________________________________ 15
II.1. Introduction a la synthèse sonore ______________________________________ 15
II.1.1. Les enveloppes ___________________________________________________ 15
II.1.2. Le formalisme utilisé ______________________________________________ 16
II.1.2.1. Les générateurs de signaux ______________________________________ 16
II.1.2.2. Les enveloppes _______________________________________________ 16
II.1.2.3. Les mixeurs __________________________________________________ 16
II.1.2.4. Les filtres ____________________________________________________ 16
II.2. La synthèse sonore additive ___________________________________________ 17
II.2.1. Historique _______________________________________________________ 17
II.2.2. Principe_________________________________________________________ 17
II.2.3. Implémentation___________________________________________________ 17
II.3. La synthèse soustractive ______________________________________________ 19
II.3.1. Historique _______________________________________________________ 19
II.3.2. Principe_________________________________________________________ 19
II.3.3. Implémentation___________________________________________________ 20
II.4. Synthèse FM _______________________________________________________ 21
II.4.1. Historique _______________________________________________________ 21
II.4.2. Principe_________________________________________________________ 21
II.4.3. Implémentation___________________________________________________ 23
II.5. Synthèse granulaire__________________________________________________ 24
II.5.1. Historique _______________________________________________________ 24
II.5.2. Principe_________________________________________________________ 24
II.5.2.1. Le grain sonore _______________________________________________ 24
Université de Technologie de Troyes
2
Automne 2004
TX : Audionumérique et Synthèse sonore
II.5.2.2. Organisations granulaires de haut niveau ___________________________ 24
II.5.3. Implémentation___________________________________________________ 26
II.6. Synthèse sonore par modèle physique___________________________________ 27
II.6.1. Historique _______________________________________________________ 27
II.6.2. Principe_________________________________________________________ 27
II.6.2.1. Excitation et résonance _________________________________________ 27
II.6.2.2. Méthodologie classique des modèles physiques ______________________ 27
II.6.3. Implementation___________________________________________________ 28
II.6.3.1. Equation de propagation ________________________________________ 28
II.6.3.2. Application __________________________________________________ 28
II.7. Synthèse ___________________________________________________________ 31
Conclusion _______________________________________________________________ 32
Annexes__________________________________________________________________ 33
Université de Technologie de Troyes
3
Automne 2004
TX : Audionumérique et Synthèse sonore
Introduction
Les techniques numériques sont de plus en plus souvent utilisées et trouvent des
domaines d’application de plus en plus important. A ce titre, nous avons décidé de réaliser un
travail de recherche sur quelques techniques numériques dans un domaine particulier :
l’audio.
Dans notre travail sur les signaux audio, nous avons considéré deux aspects :
l’audionumérique et la synthèse sonore. L’audionumérique est la discipline regroupant
l’ensemble des aspects lié à la numérisation de signaux sonores. La synthèse sonore permet
d’obtenir des productions sonores originales à partir de techniques variées en utilisant des
outils du traitement du signal.
Après une introduction sur la psychoacoustique, nous présenterons la conversion
analogique numérique et ses problèmes. Puis nous verrons quelques exemples de synthèses
sonores.
Université de Technologie de Troyes
4
Automne 2004
TX : Audionumérique et Synthèse sonore
I. Numérisation des signaux audios
I.1. Introduction à la Psychoacoustique
I.1.1. L’appareil auditif humain
Nos oreilles sont tout aussi remarquables que nos yeux. Elles ont accès aux ondes sonores
d’amplitudes pouvant varier dans une gamme dynamique très importante et, en association
avec notre cerveau, elles peuvent instantanément identifier la direction d’où leur parvient le
son, en reconnaître la fréquence et les caractéristiques, et accéder au contenu informatif dans
le cas de la parole. En vue de la conception de système audio, il est important de comprendre
les possibilités et les limites de cet appareil biologique. La discipline qui concerne l’étude de
cet appareil est communément appelée psychoacoustique.
Figure 1 : Représentation schématique du système auditif humain
La cochlée est montrée ici déroulée ; elle est normalement
enroulée comme la coquille d’un escargot.
La figure montre une représentation de l’oreille humaine appelée aussi système auditif
périphérique. Le système auditif périphérique peut être décomposé en trois parties : l’oreille
externe, l’oreille moyenne et l’oreille interne.
-
L’oreille externe, amplifie les vibrations entrantes de l’air.
L’oreille moyenne traduit ces vibrations en vibrations mécaniques
L’oreille interne effectue filtre ces vibrations puis les traduit mécaniquement,
hydrodynamiquement et électrochimiquement. Les signaux électrochimiques sont
transmis jusqu’au cerveau par les nerfs auditifs.
La cochlée est l’organe central de l’oreille qui, via un ensemble de mécanismes complexes,
traduit les vibrations en signaux neuraux ou code. Les signaux sont véhiculés jusqu’au
cerveau. Celui-ci s’occupe alors de combiner les signaux en provenance des deux oreilles afin
de construire l’image spatiale et d’analyser les informations sonores (dans le cas de la parole).
Université de Technologie de Troyes
5
Automne 2004
TX : Audionumérique et Synthèse sonore
I.1.2. Perception de l’intensité
L’intensité est liée à l’énergie (ou variation de pression d’air) d’une onde.
L’attribut perceptuel lié à l’intensité s’appelle la sonie (force sonore). Cependant comme nous
allons le voir par la suite, il n’existe pas de relations simples reliant l’intensité et la sonie. En
effet la force sonore dépend de paramètres tels que la fréquence des ondes sonores, la durée et
les sons d’arrière-plan etc.
L’appareil auditif humain est capable d’entendre une étendue large d’intensité. De plus la
sensibilité aux changements d’intensité est proportionnelle à la quantité d’intensité. On utilise
alors logiquement une échelle logarithmique pour décrire l’intensité sonore.
L’intensité est alors mesurée en terme de niveau de pression (SPL :sound pressure level)
définit par la relation.
dBSPL = 20 log( P
P0
)
La pression de référence P0 est de 2.10-5 N/m2. Elle correspond au seuil de l’audition pour une
fréquence de 1kHz.
L’exposition prolongée à des intensités fortes (120 dB : seuil de douleur) peut provoquer des
traumatismes graves et irrémédiables pour l’appareil auditif humain. Ce seuil peut être atteint
par la pollution sonore urbaine (circulation routière, marteaux piqueurs, aéroport etc) et les
événements musicaux de grandes ampleurs.
I.1.3. Perception des fréquences
L’oreille, en théorie, peut détecter des fréquences comprises entre 20Hz et 20kHz.
Les propriétés remarquables sont exposées ci dessous :
• L’attribut de sonie est fonction de la fréquence, la région la plus sensible est située
entre 2700Hz et 3200Hz et la sensibilité chute plus ou moins graduellement sur
chaque côté de ces régions cela signifie pour une personne qu’une sinusoïde a
3kHz ayant une certaine intensité va sonner plus « fortement » qu’une sinusoïde à
200Hz ou 8kHz ayant la même intensité. (cf annexe Diagramme de FletcherMunson : Courbes isophoniques)
• Les sons en dessous de 20Hz, plus graves, ne sont pas perçus par l’oreille mais
certains d’entre eux peuvent être captés par la paroi abdominale (propriété
largement utilisée dans les musiques et bruitages de film, le son n’est plus entendu
mais ressenti).
• La limite supérieure de 20kHz dépend de beaucoup de paramètres comme l’âge.
De récentes études scientifiques ont montré que la limite supérieure de la
sensibilité peut s’étendre bien au-dessus de 20kHz. La limite de 20 Khz est un
sujet brûlant suscitant beaucoup de controverses chez les scientifiques.
Les diagrammes de Fletcher Mundson témoignent de ces propriétés. Les courbes sont
présentées ci-dessous.
Fletcher, Munson,1933. « Loudness, its definition, measurement, and calculation. »Journal of
the Acoustical Society of America
Université de Technologie de Troyes
6
Automne 2004
TX : Audionumérique et Synthèse sonore
Figure2 : Diagramme de Fletcher-Munson : Courbes isophoniques
Les phones correspondent aux décibels d’un son pur a 1000 Hz. Ainsi une sinusoïde à 1000
Hz ayant une intensité de 40 dB SPL aura une sonie de 40 phones. Si nous voulons produire
une sinusoïde a 300 Hz avec le même niveau de sonie que celle de 1000 Hz ayant un niveau
d’intensité de 40 dB, nous pouvons suivre la courbe de 40 phones de 1000 a 300 Hz, et nous
voyons qu’il faut environ 47 dB SPL pour obtenir ce même niveau de sonie.
I.1.4. Effet de masque
Les études concernant l’interaction, sur le plan de la perception, de plusieurs sons ont exposé
un phénomène important, l’effet de masque.
Les grands points de ce phénomène sont les suivants :
•
•
•
Masque simultané : Un son d’intensité faible peut être masqué par un autre son
d’intensité plus élevée. Une combinaison de deux sons peut aussi provoquer
l’apparition de nouvelles harmoniques (son différentiel et son différentiel cubique).
Masque en avant : un événement sonore peut en masquer un autre, apparaissant après
son extinction.
Masque en arrière : un événement sonore peut en masque un autre, apparaissant avant
son arrivée.
Le format de compression mp3, permettant de diviser la quantité d’informations sonores par
11, se base essentiellement sur les propriétés d’effets de masque.
Université de Technologie de Troyes
7
Automne 2004
TX : Audionumérique et Synthèse sonore
I.1.5. Image spatiale
L’oreille couplée à un système d’analyse complexe (le cerveau) permet de localiser les
événements sonores dans l’espace.
En temps normal, nous bougeons sans arrêt la tête, ne serait-ce que de quelques millimètres,
dans les trois dimensions, et ces déplacements infinitésimaux se traduisent, par des micros
modifications de perception. Ce phénomène permet de localiser les sources dans un espace
tridimensionnel. Concrètement, le système humain permet en moyenne de détecter des
mouvements de source sonore de 3° dans l’espace.
Dans la nature l’écoute est transaurale c'est-à-dire que les sons en provenance d’une enceinte
localisée à droite vont quand même parvenir à l’oreille gauche de l’auditeur, il y a corrélation
entre les canaux. Par opposition l’écoute au casque est qualifiée de binaurale, car chaque
oreille perçoit un signal qui lui est propre. Ce système d’écoute empêche le cerveau à placer le
signal dans un espace à 3 dimensions.
Rmq : Le procédé Dolby Headphone, permet de remédier à ce problème via des études
complexes sur l’acoustique virtuelle et offre à l’auditeur un paysage sonore tridimensionnel
à partir d’un casque.
Cette introduction à la psychoacoustique constitue des connaissances essentielles pour
l’élaboration de systèmes audionumériques.
Cependant cette discipline est complexe et les chercheurs dans le domaine sont peu
nombreux. Il est clair que l’appareil auditif est un organe très complexe, on peut imaginer que
d’autres paramètres comme la langue et l’environnement jouent un rôle important dans la
perception des sons.
Université de Technologie de Troyes
8
Automne 2004
TX : Audionumérique et Synthèse sonore
I.2. Conversion Analogique Numérique
I.2.1. Historique
I.2.1.1. L’analogique
Le terme « analogique » fait référence à la forme d’onde codée sur bande magnétique.
Les dates clés sont :
- 1922 : enregistrement optique sur film
- 1930 : enregistrement sur bande recouverte de matériaux magnétiques pulvérisés
- Apres la Seconde Guerre Mondiale : Démocratisation des enregistreurs allemand
« Magnetophon ».
Les enregistrements « analogiques » continuent encore d’être améliorés mais doivent
faire face à des limites physiques fondamentales. Ces limites sont plus apparentes lors de la
copie d’un support analogique a un autre : un bruit additionnel est inévitable.
L’enregistrement numérique, discrétisation du signal analogique, a su pallier ces
contraintes.
I.2.1.2. Le numérique
Il est intéressant de dresser un historique relatif à la numérisation du signal.
Les dates clés sont :
- 1841 : Travaux de Louis Cauchy (1er version du théorème fondamental de
l’échantillonnage)
- 1928 : Travaux de Harold Nyquist (Théorème de l’échantillonnage)
- 1948 : Développement de la théorie de l’information par Shannon
- 1977 : Premier enregistreur numérique développé par Sony
- 1982 : Démocratisation du format CD 44,1kHz/16 bits
I.2.2. Le principe de la Conversion Analogique Numérique (CAN)
La conversion analogique-numérique est l’opération qui permet de passer d’un signal
analogique à un signal numérique.
Cette dernière, qui n’est autre qu’une discrétisation du signal, se base sur deux phases
distinctes : l’échantillonnage et la quantification.
Considérons le cas suivant : Un signal analogique est présenté à l’entrée du
convertisseur, ce signal est alors échantillonné avec une fréquence d’échantillonnage Fe, puis
quantifié suivant un certain nombre de bits. On obtient alors en sortie du convertisseur une
succession de mots binaires.
Dans le cas précédent, il est à noter que l’ordre des opérations est interchangeable, ce
dernier n’ayant aucune influence sur le résultat.
Université de Technologie de Troyes
9
Automne 2004
TX : Audionumérique et Synthèse sonore
Considérons le signal sonore analogique ci dessous :
Figure 3 : Phases de la conversion analogique-numérique
L’échantillonnage est le processus consistant à ne retenir d’un signal analogique que
ses valeurs à des instants réguliers (tout les Te)
La quantification est le processus qui consiste à convertir les valeurs analogiques
prises par une fonction continue en la valeur numérique la plus proche parmi celles qui sont
disponibles.
I.2.3. Les problèmes liés à la conversion et leur solution
I.2.3.1. Le recouvrement spectral
Le problème :
Lors d’un échantillonnage, le spectre du signal numérisé est égal à la transformée de
Fourier convolué avec un peigne de Dirac (cf. Annexe) :
X e(f) = X ( f ) * ∑ δ ( f − nFe) = ∑ X ( f − nFe)
n∈Ζ
Université de Technologie de Troyes
n∈Ζ
10
Automne 2004
TX : Audionumérique et Synthèse sonore
Cependant, dans certains cas, on peut observer le phénomène suivant :
Figure4 : Repliement d’un spectre
Il y a superposition de la partie repliée qui correspond aux hautes fréquences du signal
avec la bande [Fe − F max, Fe / 2] du signal x(t). Ce phénomène est appelé « repliement
spectrale ».
La solution :
La solution à ce type de problème fut apportée par le théorème de l’échantillonnage.
Afin d’obtenir une restitution du signal la plus proche possible de l’original, il est
nécessaire de respecter le théorème de l’échantillonnage. Ce théorème spécifie la relation
entre le taux d’échantillonnage et la largeur de bande audio.
Soit un signal de fréquence maximale fmax, et fe la fréquence d’échantillonnage
minimal nécessaire à la numérisation du signal, le théorème d’échantillonnage spécifie la
condition :
f e ≥ 2. f max
Cette condition est aussi appelée critère de Nyquist ou de Shanon.
Dans la pratique, pour éviter ce phénomène, on utilise un filtre anti-repliement, qui est
un simple filtre passe-bas de fréquence de coupure Fe/2.
Le chapitre sur la psychoacoustique a permis de déterminer la fréquence maximale du
spectre audible par l’homme. Cette limite, suscitant énormément de controverse, est fixée à
20kHz.
La fréquence d’échantillonnage d’un système audionumérique, restituant le spectre
audible par l’homme, doit donc être supérieure a 40 kHz. Cependant, on verra dans le chapitre
qui suit que certaines contraintes, notamment liées au filtrage pré convertisseur, obligent le
recours a une fréquence d’échantillonnage supérieure a 40 Khz.
I.2.3.2. Le bruit (ou erreur) de quantification
Le problème :
Comme nous l’avons vu précédement, la quantification permet de convertir les valeurs
analogiques prises par le signal entrant en la valeur numérique la plus proche.
Le signal numérique de sortie est une approximation du signal analogique proposé en
entrée du convertisseur. Cette différence entre les deux signaux est appelé « Bruit (Erreur) de
quantification ».
Université de Technologie de Troyes
11
Automne 2004
TX : Audionumérique et Synthèse sonore
Figure 5 : Son d’orgue quantifié sur 3 bits
Cette erreur de quantification dépend de deux facteurs : le signal en lui-même et
l’exactitude avec laquelle il est convertit numériquement.
Pour évaluer le rapport signal sur bruit d’un système quantifiant sur N bit, on utilise la relation
SNR = N * 6.11 dB
Soit 96 dB pour un CAN travaillant sur 16 bits.
Les solutions :
L’utilisation d’un nombre de bits plus élevé réduit considérablement l’impact du bruit
de quantification mais va aussi augmenter la quantité d’information stockée sur le medium
(CD, Disque dur). Le standard 24 bits semble s’être imposé pour les systèmes
audionumériques de « haute qualités ».
On peut également noter l’intérêt de la technique du suréchantillonnage qui permet
une augmentation du rapport signal bruit de 3dB pour un facteur de suréchantillonnage de 2.
Cette technique est présentée en annexe.
I.2.3.3. Le bruit de quantification à faible niveau
Le problème :
La quantification d’un signal de très faible niveau ne provoque des variations que sur
le bit le plus bas. Ces variations de 1 bit ont l’apparence d’une onde carrée qui est un signal
riche en harmonique. Ceci provoque donc une grande variation par rapport au signal d’entrée.
Bien évidemment, si le signal est gardé à un faible niveau d’écoute, ces artefacts peuvent être
ignorés.
Université de Technologie de Troyes
12
Automne 2004
TX : Audionumérique et Synthèse sonore
Une solution :
Pour combattre ce problème de quantification à faible niveau, on utilise le procédé du
Bruit de dispersion (ou dithering). Ce dernier consiste à introduire une incertitude aléatoire
(un bruit) sur le signal en vue de minimiser les effets du bruit de quantification.
sinusoide a 1kHz d amplitude 1/2 bit
3000
2000
1000
0
0
2000
4000
6000
8000
10000
sinusoide a 1kHz d amplitude 1/2 bit avec utilisation du dithering avant CAN
3000
2000
1000
0
0
2000
4000
6000
8000
10000
Figure 6 : Mise en évidence de l’intérêt du dithering
L’exemple ci-dessus permet de mettre en évidence l’efficacité du procédé.
Une sinusoïde de fréquence 1kHz d’amplitude ½ bit est présenté en entrée du convertisseur
A/N, elle est transformée en un signal carré après quantification (apparition des harmoniques
impaires).
L’utilisation d’un bruit (d’amplitude comprise entre -0.5 et 0.5) va atténuer les harmoniques
du signal carré (figure2)
I.2.3.4. La distorsion de phase
Le problème :
Nous avons vu précédemment que la conversion analogique numérique nécessite un
filtrage du signal analogique afin d’éviter les problèmes de repliements du spectre. Cependant
ce filtre passe-bas (du a sa forte pente) introduit une distorsion sur le signal analogique.
Université de Technologie de Troyes
13
Automne 2004
TX : Audionumérique et Synthèse sonore
Figure 7 : Exemple de distorsion de phase
Le schéma présenté ci-dessus montre l’artefact lié à la pente du filtre : la distorsion de phase.
Les deux courbes représentent un signal carré de fréquence 100 Hz filtré par un filtre passebas de type Butterworth d’ordre 10 et de fréquence de coupure 1000 Hz.
• Le signal en bleu résulte d’un filtrage sans correction de phase (la phase n’évolue pas
de façon linéaire avec la fréquence).
• Le signal en rouge résulte d’un filtrage avec correction de phase
Ce type de distorsion est causé par le filtre anti-repliement. Le filtrage en mur de brique
possède une courbe raide de rejet de fréquence pouvant aller jusqu'à 90dB/octave à la
fréquence de Nyquist. (Woszczyk et Toole 1983). Musicalement, ce phénomène est
perceptible et donne un son « dur » et peu naturel aux hautes fréquences.
Les solutions :
Pour corriger ce problème, les solutions ont été de 3 types.
• Application d’un filtre de repliement moins raide (de 40 à 60 dB/octave)
• Application d’un filtre correction temporelle avant la conversion Analogique
Numérique (Blesser 1984, Greenspun 1984, Meyer 1984)
• Application de la technologie de suréchantillonnage (technique la plus utilisée)
I.2.4. Implémentation des convertisseurs
Signal
Audio
Filtre
Passe-bas
Conversion
A/N
Stockage
Figure 8 : Implémentation d’un Convertisseur Analogique Numérique (CAN)
Prenons comme exemple le format CD (44.1kHz 16 bits). Le filtre passe-bas a pour
paramètre une fréquence de coupure de 20 kHz, ainsi que la suppression de toutes fréquences
supérieures a 22.05kHz. (Respect du critère du Nyquist) Le convertisseur A/N peut alors
échantillonner à une fréquence de 44.1kHz et quantifier sur 16 bits.
Université de Technologie de Troyes
14
Automne 2004
TX : Audionumérique et Synthèse sonore
II. Synthèse sonore
II.1. Introduction a la synthèse sonore
Avant de commencer l’étude des différentes synthèses sonores, il est nécessaire d’introduire
des notions communes à toutes les formes de synthèse.
II.1.1. Les enveloppes
Une enveloppe permet de définir une variation de l’amplitude d’un son ou d’un oscillateur en
fonction du temps.
Dans la plupart des synthétiseurs commerciaux, l’enveloppe d’amplitude est défini par quatre
paramètres : L’attaque, le déclin, le maintien et le relâchement (enveloppe ADSR en anglais).
Ce type d’enveloppe est très populaire car leur forme permet d’approcher les propriétés
physiques et acoustiques d’un instrument.
1
0.5
0
-0.5
-1
0
0.02
0.04
0.06
Figure 9 : Enveloppe ADSR
D’autres types d’enveloppe sont utilisés suivant le type d’application sonore. Par exemple, la
synthèse granulaire présentée dans un chapitre suivant utilisée des enveloppes type « courbe
de Gauss » pour contrôler l’amplitude des grains.
Les applications de « sound designing » actuelles permettent un contrôle des enveloppes très
précis n’utilisant plus 4 points caractéristiques (ADSR) mais 128 afin de contrôler l’amplitude
des oscillateurs.
Université de Technologie de Troyes
15
Automne 2004
TX : Audionumérique et Synthèse sonore
II.1.2. Le formalisme utilisé
Pour synthétiser le fonctionnement des instruments développés via Matlab©, un formalisme
sera utilisé. Les différents composants (modules) de ce formalisme sont présentés ci-dessous.
II.1.2.1. Les générateurs de signaux
Par défaut, l’inscription OSC décrit l’utilisation d’un
générateur de signal sinusoïdal. L’utilisation d’un
Sortie
OSC
Amplitude
autre type de signal (différent d’une sinusoïde) sera
mentionnée en dessous de l’inscription OSC.
L’entrée « Fréquence » permet de contrôler la fréquence de l’oscillateur.
L’entrée « Amplitude » correspond à l’amplitude du signal, il sera très courant que
cette entrée soit, en fait, la sortie d’une enveloppe.
Fréquence
II.1.2.2. Les enveloppes
Sortie
Le type d’enveloppe utilisé est indiqué via la courbe
affichée sur le module. La sortie sert directement à
contrôler d’autres modules tels qu’un générateur ou un
mixeur.
Sortie
Le mixeur est un module permettant de réaliser la
somme des signaux en entrée et de délivrer un signal
de sortie. Le signal de sortie est normalisé c'est-à-dire
que l’amplitude maximale est 1.
II.1.2.3. Les mixeurs
Entrée1
Entrée2
+
II.1.2.4. Les filtres
Le type filtre est indiqué par les abréviations présentes
dans le module ( LP pour un filtre passe-bas, HP pour
LP
Sortie
un filtre passe-haut). Un filtre possède au minimum
une entrée (la fréquence de coupure).
L’utilisation d’un filtre multi pôle sera signalée sur le module, indiquant le nombre de
pôle. L’utilisation de ce type de filtre entraîne l’ajout d’entrées supplémentaires au
module afin de contrôler la résonance.
Fréquence
coupure
Université de Technologie de Troyes
16
Automne 2004
TX : Audionumérique et Synthèse sonore
II.2. La synthèse additive
II.2.1. Historique
La synthèse additive est l’une des techniques de synthèses les plus anciennes et l’une
de celles qui ont suscité le plus de recherche.
Le concept de synthèse additive date de plusieurs siècles (Moyen Age) car il fut, tout
d’abord, appliqué dans les orgues d’église grâce à leurs multitudes de registres. En tirant un
registre l’air pouvait être dirigé dans un ensemble de tuyaux qui, combinés ensemble,
fournissaient un son complexe.
En 1906, l’énorme synthétiseur Telharmonium permettait d’additionner le résultat de
douzaine de générateurs électriques. Ensuite la commercialisation des orgues Hammond a
permis de démocratiser cette première forme de synthèse sonore à un grand nombre de
musiciens.
II.2.2. Principe
La synthèse additive se base sur le théorème de Fourier qui explique qu’un signal peut être
décomposé en une somme de signaux sinusoïdaux.
x(t ) = ∑ X n .e 2 jπnf 0 .t (Signal périodique)
n∈Ζ
Xn est un coefficient de Fourier de x(t).
Ainsi il est théoriquement possible d’approcher de près n’importe quelle forme d’onde
complexe en additionnant des formes d’ondes complémentaires.
II.2.3. Implémentation
L’implémentation de la synthèse additive est simple, il suffit de sommer la sortie de plusieurs
oscillateurs.
L’exemple d’implémentation simule de manière basique le fonctionnement des orgues
Hammond :
- Utilisation de 2 groupes de 4 oscillateurs
- Contrôle de l’amplitude d’un groupe avec une enveloppe ADSR
- Résultat final obtenu grâce à une addition des signaux audio.
Pour une fréquence fondamentale f, les 8 oscillateurs utilisent comme fréquences respectives,
f, 2f, 3f, 4f, 6f, 8f, 12f et 16f
Les orgues Hammond possèdent des tirettes (ajustable par le musicien) pour contrôler
l’amplitude de chaque oscillateur
Université de Technologie de Troyes
17
Automne 2004
TX : Audionumérique et Synthèse sonore
F=f1
A=A1
F=f2
A=A2
F=f3
A=A3
F=f4
A=A4
F=f5
A=A5
F=f6
A=A6
F=f7
A=A7
F=f8
A=A8
OSC
Enveloppe1
OSC
+
OSC
OSC
+
OSC
Enveloppe2
Signal
Sortie
OSC
+
OSC
OSC
Figure 10 : Modélisation d’un instrument de synthèse additive
Figure 11 : Représentation fréquentielle du signal (f=100 Hz)
Université de Technologie de Troyes
18
Automne 2004
TX : Audionumérique et Synthèse sonore
II.3. La synthèse soustractive
II.3.1. Historique
La synthèse additive, présentée précédemment, permet en théorie d’approximer n’importe
quel son.
Malheureusement le poids, en terme de calculs, est souvent très important surtout si le son
possède un spectre riche en harmoniques.
La synthèse soustractive est une solution permettant d’obtenir un son complexe (spectre riche)
avec un poids, en terme de calcul, assez faible et au spectre modulable dans le temps.
Un des premiers exemples de synthèse soustractive variant dans le temps est le système
SYSTER, un processeur de traitement numérique du signal développé à la fin des années 70
au Groupe de Recherches Musicales (GRM) à Paris.
Aujourd’hui, les machines utilisant la synthèse soustractive, comme la TB303 ou les
synthétiseurs « Moog », sont devenues très populaires dans les musiques électroniques.
II.3.2. Principe
La synthèse soustractive utilise des générateurs de signaux riches en harmoniques qui sont
ensuite filtrés via un filtre variant dans le temp. Les signaux, les plus souvent utilisés, sont
présentés ci-dessous :
Générateur de signal carré
Le signal contient des harmoniques impaires, sa série de Fourier s'écrit :
X (t ) = ∑ 1
n∈ℜ
(2n + 1)
. sin( 2.π .(2n + 1).F0 .t )
Générateur de signale en dent de scie
Le signal contenant toutes les harmoniques, sa série de Fourier s'écrit :
X (t ) = ∑ 1 . sin( 2.π .n.F0 .t )
n
n∈ℜ
Le grand intérêt de la synthèse soustractive réside dans l’utilisation d’un ou de plusieurs
filtres (type passe-bas, passe-bande, passe-haut) sur ces signaux.
Musicalement et subjectivement parlant, certains filtres « sonnent » mieux que d’autres. Dans
un contexte musical, les filtres multi-pôles sont très utilisés
Ces filtres possèdent 2 paramètres :
- la fréquence de coupure variant de 0 à 20 kHz
- la résonance (variant de 0 à1 ) autour de la fréquence de coupure.
Ces deux paramètres peuvent être modifiés en temps réel via des potentiomètres. Ils offrent
ainsi aux musiciens un contrôle riche sur la matière sonore.
Université de Technologie de Troyes
19
Automne 2004
TX : Audionumérique et Synthèse sonore
L’influence de ces paramètres sur la fonction de transfert du filtre est présentée dans le
schéma qui suit
Figure 12 : Filtre Passe-Bas :2 pôles
II.3.3. Implémentation
Pour illustrer le fonctionnement de la synthèse soustractive, nous allons nous focaliser sur un
instrument développé par Roland, la TB303 devenue aujourd’hui un instrument de collection.
Cet instrument est celui qui fut le premier (Rebirth 1996) et le plus largement émulé en
software.
Caractéristiques techniques (simplifiées)
- deux générateurs de signaux (carré ou dent de scie)
- un filtre passe-bas (2 pôles).
A=1
f
sélecteur
OSC
Carré
+
Sélection
désaccordage
A=1
OSC
Dents de Scie
Fréquence de coupure
Résonance
LP
2 pôles
Signal Sortie
(Vers effets)
Figure 13 : Implémentation d’un instrument de la synthèse soustractive
Rmq : La qualité des émulations software réside essentiellement dans la modélisation du filtre
Université de Technologie de Troyes
20
Automne 2004
TX : Audionumérique et Synthèse sonore
L’exemple MATLAB approxime le filtre via un filtre de chebychev (oscillations dans la bande
passante) et un effet de delay est utilisé en sortie du filtre.
II.4. La synthèse FM
II.4.1. Historique
En 1973, le chercheur John Chowning de l’université de Stanford en Californie, expérimenta
les techniques de vibrato extrêmes, lorsque le vibrato devient si rapide qu’il affecte le timbre
du signal.
Apres des expériences effectuées avec soin pour explorer le potentiel de cette technique,
Chowning déposa un brevet pour l’implémentation de la FM. En 1975, la firme japonaise
Nippon Gakki (Yamaha) obtint une licence pour appliquer le brevet à ses productions. Après
plusieurs années de développements et d’améliorations de la technique de base, Yamaha
présenta le coûteux synthétiseur numérique GS1 (13000 €) en 1980 mais ce fut l’introduction
du synthétiseur DX7 de Yamaha en 1983 (1500€) qui démocratisa cette synthèse.
II.4.2. Principe
Pour expliquer le fonctionnement de cette synthèse, nous allons expliquer les possibilités du
DX7.
Le DX7 possède 6 oscillateurs (nommés A,B,C,D,E et F) qui effectuent des opérations
spécifiques suivant leur positionnement dans une chaîne de câblage, d’où leur appellation
d’opérateurs plutôt que d’oscillateurs.
Chaque câblage s’appelle un algorithme. Le réglage des paramètres est similaire à ceux d’un
oscillateur classique avec un choix de fréquence fixe en supplément.
Figure 14 : Exemple d’algorithme de modulation
Le fonctionnement de l’algorithme de base en FM utilise 2 opérateurs câblés en série. Le
premier est une modulante et sa sortie attaque l’entrée en fréquence du second qui se nomme
porteuse (rmq : Un oscillateur peut être modulé par lui-même).
Université de Technologie de Troyes
21
Automne 2004
TX : Audionumérique et Synthèse sonore
Il n’y a pas d’opérateur qui ait la vocation d’être systématiquement modulante ou porteuse.
Chaque opérateur possède une entrée en amplitude et une autre en fréquence. C’est la position
dans le câblage qui lui confère le rôle de porteuse ou de modulante.
Lorsqu’il n’y a pas de modulation en fréquence, la sortie de la porteuse est une fréquence
unique celle de porteuse fp. Au fur et a mesure que le niveau de modulation augmente, de part
et d’autre de la porteuse vont apparaître des fréquence parallèle toujours équidistante de la
valeur fm (Voir démonstration).
Soit x(t) le signal de sortie, fp la fréquence de la porteuse et fm la fréquence de la modulante :
∞
x(t ) = A. ∑ J n ( β ) sin(2π ( f p + nf m )t ) Jn(B) est une fonction de Bessel d’ordre n
n = −∞
frequence porteuse 5000, frequence modulante 500
4000
Amplitude
3000
2000
1000
0
3000
4000
5000
6000
Frequence (Hz)
7000
Figure 15 : Spectre d’un oscillateur modulé un fréquence par un second
Fm=Fp : Toutes les fréquences qui apparaissent sont distantes de Fm. On génère donc la série
harmonique de fréquence fondamentale Fm.
Fp=2*Fm : Toutes les fréquences sont distantes de 2*Fm. On génère la série harmonique
impaire.
Université de Technologie de Troyes
22
Automne 2004
TX : Audionumérique et Synthèse sonore
II.4.3. Implémentation
Fm1
A1
OSC
Fp1
+
OSC
Fm2
A2
OSC
Fp2
+
OSC
+
Signal
Sortie
Fm3
A3
OSC
Fp3
+
OSC
Figure 16 : Configuration de l’instrument Matlab (3 couples d’opérateur Fm)
L’instrument Matlab est construit à partir de 3 couples d’oscillateur (porteuse/modulante). Le
signal final est la somme des sorties des 3 couples.
Pour des timbres plus complexes, il est possible d’utiliser des formes d’onde complexes dans
chaque oscillateur.
Figure 17 : représentation fréquentielle du signal
Université de Technologie de Troyes
23
Automne 2004
TX : Audionumérique et Synthèse sonore
II.5. La synthèse granulaire
II.5.1. Historique
1616 : Isaac Beekman établit une théorie corpusculaire du son.
1946 : Dennis Gabor propose une approche granulaire ou quantique du son. Selon lui, la
représentation pouvait décrire n’importe quel son.
1960 : Iannis Xenakis fut le premier à fournir une explication compositionnelle des grains
sonores. Il créa des sons granulaires en utilisant des générateurs de son analogiques et du
découpage de bande.
1974 : Curtis Roads développa la première implémentation logicielle de synthèse granulaire à
l’Université de Californie, San Diego.
II.5.2. Principe
La synthèse granulaire se base sur le principe suivant : « Tout son, même une variation
musicale continue, est conçu comme un assemblage d’un grand nombre de sons élémentaires
disposés de façon adéquate dans le temps. Dans l’attaque, le corps et l’extinction d’un son,
des milliers de sons purs apparaissent dans un intervalle de temps ∆t plus ou moins long »
Le son peut donc être considéré sous forme d’ondes ou de particules. La synthèse
granulaire construit des événements sonores à partir de milliers de grains sonores de
paramètres différents.
II.5.2.1. Le grain sonore
Le grain sonore constitue une représentation convenable du son car il combine
informations temporelles (moment de départ, durée, enveloppe et forme d’onde) et
informations fréquentielles (période de la forme d’onde à l’intérieur du grain, spectre de la
forme d’onde).
La durée du grain peut-être constant, aléatoire ou fonction de la fréquence. Ceci
signifie, par exemple, que l’on peut affecter des durées plus courtes aux grains de hautes
fréquences.
Une enveloppe d’amplitude modèle chaque grain.
La forme d’onde à l’intérieur du grain peut-être de deux types :
- synthétique : Ces formes d’ondes sont, en général, des sommes de sinusoïdes lues
à une fréquence spécifique.
- échantillonné : Pour les grains échantillonnés, on extrait la forme d’onde à partir
d’un endroit stipulé dans un fichier audio.
II.5.2.2. Organisations granulaires de haut niveau
Il est intéressant de noter que c’est le niveau de contrôle des paramètres grain par grain
qui permet les effets rendus par cette méthode. Cependant, d’un point de vue pratique, la
spécification de chacun des paramètres des grains peut s’avérer fastidieuse (ex. 6 paramètres
pour un grain 1 ms). Pour palier à cet inconvénient, on a mis en place des systèmes
Université de Technologie de Troyes
24
Automne 2004
TX : Audionumérique et Synthèse sonore
d’organisations granulaires de haut niveau qui permettent aux compositeurs de stipuler de
grandes quantités de grains en n’utilisant que quelques paramètres globaux.
Les méthodes de synthèse granulaire existantes peuvent être classées en cinq catégories, selon
le type d’organisation des grains :
-
Grilles de Fourier et d’ondelettes et écrans : La représentation granulaire est
purement interne dans l’analyse de Fourier et l’analyse en ondelettes. En fait, un
but technique de ces méthodes est de créer l’illusion d’un traitement du signal
continu, semblable à une méthode analogique. Pour cela, elles associent à chaque
point d’une grille d’analyse une unité d’énergie temps fréquence – un grain ou une
ondelette. (cf Figure 18) Une grille de Fourier divise les domaines fréquentiels et
temporels en unités limitées. Chaque rangée représente un canal de fréquence et
chaque colonne indique une période de temps. L’assombrissement de chaque carré
indique l’intensité dans cette région temps fréquence. (cf Figure 18)
Fréquence
Temps
Figure 18 : Cet exemple montre un son montant en fréquence
et devenant de plus en plus fort.
-
Synthèse granulaire synchrone aux hauteurs : C’est une technique conçue pour la
génération de sons comportant une ou plusieurs régions formantiques dans leur
spectre. Elle comporte plusieurs étapes. La première est une détection de hauteur.
Chaque période de hauteur est traitée comme une unité séparée ou grain. Une
analyse spectrale est effectuée pour chaque grain. Le système en tire la réponse
impulsionnelle du spectre et utilise celle-ci pour déterminer les paramètres du
filtrage de la resynthèse. En resynthèse, un train d’impulsions à la période de
hauteur détectée pilote une banque de filtres à réponse impulsionnelle finie. Le
signal de sortie résulte de l’excitation du train d’impulsions sur la somme des
réponses impulsionnelles de tous les filtres. A chaque tranche temporelle, le
système émet un grain qui est superposé et ajouté aux grains précédents pour créer
un signal lissé.
-
Synthèse granulaire quasi synchrone : Elle génère un ou plusieurs flux de grains,
ceux-ci se suivant, avec un période de retard variable entre les grains. En
combinant plusieurs flux de grains quasi synchrones en parallèle (chaque flux
créant son propre formant autour d’une fréquence séparée), le signal peut simuler
les résonances de la voix chantée ou d’un instrument acoustique.
Université de Technologie de Troyes
25
Automne 2004
TX : Audionumérique et Synthèse sonore
-
Synthèse granulaire asynchrone : Cette synthèse s’est montrée efficace pour
modeler des sons qui seraient difficiles à décrire avec des techniques plus
anciennes. Elle disperse les grains de façon statique sur une durée spécifiée à
l’intérieur dans un plan fréquence temps, appelé nuage. Il est possible de spécifier
un nuage selon les paramètres suivants : le temps de départ et durée du nuage, la
durée du grain (constant, aléatoire ou fonction de la fréquence), La densité des
grains par seconde, la largeur de bande du nuage, l’enveloppe d’amplitude du
nuage, la forme d’onde à l’intérieur du grain et la dispersion spatiale des grains
dans le nuage.
-
Granulation temporelle d’un son échantillonné : La granulation temporelle de sons
enregistrés fait pénétrer le matériau acoustique dans une sorte de moissonneuse
logique délivrant des grains dans un nouvel ordre avec un nouveau microrythme.
C’est à dire que le « granutateur » lit une petite partie du son échantillonné et
applique une enveloppe à la portion lue. L’ordre dans lequel ce grain est émis
(c’est à dire son retard) dépend des paramètres sélectionnés par le compositeur. La
granulation temporelle se fait selon trois cas différents : granulation d’un fichier
son stocké, granulation continue en temps réel d’un son donné en entrée et
granulation continue en temps réel d’un son donné en entrée avec lecture à un taux
temporel variable.
II.5.3. Implémentation
Notre implémentation se base sur un instrument appelé « travelizer » qui utilise de la
granulation temporelle de son échantillonné.
Figure 19 : Instrument Matlab
L’instrument réalise l’opération du dessus un certain nombre de fois (30 par défaut). A chaque
fois, un grain de longueur L seconde est prélevé à la position définit par l’utilisateur. Ensuite,
on applique une enveloppe d’amplitude et on l’injecte dans une ligne de retard.
Université de Technologie de Troyes
26
Automne 2004
TX : Audionumérique et Synthèse sonore
II.6. Synthèse par modèle physique
II.6.1. Historique
Les concepts, la terminologie et certaines des formules employées en synthèse par
modèle physique remontent aux traités scientifiques du 19ème siècle sur la nature du son. On
peut d’ailleurs cité parmi ces travaux, l’ouvrage de lord Rayleigh (1894-1945), The Theory of
Sound. D’autres pionniers de ce siècle construisirent des modèles mécaniques pour simuler la
physique des instruments de musique (Helmholtz 1863, Poynting et Thomson 1900, Tyndall
1875, Mayer 1878).
Les premiers modèles analogiques électroniques furent construits au début du siècle
dernier. Olson (1967) construit des modèles physiques à circuits analogiques d’instruments de
percussion, des instruments à anche, des instruments à corde frappée et de la voix.
John Kelly et Carol Lochbaum aux Bell Telephone Laboratories furent des pionniers
dans l’adaptation d’un modèle physique de la voix humaine sur un ordinateur numérique.
Lejaren Hiller, James Beauchamp et Pierre Ruiz à l’université d’Illinois furent les
premiers à adapter les modèles physiques à la synthèse des instruments (1967-1971).
L’intérêt, dans l’application des guides d’ondes à la synthèse, fut provoqué par la
découverte de l’algorithme de corde pincée de Karplus-Strong (1983). En 1993, la compagnie
Yamaha présenta des synthétiseurs commerciaux basés sur les guides d’onde, le VL1 et le
VP1.
II.6.2. Principe
La synthèse par modèle physique prend sa source dans les modèles mathématiques de
l’acoustique de la production sonore des instruments. C’est-à-dire que les équations de
modèle physique décrivent le comportement mécanique et acoustique d’un instrument joué.
II.6.2.1. Excitation et résonance
Un principe fondamental de la synthèse par modèles physiques est l’interaction entre
un excitateur et un résonateur. Une excitation est une action qui provoque des vibrations
(coup d’archet, coup de baguette ou souffle d’air). Une résonance est la réponse du corps d’un
instrument à la vibration excitatrice. C’est l’interaction entre l’excitation et la résonance qui
crée la variété et la subtilité du son que l’on entend lors des interprétations musicales.
II.6.2.2. Méthodologie classique des modèles physiques
La méthode classique suit le processus suivant :
- Spécification des dimensions physiques et des constantes des objets
vibrants telles que leur masse et leur élasticité.
- Stipulation des conditions limites auxquelles l’objet vibrant est contraint.
- Spécification de l’état initial du système.
- Spécification de l’excitation dans l’algorithme.
- Spécification du filtrage comme restriction supplémentaire aux conditions
initiales.
Il résulte de ce processus un système plutôt compliqué qui représente le modèle
physique d’un instrument. L’équation d’onde correspondante, qui combine tous ces facteurs,
est soumise aux conditions initiales et à l’excitation.
Université de Technologie de Troyes
27
Automne 2004
TX : Audionumérique et Synthèse sonore
En dessous de cette méthodologie, il existe un ensemble d’équations différentielles
basées sur un modèle de structure vibrante, le paradigme masse-ressort.
II.6.3. Implémentation
Pour illustrer un cas d’implémentation de la synthèse sonore par modèle physique, on peut
illustrer le cas simple (en terme musical) d’une corde de guitare.
II.6.3.1. Equation de propagation
Pour pouvoir agir sur la propagation, il est nécessaire d’avoir un modèle mathématique de
l’onde qui se propage. Toutes grandeurs caractérisant l’onde acoustique sont solutions d’une
équation différentielle du second ordre appelée équation de propagation.
Pour une onde transversale, l’équation des ondes s’écrit :
2
∂2 y
2 ∂ y
=C . 2
∂t 2
∂x
Pour un signal pur se propageant dans un milieu unidimensionnel, la solution générale de
l’équation de propagation en un point M quelconque du milieu de propagation est de la forme
suivante :
y ( x, t ) = A. cos[ωt − kx + ϕ ] + B. cos[ωt + kx + ϕ ] (1)
Le premier terme A. cos[ωt − kx + ϕ ] est appelé onde progressive aller, elle s’éloigne du
point source. Le second terme B. cos[ωt + kx + ϕ ] est appelé onde progressive retour, elle
revient vers le point source. Le déphasage ϕ dépend des conditions initiales de l’onde
acoustique. Le coefficient k est appelé facteur d’onde et est égal à
ω
C
II.6.3.2. Application
Nous n’allons pas ici nous attarder sur la résolution physique et acoustique d’une corde de
guitare qui est une discipline adressée aux acousticiens (la solution est toutefois présentée en
annexe). Nous préférons axer l’étude sur l’aspect traitement du signal. En effet, certains
algorithmes permettent d’approximer la solution (1).
Historiquement, les prémices de la synthèse sonore par modèle physique ont débuté dans les
années 1980. Les deux chercheurs, Karplus et Strong de l’université de Stanford, ont alors
trouvé (par hasard dit l’histoire) un algorithme simple en terme de calculs, aux sonorités
proches de celles des cordes pincées. Cet algorithme appelé aussi algorithme Karplus Strong
est un outil redoutable pour la synthèse sonore par modèle physique. Son implémentation est
expliquée dans le Computer Music Journal de 1983, intitulé : « Digital Synthesis of PluckedString and Drum Timbres ».
Université de Technologie de Troyes
28
Automne 2004
TX : Audionumérique et Synthèse sonore
Principe de l’algorithme de Karplus Strong
Phase1 :
Phase2 :
On alimente la ligne de retard par un bruit.
La ligne de retour est alors bouclée.
Pour chaque boucle, une partie du signal est dissipée et filtrée passe
bas.
Le coefficient de dissipation permet de recréer une perte du signal (causé en réalité par
la friction de l’air et le chevalet). Ce coefficient doit avoir une valeur proche de 1.
Le filtre passe bas est réalisé en additionnant l’échantillon n avec l’échantillon n-1 et
en divisant le résultat par 2.
La fréquence fondamentale du système est déterminée par le nombre d’échantillons
présents dans la ligne de retard (fondamentale=Fe/N).
Le programme matlab développé dans le cadre de cette TX implémente cet algorithme.
Représentation tridimensionnelle (temps, fréquence, amplitude) du signal
Signal généré par l’algorithme de Karplus Strong
Ce modèle est toutefois assez basique et ne permet pas de jouer sur beaucoup de paramètres.
Ainsi, un grand nombre de chercheur ont contribué à perfectionner cet algorithme en créant
des systèmes complexes avec de multiples lignes de retard et filtres :
Université de Technologie de Troyes
29
Automne 2004
TX : Audionumérique et Synthèse sonore
Jaffe, D.A. & Smith, J.O.(1983) « Extensions of the Karplus-Strong plucked-string
algorithm » Computer Music Journal.
Sullivan, C.R.(1990). Extending the Karplus-Strong algorithm to synthesize electric
guitar timbres with distortion and feedback. Computer Music Journal, 14(3), 26-36.
La première implémentation commerciale des ces systèmes fut distribué par Yamaha avec la
série des synthétiseurs VL dans les années 90.
A l’heure actuelle, les produits n’ont cessé de se perfectionner et les sons produits sont très
convaincants.
Université de Technologie de Troyes
30
Automne 2004
TX : Audionumérique et Synthèse sonore
II.7. Synthèse
Les synthèses étudiées dans le cadre de cette TX sont largement intégrées dans les
synthétiseurs. Cependant, il existe également d’autres types de synthèses sonores comme la
synthèse neuronale, stochastique et chaotique mais leur implémentation reste marginale.
Aujourd’hui la puissance sonore des gros synthétiseurs, combinant une multitude de synthèse,
n’est plus à prouver.
Ainsi, même si initialement les synthétiseurs étaient destinés aux musiques électroniques et au
« sound designing », les frontières ont aujourd’hui étaient dépassées. La quasi-totalité des
musiques actuelles bénéficie largement de leur puissance afin de définir au mieux l’ambiance
d’une production musicale, et cela aussi bien en studio que sur scène.
Enfin, il est clair que la puissance sonore d’un synthétiseur dépend du nombre de synthèses
qu’il implémente et des possibilités de modulation.
Les synthétiseurs virtuels (implémentation software de leur confrère hardware) permettent
aujourd’hui aux utilisateurs de créer leurs propres synthétiseurs en assemblant différents
modules de synthèses et en les interconnectant. Ces synthétiseurs sont appelés « synthétiseurs
modulaires ». Ils offrent aujourd’hui les sonorités les plus « riches » (subjectivement parlant)
tout en bénéficiant de la convivialité des interfaces informatiques.
Aujourd’hui, deux produits semblent se démarquer du lot :
Reaktor 4 (développé par Native Instrument) véritable usine à gaz, unanimement
reconnu par les professionnels de la musique. Il implémente des modules de synthèses
additives, soustractives, FM, par Modèles Physiques et granulaire. L’utilisateur définit à la
fois son instrument et l’interface.
Tassman3 (développé par Applied Acoustics Systems), synthétiseur accès sur la
synthèse sonore par modèle physique. Il implémente également des modules de synthèses
additive, soustractive et FM.
Bien que ces logiciels ne demandent aucun prérequis en programmation, de bonnes notions en
synthèse sonore sont vivement conseillées lorsque l’on veut éditer ses propres instruments.
Université de Technologie de Troyes
31
Automne 2004
TX : Audionumérique et Synthèse sonore
Conclusion
Ce sujet nous a permis de mettre en application les enseignements dispensés dans des
matières comme SY06 et IF01.
Le chapitre traitant de la Conversion Analogique/Numérique nous a également permis de
développer plus précisément une application des convertisseurs dans un domaine bien
particulier qui est l’audio. Une multitude d’artefacts nuisibles pour l’auditeur comme le
repliement spectral et le bruit de quantification rendent cette conversion difficile et viennent
se confronter à la théorie. En tout cas, aujourd’hui, le choix semble s’être penché vers des
convertisseurs surréchantillonneurs permettant de stocker les échantillons numériques à une
fréquence d’échantillonnage de 96kHz et une quantification de 24 bits.
Le chapitre traitant de la synthèse sonore est complété de fichiers Matlab implémentant de
façon très simpliste la totalité des synthèses présentées dans ce rapport. Différents outils du
traitement du signal ont été utilisés, générateur de signal, filtres, ligne de retard, etc, le tout
complété par une analyse théorique.
Au niveau de la formation GSID/RCE, ce sujet nous a donné la possibilité d’approfondir un
peu plus nos connaissances en traitement du signal, mais également de comprendre les bases
de l’audionumérique, domaine particulièrement important dans le milieu des
télécommunications.
Université de Technologie de Troyes
32
Automne 2004
TX : Audionumérique et Synthèse sonore
Annexes
Université de Technologie de Troyes
33
Automne 2004
TX : Audionumérique et Synthèse sonore
Annexe 1 : Repliement Spectral
Considérons une sinusoïde de fréquence f 0 échantillonnée à Fe=44100Khz (Format CD)
On considère également que f 0 ∈ [ Fe / 2, Fe] donc supérieur à la fréquence de Nyquist
Soit x(t) le signal correspondant à la sinusoïde.
x(t) = sin ( 2.π . f .t )
0
X(f) = 1 [δ ( f − f 0 ) − δ ( f + f 0 )]
2j
En échantillonnant le signal a la fréquence Fe, on obtient :
X e(f) = ∑ X ( f − nFe)
n∈Ζ
X e(f) = ∑ 1
n∈Ζ
2j
[δ ( f
− f 0 − nFe) − δ ( f + f 0 − nFe)]
Intéressons nous à la bande audible du format CD [0,Fe/2]
On obtient alors comme fréquence reconstituée fr =Fe- f0 ≠ f0:
Rmq :
On remarque également une symétrie (impaire) par rapport à la fréquence de Nyquist
Posons simplement f0=Fe/2+f1,, on a alors:
f 0 − Fe / 2 = f 1
f r − Fe / 2 = − f1
On parle alors de miroir spectral.
Université de Technologie de Troyes
34
Automne 2004
TX : Audionumérique et Synthèse sonore
Annexe 2 : Suréchantillonnage
Le suréchantillonnage apporte deux avantages majeurs :
• Réduction de la distorsion de phase (causée par le filtre anti-repliement en mur de
brique)
• Amélioration du rapport signal bruit de 3dB par facteur de suréchantillonnage de 2.
L’implémentation d’un type de convertisseur A/N suréchantillonneur est présentée ci-dessous.
On définit Fs comme étant la fréquence d’échantillonnage du système et « facteur » comme
étant le facteur de suréchantillonnage. La phase de conversion va se faire sur Nbit.
Signal
Analogique
Analogique
Filtre
Passe-bas
Conversion
A/N
fc=facteur.Fs/2
Conversion Analogique-numérique
De fréquence d’échantillonnage Fe
Fe=facteur.Fs
Nombre Bit=Nbit et quantifiant sur Nbit
Numérique
Filtre
Passe-bas
fc=Fs/2
Décimation
Fe= Fs
Filtre
Passe-bas
numérique
permettant d’éviter le phénomène
de repliement lors de la phase de
décimation des échantillons
Décimation des échantillons.
Conservation d’un échantillon sur
Fe/Fs
Stockage de l’information sur un
medium (CD, disque dur etc)
Stockage
Université de Technologie de Troyes
Filtre Anti-repliement filtrant les
composantes supérieures à la
fréquence de coupure fc
35
Automne 2004
TX : Audionumérique et Synthèse sonore
Influence du suréchantillonnage sur le rapport signal bruit.
Prenons comme exemple une sinusoïde de fréquence 1kHz, échantillonnée à 44.1kHz et
quantifiée sur 16 bits.
On va réduire la fréquence d’échantillonnage à 5512 Hz et la quantification à 3 bits.
• Le premier schéma correspond à la représentation fréquentielle du signal d’origine
(44100Hz/16 bits)
• Le second schéma correspond à la représentation fréquentielle du résultat dans le cas :
- Filtrage passe-bas (fréquence de coupure 5512/2=2756)
- Diminution de la fréquence d’échantillonnage de 44100 Hz à 5512 Hz.
- Réduction de la quantification de 16 à 3 bits
• Le troisième schéma correspond à la représentation fréquentielle du résultat dans le
cas :
- Réduction de la quantification de 16 à 3 bits
- Filtrage passe-bas (fréquence de coupure 5512/2=2756)
- Diminution de la fréquence d’échantillonnage de 44100 Hz à 5512 Hz.
Le but de l’expérience est d’illustrer l’augmentation du rapport signal bruit dans le cas de
l’utilisation du suréchantillonnage lors de la numérisation d’un signal audio.
1
44100Hz/16 bits
2
5512Hz/3 bits
3
5512Hz/3 bits
suréchantillonnés 8X
Le fait de quantifier avec un nombre de bits plus faible va introduire la présence
d’harmoniques aux fréquences (2n+1)*f (apparence plus carré du signal).
Il s’avère en fait qu’expérimentalement les harmoniques sont présentes aux fréquences
5f,7f,11f,13f,17f,19f etc etc
Dans le 2ème schéma, ces harmoniques se replient, d’où l’apparition des pics :
- Pour n=1, on obtient un pic à Fe/2-(3f -Fe/2) . Si l’on considère le cas précédent
(avec f=1000 et Fe=5512), on obtient un pic à 2512 Hz.( cf 3).
- Pour n=2, on obtient un pic à Fe/2-(5f -Fe/2) . Si l’on considère le cas précédent
(avec f=1000 et Fe=5512), on obtient un pic à 512 Hz.( cf 1).
- Pour n=3, on obtient un pic à Fe/2-(7f -Fe/2) . Si l’on considère le cas précédent
(avec f=1000 et Fe=5512), on obtient un pic à 1488 Hz.( cf 2)
ème
Dans le 3
l’utilisation de la technique du suréchantillonnage (avant le stockage des
informations) et notamment l’utilisation du filtre passe-bas de fréquence de coupure Fe/2 va
supprimer les composantes harmoniques susceptibles de se replier.
Université de Technologie de Troyes
36
Automne 2004
TX : Audionumérique et Synthèse sonore
Annexe 3 : Modulation de fréquence
x(t ) = A. sin(2πf p t + β sin(2πf mt )
{
x(t ) = ℑm{A.e
x(t ) = ℑm A.e
j ( 2πf p t + β sin( 2πf m t ))
j 2πf p t
}
} (1)
.e jβ sin( 2πf mt )
Décomposition en série de Fourier du terme e jβ sin( 2πf mt )
∞
e jβ sin( 2πf mt ) =
∑a e
n = −∞
jn 2πf m t
n
(2)
Calcul des coefficients an
an =
an =
1
T
1
T
T
2
∫e
jβ sin( 2πf m t ) − jn 2πf m t
∫e
j [β sin( 2πf m t ) − 2πnf m t ]
T
−
2
T
2
e
dt
dt
T
−
2
2π
2π
t et dξ =
dt
T
T
On pose ensuite ξ = 2πf mt =
1
On obtient alors an =
2π
T
2
∫e
j [β sin(ξ ) − nξ ]
dξ
T
−
2
Ce qui correspond à une fonction de Bessel d’ordre n, an = J n ( β )
D’où dans (2) : e jβ sin( 2πf mt ) =
∞
∑J
n = −∞
n
( β )e j 2πnf mt
⎫
⎧ j 2πf t ∞
Ainsi dans (1), on a : x(t ) = ℑm⎨ A.e p . ∑ J n ( β )e j 2πnf mt ⎬
n = −∞
⎭
⎩
∞
⎧
j 2 π ( f p + nf m ) t ⎫
x ( t ) = ℑ m ⎨ A. ∑ J n ( β ) e
⎬
⎭
⎩ n = −∞
∞
Finalement x(t ) = A. ∑ J n ( β ) sin(2π ( f p + nf m )t )
n = −∞
Soit X ( f ) =
∞
[
A
. ∑ J n ( β ). δ ( f p − nf m ) − δ ( f p + nf m )
2 j n = −∞
Université de Technologie de Troyes
37
]
Automne 2004
TX : Audionumérique et Synthèse sonore
Annexe 4 : Etude vibratoire d’une corde
Equation de propagation des vibrations transversales y ( x, t ) , le long d’une corde métallique, à
section circulaire, tendue suivant l’axe x' ox .
I. Hypothèses
L’élongation y ( x, t ) et la pente
∂y ( x, t )
sont toujours faibles quels que soient x et t.
∂x
La corde est homogène : sa masse par unité de longueur µ est constante.
La corde et un fil sans raideur suffisamment tendue pour que la force de pesanteur s’exerçant
⎯⎯→
sur tout éléments de corde soit négligeable devant la résultante des forces de tension T .
Tout élément de corde ne peut se mouvoir que selon l’axe oy , la corde restant dans le
plan xoy .
II. Résolution du système
Equation de propagation y ( x, t ) (corde vibrante)
∂ ² y ( x, t )
∂ ² y ( x, t )
T
= C²
où C =
µ étant la masse linéique.
∂t ²
∂x ²
µ
Rmq : C=364.1m.s-1
y ( x, t ) = F ( x).G (t ) (1) Séparation des variables temps et position
∂y ( x, t )
∂ ² y ( x, t )
= F ' ( x).G (t ) ⇒
= F ' ' ( x).G (t )
∂x
∂x ²
∂y ( x, t )
∂ ² y ( x, t )
= F ( x).G ' (t ) ⇒
= F ( x).G ' ' (t )
∂t
∂t ²
Donc l’équation de propagation peut aussi s’écrire F ( x).G ' ' (t ) = C ².F ' ' ( x).G (t )
Soit
F ' ' ( x) 1 G ' ' (t )
F ' ' ( x) 1 G ' ' (t )
.
.
=
qui est vrai si et seulement si
=
=K
F ( x) C ² G (t )
F ( x) C ² G (t )
Université de Technologie de Troyes
38
Automne 2004
TX : Audionumérique et Synthèse sonore
On obtient alors le système
F ' ' ( x) − KF ( x) = 0
G ' ' ( x) − C ².K .G ( x) = 0
Les solutions dépendent du signe de K.
II.1 Solution spatiale
Solution spatiale pour K > 0 c'est-à-dire K = k ²
F ' ' ( x) − k ².F ( x) = 0
β ² − k² = 0 ⇒ β ± k
Ce qui donne F ( x) = A.e β1x + B.e β 2 x = A.e − kx + B.e + kx
Utilisation des conditions limites y (0, t ) = y ( L, t ) = 0
y (0, t ) = 0 ⇒ A + B = 0 ⇒ A = − B
y ( L, t ) = 0 ⇒ A.(e − kL − e + kL ) = 0 ⇒ A = 0
Solution spatiale pour K < 0 c'est-à-dire K = −k ²
F ' ' ( x) + k ².F ( x) = 0
β ² + k ² = 0 ⇒ β ² = −k ² = j ² k ² ⇒ β ± jk
Ce qui donne F ( x) = A.e β1x + B.e β 2 x = A.e − jkx + B.e + jkx
F ( x) = A cos(kx) + B sin( kx)
Utilisation des conditions limites y (0, t ) = y ( L, t ) = 0
y (0, t ) = 0 ⇒ A = 0
nπ
y ( L, t ) = 0 ⇒ B sin( kL) = 0 ⇒ kL = nπ ⇒ k =
avec n ∈ Ν
L
∞
nπx
On obtient alors comme solution F ( x) = ∑ B sin(
) (2)
L
n =0
II.2 Solution temporelle
G ' ' (t ) − C ².K .G (t ) = 0
G ' ' (t ) + C ².k ².G (t ) = 0 pour K = − k ²
Posons w = kC , on obtient alors G ' ' (t ) + w²G (t ) = 0
Soit G (t ) = A. cos( wt ) + B sin( wt ) (3)
II.3 Conclusion
Finalement d’après (2) et (3), on obtient dans (1)
∞
y ( x, t ) = ∑ sin(
n =1
nπx
nπCt
nπCt
).(a cos(
) + b sin(
)) (4)
L
L
L
∞
Qui peut également s’écrire sous la forme y ( x, t ) = ∑ Dn . sin(ω n t + ϕ n ) sin(
n =1
Université de Technologie de Troyes
39
nπx
)
L
Automne 2004
TX : Audionumérique et Synthèse sonore
III. Résolution du système pour des cordes frappées
Les conditions initiales pour (4) sont les suivantes
∂y
( x,0) = u pour a ≤ x ≤ a + e
∂t
∂y
( x,0) = 0 pour 0 ≤ x ≤ a et (a + e) ≤ x ≤ L
∂t
III.1 Calcul de an
2
nπx
.∫ y ( x,0). sin(
)dx or y ( x,0) = 0
L 0
L
L
an =
donc a n = 0 (5)
III.2 Calcul de bn
L
2
nπx
∂y
bn =
.∫ ( x,0). sin(
)dx
nπC 0 ∂t
L
a
a+e
L
∂y
∂y
2 ⎡ ∂y
nπx
nπx
nπx ⎤
bn =
.⎢ ∫ ( x,0). sin(
)dx + ∫
( x,0). sin(
)dx + ∫
( x,0). sin(
)dx ⎥
∂t
∂t
nπC ⎣ 0 ∂t
L
L
L
a
a +e
⎦
a +e
2 ⎡
2u L
nπx ⎤
.⎢u. ∫ sin(
)dx ⎥ =
.
bn =
nπC ⎣ a
L
⎦ nπC nπ
cad bn =
a +e
nπx ⎤
⎡
⎢⎣− cos( L )⎥⎦
a
2uL ⎛
nπ (a + e)
anπ ⎞
) + cos(
)⎟
⎜ − cos(
n²π ²C ⎝
L
L ⎠
2uL ⎛
nπa
nπe
nπa
nπe
nπa ⎞
) cos(
) − sin(
) sin(
) − cos(
)⎟
⎜ cos(
n ²π ²C ⎝
L
L
L
L
L ⎠
e
n.π .e
⎛ n.π .e ⎞
⎛ n.π .e ⎞ n.π .e
Or << 1 ⇒
→ 0 cad cos⎜
⎟ ≈ 1 et sin ⎜
⎟≈
L
L
L
⎝ L ⎠
⎝ L ⎠
2ue
⎛ a.n.π ⎞
. sin ⎜
On obtient finalement bn =
⎟ (6)
nπC
⎝ L ⎠
III.3 Conclusion
bn =
D’après (5) et (6), on obtient dans (4)
2ue
⎛ n.π .a ⎞ ⎛ n.π .x ⎞ ⎛ n.π .C.t ⎞
. sin ⎜
⎟. sin ⎜
⎟. sin ⎜
⎟
⎝ L ⎠ ⎝ L ⎠ ⎝ L ⎠
n =1 nπC
∞
y ( x, t ) = ∑
Université de Technologie de Troyes
40
Automne 2004
TX : Audionumérique et Synthèse sonore
IV. Résolution du système pour des cordes pincées
Les conditions initiales pour (4) sont les suivantes :
2hx
pour 0 ≤ x ≤ L / 2
L
2h
y ( x,0) =
( L − x) pour L / 2 ≤ x ≤ L
L
IV.1 Calcul de an
L
2
nπx
a n = .∫ y ( x,0). sin(
)dx
L 0
L
y ( x,0) =
L/2
L
2 ⎡
nπx
nπx ⎤
a n = .⎢ ∫ y ( x,0). sin(
)dx + ∫ y ( x,0). sin(
)dx ⎥
L⎣0
L
L
L/2
⎦
L/2
L
nπx
nπx ⎤
2 ⎡ 2hx
2h( L − x )
a n = .⎢ ∫
. sin(
)dx + ∫
. sin(
)dx ⎥
L⎣0 L
L
L
L
L/2
⎦
L/2
L
4h ⎡
nπx
nπx ⎤
an =
.⎢ ∫ x. sin(
)dx + ∫ ( L − x). sin(
)dx ⎥ (7)
L² ⎣ 0
L
L
L/2
⎦
L/2
⎡ xL
nπx
⎛ nπx ⎞⎤
)dx = ⎢−
cos⎜
or ∫ x. sin(
⎟⎥
L
⎝ L ⎠⎦ 0
⎣ nπ
0
L/2
L/2
−
∫
0
−L
⎛ nπx ⎞
. cos⎜
⎟dx
nπ
⎝ L ⎠
nπx
L²
L²
⎛ nπ ⎞
⎛ nπ ⎞
)dx = −
cos⎜
sin ⎜
⎟+
⎟
L
2 nπ
⎝ 2 ⎠ n ²π ² ⎝ 2 ⎠
0
En utilisant le même raisonnement pour le second terme de (7), on obtient
L/2
∫ x. sin(
nπ
8h
. sin( )
n ²π ²
2
or si n = 2 p → a n = 0
an =
et si n = 2 p + 1 → a n = (−1) p
8h
(8)
(2 p + 1)²π ²
IV.2 Calcul de bn
dy ( x,0)
=0
dt
IV.3 Conclusion
bn = 0 (9) car
D’après (8) et (9), on obtient dans (4)
Université de Technologie de Troyes
41
Automne 2004
TX : Audionumérique et Synthèse sonore
y ( x, t ) =
8h ∞ (−1) p
⎛ (2 p + 1)πCt ⎞ ⎛ (2 p + 1)πx ⎞
. cos⎜
⎟. sin ⎜
⎟
∑
L
L
π ² p =0 (2 p + 1)²
⎝
⎠ ⎝
⎠
V. Interprétation
Etude du premier mode de vibration pour une corde frappée
La corde prend la forme d’un fuseau qui oscille autour de sa position d’équilibre à la
C
. Cette fréquence fondamentale est la plus basse que peut produire la corde
fréquence f 0 =
2.L
dans les conditions présentes. Il est possible pour un musicien de faire varier facilement cette
fréquence fondamentale.
On remarque aussi que :
Lorsque T augmente f 0 augmente.
Lorsque la masse linéique augmente f 0 diminue.
Lorsque la longueur diminue f 0 augmente.
Université de Technologie de Troyes
42
Automne 2004