Projet temps rel gg/La Filature

Transcription

Projet temps rel gg/La Filature
Je {me} suis parlé
de & mis en scène par
Franck Laroze
Logiciels employés
&
fiche technique prévisionnelle
contact
+33 9 77 08 47 48
[email protected]
www.evidenz.fr
Vidéo
Informatique et logiciels
1 ordinateur PC avec :
le logiciel libre 3D Virtual Choreographer (http://virchor.sourceforge.net/)
une carte d’acquisition VGA PhynxRGB-II - Dual channel (simultaneous capture)
une carte graphique dualdisplay type NVIDIA
1 ordinateur PC avec « Eyesweb », logiciel libre d’analyse d’images et de tracking vidéo.
1 postes G5 2,5 Gh avec
1 Gh de RAM
2 cartes d’acquisition vidéo composite Alchemy
Le logiciel libre moteur Mirage (https://sourceforge.net/projects/mirage/)
Le logiciel Modul8
1 postes G5 2,5 Gh avec
1 Gh de RAM
1 cartes d’acquisition vidéo composite Alchemy
Le logiciel Isadora
1 poste G4 1,25 Gh avec
Max/MSP
L’application CDT
(http://didascalie.net/tiki-index.php?page=CDT+-+Conduite+Development+Toolkit)
Le G4 contrôle les moteurs vidéo installés sur le PC et les deux G5.
Caméras et périphériques
Utilisation de :
- cinq caméras, type FCB série
(http://didascalie.net/tiki-index.php?page=sony+FCB+serie). Une caméra sera
installée hors champ pour filmer l’actrice, et les trois caméras autres seront
installées sur des tourelles de contrôle manuelle. Une caméra sera installée audessus de la scène pour réaliser du tracking infrarouge avec « Eyesweb » ;
- 1 caméra « pan-tilt » pilotée en Ethernet (l’intérêt principal étant l’automatisation
du contrôle physique des caméras) à l’avant-scène pour filmer scène & public ;
- un distributeur Kramer piloté par max
(http://didascalie.net/tiki-index.php?page=Kramer+devices)
Les caméras, leurs tourelles de contrôle, le distributeur Kramer sont pilotés via la CDT.
Vidéoprojection
Utilisation de :
- 3 rétroprojecteurs (3500 ls, optique grand angle) pour rétroprojection sur écran
curve ;
- 1 vidéoprojecteur à la face (3500 ls, sur voiles de tulle) ;
- écran curve 120° d’un diamètre d’ouverture de 8 à 10 m & 2 voiles de tulle en
avant de l’écran sur perches mécaniques ;
- logiciel « SOL7 » pour compenser la courbe de l’écran (éviter une image déformée).
Cahier des charges du Buffersplayer.
Le Buffersplayer est un freeware réalisé à partir de Max-MSP-Jitter. Il est constitué d’une
entrée caméra, de quatre modules identiques de buffer, et d’une sortie vidéo.
L’architecture de ce soft est celle d’un moteur piloté par une interface de contrôle en
réseau (cf. glossaire Moteur/Interface).
Les caractéristiques demandées pour le module de buffer sont les suivantes :
> Module composé d’une partie Enregistrement (Record) & d’une partie Diffusion (Play).
> Enregistrement (Record) :
Le module enregistre en permanence la caméra live selon une certaine longueur. Cette
longueur (SIZE) est variable et déterminée à l’ouverture du module.
On appelle T la frame courante de la caméra live et P la frame enregistrée dans le buffer.
L’enregistrement est un miroir d’un certaine grandeur (durée) de la caméra live.
On devra pouvoir mettre en pause et reprendre l’enregistrement. Lorsqu’on reprendra un
enregistrement, il manquera bien sûr un certain nombre de frames T dans
l’enregistrement.
> Diffusion (Play)
On devra être capable de jouer P avec le minimum de latence par rapport à T (on appelle
Latence le nombre de frame qui sépare T de P).
Deux cas de figure se présentent :
a) enregistrer sans jouer puis jouer successivement sans enregistrer ;
b) enregistrer et jouer simultanément, puis "arrêter de jouer tout en continuant de jouer.
Les paramètres de la partie PLAY sont de deux types :
Paramètres de contenu, exprimés en pourcentage de la variable SIZE :
POS : position de démarrage
START : début de la section jouée
LENGTH : longueur de la section jouée
Paramètres dynamiques :
LOOP : mode jeu de la séquence sélectionnée
PLAY avec SPEED et RAMP IN : déclenchement du jeu du buffer avec une vitesse donnée
et un temps pour atteindre cette vitesse.
STOP avec RAMP DOWN : arrêt du jeu du buffer avec un temps pour parvenir à la
vitesse 0.
RESUME avec RAMP IN pour reprendre la lecture avec un temps pour atteindre la vitesse
précédente.
On pourra
alors simuler différentes configurations de buffers traditionnels ou
dynamiques.
Son
1 ordinateur G5 1,6Gh avec :
le moteur Peralvino (http://didascalie.net/tiki-index.php?page=PERALVINO)
carte son M-Audio Firewire 1814
Système de diffusion 5.1 + console Yamaha DM1000
Capteurs
Utilisation de deux jeux de capteurs embarqués sans fil
(type kroonde http://www.la-kitchen.fr/)
Utilisation de caméras infrarouges pour travailler le tracking caméra.
Lumières
Utilisation de :
- LIGHT & LightRegie120x (http://ph_m.club.fr/index.html);
- 4 projecteurs asservis (motorisés).
Glossaire
© DIDASCALIE.NET
Conduite Development Toolkit (CDT)
http://didascalie.net/tiki-index.php?page=CDT
La CDT est un projet qui a pour but de définir la manière la plus simple et la plus réactive pour un
régisseur non programmeur de créer la conduite d'une régie numérique. La conduite pilote un moteur et
s’écrit sous environnement Max, sans nécessiter cependant une connaissance approfondie du logiciel.
La CDT comporte trois parties:
1) L'interface d'initialisation PRESET. Cette interface commande les variables du moteur. Elle permet au
régisseur de créer des états initiaux d'événements, et de tester des événements en temps réel.
2) Le kit de modules de conduite MODULE : S'il est nécessaire de faire du contrôle de périphérique ou de
mettre en oeuvre des capteurs pour de l'interaction par exemple, l'interface d'initialisation n'est pas
suffisante. Il est nécessaire de programmer une conduite spécifique à partir des modules.
3) Un protocole réseau otudp qui permet de dialoguer entre régies numériques (son, vidéo, plateau,
lumière)
Didascalie www.didascalie.net
Didascalie est un site qui s'adresse à toutes les personnes désireuses d'explorer les potentialités du
numérique temps réel au service des écritures scéniques. Il concerne aussi bien des artistes du spectacle
vivant et des arts numériques que des régisseurs, des développeurs de logiciel, des chercheurs, des
producteurs...
Cet espace de travail découle de la proposition que les outils logiciels, rendus nécessaires par la
malléabilité émergente des matériaux sur le plateau de théâtre ou de danse, peuvent être partagés.
Il s’efforce de répondre à la spécificité des pratiques artistiques concernés, de mettre en relation des
points de vue complémentaires (technique, numérique, artistique) et de permettre une navigation
incessante de la pratique à la conceptualisation.
Didascalie.net propose au plus grand nombre de collaborateurs de mettre en commun leurs
connaissances au service du développement de leurs propres recherches, alliant économie du partage et
respect des singularité.
Max/MSP/Jitter http://www.cycling74.com/products/maxmsp_2.html
Max/MSP est un environnement de programmation graphique, ce qui signifie que l’on peut créer son
propre logiciel en utilisant un kit d’objets visuels, en les connectant ensemble en utilisant des cordes.
L’environnement de base, qui inclut du protocole MIDI, des contrôleurs, une interface utilisateur et des
objets temporels, s’appelle Max. Par-dessus Max sont construits des centaines d’objets, incluant deux
puissantes bibliothèques éditées par Cycling 74 :
MSP : une collection d’objets de manipulation sonore qui s’étend de la fabrication de filtres interactifs à
l’enregistrement sur disque dur
Jitter : une collection objets de calcul matriciel optimisés pour la vidéo et le rendu 3D.
Mirage
http://didascalie.net/tiki-index.php?page=Mirage
Mirage 1.0 a été développé avec Max et la bibliothèque SoftVNS. C’est une application standalone qui
fonctionne sous OSX (free software open sources).
L’interface moteur se compose de trois sections :
> Les sources : une combinaison de 8 choix parmi: une caméra, une movie, une photo, un patch
externe, un buffer
> Appliquer aux sources des effets. Les channels d’effets peuvent recevoir des modules externes en
Jitter, Soft VNS, ou Max. Ainsi, un programmeur peut intégrer dans Mirage ses patchs d’effets
personnalisés (dynFX).
> « Compositer » l’image à partir des matériaux choisis (sources) et traités (channels) dans
l’environnement des calques (layers) L’écriture de la surface de contrôle se réalise avec la CDT en Max
ou en Pure Data (l’équivalent de Max en open source).
Moteur/Interface http://didascalie.net/tiki-index.php?page=CDT-french
Un moteur vidéo, par exemple, permet de générer des environnements vidéo temps réel dont tous
paramètres sont dynamiquement contrôlables. Il est piloté par l’utilisation d’un langage de
programmation élémentaire (qui s’écrit sur ce qu’on appellera une interface de contrôle avec la CDT)
pour générer des environnements permettant à un acteur d’évoluer dans une réalité augmentée.
Temps réel du temps réel
http://didascalie.net/tiki-read_article.php?articleId=3
Le « temps réel » est le terme qui désigne la situation actuelle de calcul quasi immédiat des données
informatiques par les ordinateurs pour générer des sons ou des images. Ainsi, le temps réel est l’aspect
de la révolution numérique qui intéresse le théâtre et qui en bouleverse les pratiques et les méthodes de
travail : le rapport à la matière n’est plus statique, mais dynamique.
Mais le temps réel seul est bien insuffisant. Imaginons en effet qu’un marionnettiste doive se contenter
avec sa marionnette d’une manipulation à la fois, d’abord une jambe, puis l’autre jambe, puis le corps,
sans coordination des mouvements ?
Pour servir la pratique théâtrale et commencer d’aborder la notion d’interactivité, il faut développer la
malléabilité des agencements d’effets temps réel. Cet effort de développement est ce que nous décrivons
comme la recherche d’un « temps réel du temps réel ».