Projet temps rel gg/La Filature
Transcription
Projet temps rel gg/La Filature
Je {me} suis parlé de & mis en scène par Franck Laroze Logiciels employés & fiche technique prévisionnelle contact +33 9 77 08 47 48 [email protected] www.evidenz.fr Vidéo Informatique et logiciels 1 ordinateur PC avec : le logiciel libre 3D Virtual Choreographer (http://virchor.sourceforge.net/) une carte d’acquisition VGA PhynxRGB-II - Dual channel (simultaneous capture) une carte graphique dualdisplay type NVIDIA 1 ordinateur PC avec « Eyesweb », logiciel libre d’analyse d’images et de tracking vidéo. 1 postes G5 2,5 Gh avec 1 Gh de RAM 2 cartes d’acquisition vidéo composite Alchemy Le logiciel libre moteur Mirage (https://sourceforge.net/projects/mirage/) Le logiciel Modul8 1 postes G5 2,5 Gh avec 1 Gh de RAM 1 cartes d’acquisition vidéo composite Alchemy Le logiciel Isadora 1 poste G4 1,25 Gh avec Max/MSP L’application CDT (http://didascalie.net/tiki-index.php?page=CDT+-+Conduite+Development+Toolkit) Le G4 contrôle les moteurs vidéo installés sur le PC et les deux G5. Caméras et périphériques Utilisation de : - cinq caméras, type FCB série (http://didascalie.net/tiki-index.php?page=sony+FCB+serie). Une caméra sera installée hors champ pour filmer l’actrice, et les trois caméras autres seront installées sur des tourelles de contrôle manuelle. Une caméra sera installée audessus de la scène pour réaliser du tracking infrarouge avec « Eyesweb » ; - 1 caméra « pan-tilt » pilotée en Ethernet (l’intérêt principal étant l’automatisation du contrôle physique des caméras) à l’avant-scène pour filmer scène & public ; - un distributeur Kramer piloté par max (http://didascalie.net/tiki-index.php?page=Kramer+devices) Les caméras, leurs tourelles de contrôle, le distributeur Kramer sont pilotés via la CDT. Vidéoprojection Utilisation de : - 3 rétroprojecteurs (3500 ls, optique grand angle) pour rétroprojection sur écran curve ; - 1 vidéoprojecteur à la face (3500 ls, sur voiles de tulle) ; - écran curve 120° d’un diamètre d’ouverture de 8 à 10 m & 2 voiles de tulle en avant de l’écran sur perches mécaniques ; - logiciel « SOL7 » pour compenser la courbe de l’écran (éviter une image déformée). Cahier des charges du Buffersplayer. Le Buffersplayer est un freeware réalisé à partir de Max-MSP-Jitter. Il est constitué d’une entrée caméra, de quatre modules identiques de buffer, et d’une sortie vidéo. L’architecture de ce soft est celle d’un moteur piloté par une interface de contrôle en réseau (cf. glossaire Moteur/Interface). Les caractéristiques demandées pour le module de buffer sont les suivantes : > Module composé d’une partie Enregistrement (Record) & d’une partie Diffusion (Play). > Enregistrement (Record) : Le module enregistre en permanence la caméra live selon une certaine longueur. Cette longueur (SIZE) est variable et déterminée à l’ouverture du module. On appelle T la frame courante de la caméra live et P la frame enregistrée dans le buffer. L’enregistrement est un miroir d’un certaine grandeur (durée) de la caméra live. On devra pouvoir mettre en pause et reprendre l’enregistrement. Lorsqu’on reprendra un enregistrement, il manquera bien sûr un certain nombre de frames T dans l’enregistrement. > Diffusion (Play) On devra être capable de jouer P avec le minimum de latence par rapport à T (on appelle Latence le nombre de frame qui sépare T de P). Deux cas de figure se présentent : a) enregistrer sans jouer puis jouer successivement sans enregistrer ; b) enregistrer et jouer simultanément, puis "arrêter de jouer tout en continuant de jouer. Les paramètres de la partie PLAY sont de deux types : Paramètres de contenu, exprimés en pourcentage de la variable SIZE : POS : position de démarrage START : début de la section jouée LENGTH : longueur de la section jouée Paramètres dynamiques : LOOP : mode jeu de la séquence sélectionnée PLAY avec SPEED et RAMP IN : déclenchement du jeu du buffer avec une vitesse donnée et un temps pour atteindre cette vitesse. STOP avec RAMP DOWN : arrêt du jeu du buffer avec un temps pour parvenir à la vitesse 0. RESUME avec RAMP IN pour reprendre la lecture avec un temps pour atteindre la vitesse précédente. On pourra alors simuler différentes configurations de buffers traditionnels ou dynamiques. Son 1 ordinateur G5 1,6Gh avec : le moteur Peralvino (http://didascalie.net/tiki-index.php?page=PERALVINO) carte son M-Audio Firewire 1814 Système de diffusion 5.1 + console Yamaha DM1000 Capteurs Utilisation de deux jeux de capteurs embarqués sans fil (type kroonde http://www.la-kitchen.fr/) Utilisation de caméras infrarouges pour travailler le tracking caméra. Lumières Utilisation de : - LIGHT & LightRegie120x (http://ph_m.club.fr/index.html); - 4 projecteurs asservis (motorisés). Glossaire © DIDASCALIE.NET Conduite Development Toolkit (CDT) http://didascalie.net/tiki-index.php?page=CDT La CDT est un projet qui a pour but de définir la manière la plus simple et la plus réactive pour un régisseur non programmeur de créer la conduite d'une régie numérique. La conduite pilote un moteur et s’écrit sous environnement Max, sans nécessiter cependant une connaissance approfondie du logiciel. La CDT comporte trois parties: 1) L'interface d'initialisation PRESET. Cette interface commande les variables du moteur. Elle permet au régisseur de créer des états initiaux d'événements, et de tester des événements en temps réel. 2) Le kit de modules de conduite MODULE : S'il est nécessaire de faire du contrôle de périphérique ou de mettre en oeuvre des capteurs pour de l'interaction par exemple, l'interface d'initialisation n'est pas suffisante. Il est nécessaire de programmer une conduite spécifique à partir des modules. 3) Un protocole réseau otudp qui permet de dialoguer entre régies numériques (son, vidéo, plateau, lumière) Didascalie www.didascalie.net Didascalie est un site qui s'adresse à toutes les personnes désireuses d'explorer les potentialités du numérique temps réel au service des écritures scéniques. Il concerne aussi bien des artistes du spectacle vivant et des arts numériques que des régisseurs, des développeurs de logiciel, des chercheurs, des producteurs... Cet espace de travail découle de la proposition que les outils logiciels, rendus nécessaires par la malléabilité émergente des matériaux sur le plateau de théâtre ou de danse, peuvent être partagés. Il s’efforce de répondre à la spécificité des pratiques artistiques concernés, de mettre en relation des points de vue complémentaires (technique, numérique, artistique) et de permettre une navigation incessante de la pratique à la conceptualisation. Didascalie.net propose au plus grand nombre de collaborateurs de mettre en commun leurs connaissances au service du développement de leurs propres recherches, alliant économie du partage et respect des singularité. Max/MSP/Jitter http://www.cycling74.com/products/maxmsp_2.html Max/MSP est un environnement de programmation graphique, ce qui signifie que l’on peut créer son propre logiciel en utilisant un kit d’objets visuels, en les connectant ensemble en utilisant des cordes. L’environnement de base, qui inclut du protocole MIDI, des contrôleurs, une interface utilisateur et des objets temporels, s’appelle Max. Par-dessus Max sont construits des centaines d’objets, incluant deux puissantes bibliothèques éditées par Cycling 74 : MSP : une collection d’objets de manipulation sonore qui s’étend de la fabrication de filtres interactifs à l’enregistrement sur disque dur Jitter : une collection objets de calcul matriciel optimisés pour la vidéo et le rendu 3D. Mirage http://didascalie.net/tiki-index.php?page=Mirage Mirage 1.0 a été développé avec Max et la bibliothèque SoftVNS. C’est une application standalone qui fonctionne sous OSX (free software open sources). L’interface moteur se compose de trois sections : > Les sources : une combinaison de 8 choix parmi: une caméra, une movie, une photo, un patch externe, un buffer > Appliquer aux sources des effets. Les channels d’effets peuvent recevoir des modules externes en Jitter, Soft VNS, ou Max. Ainsi, un programmeur peut intégrer dans Mirage ses patchs d’effets personnalisés (dynFX). > « Compositer » l’image à partir des matériaux choisis (sources) et traités (channels) dans l’environnement des calques (layers) L’écriture de la surface de contrôle se réalise avec la CDT en Max ou en Pure Data (l’équivalent de Max en open source). Moteur/Interface http://didascalie.net/tiki-index.php?page=CDT-french Un moteur vidéo, par exemple, permet de générer des environnements vidéo temps réel dont tous paramètres sont dynamiquement contrôlables. Il est piloté par l’utilisation d’un langage de programmation élémentaire (qui s’écrit sur ce qu’on appellera une interface de contrôle avec la CDT) pour générer des environnements permettant à un acteur d’évoluer dans une réalité augmentée. Temps réel du temps réel http://didascalie.net/tiki-read_article.php?articleId=3 Le « temps réel » est le terme qui désigne la situation actuelle de calcul quasi immédiat des données informatiques par les ordinateurs pour générer des sons ou des images. Ainsi, le temps réel est l’aspect de la révolution numérique qui intéresse le théâtre et qui en bouleverse les pratiques et les méthodes de travail : le rapport à la matière n’est plus statique, mais dynamique. Mais le temps réel seul est bien insuffisant. Imaginons en effet qu’un marionnettiste doive se contenter avec sa marionnette d’une manipulation à la fois, d’abord une jambe, puis l’autre jambe, puis le corps, sans coordination des mouvements ? Pour servir la pratique théâtrale et commencer d’aborder la notion d’interactivité, il faut développer la malléabilité des agencements d’effets temps réel. Cet effort de développement est ce que nous décrivons comme la recherche d’un « temps réel du temps réel ».