TRANSE

EN
DANSE

Une installation qui place le spectateur au cœur de la narration, brouillant les frontières entre créateur et spectateur.

À l'origine de l'installation,  il y a cette volonté de lier l'image au son. Si avec Clément nous voulions au départ préparer un set live accompagné d'animations, nous nous sommes vite rendu compte que nos connaissances et compétences musicales ne suffiraient pas pour assurer une performance correcte. On a donc eu l'idée d'une installation interactive et autonome, où le spectateur deviendrait auteur.

Il nous fallait, à partir de ce moment, trouver une méthode de travail et le matériel nécessaire à la réalisation du projet. nous avions plusieurs contraintes à respecter; d'abord, évidemment, la musique et les images devaient être liées, ensuite, c’était le spectateur qui devait faire ce lien, et cela devait être instinctif.

Le but de ce projet était à la base, expérimentation de process créatifs et de principes graphiques et sonores, ainsi qu'une entrée dans le design interactif; et la forme de celui-ci n'est qu'un prétexte pour lier les différentes expériences réalisées et concrétiser dans une installation les découvertes faites au cours de l'année.

J'avais déjà, à titre personnel, utilisé une manette de Nintendo Wii pour contrôler un ordinateur et me servir de ce contrôleur me semblait être une solution idéale pour ce projet car c’était un objet facile a trouver et qui, sur le plan technique, correspondait à nos attentes.

La wiimote de Nintendo, ou RVL-CTL-01 selon son nom de dispositif bluetooth, est une manette qui a été fabriquée en masse à partir de 2006 pour la console du même nom. Elle contient plusieurs technologies qui, au premier abord, la rendent parfaite pour un projet d'installation interactive.

En effet, elle dispose d’accéléromètres, capables de prendre en compte la vitesse à laquelle on la déplace dans l'espace, ainsi que la rotation sur les axes X et Z. Son capteur infrarouge lui permet , associé à une balise (sensor barre par exemple), de se situer dans l'espace. Elle est équipée de multiple boutons, gâchettes, croix directionnelle, etc, ainsi que d'un haut parleur, et fait office de véritable couteau suisse d'interface homme-machine. Si la technologie existe, elle se trouve malheureusement dans un vide, un terrain vague entre les périphériques câblés et les objets connectés du fait de son ancienneté.

 

La mise en place  de la communication entre la manette et un ordinateur est instable, compliquée et fastidieuse, et c'est cela qui va considérablement ralentir le projet, accaparant notre temps et notre motivation.

 

une fois la manette appairée, intervient un second programme, Glovepie.

Conçu par un développeur un peu étrange, il n'est aujourd'hui plus maintenu et compliqué a trouver. Glovepie est un soft qui permet de traduire grâce à un langage simple, des instructions  données par la wiimote  en commandes compréhensibles par l'ordinateur. par exemple, la ligne

A = Wiimote1.SwingDown

fera taper un B quand on donnera un coup vers le bas avec la manette.

 

Là ou GlovePie et la manette wii se révèlent supérieurs à leurs alternatives, c'est sur la possibilité avec GlovePie de transmettre des commandes Midi/OSC. Le protocole MIDI, inventé dans les années 70, naît de la volonté de standardiser la communication entre les instruments de musique électroniques  comme les synthétiseurs. Le protocole est encore utilisé aujourd'hui, même sur des ordinateurs, en parallèle et en accord avec l'OSC, en fait en gros la même chose sans les limitations de l'époque. Et c'est ce protocole MIDI qui va nous permettre de contrôler le son et l'image d'un seul geste.

Notons que le MIDI ayant été conçu pour fonctionner via des câbles, il est ici nécessaire d'émuler ces câbles avec un logiciel appelé LoopMIDI.

Pour le son nous avec choisi de travailler avec Ableton Live. Très populaire, les tutoriels à propos sont courants et nous avions quelques bases dessus. de plus, il est spécialisé dans les lives donc idéal pour notre projet de son en temps réel. La synchro MIDI est au cœur du programme car celui ci est destiné à être utilisé avec des claviers, pads et autres instruments physiques appelés contrôleurs MIDI, l'appairage était donc relativement aisé.

En ce qui concerne l'image, nous avons opté pour Resolume Arena pour les mêmes raisons qu'Ableton. Popularité, simplicité d'appairage, versatilité, et optimisé pour le VJing, le traitement d'image en temps réel et la synchro musique/images. Notons que comme les synthétiseurs pour la musique, des synthés dédiés au visuel existaient, comme le synthétiseur Rutt Etra et pouvaient donc être contrôlés via MIDI. À l'instar des logiciels de MAO, les logiciels de VJing ont continué a se servir de ce protocole.

Nous avions donc notre système en place, et à peu près fonctionnel, assez pour commencer à produire les éléments  graphiques et sonores qui devaient constituer la partie émergée de l'iceberg.

 

Si au départ, le projet s'appelait ANKH et avait pour thème l’ésotérisme sous toutes ses formes car nous voulions explorer et exploiter la richesse picturale  des religions et des cultes, nous nous sommes vite rendus compte que ce thème était bien trop large, trop vaste pour en être réduit a de simples expérimentations graphiques. nous n'avions pas d'idée précise en tête et cela nous semblait compliqué d'utiliser les technologies mises en places avec ce contexte.

On décidai donc de partir sur un scénario très simple, sur la thématique du voyage. Un jeune homme rentre à Paris après une nuit en rave party. Le film que l'on va voir et sur lequel on va agir est sa redescente. Les coupures, les fautes de montage, les altérations provoquées par le spectateur sont autant de symptômes du bad trip, simulant hallucinations et pertes de mémoires, la musique électronique que nous voulions produire est l’acouphène post soirée, les échos d'une nuit blanche au petit matin. Voyage physique et psychique.

 

Le projet se divise en deux parties, une sonore et une visuelle.

 

Pour la bande son, si nous avions commencé chacun de notre côté à composer des  morceaux sur Ableton Live, en nous aidant notamment des VST Roland ainsi que nos contrôleurs MIDI personnels, un Arthuria minilab et un APC Keys 25, nous avons préféré opté pour des nappes très légèrement rythmées car celles ci sont plus modulables et ont un meilleur rendu en moyenne quelle que soit la manipulation par le spectateur.

Celui ci, grâce aux mouvements de la Wiimote, agit sur des paramètres Midi pré-liés, amorce et désamorce des effets tels que la reverb, la saturation etc. Il agit aussi sur les paramètres classiques des synthétiseurs, L'attack, le decay, le sustain et la release, qui agissent sur la progression du son, et change les nappes en fonction de ses gestes.

Un principe similaire est appliqué en parallèle pour l'image. Nous avons filmé ensembles plusieurs plans à Paris, en banlieue et sur des routes de campagne, à différents moments de la journée. Ces plans sont relativement simples, le personnage marche. Il rentre chez lui. Il redescend. Nous les montons, les assemblons et les démontons, pour obtenir plusieurs proto-films, des séquences montées pour être projetées et manipulées dans un désordre relatif, comme des briques qui servirons à construire les visuels. On les ouvre ensuite avec le logiciel de VJing Resolume Arena et, comme sur Ableton, on y applique différents effets qui seront activés, désactivés et manipulés par les mouvements du spectateur. On travaille la représentation des psychotropes avec le flou, le bruit, la parralax, la répétition d'images, le shifting. L'utilisateur peut choisir les séquences qui se superposent et à quel degré elles s'entremêlent.

Nous avions, à la fin du projet, plusieurs dizaines de minutes de vidéos de transports, de déplacements et de voyages. Plan fixes, plan séquences, de près, de loin. De la matière brute, première que nous décidons de monter en plusieurs proto films. La bande sonore est terminée, et on a fait de notre mieux. La wiimote répond au logiciel, les liens MIDI ont été tissés tout fonctionne, tout tient ensemble dans un équilibre précaire.

 

C'est cet assemblage qui aura raison du projet. Nous ne le présenterons pas aux portes ouvertes pris par le temps, et par cette usine à gaz que nous avions tant bien que mal réussi à faire tenir debout, mais qui nécessitait une préparation longue et fastidieuse, souvent recommencée car nécessitant le lancement de tous les logiciels dans un ordre précis et compliqué à cerner. Le rendu est lent, la faute à une mauvaise estimation de la puissance nécessaire comparée à celle dont nous disposons.

 

Et surtout, des soucis d'ergonomie signeront l'abandon du projet pour les portes ouvertes. Trop peu explicite, trop concept, peut-être, la manette de wii souffre de sa popularité et des préjugés qui l'accompagnent; la relation image-geste-objet ne se fait que trop peu ressentir et notre intérêt pour le projet ne suffira pas à nous motiver pour affronter une dernière fois tous les problèmes auxquels nous avons fait face pour un résultat qui aurait été, au vu du temps dont nous disposions, raccourci au mieux, le plus certainement équarri.

 

 

 

 

 

 

 

Ce projet m'aura beaucoup apporté sur le plan technique, dans des disciplines que j'ai découvert et apprit à maîtriser les bases. Il a renforcé mon intérêt pour la relation image/son et pose les bases d'entreprises futures.

 

J'ai aussi compris qu'il fallait  mieux avoir un résultat de bonne qualité plutôt que de multiples ébauches plus ambitieuses, et qu'il fallait parfois savoir abandonner et prendre la décision de réduire ses aspirations quitte à ne pas faire ce dont on imaginais au début, pour avoir un résultat qui nous satisfait.

 

L'échec de ce projet est le résultat d'une trop grande persévérance dans une voie dont on aurait pu deviner la destination si l'on avait plus souvent pris du recul sur notre travail.