Interactions
Designer d'interactions
Son, Lumières, Vidéos, Mouvements
Instruments augmentés
De plus en plus, le son se mélange aux autres médiums.
L'évolution des procédés techniques permet sa mise en interaction avec la lumière, la vidéo, voir le mouvement des interprètes, du public ou de dispositifs mécaniques...Les technologies de l'intéraction ouvrent à la création de nouvelles unités de sens au travers des relations entre les matières, dans lesquelles le son a toute son importance.
Depuis ma découverte de ces technologies, en Licence professionnelle Nouvelles Technologies du Son appliquées au Spectacle Vivant au département Ingémédia de l'Université Sud-Toulon Var, je continue à déchiffrer, à comprendre et à mettre en oeuvre ces procédés, afin de pouvoir proposer aux productions des solutions techniques innovantes, fiables et adaptées à chaque dramaturgie, à chaque scénographie.
Je me suis attaché à connaître au mieux les outils interactifs, au niveau logiciel ( Max/MSP, Pure Data... ) comme hardware ( Cartes MIDI, interfaces capteurs/actionneurs, contrôleurs Arduino...). Je me suis constitué un parc matériel, notamment de cartes Interface-Z mais aussi de capteurs et actionneurs divers, afin de pouvoir expérimenter à mon compte, et être réactif sur tous types de projets.
Caméra Augmentée, Servo-moteurs et carte Midi-Actionneurs Interface-Z
Exemple de procédé interactif, appliqué au cinéma expérimental
" Ouroboros " est un court-métrage développé avec Olivier Blin dans le cadre d'un module de cinéma expérimental au Département SATIS.
L'idée de départ de ce court était de créer une interaction en boucle entre l'image et la bande sonore. Le son devait agir sur l'image ; en retour, cette action sur l'image produirait des sons qui à leur tour, transformeraient l'image, etc...
Nous avons utilisé une caméra VHS, augmentée par mes soins, et une série de patchs Pure data. Un micro placé dans le studio captait les sons ambiants ; via un premier patch, les composantes de ces sons actionnaient les servo moteurs de la caméra, changeant les réglages et donc les composantes de l'image. Un second patch, chargé de monitorer cette image, composait des sons en fonction de ses composantes. Ces sons étaient diffusés dans le studio, et donc captés par le micro d'ambiance, et le sytème entrait en feedback.
Les effets visibles dans la vidéo ne sont donc pas le résultat d'un montage, mais bien d'une interaction complète et en temps réel de l'image et de la bande sonore.