Hans Tutschku

JIM 2015 Montréal, Keynote

Journées d’Informatique Musicale (JIM) 2015
Faculté de musique de l’Université de Montréal

Technologie – expressives Ausdrucksmedium meiner künstlerischen Sensibilität

Keynote

Hans Tutschku
Harvard University, Cambridge, MA, USA

Es ist eine große Freude und Ehre, heute zu den JIM Teilnehmern zu sprechen. Mein Thema ist ‚Technologie – expressives Ausdrucksmedium meiner künstlerischen Sensibilität’. Ich sehe aber Technologie nicht nur als Mittel, sondern als zentrales Element meines Denkens und für die Gestaltung meiner Werke.

(deutsche Übersetzung in Arbeit)

La curiosité est un aspect qui m’intéresse énormément dans toute sorte d’activités, dans l’éducation, dans l’interaction avec d’autres personnes. Je veux créer des situations ou quelqu’un puisse développer un esprit curieux et être ouvert vers le monde. Moi-même j’ai eu la chance de pouvoir voyager beaucoup. J’étais imprégné de plein de différentes formes de créativité. J’ai étudié le théâtre, la musique, je fais la peinture, la photographie, la céramique et tout cela est d’une certaine manière connecté avec la technologie et avec la programmation d’informatique.

Je vais diviser cette présentation en quatre parties donc la première est sur l’éducation et la création. Puis je parle de la question du geste de quelques idées sur le multimédia et les installations et pour terminer sur les appareils iOS et quelques possibilités que j’ai explorées dans ce domaine.

éducation – création

Mon parcours a commencé par une double éducation en musique et en théâtre et je vois ma création commune activité dans un réseau d’influence. Comme mes parents sont des musiciens, j’ai eu la chance d’apprendre le piano très jeune. J’ai intégré une troupe de théâtral à l’âge de 13 ans, mais il y a plein d’autres influences qu’il était fort dans mon éducation.

01-JIM2015-creation

D’être né a Weimar, une ville extrêmement culturelle avec le Bauhaus, avec la musique classique, avec Bach, Liszt etc. Et aussi d’avoir commencé à improviser très jeune: quand j’avais 15 ans, j’ai intégré un ensemble dont je vais parler par la suite un peu plus.

Voilà quelques questions :

  • Qui suis-je en tant qu’artiste ?
  • Est-ce que ce que je fais est authentique ?
  • Comment puis-je digérer, retravailler, introduire les influences artistiques que j’admire ? Et en faisan cela, comment je ne deviens pas un clone, mais comment je trouve ma propre voix ?

Une autre question qui est assez centrale dans ma pensée :

  • Jusqu’à quel point dois-je être un expert dans un certain domaine pour avoir le droit de présenter mes résultats au public ?

Il y a deux mots qui sont présents : c’est l’intégration et la confusion. Comment la technologie peut-elle être intégrée dans mon travail et en même temps comment peut-elle générer une situation de confusion, de surprise ?

Je vais donc démontrer, comment l’utilisation des ordinateurs et de la technologie en général à changer ma pensée compositionnelle.

Si on imagine le processus créatif d’une manière schématique, on pourrait dire que l’on développe une idée, on fait une réalisation et on obtient un résultat.

02-JIM2015-processus-creatif-1

Je prends par exemple mon stylo, j’écris quelques notes sur le papier et je l’observe. Je réfléchis là-dessus et il y a un jugement qui pointe à la fois vers la réalisation et vers l’idée. Par la suite, je rentre dans une boucle récursive, qui petit à petit va changer l’idée et la manière comment je réalise l’idée.

Quand la technologie rentre dans le jeu, ça devient un peu plus compliqué parce qu’il y a une étape de plus qui est nécessaire : la formalisation.

03-JIM2015-processus-creatif-2

Comment puis-je rendre l’idée compréhensible pour l’ordinateur ou la technologie utilisée ?
Le résultat va de nouveau engager un jugement qui pointe maintenant vers l’idée, la formalisation et la réalisation. Ce n’est pas toujours très clair si la raison pour laquelle le résultat n’est pas satisfaisant est liée à l’idée, la formalisation ou la réalisation.

Un autre problème que j’observe dans l’utilisation de la technologie est une tendance qu’on ne remet plus l’idée à question. Dès qu’on a obtenu un résultat, on passe beaucoup de temps à améliorer la formalisation et la réalisation.

04-JIM2015-processus-creatif-3

Il y a donc le risque que le jugement – par une obsession sur la technologie – oublie qu’également l’idée pourrait nécessiter un questionnement. J’essaye donc de garder une certaine distance à la magie de la technologie.

 

Ensemble für Intuitive Musik Weimar

05-JIM2015-EFIM

Le travail avec l’« Ensemble de la musique intuitive », que j’ai intégré à l’âge de 15 ans, était un lieu de formation incroyable. Dès le départ, on a travaillé les réalisations des pièces de Stockhausen, Cage et d’autres compositeurs qui n’étaient pas à l’affiche à Weimar dans le régime du communisme. Le travail avec Stockhausen d’une part et avec beaucoup de musiciens improvisateurs m’a bien formé et il m’a amené à une question intéressante : qu’est-ce que c’est un instrument ?

06-JIM2015-instrument

En jouant avec un pianiste, un violoncelliste et un trompettiste, je me suis rendu compte que la question pour eux ne se posait pas tellement. Même si avec une préparation du piano ont peu étendre le champ sonore et les modes de jeux.
En blaguant, je dis parfois qu’une personne n’apprendra pas la clarinette s’il devait avoir peur que dans six mois il y ait une mise à jour où les clés sont sur une autre position, etc.
La stabilité dans le rapport avec l’instrument est importante pour pouvoir développer des réflexes.
J’ai travaillé donc pendant des années pour augmenter peu à peu les possibilités et pour raffiner mon instrument. Mais depuis 1997 la fonctionnalité de mon installation n’a plus changé. Il y a deux claviers, deux ordinateurs et quelques pédales pour contrôler les paramètres.

Tout cela s’intègre dans une évolution technologique que j’ai vécue durant les 30 années passées.

07-JIM2015-technology

En 1982 j’ai eu mon premier synthétiseur analogique, un Synthi E de EMS, après le Synthi A, son grand frère ; par la suite quelqu’un a obtenu les plans de construction d’un MiniMoog et l’as copié parce que tous ces appareils n’étaient pas en vente dans la partie de l’Allemagne d’est.
Pour ma première composition électroacoustique, je coupais dans la bande des cassettes, car je n’avais pas une machine avec des bobines.
J’ai obtenu mon premier ordinateur et un DX7 comme cadeaux de Markus Stockhausen, le fils trompettiste de Karlheinz Stockhausen en 1989.
Par la suite, j’ai beaucoup travaillé avec différents langages de programmation. En 1990/91 j’ai étudié la sonologie à La Haye aux Pays-Bas et suivais entre autres un cours sur le traitement de son en temps réel. J’avais également suivi une démonstration d’IRCAM explorant leur station de travail avec le NEXT cube et trois cartes DSP, qui coutait une fortune. Je me suis mis dans la tête de me construire une machine simple de traitement sonore en temps réel pour mes propres concerts.

Hybrid Arts avait produit un équipement d’extension pour l’ordinateur ATARI avec des convertisseurs audio et des processeurs de Texas Instruments pour transformer l’ordinateur en échantillonneur 16 bits. Mais ce produit se vendait mal. Les musiciens sur scène préféraient un clavier avec tout intégré, au lieu d’amener trois boites à interconnecter plus un écran de tube. Ils discontinuaient donc le produit et le vendaient assez bon marché avec un manuel de programmation.
J’ai appris donc C pour l’interface, Atari Assembler pour la communication avec les convertisseurs et TMS machine language pour programmer les processeurs de DSP de Texas Instruments.
À l’époque on ne calculait pas les sons par blocs (signal buffers), mais chaque échantillon après l’autre. J’avais donc 20 nano secondes entre deux échantillons et pouvais voir, combien de pas arithmétiques ou cycles d’accès à la mémoire rentraient.
Durant un an je ‘descendais’ le plus au cœur des machines que je ne pouvais jamais imaginer. Le résultat en 1991 était un programme qui me permettait des simples granulations, transpositions, lignes de retard, etc.
Comme je ne voulais pas voyager avec cet écran de tube d’Atari, je l’avais programmé d’une manière de pouvoir le laisser à la maison. Au démarrage, le programme chargeait et des touches spécifiques du clavier étaient associées avec des traitements. Pour avoir un certain retour visuel, j’avais connecté deux LEDs, un rouge pour les moments d’acquisition de son et un vert quand ça jouait. La leçon apprise : sans de regarder un écran j’écoutais autrement en jouant. Ma communication avec les autres musiciens n’était pas absorbée par un retour visuel.

Depuis 1995, MaxMSP est devenu ma plateforme principale et j’ai fait très attention par la suite que la manière d’interagir avec le logiciel durant le concert ne soit pas trop basée sur le visuel. Les dernières années j’ai également expérimenté avec l’iOS.

L’apprentissage du synthétiseur analogique m’a bien servi par la suite parce que le Synthi A été un synthé modulaire avec une matrice de connexion. Les modules n’étaient pas connectés par défaut.

08-JIM2015-monster

Avec la matrice des entrées et sorties on pouvait établir des chaînes d’audio et de signaux de contrôle assez libre. On pouvait en même temps utiliser le signal du microphone pour contrôler les paramètres. J’ai exploré cette possibilité beaucoup pour lier l’évolution des paramètres à l’intensité du son entrant.

Mon premier patch d’improvisation avec MaxMSP en 1997 s’appelait ‘le monstre’. Il existe toujours, a subi entre-temps des mises à jour de la version MaxMSP 3,4,5,6,7, mais l’idée n’a pas changée. Le patch est organisé également en modules et contient une matrice. Il a des modules d’analyse pour piloter des paramètres de traitement par des signaux audio.

 

le geste

Le geste physique des instrumentistes et danseurs a été d’un grand intérêt pour moi au cours des 30 dernières années. Mon éducation musicale au piano et plus tard avec live-électronique m’a appris des aspects de faire la musique, longtemps avant que je ne pensasse à composer. Le geste est donc central à ma pensée: l’acte de faire est inséparable de la qualité sonore.
Toute la musique que j’ai écrite, que ce soit pour les instruments, de chanteurs ou de sources électroniques, est à la recherche de l’expression du phrasé gestuelle, les relations entre la cause et l’effet (et de leur négation) et une plausibilité reportés de nos expériences en dehors de la musique.

Le geste est également primordial dans ma pensée spatiale, aussi bien dans la composition que dans l’interprétation des œuvres sur des ensembles de haut-parleurs. Voici quelques prises de vue de notre système de diffusion Hydra de 40 haut-parleurs.

09-JIM2015-Hydra1
10-JIM2015-Hydra2

 

Je veux vous parler maintenant d’une pièce pour piano et électronique de 1999.L’idée principale était de créer un piano préparé sans préparations physiques dans l’instrument et avec la possibilité que les préparations changent, parfois rapidement.

11-JIM2015-Zellen-Linien

Au départ, il n’y avait pas une partition écrite, mais des descriptions verbales indiquant le rapport entre instrument et électronique pour chacune des 32 sections.
Cela me donnait beaucoup de liberté pour explorer durant chaque concert. Et petit à petit les idées convergeaient vers un modelé. Chaque nouvelle interprétation suivait des lignes générales, avec toujours des explorations locales. Plusieurs pianistes me demandaient de pouvoir la jouer. Je travaillais avec quelques-uns, mais me rendais compte que je n’obtenais pas exactement ce que je voulais. Donc en 2007 j’écrivais une version qui était très proche de mon modèle idéal.
Mais une fois le matériau existait sur papier, je voyais des rapports temporels autrement. Quand j’improvisais, j’avais une autre vue sur les proportions. Je commençais donc à recomposer certains aspects et la version écrite Zellen-Linien était née.

Regardons un peu des techniques pour récupérer le geste de l’instrumentiste. La première phrase que j’avais essayée est basée sur le fa4. Je voulais attacher à chaque nouvelle note de fa du piano un autre son de fa altéré. Au milieu de cette phrase il y a aussi une note de si qui n’est pas doublée par un son préenregistré. L’ordinateur filait donc faire la distinction entre la note de fa et si.

Je passais beaucoup de temps pour trouver une solution de suivi de hauteur, mais sans succès. Le son d’une note de piano est très bruyant au moment de l’attaque. J’aurais pu retarder l’analyse de 30 ms pour me concentrer plus sur la partie harmonique de la note, mais dans ce cas la décision de la note et par la suite le lancement d’un son préparé auraient également été retardé.
Je me retrouvais donc dans cette boucle qui ne questionnait plus l’idée.

04-JIM2015-processus-creatif-3

Une fois que je réalisais cela, je changeais pour une autre approche : les musiciens ont une faculté incroyablement fine de contrôler la dynamique de leurs jeux. Je pourrais simplement écrire la phrase de piano de jouer les notes de fa avec une dynamique de mf et la note de si avec une dynamique de piano. J’utilisais donc un suiveur d’enveloppe.

13-JIM2015-amplitude

Dès que le signal dépasse un seuil, le suiveur le détecte. Je peux donc connecter un fichier son à cette action. Dans le cas de cette phrase je connecte en faite un réservoir de sons : a chaque nouveau moment d’attaque un son différent de fa préparé sera joué. La valeur du seuil est par la suite définie pour être entre piano et mf.
Le suiveur d’enveloppe a un deuxième paramètre : le temps que le signal doit rester en dessous du seuil pour que le prochain attaque soit pris en compte. Cela pourrait aider à éviter des doubles attaques, mais peut également servir comme un paramètre compositionnel : dans une texture de notes très dense par exemple, seulement les notes sont prises, qui étaient précédées d’un moment de silence.

Voici l’exemple sonore de cette phrase de fa.

 

Ceci est la partition du début de la pièce. Elle commence avec quelques accords dans le grave qui déclenchent des fichiers sons par ce même suiveur d’enveloppe. Ça donne l’impression d’un traitement en temps réel, mais ce sont des fichiers préparés, des résultats de synthèse avec le logiciel Diphone.

15-JIM2015-Zellen-Linien-score1

Dans le deuxième système, vous voyez une suite d’accords dans la partie électronique. À la deuxième répétition de cet accord, le pianiste jouera le même accord, comme un écho de l’électronique. C’est quelque chose qui m’intéresse beaucoup.

Si on regarde des pièces pour instruments et bande des années 50, 60, 70 on s’aperçoit qu’il y a souvent des relations temporelles complexes entre l’instrument et la partie électronique. Dès que le traitement en temps réel devient accessible, on rentre souvent dans une sorte d’impasse temporelle, où l’électronique se passe soit en même temps pour une transposition par exemple, ou plus tard. J’essaye donc par une combinaison de sons préenregistrés et le traitement en temps réel d’obtenir un réseau temporel multidimensionnel, ou l’électronique peut également introduire du matériau.

Je vous joue le début de la pièce dans un enregistrement avec Sebastian Berweck:

 

À la fin de la pièce, c’est le pianiste qui va jouer la séquence des accords. En ce moment-là j’utilise le suiveur d’amplitude pour enregistrer le spectre de l’accord et génère un ‘freeze’, je fige un moment spectral qui est maintenu par la suite. Ce son est doublé par une synthèse granulaire, qui est également pilotée par l’intensité du jeu.

17-JIM2015-Zellen-Linien-score2

 

Fortsetzung

zurück nach oben