Université de Paris IV Sorbonne

 

 

 

 

 

PerMagnus LINDBORG

 

 

Le dialogue musicien-machine :

Aspects des systèmes d'interactivité musicale.

 

 

 

 

 

 

Mémoire de DEA de musique et musicologie du XXe siècle.

Sous la direction de professeur Marc Battier.

 

 

 

2003


            


 

 

 

 

PerMagnus Lindborg

 

Le dialogue musicien-machine :

Aspects des systèmes d'interactivité musicale.

 

Mémoire de DEA de musique et musicologie du XXe siècle. Sous la direction de professeur Marc Battier.

 

Université de Paris IV Sorbonne, 2003.

 

 

 

Dédié à Älvi Weiyu ; à lire et à écouter plus tard.

Je tiens à remercier Franck Destaillat, Joyce Bee Tuan Koh, Frédéric Maintenant, Françoise Marie, Olivier Pasquet, Frédéric Voisin et Rolf Wallin pour leurs conseils et amiable assistance tout au long du travail.

 

Le présent texte existe également au format HTML à consulter sur les pages web de l'auteur, http://www.notam02.no/~perli

 


Préface

INTRODUCTION

Définitions, dichotomies et sutures

Le dialogue, la communication

Objectivité et subjectivité

Œuvre-objet et œuvre–processus

Exemples d’œuvres-processus

Exemple de composition interactive d’une œuvre-objet

Systèmes d’interactivité musicale

Interactivité musicale : une définition

Délimitations du sujet

L’aspect musical

L’aspect scientifique

Projets analysés

Résumé

Historiques musicale et informatique

Traces historiques de la composition algorithmique

Musique mécanique, musique sur support fixe

La musique d’ordinateur

Composition Assistée par Ordinateur

Représentation informatique

Effets réciproques ?

Sciences cognitives : le paradigme symbolique

Le fonctionnement du cerveau

L’hypothèse d’un langage inné

Systèmes experts

Le paradigme connexionniste

Représentation dans un réseau neuronal

Quelle puissance computationnelle a un réseau ?

Limitations du modèle connexionniste

Résumé

langages et interfaces

Langages de programmation musicale

Signaux de données et de contrôle

MaxMSP

L’informatique dans la performance musicale

Le temps-réel

LisP

LisP dans la situation de concert ?

L'interface : couplage entre musicien et machine

Le couplage avec l’instrument

Le couplage avec l’instrumentiste

L’assistant musical

Exemples d’interfaces de performance

Résumé

Épistémologies de l’informatique musicale

L’outil au service de l’homme

L’extériorisation du code

L'instrument de musique

La lutherie électronique

D’où vient l’énergie ?

L’information comme données interprétées

Aspects du geste instrumental

Divisions du geste instrumental

Points de vue sur les rôles de l’ordinateur

La représentation musicale

La partie informatique comme partition

L’ordinateur comme instrument de musique

L'ordinateur comme méta-instrument

La musique d’ordinateur, par ordinateur ou pour ordinateur ?

créativité artificielle

L’automate, la machine musicale

Procédures automatiques

Un instinct animal chez la machine ?

Le test de Turing

Intuition et intention

Intelligence artificielle

Intelligence émergente, invention et combinatoire

Complexité

"Sphexicité" ou l’entêtement machinal

L’automate et l’effet “surprise”

L’intelligence artificielle dans la musique

Conclusion

Postface

Annexes

Leçons : An Approach to a System for Machine Learning, Improvisation and Musical Performance.

Frédéric Voisin, à la recherche d’une Neuromuse

Visite exploratoire aux pays de "Phonotope 1” de Rolf Wallin.

Multi-Layered Perceptron.

Projet de doctorat.

Bibliographies

Œuvres musicales

Logiciels

 


Préface

Ce texte a comme sujet la confluence entre la création musicale et les sciences cognitives. Le but principal du travail a été de faire de la reconnaissance sur le terrain. Le présent texte est donc forcément incomplet, et ne servira que de point de départ pour une recherche substantielle.

J’ai choisi comme thématique l’interactivité musicale, qui sera définie comme le dialogue musicien–machine. Je vais tenter d’approcher ce phénomène par multiples chemins, qui se superposent. Le thème restera au centre, et autour de lui, j’esquisserai sa relation avec plusieurs faits et phénomènes liés, en particulier : les langages naturels et formels, la question de l’interface à la création, l’intelligence artificielle, et les notions de mémoire et de sens. Ces approches mises ensemble constitueront l’étude des aspects des systèmes d’interactivité.

Le vaste sujet de l’interactivité musicale est incrusté dans l’histoire de la musique d’ordinateur, une histoire qui date déjà d’un demi-siècle au moins. Par conséquent il sera nécessaire de cerner le cœur du sujet et de parcourir des cercles concentriques ou en spirale, pour gagner des connaissances qui nous permettent de comprendre mieux le phénomène. La procédure est un peu comme quand on observe une étoile avec l’œil nu : si on la regarde tout droit elle disparaît… La rétine est plus sensible à la lumière dans les côtés. Le texte est donc fatalement un collage consistant de plusieurs études d’envergure limitée. Malgré cela, il faut respecter les aspects importants propres au sujet, essayer d’esquiver le superflu et faire le plus possible de liens. La recherche est guidée par trois thématiques. Quelle est la matière, en d’autres termes, les composants et les processus qui constituent le système de proprement dit, utilisé dans la situation de performance musicale ? Deuxièmement, quelle est la relation entre recherche cognitive et outils technologiques à disposition ? Troisièmement, quelles implications est-ce que les technologies ont eues et auront d’autant plus à l’avenir sur la créativité musicale ?

Depuis plusieurs années, les concepts qui sous-tiennent ce texte ont influencé mon travail de compositeur et performeur. J’ai fait des expériences en la matière au travers d’œuvres employant des dispositifs électroacoustiques de configuration variable : “Beda+” (1995), “Tusalava” (1999), “Leçons pour un apprenti sourd-muet” (1998-9), “gin/gub” (2000), “Manifest”[1] (2000), “Project Time”[2] (2001), “sxfxs” (2001), “Extra Quality” (2001-2), ”D!sturbances 350–500”[3]… Ces morceaux de musique sont nés d'une curiosité pour le fondement théorique de la cognition et le fonctionnement du cerveau humain. En particulier, je me suis consacré à analyser la situation de jeu dans laquelle a lieu un échange d’informations et d’initiatives musicales entre musicien et machine, qui agissent sur un degré équivalent de participation dans un système complexe. J’éprouve que cette situation ludique peut également servir d’outil de recherche ; elle est un peu comme un laboratoire, ou un banc d’essai, pour tester des hypothèses, qu’elles soient des propos limités à la musique, ou bien plus étendues, élargissant vers des terrains inhabituels.

Étant compositeur, j’ai essayé de rendre l’étude ni trop limitée, ni strictement descriptive. J’ai ressenti le besoin d’analyser des travaux contemporains, ayant des composants scientifiques : les trois projets étudiés sont effectivement en cours de développement. Il s’agissait dans cette étude de capter plutôt leur raison d’être que de montrer leurs formes respectives dans un état finalisé, qui de toute façon n’est pas leur destin. Si la musicologie se contentait de démontrer des structures dans des œuvres de répertoire connues depuis longtemps, ou si elle s’enfermait dans un académisme technocrate développant des modèles n’expliquant que des choses qui sont évidentes pour les musiciens, alors elle souffrirait d’anémie. En proposant une hypothèse, elle doit comporter des aspects prédictifs. Ce serait encore mieux si des modèles développés en support à l’hypothèse étaient facilement accessibles et pouvaient servir au développement de nouveaux outils innovants. Cela est souhaitable, non seulement pour stimuler la production créative, mais également pour aider à mieux comprendre le fonctionnement de la créativité lui-même.

L’activité musicale, au sens général, pour ceux qui la produisent autant que pour ceux qui l’apprécient, est un exercice essentiellement non-verbal dont le but est l’émergence d'une compréhension de la créativité humaine d’un ordre autre que verbal ou écrit. En étudiant la créativité, et surtout sa formalisation, ne risquerait-on pas de la dénaturer ? Peut-être la créativité ne risque-t-elle pas de s’effondrer dans la recherche ? Que restera-t-il de la création musicale le jour où une machine aura composé une œuvre capable d’émouvoir les auditeurs ignorant tout de son mode de fabrication ? Néanmoins, en suivant l’appel de William Faulkner, “kill your darlings”, espérons transcender la créativité telle qu’on la connaît et aller vers des pays musicaux inouïs.

PerMagnus Lindborg

Paris, septembre 2003


Le roi de la pampa retourne sa chemise

pour déplaire au profane aussi bien qu’aux idiots

il se penche et alors à sa grande surprise

il ne trouve aussi sec qu’un sac de vieux fayots.

Raymond Queneau[4]

INTRODUCTION

Ce texte s’inscrit dans un mouvement qui tente de promouvoir, dans le cadre de la musicologie, une étude des techniques et concepts employés dans la situation de performance interactive. [5] Avant d’oser cette étude, nous avons posé quelques questions, qui sont devenues au cours du travail des problématiques guidant la recherche :

• Dans le domaine de la musique, comment penser la relation entre science et art ? Quel est l’écart entre recherche scientifique et production artistique ? Est-ce qu’il faut l’abréger, et comment ?

• Est-ce par une étude musicologique qu’on expliquera la créativité musicale ? Quels outils existants sont efficaces ? Faut-il scruter des travaux dans d’autres sciences et leur emprunter des connaissances et des méthodologies ?

• Sous quel format sera-t-il possible de dépeindre une œuvre si elle est dépourvue de représentation fixe ? Comment analyser et mettre en évidence une musique qui est définie plutôt par ses métamorphoses structurelles que par une matérialité immuable ?

Il nous semble important de noter que la recherche académique et l’activité artistique sur le terrain se fécondent mutuellement. Ce dialogue peut instruire la méthodologie de recherche, dans le dessein d’approfondir et les connaissances techniques et la réflexion philosophique. Il est incontestable que la relation entre art et science est complexe et souvent contradictoire. Ce sera l’un des thèmes de l’entretien avec Frédéric Voisin. [6]

Est-ce que la musicologie peut constituer un lien entre art et science ? Elle serait une discipline de recherche mettant en jeu des connaissances des deux vastes domaines. Dans la friction qu’excite cette rencontre se créeraient de nouvelles connaissances. La musicologie, comme pratique académique, s’est toujours tournée vers l’étude de ses aspects sociaux et historiques. S’ajoutant à cette raison d’être principale, elle a encore au moins deux objectifs qui méritent d’être pris en compte. Premièrement, la musicologie peut expliquer la musique actuelle, par d’autres formes et par d’autres canaux de communication que l’expression sonore elle-même, aidant ainsi à sa compréhension et acceptation par le public. Deuxièmement, la musicologie peut constituer un domaine de recherches transdisciplinaires, fournissant des modèles prédictifs de la perception et composition musicale, devenant ainsi un générateur de connaissances dynamiques. La musicologie est donc l'étude et descriptive et prédictive de méthodes qui permettent d'augmenter, expliciter et généraliser des modèles cognitifs des phénomènes musicaux.

L’étude des aspects sociaux du phénomène de performance musicale, certainement très important pour le sujet, ne jouera néanmoins qu’un rôle secondaire dans ce texte. Nous faisons référence à l’entretien avec Frédéric Voisin en annexe, et à la citation de Michel Waisvisz qui affirme que les milieux de la musique ont des connaissances précieuses auxquelles il faudra veiller.

« La communauté musicale a accumulé une quantité formidable de connaissances au sujet de la performance et du rapport entre composition et performance, en particulier, le transfert d'émotion par des instruments sensitifs. Plusieurs institutions de recherche musicale et organismes de taille modeste doivent de plus en plus souvent faire face à des soutiens financiers insuffisants et/ou à des coupes budgétaires. Certains craignent fatalement leur existence. Je pense que ceci est un paradoxe tragique et j'espère qu’une conscience de la valeur de cette connaissance viendra à temps. »[7]

La musique est un domaine parfaitement adapté à l’expérimentation cognitive, et l’expérimentation doit être la méthode principale pour générer des connaissances, et le mode de création d’importance capitale. Cependant, il faut prendre cet aspect au pied de la lettre. Guido Mazzola, en proposant une théorie formelle de la sémiotique musicale, souligne que :

« Les expérimentations, dans les sciences humaines, ont une meilleure chance d'être scientifiquement justes si les paramètres et les données d’entrée ainsi que les résultats obtenus sont soigneusement contrôlés. Par conséquent, des expérimentations aidées par l’informatique ne sont pas seulement une alternative à la mode, elles sont au contraire à la base même des expérimentations dans les sciences humaines. »[8]

Mazzola pose la question : « Qu’est-ce qu’une expérimentation musicologique ? », notant que « malheureusement, la théorie de musique et la théorie esthétique n’ont pratiquement jamais été regardées comme objets authentiques de recherche expérimentale »[9]. Il demande plus d’utilisation d’outils informatiques pour résister à un « discours pré-scientifique dans le domaine de la musicologie » entraîné par « son manque de précision ». [10] Ce qui manque serait l’emploi de méthodes formalisables, ce qui est un problème difficile, même quand l’objectif d’une étude est bien défini.

Définitions, dichotomies et sutures

Pour cerner le phénomène d’interactivité dans la situation de performance musicale, il faut d’abord définir les termes système, interactivité et dialogue à la lumière d’une discussion de trois dichotomies : entre apollinien et dionysiaque, entre objectif et subjectif, et finalement entre œuvre–objet et œuvre–processus.

Le dialogue, la communication

L’activité qui crée un lien entre un fait et sa perception chez un observateur, est-elle une communication ? Ce n’est pas forcément le cas, puisque nous ne pouvons considérer une simple lecture d’une partition comme une communication, même si, évidemment, par elle, une sorte de lien s’installe entre la musique et celui qui l’analyse. La musique, en tant que matériau sonore, peut elle-même constituer une communication, mais sous des conditions particulières à une situation donnée. À propos de la communication musicale, Robert Duisberg établie une dichotomie fondamentale : dans les composants mental et physique de la musique.

« La musique communique, sans aucun doute. Cependant, il y a au moins deux modes en lesquels une telle communication est généralement appréciée. Par convenance, nous pouvons les appeler l’Apollinien et le Dionysiaque. C'est encore, peut-être, une dichotomie inutile, mais historiquement manifeste au cours des discussions esthétiques abondant entre les musiques dites formelles et programmatiques, entre Brahms et Wagner (…) ou entre classicisme et romantisme. »[11]

Le mode apollinien, plutôt penché vers la langue, est lié à l'identification mentale des structures et à l’impression de beauté logique ou mathématique d’une musique. Dans ce mode, on étudiera les formes et les objets qui constituent les structures musicales, qui, par conséquent, sont essentiellement syntactiques. D’après Duisberg, il est possible de parler d’une œuvre musicale dans son état apollinien comme “ forme sans contenu”, comme objet (désirable), idéalement résidant hors le temps et à l’extrême ne nécessitant aucune transformation à l’état sonore. [12] À l’opposé, le mode dionysiaque est plutôt physique et crée des échanges rapides, imprévisibles et enivrants. Par ce mode, on évoque l’œuvre dans ses aspects temporels, mettant l’accent sur l’activité dynamique qui produit du contenu, ainsi que l’impact que celle-ci a sur l’auditeur.

Objectivité et subjectivité

Peut-on voir dans la dichotomie entre deux modes de communication un reflet des aspects mentaux et physiques des modes de connaissances subjectives et objectives ? Cette dichotomie est une extension de la précédente, et elle aussi a profondément touché le débat esthétique du 20e siècle. Dans un contexte de musique interactive de concert, l’on n’a plus besoin d’un mysticisme défensif de la part du compositeur, puisque les connaissances des deux aspects peuvent être communiquées par le musicien. Comme Michel Waisvisz le souligne,

« Heureusement, une grande partie de la musique rentre dans la catégorie du “ personnel ”, mais cette catégorie n'est pas un chaos romantique et analytiquement impénétrable d’émotions, de sentiments et de fantômes. On peut analyser et créer des rapports distincts entre le changement de caractère d'un geste, et le changement du contenu musical - et du contexte - de manière à ce que l’intention musicale soit clairement saisie par les auditeurs. »[13]

Il s’agit donc d’analyser la relation entre le geste du musicien et le son. Même la perception individuelle - donc subjective - est un objet d’étude ; en mettant l'accent sur l'importance d'étudier la structure des émotions, Duisberg affirme l'utilité d'étudier la musique dans un contexte de cognition artificielle.

« D'abord on doit gagner une compréhension de la façon dont des concepts se forment dans l'esprit, et par la suite construire un modèle expliquant comment des stimuli sensoriels sont structurés, donnant ainsi naissance à des concepts. (…) Et voilà que la musique est un terrain fertile pour une telle modélisation, car la compréhension de tout morceau de musique implique l'identification de ses structures saillantes, toujours en ses propres termes, affin d'apprécier comment elles sont manœuvrées. »[14]

Cependant Duisberg cite le scientifique et philosophe Michael Polanyi qui, dans les années 1950, a critiqué les sciences d’accorder trop d’importance à l’objectivité.

« La conception régnante de la science, basée sur la disjonction de la subjectivité et de l'objectivité, cherche - et doit chercher à tout prix - à éliminer des théories scientifiques [les] évaluations passionnées, personnelles, humaines, ou au moins à réduire au minimum leur influence. (…) [Pourtant] l'acte de savoir inclut une évaluation ; et ce coefficient personnel, qui forme toute la connaissance effective, jette un pont sur la disjonction entre subjectivité et objectivité. »[15]

Il faudra donc chercher ce “ pont ” de savoir qui, à la fois, suscite la passion individuelle et la connaissance communicable. Nous avons vu que la musique existe en tant que lien entre ce qui est subjectif et ce qui est objectif et c’est ce lien qui fournit la possibilité qu’une communication ait lieu. Pour autant, dans le cas d’une construction voulue, peut-on toujours dire qu’il s’agit d’une œuvre musicale ?

Œuvre-objet et œuvre–processus

Si la communication musicale se comprend d’après deux points de vue différents et opposés, serait-elle, en conséquence, accouplée à des vues radicalement contradictoires sur l’œuvre elle-même ? Peut-on associer à la communication en mode apollinien une interprétation de l’œuvre comme objet, et à la communication en mode dionysiaque une interprétation de l’œuvre comme processus ?Il semble qu’Igor Stravinsky ait cerné cette question lors d’une série de séminaires à Harvard en 1940, desquels il a élaboré son poétique musical.

« Il est nécessaire de distinguer deux instances, ou plutôt deux états de musique : musique potentielle et musique réelle (actual music). Après avoir été fixée sur le papier ou maintenue dans la mémoire, la musique existe déjà avant son exécution réelle, divergeant à cet égard, de tous les autres arts, juste comme elle diffère d'eux (…) dans les catégories qui déterminent sa perception. L'entité musicale présente ainsi la singularité remarquable d'incarner deux aspects, d'exister successivement et distinctement sous deux formes, séparées l'une de l'autre par le hiatus du silence. »[16]

L’idée de l’œuvre comme processus est étroitement liée au mouvement Flux des années 1960. À l’époque, John Cage a remarqué que « de nombreux compositeurs ne fabriquent plus de structures musicales. Au lieu de cela, ils mettent en place des processus. » Il confie sa préférence à penser en termes de processus plutôt qu’en termes d’objet, car pour lui, « les processus n’excluent pas les objets. Mais cela ne fonctionne pas dans le sens contraire. »[17] En revanche, si l’idée portée dans la citation de Cage est que l’ordre du processus serait plus global que celui de l’objet, nous pensons qu’elle doit être contrariée : l’œuvre dans son mode processus ne doit en aucun cas être conçue simplement comme une suite d’objets ou d’états. En parlant de processus comme mode d’existence d’une œuvre, nous entendons la structure temporelle qui imprime sa force directement à celui qui s’y expose (l’auditeur dans le cas de musique) et qui porte en elle la potentialité d’être réalisée matériellement (sous forme sonore ou autre). Par conséquent, les objets n’existent pas dans le processus, mais sont des représentations produites par l’auditeur à partir des données qu’il a perçues. Les objets n’existent que dans sa propre perception. Pour analyser l’œuvre, l’auditeur en a besoin pour décrire un processus ; le processus n’en a pas besoin pour exister.

L’idée d’œuvre-processus est proche à celle de l'œuvre ouverte                      . Décrite par Umberto Eco                     , l’œuvre ouverte se laisse à “mille interprétations”, sans que son unité irréproducible soit tachée. Chaque actualisation est ainsi une interprétation et une réalisation ; chacune vit l'œuvre dans une nouvelle perspective. Le principe de l’œuvre ouverte attire nombreux compositeurs, et aujourd’hui on le retrouve dans des œuvres d’art distribuées en ligne plus souvent qu’au concert ou sur support fixe. Il est ainsi clair que le contexte social dans lequel l’œuvre existe est un critère dominant par rapport au contenu.[18]

Exemples d’œuvres-processus

En analysant “Trois Mythologies et un poète aveugle[19], œuvre « dont le principe serait le flux et l’aléatoire contrôlés », Anne-Gaëlle Balpe discerne les caractéristiques d’une performance en tant qu’actualisation ou ”snap-shot” de l’œuvre proprement dite, qui, elle, est continuellement en cours de transformation. « L’œuvre générée n’est que l’actualisation[20] du possible formé par l’association d’un modèle et de ses contraintes de développement. » [21] En temps-réel, des générateurs automatiques et les musiciens échangent des données et la façon dont cela se fait constitue le modèle. Balpe explique l’idée de modèle par une allégorie :

 « Tout d’abord, le modèle ne dépend pas de son développement, il est donné a priori comme possible et n’admet aucune transformation en tant que modèle. Les contraintes, elles, apparaissent au fur et à mesure du développement du modèle, c’est-à-dire que leur existence dépend de ce développement. Prenons l’image d’un fleuve. L’essence du fleuve, c’est-à-dire tout ce qui le définit comme fleuve, à savoir l’eau douce, son mouvement, etc. est un modèle. Pour que ce modèle devienne un fleuve particulier, c’est-à-dire une actualisation parmi une infinité d’actualisations possibles, il faut que l’essence du fleuve rencontre des contraintes, c’est-à-dire une source, un contexte géologique.»[22]

Cette idée de modèle d’œuvre invite une comparaison avec le concept de “modèle de son” introduit par Trevor Wishart.[23] Ce dernier est une représentation dans l’ordinateur d’un instrument. Les deux concept nous semblent proches, sauf que Balpe l’a amplifié pour dénoter une structure globale, au niveau d’une œuvre, au lieu d’un son particulier.

Dans une discussion de la base conceptuelle de “Phonotope 1”, Rolf Wallin parle de cette pièce comme d’une entité fluide. Cette caractéristique est d’ailleurs applicable au plusieurs de ses compositions récentes. Par l’idée d’une notation minimale, qui laisse un terrain de libertés et contraintes à explorer et exploiter par l’interprète, Rolf Wallin est lui aussi proche au concept que l’œuvre puisse exister dans un mode de flux continu.

« Cette notion que des “instructions de travail” simples peuvent générer une musique imprévisible au niveau des détails, mais qui néanmoins corrèle avec les procédures, m’a beaucoup fascinée, en tant qu’alternative plus “liquide” à la notion d’œuvre, alors que l’œuvre au sens traditionnel est “cristallisée” ou “coagulée”. »[24]

Pour conclure, acceptons la définition de Balpe de voir l’œuvre-processus comme « l’ensemble des phénomènes mis en jeu dans une chaîne ou système de régulation ».[25] Cette chaîne va réguler l’information qu’elle véhicule et dans un sens, se place en dehors du contexte spatial. Balpe continu sur sa notion de modèle (potentiel) :

« En d’autres termes, le modèle en soi ne dépend ni du temps ni de l’espace. En revanche, chacune de ses actualisations se développe par contraintes, c’est-à-dire dans un temps et un espace. Le modèle, même s’il a initialement été formé par contraintes, n’est plus une contrainte à partir du moment où il est défini comme modèle dans un système particulier : en tant que “possible”, il sort de toute dimension temporelle ou spatiale. »

Or, définir le modèle comme hors-le-temps nous semble trop idéaliste et presque platonicien… À notre avis, il faut concevoir le modèle d’œuvre  comme une projection de ses modes d’existence, entre œuvre-objet et œuvre-processus. Le mode processus étant temporel, il est toujours en transformation. La projection, à son tour, est une représentation mentale éveillée à un instant particulier ; elle existe pour nous en tant qu’état cérébral. Celui-ci est physique et temporel, échappatoire certainement, mais plusieurs aspects de sa structure sont détectables puisqu’ils durent un certain temps. Nous allons cerner l’objet de la recherche par une reflexion nourrie des connaissances apprises du domaine des sciences cognitives, en particulier dans le cadre du fonctionnalisme, pour acquérir des connaissances appropriées avant de réattaquer le problème d’un modèle d’œuvre potentielle.

Exemple de composition interactive d’une œuvre-objet

Pour expliciter la distinction que nous faisons entre l’œuvre-processus et le processus interactif de composition qui conduit à une œuvre-objet, regardons une pièce de musique admirablement bien documentée :“Traiettoria[26] pour piano et bande, de Marco Stroppa. Le compositeur, qui a également fourni une analyse de son travail de composition, se dit avoir été attiré par l’idée que l’ordinateur peut être considéré un instrument de musique, pour lequel le compositeur doit s’efforcer de développer une stratégie compositionnelle spécifique. Dans “Traiettoria”, la partie pour l’électronique est composée en temps-diffusé et existe sur support fixe (bande octophonique). Stroppa explique que le travail avec l’électronique lui a emmené à considérer l’ordinateur comme un instrument sur lequel lui, le compositeur, peut jouer. Il fait une comparaison entre l’ordinateur et les instruments traditionnels, acoustiques, en disant que ces derniers « définissent un certain “répertoire” sonore, à la fois indiscutable et stable. Avec l’ordinateur, ce même répertoire est déjà le résultat d’un acte “micro-compositionnel” »[27]. Le compositeur découvre le potentiel de l’ordinateur en tant qu’instrument avec le même esprit qu’il explore des sonorités rares (peut-être inouïes ?) dans le piano, l’autre instrument impliqué dans l’œuvre.

« Je me suis expressément contenté d’utiliser chaque instrument de la façon la plus “naturelle” possible. Le piano n’est jamais traité électroniquement. (…) L’ordinateur (…) élabore de façon tout à fait indépendante son propre matériau, selon les capacités techniques qui sont les siennes et sans jamais prétendre “imiter” le piano (…) »[28].

Stroppa analyse la possibilité d’établir une parfaite équivalence entre ordinateur et instrument acoustique en prenant compte des importances respectives de chacun pour la totalité de l’œuvre. Le compositeur cherche à créer « un contact fertile et efficace entre un instrument traditionnel - le piano - et un instrument nouveau - l’ordinateur » ce qui demande « une notation [qui] doit déjà être en mesure de traiter à la fois des paramètres classiques et des paramètres nouveaux. Pour ces derniers, une sémiotique spécifique doit être inventée »[29]. Pour Stroppa, le nœud de la problématique est dans l'efficacité de la notation. L’œuvre est présentée au concert en tant qu’objet (dans le sens que nous avons discuté dans l’introduction). Cependant, le compositeur a cherché à composer un rapport conversationnel entre les deux instruments. Il dit que « les deux mondes en question [l’acoustique et l’électronique] n’en cherchent pas moins à établir un dialogue réciproque ». C’est la réciprocité entre les composants qui nous intéresse dans le contexte d’une étude de l’interactivité. Accorder une importance égale à tous les musiciens, réels et virtuels, impliqués dans une œuvre, est une idée manifestement chère à Stroppa. Elle a joué un rôle important dans le processus de composition de “Traiettoria”. Néanmoins, au moment de l’achèvement de la partition, l’interactivité qui a nourri le travail ne concerne que le compositeur ainsi que le musicien réel, le pianiste, sur un degré inférieur. Pour l’auditeur, l’aspect d’interactivité est absent au moment qu’il perçoit la musique. La situation est typique de la musique mixte. Or, il faut veiller à ne pas confondre ce genre avec celui de la musique de performance interactive. Une œuvre peut être construite pour véhiculer l’image d’une interactivité. Elle ne mit pas forcément en jeu la réalité physique de l’interactivité, ce qui est l’échange bidirectionnel d’information pendant la performance.

Systèmes d’interactivité musicale

Après cette discussion, revenons aux systèmes dynamiques. Cette notion implique la présence de la machine dans une communication. Utilisé au concert, dans le cas typique, l’ordinateur est le plus souvent désigné par “dispositif informatique”. Sous cette désignation se cachent des emplois catégoriquement différents de l’ordinateur.  Il peut s’agir d’une musique composée, avec des déclenchements de fichiers sonores par pédale MIDI ; ou il peut s’agir d’une musique improvisée employant du traitement de signal, passif en directe ; ou encore il peut s’agir d’analyse de signal et synthèse de son en temps-réel. Est-ce qu’il faut sensibiliser le public aux différents concepts à la base des pièces que sont programmées au concert ? Marc Battier a proposé d’utiliser le terme de système quand on fait référence au fonctionnement de la machine au sens plus étendu.

« D’ailleurs, dans quelle mesure peut-on englober dans le terme de machine ce qui est mieux désigné sous le nom de dispositif ? Un dispositif, tel que celui qu’on désigne sous le nom de dispositif électroacoustique, n’est-il lui-même pas mieux décrit par système, terme qui désigne une réunion d’organes ? Quoi qu’il en soit, le caractère mécanologique du dispositif est immuable. »[30]

Toujours à propos de la notion de système en la situation de performance musicale, nous trouverons dans le domaine des sciences cognitives l’approche connexionniste qui étudie les systèmes dynamiques et l’intelligence artificielle.[31] Il s’agit d’une nébuleuse de théories ayant en commun une stratégie qui applique des modèles mathématiques non-linéaires aux systèmes complexes naturels et artificiels en les découpant en sous–composants plus ou moins bien définis. Les procédures cognitives de niveau supérieur sont ainsi réduites à des sous-tâches de complexité abordable.

Interactivité musicale : une définition

Dans une première tentative de définition, l’interactivité serait la « propriété d'un programme informatique qui permet à l'utilisateur d'interagir avec le système en modifiant le déroulement du contenu du programme »[32] Le dictionnaire ajoute que le terme est « utilisé pour désigner le degré d'interaction entre l'utilisateur et le système informatique lors d'un traitement en mode conversationnel. »[33] Retenons que la partie qui reçoit de l’information sera transformée par elle, et qu’il existe des degrés différents d’interactivité et qu’il peut y avoir un aspect conversationnel, presque banal ou invisible. Même si cela est très juste et pertinent pour cette étude, nous pensons néanmoins que la définition est trop unilatérale, car elle implique une interactivité réduite au programme informatique laissant de côté la relation entre lui et l’utilisateur. Cherchons ailleurs ; un dictionnaire anglais donne pour interactive : « (informatique) ce qui permet à l'information d'être passée sans interruption et dans deux directions entre un ordinateur et la personne qui l'emploie. »[34] Il y a ici un aspect important. Pour constituer une interactivité, il faut qu’ait lieu entre les deux agents un échange tel que chacun reçoive et émette de l’information. Les deux agents sont, pour ainsi dire, au même niveau. Pourquoi, cependant, l’interaction devrait-elle être continue ? Cette condition ne semble guère nécessaire. Dans un sens plus étendu, pourrait-on entendre par interactivité toute relation causale et bidirectionnelle établie par un échange d’information entre agents dont au moins l’un est informatique ? Si l’information en question est interprétée en tant que musique, on parle d’interactivité musicale. Nous emploierons dans ce texte l’expression dans un sens assez précis : l’interactivité musicale est un système d’échange d’information en mode conversationnel et bidirectionnelle entre musicien et dispositif informatique, qui également transforme le fonctionnement des deux agents.

En analysant n’importe quelle œuvre, il faut d’abord voir si elle peut se comprendre par le mode d’objet ou par le mode de processus, ou par les deux mis ensemble. Il y a des œuvres qui ne sont qu’objet (par exemple, une œuvre acousmatique avec mode de diffusion fixe), autant qu’il y a des œuvres qui ne sont que processus (par exemple, rite traditionnel d’initiation). L’œuvre interactive réunit ces deux modes. Nous pouvons la comprendre comme objet par sa réalité sonore, mais elle peut, par son mode processus, se laisser également conçue comme structure temporelle en train de se métamorphoser. En étudiant le phénomène de l’interactivité, nous avons donc cherché ce qui unit les différents points de vue représentés par les dichotomies que nous avons discutées.

Délimitations du sujet

Les définitions principales étant établies, il est possible de délimiter le terrain complexe, qu’offre le sujet, à un objet d’étude plus restreint, sans toutefois l’appauvrir. Le premier débrouillage du champ de recherche se fera par des délimitations agissant sur trois axes : musical, scientifique et matériel.

L’aspect musical

Comme Karl Popper a expliqué, dans le domaine des investigations scientifiques, une hypothèse n’est valable que si elle peut être falsifiée. Avancer une idée qui ne peut être critiquée est effectivement non scientifique. La cohérence de l’édifice des théories scientifiques est ainsi garantie par un système de critique continu et d’autocorrection. Y a-t-il de même dans le domaine des arts et en particulier dans la musique ? Le critère de reproductibilité d’une expérimentation, indispensable à une investigation scientifique, n’est pas requis. On pourra qualifier le résultat sonore (l’actualisation de l’œuvre-processus musical) d'un procédé créatif comme une solution qui répond aux problématiques que son créateur (le compositeur) a posées. La valeur d’une œuvre est ainsi proportionnelle à sa capacité de résoudre ces problèmes, et en même temps, à sa clarté de pointer de nouvelles voies de recherche pertinentes. Cela dit, c’est toutefois clair que la création artistique procède sans se faire l’obligation de tout expliquer à chaque instant et elle peut prétendre l'existence de phénomènes à la fois vrais et non explicables.

L’aspect scientifique

En dehors des sciences évidemment liées à la musique, comme l’acoustique et les mathématiques (combinatoires et autres), une étude musicale propose des points communs avec les sciences cognitives. Au moment où toute activité scientifique est devenue transdisciplinaire, où presque toute activité dans la philosophie, la psychologie, l’informatique, la linguistique, l’anthropologie, les neurosciences, touche à la cognition, quelles sont les sciences et techniques utiles pour la musicologie ? On oppose souvent science molle et science dure, or il est pourtant plus pragmatique de parler de différentes approches. On note que contrairement à l’approche musicale, le scientifique commence toujours par chercher une solution (une hypothèse) minimale au problème qu’il se pose. Celle-ci (ou le modèle qui l’enveloppe) est ensuite mise en relation avec d’autres hypothèses, avant de former une théorie. Avancer une hypothèse n’est pas nécessairement un processus rationnel, et demande une grande portion d’intuition. Marvin Minsky l’a formulé ainsi : « seulement la surface de la raison est rationnelle. »[35] C'est une aberration de la culture occidentale récente que d’opposer les concepts scientifiques à l'art, la raison à l’esthétique, dans le dessein de les rendre incommensurable. Pourtant elles sont complémentaires, agissant l'une sur l'autre, et font parties d'un tout.

Projets analysés

L'utilisation de moyens informatiques a bouleversé la création musicale (fait historique qui n'est pas forcément évident dans les conservatoires). Il y a peu de convention des termes souvent utilisés. Une discussion sur les distinctions historique, sémiologique et technique entre machine, instrument et outil est centrale à ce texte. La situation d’interactivité la plus éphémère, la plus difficile à analyser, est celle d'une situation de concert où la réalisation sonore n'est pas fixée au début de la pièce, mais dépend des choix faits pendant le déroulement de la musique. Ces choix peuvent affecter la réalisation sonore plus ou moins profondément, à un degré d’interactivité qui va du décoratif au structurel. Quand l'ordinateur possédera une large marge de manœuvre, son fonctionnement approchera-t-il de la vraie improvisation créative ? Pour illustrer cette problématique, trois projets récents sont discutés en annexe.

• Le compositeur Rolf Wallin travaille avec des modèles mathématiques pour générer des procédures musicales, qu’il applique surtout dans la phase “précompositionnelle”. Dans “Phonotope 1”, Wallin a élaboré une réflexion autour de l’idée des jeux musicaux dans la situation de performance. L’ordinateur est ici traité comme une machine quasi indépendante, et la description de la musique, la partition, est distribuée sur les différents acteurs.[36]

• L’œuvre interactive “Leçons pour un apprenti sourd-muet[37] montre un travail d’inspiration scientifique appliqué au jeu musical. L’article présente ce projet d’un point de vue technique, comme approche à l’apprentissage automatisé, l’improvisation et la performance musicale. “Leçons” est également un exemple de composition algorithmique et d’utilisation de modèles statistiques pour la recombinaison d’un matériau donné.

• Le projet “Neuromuse” de Frédéric Voisin allie travail scientifique par le développement de modèles de réseaux de neurones et mode de présentation artistique. La pièce “L’Écarlate” en est une actualisation, dans laquelle un modèle connexionniste est employé pour donner à l’ordinateur une description dynamique de la partition qu’elle aura à exécuter. Ce projet intègre la musique, la danse et l’informatique.

Ces trois projets ont de multiples point en commun, le plus fondamental étant que l'ordinateur et les interprètes sont considérés comme deux composants égaux d’un système interactif et global. Par conséquent, l’ordinateur se trouve au même niveau d’importance que le musicien ; il n’est pas vu comme une machine passive, qui attend toute instruction.

Résumé

Au travers d’une discussion du concept de dialogue, nous avons défini l’interactivité musicale comme un système d’échange d’information en mode conversationnel et bidirectionnel entre musicien et dispositif informatique, qui également transforme la constitution des deux agents. Par la suite, nous avons discuté les modes d’existence d’une œuvre musicale, en tant qu’œuvre-objet ou œuvre-processus. Nous avons constaté qu’une performance de musique interactive, à l’opposé de la représentation d’une composition sur support fixe, possède des caractéristiques des deux modes d’existence en même temps.

L’interactivité musicale peut être approximée par le degré de proximité à l’un ou à l’autre des deux modes d’existence. Une esquisse de ce champ incluerait

• Œuvre-objet. Prédéterminé. Représentation sur support fixe. Bande magnétique, automate musical. Partition dominante par rapport à interpretation. Monologue.

• Œvre interactive. Imprévisible. Interprétation et composition simultanées. Représentation dynamique et distribuée. Structure partiellement descriptable par règles. Création collective, improvisation réfléchie, jeux. Échange dans un environnement.

• Œuvre-processus. Indéterminée. Structure de potentialités qui donne naissance à une actualisation unique. Absence de créateur résidant hors–de–système. Nature.

Dans ce qui suit, nous continuerons d’abord par regarder l’échange entre la musique et les sciences cognitives dans une perspective historique et essayerons de mettre en évidence les points de contact dans leurs développements parallèles. Nous emprunterons quelques directions dans la création actuelle, avant de nous concentrer sur les trois projets-pilotes, inspirés d’aspects différents mais complémentaires, qui ont en commun d’avoir des théories cognitives comme source d’inspiration. Finalement, après avoir dessiné les aspects principaux des systèmes d’interactivité musicale, nous concluons par esquisser la direction d’un futur travail de recherche à la fois musical et scientifique.[38]


« La technologie et les sciences rendent possible un lien entre les mondes biologiques et numériques. Ce sujet fait appels à l'éthique, l’épistémologie, la philosophie, l’intelligence artificielle, l’anthropologie, la biologie. »

Frédéric Voisin[39]

Historiques musicale et informatique

D’abord, il faut revoir les histoires parallèles de la musique d’ordinateur et le développement technologiques dans les sciences cognitives, en particulier l’informatique et l’intelligence artificielle. Nous allons présenter l'histoire de l'interactivité musicale en mettant l'emphase sur la question de l’interface. Ensuite, les paradigmes principaux des langages de programmation et l’implication pour l’utilisation musicale. Dans une perspective globale et historique, l’ordinateur a servi à des utilisations musicales en quatre modes différents : comme instrument de performance, pour le musicien ; comme outil conceptuel et pratique, à l’aide principalement au compositeur ; comme interface dans une situation d’interactivité, mélangent les deux premiers aspects ; finalement, comme substrat de l’intelligence artificielle d’un musicien virtuel. Pour mieux comprendre l’ordinateur, il faut revoir ces modes un par un, et voir comment l’ordinateur peut être vu dans ses rôles différents.

Dans ses Écrits, Iannis Xenakis offre une vue sur les « correspondances entre certains développements de la musique et des mathématiques »[40], depuis l'antique jusqu'aux années 1970. D’après lui, il y a plusieurs parallélismes depuis l’Antiquité dans le développement des théories prédictives appliquées à la musique et aux mathématiques, à commencer par la découverte, attribuée à Pythagore, de la correspondance entre vibrations harmoniques dans une corde et nombres rationnels. La mathématique comme lien entre un phénomène échappatoire (le son) et sa représentation que l’on pouvait écrire sur un support fixe (le papyrus) a été une abstraction de première importance, et a eu des conséquences religieuses pour les adhérents du pythagorisme et autres mysticismes. D’ailleurs, est-ce que cette découverte allait conduire les philosophes hellènes à considérer l’association entre le silence et le nombre zéro ? Vraisemblablement la réponse est non : le premier nombre naturel, zéro, a échappé à leur esprit scientifique. La philosophie occidentale ainsi que les sciences naissantes ont souffert du manque de représentation de l’absence.

Traces historiques de la composition algorithmique

Mais est-ce qu’il y a d’autres points de contacts précurseurs dans l’histoire de la composition musicale ? Avec l’invention de l’écriture musicale et la production séculaire de musique vient également les systèmes formalisés de composition, publiés dans des livres décrivant ce que le compositeur–apprenti devrait faire ou surtout, ne pas faire. Gérard Assayag écrit que « de la systématisation de l’idée combinatoire aux XVIIe et XVIIIe siècles découle naturellement celle d’automatisation de la production musicale qui débouche alors sur l’apparition des premières “machines à composer” ».[41] On retrouve notamment les projets de W.A. Mozart et M. Stadler, qui avaient, en guise de jeu à la construction de petits menuets, formalisé un procédé compositionnel à partir des principes aléatoires et combinatoires.[42] « Le principe du “Jeu de cube” de Mozart est l’ancêtre de logiciels de type séquenceurs comme Music Maker, Techno Maker ou Cubase. »[43] Bien que nombreux compositeurs comme Kirnberger, Hadyn et C.P.E. Bach avaient expérimenté déjà au 18e siècle des modèles de composition musicale entièrement déterminée par de règles de jeu définies, ces expérimentations sont restées des singularités dans l’histoire de la musique. Leur réussite artistique plutôt négligeable, elles ont un intérêt pour nous en tant que précurseurs à la musique informatique.

Analysant la période moderne, Xenakis trouve des parallélismes frappants entre musiques et mathématiques. Par exemple, il note que la fugue du baroque n’a pas eu l’influence sur les mathématiques qu’elle aura pu avoir, étant « un automatisme abstrait utilisé deux siècles avant la naissance de l’automatique. » Effectivement, comme nous avons vu, les germes d’une composition formalisée et automatique dégageaient en parallèle avec les premières machines industrielles programmables. Par contre, il n’y avait pas de théorie mathématique pour ces inventions. Xenakis écrit plus loin son observation qu’aux 18e et 19e siècles, « les développements dans la polyphonie tonale sont miroités par l’invention des nombres complexes (Euler, Gauss) et la mathématique des groupes (Abel). » Il est discutable si ces confluences ont été des vrais points de contact à l’époque, ou, ce qui est probable, que ce sont la lecture historique qui crée un effet de simultanéité de pensée dans les deux domaines.

La composition formalisée rappelle immédiatement la combinatoire. Le premier intérêt de l'invention du système sériel de Schönberg, nous dit Xenakis, est que cette méthode de composition « formalise radicalement et pour la première fois, les macrostructures ». Le parallèle dans les mathématiques serait la théorie de Cantor des nombres infinis et transfinis, ainsi que l'axiomatique des nombres naturels, qui sont des « inventions remarquables ». La discussion dans les mathématiques forcerait une sorte de « arrêts de la recherche » qui donne la chance à la musique de rattraper un certain retard qu’elle avait accumulé. Ensuite, c’est Messiaen qui apporte une nouveauté, la « seconde formalisation des macrostructures avec permutations, modes de hauteurs à transpositions limitées et rythmes non-rétrogradables. » L’intérêt dans les possibilités cachées dans le combinatoire a été fortement marqué dans l’après-guerre en Europe (Stockhausen, Boulez, Berio), et même encore plus aux États-Unis (Babbitt, Forte, Ferneyhough).

Musique mécanique, musique sur support fixe

Depuis le 18e siècle, il y a eu nombreuses compositions pour des dispositifs mécaniques, comme l’orge de Barbarie. Ces morceaux de musique rentrent effectivement dans la catégorie d’œuvres pour support fixe. Quand Otto Respighi introduit un chant d’oiseau dans sa partition de Pini de Roma (un enregistrement à jouer sur gramophone) il n’est pas si loin de Hector Berlioz demandant la sonorité de cloches d’églises dans la Symphonie Fantastique ou de Ludwig van Beethoven (et J.N. Maelzel) faisant un contrepoint remarquable de coup de fusils dans La Victoire de Wellington. Ces expérimentations sonores ont étendu non seulement l’instrumentarium de l’orchestre mais également la notion de l’instrument musical. Elles ont ainsi préparé le terrain pour la véritable fulmination créative du futurismo, déclenché en Italie pendant la première guerre mondiale, et qui a ensuite rayonné partout en Europe et en Russie, et d'ailleurs aux Amériques sur un degré d’influence moins important. La première utilisation musicale des technologies électriques a été la représentation du son sur support fixe(non pas, par exemple, la construction d’un instrument électrique). Dans le cas du phonographe, le support est mécanique, tandis que sur la bande magnétique l’information est stockée dans des petits grains de fer magnétisés.

La musique électroacoustique a été marquée par le pionnier Pierre Schaeffer, qui crée sa première pièce en 1948 après plusieurs années de recherche. Il utilise des techniques diverses, mais surtout à partir des sons enregistrés et ce mode de travail devient école dans les studios de la Radio France. En même période, Karlheinz Stockhausen à Cologne en 1951 est le premier à composer une œuvre pour bande entièrement à partir des sons synthétisés. Les premiers studios de musique électroacoustique sont établis dans les années 1950, à Cologne (Westdeutscher Rundfunk), à Paris (Radio France) et à New York (Colombia Studios, New Jersey). L’exemple sera bientôt suivi, et dans les années 1960, des studios sont créés à Milano, à Stockholm, à Los Angeles, à Krakow et encore ailleurs. Une décennie plus tard, et le nombre de studios a quasiment explosé.

Dès le début, les compositeurs s’approchent au phénomène sonore de deux directions : à partir des sonorités synthétisées, à partir de générateur d’ondes (par exemple, la synthèse additive), ou par l’enregistrement de sources vivantes. Dans les deux cas, le son de base ainsi obtenu est subi à des traitements par des techniques analogues (dans des circuits électriques) : filtrage, modulation d’anneau, découpage, granulation, montage, diffusion etc.

La musique d’ordinateur

L’on peut conclure que la composition algorithmique et la musique électroacoustique ont engendré la musique d’ordinateur dans les années 1940. Bien que les principes du fonctionnement d’une machine électronique et programmable aient été définis par les travaux théoriques d’Alan Turing et de John von Neumann dans les années 1930, sa construction a dû attendre les impératives militaires de la deuxième guerre mondiale pour accélérer les capacités de codage et de décodage.[44] De l’autre côté, la « fleuve sonore », qui est la musique électroacoustique, « résulte de la confluence de deux courants [qui sont] la musique concrète (sons naturels enregistrés) et la musique électronique (sons fournis par des générateurs de d’onde). »[45] Des compositeurs et musiciens se sont accrochés à la nouvelle technique dès le début. Joel Chadabe écrit qu’il est remarquable « à quel point et à quelle rapidité les problèmes ont été résolus par les pionniers [et] à quel point les pionniers ont combiné des qualifications technologiques avec leurs sensibilités musicales dans la mesure où ils pourraient, individuellement et collectivement, développer la technologie et composer la musique en même temps. »[46] À propos de l’utilisation que les compositeurs se sont fait de l’ordinateur, Mikhail Malt pense que « cette courte histoire de la Composition Assistée par Ordinateur (…) peut être envisagée comme un effort croissant pour créer des ponts entre le langage musical et les langages formels. »[47] Nous allons voir plus tard les langages de programmation pour la musique et comment ils représentent des approches différentes à l’écriture musicale.

Composition Assistée par Ordinateur

Après les tentatives au 18e siècle, il a fallu attendre l'avenant d’un outil radicalement différent, l’ordinateur, pour que les compositeurs reprennent l’idée d’un processus de composition formalisé. Vers la fin des années 1950, les premiers morceaux de musique sont composés à l'aide de l'ordinateur. Dans son historique brève, Xenakis remarque l'application de théories mathématiques relativement avancées à la musique dans les années 1960 et 1970 :

« [Il apparaît] une axiomatique des gammes musicales, grâce à la "théorie des cribles" et à l'introduction des nombres complexes dans la composition musicale… Nouvelles propositions sur la microstructure des sons, grâce à l'introduction de la discontinuité continue à l'aide des lois de probabilité (parcours aléatoire, mouvement brownien) Cette discontinuité continue est étendue aux macrostructures, donnant par là un nouvel aspect architectural au niveau macroscopique, par exemple, en musique instrumentale. »[48]

L’implémentation des modèles mathématiques est évidamment énormement facilité par l’ordinateur. Une des premières utilisations musicales a été la méthode statistique de “chaînes de Markov”, un algorithme par lequel on peut ordonner une suite de données symboliques de façon probabiliste. Il a été utilisé par Lejaren Hiller pour composer “Illiac Suite for String Quartet”[49] et par Iannis Xenakis pour “Analogique A” et “Analogique B”[50]. Assayag a remarqué que « la méthodologie suivie [dans] ce premier ensemble d'expériences peut se décrire en trois étapes : analyse statistique d'un matériau préexistant, génération aléatoire selon les distributions de probabilité, choix de résultat. » [51] Dans “Illiac Suite”, les notes ont été calculées en utilisant des chaînes de Markov. L’algorithme produit une suite de nombres qui sont associés à différents paramètres musicaux (comme les hauteurs, les intensités, les groupes rythmiques et même les modes de jeu). Le résultat est toutefois davantage une composition musicale qu’une démonstration mathématique. Chaque mouvement est assez consistant au niveau du matériau. Les gestes musicaux, le rythme et ainsi de suite sont homogènes. Certes, dans le cas de Illiac Suite, les paramètres principaux (fréquence, amplitude, durée) sont les variables de l’algorithme et décidés par un processus automatique, tandis que les phénomènes composés (les groupes rythmiques, timbre, la forme et autres aspects globaux) sont décidés par l’intervention du compositeur[52]. Est-ce que ces choix ont précédé l’emploi des algorithmes ou est-ce que le compositeur a librement composé un matériau ?

Xenakis écrit que n’importe quel son peut être traité par une procédure statistique telle que les chaînes de Markov. « Les critères des définitions d'une entité sonique, soit-il le timbre, le degré d'ordre, la densité, la variation, ou même les critères des structures plus complexes (…) le même arrangement stochastique est adaptable. »[53] Xenakis affirme alors que tout ce que l’on peut mesurer peut se laisser construire par cette méthode. Mais comment expliciter les paramètres d’un phénomène psychologique comme le timbre d’un son ? Nous allons voir qu’il n’est pas évident à faire le lien entre la description psychologique d’un son, dans un langage naturel, et de la formaliser dans un code informatique.

L’on peut noter que la méthodologie généralisée que décrit Assayag est ouverte à innombrables interprétations. En général, les compositeurs se sont construit des techniques de génération de matériaux par modèles combinatoires, et y ont appliqué des filtres de recherche sur un domaine donné ; ces filtres sont heuristiques ou probabilistes, ou les deux combinés. Par exemple, l’on trouve l’emploi des chaînes de Markov comme technique de prolifération de matériau d’après des données statistiques, dans “Jupiter” de Philippe Manoury. Surtout grâce à la partie informatique réalisée par Miller Puckette et la technique de suivi de partition, Jupiter est la première composition interactive dont des parties dans la musique sont décidées par des stratégies de composition algorithmique en temps-réel[54], et marque le début d’un nouveau genre musical.

Représentation informatique

En 1957, Max Mathews achève Music I, le premier langage de programmation dédié à la musique, par lequel il est possible de générer du son par.[55] Ensuite, des pionniers comme Mathews, Hiller, Cage et Babbitt peuvent travailler des représentations symboliques par l’intermédiaire de l’ordinateur, au niveau abstrait de la composition, et créer des partitions musicales. Les partitions étaient normalement jouées par des musiciens ou réalisées sur bande magnétique. Dans le dernier cas, on peut dire que la partition a aussi été interprétée par le compositeur ou bien par le technicien. Mathews continue à élargir son langage dans de nouvelles versions. En 1960, Music III permet les représentations simultanées d’une musique, en tant qu’ensemble ordonné de symboles et en tant que son. Les deux représentations, désormais accessibles en même temps et sur support informatique, sont des abstractions agissant sur des niveaux structuraux distincts.[56] Ils sont de types différents, ce qui a des conséquences pour la résolution temporelle et la précision de détail dans les représentations parallèles. Cela fait qu’en pratique, avec la bande magnétique, plus qu’on a de détail, moins on a de contrôle. Sous forme numérique, le contrôle sur la résolution temporelle dans la composition musicale n’est limité que par la capacité de calcul de la machine. Music III représente une étape importante dans l’histoire des logiciels pour la musique. Néanmoins la musique d’ordinateur reste le fief d’un nombre réduit de spécialistes ayant accès aux studios informatisés et, surtout, ayant la motivation personnelle pour persister devant des limitations technologiques relativement frustrantes. La situation commence à changer dans les années 1980, début d’une période de développement artistique spectaculaire grâce au fait que le micro-ordinateur devient accessible à un plus grand nombre de créateurs. Joel Chadabe écrit, non pas sans un grain de nostalgie, que « vers la fin des années 1980, l’ère de musique d’ordinateur est dépassée, car tout était devenu musique d’ordinateur. »[57] À ce moment commence l’ère des logiciels de musique, que nous allons revoir au chapitre suivant.

Effets réciproques ?

C’est clair que la musique a stimulé le développement dans le domaine de l’informatique dès sa naissance. À partir des années 1980, on voit de redoutables développements techniques et une baisse de prix de production, partiellement à cause de l'entré du Japon comme producteur et développeur majeur des composants microélectroniques. Il y a une véritable explosion de matériels et logiciels pour la musique. Le DX7 de Yamaha a été le premier synthétiseur grand marché. Le protocole MIDI permet la connexion entre synthétiseurs, ordinateurs et autres dispositifs. Cependant, la promesse, s’il y en avait une, de l’intelligence artificielle employée à la création artistique, a-t-elle été trahie ? Dans les années 1990, l'ambition de créer une machine "intelligente" cède la place à une approche plus modeste. La recherche s'est concentré autour de l'interaction et en particulier le moyen par lequel l'information est transmise entre l'ordinateur et l'utilisateur. L'interface et l'ergonomie sont devenues des domaines des recherches à part entières.[58]

« Au milieu des années 1990, un corps substantiel de la connaissance avait été formé et l'idée était devenue croyable. Et les gens ont commencé à se dire qu'il y avait deux raisons d'employer l'électronique en faisant la musique. L'une était l'accès au son. L'autre était l'interactivité. »[59]

Sciences cognitives : le paradigme symbolique

Le sujet oblige de regarder les sciences cognitives. Nous nous intéressons à des approches expliquant le fonctionnement du cerveau et en particulier la représentation d’information musicale. À partir des années 1950, le paradigme symbolique emploie des modèles du cerveau basés sur un concept réductionniste, dans lequel les représentations des connaissances du domaine étudié sont fournies au système cognitif comme un ensemble de symboles et de règles. On a cherché à exprimer toutes les transformations de ces représentations formellement explicitées. Des théories, basées sur le concept d’une entité intelligente doutée d’un système de règles et connaissances organisées par hiérarchies, peuvent fonctionner en tant que descriptions formelles et abstraites de certains aspects de la cognition humaine, mais elles ne sont pas complètes.

Une méthodologie de recherche impliquant de l'intelligence artificielle est fermement établie dans plusieurs domaines depuis à peu près deux décennies. Typiquement, le modèle mathématique met en jeu des représentations symboliques fortement structurées et des transformations de ces représentations exprimées comme contraintes formelles.

«  Le champ de l’I.A., depuis son commencement, a été conçu principalement comme le développement de modèles de manipulation de symboles. Le calcul dans de tels modèles est basé sur les représentations explicites qui contiennent des symboles organisés dans une manière spécifique. »[60]

Ces théories, étant basées sur des règles, peuvent fonctionner (et y sont essentielles) en tant que descriptions abstraites de certains aspects de la connaissance et le fonctionnement du cerveau humain.

Le fonctionnement du cerveau

Seulement les fonctions supérieures du cerveau sont directement accessibles à la conscience d’un individu. Derrière l’utilisation quotidienne du langage parlé et des mots communs comme “savoir, connaître, mémoire”, se cache un système extrêmement complexe. Le cerveau emploie de multiples systèmes de représentation souvent en parallèle, et toutefois on a rarement besoin de s’occuper de la source de cette puissance. C'est un aspect fondamental de la connaissance humaine.

L’approche matérialiste, essayant de sortir du dualisme ontologique proposé par René Descartes, était insuffisante pour expliquer l’individuation des sensations. Comment et pourquoi des cerveaux très différents peuvent-ils ressentir des sensations essentiellement identiques (qui se traduisent de même façon) ? Il n’y avait pas de bonnes réponses à des questions telles que : “Une pieuvre et un homme est-ce qu’ils peuvent percevoir la douleur de même façon ?” Pour résoudre ce type de problématique, qui à l’extrême menait au solipsisme, Hilary Putnam a rejeté l’identité entre état psychologique et état d’activité cérébrale. À la place, il concevait le fonctionnement du cerveau en termes de d’états mentaux qui assurent la médiation entre perception et comportement. La théorie de Putnam s’inscrit dans la doctrine du fonctionnalisme, enracinée dans le rationalisme et l’utilitarisme. Putnam définit ainsi les états cognitifs par, à la fois, leur causalité et leur effet.[61] Dans sa théorie, l’esprit humain fonctionne d’une manière très proche à celle d’une machine à états discrets (finite automaton) de Turing, puisque cette classe de machines est définie par les relations entre les états dont la machine dispose, ainsi que par l’association entre données d’entrée et sorties bien définies. Comme écrit Élisabeth Pacherie, « Putnam semble avoir défendu l’idée que le modèle des machines de Turing était un modèle adéquat de l’organisation fonctionnelle de l’esprit »[62]. Cette position forte a été critiquée par Noam Chomsky et Jerry Fodor, et par suite Putnam l’a abandonnée.

L’hypothèse d’un langage inné

La question si le fonctionnement de notre cerveau dépend plutôt de connaissances innées ou apprises a été vivement discutée depuis les années 1940. Le psychologue Karl Lashley a critiqué le béhaviorisme de Skinner en montrant que certains types de comportement musculaire sériel déroulent beaucoup trop rapidement pour être décrits comme une série de stimuli et réponses (son exemple était les doigts d’un pianiste dans une improvisation de jazz). Lashley a découvert que le système nerveux n’a pas le temps d’envoyer des signaux dans les deux directions. Pour expliquer ce paradoxe, il a proposé que l’information soit véhiculée sous une forme compacte et abstraite, en arrivant au but elle est dévoilée en un groupe de commandes neuronales. Mais comment est-ce que les muscles savent comment déballer l’information ? Sa réponse a été que ces “colis” sont stockés dans des “modèles” préexistants (innés) ou appris par l’individu.

« [Lashley] a prouvé que l'enchaînement associatif ne peut expliquer le comportement séquentiel, et que des représentations d'ordre supérieur dans le cerveau doivent être postulées pour expliquer un tel comportement. Il a entièrement reconnu l'existence et la nécessité explicative de l'esprit, d'une organisation des processus mentaux, et a proposé qu'elle pourrait un jour être identifiée avec une organisation neurale. Sa recherche célèbre de “l'engram” a eu comme conséquence la conclusion que le substrat neural pour des fonctions commémoratives d'ordre supérieur, ce que nous appelons l'intelligence, est largement distribué dans tout le cortex. »[63]

La recherche de Lashley a beaucoup influencé Noam Chomsky, qui développe une hypothèse d’une grammaire fondamentale et innée à partir des années 1960. Jerry Fodor a ensuite poursuivi avec l’hypothèse d’un Language of Thought. Connu sous l’acronyme “LOT”, le “langage de la pensée” est un modèle dans lequel certains éléments existent à priori dans l’individu et sont acquis génétiquement. L’hypothèse propose effectivement que tout un système représentationnel soit inné et acquise génétiquement. Il a plaidé la possibilité d’une explication causale du cerveau, nécessitant que les occurrences mentales soient physiques. Ce propos est compatible avec un fonctionnalisme physicaliste du fonctionnement de l’esprit, ouvrant la possibilité d’imaginer une intelligence artificielle. D’ailleurs, Fodor n’était pas contre l’idée qu’une machine pouvait être porteur de propriétés mentales.[64] Comme instrument principal d’un agent cognitif, Fodor place un système de symboles dans lequel ces dernières sont syntaxiquement structurées et subissent à des traitements sensibles à la structure-même.[65] Le système doit agir sur tous les niveaux, à partir des perceptions simples, des stimuli physiques, aux plus complexes, comme des jugements abstraits. Fodor a ensuite stipulé que toute forme de connaissance existe en tant que “symboles-dans-la-tête” (symbols-in-the-head) qui sont manipulée en accord avec un syntaxe donné. Le système de “symboles-dans-la-tête” et leur combinaison dans des structures ressemblant à des expressions est parfois appelé mentalese[66]. Il réclamant que les processus mentaux sont effectivement des opérations symboliques, effectuées sur les représentations mentales.

Fodor a étudié les particularités d'un système cognitif et nous allons revoir les caractères qu’il nomme la productivité et la systematicité. La productivité fait référence à l'idée que des systèmes cognitifs ne sont pas limités : on peut toujours produire de nouvelles pensées. La productivité suit du fait que les règles pour accumuler les structures syntactiques sont récursives et il devient alors possible à combiner les structures composées dans de plus grandes structures encore. « La systematicité est expliquée par l’hypothèse LOT par la déclaration que l’état cérébral qui code une représentation mentale est un ré-arrangement syntactique d’un autre état cérébral qui code quelque autre représentation »[67] Les modèles de la pensée dépendent de la structure de la langue de la pensée. C'est la nature de cette structure qui règle la façon dont une pensée peut mener à une nouvelle pensée (productivité) ou inclure d’autres pensées (systématicité). Cette hypothèse a amené Fodor à stipuler que « la cognition n’est pas neurale per se ; cognition est computation en mentalese »,[68] ce que veut dire que des représentations symboliques complexes sont traitées “en paquets entiers”. Nous retrouvons ici une idée avancée par Lashley. De plus, Fodor précise que ce fonctionnement est inné à l’enfant. Conséquemment, cette théorie est en opposition directe avec l’axiome connexionniste, ce dernier disant que tous les événements cognitifs significatifs et créateurs du sens ont lieu au niveau du réseau, et que ce fonctionnement et acquis par l’expérience.

Systèmes experts

Revenons pour un instant au développement historique de l’ordinateur et des modèles de l’intelligence artificielle. Un des premiers domaines pour tester la capacité de l’ordinateur a été le jeu d’échecs.[69] Dans ce type de jeu, il est assez simple à définir les possibilités d’action car le nombre de mouvements à chaque moment de jeu est fini. La stratégie pour rechercher la meilleure solution parmi un certain nombre de possibilités peut être généralisée. Par contre, la bonne évaluation des situations, qui permet de trouver une bonne solution rapidement, n’est pas un problème trivial. L’évaluation dépend forcément du domaine d’application et ne se laisse qu’occasionnellement formaliser. Néanmoins certaines stratégies sont optimisées pour des buts spécifiques.

Le premier exemple d’un moteur de recherche, le cœur de chaque système expert, était “Logic Theorist”[70]. Il a ensuite été développé pour devenir le “General Problem Solver” ou GPS, notamment par y introduire des connaissances heuristiques et la méthode Minimax pour choisir le meilleur chemin vers un but. La méthode consiste à suivre un chemin jusqu’à ce qu’il emmène au but ou qu’une condition d’arrêt est vérifiée. Dans le dernier cas, l’algorithme va prendre un “pas en arrière” et essayer un autre chemin. Le GPS est une méthode complète pour trouver une solution si le domaine de recherche peut être récursivement défini.[71] Un autre exemple pionnier des systèmes experts est SHRDLU, “le monde de bloc”, développé par de Terry Winograd 1969-1972. Winograd a également inventé une technique pour l’analyse automatique de l’harmonie musicale.[72]

Dans les années 1980 et 1990 plusieurs systèmes experts pour la composition musicale. Nous allons discuter plus en détail au chapitre “Langages”. Les systèmes experts pour la musique marque un retour vers l’utilisation de l’ordinateur comme outil. Comme Claude Cadoz a noté : « À la fin de l’époque naïve de l’intelligence artificielle, laissant le fantasme anthropomorhique de la “machine intelligente”, on a commencé à penser en termes “d’aide à la composition” plutôt que de “composition automatique”. »[73] Il semble que Cadoz place “la fin de l’époque naïve” quelque part vers la fin des années 1970. Les systèmes experts ont certainement beaucoup apporté de connaissance à l’intelligence artificielle, mais c’est clair que, en tant que modèles de la cognition humaine, cette approche n’est pas suffisante.[74] Pour construire une créativité artificielle et imiter le pouvoir de raisonnement abstrait du cerveau humain, la machine doit être capable à traiter des données floues et à reconfigurer dynamiquement l’algorithme de recherche. Le paradigme connexionniste présente des modèles mathématiques qui sont plus proches au fonctionnement de bas niveau du cerveau.

Le paradigme connexionniste

Dans les années 1940 et 1950, des modèles révolutionnaires de fonctionnement du cerveau sont proposés et la science de cybernétique est née. Le neurone est inventé par Warren McCulloch et Walter Pitts[75], inspiré par découvertes récentes dans la neurobiologie. Le neurone formel est un modèle mathématique du fonctionnement du cerveau, qui saisit « les propriétés essentielles d’un “neurone cortical” naturel »[76]. Son fonctionnement suit le même principe qu’un relais électrique. La capacité d’un réseau est déterminée par la configuration de neurones et par les données avec lesquelles l’on a entrainé.  Le paradigme connexionniste stipule que ce principe, étant le même pour réseaux biologiques et réseaux artificiels, peut éventuellement constituer un lien entre l’ordinateur électronique et le cerveau humain.

Cependant la recherche sur les réseaux de neurones n’échappe pas à la critique. Marvin Minsky et Seymor Papert montre[77] en 1969 une sévère limitation dans la capacité logique d’un réseau de perceptrones. Par conséquent, des ressources sont allouées à d’autres approches à l’intelligence artificielle, notamment les systèmes experts et l’analyse des langages naturels et formels. La recherche sur les neurones passe une période de quinze ans dans une obscurité relative, avant que le modèle mathématique est amélioré dans les années 1980 par une modification de la structure du réseau.[78], qui ouvre les portes vers de nouvelles conceptions de réseau de neurones.

Représentation dans un réseau neuronal

Les modèles connexionnistes basés sur des réseaux de neurones donnent la possibilité de définir des modèles de la cognition ayant des caractéristiques difficilement réalisables dans un système expert. Les avantages sont, en particulier, robustesse par rapport aux niveaux élevés de bruit dans les données d’entrée, et flexibilité, car la configuration peut être perturbée sans qu’il ne cesse forcément de fonctionner. Les connaissances sont physiquement distribuées ; si on enlève un ou plusieurs neurones, le système global ne va pas nécessairement s’effondrer. Au contraire, l’exclusion de certains neurones peut rendre le réseau plus puissant. Cependant, il n’est pas évident à trouver un mécanisme pour choisir lesquels on doit supprimer : ce problème est d’ailleurs mathématiquement indécidable[79].

Pendant qu’un système symbolique “classique”[80] utilise des contraints bien définis, le paradigme connexionniste propose une alternative à l’explication symbolique. L'apparition du paradigme connexionniste résulte, en part, de l’insatisfaction des modèles de manipulation symbolique, comme les systèmes experts, en particulier leur incapacité de traiter des données floues. L’explication connexionniste refuse la représentation mentale explicite des règles et le concept de “connaissance” est fondamentalement différente. La proposition principale du connexionisme est que tous les événements cognitifs significatifs, qui créent du sens, ont lieu au niveau du réseau.[81]

Le connexionisme vise les modèles qui se composent d’un ensemble d’opérations simples et uniformes exécutées par des unités, les neurones, massivement en parallèle et/ou par couches. Les unités sont reliées par un nombre important des liens étendus, par lesquels l’information est amplifiée ou inhibée. Le degré d’amplification ou d’inhibition dans un lien est mesuré par son poids. C’est l’ensemble des poids qui définit l’état d’un réseau de neurones. La fonctionnalité de ces modèles émerge de l'interaction entre les éléments simples. Typiquement, dans un modèle connexionniste, la représentation d’une connaissance est distribuée dans un grand nombre d'éléments de traitement et elle correspond à un état ou la structure même du modèle.

Le connexionisme a ouvert la possibilité pour définir les modèles qui ont des caractéristiques difficilement réalisables que dans l'intelligence artificielle de manipulation de symboles. En particulier, les réseaux de neurones sont robustes devant des données instables ou approximatives. En raison de leur adaptabilité et possibilité inhérente de l'apprentissage, l’intelligence artificielle utilise régulièrement des représentations de connaissance des réseaux. L'approche connexionniste est très répandue et a apporté quantité de résultats surprenants, y compris dans le domaine de la musique, comme nous avons vu dans les travaux de David Cope, Aldo Reck Miranda et d’Edward Large, entre autres.

Quelle puissance computationnelle a un réseau ?

Nous avons vu que le principe de la machine de Turing demande effectivement une mémoire (la “bande” magnétique) infinie. Étant capable à traiter de la récursivité, une telle machine peut gérer des langages[82] “récursivement énumérables”. Cela impose une limitation à sa puissance, car qu’il y aura toujours des expressions (des “mots”) qu’une machine à états discrets ne va pas pouvoir décoder. Elle ne saurait non plus analyser si ces expressions sont fausses ou vraies. Il a été sujet de discussion si le perceptrone pouvait égaler le pouvoir d’une machine universelle (turingienne). Il existe plusieurs classes de problèmes mathématiques, chacune nécessitant un langage formel d’une certaine puissance pour être formulé et éventuellement résoudre. Turing avait certainement noté que :

« Il y a un certain nombre de résultats de la logique mathématique que l’on peut employer pour prouver qu'il y a des limitations aux puissances des machines à états discrets. Entre eux, le mieux connu de ces résultats est celui du théorème de Gödel (1931). Il montre que, dans tout système suffisamment puissant, des expressions peuvent être formulées qui soient ni avérées ni réfutées à l'intérieur du système, à moins que, exceptionnellement, le système lui-même soit contradictoire. »[83]

Les réseaux de neurones sont d’une puissance computationnelle équivalant aux automates finis. Autrement dit, c’est possible à faire avec un réseau de neurones tout ce qu’on peut faire avec un calculateur numériques conventionnel de von Neumann. Mais les réseaux de neurones ne sont point des machines universelles. Aux années 1980, Rumelhart et ses collaborateurs[84] ont démontré que la capacité d’un réseau de neurones, avec un nombre suffisant de couches, possède théoriquement la capacité de calcul équivalant à celle d’une machine à états discrets (finite automaton) ; celui-ci a une puissance d’un ordre inférieur à une machine universelle. [85]

Limitations du modèle connexionniste

Il y a certainement grand intérêt à étudier le fonctionnement d’une mémoire distribuée, mais plusieurs auteurs souhaitent souligner qu’il faut être conscient des limitations de l’approche que présentent les réseaux de neurones. Même si un tel système montre un comportement qui ressemble à celui de notre cerveau, il n’est pas clair à quel point le fonctionnement des systèmes artificiels soit congruent avec celui du cerveau. [86]

Pour la musique, l’intérêt pour l’approche connexionniste appliquée a certainement apporté des travaux importants, surtout pour la compréhension des phénomènes fondamentaux. En sortant du contexte du laboratoire de recherche allant sur la scène dans une situation artistique, la motivation pour l’emploi de ces techniques peut devenir spéculative. Desain et Honing ont critiqué les méthodes de certaines implémentations, en disant que « beaucoup de chercheurs [ont] perdu leur attitude objective à cause du bon fonctionnement de certains modèles (prototypes). Un modèle connexionniste qui "marche" bien ne mène pas nécessairement au progrès scientifique. »[87] Mazzola se garde d’accepter la ressemble entre des réseaux naturels et artificiels, et met en question le modèle neuronal pour le cerveau.

« Des réseaux de neurones ont été employés pour simuler le comportement humain en réponse à des stimuli musicaux harmoniques et autrement. L'analogie simplifiée des réseaux de neurones avec le cerveau humain ne devrait pas être confondue avec le système dynamique du cortex auditif. Le cerveau n'est ni stratifié dans des couches comme dans le modèle du perceptrone, ni la dynamique d'un perceptrone est-elle comparable à l'interaction neuronale. »[88]

Noam Chomsky a aussi critiqué l’insuffisance des modèles statistiques (dont des réseaux de neurones) pour expliciter des structures grammaticales dans les langages naturels[89] Mazzola demande plus de réflexion autour du phénomène de l’émergence de sens. D’après lui, un fonctionnalisme sémantique n’est pas compatible avec une approche connexionniste.[90]

« Pour ce qui est de sémiotique, le fait le plus significatif, au sujet des réseaux de neurones, est la croyance répandue dans ses propriétés émergentes. On affirme que ces constructions sont dans l'état de produire un certain type de “compréhension” du phénomène spécifique pour lequel elles ont été programmées. Cependant, comprendre englobe l'activité sémantique, ce qui ne rentre pas dans les principes constructeurs des réseaux de neurones, étant des machines statistiques. » [91]

Desain et Honing montrent que même un modèle plausible n'indique pas beaucoup au sujet de l'architecture de la connaissance humaine. Afin de pouvoir découvrir le processus mental qui réalise une tâche cognitive, l’on construit un algorithme qui montre le comportement semblable à celui que l’on observe chez le sujet humain. Mais même un modèle plausible n'indique pas beaucoup au sujet de l'architecture de la connaissance humaine.

« Il faut “déboutonner” le programme pour vérifier ce qui est à l'intérieur, c.-à-d. rechercher la congruence entre le modèle et le sujet humain à une résolution plus fine - une comparaison basée sur le comportement global d'entrée-sortie (c.-à-d. équivalence fonctionnelle) sera trop brute pour pouvoir faire des réclamations substantielles au sujet de la validité psychologique du modèle. »[92]

Ces auteurs expriment aussi la difficulté d'identifier au juste quels aspects d'un modèle informatique sont importants théoriquement et quels aspects, certes importants pour la réalisation, mais qui n’ont aucune conséquence pour la puissance prédictive de la théorie. Dorritt Billman admet ce problème en disant que « seulement certains aspects des représentations informatiques sont en contact avec la théorie, alors que d'autres sont des détails d'implémentation. »[93]

Résumé

Dans l’Historique, nous avons montré des points de contact entre le domaine de la musique et les sciences cognitives selon trois optiques : historique, épistémologique et technologique. Nous notons que plusieurs techniques (chaînes Markov, combinatoire) en aide à la création musicale étaient déjà accessibles au moment de naissance de la musique d’ordinateur et par conséqence il existe un répertoire d’œuvres qui s’en servent. Cependant, d’autres mathématiques sont développées plus tard (systèmes experts, fuzzy logic, réseaux de neurones) et il y a peu d’œuvres musicales qui les emploient de façon cohérente avec leur raison-d’être artistique.

Les deux paradigmes dans les sciences cognitives, le functionnalisme computationel (symbolique) et le connexionisme tentent d’expliquer le phénomène de la cognition. Or, ils sont incompatibles et il semble difficile à concevoir une théorie unie des faits mentaux. Il faut formaliser les distinctions réellement importantes pour la connaissance humaine et Comme Mazzola a stipulé, la recherche de l’intelligence artificielle doit forcément passer par la science humaine de la sémiotique, pour apprendre à « viser à rendre très précis et explicite ce qu’il veut dire de créer de la signification. »[94] Nous allons discuter cette problématique plus au fond dans le chapitre “Créativité artificielle”, mais il faut d’abord dégager les modes d’utilisation de l’ordinateur. Nous constatons la nécessité d’un mode de création et d’analyse transdisciplinaire. Alors, primo, attaquons par le côté des technologies pour identifier les « détails d’implémentation » !


« But computers are not really responsible for the introduction of mathematics into music ; rather it is mathematics that makes use of the computer in composition. »

-Iannis Xenakis[95]

langages et interfaces

Comme nous avons pu constater, les linguistes ont étudié en parallèle des langages naturels et artificiels (on dit aussi formel, pour ce qui concerne l’ordinateur). Tout système informatique a besoin d’un ensemble d’instructions de départ. Dans l’ordinateur “classique” (également appelé “von Neumann machine”) il est fixé dans un CPU (unité centrale de calcul) de type RISC (Reduced Information Set Computer).[96] En allumant l’ordinateur, un premier processus appelé boot-strapping est mis en fonction, par lequel l’ordinateur évoque des ressources plus étendues. Cette information fixe (hard-wired) est nécessaire pour pouvoir charger des instructions de plus en plus compliquées. Peut-on dire que l’ensemble initial d’instructions correspond au langage “primitif” ou inné de Fodor ?

Langages de programmation musicale

Nous avons déjà rencontré la série de langages de programmation Music-N de Max Mathews. Ces langages ont servi de base pour des nouvelles générations de langages, notamment Csound et Max. Parmi les premiers ordinateurs personnels (personal computer) il y a notamment le Atari et le Macintosh. Le premier était doté d’entrée et sortie MIDI et les deux d’entrée et sorties analogues de son. L’Atari a servi de plate-forme pour l’ensemble de programmes CDP (Composer’s Desktop Project, initié par Trevor Wishart en 1986). Le Macintosh a vu le programme “M” (1986) de David Zicarelli[97] 1986 et amplement de langages de programmation musicale, dont des petits logiciels sont partagés parmi les utilisateurs. Vers la fin des années 1980 et 90, avec l’accumulation d’outils informatiques pour la création musicale d’accessibilité toujours plus accessibles, l’on doit constater qu’il s’agit d’une évolution remarquable dans l’histoire de la création. Rapidement, ces langages sont devenus plus expressifs et de plus en plus faciles à approcher. Grâce à l’interface symbolique (avec un graphisme toujours plus élaboré), il n’est plus obligatoire d’être informaticien pour pouvoir en profiter. L’histoire montre une tendance générale vers une richesse croissante et vers une technicité d’accès abaissante ; l’on pense moins en termes de langage de programmation qu’en termes d’outil. Grâce aux outils compréhensibles, l’utilisateur peut modeler la langue musicale elle-même en direct.

Un des problèmes fondamentaux de la représentation musicale est que l’information peut être conçue simultanément comme étant discrète et continue. Il existe plusieurs conceptions de la manière dont on peut représenter la musique comme un objet hors-le-temps ou comment créer un processus musical qui existe forcément dans-le-temps.

« Toute représentation musicale est intimement reliée au concept du temps. Empruntant la terminologie de Xenakis (1971), le calcul, dépendant du temps, peut être dans le temps, signifiant que le calcul procède dans l'ordre de temps, ou en dehors du temps, signifiant que le calcul fonctionne sur les représentations temporelles, mais pas nécessairement dans l'ordre de temps. »[98]

C’est clair que n’importe quel passage musical peut être noté dans plusieurs manières différentes et que ces notations différentes porteront sur la réalisation sonore. Les nuances de lecture de la part du musicien interviennent également. Toute notation musicale est jugée pour son efficacité et pour sa beauté conceptuelle. Il est de même pour les langages de programmation et c’est aussi une raison pourquoi on trouve une grande variation de langages.

Signaux de données et de contrôle

En regardant les langages de programmation pour la situation de performance en temps-réel, le trait le plus important est la nature du signal de contrôle et celui de l'écoulement des données. C'est primordial pour le fonctionnement d'une langue dans un contexte et pour la compréhension de ses puissances et limitations. Certains langages donnent la priorité à l’écoulement des données : ce sont des langages procéduraux (ou impératifs), comme C, Fortran, ou Basic. Les langages fonctionnels permettent plus de flexibilité au niveau de signal de contrôle. Il faut aussi voir si le traitement de signal se fait en continu ou discrètement. Dans plusieurs langages, l’utilisateur peut gérer la taille du vecteur de données : plus il est petit, plus le charge de calcul est lourd, et plus le temps de délai est bref. Par exemple, dans MaxMSP, le scheduler (voir aussi ci-dessus) fonctionne comme horloge, assurant qu’un même programme d’exécution va tourner avec une vitesse prescrite même si le processeur d’une machine va deux fois plus vite que celui d’une autre. Cependant, si l’utilisateur force l’exécution, il risque de forcer des pertes d’information (drop-outs) ou un plantage. À l’opposé, le même programme écrit en LisP tournera avec la vitesse que le processeur permet. Plus le calcul est important, plus il demandera de temps ; l’ordinateur ne va pas s’arrêter inopinément.

MaxMSP

“Max” a été inventé par Miller Puckette en 1979, initialement pour pouvoir piloter la station 4X depuis un petit ordinateur de contrôle ; le nom lui a été donné en honneur à Max Mathews. Au début, Max était un langage de script par lequel le programmeur pouvait accéder à un niveau plus proche au code de processeur en appelant des “objets” (le mot est courant, mais il s’agit plutôt des instances des fonctions.[99]). Sur cela s’ajoute le patcher qui se présente comme le “visage” du Max ou comme une “fenêtre” graphique, qui cache le niveau textuel du script. Malt constate que l'interface de Max, le patcher « constitue un nouveau paradigme dans l'histoire de la notation musicale, sinon de la création tout court. »[100]  Max est normalement considéré un langage de programmation de flux de données (data–flow language) avec lequel on peut développer des programmes taillés sur mesure à une situation de performance spécifique. Le noyau de Max est le scheduler, autour duquel se forme un grand nombre de routines ou objets (appelés externals, écrits en C et compilés par l’utilisateur) ainsi que des abstractions, écrites en Max. Il y a des objets pour des opérations mathématiques, la gestion de MIDI, communication graphique avec l’utilisateur, et encore. Le programme a été commercialisé en 1988.

MSP (acronyme pour Max Signal Processing, entre autres), créé par David Zicarelli à partir de 1994, ajoute des capacités de traitement de signal à Max. On parle dorénavant de Max/MSP[101] comme un langage de programmation agissant sur le son et le signal de contrôle en temps-réel. L’interface graphique, le patcher, est héritée de Max. D’ailleurs, pour encore augmenter l’environnement dans le domaine de la vidéo en temps-réel, il existe deux paquets NATO[102] et Jitter [103] qui, chacun, se fusionne avec Max. Le premier est un ensemble de modules pour Max qui fait le lien avec QuickTime. Conception remarquable et accompagné par une agitation idéologisée, NATO a maintenant été dépassé par Jitter, qui fonctionne de même manière, et pour lequel (entre autres avantages) le support technique existe. MaxMSP est surtout développé de côté graphique et la facilité pour personnaliser celle-ci. Aujourd’hui, il est clairement le plus répandu mondialement pour tout ce qui est de traitement de données en temps-réel, mais il serait toutefois injuste de parler d’un standard. Si un jour, l’enseignement musical aux conservatoires incorpore l’utilisation des outils informatiques (Max ou autres), un standard pourrait éventuellement émerger. Quoi qu’il en soit, comme nous avons vu, il existe nombreux logiciels et langages de programmation pour l’informatique musicale. Parmi les quelques autres langages faits pour le temps-réel, nous devrons mentionner : Pd[104] (développé par Miller Puckette) à partir de Max) a l’avantage d’être source-ouverte ; jMAX[105], qui est indépendant du système d’opération, ensuite Reaktor[106] dont le concept et beaucoup plus commercial et destiné à un groupe plus large d’utilisateurs. Ayant très peu l’esprit marchand, “SuperCollider[107] est écrit dans un langage de script, sorte de “collusion” entre Csound et SmallTalk rassemblant les meilleures qualités des deux mondes de programmation procédurale et fonctionnelle. Même si SuperCollider est aussi efficace que MaxMSP, il est plus laborieux à travailler à cause de l’interface textuelle. Par conséquent, il a gagné un nombre plus réduit d’accros. Encore une autre catégorie d’outils englobe les stations de travail qui sont constituées par l’ensemble matériel et logiciel ; on pourra mentionner KYMA[108] qui marche avec la carte de traitement de signal “Capybara”.

L’informatique dans la performance musicale

Desain et Honing ont étudié les questions complexes de la représentation de connaissances musicales ainsi que la différence fondamentale entre calcul en temps-diffusé et en temps-réel[109] Ils offrent une remarque sur les conséquences pour la situation (interactive) de performance musicale.

« L’on dit que les programmes qui sont exécutés strictement dans l'ordre de temps obéissent le principe de causalité parce qu'il n'y a jamais besoin de connaissance du futur. Ce concept est particulièrement important en modelant les processus de perception de musique et les systèmes interactifs qui doivent répondre à un certain signal qui est, à un instant donné, inconnu ; par exemple, une machine pour l'accompagnement automatique de performance. »[110]

La définition de Xenakis stipule que la différence entre calcul en temps-diffusé et calcul en temps-réel réside dans la relation que chacun établit entre l’ordre d’exécution de la suite d’instructions (le code) et l’ordre dans lequel les actions qui résultent de ces instructions sont exécutées. On parle de temps-réel quand le calcul prend en compte le déroulement du temps et des contraintes temporelles. L’algorithme produit une action en conséquence directe et par rapport à une instruction connue à priori par le système. La procédure en temps-réel n’aura accès qu’à l’information accessible à l’instant donné (et celle qui a existé dans le passé). Au contraire, le temps-diffusé n’a pas de contrainte temporelle puisque, par définition, l’action et l’instruction ne sont pas ordonnées temporellement. Les procédures peuvent se permettre de “jeter un coup d’œil dans le futur”. Un exemple : par la connaissance d’un certain événement souhaité qui aura lieu quelque part dans le futur, l’algorithme peut aisément calculer une suite d’actions qui amène exactement vers cet événement souhaité dans une manière précise et avec un degré de contrôle arbitraire. Pour le compositeur, c’est un mode de fonctionnement qui convient tout à fait et qui va l’assister à trouver des solutions locales aux problématiques qu’il s’est posées.[111]

Le temps-réel

Typiquement, mais non pas forcément, le calcul d’un processus en temps-réel est exécuté très rapidement. La vitesse et le délai d’action deviennent importants dans la construction d’une interface. Le délai temporel entre le stimulus (les données d’entrée, normalement venant de l’action physique de l’utilisateur-musicien) et la réponse du système (la musique ou plus techniquement, les données de sortie) doit normalement être si petit qu’il n'est plus apparent à l’auditeur ou du moins perçu comme peu signifiant. Les créateurs du langage de programmation jMax précisent encore la définition : « le terme temps–réel sert à décrire toute activité de traitement de l’information ou tout système ayant à répondre à des stimuli d’entrée générées extérieurement dans un retard fini et spécifiable ».[112]

La situation peut devenir complexe dans une situation de performance musicale quand l’ordinateur possède de l’information incomplète sur des événements futurs à calculer. L’information connue par avance (à priori) dans une partition lui est évidemment utile, mais doit être suppliée par l’information perçue pendant le cours d’une performance. La situation est typique pour une performance dite “suivi de partition” dans laquelle l’ordinateur connaît la partition – les instructions globales de niveau supérieur – tandis que l’information temporelle, en particulier le moment exact d’exécution d’une instruction, n’est pas complètement connue. En ce cas, une stratégie souvent utilisée fonctionne par “correction temporelle” quasi-continue ; ayant connaissance de location temporelle de certains points de repère enregistrés (dans le passé), la location temporelle exacte du prochain point de repère peut être ajustée. Naturellement, comme la détection d’événement n’est pas une science exacte (le musicien pouvant occasionnellement faire des fautes) le système doit être robuste et capable à maintenir la suite d’actions même s’il n’a pas reçu toute l’information attendue. Des solutions utilisant un réseau de neurones pour filtrer les données d’entrée peuvent se prouver très efficace. Cependant, la plupart des pièces de ce type implémentent des solutions moins raffinées.

Nous pouvons constater que les langages de flux de donnée (Max, jMax, Pd,…) sont adaptés à la situation de temps-réeltemps-réel. Avec ces langages, le code est compilé avant d’être déclenché (avant run-time), ce qui produit un programme d’exécution très efficace. Néanmoins, la vitesse d’exécution du code compilé dépend des limites du matériel, la rapidité d’horloge CPU et autres choses encore.

LisP

L’autre paradigme de mode temporel d’exécution d’un programme est le temps-diffusé. Classiquement, il est réalisé dans un langage interprétatif comme le Common LisP.[113] Ce langage est multi-thread, et des blocs de computation peuvent être initiés ou interprétés à tout moment. La structure d’un programme peut devenir arbitrairement complexe grâce à l’héritance (récursive ou non) de méthodes. Par contre, la gestion des données dans le temps n’est pas gérée de façon stricte, comme dans les langages impératifs. Il arrive de temps en temps qu’un calcul est interrompu par le garbage collecting, processus par lequel le programme se nettoie si nécessaire…[114] Le LisP est depuis longtemps le langage de programmation le plus important pour la recherche dans l’intelligence artificielle. Dans LisP, le programmeur ajoute étape par étape des objets (classes, méthodes, fonctions, etc.) dans un milieu de programmation évolutive. À volonté du programmeur, un bout de code est interprété. C’est effectivement le même procédé que fait le compilateur, mais plus rapide et moins efficace ; c’est un pas intermédiaire, un compromis entre vitesse et flexibilité. LisP est basé sur les concepts d’objet (object-oriented) et d’héritence de types d’objets dans une structure hiérarchique, ce que rend le langage très ouvert à la création de représentations adaptées à l’intelligence artificielle ou bien toute formalisation musicale imaginable. Par contre, il y a des situations dans lesquelles il est impossible à prévoir le temps de calculs. Il a été montré que nombreux problèmes mathématiques ne peuvent être résolus que dans des circonstances minimales, puisque le temps de calculs augmente plus rapidement que la taille de l’instance du problème. [115]

LisP est un langage idéal pour la programmation expérimentale et exploratoire. Plusieurs systèmes experts sont implémentés dans ce langage (ou dans un de ses multiples dialectes) et il y a aussi quelques exemples pour la musique. L’utilisation des systèmes experts à l’aide de la création est appelé CAO (Composition Assistée par Ordinateur), où quand s’il s’agit plus précisément de la notation, EMAO (Écriture Musicale Assistée par Ordinateur[116]). La majorité des environnements adaptés à la Composition Assistée par Ordinateur sont développés sous LisP. Ces environnements se présentent à l’utilisateur comme une interface graphique offrant plus ou moins d’accès aux fonctions “cachées”. Les environnements les plus complets et répandus aujourd’hui sont : Nyquist de Roger Dannenberg (à partir de 1989), PatchWork de Mikael Laurson (depuis 1992) et OpenMusic de Carlos Agon et Gérard Assayag, IRCAM (première version en 1996). Avec les deux premiers, il est possible de faire de la synthèse sonore en direct. OpenMusic présente de nombreuses possibilités de générer du code qui sera ensuite envoyé à un autre logiciel ou programme spécialisé à la synthèse, comme Csound ou Modalys. Utilisé de cette manière, OpenMusic sert d’intermédiaire entre la formalisation du processus compositionnel et la réalisation sonore. Il est le support du couplage entre l’idée du compositeur et le son et dans ce sens, il est une interface.

LisP dans la situation de concert ?

Quelle utilisation musicale est prévue pour lisP ? Normalement, son avantage delangage de haut niveau le rend puissant pour la manipulation des symboles. C’est donc en tant qu’assistance au compositeur que les systèmes experts sont imbattables. Pour la composition musicale assistée par ordinateur, ces langages sont efficaces pour des traitements en temps-diffusé parce que « l'état d'objets persiste au travers du temps. Il est donc possible de découpler l'ordre du calcul de la progression du temps musical. »[117] Ainsi ces programmes sont plus universels (sont capables à gérer une gamme plus large de problème mathématiques) que les langages adaptés à la situation de temps-réel. Notamment, il y a la possibilité de faire une représentation dynamique de la partition, à utiliser dans la situation de concert. Comme Gérard Assayag explique, dans « les programmes PatchWork et OpenMusic (…) l’interface se confond avec le calcul. (…) Ce que l’on représente n’est plus tant l’objet musical, que le calcul qui y conduit. »[118] Si le patcher de OpenMusic n’est pas exactement une partition, il est d’un autre type de représentation musicale, efficace et suggestive pour celui qui sait l’interpréter. Il représente non pas l’objet fini, mais le processus (de calcul et d’interprétation) qui porte la potentialité d’un résultat sonore. C’est une notation qui convient à l’œuvre-processus. Est-il envisageable de se servir de ce type de langage pour faire du temps-réel au concert ?

La discrimination entre les paradigmes de langage de programmation porte des conséquences pour l’interactivité musicale et comment les œuvres sont réalisées au concert. La distinction importante est la représentation de la musique dans une partition fixe ou dans un autre format plus flexible. Comme dit Balpe, « la mémoire morte est un ensemble de données alors que la mémoire vive est un processus. »[119] Il ne s’agit pas seulement de la vitesse du processeur ou la quantité de mémoire vive, mais d’une différence de nature profonde, liée à la gestion temporelle des algorithmes employés, en particulier en ce que concerne l’indécidabilité de certains problèmes mathématiques et l’imprévisibilité de temps de calcul pour résoudre un problème en utilisant des méthodes récursives. Il ne sera jamais possible à faire en temps-réeltemps-réel (disons avec MaxMSP) tout ce qu’on peut faire en temps-diffusé(avec LisP). Ainsi Frédéric Voisin a fait tourner en temps-réel un programme en LisP omme moteur d’intelligence artificielle, dans le cadre du projet Neuromuse[120]. C’est une implémentation exceptionelle d’un langage interprétatif. Vu la particularité de la gestion temporelle du calcul dans LisP, il n’est pas toujours possible de prévoir le moment quand un algorithme produira un résultat. Pour faire du LisP en temps-réel, il vaut mieux prendre ce fait en considération…

Dans la programmation des concerts de musique contemporaine, on a souvent la tendance d’assimiler toute utilisation de nouvelles technologies dans une même catégorie. La simple désignation “dispositif électronique” n’est évidemment pas fausse, mais elle est néanmoins réductrice. Ce n'est qu'une minorité des œuvres qui mettent en évidence la machine comme agent dynamique dans un système interactif.

L'interface : couplage entre musicien et machine

Après avoir revu quelques logiciels et langages de programmation musicale, revenons à l’utilisation dans une situation de jeu musical. La communication entre musicien et instrument virtuel est assurée par un dispositif à part entier. Ce lien ou interface détermine la relation entre le musicien et la machine. Claude Cadoz définit le concept dans un paragraphe :

« Tout processus de création artistique (…) met en vis-à-vis deux systèmes : l’individu (…) qui crée et l’ensemble des outils (…) qui permettent au résultat de la création d’acquérir le statut d’objet (…) On peut appeler interface la fonction très générale qui permet l’interrelation entre ces deux systèmes (…) Pour aller un pas plus loin dans le jeu de miroirs, on pourrait bien dire encore que l’interface, c’est l’ordinateur lui-même. »[121]

Nous allons poursuivre l’analyse et décortiquer les composants de l’interface et leurs interrelations. L’interface se place entre deux agents et sert de lien ou de support de la communication entre les deux : elle permet un dialogue. Cadoz désigne l’un des agents “l’individu” et il fait certainement référence à l’utilisateur, à l’homme qui se sert de la machine. Pourtant on parle souvent d’interface dans des contextes dans lesquels les deux agents sont des programmes.[122] Toute interface a une partie physique (ou mécanique) et une partie informatique. Cette dernière est effectivement une fonction qui reprend les signaux captés par le dispositif physique et les envoie à un traitement symbolique. Wanderley et Depalle définissent cette fonction de la façon suivante : « un instrument virtuel ou composé doit intégrer un élément traduisant la correspondance entre les variables gestuelles, paramètres issus du contrôleur, et les variables de synthèse que sont les paramètres d’entrée de l’algorithme de calcul des échantillons sonores»[123] Les auteurs appellent cet élément lien instrumental. le terme original mapping introduirait un anglicisme, dont, de toute façon, l’utilisation dans ce contexte est contestée. À la place de ces deux termes, nous préférons le mot “couplage”, qui fait l’allusion à l’assemblage électrique et mécanique très approprié à la situation que nous discutons. Le couplage (ou lien instrumental) est d’importance primordiale. Wanderley continue en précisant que c’est lui « qui, en réalité, donne un sens au paramètre de sortie du contrôleur. »[124] C’est clair que le couplage est le cœur de l’interface. Or, en parlant de sens, il faudra souligner que le sens est forcément le résultat d’un long processus de raffinement et qu’il ne réside pas seulement dans le dispositif physique de l’interface. Pendant le travail de construction d’une interface, le dialogue entre musiciens et techniciens permet l’échange de connaissances pratiques et heuristiques et c’est durant la période d’apprentissage, quand l’instrumentiste développe ses capacités de contrôle, par lesquelles la fonction de couplage sera définie, ou plutôt raffinée.[125] Vue dans cette perspective, l’interface est un système dynamique qui inclut l’opérateur et la tâche. Une interface bien développée et riche permet un jeu varié. C’est une véritable tête de Janus : le garde des entrées et sorties, à la fois tourné vers l’utilisateur–musicien et vers la partie générateur de son. Est-ce que ces deux relations sont équivalentes ? Non. Pendant que la deuxième relation est de nature technique – donc analysable – la première relation ne l’est pas et se laisse contempler seulement dans une perspective sémiotique. À l’opposé, la relation entre le couplage et l’instrumentiste est fatalement dynamique et implique le rapport physique et gestuel. Michel Waisvisz l’exprime de façon suivante :

« Dans mon travail, j'ai toujours construit des instruments qui exigent un degré considérable d'effort physique pour être joué, mais qui, en même temps, peuvent capter le plus léger tremblement de la main. Pendant une exécution concentrée, ces tremblements ne sont pas simplement des erreurs, mais résultent d’un modèle où l'effort en soi fait partie intégrale d’un complexe de musculaire/mentale qui s'étend à la base ce qui est perçu en tant qu'expression musicale. La musique dans un format purement conceptuel est seulement compréhensible par ceux qui connaissent le concept. La musique qui contient l'expression physique d'un interprète est reconnaissable par un plus grand groupe, grâce à la médiation expressive de l'interprète. »[126]

Le couplage avec l’instrument

De toute façon, il est clair que le couplage entre l’interface et l’instrument virtuel (le composant du système informatique qui produit du son) doit être complet et défini de façon déterministe. Pour un musicien accompli, il n’a pas de sens de jouer un instrument par lequel le résultat d’une exécution précise est aléatoire. Par contre, pour un non-musicien (imaginons par exemple une situation pédagogique ou une installation publique), ajouter de ”variation aléatoire” dans des quantités modérées peut être une astuce efficace pour l’entamer à un jeu plus divertissant, avec plus de récompense pour l’utilisateur inexpérimenté. [127]

En développant un instrument virtuel, il faut donc définir la fonction de transfert entre chaque valeur d’entrée et un résultat (sonore) souhaité. Ici, le problème principal que le constructeur d’interface doit résoudre est comment coupler les données d’entrée (depuis le dispositif physique) avec le contrôle instrumental ? Ce couplage peut se faire de plusieurs façons, mais seulement deux catégories de solutions intelligibles existent :

• Chaque capteur physique va vers un paramètre isolé de génération de son.

• Les capteurs sont groupés de telle façon qu’ils agissent sur plusieurs paramètres en même temps. Un seul geste du musicien est appliqué sur plusieurs paramètres de contrôle de production sonore.

Dans le premier cas, le couplage est simple, mais le contrôle que l’utilisateur a sur le résultat est pauvre et lourd car il doit s’occuper de chaque aspect de la production de son. Dans le deuxième cas, le couplage devient rapidement complexe et l’interface difficile à développer et maîtriser. Wanderley note que « selon la nature de ce lien, un même mouvement représentera [des paramètres musicaux comme la fréquence, l’intensité etc.] ou bien des paramètres perceptifs comme la hauteur, la sonie, la rugosité, etc. »[128] Dans bien de réalisations, le couplage contient ces deux approches, et plus encore, comme des processus automatiques, déclenchés par des scripts.

Le couplage avec l’instrumentiste

La relation entre le geste de l’humain et l’interface est assurée par un dispositif particulier, que Marc Battier appèle contrôleur. « Justement, la composante du méta-instrument qui est en contact avec l’instrumentiste est un contrôleur. »[129] Il y a un nombre infini de types de contrôleurs gestuels à cause d’un manque de théories définissant la relation ergonomique entre le dispositif et la partie du corps qui entre en contact avec lui. « Or, depuis l’apparition de la notion d’informatique musicale en temps-réel, dès la fin des années soixante, cette question se fait plus pressante. » Toutes les connaissances à ce sujet sont acquises par expérimentation heuristique, et, par conséquent, la manière de penser la relation reste philosophiquement incomplète. De point de vue pratique, elle est abordable, mais reste totalement circonscrite par la situation donnée, et peut facilement devenir spécifique à une seule pièce. À cause de cela, un large ensemble d’interfaces très diverses a vu le jour, et nous sommes loin de pouvoir consentir sur un standard pour les interfaces de performance[130]

L’assistant musical

La question de la relation triangulaire entre musicien, ordinateur et musique est intimement liée à la notion de l'interface. Au sens large, l’interface n’est pas seulement le dispositif physique, “une boîte”, mais elle est un système complexe qui inclut son opérateur ainsi que les couplages à d’autres parties du système de performance. L'ordinateur est un objet physique construit, qui peut émuler un instrument de musique avec des composants physiques (interfaces) et virtuels (électroniques). Sa construction demande le travail du luthier-informaticien, qui travaille en équipe avec le musicien (celui qui va performer sur l’instrument), programmeur (celui qui développe l’informatique par laquelle l’instrument virtuel est fabriqué) et le compositeur (celui qui a une vision de l’ensemble et prend les décisions globales d’un projet). La personne qui s’occupe de ce rôle est “l’assistant musical”.[131]

Exemples d’interfaces de performance

D’abord, reprenons quelques interfaces historiques. Le premier instrument électrique, le ThéreminVox, a été inventé par Léon Théremin en 1921. Cet instrument est l’antécédent de quelques années d’un instrument construit par Lee de Forest, inventeur de la triode (1906), mais l’emploi musical de son instrument a été minimal. Par contre, Léon Théremin a longtemps tourné avec son invention, et des solistes comme Clara Rockmore a assuré le succès du ThéreminVox. [132]

À l’ère informatique la question de l’interface est de plus en plus pressante. Entre 1968 et 1979, Max Mathews a implémenté le Conductor Program, aussi appelé le Radio Baton (à partir de 1976) sur le système GROOVE aux Laboratoires de Bell, pour contrôler en temps-réel le déroulement temporel d’un synthèse sonore suivant une partition. Le système GROOVE a deux capteurs, un pour chaque main de l’utilisateur. La main gauche contrôle l’amplitude d’un ensemble d’instruments (sources virtuelles) par un joystick manœuvrable dans trois dimensions. La main droite contrôle la vitesse de lecture de la partition avec un bâton. [133] Au CNRS de Marseille, une équipe autour de Richard Kronland-Martinet continue de travailler sur le modèle du Radio Baton de Mathews dans une version élaborée. La “baguette radio” est utilisée pour piloter l’analyse et la synthèse de modèles physiques. [134] Il existe aujourd’hui un nombre énorme d’interfaces s’inspirant du travail pionnier de Mathews. Nous voudrions en mentionner deux : “The Hands”, conçu par Michel Waisvisz, un pair de capteurs pour les mains ; et le Méta-Instrument[135] un “méga-joystick” pour les deux bras, de Serge de Laubier. Ces deux interfaces sont développées à partir de 1989.

Il y a certainement un intérêt pour les spectateurs de rencontrer la faune riche d’interfaces dans la jungle de la musique électroacoustique, mais il n’est pas sans problème pour les musiciens, qui doivent maîtriser ces instruments. Il y a très peu offert gratuitement dans le travail de développement et d’apprentissage d’un contrôleur, comme témoigne Waisvisz :

« Au sujet de mes propres expériences avec les contrôleurs gestuels, je peux seulement dire que je combats avec eux la majeure partie du temps. Presque chaque instrumentiste indiquera la même chose. Par contre, si vous êtes en position à pouvoir concevoir et construire vos propres instruments – il y a beaucoup de technologies intéressantes qui apparaissent presque chaque semaine – vous ressentez la tentation de changer l’instrument tout le temps. Ceci ajoute un autre conflit : vous ne pouvez jamais parfaitement maîtriser votre instrument quoique l'instrument serait continuellement amélioré. La seule solution qui a marché pour moi est de geler le développement technologique pendant un certain temps, parfois pour une période de deux ans, quand je ne fais que la composition ; je joue et j’explore les limites [de l’instrument]. »[136]

Parmi les nombreuses interfaces qui sont spécifiques à une pièce, citons le body-suit, développé pour la pièce de performance “Yo”. Rolf Wallin en collaboration avec l’informaticien Øyvind Hammer ont construit un ensemble de contrôleurs, sorte de “combinaison de plongées” portée par le performeur. Il y a plusieurs capteurs intégrés, reliés par une interface MIDI à un patcher MaxMSP. Par l’interface, Wallin a accès au programme et des échantillons qui sont subis à des traitements divers (surtout de la synthèse granulaire). C’est un jeu très physique, dansé. En principe, pour profiter du potentiel de cet instrument, l’instrumentiste doit non seulement jouer les sons, mais aussi développer une chorégraphie compatible avec la musique. Les fichiers contiennent des enregistrements de la voix de Wallin lui-même. Il y a des mots et des phrases dont le sens est lié aux concepts de corporalité. Quand le performeur bouge les membres, frappe sur le corps et ainsi de suite, les gestes sont détectés et traduits en événements musicaux. Le texte est transformé, voire détruit. La symbiose entre l’interface et instrumentiste, entre l’instrument virtuel et le contenu expressif est parfaite ; il aura été inconcevable de jouer cette musique sur un clavier. Wallin dit :

« "Yo" est un médicament contre la solitude du compositeur ; un dialogue avec un parti extériorisé de mon soi, puisque la machine a emprunté ma voix et une tranche de mon comportement (par ma programmation). »[137]

Résumé

Nous avons constaté qu’il existe deux grandes classes de langage de programmation et que chacun et optimisé pour une approche à la gestion temporelle des données, ce qui correspond effectivement aux notions des deux modes d’existence de l’œuvre. Ensuite nous avons discuté certains aspects de l’interface et du rôle de l’assistant musical. Il est clair que ces faits ont des conséquences pour comment les auteurs de langage de programmation doivent prendre en compte à la fois la demande des programmeurs (assistants musicaux, compositeurs) pour un langage optimisé à une situation musicale donnée – qu’il soit efficace, abordable à coder, modulable – et les contraintes que présent les conditions technologiques et pratiques, qui changent de jour à l’autre. Cependant, comme nous avons vu, les limitations sont plutôt psychologiques que tecnologiques. L’implémentation ayant pour but d’abréger la distance entre l’idée artistique et l’actualisation sonore, le point sensible est la représentation informatique d’une musique. Il y a un compromis à trouver pour chaque mode d’existance d’une œuvre musicale. Miller Puckette exprime modestement qu’il « ne pense pas que nous [les auteurs de languages de programmation] connaissions musicalement ce que l'on doit faire avec l'ordinateur. Nous ne savons pas encore les modalités que les gens vont trouver pour incorporer l'ordinateur dans leur musique. » [138] Avec les mots de Puckette dans les oreilles, nous continuons par tenter d’identifier justement les differantes manières dont l’ordinateur est utilisé dans la création musicale aujourd’hui.


« Le langage humain constitue une communication où l'émetteur reçoit du récepteur son propre message sous forme inversée. »

- Jaques Lacan[139]

Épistémologies de l’informatique musicale

Dans le chapitre précédent, nous étions restés dans le domaine matériel de l’informatique. Abordons maintenant les questions philosophiques liées à l’utilisation de l’ordinateur dans la création musicale. Quelles relations est-ce que le musicien maintient avec l’ordinateur ? Pour répondre à cette question, il faut revoir les distinctions que l’on fait de la machine dans toutes ses guises… Ces distinctions sont épistémologiques, car nous essayons d'estimer comment les connaissances musicales sont partagées entre la machine et l’utilisateur et comment leur relation s’est développée dans l’histoire. L’étude se divise en sous-thèmes ; l’ordinateur sert effectivement d’outil de conception, d’interface, d’instrument de musique et de support à la notation. Dans un deuxième temps, nous pourrons demander : qu’est-ce qu’une créativité machinale ? Quelle nature aura une conscience artificielle ? Même si on peut créer une entité artificielle capable à jouer de la musique, le “musicien virtuel” semble encore loin de la réalité. Sous quelles conditions et dans quelles situations pourrait-on envisager un ordinateur musicien ?

L’outil au service de l’homme

Commençons par revoir l’histoire de la machine. D’après André Leroi-Gourhan, c’est nettement l’outil et la parole qui nous rendent humains. Dans ce sens, l’homme se définit par la relation triangulaire qu’il entretient avec l’instrument, son oreille et sa main. Même si certains oiseaux et primates font évidence d’usage d’outils simples pour modifier leur environnement et “paroles” pour communiquer, dans des cas assez limités, seul l’homme sait les manipuler avec précision ; chez l’homme, l’emploi des outils et de la parole est infiniment plus cultivé. Leroi-Gourhan donne, entre autres, l’exemple de l’invention de la hache. Ce type d’objet simple a engendré les objets complexes, des systèmes mécaniques avec des composants en mouvement contre l’un et l’autre. Cependant, les composants de ce type de machine sont mis en marche par l’activité musculaire de l’homme. La maîtrise des sources d’énergie externes à l’homme permet la construction des machines ayant un certain degré d’indépendance. Leroi-Gourhan note que « la réalisation de machines automatiques à un seul geste est acquise dès l’Antiquité méditerranéenne ou chinoise dans les pilons d’eau. » L’on trouve la clepsydre grec (qui était déjà connue en Egypte et en Chine), qui est une horloge à eau, capable de marquer le passage du temps par temps couvert ou même la nuit. Elle est un exemple élaboré d'un automate, étant donné qu’elle a comme source d’énergie la gravitation. La source externe est maîtrisée par l’horloger, mais c’est la machine qui transforme l’énergie en mouvement. Pendent le moyen age la complexité des outils et machines augmente, mais « l’idée d’une véritable programmation ne rencontre, dans le milieu technique des grandes civilisations, aucune possibilité de réalisation avant le moyen âge. L’horlogerie, au 12e siècle, offre les premiers moyens de programmation par procédés purement mécaniques. »[140] Avec les machines à vapeur au 17e siècle, le principe d'amplification d’énergie de contrôle devient métaphorique : il n'y a plus de limites de la puissance de la machine, cependant il faut le contrôle du déclenchement et un réglage continue. Pour contenir l'énergie, la vapeur est un médium inefficace.

L’extériorisation du code

On trouve le premier exemple d’une machine de programmation variable dans les métiers à tisser. En 1725, Basil Bouchon construit une machine contrôlée par des instructions sur une bande de papier perforé. L’idée est développée par Jacques de Vaucanson avant d’être perfectionnée par Joseph-Marie Jacquard en 1804, qui la commercialise. La machine porte désormais son nom. [141] 

La machine de Jacquard est une des ancêtres à l’ordinateur. Son fonctionnement est décidé par un code binaire, un programme, bien que, à l’époque, le terme n’existait pas encore. Des cartes perforées qui indiquent une suite d’étapes distinctes sont fournies à la machine. Suivant ces instructions, la machine va faire une action après l’autre, mais qui, elles, sont déclenchées par un seul geste initial de l’homme. Puisque l’information existent sous forme de cartes ou morceaux de bois dans lesquels on a percé des trous, le code est séparé du dispositif que l’effectue : c'est exactement la séparation entre code et dispositif qui annonce le potentiel dans la programmation et Leroi-Gourhan propose de voir ici un changement de paradigme. En faisant la comparaison entre l’orgue de Barbarie et le métier à tisser automatique de Vaucanson, perfectionné par Jacquard vers la fin du XVIIe siècle, il note que le programme est « extérieur aux organes d’exécution, il est, si l’on veut, “intelligent”, par rapport au dispositif mécanique. » Nous trouvons ici un critère primordial d'une intelligence artificielle qui est l’extériorisation de sa mémoire. Leroi-Gourhan continue : « la réalisation des programmes automatiques est un fait culminant dans l’histoire humaine, d’importance comparable à l’apparition du chopper ou à celle de l’agriculture. »[142]

Apparemment s’inspirant de la machine de Jacquard, Diedrich Winkel construit le Componium en 1826. Ce dispositif est une machine à “tisser de la musique”. Gérard Assayag le décrit comme « un “improvisateur mécanique”, basé sur des mécanismes d’horlogerie et qui a l’avantage de posséder une sortie sonore directe utilisant des tuyaux d’orgues. »[143] La machine “improvise” et le musicien voit sa tâche réduite à un simple déclenchement d’une procédure prédétérminée. Battier écrit :

« Cette transition de l’instrument est comparable au passage historique des techniques de l’outil, instrument individuel, à la machine, pour laquelle l’homme n’est plus qu’un opérateur. La machine est construite autour d’un mécanisme qui est la représentation d’une tâche. »[144]

La tâche de jouer étant définie par le constructeur de la machine, l’opérateur ne sert qu’à réaliser () le dessein de ce dernier – ou peut-être à l’interpréter ? À quel point est-t-il de même dans le cas d’un instrument de musique ? La construction d’un instrument (physique ou virtuel, c’est-à-dire informatique) est aussi la matérialisation d’une représentation de la tâche que l’instrument va effectuer. C’est la tâche, étant fusionnée à l’instrument, qui le perfectionne. Dans cette perspective, quelle est la relation triangulaire entre machine, opérateur et tache ?

L'instrument de musique

Nous avons avancé un peut trop hâtivement… D’abord, il faut interroger : qu'est-ce qu'un instrument de musique ? La réponse simpliste serait : “Tout objet ou ensemble d’objets qui émet du son et qui sert à faire de la musique”. Mais cette définition est inefficace : elle est suffisante mais pas minimale. Recherchant une définition tenable, Claude Cadoz commence, intuitivement, par l’aspect mécanique de l’instrument et analyse les propriétés de sa constitution. « Un instrument n’est en général pas un continuum homogène, mais un assemblage de composants dont le nombre de catégories est fini. »[145] Pourtant ce n’est pas évident à identifier ces catégories. Le luthier François Chabron a remarqué que le saxophone est un "non-instrument", puisque, suivant une définition stricte, le saxophone propre n'est pas celui qui produit ou transporte le son (à l’exception de l'anche). C'est l'air qui vibre et qui produit le son ; elle est entourée par le métal et ses vibrations sont définies par elle. [146] Ainsi tout instrument de vent est un "non-instrument” ! Sur un plan abstrait, Cadoz continue par établir le lien entre l'homme et l’instrument de musique : « il [lui] faut (…) un outil particulier qui permette au geste de compléter la parole : c’est l’instrument de musique. »[147] Cadoz définie l'instrument comme l'ensemble d'outils qui permet d'effectuer la volonté du musicien ou de l’opérateur. En guise de lien entre l’intention qui naît dans l’homme et le dispositif extériorisé, il y a l'activité instrumentale. Cadoz note que la finalité de cette activité « nécessite une consommation d’énergie en dehors des frontières du corps humain et de l’instrument ; une partie au moins de cette énergie provient du corps humain. »[148] Il poursuit la réflexion :

« Il y a toujours un circuit énergétique humain. Si l’énergie consommée ou requise par l’objectif final ne provient pas de l’homme, elle provient d’une source extérieure. Il y a donc un second circuit, distinct du circuit humain. Supposant toujours que la finalité du geste est voulue par l’homme qui l’effectue, il y a alors nécessairement une forme de dépendance entre les deux circuits énergétiques, qui garantit que le résultat est bien lié à une intention humaine. »[149]

Notons que Cadoz ne touche pas à l’idée que l’instrument (de musique) peut effectuer l’intention du constructeur d’une machine (ou, pour rester dans le domaine de l’informatique, du programmeur). Si nous admettions cette possibilité, serions-nous obligés à considérer que l’ordinateur est un instrument (de musique) ? Pour répondre à cette question, il faut regarder de plus proche la facture de l’instrument électronique.

La lutherie électronique

L’informatique musicale a montré par son histoire, qu’elle pouvait fort bien se passer de l’instrument acoustique pour créer des musiques complexes et composées. L’avenant de l’ordinateur a stimulé le développement d’un vaste gamme d’outils pour la création et le contrôle du son, et la naissance d’une nouvelle activité créative : la lutherie électronique. Musicologue et historien de la musique d’ordinateur, Marc Battier écrit que

« le recours à l’étude de l’évolution de la lutherie électronique est dès lors inévitable. Trois pôles marquent cette évolution. À eux trois, ils constituent l’espace dans lequel se déploie la lutherie. Ce sont : l’instrument, la machine et la représentation. »[150]

Battier cite Jaques Chailley, qui disait déjà en 1957 que « l’étude de la lutherie électronique est nécessaire à la compréhension des méthodes de la musique électronique, tant y sont liés le matériel et le conceptuel. » Beaucoup de musiques sont conçues sans aucun rapport avec une réalité matérielle ressemblant à l’activité traditionnelle du musicien. Dans ce cas, la notation (le support d’une musique) n’est pas développée en aide à la mémoire, comme c’est le cas dans la notation traditionnelle, car dans ce cas, elle ne communique avec aucun interprète. Elle est adaptée à une lecture non-physique effectuée par une machine (code de programme) ou à la limite par un informaticien (qui l’analyse).

Il ne faut pas oublier que les technologies à la base de cette évolution technique dans les arts sonores sont quasiment toutes et depuis toujours développées pour des buttes militaires et/ou industrielles. Néanmoins, son application dans le domaine artistique a souvent été pratiquement immédiate et, dans un deuxième temps, très fertile. Par exemple, l’on constate que les technologies de communication ont été poussées à d'étonnantes performances en réponse justement aux demandes des musiciens. À cela s’ajoute, bien sûr, le fait que les consommateurs de musique ont fait de la musique une commodité industrielle, ce que, ironiquement, clôt un cercle de cause et effet… Battier note alors que

« Les trois technologies issues des recherches du siècle dernier [le 19e siècle], la phonographie, la radiophonie et la lutherie électronique se distinguent radicalement par leur emploi en musique. La phonographie est le moyen de capter, conserver et reproduire, à l’identique ; la radiophonie permet la transmission en direct, sur de grandes distances, et préserve la qualité de l’instantané ; la lutherie du début du XXe siècle propose des instruments de musique au sens conventionnel. À sa manière, l’ordinateur réconcilie la phonographie, la radiophonie et la lutherie, et ajoute, de surcroît, ses propres capacités. »[151]

D’où vient l’énergie ?

Pour Cadoz, la distinction entre l'ordinateur et l'instrument de musique se fait par l’identification de la source d’énergie nécessaire pour susciter un son. « L’énergie du geste s’arrête au périphérique gestuel (…) Passée la frontière, il n’y a que l’information, portée par des circuits qui tiennent leur énergie de l’alimentation secteur. »[152] La différence est que la machine utilise plusieurs sources d'énergie pour produire, et l’énergie fournie par le contrôleur (humain) est souvent minime. Elle n'apporte que l'information nécessaire au fonctionnement de la machine. L'information est une quantité sans masse. L’instrument virtuel, représenté dans l’ordinateur en tant que programme informatique, a besoin d’énergie - à savoir, de l’électricité - pour pouvoir sonner, se matérialiser en pressions fluctuantes. Alors, cette énergie ne provient pas de l’activité musculaire de l’interprète utilisateur mais c’est pourtant exactement le geste musculaire de l’opérateur qui permet de déclencher une action. Cadoz explique que « la coupure de la chaîne énergétique, inhérente, nécessaire au geste non instrumental, que l’on pourrait appeler geste-signe, est le pendant physique de ce que la linguistique appelle la coupure sémiotique. »[153] La référence porte ici vers la définition de Lacan : « La linguistique s’institue d’une coupure qui est la barre posée entre le signifiant et le signifié. »[154]

L’information comme données interprétées

Tout en soulignant « l'image assez floue et potentiellement dangereuse » donnée par Marshall MacLuhan, Cadoz envisage que, dans le village planétaire, dans son proche avenir, « à son échelle, toute information passe irrémédiablement par la fonction relais (amplification), à l’exclusion de toute chaîne directe. » Pourtant, nous trouvons que l’explication n’est pas suffisante et qu’il faudrait prouver la nécessité d’une “fonction relais”. Au moins, l’information ainsi transférée doit être comparée à celle transmise par d’autres moyens qui ne dépendent pas de la fonction “relais”, ne serait-ce que pour estimer la viabilité de ce canal de communication. Cadoz poursuit : « les communications (…) par l’intermédiaire des connaissances codées, discrétisées et inscrites dans les machines sont, en conséquence, toutes intégralement sous le coup de la coupure “ontologique” que nous avons définie ». Il conclut par citer Lacan : « Le signe est partout, et il n’y a que lui. »[155]

Comment comprendre la notion d’information de Claude Cadoz ? À l’opposé du concept mathématique de Claude Shannon (sur lequel s’appuie MacLuhan) Cadoz présuppose avec sa définition un anthropocentrisme fort. Il délimite le terme information à décrire ce qui est psychologiquement communiqué. Par conséquent, il ne s’agit d’information que si elle est d’origine humaine ou, si ce n’est pas le cas, qu’elle est interprétée comme matière d’une communication par l’homme qui le perçoit. Tout phénomène y est soumis, et

« qu’il entre ou sorte d’une machine, qu’il s’agisse d’une machine construite ou d’un objet physique spontané, [le phénomène] n’acquiert le statut d’information que lorsqu’il y a des humains, d’une part pour en être les émetteurs ou les destinés, d’autre part pour concevoir les origines où les conséquences de ce phénomène. »[156]

Pour l’instant, dans le contexte d’interactivité musicale un cadre psychologique nous semble important. Retenons alors la nécessité d’un agent humain pour comprendre les notions de communication et de dialogue. En dehors de ce contexte, il n’existerait pas d’information mais seulement des phénomènes dans un état non évalué.

Aspects du geste instrumental

On appelle les gestes de l’instrumentiste l’ensemble d’actions physiques effectuées en situation de jeu musical. Cadoz distingue trois classes de geste instrumental, qui sont nettement les gestes du musicien appartenant à la production du son : gestes d’excitation, de modification et de sélection. Les deux derniers sont approximativement les mêmes que les gestes accompagnateurs et figuratifs définis par François Delalande.[157] Cadoz définit également le geste ergotique « qui transforme son milieu matériellement ». D’ailleurs, celui-ci semble appartenir à la classe « regroupant les gestes consistant à assurer des conditions normales de fonctionnement à l’instrumentiste »[158] dont parlent Marcello Wanderley et François Depalle. Ces auteurs considèrent aussi l'importance des « actions physiques renvoyées par l’instrument sur son utilisateur »[159]. Ce dernier est également appelé “retour instrumental".

Nous avons alors à voir avec un complexe de mouvements spatio–physiques, toujours d’origine humaine. Cadoz conclue que ces classes de geste décrivent « l’ensemble des comportements corporels associés à notre activité musculaire »[160] Il définit le geste épistimique comme « le sens tactile (discriminatif, diffuse, thermique, algique) [qui existe] dans deux modes : phasique (détecte la variation), tonique (détecte la permanence), qui dans notre corps est divisé en deux parties : l’un vers l’extérieur, l’autre vers l’intérieur ». Il poursuit par délimiter l’utilisation du mot geste à ce qui est de catégorie humaine, en excluant ce qui est de mental. Pour lui, le geste est toujours physique et humain et il s’agit forcément d’un mouvement du corps. Il ne mentionne ni mouvement d’animal, ni mouvement d’objet inanimé, et évite également la notion de “geste pensé”.

Nous voudrions faire une digression sur la ou les notions de geste musical. D’abord, est-ce qu’il y a d’autres options à entendre “geste” ? Un dictionnaire[161] fournit ce pair :

• Mouvement volontaire ou instinctif d'une partie du corps, notamment des bras et des mains, pour faire ou exprimer quelque chose. Faire des grands gestes.

• Action (au sens symbolique et moral). Avoir, faire un beau geste.

Nous avons premièrement mouvement physique (de l’homme ou d’un animal) et deuxièmmment figure de la volonté (car “moral”) : ce qui a le potentiel de s’exprimer par un mouvement physique. La perspective de Cadoz et les autres auteurs cités semble être que les mouvements physiques dans l'exécution de musique sont l’incorporation de la pensée musicale qui les précède. Le parenté entre expression musicale abstraite et mouvement humain physique est donc nécessaire, et non seulement métaphorique. Tout en admettant la possibilité d’un geste de la pensée, Cadoz modère le propos en disant que « la poésie de la métaphore (…) révèle seulement l’importance donnée reconnue au geste au sens premier. »[162] Pour encore brouiller la notion, remarquons que “la chanson de geste française”[163] était des compositions de troubadour de Moyen Age… Fin de la digression.

Il est clair que la question du geste instrumental dans le cadre de nouvelles technologies est essentielle pour la musique. Nous avons constaté l’anthropocentrisme dans la discussion de Cadoz, et les deux relations ainsi définies impliquent forcément un participant humain ; c’est d’ailleurs le point de référence.

« Les comportements relationnels humains peuvent alors être très schématiquement divisés en deux catégories : les comportements communicationnels (…) et les interactions avec son milieu. (…) L’activité artistique est en premier lieu une activité de communication : elle vient de l’humain pour s’adresser à l’humain. »[164]

Cadoz arrive alors à la notion du geste sémiotique, qui est « le geste instrumental [et] son accompagnant, la parole ». Nous retrouvons ici le point de départ de Leroi-Gourhan, que ce sont effectivement l’outil et la parole qui nous rendent humains. L’image d’une relation triangulaire avec l’homme au centre correspond avec celle que nous venons de proposer pour comprendre l’instrument, mais cette fois-ce, la machine est au centre d’une relation triangulaire avec l’opérateur et la tache. Nous procédons à étudier les conséquences de cette perspective pour quelques situations musicales.

Divisions du geste instrumental

Nous avons vu que d'après Cadoz, le geste instrumental se divise en trois parties : geste de sélection, geste d’excitation et geste de modification. Ce sont naturellement des classes ou catégories vagues, difficilement séparables, car le geste de modification se transforme aisément en geste de sélection, pour ainsi coupler un cercle parfait, où le point de référence serait le moment de l’action qui déclenche le son. Est-ce que nous pouvons tenter une simplification et conjecturer qu’il s’agit d’une division par trois du complexe de mouvements physiques du musicien par rapport au début du son produit : préparation, attaque et entretien ? Il nous semble que non ; il faut éviter de faire une réduction simpliste de ce processus[165] On ne peut pas l’assimiler à un simple jeu de notes discrètes, lequel pourrait être effectué par un ordinateur sur un instrument, par exemple, le Disclavier. L’œuvre-processus, comme nous l’avons définie dans la première partie du texte, est un phénomène temporel et continu. Dans l’exemple donné, l’automate ne fait que suivre une séquence d’états discrets par laquelle il reconstitue un morceau de musique. C’est une simplification qui ne prend pas en compte le fait que dans une performance réelle, rien n’est complètement discret.

Pour n’en donner qu’une interprétation concrète, nous considérons à “Phonotope 1” de Rolf Wallin.[166] Pour ce que concerne la musique produite par le système informatique, on peut distinguer trois sources des gestes qui contrôlent la création d’un son dans cette œuvre interactive. Utilisant les termes de Cadoz, il y a premièrement la sélection suivant la suite d’événements, qui est inscrite dans la partie électronique, préparée par le compositeur et l’assistant musical[167]). Ensuite, l’attaque ou l’excitation est incitée par l’instrumentiste (les musiciens du quatuor à cordes) Troisièmement et finalement, l’entretien ou la modification du son est garanti par la machine, d’après les règles fournies par le programmeur dans des limites spécifiques à la situation en cours. Les trois parties du geste correspondent ainsi aux rôles mandés aux trois agents agissant sur le son ; deux agents sont humains et le troisième est virtuel, émulé par le code informatique.

Pour encore illustrer la difficulté à matériellement identifier les trois catégories du geste, examinons une situation dans la percussion traditionnelle chinoise[168]. C’est une performance musique–théâtrale ou rituelle, dans la quelle une attention considérable est donnée au moment entre le geste de sélection et le geste d’excitation. Le musicien peut jouer, psychologiquement parlant, avec ce moment de suspension. Les baguettes sont levées et la main du musicien semble hésiter : le bras est déjà levé, mais ne frappera pas le tambour avant qu’il ne passe un instant dont l’interprétation est ambivalente. Pendant cet instant, la signification du geste brise : le geste de sélection se divise en deux parties. Avant le geste de sélection proprement parlant s’intercale un geste signifiant la situation, pour la permettre à être reconnue visuellement par le spectateur, alors très justement sémiotique. Devrait-on l’appeler geste théâtral ? Et la deuxième partie du geste, celle qui fait boucler le cercle, l’enchaînement de l’action suivante, serait-elle toujours un geste de sélection ? Qu’est-ce que c’est que le musicien choisit ?

Points de vue sur les rôles de l’ordinateur

Dans toutes les cultures humaines, la musique est un phénomène aussi fondamental que la langue parlée. Bien que la vaste diversité des musiques de différentes cultures semble réfuter la possibilité d’une formalisation, il y a des raisons de croire qu'il existe des mécanismes de base qui sont inscrits (innés) dans la perception musicale, dans nos cerveaux. Si cela est vérifié, il consisterait une contrainte dans la recherche d’une notation efficace. La situation est la même pour toute langue naturelle, mais à l’opposé des langues naturelles, toute notation musicale est simultanément, et par définition, formelle. Des connaissances sur plusieurs niveaux sont indispensables, théoriques aussi bien que pratiques. Ces propos sont assez naturels, et si l’on considère l’évolution historique des systèmes de notation de musique, on peut constater que la formalisation de ces connaissances fait partie du domaine musical lui-même.

La représentation musicale

Qu’est-ce qu’une notation musicale ? Qu’est-ce qu’une partition ? Peut-on décrire la musique dans un langage naturel non-formel parlé ? Il est évidant qu’il y a une différence entre langage naturel et langage musical. On peut considérer, par exemple, la description suivante d’un phénomène sonore, exprimée dans un langage naturel qui semble à première vue être stricte. « C’est un passage lent, en rubato, en mode mineur, joué au violoncelle, qui exprime une grande tristesse ». Ce passage fournit de l'information de deux sortes. Le premier est clair : il s’agit d’une “musique en mode mineur et rythme libre issue d’un violoncelle”. Mais, au lieu de dire : “la mélodie  “exprime la tristesse”, on aurait pu indiquer simplement que “c'est une mélodie triste”. Or, est-elle “triste” de la même manière qu'elle est “lente” ? On peut dire que “lente” fait référence à des catégories physiquement vérifiables tandis que “triste” n'est vérifiable que dans des catégories psychologiques. Même cet exemple simpliste montre la profonde difficulté d’assimiler des signifiants de types (d’ordre) différents, et conséquemment ils sont habituellement confus dans l’utilisation quotidienne du langage parlé.

L’écriture musicale a été la réponse historique à la nécessité de faciliter non pas la communication entre les musiciens mais surtout pour gagner du temps pendant l’apprentissage. Le chef de la chorale, ayant composé un morceau, enseignait les parties séparées aux chanteurs en les chantant. Ces derniers mémorisaient leurs parties par cœur. La notation servait donc premièrement le compositeur et avait pour butte l’extériorisation de ses connaissances et intentions musicales.[169] La partition permet de recréer dans un futur une musique au travers d’un médium qui persiste hors-le-temps. Par extension, la musique peut elle aussi persister est devenir un objet ; une suite d’actions fixée. La partition a délimité – pour le pire et le mieux – la pensée musicale créative et savante pendant plusieurs siècles et reste la dominante aujourd’hui. Juste comme la musique sur support fixe, la musique lue et interprétée est rendue sonore à un instant temporellement retardé par rapport à sa fécondation. C’est cette perte d’immédiateté qui lui qualifie d’œuvre-objet.

Milton Babbitt a dit que « tout enregistrement de musique est une œuvre électroacoustique ». Dans la musique occidentale, le paradigme de l’œuvre-objet décrit par une partition a régné seul très longtemps, jusqu’à ce que la musique improvisée à été reconnue elle aussi comme art savant, et, jusqu’au moment de naissance du troisième paradigme, la musique interactive, qui nécessite de penser l’œuvre-processus. Cadoz dit : « ce qui est nouveau dans la technologie, c’est son échelle, spatiale, temporelle, énergétique. »[170] Ces aspects sont liés au stockage d’information, ou dans d’autres termes, la représentation. L’informatique change comment nous pensons la mémoire. Les ordinateurs possèdent des volumes d’information de plus en plus gigantesques et toutefois, cette information peut être déplacée à l’autre bout de la planète à la vitesse de la lumière. Les trois aspects mis ensemble confluent au bouleversement social qu’entraînent les technologies informatiques. Devant cette situation, Cadoz pose une question : « Comment [peut-on] articuler le phénomène (réel) et le signe à ce passage, à ce changement d’échelle ?»[171] Il dit également que « l’informatique fait naître l’œuvre interactive ». Vu l’omniprésence des technologies informatiques, l’interactivité doit exister partout. Michel Waisvisz remarque que le fait de pouvoir choisir nous transforme en opérateur de système.

« Plus l'interactivité est ajoutée aux systèmes que nous vivons avec dans la vie quotidienne, plus nous devons traiter les notions de l'exécution. Chaque “opérateur” devient un interprète quelque part, s'il traite les machines de café, installations dans les musées, s’il manipule le réveille-matin avant de s’endormir, s’il achète des billets de concert sur l'Internet depuis un portable en public. »[172]

La partie informatique comme partition

Le compositeur Kasper T. Toeplitz dit qu’il a considéré, pendant un certain temps, « l'écriture du programme informatique lui-même comme écriture de partition »[173]. Il a également trouvé un parallèle entre cette idée et le fait de noter une pièce pour support fixe. D’après Toeplitz, dans ce genre de musique, la notation ne servirait pas à un but productif mais plutôt social, destinée aux collègues compositeurs.

« Tant que la musique électronique était de la musique “sur support” (…) le besoin réel d'une écriture n'existait pas. (…) La volonté de noter [paraît avoir été] une façon de poser la légitimité de l'œuvre électronique. »[174]

Même si une extension de la notion de "partition" reste spéculative, à la limite, on peut accepter que le code soit une notation exprimée dans un langage de programmation. Toutefois, le code informatique, étant évidemment destiné premièrement à l’ordinateur, n’a d’importance sur un degré inférieur en support à la mémoire du programmeur.[175] Encore moins courante est l’idée que le code est une notation précise, formelle, qui peut servir de partition. Ce n’est qu’exceptionnellement que le musicien doit s’occuper d’un code informatique. Concrètement, s’il doit extraire de l'information sur la musique, un code informatique n'est guère pratique pour des raisons apparentes. Par exemple, utiliser l’écran comme interface de notation reste problématique à force d’un manque de standard de ce type de notation.

L’équipe de développement d’OpenMusic s’est confrontée à la notation des structures génératrices de musique, et pour l’ordinateur et pour l’utilisateur. La réponse a été des interfaces graphiques, comme la maquette et le patch, héritées du patcher de Max. Comme nous avons discuté dans le chapitre précédent, des processus récursifs sont difficilement descriptibles dans une partition linéaire sur papier, mais relativement simples à décrire dans un langage orienté-objet comme LisP (et d’autant plus abordables pour le musicien grâce à l’intermédiaire d’une interface graphique adaptée). Pourtant l’idée de récursivité, même dans une application limitée à la musique, n’est pas du tout simple à concevoir. Assayag dit par rapport à l’interface comme support à la notation :

« Il est clair qu’une maquette est une notation. Le patch aussi, d’une sorte. Mais les uns sont plongés dans les autres et réciproquement : à ce stade. Ce qu’apporte l’ordinateur n’est pas seulement quantitatif mais qualitatif. On bascule dans la mise en abyme de la notation. »[176]

Ce mode d’écriture musicale est pertinent pour la musique interactive pour laquelle une notation fixe et exclusive sur papier n’a pas de sens. Une grande partie du fonctionnement d’une œuvre-processus est cachée dans le code informatique. Est-ce qu’il y a du sens d’analyser une œuvre dépourvue de représentation fixe ? Anne-Gaëlle Balpe pose la question ainsi : « Comment parler de mémoire du spectacle si le “texte-mère” meurt avec sa représentation »[177].

L’ordinateur comme instrument de musique

Nous avons vu que l’ordinateur est effectivement traité comme un instrument de musique par des compositeurs et programmeurs pour la composition musicale. Est-ce qu’il est de même pour les musiciens ? On peut constater qu’il y a un nombre croissant de musiciens qui utilisent l'ordinateur comme un instrument sur la scène.  Cependant Toeplitz juge que ce développement n’a pas été incité par les musiciens. Plutôt que d’émaner d’une soif à étendre le registre de l’instrument, il aura été propulsé surtout dans la musique dite “expérimentale”, par les compositeurs « qui auront en quelque sorte déplacé une partie plus ou moins grande de leur studio sur la scène, mais [qui] restent dans la position du “créateur solitaire” »[178]. Comment penser l’ordinateur dans cette situation ? C’est tout à fait envisageable à accepter l'ordinateur, tout simplement, comme un instrument de musique à force d’être utilisé pour créer de la musique.[179] « L'ordinateur, et essentiellement sa version portable (…) est de plus en plus devenu un instrument de musique à part entière. »[180] Dans ce propos, Toeplitz est secondé par Olivier Pasquet qui éprouve que « la laptop-music (…) peut être de la musique savante »[181]. Pour lui, la programmation fait partie de l’écriture musicale et c’est pour cela qu’elle devient par conséquent pratiquement toujours spécifique à une pièce donnée.

« Un grand nombre de compositions pour ordinateur sont des programmes. Loin d'être universels, ils ne peut servir à interpréter qu'une seule pièce. On est loin de l'idée d'un instrument classique »[182]

L'ordinateur comme méta-instrument

Déjà en 1963, après avoir réussi Music III, Max Mathews a découvert qu’au fond, la difficulté principale que rencontrait l’opérateur face à l’ordinateur n’était pas les capacités techniques de la machine mais ses propres limitations conceptuelles et psychologiques de lui-même :

« Il n’existe pas de limitations théoriques de la capacité de l’ordinateur comme source de sonorités musicales, contrairement à celle des instruments traditionnels. Aujourd’hui, l’étendue de la musique d’ordinateur est limitée principalement par le coût et par nos connaissances psychoacoustiques. »[183]

Trois décennies plus tard, Mathews ne semble que moyennement impressionné par la recherche psychologique liée à la perception de son. Il admet que les approches au phénomène sonore, de points de vue compositionnelle et instrumentale, sont très différentes.

« Je pense que les logiciels qui ont été développés sont assez intéressants en tant qu'instruments musicaux, pour faire des sons et des timbres. Ils sont assez peu intéressants, à mon avis, en tant qu'algorithmes componentiels. (…) C’est peut-être [parce que] nous n'avons pas trouvé ou n'avons pas écrit les bons algorithmes ; c'est un problème plus difficile que tout simplement produire des sonorités. »[184]

La conclusion doit être que la composition assistée par ordinateur reste très en arrière par rapport à l’utilisation de l’ordinateur simplement pour la production de son. Discutant le problème conceptuel d’un outil informatique pour aider à la création musicale, Jean-Claude Risset trouve que

« la question du propos musical se pose différemment pour chaque utilisation. En revanche celle de la perception ne peut pas être éludée, car la spécification d’un son se fait en le décrivant dans tous ses paramètres physiques, et non pas en stipulant l’effet recherché. »[185]

La spécification de tous les paramètres générateurs de son est nécessaire pour qu’une machine puisse traiter une tâche particulière ; par contre, un agent intelligent (par exemple un musicien) est capable à recréer une représentation musicale à partir de l’information incomplète sur la tâche. Ce fait touche également à la différence entre la représentation d’un son ou d’un geste instrumental dans une partition traditionnelle sur portées et dans une interface informatique adaptée comme OpenMusic) : la différence est psychologique. Même si l’ordinateur permet la notation de tout processus sonore formalisable, Cadoz expose pourquoi l’approche naturelle n’explique pas suffisamment la nature profonde de l’ordinateur :

« Lorsque l’ordinateur a pu être utilisé pour créer, par synthèse, des phénomènes sonores… [et] dès lors que l’on [l’a équipé d’un] clavier à touches noires et blanches, “produisant du MIDI” et activant des processus de synthèse en temps-réel, plus personne ne s’est posé de question et l’on a alors simplement considéré que naissait un nouvel instrumentarium, électronique. C’est une grosse erreur. Ce que nous voyons là ne sont que des machines déguisées en instruments. »[186]

Comme nous avons vu dans la discussion des deux modes d’existence d’une œuvre, la distinction devient d'autant plus importante quand on doit préciser le rôle de l'ordinateur dans une situation musicale. Stroppa affirme que la notion même de l’acte de “micro-composition” ou, en d’autres termes, la construction d’un timbre synthétique devient échappatoire, parce que fatalement surimposée. En fabriquant des sons par l’ordinateur,

« le résultat d’un acte “micro-compositionnel” - acte aussi varié qu’imprévisible - (…) n’est pas possible de définir une fois pour toutes. C’est pourquoi il est impossible de parvenir à une description satisfaisante du timbre des sons générés par ordinateur. »[187]

Cadoz poursuit la discussion et manifeste pourquoi il n’a pas de sens à parler du timbre de l’ordinateur. « L’ordinateur n’est qu’une machine de représentations ». En tant que tel, son fonctionnement est déterminé par un programme et c’est donc celui qui est responsable du timbre. Ensuite, et par un raisonnement parallèle, « l’ordinateur n’est pas un instrument, mais une représentation d’instrument. »[188] Cadoz fait deux choses : premièrement, il établit la séparation de l’ordinateur en substrat et contenu ; deuxièmement, il arrive logiquement à une définition d’instrument qui repose sur les discussions antécédentes du geste et de la source d’énergie. L’ordinateur est donc dépourvu d’une sonorité appartenant à lui.

Partant des mêmes problématiques, Trevor Wishart[189] a offert, en 1983, une perspective sur l'instrument  qui esquive la discussion des catégories physiques et sémiotiques :

« L’ordinateur est capable à entièrement changer notre perspective sur la manière dont nous faisons les choses parce qu’il n’est pas une machine construite pour un but particulier mais un outil qui se laisse confectionner à conclure n’importe quel but que nous pouvons clairement définir. C’est une méta-machine. En particulier, il offre la possibilité d’être un instrument sonore universel, un dispositif par lequel nous pouvons modéliser et produire tout objet sonore (sound-object) ou organisation de son concevable. »[190]

Wishart étend ce concept encore, dans le domaine psychologique, en pointant « l’au-delà de l’instrument : le modèle de son »[191]. Ce modèle, qui est une représentation dans l'ordinateur, réalisé par “l'instrument universel”, est un ensemble d'outils dont le nombre est conceptuellement (ou psychologiquement) infini.[192] Wishart déclare que l’ordinateur n’est défini ni par sa structure ni par les éléments qui le constituent - il est "plus". La notion que propose Wishart de l’instrument de musique est nettement plus générale que celle d’autres auteurs. Par “modèle de son”, Wishart entend « la spécification des paramètres quasiment invariables dans un champ de sonorités possibles. »[193]

Marc Battier interprète la “méta-machine” de Wishart comme « une forme de synthétiseur de son »[194]. De plus, comme la méta-machine serait le dispositif qui permet à l’interprète-utilisateur de modeler à l’infini le son, de se procurer du contrôle sur toutes les modifications imaginables (ou plutôt formalisable) sur le son, elle « se constitue en relais, transformant l’effet de la gestique en donnée ». La “gestique” ici est certainement un geste mental. C’est effectivement une définition précise d’interfac, et différente à celles que nous venons de discuter. Battier poursuit la réflexion :

« Le méta-instrument ne joue plus le rôle de la lutherie acoustique ou électroacoustique, qui pourrait être définie comme la résonance sonore du geste, mais bien celui d’une interface. Ce changement d’état est fondamental en ce qu’il détermine une rupture : le méta-instrument n’agit plus dans le domaine physique, mais dans celui, symbolique, de la représentation. »[195]

La musique d’ordinateur, par ordinateur ou pour ordinateur ?

Plus les technologies ont avancé, plus la perspective anthropomorhique a influencé le développement d’outils informatiques pour étendre et épurer les capacités de perception du cerveau humain. Or, est-il incontestable qu’une musique faite par une machine (ou par l’homme mais avec l’aide extensif d’une machine) soit obligatoirement destinée à être appréciée exclusivement par l’homme ? La question n’est pas une plaisanterie : en avant-propos à “Cent mille milliards de poèmes”, œuvre qualifiée de “littérature combinatoire[196], Raymond Queneau avait (non sans ironie) choisi une phrase de Turing : « Seule une machine peut apprécier un sonnet écrit par une autre machine. »[197] L’on peut alors peut-être demander quand est-ce qu’un ordinateur va pouvoir comprendre et apprécier une œuvre musicale, mais il est plus important d’interroger qu’est-ce que cela veut dire, de comprendre et d’apprécier… Nous discuterons quelques aspects d’une créativité artificielle au chapitre prochain.

Max Mathews a écrit en 1963 qu’il ne perçevait « aucune limitation théorique de la puissance de l'ordinateur comme source de sonorités musicales, contrairement aux instruments normaux… Le monde de musique d’ordinateur est limité principalement par son coût et par nos connaissances de psychoacoustique. »[198] Vingt ans plus tard, Trevor Wishart conçoit la possibilité d’une musique de l’ordinateur autre que celles décrites par différents modèles hérités de la tradition musicale, non forcément obligée à émuler des conceptions de musique préexistantes. Il note que, dans l’histoire des technologies, il semble y avoir une

« propriété déterminante dans l'application de la technologie numérique à l'art sonore [qu’est] le développement des outils sophistiqués, d’autant matériels que logiciels, pour permettre le comportement d'exécution humain (physiologique et intellectuel) d'être transmis, en tant que morphologie imposée aux modèles de son qui existent dans l'ordinateur. »[199]

Quand Wishart dit “existing within the computer”, il faut-il le comprendre dans le sens que l’ordinateur possède déjà (au moins théoriquement) un nombre infini de modèles musicaux à trouver, ou bien, à créer ? Il continue : « les limitations sur le potentiel [de l’ordinateur] sont partiellement dues à notre faculté de compréhension réduite par voie acoustique (acoustic understanding), mais principalement de nos préconceptions cognitives et esthétiques au sujet de la nature de l'art sonore et de ses instruments. »[200] Wishart fait référence à l’analyse de Mathews, mais souligne surtout l’aspect artistique du problème. Comme Stravinsky dans son Poétique, il évoque également l’idée d’un potentiel musical à explorer[201]. Une métaphore fournie par Joel Ryan décrit l’instrument comme un espace de potentialités . D’après ce compositeur et programmeur, l’on peut exprimer le “champ de sonorités” d’un instrument dans des termes empruntés de la topologie mathématique. L’espace d’un hautbois, par exemple, serait « extrêmement troué, avec des trappes partout ». Par contre, nous-dit Ryan, celui de l’ordinateur (en tant qu’instrument) serait « régulier, plat - et à priori, vide ». Ce vide provoque une image forte de la difficulté de cerner la nature de l’ordinateur. Il demande d’être rempli de sens. La créativité peut être conçue comme la force qui oblige une recherche dans un tel espace conceptuel des potentialités. L’exploration d’un espace “difficile”, comme celui de l’ordinateur, pourquoi est-il séduisant pour le compositeur-créateur ? Est-ce qu’une friction conceptuelle lui est-elle même indispensable ?[202]


« One could say that a man can "inject" an idea into the machine, and that it will respond to a certain extent and then drop into quiescence, like a piano string struck by a hammer. » 

« The claim that “machines cannot make mistakes” seems a curious one. One is tempted to retort, “Are they any the worse for that?” »

- Alan Turing[203]

créativité artificielle

Nous dirigeons maintenant l’attention vers l'investigation de l’intelligence artificielle, la possibilité à créer une machine qui peut émuler des capacités abstraites de l’homme. Comme nous avons vu, le fonctionnalisme computationnel entreprend d’expliciter comment une machine peut arriver à simuler les fonctions symboliques et abstraites du cerveau. Dans ce texte, nous essayons le plus possible de rester dans le concret et esquiver les perspectives téléologiques… Pour citer Duisberg, il s’agit de « considérer les implications de prendre sérieusement le but apparent de l’I.A. : construire la chose la plus proche possible à une machine intelligente »[204]. Nous enquêtons les paradigmes symbolique et connexionniste qui tentent des explications de la cognition en partie contradictoires. Ensuite, nous nous tournons vers l’invention et la créativité dans les arts temporels, en particulier la musique, qui dépend de la création des surprises. Alors, “l’effet surprise”, est-il exclusivement créé – et apprécié - par l'homme ? Un agent artificiel dans la création musicale, est-ce que c’est réalisable ?

Que la recherche dans l’intelligence artificielle ait un rôle important à jouer dans la création musicale, en tant que composant dans des systèmes d’interactivité, est incontestable. Mais est-ce que les implémentations sont au pair avec la théorie ? À l'heure actuelle, la grande diversité de modèles des connaissances musicales et l’incompatibilité dans les représentations musicales sont deux problèmes profonds auxquels les communautés de recherches cognitives font face. La relation entre le domaine de l'intelligence artificielle et d’autres domaines étudiant la cognition, comme la psychologie et la linguistique, a souvent été aussi étroite que tourmentée. Cet état des choses a certainement dissuadé beaucoup de compositeurs à s’impliquer dans l’enquête – ou se mêler à la querelle, si préféré…

L’automate, la machine musicale

Comme nous avons constaté dans l’étude historique, des machines musicales ont été construites par compositeurs depuis le 18e siècle. Nous entreprenons maintenant un examen de cette catégorie de machines dans une perspective de créativité. L'automate musical est un dispositif qui produit de la musique suivant des contraints qui lui est fournis par son inventeur. Il a recours à une base de données et a des contraints, qui sont explicités sous forme fonctionnelle ou impérative. [205] Les données et les contraints mis ensemble définissent le champ de production potentiel du dispositif. Les gestes qui résultent quand la machine est mise en marche ne sont pas instrumentaux, comme Cadoz clarifie dans une définition négative : « Un geste n’est pas instrumental quand l’énergie intrinsèquement consommée par le phénomène résultat n’est pas de source humaine. »[206] Par conséquent, un automate ne serait pas un instrument de musique.

Or, cette définition nous séduit à un raisonnement hasardeux… Imaginons un automate en train de produire une musique. Nous ignorons quand et comment il a été mis en marche. Tout ce que nous savons, c’est que, en ce moment, il joue. Nous jugeons que la musique est née d’une créativité. Alors, il faut poser la question du lieu de cette créativité. Est-ce qu’elle appartient à la machine elle-même ? Si oui, nous avons à voir avec un automate douté d’une créativité artificielle. Si la réponse est non, continuons par questionner : la créativité qui génère la musique que nous entendons, a-t-elle résidé dans la machine seulement pendant la construction ? Si oui, alors l’automate est l’extension de la volonté créative de l’ingénieur et forcément un instrument de musique. Si la réponse est encore non, nous sommes obligés à considérer que la créativité n’était qu’une illusion, une représentation créée dans notre cerveau. Or, qui est donc le créateur de la musique ? Au travers d’une discussion de quelques travaux, nous pouvons approfondir la notion d’une créativité machinale et la question de représentation musicale.

Procédures automatiques

John Cage travaillait sur des procédures automatiques de prise de décision depuis le début des années 1950. De “Williams Mix”, œuvre écrite pendant cette période,[207] le compositeur a été à la fois l’explorateur et l’inventeur. La partition est une série d’instructions comment créer la pièce. [208] Il s’agit donc ici d’un automate : tout ce qui est d’artistique est implicite dans les instructions, et le but de la procédure décrite dans la partition est la construction d’une œuvre-objet. Toute créativité précède à la génération de son musical,[209] mais dans cette pièce, la créativité n’a pas (eu) besoin de feed-back sonore. À propos des automates, Assayag a noté que « une formalisation en amont permet de programmer un automate dont les sorties sont considérés, en général sans retouche, comme des résultats “musicaux” ». »[210]

Nombreux compositeurs se sont servi de l’ordinateur pour créer des automates musicaux. Karlheinz Essl a composé plusieurs pièces-automates qui fabriquent infiniment de musique : citons “Lexikon-Sonate” (en cours depuis 1992) et “m@ze˚2” (depuis 1999), qu’il nomme Meta-Instruments.[211] Essl témoigne l’importance qu’il donne au couplage de retour (feedback) dans son travail avec des systèmes quasi-indépendants, lesquels le compositeur, en tant que créateur, doit imprégner avec sa propre sensibilité artistique par la programmation. Il y a toujours un jugement humain, même dans ce qui reste fondamentalement un système automatique propulsé par des processus aléatoires. Pour Essl, c’est le feedback qui constitue l'interaction dynamique. Essl, étant également programmeur, trouve que la machine devient l’extension des capacités cognitives de lui-même.

« Le compositeur n'est pas un constructeur extérieur à son œuvre, construisant un appareil, le mettant en marche et puis le laisse à son destin, mais - et cela m'apparaît particulièrement important - fait lui-même partie du système. Ses intentions, désirs, ses objectifs et son orientation esthétique y trouvent une place, ainsi que sa capacité à tirer les conséquences des constellations qui puissent apparaître [jeweiligen Systemkonstellationen] dans le système, ainsi modifiant son comportement. Cependant, le feedback, étant une fonction essentielle à chaque système dynamique, change également les connaissances du compositeur. »[212]

Chaque compositeur cherche interminablement à s’échapper de la prison d’un système qu’il s’est construit… Et il perçoit cette fuite comme un acte de créativité. Toutes les cultures dans toutes les époques ont inventé des méthodes pour galvaniser la créativité. Est-ce que c'est important pour une machine doutée de l’intelligence artificielle de pouvoir "sortir de soi-même" ? Comment peut cette qualité mentale être formalisée ? Nous allons examiner quelques cas avoisinant à une créativité artificielle. Commençons dans le règne animal.

Un instinct animal chez la machine ?

Dès le développement de la cybernétique dans les années 1940, la conceptualisation des machines ont emprunté de la biologie des modèles. Le perceptrone, entité mathématique, a été conçu à partir des neurones cérébraux. Même si les premières expérimentations n’étaient guère prometteuses, des mathématiciens comme Alan Turing ont eu de l’espoir en l’intelligence artificielle.

« Ceci n'implique pas qu'il soit impossible de construire l'équipement électronique qui “pensera tout seul” ou dans ce qui, en termes biologiques, on pourrait introduire un réflexe conditionné, qui servirait comme base à “l’apprentissage”. Que ce soit possible en principe ou pas est une question stimulante et passionnante, suggérée par certains de ces développements récents. »[213]

En 1966, André Leroi-Gourhan ressemble la machine mécanique à un organisme vivant. Si un robot va pouvoir survivre dans un environnement potentiellement hostile, ses composants mécaniques doivent être semblables[214] aux organes d’un animal qui survit le même milieu, raisonnait-il, et proposait d'introduire la machine dans la catégorie d’êtres vivants. « Il est bien difficile, pour un biologiste, de ne pas mettre en parallèle la mécanique d’animaux déjà évolués avec ces organismes qui ont fini par constituer un monde vivant parallèle. » [215]

Le test de Turing

En comparant la mémoire et les capacités cognitives de la machine avec celles de l'animal, Leroi-Gourhan poursuit donc une problématique que Turing creusait seize ans auparavant. Turing a développé un test psychologique, aussi élégant qu’efficace, avec lequel on peut estimer à quel point une machine est capable à simuler un dialogue humain. Or, il ne s’agit pas de tester la machine, mais d’évaluer notre conception de la relation entre la machine et l’homme.[216] Le cobaye doit posséder des concepts naturels (humains) et éventuellement maîtriser une langue naturelle. D’ailleurs, le test n’est pas limité à des machines : avec la méthode de Turing, on peut mesurer le degré de ressemblance entre deux entités inconnue n’importe quelles, sous la seule condition que les deux puissent communiquer avec l’opérateur du test dans une langue commune. Le test est le prototype de toute tentative à évaluer l’intelligence artificielle. 

Turing a proposé qu’une machine doutée avec un système cognitif d’ordre “suffisamment complexe” pourrait passer le test. [217] Le système en question, que Turing s’imagine, est douté d’un processeur logique, un ensemble de règles ainsi qu’une mémoire infiniment grande. Il s’imagine qu’une telle machine pourrait produire un « phénomène explosif » qui serait la créativité. Turing fait l'allusion à une réaction nucléaire et remarque que le cerveau humain semble avoir une "masse super–critique", nécessaire pour produire cette réaction explosive dans le domaine biologique. Dans ces termes, il considère que « les cerveaux d'animaux semblent très certainement sous-critiques. », et il se demande si « une machine puisse-t-elle être construite pour devenir super-critique ? »[218] Leroi-Gourhan semble raisonner que la possibilité existe, mais que « la machine est nettement plus proche de la définition classique de l’instinct que l’animal lui-même. »[219] Chez l’animal, l’instinct est précédé par l’ensemble de fonctions innées. Claude Cadoz fait la distinction entre, d’un côté, les mouvements réflexes qui « correspondent aux premiers modes d’interrelation entre les organismes et leur environnement »[220] et de l’autre, les mouvements contrôlés qui sont à l’origine de l’intention. Il faut que l’instinct devienne abstrait, qu’il se libère de la prison du temps présent, et sollicite le développement d’une mémoire. Lorsque l’animal peut préméditer les conséquences de ses actions, c’est la naissance de l’intention. Plus développées encore soient les capacités de juger un résultat imaginé ou de choisir entre plusieurs jugements. Il faut demander, comme Mazzola le fait, si un tel processus cognitif est « un processus principalement comportemental ? Implique-t-il d’autres structures spécifiques ? »[221]

Intuition et intention

Nous pouvons reconnaître dans un système musical de réponse simple un comportement qui correspond à la métaphore des réflexes dans des êtres vivants primitifs. En cherchant “l'essence machinale”, Douglas Hofstadter dit que celle-ci est identique à l’absence de nouveauté : la répétitivité devenue chronique. Hofstadter conjecture que ce caractère se présente par des mouvements ou autres actions répétées ; c’est comme si le sujet en question éprouvait « un enfermement dans un espace ou un autre, très clairement délimité ». [222] Pour sortir de cette prison, l’agent doit donc se procurer de connaissances stockées dans une mémoire. Mais comment construire une mémoire et notamment les voies d’accès à l’information ? Alain Cardon propose qu’un système intelligent ait forcément une progéniture ressemblante à celle d’un animal.

« La propriété générale d'un système de la pensée est d'abord qu'il est une partie non vraiment disjointe d'un système comportemental qui sait se déplacer, s'alimenter et qui vieillit. Dans le vivant, c'est le produit d'une évolution (…) Il faudra s'intéresser à l'évolution de la conscience comme propriété émergente. »[223]

En 1966, Leroi-Gourhan a exprimé un optimisme très fort dans l’intelligence artificielle, qui semblait promise vu l’avance des nouvelles technologies cognitives et robotiques pendant les premières décennies de l’informatique. Il écrit : « il est certain que la fabrication de cerveaux artificiels n’est encore qu’à ses débuts ». Ces cerveaux artificiels ne seraient non seulement l'extension des capacités humaines, mais, poursuit Leroi-Gourhan, ils constitueraient également un défi ou même une menace à l'homme, qui pourrait se trouver dans la situation de « l’archer qui aurait ri des arquebuses » ! Il conclut par un avertissement : « Il faut que l’homme s’accoutume à être moins fort que son cerveau artificiel. »[224] À propos du développement de l'intelligence artificielle, Leroi-Gourhan écrit que « l’évolution a attaqué un nouveau palier, celui de l’extériorisation du cerveau, et du point de vue strictement technologique la mutation est déjà faite. »[225] Finalement, l’histoire ne lui a pas donné raison. Avec un peu de recul, l’on peut constater la désillusion devant la “promesse non tenue” dans le commentaire que Cadoz fait, qui semble être destiné à Leroi-Gourhan. « À la fin d’époque naïve de l’intelligence artificielle, laissant le fantasme anthropomorhique de la “machine intelligente”, on a commencé à penser en termes “d’aide à la composition” plutôt que de “composition automatisée”. »[226]

Intelligence artificielle

« L'étude de l’apprentissage automatisé est l'étude des algorithmes permettant à l’ordinateur d'améliorer l’exécution et d'augmenter sa base de connaissance. »[227] Comme Thagard et autres auteurs ont remarqué, le domaine de l’intelligence artificielle incarne un ensemble d'idées extrêmement divers et souvent contradictoires.[228] Son rapport avec les champs voisins d’études cognitives, comme la psychologie et la linguistique, a été rapproché mais inconfortable. Les communautés de l’intelligence artificielle sont divisées en deux camps. Pour simplifier, il y a d’un côté les alliés des réseaux de neurones et autres formes de systèmes non-linéaires, dynamiques et complexes, et de l’autre côté les champions de l’approche symbolique basée sur les systèmes de règles (rule-based systems). Paul Desain et Henkjan Honing, du groupe néerlandais “Music, Mind, Machine”, affirment que :

« La diversité importante de modèles cognitifs incompatibles et la représentation de connaissance musicale, ainsi que le lien brouillé entre les deux, est un vrai problème dans les sciences cognitives aujourd’hui. »[229]

Intelligence émergente, invention et combinatoire

Aldo Reck Miranda étudie des propriétés de la langue et comment un vocabulaire partagé peut émerger dans un ensemble d’agents qui sont motivés à la communication. Il se met très positif à l’idée d’une intelligence artificielle émergente : « aujourd’hui, il est très difficile de remettre en cause le fait que les machines peuvent apprendre »[230]. La proposition que la machine soit capable à apprendre est naturellement moins forte que de dire qu'elle peut créer. Toutefois, Gérard Assayag fait le point en critiquant une esthétique qui porte à nier « l’idée même d’invention à laquelle elle substitue celle de découverte combinatoire. »[231] Il semble se mettre d’accord avec Pierre Boulez, qui, en s’exprimant sur l’improvisation, a dit que « la réponse [que les musiciens] donnent au phénomène d’invention est en général un acte de mémoire manipulée »[232]. Hofstadter va encore plus loin quand il maintient que la capacité de créer suit automatiquement à une « représentation correcte des concepts ». C'est effectivement une capacité intrinsèque, dit Hofstadter, à la construction de l'âme (the mind). Il note aussi qu'un concept ne peut exister dans le vide ; il est produit par sa connexion avec d'autres concepts. Donc une définition récursive. « C'est l'organisation de la mémoire qui définit qu'est-ce que c'est qu'un concept. »[233] Pour pouvoir comprendre la façon dont le cerveau construit des concepts, est-ce qu’il faut isoler un concept et l'étudier comme un objet ? D'après Hofstadter, cela n'est pas possible, et c’est un des caractéristiques d’une explication holiste de la cognition. Le problème est tranché par Élisabeth Pachérie discute la « difficulté rencontrée par le fonctionnalisme sémantique [qui] concerne la menace du holisme… Le programme d’une psychologie intentionelle semble… sérieusement mis en péril. »[234]Duisberg, par contre, n’exclut pas la possibilité de construire une épistémologie de l’intelligence artificielle qui va « incorporer une évaluation de passion », ou affect. Au cœur d’une connaissance effective, la passion se suggère comme « dispositif important de n'importe quel modèle réaliste de l’esprit », qu’il soit artificiel ou naturel. Peut-on présumer que “passion” et “intention” sont les interprétations intuitive et rationnelle du même phénomène ? Ce problème n’est pas résolu. Quoique, Duisberg souligne que tout modèle réaliste « éviterait une dichotomie spécieuse entre rationnelle et intuitive ».[235]

Complexité

Admettons que la complexité d'un système générateur est grande si ses résultats sont localement imprévisibles. La capacité à imiter l'invention de matériau non-ouïe peut donner une image de la créativité humaine, ou du moins, une illusion d’indépendance de la part de la machine. L’intention du compositeur, exprimée formellement sous forme de code, est interprétée par le système informatique. Une intention volontairement nébuleuse doit être formulée très précisément. En utilisant des fonctions chaotiques, le système peut engendrer des résultats imprévus qui se laissent comparer avec l’intention originelle seulement après avoir été produits. Observant ce phénomène, Joel Chadabe pose deux questions pertinentes. Premièrement : « à quel point un système peut-il être considéré si complexe que le lien entre l'intention du compositeur et le comportement de la part du système commence à se brouiller ?»[236] Pour tenter une réponse, admettons d’abord que, de point de vue artistique, l’effet de “perte de contrôle” n’est pas sans intérêt ; nous avons déjà touché à ce fait. Tous les compositeurs[237] savent qu’il faut laisser une partie du contrôle à un jugement extérieur à lui : aux musiciens, à l’aléatoire dans une automate, ou au chaos d’un système complexe. Nous avons vu que chaque système axiomatique comprend forcément la possibilité de produire des résultats non prévisibles. Pour produire l'effet d'imprévisibilité, ce qui est normalement souhaité dans un contexte artistique, l’utilisateur n’aurait pas forcément besoin d'introduire du bruit dans les données d'entrée ou de l'aléatoire extérieur à l’algorithme employé. Du théorème de Gödel suit : si le système est suffisamment complexe, sa production contiendra toujours des résultats imprévus. De point de vue artistique, l’opérateur du système pourrait bien considérer ces résultats comme étant inventés bien que, il a par définition, “perdu” le contrôle du processus. Alors (et c’est la deuxième question que pose Chadabe directement à la première), « quand est-ce que cela est mauvais ? » À chacun de trouver la réponse qui lui plait… Elle sera fatalement subjective, appartenant au domaine de l'art. Vue d'une perspective scientifique, l'imprévisibilité en soi n'est pas souhaitée, parce que non-reproductible et par conséquent incompatible avec le premier critère de la méthodologie scientifique. Par contre, le phénomène peut se laisser étudier globalement, sur un niveau supérieur où des résultats particuliers ne sont pas mis en question. Il concernerait plutôt le processus lui-même et le système qui l’encadre. Ainsi, il faut étudier les conditions sous lesquelles le phénomène existe. Karlheinz Essl se dit fasciné pat la possibilité de penser une structuration non-hiérarchique[238], par laquelle « chaos et ordre ne sont plus opposés, mais deux pôles extrêmes, entre lesquels de nombreux chemins sont possibles. Nous vivons cette expérience à chaque pas dans la vie quotidienne »[239]. On peut noter que ce propos est assez proche à celui de Duisberg, que nous venons de citer.

Nous soutenons le point de vue que les systèmes auto-émergeants sont, en quelque sorte, en relation inverse avec les systèmes chaotiques. Dans les premiers, des structures se stabilisent à partir des données quasi-aléatoires au bas niveau, tandis que dans des systèmes chaotiques, des règles déterministes au bas niveau vont donner un résultat global imprévisible. La relation contiguë entre les deux modèles mathématiques est constatée par le compositeur Rolf Wallin, qui exprime sa fascination devant des systèmes dynamiques dans lesquels « l'ordre et le désordre semblent avoir la même origine ». Les fractals, des modèles mathématiques qui présentent des régularités ou sémi-régularités, se laissent volontiers à une interprétation artistique. Pourtant, Wallin se méfie d’une approche trop simpliste (de la part de l’artiste), qui serait d'ajouter une « goutte d'aléatoire » dans un processus qui reste basé sur la géométrie euclidienne, et ne donnerait comme résultat qu’une « mixture de l'huile et de l'eau ». [240] Il continue :

« Grâce à la théorie de chaos, l'espace entre l'ordre total et l'entropie est en train de se resserrer, et exactement ceci peut s'avérer intéressant pour les musiciens. Après tout, cet espace a été notre cour de jeu depuis quelques milliers d'années. »[241]

"Sphexicité" ou l’entêtement machinal

Revenons à l’étude des fonctions de base de la cognition. Douglas R. Hofstadter introduit un concept intéressant en faisant une comparaison entre une machine (en général) et un insecte particulier : Sphex, une guêpe. Il dénote par ”sphexicité” (sphexishness) la qualité de montrer un comportement non questionné et itéré. Dans une situation expérimentale, cet insecte va répéter sans cesse une action, relativement complexe, apparemment sans se rendre compte qu’elle la reproduise. La pauvre guêpe semble n’avoir aucun recours à une mémoire de court terme (ou mémoire vive). D’après Hofstadter, l’animal a quelque chose en commun avec l'ordinateur classique.

« Clairement, il y a quelque chose qui manque à la machine et que lui permet d'avoir cette tolérance illimitée pour des actions réitérées. Cette chose qui manque se laisse décrire dans peu de mots : c'est la capacité d'auto–observation en pleine action et d'y percevoir un modèle (pattern), et ensuite la capacité de pouvoir faire cela sur plusieurs niveaux d'abstraction. »[242]

Il serait bien si l’agent informatique pouvait s’échapper de la prison de “tolérance illimitée” de ce type. Pour y arriver, il doit avoir la faculté de se représenter ce qu'il est en train de calculer. Alain Cardon appèle cette faculté de regard sur à la fois la tâche et la relation qu’il dresse avec elle "le processus miroir".[243] Le point délicat est que le processus doit pouvoir observer des activités au niveau collectif, hors de soi-même. Hofstadter y fait le commentaire suivant :

« Un problème se présente dès que l'on rentre dans des structures de régressions infinies composées d'autres structures de régression infinies[244] - la chose ne s'arrêt plus, et devient soporifique[245]. Ou non pas exactement ennuyeuse, mais une chose très complexe et embrouillée, dont la réalité et la pertinence deviennent de plus en plus incertaines. Mais, quand on l’apporte de nouveau au domaine de la sphexicité, cela provoque la question très vraie et très appropriée de comment construire une machine capable de percevoir des modèles imprévus dans son propre comportement. Ceci est lié à un problème classique dans la théorie de calculabilité, appelé le halting problem. C'est la question de l'existence d'un programme qui peut inspecter d'autres programmes avant qu'ils ne soient exécutés, prévoyant avec sûreté s'ils entreront dans des boucles infinies… La réponse à cette question s'avère "certainement pas", et cela pour des raisons élégantes et profondes. »[246]

Dans la théorie de calculabilité, quand un programme ou un système de n'importe quelle sorte revient sur lui-même de cette manière, en quelque sorte se tournant "en arrière" sur soi-même, on l'appelle diagonalisation. L’explication "élégante et profonde" de ce problème, dont parle Hofstadter, a été donnée par Kurt Gödel en 1931. Son théorème montre les limitations de tout système axiomatique – par définition formalisable et qui donne la possibilité de programmer des machines à états discrets – et par conséquent impose une limitation à l'ambition que nous pouvons avoir sur l'intelligence artificielle sous le paradigme actuel. Le théorème dit que, dans chaque système logique, capable à produire des expressions, il y aura inévitablement des expressions indécidables (impossibles à prouver vraies ou fausses) dans le système–même, du moins que le système ne soit inconsistant. Hofstadter le sait bien et offre un niveau d’ambition pour l’intelligence artificielle plus réaliste en affirmant que « nous ne sommes pas vraiment concernés par la perfection mathématique de notre système auto-observateur autant qu'avec ses chances de survie dans un monde complexe ; après tout, c’est ça l'intelligence. »[247] Nous sommes à un petit pas de l’affirmation qu’un système peut inventer.

De toute façon, il s’agit de ce que nous devons entendre par intelligence. Cela a été clair pour Turing quand il a construit son test. Aldo Reck Miranda y fait une observation pertinente.

« L'intelligence est-elle synonyme à la capacité d'effectuer des opérations logiques automatiquement, de jouer aux échecs ou de diagnostiquer des maladies ? Les réponses à de telles questions ont une tendance à être biaisées ou ambiguës. Le problème est que, une fois qu'une machine devient capable d'exécuter des activités de ce type, on a la tendance à cesser de considérer ces activités comme intelligentes. L'intelligence sera toujours l’aspect inconnu de l'esprit humain ; ce qui n'a pas encore été compris ou simulé. »[248]

 L’intelligence pourrait émerger d’un système qui sait créer de propos d’actions, les tester et évaluer leur efficacité avant de les mettre en jeu dans un environnement. Hofstadter conclut par la proposition que c’est le rôle de l'art travailler dans un terrain "brouillé" dans laquelle une diagonalisation fiable n'est plus envisageable. L’artiste doit chercher l’endroit où il ne sait plus maintenir le système régulateur qui lui permet d’observer soi-même. C'est exactement là, dit Hofstadter, que « nos styles individuels, caractères, commencent à émerger dans le monde ». [249]

L’automate et l’effet “surprise”

Est-ce qu’on peut vraiment se surprendre soi-même ? Peut-on être surpris quand on rêve ? Est-ce que la machine peut être “surprise” ? Si oui, est-ce que c’est une capacité que le constructeur peut prévoir ou est-ce qu’il se trouvera surpris exactement par cette capacité, inattendue ? Sinon, est-ce que la sensation de “surprise” se constitue nécessairement chez un tiers personne (“tiers agent”) ? Une machine capable à l’introspection, à regarder ses propres processus perceptibles, est-ce qu’elle est consciente ? Est-ce qu’elle saura qu’elle est consciente ?

Quoi qu’il en soit, pour Alan Turing, il n’y avait aucun doute que la machine soit capable à provoquer des surprises, même pour celui qui l’a programmée :

« La vue que les machines ne peuvent pas provoquer des surprises est due, je crois, à une erreur à laquelle les philosophes et les mathématiciens sont particulièrement faibles. C'est la croyance que, dès qu'un fait soit présenté à un esprit [a mind], toutes les conséquences de ce fait se révèlent à l'esprit simultanément avec lui. C'est une prétention très utile dans de nombreuses circonstances, or, l’on oublie trop facilement qu'elle est fausse. Cette manière de penser emménerait à la supposition qu'il n'y ait aucune vertu dans l’élaboration fidèle des conséquences de l’information perçue et des principes généraux. »[250]

Pour conclure, la simple “élaboration fidèle” des données, qui peut être accompli par un automate, donne naissance à des phénomènes surprenants. Pour l’opérateur d’une machine à composition algorithmique (le compositeur), ces phénomènes sont certainement sollicités et peuvent être invoqués par des techniques différentes, comme l’emploi d’un système compositionnel de complexité suffisante. Pourtant, si employé sur un niveau trop insouciant, ornemental, (par exemple au niveau des notes) l’effet artistique souhaité n’est pas nécessairement achevé. Pourquoi ? Hofstadter parlait de l’ennui que peut installer la récursivité… En remarquant qu’une séquence de notes produites aléatoirement ne stimule pas notre mémoire de manière profonde, Miller Puckette note : « il est intéressant que surprise n'est pas la même chose qu'information »[251]. C’est-à-dire, un auditeur qui écoute le résultat d’un processus peu profond ne ressent pas l'élément “surprise”– au contraire, plus d’information peut susciter moins de surprise. Nous concluons que le problème est entièrement psychologique, car c’est le récipient d’information qui est responsable de la créativité ; c’est lui le créateur de la représentation du fait (du phénomène sonore, du processus perçu,…). Dans le domaine artistique, le problème est donc résolu. Par contre, dans le domaine informatique, le problème est indécidable.[252]

L’intelligence artificielle dans la musique

Dire qu'un agent sait agir indépendamment revient à dire qu'il est capable à prendre une initiative. Alain Cardon dépeint un « système capable d'interrogation [qui] serait aussi capable d'initiative, de réflexion et [qui] pourrait donc effectuer des prises de décision subtiles. »[253] Chaudet et Pellegrin décrivent dans des termes semblables les aptitudes fondamentales d’une machine doutée d'une intelligence artificielle: « la perception, l’action, la planification, l’apprentissage, le traitement automatique du langage naturel, la coopération et la coordination, le méta-raisonnement ».[254] Utopique encore, un agent de ce type aura la capacité de produire des résultats imprévisibles et saura évaluer leurs effets avant de les mettre en jeu.

David Cope utilise un modèle de “compositeur artificiel” basé sur le principe de réseaux de neurones, appellé réseau associatif. Le modèle peut être appliqué dans le domaine du langage parlé ou de la musique (des compositions de notes). Cope explique cette flexibilité :

« La musique n'exige pas le degré de précision de signification qu’une langue naturelle pour la communication. Ainsi, un réseau associatif semblent particulièrement utiles en tant qu'outil de composition. Les réseaux associatifs offrent également l'avantage d’être adaptables à n'importe quel langage, ou – comme dans le cas de la musique – style »[255]

Le programme apprend des relations entre des entités symboliques, fournies au système soit par une base de données (pour la musique, du MIDI) ou directemment en conversation (pour le langage, des mots). Il enregistre les occurrences de tous les symboles et ensuite, calcule une matrice de poids ou de “proximités” entre les tous. À un instant donné, le programme peut générer une suite de symboles (des notes ou une phrase de mots) qui ressemble à l’original. La procédure est répétée plusieurs fois et prend la forme d’une conversation, par laquelle le programme élargit sa base de connaissances. Alors, au fur et à mesure, « la conversation musicale continue, avec des réactions de la part de l'utilisateur en réponse à l’énoncé du program. Cette conversation musicale diffère d’une conversation en langue naturelle, parce que l’interaction n’est pas équilibrée [entre les deux] en ce que concerne le niveau et l'équilibre. »[256]

Gérard Assayag trouve que le travail de Cope penche « vers un modèle de bases de données contenant une grande quantité de motifs musicaux élémentaires capturant des éléments de style. L’algorithme porte alors sur la recombinaison de ce matériel “génétique”, selon des formes préétablies (…) Il y a là l’hypothèse implicite que la création musicale consiste en la recombinaison et la mise en forme d’éléments préexistants qui contiennent, eux, la part impossible à modéliser dans laquelle réside l’originalité absolue d’un créateur, en d’autres termes, le style. » [257]

Nous n’avons pas trouvé d’hypothèse chez Cope explicitant une hypothèse sur la création artificielle. Cope limite sa définition de l’intelligence à trois catégories : l’analyse, l’association, l’adaptation. Pourtant, nous pouvons critiquer la capacité et le fonctionnement du réseau associatif par rapport aux exactement ces trois catégories. Primo, le réseau associatif n’analyse pas les données, le découpage des mots ou de séquences de notes est effectué par un algorithme de pattern-matching, qui, apparemment, doit être ajusté par l’utilisateur. Secundo, le réseau associatif ne “fait” pas les connections, il les enregistre ; ce sont des données statistiques. Tertio, l’on peut questionner à quel point le modèle est adaptable. Le moteur reste le même dans les deux domaines d’applications (des mots et des notes) qui sont deux types de données similaire. Est-ce que le modèle marcherait également si les données étaient, par exemple, des fichiers de son ?

Des expérimentations avec l’intelligence artificielle et connaissances distribuées, Aldo Reck Miranda anime des “musiciens artificiels” dans un environnement, et il souligne l’importance de leur indépendance.

« Au lieu d'employer un algorithme standard d’apprentissage automatisé pour apprendre des styles musicaux spécifiques ou des processus compositionnels depuis des exemples fournis, nous proposons un système dans lequel les musiciens artificiels évoluent activement leur propre culture musicale en interagissant l'un avec l'autre. De plus, il n'y a aucun professeur qui informe ces musiciens de ce qu'ils doivent apprendre. »[258]

Miranda travaille avec une catégorie de “son de communication” assez ouverte : des profiles mélodiques. À partir des énoncés complètement aléatoires, les musiciens artificiels apprennent par eux-même (en suivant des règles simples) à distinguer et produire un certain nombre de petites mélodies dont les profils sont partagés. L’on peut constater que ces mélodies ont “du caractère”. Le modèle nous semble une approche très prometteur pour expliquer l’émergence de certains phénomènes fondamentaux, comme la communication sonore et le processus d’individuation de chant d’oiseau, et ainsi de suite.

Conclusion

Nous remarquons l’énorme défi de débroussailler ce terrain de créativité artificielle. Même les notions fondamentales liées au phénomène de la représentation musicale chez l’homme, dans le cerveau, ne sont pas claires. Pour terminer, nous devons admettre que ce texte ne touche que superficiellement aux problèmes fondamentaux de la créativité, des problèmes qui sont cependant au cœur du sujet que nous avons devant les yeux. Mais ce n’est pas un échec… Nous mentionnons quelques questions palpitantes, à poursuivre :

• Comment est-ce que un agent cognitif, biologique ou artificiel, crée et retient une représentation d’un processus temporel qu’il observe – par exemple, une musique ?

• Est-ce qu’il y a de sens d’évaluer des structures musicales, des potentialités dans une œuvre interactive, avant qu’elles ne sont réalisées en matière sonore ? Si oui, comment pourrait-on procéder à les formaliser ?

• Comment est-ce que l’intentionnalité globale et persistante dans le temps d’un agent cognitif peut provoquer un acte de créativité à un instant particulier – c’est-à-dire, une réponse ?

L’examen de problématiques de ce type mérite une recherche considérablement plus exhaustive et détaillée, clairement dépassant le cadre que nous nous sommes donné pour ce travail de DEA. L’étude entreprise pour préparer le mémoire a toutefois servi de préalable pour une telle recherche.


Postface

En tant qu’outil, l’ordinateur assiste à pratiquement toutes les étapes dans la création musicale. Dans l’étude épistémologique, nous avons vu que l’informatique fait naître l’œuvre interactive. Les points de vue sur l’ordinateur dans la création sont très diverses, en conséquence directe des constatations de sa nature : une représentation, un méta-instrument, un champ abstrait de potentiels à explorer et à définir…  De même que l’omniprésence des technologies informatiques change la façon dont nous les vivons au quotidien, la notion d’œuvre musicale est subie à un questionnement, qui, à notre avis, est en train de produire, fatalement, un changement paradigmatique dans l’histoire de la musique d’ordinateur. Non seulement la confection et la distribution des œuvres musicales sont renovées, mais surtout, et plus sérieux encore, ce changement nous oblige à reconsidérer la conception même de qu’est-ce qu’une œuvre. Nonobstant le défi ainsi lancé aux créateurs contemporains, la plupart des compositeurs ne semblent que moyennement intéressés à en prendre les conséquences, et préfèrent continuer une production non-réfléchie et répétitive de jolis morceaux de musique, faites sur mésure.

Composer aussi bien qu’analyser de la musique interactive nécessite une description de la musique ; comment elle se transforme dans le temps et par quels moyens elle modifie sa propre structure au cours d’une actualisation. La formalisation de cette description est effectivement la représentation de l’œuvre et c’est elle qui est transmise aux agents qui réalise la musique. La représentation d’une œuvre interactive est constituée de représentations aussi bien dynamiques (code informatique, sur un écran, dans la mémoire vive) que statiques (partition, sur support fixe, papier). De plus, la nature de l’interactivité dans une composition a certainement des conséquences pour le choix de langage pour l’implémentation. L’œuvre interactive demande forcément un langage permettant la construction d’une interface riche ainsi qu’une représentation dynamique de la musique.

Par conséquent, il ne suffit pas de se contenter d’écouter une œuvre interactive au concert une fois seulement, puisqu’il ne rencontrerait qu’une de ses actualisations. Et encore, l’on ne peut comprende l’œuvre simplement par l’écoute, car le son ne donne qu’un de ses aspects. Le musicologue doit se faire une idée de la totalité du champ d’actualisations. Une analyse approfondie doit intégrer une éclaircissement du fonctionnement des composants du système dans sa totalité. Il faut saisir tout ce qui permet la production du son : la composition, la notation, le code informatique, l’intention de la part des agents, des instructions plus ou moins formelles…

Pour éprouver une œuvre interactive, l’auditeur doit allier l’écoute du son et l’analyse de la structure. Il faut appréhender la partie aphone de la musique…

 

 


The proof of the pudding is in the eating.

– Rolf Wallin

Annexes

Leçons : An Approach to a System for Machine Learning, Improvisation and Musical Performance.

Article. À apparaître dans Lecture Notes in Computer Science, LNCS volume 2771. Springer Verlag, Allemagne, 2003. 8 pg.

Frédéric Voisin, à la recherche d’une Neuromuse

Article.

Visite exploratoire aux pays de "Phonotope 1” de Rolf Wallin.

Article hypermédia. Sur CDROM (HTML).

Multi-Layered Perceptron.

Code MaxMSP (standalone application) pour Macintosh. Sur CDROM. Recherche en cours de développement.

Projet de doctorat.

 


Bibliographies

ADORNO, T. : Philosophy of Modern Music. The Seabury Press, 1973, 220 pg.

ANDERSEN, Ø. : I retorikkens hage. Universitetsforlaget, Oslo, Norvège, 1995, 360 pg.

ASSAYAG, G. : “La musique, le nombre, l’ordinateur”. IRCAM, 1998, http://www.IRCAM.fr/equipes/repmus/RMPapers/NumeroMusica98/, mars 2003.

ASSAYAG, G. : “Du calcul secret au calcul visuel”. VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999, pg. 37-65.

ASSAYAG, G., AGON, C., FINEBERG, J., HANAPPE, P. : “Problèmes de notation dans la composition assistée par ordinateur.” IRCAM Forum dossier d’information #13 (avril 1998).

AUSTIN, L. : “John Cage’s William’s Mix : The Restoration and New Realizations of and Variations on the First Octaphonic, Surround-Sound Tape Composition.” Larry Austin Music, 2001.

BALPE A.-G.: “L’œuvre comme processus : Trois mythologies et un poète aveugle.” Anomalie 0. Anomos, 1999, 59 pg.

BATTIER, M. : “La querelle des poètes phonographistes : Apollinaire et Barzun.” Littérature et musique dans la France contemporaine. Colloque mars 1999, Sorbonne, Paris, 13 pg.

BATTIER, M. : “Histoire des laboratoires de la musique électronique”. Laboratoires de la musique, Actes Sud, 2002. 18 pg.

BATTIER, M. : “L’approche gestuelle dans l’histoire de la luthérie électronique.” Dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999, pg 139-50.

BATTIER, M. : “Sciences et technologie comme source d’inspiration au XXe siècle”. Actes Sud, 2002. 23 pg.

BATTIER, M. :“Les polarités de la luthérie électronique”. Dans Méthodes nouvelles, musiques nouvelles, musicologie et création. (Sous la direction de GRABÓSZ, M.) Presses universitaires de Strasbourg, 2001. 12 pg.

BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998-9, 791 pg.

BECHTEL, W., ABRAHAMSEN, A. & GRAHAM, G. : “The life of cognitive science”. Part 1 (pg 1-104) de BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998-9.

BILLMAN, D. : “Representations”. Article 51 (pg. 649-59) dans BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998-9.

BOSSEUR, J.-Y. : Vocabularie de la musique contemporaine. Minerve, 1996, 197 pg.

BOULEZ, P. : Penser la musique aujourd’hui. Éditions Gonthie (1963) 1994, 167 pg.

CADOZ, C. : “Continuum énergétique du geste au son - simulation multisensorielle interactive d’objets physiques”. Chapitre 8 (pg. 164-81) dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999.

CADOZ, C. : “Musique, geste, technologie”. Pg. 47-92 dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999.

CAPITAN, W. & MERRIL, D. (éd.) : Art, Mind and Religion. Pittsburgh, University of Pittsburg Press.

CARDON, A. : Conscience artificielle & systèmes adaptatifs. Editions Eyrolles, Paris, 2000, 380 pg.

CHADABE, J. : Electric Sound. Prentice-Hall New Jersey 1997, 370 pg.

CHANDLER, C. : Semiotics: The Basics. Routledge, 2001, 288 pg.

CHAUDET, H. & PELLEGRIN, L. : Intelligence artificielle et psychologie cognitive. Dunod, Paris, 1998, 175 pg.

CHION, M. : Guide des Objets Sonores. Éditions Buchet/Chastel Paris 1983, 186 pg.

CMMR ’03 (Computer Music Modeling and Retrieval 2003), symposium preceedings. LIRMM, CNRS Montpellier, France et Aalborg University, Denmark, 250 pg.

CMMR 2003 (Computer Music Modeling and Retrieveal) post-symposium preceedings. Lecture Notes in Computer Science, LNCS volume 2771. Springer Verlag, Allemagne, 2003.

COPE, D. “Association Nets, Music, and Creativity”. Créativité & Informatique, Veille Technologique n˚15 (1998) IRCAM, Paris, pg. 9-25.

CRITCHLEY, S. & SCHROEDER, W. : A Companion to Continental Philosophy. Blackwell Publishers. 1998-9, 680 pg.

DANNENBERG, R. B., DESAIN P., & HONING H. : “Programming language design for music.” Dans G. DE POLI, A. PICIALLI, S. T. POPE, & C. ROADS (éd.) : Musical Signal Processing. Lisse:Swets & Zeitlinger, 1997. Texte sur www.nici.kun.nl/mmm/papers/ddh-97-a/ddh-97-a.html

DECHELLE, F. : “jMax :en environnement de programmation pour l’interactivité et le temps réel”. Dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999, pg. 85-94.

DESAIN, P. & HONING, H. : “Computational Modeling of Temporal Structure in Musical Knowledge and Music Cognition”. [Unpublished] 1995.

Dictionnaire Le Grand, http://www.granddictionnaire.com

Dictionnaire Petit Larousse Illustré, Paris 1987

Dictionnaire Universel Francophone. Hachette/EDICEF http://www.francophonie.hachette-livre.fr/

Dictionire Wikipedia http://www.wikipedia.org/ (surtout mots techniques).

DODGE, C & JERSE, T: Computer Music. Schirmer Books, 1985. 453 pg.

DUISBERG, R. : “On the Role of Affect in Artificial Intelligence and Music”. Dans Perspectives on Musical Aesthetics. John Rahn, éd. Norton & Company 1994. pg. 204-233.

ELMAN, J.L. : “Connexionisme, artificial life and dynamical systems”. Article 38, pg. 488-505 dans BECHTEL & GRAHAM, 18 pg.

ESSL, K: “Klangkomposition und Systemtheorie”. Article, pg. 66-70, Band XX der Darmstädter Beiträge zur Neuen Musik. Schott 1994, 4 pg.

FINNENDAHL, O.: Documentation of the markov external code resource for the Max environment, 1995. Distr. privée, 8 pg., MaxMSP patchers.

FLEW, A. : An Introduction to Western Philosophy. Thames and Hudson, London, 1971, rev. 1989, 511 pg.

GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999, 193 pg.

GLADU, E : La contribution de Gilbert Simondon à l’étude de la technique. Mémoire de DEA de l'Univérsité de Montréal, 2000, 17 pg.

GRANT, J. G. : A History of Wetern Music. J. M. Dent & Sons Ltd., Londres et Melbourne. 3e édition 1980.

GRIFFITH, N. & TODD, P (Editors) : Musical Networks :parallel distributed perception and performance. MIT Press 1999. 385 pg.

HANAPPE, P. : Sound synthesis in networks. Thèse de doctorat, IRCAM, Paris, 2000.

HOFSTADTER, D.R. : Gödel, Escher, Bach : An Eternal Golden Brand. Penguin Books London 1979, 777 pg.

HOFSTADTER, D.R. : Le Ton beau de Marot. In Praise of the Music of Language. BasicBooks 1997, 632 pg.

HOFSTADTER, D.R. : Metamagical Themas : Questing for the Essence of Mind and Pattern. BasicBooks 1985, 852 pg.

HORGAN, T. & TIENSON, J. : “Rules”. Article 52 dans BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998-9. Pg 660-78.

HOUGHTON, G. & HARTLEY, T. : “Parallel Models of Serial Behaviour : Lashley Revisited”. Psyche, 2(25), February 1995. Accessible au http://psyche.cs.monash.edu.au/v2/psyche-2-25-houghton.html

KENNEDY, G. : A New History of Classical Rhetoric. Princeton  University Press, 1994, 301 pg.

KRAMER, J.D. : The Time of Music. Schirmer Books New York 1988, 493 pg.

KRONLAND-MARTINET, R., VOINIER, T., GUILLEMAIN, P. : “Agir sur le son musical avec la baguette radio.”. Dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999, pg 181-93.

KRONLAND-MARTINET, R. et al. : “From Sounds to Music: Different Approaches to Event Piloted Instruments.” Dans CMMR ’03 (Computer Music Modeling and Retrieval 2003), Symposium preceedings. LIRMM, CNRS Montpellier, France et Aalborg University, Denmark, 250 pg.

LARGE, E. W., Palmer, C., Pollack, J. : “Reduced memory Representations for Music.” Ohio State University. To appear in Cognitive Science. 40 pg.

LARGE, E.W. : Beat Tracking with a Nonlinear Oscillator. 1999, distr. privée.

LARGE E. W. : Dynamic Representation of Musical Structure. Ph.D. Thesis. The Ohio State University, 1994, 143 pg.

LEROI-GOURHAN, A. : Le geste et la parole 1, Technique et language. Editions Albin Michel, 1964, 323 pg.

LEROI-GOURHAN, A. : Le geste et la parole 2, La mémoire et les rythmes. Editions Albin Michel, 1964, 285 pg.

LIEBMAN, S. : “From CISC to RISC to ZISC”. Advanced Imaging, 1998 :9. http://www.lsmarketing.com/LSMFiles/9809-ai1.htm

LINDBORG, PM.: “Leçons : an Approach to a System for Machine Learning, Improvisation and Musical Performance”. Dans CMMR (Computer Music Modeling and Retrieveal) 2003 post-symposium preceedings. Lecture Notes in Computer Science, LNCS volume 2771. Springer Verlag, Allemagne, 2003. 8 pg.

LIPPMAN, E. : A History of Western Musical Aesthetics. University of Nebraska Press, 1992, 551 pg.

LYON, E. (éd) : “Dartmouth Symposium on the Future of Computer Music Software : A Panel Discussion”. Computer Music Journal 26:4 (Winter 2002).

MACCALEY, R. :“Levels of explanation and cognitive architectures”. Article 48 (pg. 611-24) dans BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998-9.

MCCARTNEY, J. : “Continued Evolution of the SuperCollider Real Time Synthesis Environment.” Proceedings ICMC 1998. 4 pg.

MÂCHE, F.-B.: Musique au singulier. Éditions Odile Jacob 2001, 310 pg.

MALT, M. : Les Mathématiques et la Composition Assistée par Ordinateur. Thèse de doctorat, Univérsité de Paris IV – Sorbonne, Paris, 2000.

MAZZOLA, G: “Semiotics of Music”. Art. 154 in Semiotic Aspects of Musicology, 1997, 110 pg.

MIRANDA, A. R. : “Emergent Sound Repertoires in Virtual Societies”. Computer Music Journal 26:2. MIT Press, 2002, 14 pg.

MIRANDA, A. R. : “Music, Machines, Intellegence and the Brain”. Sonic Arts Network Journal of Electroacoustic Music, 1999, n˚12.

MIRANDA, A. R. : “Mimetic Development of Intonation”. À apparaître dans les publications de Sony Computer Science Lab Paris. (2003)

MOZER, M. : “Neural network music composition by prediction: Exploring the benefits of psychoacoustic constraints and multiscale processing”. Connection Science. 1994, 33 pg.

NACHTENBERG, C. : “Computer Parasitology”. Symantec AntiVirus Research Center. http://www.virusbtn.com, mars 2001, 19 pg.

PACHERIE, É. : “Le fonctionnalisme : état des lieux.” Intellectica, 1995/2, 21, pg. 9-37. 1995.

PEIRCE, J.R.: The Science of Musical Sound. Scientific American Books 1983, 1992, 270 pg.

PUCKETTE, M. : “Real-time audio analysis tools for Pd and MSP”. Proceedings of ICMC 1998.

PUTNAM, H. : “Psychological prédicats”. Dans CAPITAN, W. & MERRIL, D. (éd.) : Art, Mind and Religion. Pittsburgh, University of Pittsburg Press, pg. 37-48.

QUENEAU, R.: Cent mille milliards de poèmes. Éditions Gallimard, Paris 2001. 100.000.000.000.000 pages, même plus.

RISSET, J.-C. : “Evolution des outils de création sonore.” Chapitre 1 dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999.

RONDELEUX, L. : “Une historique de l’informatique musicale entre macroforme et microcomposition.” Journées d’Informatique Musicale 1999. http://www.ai.univ-paris8.fr/~jim99/index.html. 18 pg.

RUSSEL, S. & NORVIG P. : Artificial Intelligence : A Modern Approach. Prentice Hall International Editions 1995, 932 pg.

RUSSELL, B. : History of Western Philosophy. 1946, New edition George Allen & Unwin Ltd, 1961, 842 pg.

SCHAEFER, J: “AudiOh! : Appropriation, Accident and Alteration”. Leonardo Music Journal, vol. 11, 2001, 6 pg.

SCHAEFFER, P. : Traité des Objets Sonores. Éditions du Seuil Paris 1966, 1977, 701 pg.

SCHWANAUER, S. & LEVITT, D. : Machine Models of Music. MIT Press, 1993.

SIBONI, J. : Les Mathèmes de Lacan, Anthologie des assertions entièrement transmissibles et de leurs relations dans les écrits de Jacques Lacan. Thésaure hypertexte, http://www.shef.ac.uk/~psysc/thesaur3/thesaur3.html 1997.

SIMONDON, G. : Du mode d’existence des objets techniques. Editions Aubier, 1958, 1969, 1989, 333 pg.

STONE K. : Music Notation in the Twentieth Century. WW Nrton & Company, 1980, 357 pg.

STRAVINSKY, I. : Poetics of Music. Harvard University Press 1942, 1970. 142 pg.

STROPPA, M. : “Un orchestre synthétique : Remarques sur une notation personnelle”. Pages 485-538 dans : Le timbre, métaphore pour la composition. IRCAM, Paris, 1991.

THAGARD, P. : “Machine Learning”. Article 16, pg. 245-249 dans BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998.

TOEPLITZ, K.T. : "L'ordinateur comme instrument de concert – aussi une question d'écriture ?” Journées d'Informatique Musicale, 9˚ édition, Marseille 2002, pg 199-208.

T.A.O. (Traduction Assistée par Ordinateur) : http://babelfish.altavista.com/babelfish/tr

TURING, A.M. : “Computing machinery and intelligence”. Mind, 59, 433-60. 1950.

VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999. 236 pg.

VOISIN, F. : “Music and Artificial Neural Networks”. http://www.fredvoisin.com  novembre 2002.

VOISIN, F. : “Neuromuse”. http://www.neuromuse.com mars 2003.

WAISVISZ, M. : “ Waisvisz on Gestural Controllers.” Textes à retrouvés sur le site d’auteur, http://www.xs4all.nl/~mwais/

WALLIN, R.: “Fractal Music - Red Herring or Promised Land?” Lecture given at the Nordic Symposium for Computer Assisted Composition, Stockholm 1989. http://www.notam02.no/~rolfwa/Fractalarticle.html

WANDERLEY, M. & BATTIER, M., éditeurs : Trends in Gestural Control of Music. IRCAM Centre George Pompidou, 2000, (cédérom).

WANDERLEY, M., & DEPALLE, F. :  “Contrôle gestuel de la synthèse sonore”. Chapitre 7 (pg. 145-63) dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999.

WISHART, T. : On Sonic Art. OPA and Harwood Academic Publishers Amsterdam 1996, 357 pg. (avec CD).

XENAKIS, I. : Kéleütha (Écrits). L’Arche Éditeur 1994, 143 pg.

XENAKIS, I : Formalized Music. Pendragon Revised Edition. Hillsdale, NY 1992, 387 pg.

ZICARELLI, D. : An extensible real-time signal processing environment for Max”. Proceedings ICMC 1998.

Œuvres musicales

ESSL K.-H. : Lexikon-Sonate for computer, 1992-2002. http://www.essl.at

HILLER, L. & ISAACSON, L.: Illiac Suite for String Quartet. Illinois 1957.

KOH, J. B. T. : Project Time. Œuvre multi-média, 2001. Voir http://mapage.noos.fr/jbtk (mai 2003).

LINDBORG, P. M. : Leçons pour en apprenti sourd-muet, pour deux improvisateurs : saxophoniste et ordinateur, 1999. http://www.notam02.no/~perli

MANOURY, P. : Jupiter pour flûte et dispositif en temps-réel. Paris 1987.

MÅRTENSSON, P. : M.E.K.S. 1997-1998.

STOCKHAUSEN, K.: Mikrophonie I, for performers, Tam-tam and live electronics. 1964.

TOEPLITZ, K.T. : L`Écarlate. Avec Myriam Gourfink, chorégraphie, Fred Voisin, informatique.

VOISIN, F. : Neuromuse#, computer environment, 2001-.

WALLIN, R. : Manifest. Opéra 2000. Voir http://www.notam02.no/~rolfwa (mai 2003)

WALLIN, R. : Phonotype 1 for string quartet and computer, 2001-2.

Logiciels

Jitter. Par David Zicarelli, Joshua Kit Clayton et al. http://www.cycling74.com  2001-

jMax. Par François Dechelle, Norbert Schnell et al. IRCAM, Paris 1997-

KYMA 5. Par Cecilia Scaletti et al. Symbolic Sound, http://www.symbolicsound.com/

LisP : STEELE,MSP. (MaxMSP) Par David Zicarelli, Miller Puckette et al. : http://www.cycling74.com . 1994-

Music-N (Music I, II, III, IV, V). Par Max Mathews. Bell Laboratories 1957-1968.

NATO.0+55.3d modular. Par Natacha Nezvanova. http://www.bootsquad.com/nato (août 2001), ou http://m9ndfukc.com (mai 2003). 2000-

OpenMusic. Par Carlos Agon, Gérard Assayag et al. IRCAM, Paris 1997-

PatchWork. Par Mikael Laurson. IRCAM 1992-96, puis développé à

Pd. Par Miller Puckette. http://www-crca.ucsd.edu/~msp/software.html

Reaktor. Par Native Instruments, http://www.nativeinstruments.de

SuperCollider. Par James McCarthney. http://www.audiosynth.com (mai 2003). 1996-

 


 



[1] WALLIN, R. : Manifest. Opéra 2000. Voir http://www.notam02.no/~rolfwa

[2] KOH, J. B. T. : Project Time. Œuvre multi-média, 2001. Voir http://mapage.noos.fr/jbtk

[3] Les autres œuvres sont signées par moi-même. "Leçons" est décrit en quelque détail dans ce texte. Il y a plus d’information sur ces œuvres à http://www.notam02.no/~perli

[4] QUENEAU, R.: Cent mille milliards de poèmes. Gallimard, Paris, 1961, 2001.

[5] Je me permets de paraphraser un article de Marc Battier…« Cette contribution s’inscrit dans un mouvement qui tente de promouvoir, dans le cadre de la musicologie, une histoire des techniques sonores employées pour la création. » BATTIER, M. :“Les polarités de la luthérie électronique”. Méthodes nouvelles, musiques nouvelles, musicologie et création. (Sous la direction de GRABÓSZ, M.) Presses universitaires de Strasbourg, 2001.

[6] En annexe.

[7] « The music community has built up a tremendous amount of knowledge about performance and the relationship composing/performing, especially the transferring of emotion through sensitive instruments. Many of the music research institutes and smaller organisations are increasingly confronted with bad financial support and/or budget cuts. Some have to fear for their existence. (…) I think this is a tragic paradox and I hope an awareness about the value of this knowledge will come in time. » http://www.xs4all.nl/~mwais (mai 2003)

[8] « Experiments in the humanities have a better chance to be scientifically valid if their parameters and input-output are under detailed control. Therefore, computer-based experiments are not a fashionable alternative, they are the very basis of experiments in the humanities. Computers are the couterpart of the experimental instruments known from natural sciences. » MAZZOLA, G. : “Semiotics of Music”, Article 154, Semiotic Aspects of Musicology, 2002.

[9] MAZZOLA, op.cit.

[10] « unfortunately, music theory and esthetic theory have hardly ever been viewed as genuine objects of experimental research. (On the one hand,) this is due to the pre-scientific discourse in musicology, in particular its lack of precision (…) » MAZZOLA, id., pg 84.

[11] « Music communicates meaningfully, without question. But there are at least two modes in which such communication is commonly appreciated, which may as well be called Apollonian and Dionysian. This is again, perhaps, a needless dichotomy but it is historically manifest in abundant aesthetic debates such as that of Formal versus Program Music or Brahms versus Wagner (…), Classicism versus Romanticisms, etc. » DUISBERG, R. : « On the Role of Affect in Artificial Intelligence and Music ». Perspectives on Musical Aesthetics. John Rahn, éd. Norton & Company 1994, pg. 207.

[12] Il faut noter ici que Peirce, à la différence de Saussure, n’excluait pas une réalité physique à l’objet.

[13] « Fortunately in music a lot is 'personal', but ‘the personal’ is not an analytically impenetrable romantic chaos of emotions, feelings and ghosts. One can analyse and create distinct relationships between the character changes of a gesture, and the change of musical content - and context - in a way that ones musical intentions are clearly grasped by listeners. » WAISVISZ, M. : http://www.xs4all.nl/~mwais/

[14] « First one must gain an understanding of how concepts come to be formed in the mind, and model how sensory patterns come to be ordered into structured concepts. (…) Now music is a fertile field for such modeling, for to understand any piece of music involves recognizing its salient structures, always in its own terms, in order to appreciate how they are manipulated. » DUISBERG, Robert : « On the Role of Affect in Artificial Intelligence and Music ». Perspectives on Musical Aesthetics, édité par John Rahn, Norton & Company 1994.

[15] “The prevailing conception of science, based on the disjunction of subjectivity and objectivity, seeks - and must seek at all costs - to eliminate from science [those] passionate, personal, human appraisals of theories, or at least to minimize their function.(…) [But] the act of knowing includes an appraisal; and this personal coefficient, which shapes all factual knowledge, bridges in doing so the disjunction between subjectivity and objectivity." POLANYI, M. : Personal Knowledge, Towards a Post-Critical Philosophy, Chicago, Univ of Chicago Press, 1958. Cité dans DUISBERG.  Op.cit. Voir aussi http://www.deepsight.org/articles/polanyi.htm

[16] « It is necessary to distinguish two moments, or rather two states of music : potential music and actual music. Having been fixed on paper or retained in the memory, music exists already prior to its actual performance, differing in this respect from all the other arts, just as it differs from them (…) in the categories that determine its perception. The musical entity thus presents the remarkable singularity of embodying two aspects, of existing successively and distinctly in two forms separated from each other by the hiatus of silence. » STRAVINSKY, I. : Poetics of Music. (1942) Harvard University Press 1970, pg 121. 142 pg.

[17] CAGE, J. : “Empty words”. Maryon Boyars, 1980, pg. 178-9. Cité dans BOSSEUR : Vocabulaire de la musique contemporaine, pg 146.

[18] Déjà Walter Benjamin prévoyait que le contexte pouvait devenir plus statiques qu'une œuvre particulière; c’est effectivement le point de départ conceptuel d’une œuvre ouverte.

[19] Performance de musique et poésie conçue par Jean-Pierre Balpe et Jacopo Baboni-Schilingi et créée à l’IRCAM en novembre 1997.

[20] Dans ce contexte, actualisation : passage de la puissance à l’acte, ou de la virtualité à la réalité. (Dictionnaire Larousse)

[21] BALPE A.-G.: “L’œuvre comme processus : Trois mythologies et un poète aveugle.” Anomalie 0. Anomos, 1999, p.21.

[22] BALPE A.-G.: idem. p.22.

[23] Voir le chapître Points de vue…, sous L’ordinateur comme méta-instrument.

[24] “Dette med at enkle "arbeidsanvisninger" genererer detaljmessig uforutsigbar musikk, men som allikevel korrelerar til prosedyrene har fascinert meg, som et mer "flytende" alternativ til verkbegrepet, mens det tradisjonelle verket er "krystallisert" eller "koagulert". Citation de Wallin, conversation par courriel, mai 2003.

[25] processus cybernétique

[26] STROPPA, M. : “Traiettoria” pour piano (amplifié) et sons d’ordinateur (sur support fixe ; bande multi-pistes). 1982, Ricordi.

[27] STROPPA, M. : “Un orchestre synthétique : Remarques sur une notation personnelle”. Le timbre, métaphore pour la composition. IRCAM, Paris, 1991. pg 485-538. Citation de la page 502.

[28] STROPPA, idem, page 489.

[29] Op. Cit. page 487.

[30] BATTIER, M. :“Les polarités de la luthérie électronique”. Méthodes nouvelles, musiques nouvelles, musicologie et création. (Sous la direction de GRABÓSZ, M.) Presses universitaires de Strasbourg, 2001.

[31] Pour une discussion, voir par exemple ELMAN, J.L. : « Connectionism, artificial life and dynamical systems ». Article 38, pg. 488-505 in [Bechtel & Graham], 18 pg.

[32] Le Grand Dictionnaire, http://www.granddictionnaire.com

[33] idem.

[34] « (computing) that allows information to be passed continuously and in both directions between a computer and the person who uses it » Oxford Advanced Learner’s Dictionary. 6e édition. Oxford University Press 2000.

[35] "only the surface of reason is rational". Minsky 1981, “Music Mind and Meaning”, Computer Music Journal 5(3), pg. 28-44.

[36] Cet article est présenté sous forme hypermédia dans le CDROM.

[37] LINDBORG, PM.: “Leçons : an Approach to a System for Machine Learning, Improvisation and Musical Performance”. CMMR 2003 post-symposium preceedings. Lecture Notes in Computer Science , LNCS volume 2771. Springer Verlag, Allemagne, 2003.

[38] Proposition d’un projet de doctorat, en annexe.

[39] “For now, technology and science make possible a link between biological and digital worlds.This subject needs calls (sic) to ethics, epistemology, philosophy, artificial intelligence, anthropology, biology.” VOISIN, F. : “Music and Artificial Neural Networks”. http://www.fredvoisin.com, (novembre 2002).

[40] XENAKIS, I. : Kéleütha (Écrits). L’Arche Éditeur 1994, pg 36-37. Dans son interprétation, Xenakis met indubitablement la lumière sur les découvertes qui lui ont permis d’écrire ses propres œuvres musicales. Des fois, les choix de faits historiques sont discutables, mais néanmoins intéressants dans ce contexte.

[41] ASSAYAG, G. : “Du calcul secret au calcul visuel”.  Chapitre 2 dans Interfaces homme-machine et création musicale. Hermes Science Publications, Paris, 1999. pg 48.

[42] LORRAIN, D. “Realization of 18th century musical games : Mozart & Stadler.” CMMR 2003 Proceedings. LIRMM, France & Université d’Aalborg, Danemark, 2003.

[43] « Das Prinzip des Mozartwürfelspiels ist der Urvater von Sequenzerprogrammen wie Music Maker, Techno Maker oder Cubase. » KNOLLE, N. & BERNDT, A. : "Musikalische Würfelspiel von W. A. Mozart” (mai 2003). Une description du jeu et une implémentation Java jouable sont à retrouver au : http://www-sfb288.math.tu-berlin.de/vgp/unheard/ma-freizeit/freizeitweb/mozart/mozartwuerfel.html

[44] L’allocation de ressources considérables a permis à accélérer le développement du “cerveau électronique”, même si, juste après la guerre, l’entreprise IBM considérait que la demande mondiale de telles machines allait être d’un nombre limité à 4-5 seulement… !

[45] CHION, M. & G. REIBEL, G. : Les Musiques électro-acoustiques. INA/GRM 1976, pg. 9. Cité dans BOSSEUR, J.–Y. : Vocabularie de la musique contemporaine. Minerve, 1996, pg. 45.

[46] « how well and how quickly the pioneers solved problèmes (…) how well the pioneers combined technological skills with their musical sensitivities to the extent that they could, individually and collectively, develop the technology and compose music at the same time » CHADABE, J. : Electric Sound. Prentice-Hall New Jersey 1997, 370. Citation de la page 139.

[47] MALT, M. : : Les Mathématiques et la Composition Assistée par Ordinateur. Thèse de doctorat, Univérsité de Paris IV – Sorbonne, Paris, 2000. La citation vient de l’introduction.

[48] XENAKIS, op. cit.

[49] HILLER, L. & ISAACSON, L.: “Illiac Suite for String Quartet”. Illinois 1957. Le mot illiac était une collapsion d’Illinois Automatic Computer.

[50] Les processus conpositionels de “Analogique A” pour orchestre à cordes et “Analogique B” pour « sonorités sinoïsidales » sont exposés au chapitre 3 dans XENAKIS, I : Formalized Music. Pendragon Press, Hillsdale, New York 1992.

[51] ASSAYAG, G. : “Du calcul secret au calcul visuel”. Chapitre 2 dans Interfaces homme-machine et création musicale. Hermes Science Publications, Paris, 1999. pg 37.

[52] "Leçons" utilise également  cette technique pour la génération des phrases musicales en temps-réel pour créer une situation de jeu “question–réponse”.

[53] « criteria of definitions of a sonic entity, such as that for the timbre, degree of order, density, variation, and even the criteria of more or less complex elementary structures (…) the same stochastic scheme is adaptable.” XENAKIS, Id. pg. 80–1.

[54] MANOURY, P. : Jupiter . Première œuvre dans un cycle de pièces pour soliste et dispositif en temps-réel. Initialement conçues pour la station NEXT, les pièces sont maintenant portées en MaxMSP.

[55] La toute première composition était un tout petit bout de dix-sept secondes de musique, composé par Newman Guttman, à Bell Laboratories. Pour de plus ample information sur l’histoire des premières experimentations de musique informatique, voir CHADABE, J. : Electric Sound. Prentice-Hall New Jersey 1997.

[56] Critiquant une utilisation facile de l’ordinateur et non-consciente de son histoire, Claude Cadoz souligne que, depuis 1970, l’ordinateur apporte la possibilité « sans précédent de travailler, avec un même outil, à la composition aussi bien des sons entre eux que du son lui-même. » CADOZ, C. : “Musique, geste, technologie”. Pg. 47-92 dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999. Pg.80.

[57] « one could say that by the late 1980s the age of computer music was over because everything was computer music. » CHADABE, J. : Electric Sound. Prentice-Hall New Jersey 1997. Citation de la page 139.

[58] Ils sont réunis sous la dénomination HCI (Human-Computer Interaction).

[59]By the mid-1990s, a substantial body of knowledge had been formed and the idea had become credible. And people began to say that there were two reasons to use electronics in making music. One was access to sound. The other was interaction." Op. Cit., pg 323.

[60] « The field of AI, since its inception, has been conceived mainly as the development of models using symbol manipulation. The computation in such models (…) is based on explicit representations that contain symbols organized in some specific way. » SUN, R.: “Artificial Intelligence”, article 26 dans “A Companion to Cognitive Science”, pg.

[61] PUTNAM, H. : « Psychological predicates ». Explicité dans CAPITAN, W. & MERRIL, D. (éd.) : Art, Mind and Religion. Pittsburgh, University of Pittsburg Press.

[62] PACHERIE, É. : “Le fonctionnalisme : état des lieux.” Intellectica, 1995/2, 21, pg. 9-37. 1995.

[63] « [Lashley] shows that associative chaining cannot account for serial behavior, and that higher order representations in the brain must be postulated to explain such behavior. He fully acknowledged the existence and explanatory necessity of the mind, an organization of mental processes, and he held out the prospect it might some day be identified with a neural organization. His famous search for the "engram" resulted in the conclusion that the neural substrate for higher order memorial functions, or intelligence, is widely distributed throughout the cortex. » LASHLEY, K. S : “The problem of serial order in behavior.” Cerebral Mechanisms in Behavior, 1951 Wiley, pg. 112-36. Cité dans HOUGHTON, G. & HARTLEY, T. : “Parallel Models of Serial Behaviour : Lashley Revisited”. Psyche, 2(25).

[64] Voir PACHERIE, É. : “Le fonctionnalisme : état des lieux.” Intellectica, 1995/2, 21, pg. 9-37. 1995.

[65] FODOR, J.A. : The Language of Thought. Cambridge, Mass. : MIT Press/Bradford 1975. The Language of Thought (LOT). La théorie de Fodor est décrite dans BECHTEL, ABRAHAMSEN, & GRAHAM , pg 62-5.

[66] Op.cit.

[67] «  Systematicity is accounted for by the LOT-hypothesis that the brain state that encodes one mental representation is a syntactic rearrangement of the brain state that encodes another representation. » BECHTEL, W., ABRAHAMSEN, A. & GRAHAM, G. : “The life of cognitive science”. Part 1 (pg 1-104) dans BECHTEL & GRAHAM. Citation de la page 64.

[68] « Cognition per se is not neural ; cognition is computation in mentalese. » op.cit, pg 63-5.

[69] Apparemment déjà von Neumann s’amusait à construire un programme dans les années 1940, qui était de très faible puissance.

[70] Les deux programmes ont été réalisés par Allen Newell et Herbert Simon à partir de 1956.

[71] Cela est une caractèristique très important dans la catégorisation des langages de Noam Chomsky.

[72] WINOGRAD, T. : “Linguistics and the Computer Analysis of Tonal Harmony” Journal of Music Theory 12(1) :2-50. 1968.

[73] CADOZ, citation de la page 89.

[74] Voir CHAUDET, H. & PELLEGRIN, L. : Intelligence artificielle et psychologie cognitive. Dunod, Paris, 1998, surtout pg 55-6 pour une discussion approfondie.

[75] MCCULLOCH, W. & PITT, W. : « A logical calculus of the ideas immanent in nervous activity ». Bulletin of Mathematical Biophysics 5 , pg. 115-33, 1943.

[76] « the essentiel properties of a real “cortical neuron” ». LILEY, D. : « Attractor Neural Networks », Applied Biophysics SP 52.

[77]  MINSKY, M. & PAPERT, S. : “Perceptrons,” 1969.

[78] Ils ont découvert que, en ajoutant un seul neurone à la couche d’entrée, ce que fournit au réseau la même information encodée différemment, le réseau peut correctement apprendre la fonction logique “XOR”.

[79] En anglais : intractable problems.

[80]  Le terme est employé dans HORGAN, T. & TIENSON, J. : “Rules”. Article 52 dans BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998-9. Pg 660-78.

[81] D’après Élisabeth Pachérie, cette définition le rend “difficilement compatible avec une explication fonctionnaliste du cerveau”, car le fonctionnalisme (du moins la psychologie intentionnelle de Fodor) dépend de l’existence d’une sémantique agissant sur des types différents. La définition d’hierarchies de type n’est pas claire dans un réseau neuronale. Il y a néanmoins des tentatives à définir un fonctionnalisme connexionniste.

[82] Certains auteurs parlent d’alphabètes au lieu de langages.

[83] “There are a number of results of mathematical logic which can be used to show that there are limitations to the powers of discrete-state machines. The best known of these results is known as Godel's theorem ( 1931 ) and shows that in any sufficiently powerful logical system statements can be formulated which can neither be proved nor disproved within the system, unless possibly the system itself is inconsistent.” TURING, A.M. “Computing machinery and intelligence”. Mind, 59, 433-460. 1950.

[84] Hopfield, Rumelhart, Hinton & Williams.

[85] Hiérarchie de langages et machines établie par Chomsky . Voir QUAIFE, A. : Discussion publiée sur http://keithlynch.net/cryonet/43/67.html (1995)

[86] Lire le critique que porte Elisabeth Pachérie : « En outre, une correspondance entre syntaxe et sémantique ne saurait suffire, à supposer même, ce qui est douteux, que l'on puisse établir son caractère biunivoque puisqu'il faudrait encore une correspondance biunivoque entre propriétés syntaxiques et propriétés physiques, correspondance à laquelle renonce précisément le fonctionnalisme en adoptant la doctrine du physicalisme occasionnel. Il semble qu'il s'agisse là de l'une des difficultés essentielles que rencontre le fonctionnalisme classique. Le problème tient pour partie à ce que, pour pouvoir préserver l'existence d'un niveau autonome d'explication psychologique, les fonctionnalistes classiques ont adopté une forme de physicalisme occasionnel qui les a amenés à traiter le problème de la réalisation physique des systèmes cognitifs comme un problème d'implémentation. On doit toutefois souligner, à la décharge du fonctionnalisme, que les problèmes posés par la spécification des conditions que doit satisfaire une explication pour être considérée comme causale, le statut exact du principe de clôture causale du physique, les relations entre propriétés de différents ordres sont parmi les plus ardues et les plus controversées en philosophie de l’esprit. » PACHERIE, É. : “Le fonctionnalisme : état des lieux.” Intellectica, 1995/2, 21, pg. 9-37. 1995.

[87] « many researchers lost their objective attitude impressed by the good performance of some (prototypical) models. A connectionist model that "works" well, does not necessarily lead to scientific progress. » DESAIN, P. & HONING, H. : “Computational Modeling of Temporal Structure in Musical Knowledge and Music Cognition”. [Unpublished] 1995.

[88] « Neural nets were used to simulate human behaviour in response to harmonic and other musical input. The simplified analogy of neural nets with the human brain should not be confused with the dynamical system of the auditory cortex. The brain is neither stratified into layers as is the perceptron model of neural nets, nor is the dynamics of a perceptron comparable to the neuronal interaction. » MAZZOLA, G. : « Semiotics of Music », Art. 154 dans Semiotic Aspects of Musicology. Pg. 88.

[89] BECHTEL, W., ABRAHAMSEN, A. & GRAHAM, G. : “The life of cognitive science”. Part 1 (pg 1-104) de BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998-9. Chomsky est cité et discuté au pg. 79

[90] On peut comparer la raisonnement de Mazzola avec ce que nous avons discuté ci-dessus.

[91] « The semiotically most significant fact concerning neural nets is the widespread belief in “emergent properties” of neural nets ; It is contended that these constructs are in state of producing some type of “understanding” of the specific phenomenon for which [they were] programmed. However, understanding subsumes semantic activity which is not part of neural net’s construction principles as machines of statistics. » MAZZOLA, G. « Semiotics of Music », Art. 154 dans Semiotic Aspects of Musicology. Pg. 88.

[92] « we have to "open up" the program to check what is inside, i.e. look for the congruence of the model and the human subject at a finer scale - a comparison based on global input/output behavior (i.e. functional equivalence) is too coarse to make substantial claims about the psychological validity of the model. » DESAIN, P. & HONING, H. : “Computational Modeling of Temporal Structure in Musical Knowledge and Music Cognition”. [Unpublished] 1995.

[93]  “only some aspects of the computational representations have anything to do with the theory, while other aspects are implementation details. BILLMAN, D. : “Representations”. Article 51 (pg. 649-59) dans BECHTEL, W. & GRAHAM, G. (éditeurs) : A Companion to Cognitive Science. Blackwell Publishers, 1998-9. Citation de pg. 652.

[94] « aim at making very precise and explicit what it means to create meaning : Is it a mainly behavioural process and/or does it involve other specific structures ? » MAZZOLA, G. « Semiotics of Music », Art. 154 dans Semiotic Aspects of Musicology. Pg. 88.

[95] XENAKIS, I : Formalized Music. Pendragon Revised Edition. Hillsdale, NY 1992. Page 132.

[96] Radicalement différent de cette configuration, un ordinateur de computation massive en parallèle possède grand nombre d’unités plus simple, moins rapides et organisées dans un réseau. Ce type de CPU est appelé ZISC (Zero Instruction Set Computer).

[97] David Zicarelli, qui a étudié auprès de Joel Chadabe, a ensuite créé la partie MSP pour Max.

[98] « Music representations are intimately connected with time. Borrowing the terminology of Xenakis (1971), time-based computation can be in-time, meaning that computation proceeds in time order, or out-of-time, meaning that computation operates upon temporal representations, but not necessarily in time order. » DANNENBERG, R. B., DESAIN P., & HONING H. : « Programming language design for music. » Dans G. DE POLI, A. PICIALLI, S. T. POPE, & C. ROADS (éd.) : Musical Signal Processing. Lisse:Swets & Zeitlinger, 1997. Cité sur www.nici.kun.nl/mmm/papers/ddh-97-a/ddh-97-a.html

[99] Les notions de method ou class inheritance, qui rendent les langages de la famille de LisP, n’existent pas dans Max. Le but de Max a toujours été la rapidité d’exécution et l’interface au service du non-informaticien.

[100]  MALT, thèse de doctorat, pg 163.

[101] ZICARELLI, D. : An extensible real-time signal processing environment for Max”. Proceedings ICMC 1998.

[102] NEZVANOVA, N. : “NATO.0+55.3d modular”. Le nom fait allusion à NATO, North Atlantic Treaty Organisation et l’année 1945, l’an zéro dans la mythologie et l’interprétation politique de Nezvanova. Voir par exemple http://www.bootsquad.com/nato (août 2001), ou http://m9ndfukc.com/ (mai 2003).

[103] ZICARELLI, D., CLAYTON, J.C. et al : Jitter. Extension pour traitment vidéo sous Max. Jitter a été lancé en 2001. http://www.cycling74.com . (mai 2003).

[104] PUCKETTE, M. : Pd. http://www-crca.ucsd.edu/~msp/software.html (mai 2003).

[105] DECHELLE, F. : « jMax :en environnement de programmation pour l’interactivité et le temps réel ».VINET & DELALANDE : Interfaces homme–machine et création musicale. Pg.85-94.

[106] Reaktor. Le logiciel est revendu par l’entreprise allemande Native Instruments. Voir leur site : http://www.nativeinstruments.de (mai 2003).

[107] MCCARTNEY, J. : “Continued Evolution of the SuperCollider Real Time Synthesis Environment.” Proceedings ICMC 1998. Voir aussi http://www.audiosynth.com/ (mai 2003).

[108] SCALETTI, C. : KYMA 5. Développé et vendu par l’entreprise SYMBOLIC SOUND sur le site http://www.symbolicsound.com/

[109] Ce paragraphe doit à l’article Desain & P. & Honing, H. : Computational Modeling of Temporal Structure in Musical Knowledge and Music Cognition, 1995.

[110] “Programs that execute strictly in time order are said to obey causality because there is never a need for knowledge of the future. This concept is especially important when modeling music perception processes and interactive systems that have to respond to some signal that is yet unknown ; for example, a machine for automatic accompaniment of live performance.” DANNENBERG, R. B., DESAIN, P., & HONING, H. : “Programming language design for music”. de POLI, G, PICIALLI, A. POPE, S. T.  & ROADS, C. (éditeurs) : Musical Signal Processing. Lisse :Swets & Zeitlinger, 1997. Cité sur http://www.nici.kun.nl/mmm/papers/ddh-97-a/ddh-97-a.html (oct. 2002)

[111] Nous allons faire un commentaire sur ce mode de travail un peu plus loin, en citant Marco Stroppa sur le processus de composition de “Traiettoria”

[112] YOUNG, S.J. : Real Time languages : Design and Developement. Elis Horwood Publishers, 1982) Cité dans DECHELLE, F. : “jMax :en environnement de programmation pour l’interactivité et le temps réel”. Dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999.

[113] Le standard de LisP, a été défini par David Steele en 1989. Common LisP Object System (CLOS) est une partie de Common LisP pour la programmation orienté-objet (object-oriented).

[114] Lire HANAPPE, P. : Sound synthesis in networks. Thèse de doctorat, IRCAM, Paris, 2000, pour une description détaillée de ce problème passionant de triage et recyclage d’espace et de mémoire vive…!

[115] Voir RUSSEL, S. & NORVIG P. : Artificial Intelligence : A Modern Approach. Prentice Hall International Editions 1995, pg. 11-12.

[116] MALT, M. : Les Mathématiques et la Composition Assistée par Ordinateur. Thèse de doctorat, Univérsité de Paris IV – Sorbonne, Paris, 2000.

[117] « the state of objects persists across time. It is therefore possible to decouple the order of computation from the order of music time. » DANNENBERG, R. B., DESAIN, P., & HONING, H. : « Programming language design for music ». de POLI, G, PICIALLI, A. POPE, S. T.  & ROADS, C. (éditeurs) : Musical Signal Processing. Lisse :Swets & Zeitlinger, 1997. Cité sur http://www.nici.kun.nl/mmm/papers/ddh-97-a/ddh-97-a.html

[118] ASSAYAG, G. : Du calcul secret au calcul visuel. Chapitre 2 dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999.

[119] BALPE A.-G.: “L’œuvre comme processus : Trois mythologies et un poète aveugle.” Anomalie 0. Anomos, 1999. Pg. 45.

[120] Voir une analyse de ce projet en annexe.

[121] CADOZ, C. : “Continuum énergétique du geste au son simulation multisensorielle interactive d’objets physiques”. Chapitre 8 (pg. 164-81) dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999. Citation de la pg 165.

[122] Par exemple, le “IAC bus”, un programme qui, en utilisant le protocol MIDI, permet l’échange d’information entre deux logiciels.

[123] WANDERLEY, M., & DEPALLE, F. :  “Contrôle gestuel de la synthèse sonore”. Chapitre 7 (pg. 145-63) dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999. Citation de la pg 156.

[124] op. cit.

[125] Il y a ici un parallèle intéressant à faire entre interface ainsi définie et état mental discuté dans le fonctionnalisme sémantique, confronté à “la menace holiste”(Pachérie, Fodor) – à poursuivre !

[126] « In my work I have always designed instruments that demand a considerable degree of physical effort to be played and at the same time they are able to convey the slightest trembling of the hand. These tremblings are, during a concentrated performance, not just errors, but an integral part of the muscular/mental effort pattern that lays at the base [of] what is perceived as musical expression. Music in a pure conceptual format is only understandable by the ones who know the concepts. Music that contains the physical expression of a performer is recognisable by a larger group through that expressive mediation of the performer. » WAISVISZ, http://www.xs4all.nl/~mwais/

[127] D’ailleurs, dans un système indépendant et automatique, cette technique semble (artistiquement) indispensable.

[128] WANDERLEY, M., & DEPELLE, F. :  “Contrôle gestuel de la synthèse sonore”. Chapitre 7 dans VINET & DELALANDE : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999. Citation de la pg. 156.

[129] BATTIER, M. :“Les polarités de la luthérie électronique”. Dans Méthodes nouvelles, musiques nouvelles, musicologie et création. (Sous la direction de GRABÓSZ, M.) Presses universitaires de Strasbourg, 2001.

[130] D’après Hugues Vinet, le protocol ZIPI, introduit en 1994 et certainement plus développé que MIDI, aura été un standard échoué. Voir aussi http://cnmat.CNMAT.Berkeley.EDU/ZIPI/

[131] Pour une discussion approfondie du rôle de l’assistant musical dans la création contemporaine, voir LINDBORG, PM. : “Visite exploratoire aux pays de "Phonotope 1” de Rolf Wallin”. Article hypermédia sur CDROM, en annexe.

[132] Le développement des premiers instruments électrique est examiné de manière exhaustive par Marc Battier, Jean-Claude Risset et autres. Voir par exemple BATTIER, M. : “L’approche gestuelle dans l’histoire de la luthérie électronique.” Dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999 et http://www.moogmusic.com/ .

[133] Pour de plus ample information sur le Radio Baton, voir CHADABE, pg 230-4, et DODGE & JERSE, pg 323-37.

[134] Voir KRONLAND-MARTINET, R., VOINIER, T., GUILLEMAIN, P. : “Agir sur le son musical avec la baguette radio.”. Dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999, pg. 181-93, et KRONLAND-MARTINET, R. et al. : “From Sounds to Music :Different Approaches to Event Piloted Instruments.” Dans CMMR ’03 (Computer Music Modeling and Retrieval 2003), Symposium preceedings. LIRMM, CNRS Montpellier, France et Aalborg University, Denmark, 2003.

[135] LAUBIER, S. : « Le Méta-Instrument a-t-il un son ? ». Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999. (À ne pas confondre avec la meta-instrument de Trevor Wishart.)

[136] « About my own experiences with gestural controllers I can only say that I fight with them most of the time. That’s something that almost every instrumentalist will tell. But if you are in the position to be able to design and build your own instruments, and so many interesting technologies pop up almost weekly, you are tempted to change/improve your instrument all the time. This adds another conflict: you never get to master your instrument perfectly even though the instrument gets better (?) all the time. The only solution that worked for me is to freeze tech development for a period of sometimes nearly two years, and than exclusively compose, perform and explore/exploit its limits. »  WAISVISZ, M. : « Waisvisz on Gestural Controllers. » Article publié sur le site de l’auteur : http://www.xs4all.nl/~mwais/ (mai 2003).

[137] « "Yo" is a cure against the composer's loneliness, a dialogue with an externalized part of myself, as the machine has borrowed both my voice and some of my behaviour (through my programming). » Pour plus d’information sur ce travail, voir le site de Wallin : http://www.notam02.no/~rolfwa/controlsuit.html (mai 2003).

[138] PUCKETTE, M., "I don't think that we know on a musical level what to do with computers. We don't know yet what the… modalities are that people will find to incorporate computers in their music." Commentaire lors de la scéance orale Dartmouth Symposium on the Future of Computer Music Software : A Panel Discussion. Édité par LYON, E. Computer Music Journal 26:4 (Winter 2002).

[139] LACAN, J. : Écrits. Le Seuil, Paris, 1966. Cité dans SIBONI, J. : Les Mathèmes de Lacan, Anthologie des assertions entièrement transmissibles et de leurs relations dans les écrits de Jacques Lacan. Thésaure hypertexte, http://www.shef.ac.uk/~psysc/thesaur3/thesaur3.html 1997.

[140] LEROI-GOURHAN, A. : Le geste et la parole 2, La mémoire et les rythmes. Editions Albin Michel, 1964. pg. 53.

[141] Pour découvrir l’histoire passionnante des premières machines industrielles, voir http://www.uqtr.uquebec.ca/~perrault/RECHER/HORD/IDEE.HTM et http://lyc-jacquard.scola.ac-paris.fr/historique_1p.html

[142] LEROI-GOURHAN, Op.cit.

[143] ASSAYAG, G. : “Du calcul secret au calcul visuel”. Chapitre 2 dans Interfaces homme-machine et création musicale. Hermes Science Publications, Paris, 1999. pg 48.

[144] BATTIER, M. :“Les polarités de la luthérie électronique”. Méthodes nouvelles, musiques nouvelles, musicologie et création. (Sous la direction de GRABÓSZ, M.) Presses universitaires de Strasbourg, 2001.

[145] CADOZ, C. : “Musique, geste, technologie”. Pg. 47-92 dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999. Citation de la pg. 52.

[146] CHABRON, F.  Dixit. Séminaire des nouvelles luthéries de saxophone. Table-ronde au CDMC, 28 mars 2003, Paris.

[147] CADOZ,  ibid. pg. 49.

[148] Id. pg. 61.

[149] CADOZ, ibid. pg. 63. En disant "compléter" (au lieu de prolonger, amplifier, bloquer), est-ce que l’auteur fait allusion au mythe ancien de la création de la flûte, début de la distinction entre musiques instrumentale et vocale ? De toute façon, nous allons voir que la définition de Cadoz porte vers un anthropocentrisme, identifiant l'humain à l'origine du déclenchement de l’acte qui surélève un matériau physique à un instrument de musique (la lutherie).

[150] BATTIER, M. : “Les polarités de la luthérie électronique”. Méthodes nouvelles, musiques nouvelles, musicologie et création. (Sous la direction de GRABÓSZ, M.) Presses universitaires de Strasbourg, 2001.

[151] BATTIER, M. : “Sciences et technologie comme source d’inspiration au XXe siècle”. Actes Sud, 2002. Citation des pages 15-16.

[152] CADOZ, ibid. pg. 63.

[153] Idem. pg. 72.

[154] LACAN, J. : “Radiophonie”. Scilicet, 2-3 :55-99, 1970. Cité sur SIBONI, J. : Les Mathèmes de Lacan, Anthologie des assertions entièrement transmissibles et de leurs relations dans les écrits de Jacques Lacan. Également dans le thésaure hypertexte d’écrits de Lacan au http://www.shef.ac.uk/~psysc/thesaur3/thesaur3.html 1997.

[155] Ibid. pg. 78.

[156] CADOZ, C. : “Musique, geste, technologie”. Pg. 47-92 dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999. Citation de la page 76.

[157] DELALANDE, F. : dixit. (Note du séminaire, GRM, novembre 2001.)

[158] WANDERLEY, M. & DEPALLE, F. : “Contrôle gestuel de la synthèse sonore” dans VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999. Pg. 148.

[159] Ibid, pg 147.

[160] CADOZ, id. pg. 50

[161] Dictionnaire Hachette en ligne, http://www.francophonie.hachette-livre.fr/

[162] CADOZ, C. : “Musique, geste, technologie”. Pg. 47-92 dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999. Pg. 80.

[163] Dictionnaire Larousse.

[164]  CADOZ, id. pg. 48.

[165] D’ailleurs, même si cette “division” semble cohérente avec les phases dans l’attention d’un instrumentiste, la description du phénomène sonore semble plutôt s'appuier sur la tradition organiciste enracinée dans la notion de causalité de Goethe.

[166] Voir l’article hypermédia en annexe.

[167] D’ailleurs, Olivier Pasquet pense de la programmation comme une “interprétation par avance d’une idée musicale”.

[168] J’entends ici le jeu du tambour bién gû.

[169] L'explication du développement historique de la partition et des parties séparées (dans le style des motets) est tirée des pages 79-115 dans GRANT, J. G. : A History of Wetern Music. J. M. Dent & Sons Ltd., Londres et Melbourne. 3e édition 1980.

[170] CADOZ, id. pg. 77-8.

[171] Op.cit

[172] « The more real interactivity is added to the systems that we live with in daily life the more we have to deal with the notions of performance. Every ‘user’ becomes a performer somewhere, whether it is dealing with coffee machines, installations in museums, setting the clockradio before falling asleep, buying tickets or browsing the internet on a mobile phone in public. » WAISVISZ, M. : D’après des notes de discussion table-ronde, publié sur le site de Waisvisz : http://www.xs4all.nl/~mwais

[173] TOEPLITZ, K.T. : "L'ordinateur comme instrument de concert – aussi une question d'écriture ?” Journées d'Informatique Musicale, 9˚ édition, Marseille 2002,

[174] Op. Cit.

[175] Par conséquent, la documentation fournie est souvent minimale, si elle existe du tout.

[176] ASSAYAG, G., AGON, C., FINEBERG, J., HANAPPE, P. : “Problèmes de notation dans la composition assistée par ordinateur.” IRCAM Forum dossier d’information #13 (avril 1998).

[177] pg. 44

[178] TOEPLITZ, K.T. : "L'ordinateur comme instrument de concert – aussi une question d'écriture ? Journées d'Informatique Musicale, 9˚ édition, Marseille 2002, pg 199-208.

[179] Comme disait Wittgenstein, “language is usage”.

[180] TOEPLITZ, op. Cit.

[181] Olovier Pasquet est programmeur et Assistant Musical à l’IRCAM. La citation est tirée d’un entretien : voir LINDBORG, PM. : “Visites exploratoires aux pays de “Phonotope 1” de Rolf Wallin”, 2003. Article hypermédia, en annexe.

[182] TOEPLITZ, K.T. : "L'ordinateur comme instrument de concert – aussi une question d'écriture ?” Journées d'Informatique Musicale, 9˚ édition, Marseille 2002, pg 199-208.

[183] « There are no teoretical limitations to the performance of the computer as a source of musical sounds, in contrast to the performance of ordinary instruments. At present, the range of computer music is limited proncipally by cost and by our knowledge of psychoacoustics. » MATHEWS, M. : « The Digital Computer as a Musical Instrument ». Science. November 1963. Cité dans CHADABE, J. :Electric Sound. Pg. 110.

[184] « I think that computer programs that have been developed are pretty interesting as musical instruments, making sounds and timbres. They are pretty uninteresting – at least to me – as compositional algorithms… maybe [because] we haven't found or written the right algorithms; that's a more difficult problem than just making timbres.» MATHEWS, M. : « Dartmouth Symposium on the Future of Computer Music Software : A Panel Discussion ». Édité par LYON, E. Computer Music Journal 26:4 (2002).

[185] RISSET, J.-C. : “Evolution des outils de création sonore.” Chapitre 1 dans VINET & DELALANDE : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999.

[186] CADOZ, C. : “Musique, geste, technologie”. Pg. 47-92 dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999. Citation de la page 89.

[187] STROPPA, ibid pg. 502.

[188]  CADOZ, ibid. page 90.

[189] Wishart, qui n’est d’ailleurs pas cité par Cadoz.

[190] « The computer can change our entire perspective on the way we do things because it is not a machine designed for a specific task but a tool which may be fashioned to fulfill any task which we can clearly specify. It is a metamachine. In particular, it offers the possibility of being a universal sonic instrument, a device with which we can model and produce any conceivable sound–object or organisation for sounds. » WISHART, T. : On Sonic Art. Harwood Academic Publishers, 1983/1996. Citation de la page 325.

[191] « beyond the instrument: sound–model » WISHART, idem.

[192] Voir aussi la discussion dans l’Introduction du modèle d’œuvre.

[193] « specification of (near–)invariants over a field of possible sounds » WISHART, idem.

[194] BATTIER, M. :“Les polarités de la luthérie électronique”. Méthodes nouvelles, musiques nouvelles, musicologie et création. (Sous la direction de GRABÓSZ, M.) Presses universitaires de Strasbourg, 2001.

[195] Op. Cit.

[196] François Le Lionnais, dans le postface de QUENEAU, R.: Cent mille milliards de poèmes. Éditions Gallimard, Paris 2001.

[197] Queneau ne donne pas la référence exacte.

[198] « There are no teoretical limitations to the performance of the computer as a source of musical sounds, in contrast to the performance of ordinary instruments. At present, the range of computer music is limited principally by cost and by our knowledge of psychoacoustics. » MATHEWS, M. : « The Digital Computer as a Musical Instrument ». Science. November 1963. Cité dans CHADABE, J. : Electric Sound. Prentice-Hall New Jersey 1997. Pg. 110.

[199] « [A] crucial feature in the application of digital technology to sonic art is the development of sophisticated hardware and software tools to permit human physiological-intellectual performance behaviour to be transmitted as imposed morphology to the sound–models existing within the computer. » WISHART, T. : On Sonic Art. Harwood Academic Publishers, 1983/1996. Citation de la page 330.

[200] « The limitations on [the computer’s] potential are partly due to our lack of acoustic understanding but primarily to our perceptual and aesthetic preconceptions about the nature of sonic art and its instruments. » Id. pg. 325.

[201] Voir l’Introduction.

[202] Citation (de mémoire) d’un séminaire donné par Joel Ryan à l’IRCAM en 1999.

[203] TURING, A.M. : . “Computing machinery and intelligence”. Mind, 59, 1950, pg 433-460.

[204] “consider the implications of taking seriously the apparent goal of AI, to construct the closest thing we can to an artificial intelligent machine.” DUISBERG, R. : “On the Role of Affect in Artificial Intelligence and Music”. Article dans Perspectives on Musical Aesthetics, edité par John Rahn, Norton & Company 1994.

[205] Les deux formes correspondent effectivement aux notions de linéaire et discrète dans l'analyse et l'algèbre.

[206] CADOZ, C. : “Musique, geste, technologie”. Pg. 47-92 dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999. De la page 63.

[207] 1951-3 ; c’est la première œuvre pour bande de huit pistes.

[208] Larry Austin en a fait une version pour ordinateur. AUSTIN, L. : « John Cage’s William’s Mix : The Restoration and New Realizations of and Variations on the First Octaphonic, Surround-Sound Tape Composition. » Larry Austin Music, 2001.

[209] Sans doute Cage aurait dit que la créativité n’est pas nécessaire pour faire de la musique.

[210] ASSAYAG, G. : “Du calcul secret au calcul visuel”. Interfaces homme-machine et création musicale (Chapitre 2). Hermes Science Publications, Paris, 1999. Citation de la page 50.

[211] Essl a publié plusieurs articles sur son travail avec l’interactivité sur son site, http://www.essl.at.

[212] « Der Komponist ist eben kein aussenstehender Konstrukteur, der eine Maschine baut, in Gang setzt und ihrem Schicksal überlässt, sonder - das erscheint mir besonders wichtig - selbst Teil des Systems. Seine Absichten, Wünsche, Ziele und seine ästhetische Orientierung finden darin Eingang, ebenso seine Fähigkeit, aus den jeweiligen Systemkonstellationen Konsequezen zu ziehen, die wiederum in das System einfliessen und dessen Verhalten modifizieren können. Umgekehrt aber verändert sich auch die Erkenntnis des Ruckkoppelung, ein Kernstück jedes dynamischen Systems, ist dadurch gegeben.» ESSL, K. : « Klangkomposition und Systemtheorie in Ästhetik und Komposition » Musikinstitut Darmstadt 1994. Schott n˚148. Citation de la pg 69.

[213] « This does not imply that it may not be possible to construct electronic equipment which will “think for itself” or in which, in biological terms, one could set up a conditioned reflex, which would serve as a basis for “learning.” Whether this is possible in principle or not is a stimulating and exciting question, suggested by some of these recent developments. » TURING, A.M. : « Computing machinery and intelligence. » Mind #59, 1950, pg. 433-60.

[214] Les similitudes seraient bien évidemment plutôt d’ordre fonctionel que structurel.

[215] LEROI-GOURHAN, A. : Le geste et la parole 2, La mémoire et les rythmes. Editions Albin Michel, 1964, 285 pg. 55-6.

[216] Ou, encore, la relation entre le normal et le dévient.

[217] Dans les années 1960, les chercheurs les plus optimistes ont estimé qu’une machine allait réussir le test avant la fin du siècle. Finalement, ce n’est pas arrivé et on semble être assez loin toujours de cela. Depuis quelques années il existe une compétition pour des programmes spécialisés à imiter une conversation humaine ; on appelle ses programmes Chatterbots. Voir http://www.loebner.net/Prizef/loebner-prize.html et http://www.alicebot.org/.

[218] « Animals minds seem to be very definitely subcritical. Adhering to this analogy we ask, 'Can a machine be made to be supercritical? » TURING, A.M.  : « Computing machinery and intelligence ». Mind, 59, 1950, pg. 433-60.

[219] LEROI-GOURHAN, op. cit.

[220] CADOZ, id .pg. 71.

[221] « aim at making very precise and explicit what it means to create meaning : Is it a mainly behavioural process and/or does it involve other specific structures ? » MAZZOLA, G. « Semiotics of Music », Art. 154 dans Semiotic Aspects of Musicology. Pg. 88.

[222] HOFSTADTER, Metamagical Themas, "its trappedness in some kind of precisely delimited space”

[223] CARDON, A. : Conscience artificielle & systèmes adaptatifs. Editions Eyrolles, Paris, 2000, id.pg. 15.

[224] LEROI-GOURHAN, id.  pg 75.

[225] LEROI-GOURHAN, A. : Le geste et la parole 2, La mémoire et les rythmes. Editions Albin Michel, 1964, pg 58.

[226] CADOZ, C. : “Musique, geste, technologie”. Pg. 47-92 dans GENEVOIS, H. & DE VIVO, R. (sous la direction de) : Les Nouveaux Gestes de la Musique. Éditions Paranthèses Marseilles 1999.pg 89.

[227] « Machine learning is the study of algorithms that enable computers to improve their performance and increase their knowledge base. » THAGARD : “Machine learning”, article 16 dans BECHTEL & GRAHAM : A Companion to Cognitive Science.

[228] Voir également l’Historique pour une discussion de la relation entre symbolisme et connexionisme.

[229] « The large variety of incompatible models of music cognition and the representation of musical knowledge, and the unclear link between them, is a real problem in the present state of cognitive science. » DESAIN, P. & HONING, H. : “Computational Modeling of Temporal Structure in Musical Knowledge and Music Cognition” (1995). Publié sur le site du “Music, Mind, Machine Group” http://www.nici.kun.nl/mmm/

[230] « Nowadays it is very hard to question the fact that machines can learn. » MIRANDA, E. R., Mimetic Development of Intonation. Sony Computer Science Lab Paris 2003, à apparaître.

[231] ASSAYAG, G. : “Du calcul secret au calcul visuel”. Chapitre 2 dans “Interfaces homme-machine et création musicale. Hermes Science Publications, Paris, 1999.

[232] BOULEZ, P. : Par volonté et par hasard, entretiens. In Bosseur, J.-Y. : Vocabulaire de la Musique Contemporaine. Minerve 1996, pg. 70.

[233] “It is the organization of memory that defines what concepts are." HOFSTADTER, D.R. : Metamagical Themas, article 23. Citation des pages 528-9.

[234] PACHERIE, É. : “Le fonctionnalisme : état des lieux.” Intellectica, 1995/2, 21, 1995. Pg 16.

[235] “An epistemology which incorporates such passionate appraisal into the heart of factual knowledge suggests itself as an important feature of any realistic  mind model that would avoid a specious rational/intuitive dichotomy.” DUISBERG, R. : “On the Role of Affect in Artificial Intelligence and Music”. Dans Perspectives on Musical Aesthetics. John Rahn, éd. Norton & Company 1994.

[236] “At what point can a system be thought of as so complex that the connection between the composer’s intention and the system’s behavior becomes obscure?” CHADABE, J. : Electric Sound. Prentice-Hall New Jersey 1997. Pg 312.

[237] Sauf peut-être ceux qui travaillent exclusivement la musique acousmatique sur support fixe ?

[238]  Essl s’est inspiré d’Ilya Prigogine et d’Isabelle Stengers, Voir STENGERS, I. : Orders Out of Chaos. Man’s new dialogue with nature. Toronto/New York 1984.

[239] "Das Faszinerende an Progogines Untersuschungen ist der neue, nichthierarchische Ordnungsbegriff. Chaos unt Ordnung werden nich länger als Widerspräche gesehen, sondern als zwei Extrempole, zwischen denen vielfältige Übergang möglich sind. Diese Erfahrung begegnet auch ims in täglichen Leben auf Schritt und Tritt." Karlheinz Essl: Klangkomposition und Systemtheorie, dans Ästhetik und Komposition, Musikinstitut Darmstadt 1994, Schott 148 pg 67.

[240] WALLIN, R.: Fractal Music - Red Herring or Promised Land? Lecture given at the Nordic Symposium for Computer Assisted Composition, Stockholm 1989. http://www.notam02.no/~rolfwa/Fractalarticle.html 2003-04.

[241] « With chaos theory, the gap between total order and entropy is about to be filled in, and exactly this can turn out to be interesting for musicians. After all, this gap has been our playground for some thousands of years. »WALLIN, R.: Fractal Music - Red Herring or Promised Land?” Lecture given at the Nordic Symposium for Computer Assisted Composition, Stockholm 1989. http://www.notam02.no/~rolfwa/Fractalarticle.html, 2003-04.

[242] “Clearly there is something lacking in the machine that allows it to have this unbounded tolerance for repetitive actions. This thing that is lacking can be described in a few words: It is the ability to watch oneself as one deals with the worlds, to perceive in one’s own activities a pattern, and to be able to do so at many levels of abstraction." HOFSTADTER, pg 532.

[243] CARDON, A. : Conscience artificielle & systèmes adaptatifs. Editions Eyrolles, Paris, 2000, pg 16.

[244] Ce problème était connu aux Académiciens sous le nom de la “troisième personne”. Apparemment introduit par le sophiste Polyxenus, Platon l’explicite dans Parménide.

[245] Je me permets cette traduction du mot anglais bore, faisant également référance à une des aventures d’Achilles et le Tortoise… !

[246] "There is a problem once you start getting into infinite regresses composed of other infinite regresses - the whole thing just never stops, and it becomes a bore. Or not exactly a bore, but a very complex and confusing thing, whose reality and relevance become ever more questionable. And yet, when you bring it back to the domain of sphexishness, it becomes the very real and very relevant question of how to build a machine that can sense unanticipated patterns in its own behaviour. This is related to a classic problem in the theory of computability, called the halting problem: It is the question of whether there exists any computer program that can inspect other programs before they run, and reliably predict whether or not they will go into infinite loops.... The answer turns out to be “Definitively not”, and for elegant, deep reasons.” HOFSTADTER, D. R. : Metamagical Themas, article 23, pg 534.

[247] « we are not really so concerned with the mathematical perfection of our self-watching system as with its likelihood of survival in a complex world; after all, that’s what intelligence is about. » HOFSTADTER article23, pg 537.

[248]Is intelligence synonymous to the ability to perform logical operations automatically, to play chess or to diagnose diseases? Answers to such types of questions tend to be either biased to particular viewpoints or ambiguous. The problem is that once a machine is capable of performing such types of activities, we tend to cease to consider these activities as intelligent. Intelligence will always be that unknown aspect of the human mind that has not yet been understood or simulated.” MIRANDA, A. R. : “Music, Machines, Intellegence and the Brain”. Sonic Arts Network Journal of Electroacoustic Music, 1999, n˚12.

[249] “it is that fuzzy boundary where we can no longer quite maintain the self-watching to a high degree of reliability that our own individual styles, characters, begin to emerge to the world." HOFSTADTER, ibid.

[250] "The view that machines cannot give rise to surprises is due, I believe, to a fallacy to which philosophers and mathematicians are particularly subject. This is the assumption that as soon as a fact is presented to a mind all consequences of that fact spring into the mind simultaneously with it. It is a very useful assumption under many circumstances, but one too easily forgets that it is false. A natural consequence of doing so is that one then assumes that there is no virtue in the mere working out of consequences from data and general principles." TURING, A.M. : “Computing machinery and intelligence.” Mind, 59, (1950). Pg. 433-460.

[251] Énoncé par Miller Puckette lors d’une session orale. Publié comme : LYON, E. (éd) : “Dartmouth Symposium on the Future of Computer Music Software : A Panel Discussion”. Computer Music Journal 26:4 (Winter 2002).

[252] Alors, sommes-nous renvoyés à la « dichotomie spécieuse entre rationnelle et intuitive » dont parle Robert Duisberg ?

[253] CARDON, A. : Conscience artificielle & systèmes adaptatifs. Editions Eyrolles, Paris, 2000. De la page 14.

[254] RUSSEL, S. & NORVIG P. : Artificial Intelligence : A Modern Approach. Prentice Hall International Editions 1995. pg 17.

[255] “Music does not require the degree of exactness of meaning that language often seems to need for communication. Thus, association nets seem particularly useful as composing tools. Association nets also offer the advantage of adaptability to any language or – as in the case of music – style.” COPE, D. “Association Nets, Music, and Creativity”. Créativité & Informatique, Veille Technologique n˚15 (1998) IRCAM, Paris. Pg. 13.

[256] “ this musical conversation continues with user reactions to the program’s output. This musical conversation differs from its language counterpart in that the level and balance of interaction do not correspond.”COPE, idem. Pg. 19.

[257] ASSAYAG, G. : “Du calcul secret au calcul visuel”. VINET, H. & DELALANDE, F. : Interfaces homme–machine et création musicale. Hermes Science Publications, Paris 1999. pg. 51.

[258] "… instead of using a standard machine-learning algorithm to learn specific styles of music or compositional processes from given examples, we propose a system where artificial musicians actively evolve their own musical culture by interacting with one other. Moreover, there is no teacher telling these musicians what they have to learn." MIRANDA, E. R. : “Emergent Sound Repertoires in Virtual Societies”. Computer Music Journal 26:2. MIT Press, 2002.