La musique par ordinateur ?

l'apport et
le désapport

 

Evolution ou régression de la musique, avec l'informatique musicale ?

 

Jean-Claude Risset [1] nous dit que l'informatique musicale doit
« étendre les possibilités de la création musicale » (sic),
qu'en a-t-elle fait depuis plus d'une trentaine d'années ?

 

Mais déjà :
la limite de la musique par ordinateur réside dans son principe même à numériser : la sonorité de l'encodage différé.
Et,
nous sommes-nous trompés quant à sa gouvernance ?
qui de la machine ou de l'utilisateur gouverne qui ?

 

 

2021

Technologie Régressive ?
régression technologique ?

Qu'est-ce que l'ordinateur apporte de + à l'existence humaine ?

L'histoire courte de la musique avec l'ordinateur
montre la régression d'un outil machinique
croyant pouvoir être l'alter ego du compositeur
croyant être la solution pour donner à entendre
tout l'imaginable de l'artiste
ou :
histoire courte de la régression de la musique avec ordinateur

Qu'est-ce que l'ordinateur apporte de - à l'existence humaine ?

En 2021, nous artistes compositeurs musiciens (les producteurs d'originalités inouïes), nous nous trouvons dans une situation paradoxale avec des outils (numériques) censés pouvoir réaliser les musiques impossibles imaginées.

- Mais où sonnent ces musiques ?
- Nulle part !

La régression de l'outil numérique est agie par la volonté de similariser les désirs des êtres humains assimilés/éduqués à réagir (conduite agie par la loi de la morale de l'ordre). La loi de l'ordinateur personnel, dont uniquement 2 compagnies américaines, Apple et Microsoft (Atari et Commodore Amiga et les autres ont été coulés) se sont emparées du marché mondial, a dégénéré (= a généré des anomalies affectant ses fonctionnements) ce à quoi la machine était destinée, dans les esprits pionniers : créer un alter ego (au-delà de l'assistanat -tel : MAO = musique assistée par ordinateur-) pour inventer des musiques inouïes. Le cas de la musique est parlant, car tous ses outils (à par ses instruments de musiques acoustiques et électriques) sont devenus numériques.

1983. Le langage MIDI (musical instrument digital interface) a réalisé le désir de pouvoir jouer d'un orchestre de synthétiseurs par un seul musicien/compositeur *. Et + : de pouvoir enregistrer et recomposer et rejouer la musique enregistrée/notée. Rendant le montage compositionnelle de la musique, au 1/960ème de la pulsation, rendu possible par : le séquenceur (quantique). Le rêve d'Edgar Varèse ou « le nouveau piano » du compositeur. Le séquenceur MIDI peut, par son « protocole » (sic), piloter 16 synthétiseurs numériques en même temps, et encore +. 2021. Le principe du séquenceur n'a pas évolué depuis. Telle la partition imprimée classique, le séquenceur séquence des suites de quantités. Mais la musique, est-ce « des suites de quantités » gouvernées par une horloge mécanique ? Non. Le séquenceur est l'aboutissement (au bout) de l'idéologie « de l'écrit qui commande l'ordre » = la partition de musique des machines exécutantes (qui remplacent les musiciens salariés de l'orchestre) est une idéologie obsolète quand on considère l'être humain ne pas être un esclave.

La seconde machine/instrument numérique qui modifia les comportements des musiciens est le « sampler » qui utilise le « sampling » ou « échantillonnage » (« dans le monde numérique du traitement du signal, l'échantillonnage est la réduction d'un signal de temps continu (analogique) à un signal de temps discontinu = tranché en tranche (numérique). ») : la possibilité de pouvoir enregistrer n'importe quel son pour en faire un instrument de musique. L'accouplement du sampler (sampleur ?) et du séquenceur MIDI avec un clavier (piano) MIDI donna la possibilité de réaliser ce que la gestualité humaine ne pouvait pas. Exemple : répéter une chute ou un bris à des fréquences rapides.

- OK, et alors et après ?
- Une fois fait, on passe à autre chose.
- Et quelle est cette autre chose ?

Ce sont avec ses outils (- pas des instruments de musique ?) : clavier MIDI + ordinateur avec le programme séquenceur MIDI + synthétiseurs et sampler (échantillonneur) MIDI qu'un seul être humain pouvait générer toute la musique d'un orchestre électronique numérique. Mais avec sa popularisation dans les années 90, ces nouvelles machines ont + incité « les joueurs de platines » (= les DJ) à générer ce pour quoi le séquenceur fonctionne : générer la régularité mécanique de la répétition qui s'est épanouie dans la musique techno, musique de transe numérique pour 3 jours de fête. Le séquenceur est commandé par l'horloge de l'ordinateur. + que des horloges mécaniques : le séquenceur numérique est commandé par une l'horloge numérisée (quantifiée) à l'échelle atomique de la mesure et globalisée/mondialisée qui commande tous les êtres humains de la planète par les horaires. C'est un mouvement inhumain ou un type de mouvement que l'être humain ne peut pas reproduire, même à s'entraîner, la raison mécanique (= similarisée) de la musique est une idéologie, voire une doctrine, que la raison de la musique ne peut pas supporter (nous ne parlerons pas de la triche de l'enregistrement des musiques remontées pour donner à croire à des virtuosités inexistantes). La raison de la musique existe pour diversifier, par pour répéter la même chose encore et encore et toujours autrement pour assimilariser.

44 ans d'informatique pour la musique

- L'enthousiasme de départ laisse la place au scepticisme.
- Que s'est-il passé ?
- Principalement, l'idéologie des outils informatiques en 40 ans n'a pas évolué. Nous l'avons vu avec le séquenceur, l'outil reste, ou stationne depuis 1983, dans l'aboutissement de la partition de musique classique du XIXe siècle aux 4 paramètres quantifiés. Ce qui pour la musique actuelle occidentale demeure insuffisant ou ne sert qu'à répéter ce comment on se figure être la musique, celle classique du XIXe siècle qui se sonne abondamment dans le cinéma.
- Quant aux programmes de générations aléatoires de paramètres du début de l'informatique musicale, à l'usage se répètent (= sonnent pareil) et s'abandonnent par les compositeurs. L'outil informatique = la machine = le robot n'a pas pu surpasser l'instrument de musique acoustique ou électrique avec la créativité du compositeur-musicien libre, ni même devenir un alter ego ou « un assistant » (sic) à sa création.

La musique assistée par ordinateur réduit la créativité,
car le programme au lieu d'ouvrir à la différenciation enferme dans la répétition.

On peut donner l'exemple majeur pour la musique occidentale, celui de l'évolution de ses gammes musicales pour développer son harmonie = l'art des accords qui composent la musique polyphonique qui forme sa théorie. Depuis 1000 ans la culture chrétienne impose son idéologie de l'unicité de son monothéisme dans la monoscalairité qui est désobéi en permanence par les compositeurs, tel Bach entre autres qui imagina la polytonalité pour sortir de la monotonie, bien que dénoncé entre autres par le mathématicien Euler (la musique jusqu'au XIXe siècle étaient considérée comme une science auquelle philosophes et mathématiciens se devaient de calculer ses gammes). Tous les compositeurs, à commencer par ceux de l'Ars Nova au XIVe siècle qui développèrent la polyphonie, créent la musique qui contredit les volontés politiques d'assimilarisation. Les arts différencient, la politique avec la religion assimilarise. À partir du début du XXe siècle, les compositeurs ont commencé à vouloir diversifier la gamme de gammes, base de la composition musicale pour son harmonie. Certains compositeurs se sont attelés à développer et diversifier la théorie musicale occidentale pour enrichir l'outil compositionnel, ce, jusqu'aux années 70 du XXe siècle. L'harmonie avec la naissance des synthétiseurs électroniques a commencé à se confondre avec la synthèse sonore (la génération de sons artificiels par composition d'agregats de fréquences avec la synthèse additive). La découverte de la synthèse par modulation de fréquence (= la modulation en anneau = ring modulator) a posé un rapprochement possible entre synthèse sonore et harmonie : mais ce rapprochement n'a pas encore donné une théorie musicale inharmonique (pourtant « à la mode » dans les années 80 avec les « multiphoniques » joués aux instruments acoustiques). La généralisation de l'informatique musicale, destinée aux amateurs depuis les années 90 du XXe siècle (à commencer avec l'Atari ST avec interface MIDI intégrée), a commencé à bloquer et à généraliser la production musicale avec la gamme unique à l'égalisation exacte de 12 1/2 tons qui auparavant était tempérée = adaptée suivant l'instrument de musique, ne l'est plus avec l'informatique. Mais des résistants à cette généralisation de l'assimilirarisation par l'égalisation à travers l'informatique musicale créent des programmes de génération d'autres gammes et d'échelles. Le « protocole » MIDI depuis sa conception donne la possibilité de développer différents possibles pour la musique, dont différentes scalairités et surtout donne la possibilité de changer de gamme pendant le jeu de la musique avec la commande « bulk dump ». Cette commande, dans les « instruments natifs » ceux virtuels dans l'ordinateur, n'existe plus : c'est une régression. J'ai tenté, avec la création de l'instrument hybride : le pianomorphe, formé par un système de plusieurs différents programmes assemblés dans l'ordinateur, d'ouvrir le jeu instrumental à la polyscalairité nonoctaviante mêlant aussi la synthèse par, pourrait-on dire, « microharmonie » où l'accord ne se distingue plus de l'agrégat d'un son, mais ce système est tributaire à la fois de l'ordinateur et de son système d'exploitation qui rend les machines et le système obsolète au bout de 3 années.

La domination du marché par Apple et Microsoft et l'incapacité de Linux (depuis les années 90) d'offrir un système indépendant avec des outils performants pour la musique, ne serait-ce qu'un « éditeur multipiste » toujours absent en 2021 ne favorise pas la création musicale avec l'ordinateur que pour donner des séries de « suites de sons » (pour illustrer des images, sic) : « avec l'ordinateur ? on fait du son » (sic), pas de la musique. Le changement imposé du système d'exploitation (qui oblige à acheter un autre ordinateur) interdit l'utilisation et le développement des programmes pour la musique qui ne sont plus développés et pourtant toujours utilisables, car jamais égalés, je pense à certains traitements audio sous le protocole DirectX aujourd'hui obsolète ou d'autres programmes uniques de synthèses qui sont restés avec les Mac Intosh des 1ères générations (carte audio NuBus). Mais surtout je suis inquiet quant à l'utilisation dans le temps futur des spatialisateurs en temps réel WAF Orfeusz (qui se jouent comme des instruments de musique) qui se pilotent avec le système d'exploitation aujourd'hui devenu obsolète Windows XP, système qui n'est plus reconnu des cartes mères des ordinateurs récents qui imposent les nouveaux systèmes Microsoft incompatibles avec les anciens. On imagine le gigantisme des déchetteries ! Les difficultés pour maintenir un système d'exploitation stable pour la musique commencent à dépasser la durée de son exploitation pour réaliser la musique, et là, ça devient + une nuisance qu'un avantage.

Le marché des instruments de musique informatique est commandé, depuis les années 90 : date de la ruine des studios d'enregistrement attaché aux labels attachés à l'industrie du disque, par les amateurs qui sont les clients majoritaires (pareil pour les instruments tels : la guitare électrique et les synthétiseurs analogiques qui génèrent une spéculation au point que ces instruments deviennent inaccessibles aux musiciens) des outils informatiques pour la musique. Tout en imposant la loi de l'assimilarisation au marché outils et instruments pour créer de la musique originale. Cette généralisation oriente les programmeurs à générer pour vendre des outils et des instruments adaptés à l'ignorance de ces utilisateurs : la régression de la musique avec l'informatique réside aussi ici.

Quand est-il de la recherche des sons inouïs ? Car l'informatique porte en elle, ça de séduisant, de pouvoir rassembler toutes les synthèses audio numérisées en même temps avec en + l'échantillonnage, ou la mise en gamme de tous les sons possibles enregistrés, avec en + leur transformation par les traitements (plug-ins). Cette disposition informatique est largement exploitée par « la musique électroacoustique » et le « sound design » principalement destiné pour le cinéma. Eh bien, en 2021, 32 ans après l'Atari ST, le jeu en « temps réel » des synthèses mêlées à l'échantillonnage avec le mixage et les effets est resté au stade du bricolage, c'est-à-dire que la création sonore avec l'informatique stationne dans l'enregistrement, ça, pour la diffusion de « musiques » enregistrées (disposition gouvernée par l'industrie du cinéma -l'image animée enregistrée- qui brasse des fortunes) ; la création musicale avec l'informatique se suffit de sons enregistrés (ou passés : la copie d'instruments de musique du passé). C'est la loi du propriétaire. L'ordinateur instrument de musique aux sons inouïs en évolution en temps réel est un domaine qui ne concerne par l'industrie audio fait qu'il n'existe toujours pas en 2021 d'outil informatique instrumental qui permette d'engendrer des métamorphoses constantes de l'inouï, celle du Pianomorphe par exemple : instrument de musique clavier à qui on modifie de manière inattendue son identité sonore en permanence par superposer différentes rythmiques de couches de paramètres en transformation constante, y compris ses signatures scalaires nonoctaviantes.

C'est pour cette raison qu'aujourd'hui, je me sers de l'informatique principalement pour enregistrer la musique. Il n'existe pas d'autre magnétophone multipiste, autre que l'outil informatique. Et d'ici quelques années, je ne sais pas comment nous pourrons piloter les spatialisateurs Orfeusz qui sont pourtant à l'avant-garde des outils pour la musique vivante et spatiale.

 

Note
* Vu du côté commercial : « un protocole de technologie musicale standard de l'industrie qui relie des instruments de musique numériques, des ordinateurs, des tablettes et des smartphones de nombreuses entreprises différentes. » (sic) https://www.midi.org

 

 

2013

Bob Ostertag et l'informatique musicale

 

Dans son texte « Why Computer Music Sucks » (= pourquoi la musique par ordinateur fait chier) le compositeur Bob Ostertag critique la musique par ordinateur (Computer Music) qui dans les milieux avant-gardes s'est embourbée dans des processus de programmations complexes au lieu de favoriser le résultat musical final audible et, où le résultat final médiocre de ces musiques ne justifie pas l'effort démesuré du travail d'élaboration de programmation. La programmation entrave-t-elle la composition de la musique ? Le résultat global est une uniformisation de la musique savante par ordinateur qui utilise les dernières nouveautés technologiques sophistiquées des traitements du timbre et de la composition, mais sans vraiment de résultats probants. L'exemple des 287 pièces soumises au jury d'Ars Electronica en 1996 où une seule sortait du lot par sa nouveauté de timbre était réalisée avec un vieux synthétiseur Buchla analogique des années 70. Aujourd'hui en 2013, on est au même point.

Il apparaît clairement aujourd'hui que des outils informatiques (chers et) sophistiqués ne font pas obligatoirement des musiques originales. Les espoirs d'élargissement des possibilités sonores pour la musique avec l'informatique ne se sont pas développés ni réalisés comme nombre de compositeurs l'escomptaient (Varèse pour ne citer que lui). Il existe une impasse qui ne peut être dépassée. Une impossibilité. Pourquoi ? La musique savante ne s'est cantonnée avec l'ordinateur que sur deux pôles majeurs : la composition algorithmique (automatique) et l'exploration extensive du timbre à travers différentes synthèses numériques basées majoritairement sur l'analyse de Fourier FFT = "Fast Fourier Transform" basé sur l'idéologie pythagoricienne (sauf pour Xenakis qui introduit la synthèse granulaire qui s'extrait de l'idéologie harmonique en série). Ce qui pour la musique reste relativement pauvre. Aussi les carrières institutionnelles ont prévalu sur la créativité. Les programmes pour la musique servent moins les compositeurs que la position sociale des programmeurs qui s'évertuent de garder leur place dans l'institution. Le dialogue avec certains compositeurs fut rompu au nom de cette résistance à la créativité.

L'informatique musicale uniformise la musique dans son langage binaire simpliste.

Au contraire, dans le domaine « populaire » malgré une imposante pression du marketing qui empêche l'émergence de musiques originales, des « bricoleurs » ont détourné l'outil informatique pour bidouiller leurs musiques principalement à base de séquences de sampling. Mais nous dit Bob Ostertag le sampling n'est pas l'informatique musicale. Le sampling s'empare des sons enregistrés de tout, aussi bien des sons de synthèse de l'ordinateur. Le sampling est contraire à l'esprit de la Computer Music (l'informatique musicale) : le sampling ne synthétise pas, il pioche et détourne. Dans ces productions musicales, l'ordinateur intervient plus dans le studio d'enregistrement comme magnétophone multipiste que dans la composition algorithmique ou la synthèse des sons. L'ordinateur a rendu le studio d'enregistrement des musiques « populaires » accessible à tous [2]. Le coût d'un multipiste est passé de « acquisition impossible » (il fallait louer le studio d'enregistrement) à « ordinateur personnel + interface audio (carte son) + logiciel multipiste » (Reaper est à 60€) et quelques micros, chez soi.

...

 

L'indisponibilité musicale des programmes destinés à la musique des institutions pour la musique :
(dû à leur coût, ou leur fonctionnalité, ou leur utilité, ou leur sonorité, ou leur durée de déchiffrage, ou leur obsolescence, etc.)

 

. L'application phare de la musique par ordinateur : Max (nommé ainsi en l'honneur de Max Matthews) de Miller Puckette conçu à l'IRCAM puis nommé Max/MSP (Ircam -vendu à> Opcode -vendu à> Cycling 74 de David Ziccarelli : logiciel payant) contre PureData (logiciel gratuit et open source) toujours de Miller Puckette (en réaction au vol de son programme).
. L'application phare du MIT : Csound de Barry Vercoe à la suite de Music V de Max Matthews (logiciel gratuit).
. Les applications de l'Institut de Recherche Coordination Acoustique Musique (IRCAM) : Chant, SVP puis AudioSculpt, Modalys, PatchWork puis OpenMusic, Spat, etc. : « L'utilisation de ces programmes et de sa documentation est strictement réservée aux membres des groupes d'utilisateurs de logiciels Ircam » (sic) : logiciels payants en location annuelle, dont la plupart sont devenus obsolètes.
. L'application du Groupe de Recherche Musicale (GRM) : GRM Tools (logiciel payant).
Première version 1.5 en "stand alone" sur Mac conçu pour l'interface audio Digidesign 442 avec carte NuBus : sonne.
Sa version VST pour PC : ne sonne pas.
. d'autres logiciels d'instituts pour la musique ? En fait, énormément et très peu qui se remarquent, d'où l'uniformisation de la sonorité informatique.

Verdict : conception remarquée pour des résultats sonores (trop souvent) décevants.

...

.

2010-2014

Les logiciels sauvages (non institutionnels) pour la musique

 

Entre le logiciel commercial et le logiciel institutionnel, il existe une autre voie prise par des programmeurs indépendants qui s'essayent à l'exercice. Et cela donne des résultats parfois étonnant comme Paul's Extreme Sound Stretch ou Scala. Restent insuffisamment nombreux.

...

.

Applications pour nerd (de l'informatique pour l'informatique),
pas pour la musique ni le musicien

 

Le premier critère d'adhésion pour un outil (logiciel) musical audio est sa sonorité. C'est un critère non mesurable et inexorable : ça sonne ou pas : sa pérennité en dépend. Le second critère d'adhésion pour un outil (logiciel) musical est le plaisir de son utilisation. Ce second critère inclut ses accès (rapport travail logiciel / résultat musical), sa fonctionnalité, son originalité, son efficacité, etc. : son instrumentalité. Un logiciel de musique ne peut pas être un obstacle à la musique. Nous nous sommes toujours demandé pourquoi les programmes musicaux institutionnels sont en majorité inaccessibles dans l'immédiateté et ignorent même le sens de la musique ? Est-ce que le programmeur jalouse la place sociale du compositeur (qu'il envie pour quoi) ? L'informatique musicale a le complexe de la « prestation de service » dont elle veut se débarrasser en voulant prendre la place à la musique. Le programmeur a pris la place du compositeur en ignorant le sens de la musique. Les informaticiens de la musique veulent se sentir utiles, car au fond, ils savent que c'est une vaste blague (Gérard Assayag, communication personnelle). Toutes les collaborations sont restées timides ou infructueuses aux dépens de carrières fonctionnaires (de prestige ? ridicules). L'informatique reste un outil (pas un atelier comme l'avance J.C. Risset) et certainement pas encore un instrument de musique effectif pour le musicien qui ne se décolle pas de l'écran (un musicien fait de la musique -touché, vibre- pas de l'ordinateur en regardant un écran). L'informatique musicale est l'outil principal de la musique enregistrée (recording, mixing) et donc de l'industrie du disque (ou ce qui en reste), du jeu vidéo et du cinéma. En 33 années de recherches musicales en informatique, quels sont aujourd'hui les outils utiles qui restent au musicien ?

En 1968 John Chowning travaille à Stanford les Mouvements Sonores Virtuels qui jusqu'à ce jour reste indisponibles dans une application sur plate-forme PC, Mac ou Linux (?). Nous nous sommes toujours demandé pourquoi son programme de spatialisation ne fut jamais rendu disponible sur ordinateur personnel ? Il existe juste une publication de sa conférence de 1971 [3]. En 1977 apparaissent les premiers ordinateurs personnels avec Apple, Commodore et Atari. Puis en 1982 les ordinateurs compatibles PC (Personnal Computer) et en 1984 les Macintosh. Atari reste le seul ordinateur qui intégra une interface MIDI dans sa machine : très pratique pour le musicien qui n'existe plus aujourd'hui. Le « protocole » MIDI sort en 1983 avec le premier synthétiseur à Modulation de Fréquence, synthèse conçue par John Chowning dont il vendit la licence à Yamaha qui produisit le DX7 jusqu'au SY99 en 1996. Aujourd'hui cette synthèse n'a pas évolué et se retrouve dans des synthétiseurs virtuels particularisés avec le FM7 et 8 de Native Instruments. Tout comme la synthèse (très prometteuse) par modélisation qui aujourd'hui n'est utilisée que pour imiter (mal) des instruments déjà existants et dans ce cas le « sampling » fait mieux (quoique les Pianoteq est un début de réussite). Cela reste vrai aussi pour la synthèse granulaire. Ces 3 synthèses strictement numériques n'ont pas encore accédé à l'état d'instrument de musique, mais sont restées en l'état d'effets spéciaux pour le « sound designer » attaché à l'industrie du cinéma.

Les outils numériques destinés et qui servent à la musique ont plus été conçus par des anonymes indépendants que par le système institutionnel des centres de recherche ou le système commercial propriétaire. Je pense à Nasca Octavian Paul le Roumain qui a conçu un petit programme gratuit de time stretching particulièrement musical. Je pense à Anadi Martel le Québécois qui conçut en 1982 une machine de spatialisation des sons dans l'espace utilisant l'algorithme de Gerzon dans la diffusion quadriphonique : le SP1 (Spatial Sound Processor) puis le SSP200, aujourd'hui malheureusement introuvable. Beaucoup d'autres et peu ont élaboré des machines et des programmes pour la musique de façon artisanale et dont le commerce fut toujours un échec : le prix d'achat demandé était trop élevé pour le musicien (ils oublient que l'industrie du disque c'est effondrée et a complètement rejeté l'inventivité musicale), et la médiatisation de ces outils, difficile. Beaucoup de ces outils sont tombés dans l'oubli à cause de ce déséquilibre économique. Le musicien original d'aujourd'hui est pauvre et indépendant : il n'intègre plus l'industrie du disque et le système économique du « divertissement » [4].

 

Le cas des nerds, les fonctionnaires et la musique

Programmes de nerds

Contrairement à un instrument de musique, les programmes informatiques musicaux nerds ont la fâcheuse tendance d'obstruer le lien direct à la musique : le temps réel (sic). Ces programmes sont en général proposés par des universités et des instituts, et à la première approche ne semblent pas destinés à réaliser de la musique (en temps réel), mais plutôt des programmes dans le programme. Ce qui pour la musique est inutile ou trop laborieux pour être des outils destinés à la création musicale (déjà bien chargée par la théorie, la technique et l'organisation orchestrale). Aussi, la capacité de donner des programmes inachevés dont certaines fonctions du programme ne fonctionnent pas ou sont bugués (contradictions qui plantent le programme), est une tendance des programmes nerds, voire des systèmes d'exploitation informatiques : il n'existe toujours pas (25 ans après le 1er Atari dédié) d'OS adapté à la musique ! Au lieu de ça, est répendu une tendance fâcheuse et inutile à faire rêver à des choses inaccessibles pourtant faisables (dont mes 1eres expériences furent non-réalisées à l'IRCAM).

Les mêmes :
. Max/MSP (payant)
. Pure Data (gratuit)
  Du même auteur Miller Puckette dont l'un, lui a été volé et vendu et l'autre, une réaction de sa propre initiative au premier vol.
... Pourtant Miller joue du violon...
. CSound (gratuit) de Barry Vercoe du MIT
. programmes de l'IRCAM (payants, Mac exclusivement)
. SuperCollinder (gratuit) de James McCartney
pour les principaux, ensuite ?
Jusqu'aux programmeurs qui vendent des patchs des programmes gratuits ci-dessus !

« Un synthétiseur analogique est déjà + musical et a l'avantage de ne pas avoir d'écran. »

Un programme parmi kyrielle (reçu en juin 2014)

Des nerds de la communauté NIME

'the Open Source release of PESI extended system developed at SOPI research group (Aalto University)'

Eh bien oui ! une application audio pour téléphone mobile : Aalto c'est en Finlande, et en Finlande il y qui ? Nokia bien sûr ! L'utilisation de Pure Data donne à ce projet la possibilité de rejoindre le monde international des nerds de l'informatique musicale ! suis-je « mauvaise langue » ? Mais bon, depuis que je reçois les infos de la communauté NIME (community@nime.org) : cela depuis + de 15 ans, qui est un regroupement censé créer des interfaces musicien-ordinateur (il est possible que je n'ai rien compris) : mais vraiment, jamais rien de pratique pour la musique (la créer la jouer) n'est sorti de ces universités et institutions, rien : il n'y a pas pire que des nerds universitaires qui donnent de faux espoirs à la musique (bricolant dans leurs coins des trucs inutiles, voire insensés et convaincus de leur nécessité pour les autres), semble-t-il ! Savent-ils qu'un système algorithmique restera toujours systématique alors que la musique n'est pas un mécanisme et ne le sera jamais. Le problème du nerd est qu'il magnifie l'insignifiance, il se réjouit + du fonctionnement que du résultat (un enfant qui joue). Ce qui explique en partie l'invasion planétaire de musiques médiocres qui étouffent les autres. Ça les fait marrer ! Tant que ça reste futile et annihile la jouissance profonde d'une musique sublime dont ils se moquent (irréalisable pour eux). Tout ça, ça ressemble plus à du dénigrement (issu de frustrations) + qu'à de la création originale.

 

Anecdote
Le domaine du bricolage instrumental est envahi par la tendance geek DIY (fait le toi-même), plein d'objets électroniques, les fils à l'air qui font pouet-pouet, tin-tin et autres sonorités signalétiques qui leur suffit, pour dire qu'ils font de la musique. Au STEIM à Amsterdam en 2011, j'en ai rencontré quelques-uns. Son directeur dans l'urgence m'a demandé de venir avec ma Lampe Archisonic pour montrer qu'il y a autre chose que : des sons de buzz (l'éclair ?) LoFi, qu'on peut réaliser avec des objets non destinés à la musique LowCost traités en instruments de musique. Je me suis efforcé de faire sonner la lampe d'architecte (1980-2007 devenue Archisonique pour la musique) en développant des accès de jeu instrumental, donnant la possibilité à une interprétation la + large et la + dense possible pour le musicien : c'est tout et ça sonne.

...

.

2007

La reproduction numérique du son

 

Le système de la conversion numérique du son avec le principe de Fourier (FFT pour Fast Fourier Transform) favorise les partiels (les ondes sinususoïdales constituantes du son) graves plus que les partiels aigus. En effet, plus les sons sont aigus et plus l'échantillonnage de leurs ondes est bas et inversement. Quand la fréquence d'échantillonnage est fixée à 44.1 kHz (valeur pour le CD audio), le son est tranché en 44 100 tranches par seconde (pour le cinéma 24 images/seconde). Mais suivant la position fréquentielle de la fondamentale du son échantillonné, le tranchage ne sera pas similaire pour un son grave ou pour un son aigu. Car leur longueur d'onde est différente : plus large pour un son grave et plus courte pour un son aigu, ce qui donnera un échantillonnage moindre pour les sons aigus. Exemple, un son aigu dont la fondamentale se situe à 8 kHz (le champ audible se situe entre 30 Hz et 16 kHz) sera tranché 44 100 / 8 000 = 5,5125 qui en conséquence donnera à l'onde pour sa révolution orbitale (son tour complet sur elle-même) que quelques échantillons : une onde aigüe aura 5 échantillons (de 5 valeurs sur 65 536 pour un codage en 16 bits pour la valeur d"amplitude de l'échantillon) en moyenne pour se faire reconnaître (1 échantillon isolé d'onde donne un clic audio). Ce qui paraît insuffisant à l'audition. Ou uniquement à bas volume d'écoute, car notre cerveau compense en recomposant le manque d'information de ce qui est perçu du son. Mais une fois dépassé le niveau critique de l'amplitude d'écoute proportionnée, les quelques bits de l'onde génèreront un bruit numérique bien connu où le son d'origine est complètement dénaturé [5].

amplitude en ordonnée et temps en abscisse :

onde grave numérisée
chaque point correspond à un échantillon (une tranche avec sa valeur d'amplitude en bit) :
au-dessus échantillonnage d'un son grave et en-dessous d'un son aigu
onde aigüe numérisée

Le système d'échantillonnage numérique de la musique enregistrée favorise une certaine musique qui se délecte dans les basses, puisqu'elle lui est appropriée. La basse dans la musique occidentale (le fondamental dans un spectre sonore harmonique théorisé d'abord par Pythagore puis par Fourier) est le pilier à partir duquel se construit l'harmonie (l'art des accords) : la musique occidentale ne construit pas ses accords de sons, à partir des sons aigus. Ses détracteurs diront que c'est irrationnel. La synthèse additive vient du même principe harmonique. Aussi, les tweeters dans une enceinte acoustique ont une puissance bien moindre que le haut-parleur grave dans une proportion d'1/6e à peu près. Le système d'écoute de la musique occidentale c'est adapté à notre croyance culturelle, de ce que l'on projette, croire ce qu'est la musique et comment elle se décompose quantitativement. Une approche unique que les autres civilisations n'ont pas eu la chance de développer dans une autre technologie culturelle qui aurait pu nous montrer la particularité de la perception de notre culture occidentale.

La recherche de basses dans la musique occidentale correspond à un désir de réconfort, de bien être (comment en pourrait-il être autrement ?). Ce réconfort est recherché dans la mémoire profonde de soi du foetus qui perçoit des sons sourds (je ne vois pas ailleurs où la mémoire pourrait piocher son réconfort). Le son sourd enrobe le corps de vibrations lentes qui nous réconfortent, au contraire des sons aigus qui « électrisent » la tête. Les basses se ressentent au niveau du ventre et de la cage thoracique alors que les sons aigus sont ressentis par la boite crânienne (aussi, aigu signifie douloureux et grave, dramatique). La particularité de la musique occidentale à favoriser les sons graves (jusqu'à utiliser des sonorisations diffusant les extrêmes graves à forte puissance) dont chacun se réjouit se déduit de cette recherche de confort à travers la musique. Cela montre que la civilisation occidentale est fondée sur la terreur de l'inconfort. Et que toute son énergie, sa culture vont dans ce sens, à s'extraire de l'inconfort. Mais quelle est cette terreur indicible inconfortable que notre civilisation occidentale cultive ? C'est l'hostilité donnée « innée » à la vie (qu'elle n'a pas).

...

.

1990-2020

Mao et la composition musicale
la musique assisté par l'ordonnateur Mao ?

Sommes-nous tous handicapés ?
le fantasme du cyborg du super-héro montre que oui.

Avec l'informatique musicale, la MAO : musique assistée par ordinateur (sic), les compositeurs sont devenus des « sound designers » pour le cinéma, fabricant des sons d'artifice (comme les feux) pour éblouir (aveugler ? pour être illuminé et recevoir l'illumination ?) les spectateurs (impressive, being impressed). La partie formelle de la composition étant moins accessible aux utilisateurs puisqu'elle demande un travail autrement plus prenant que la synthèse numérique de sons. La composition musicale demande de l'inventivité formelle qui ne se réduit pas aux dosages de paramètres, ni à la disposition de « blocs » de sons dans la durée d'un séquenceur. La sonorité des sons pour l'instant suffit à l'audition de l'auditeur, mais ne suffit pas à la composition musicale. La distinction entre : une suite de sons et une composition musicale est évidente et incomparable : l'une sonne le son des sons et l'autre émeut. Le degré de prédictibilité des sons même inouïs sans l'être amène l'ennui ou renforce le stéréotype. Composition et stéréotype sont des termes d'imprimerie. L'ordinateur est un mécanisme et ne peut s'extraire de cette prévisibilité : la machine a été conçue avec ça et pour ça : être pré-visible. La composition musicale qui déjoue la prévisibilité est à l'opposé de cette conception de prédictibilité mécanique. L'esprit combinatoire de la sérialisation ne suffit pas à la composition (surtout avec une seule unique horloge). C'est-à-dire, combiner un nombre fini d'objets sonores graphiques (fichiers) dans différentes positions temporelles ne suffit pas à la composition de la musique.

Mémoires/oublis en action

L'intérêt majeur de la composition musicale est le jeu entre autres avec les mémoires. C'est à partir de mémoires que la musique se forme. Les mémoires sont multiples aux qualités différentes et s'incluent dans une temporalité, autrement dit dans une cosmogonie d'un temps imaginé (voir les différentes conceptions temporelles des différentes cultures : linéaire occidentale, circulaire orientale, instantanée africaine, etc.). La mémoire ne réside pas uniquement dans le passé (dans la conception linéaire du temps occidental : passé, présent, futur), mais dans toutes les temporalités. Le futur est une projection de la mémoire, un possible imaginé. La composition musicale réside dans ces jeux des temps qu'une horloge mécanique réduit à des horaires.

...

.

2012

Quel est l'apport de l'informatique à la musique ?

Apport technologique (de l'outil)

1. A remplacé le magnétophone jusqu'au magnétophone multipiste au nombre de pistes quasiment infini qui dépend de la puissance du processeur et du nombre d'entrées dans « la carte son » ou interface audio analogique - digitale. A remplacé les consoles de mixage studio. A remplacé les effets studio (filtres, compresseurs, harmoniseurs, etc., et a créé d'autres outils comme « l'autotune » qui réajuste une voix dans la tonalité en temps presque réel, etc.).
2. La possibilité d'utiliser l'ordinateur comme un synthétiseur (avec de multiples connexions possibles entre les générateurs de sons et les traitements du son) et facilement transportable depuis la création des laptops.
3. un grand nombre d'instruments virtuels : synthétiseurs, traitements, samplers, etc., disponibles (dans une seule boite). Dont la majorité copie les instruments électroniques et acoustiques passés.
4. Un montage audio au millième de seconde : à l'échantillon près.
5. Des synthèses impossibles autrement : la synthèse granulaire, la synthèse par modélisation (trop exploitée à imiter les instruments déjà existants), la synthèse par modulation de fréquences (abandonnée).
6. L'automation généralisée à tous les paramètres ou presque.

Ces 6 avantages font de l'ordinateur, un studio d'enregistrement transportable (sans les micros, les préamplis, les amplificateurs et les enceintes). Utilisable comme instrument de musique (presque en temps réel : latence de 7ms avec un buffer à 256 samples) sans le clavier (piano) ni l'interface MIDI ? Chose étrange, les accès de contrôle comme instrument de musique restent rudimentaires, malgré une trentaine d'années de recherche : gant avec détecteur de positions et mouvements, manettes 3D, potentiomètre 1D et 2D, etc., boutons et clavier restent comme pour les synthétiseurs analogiques du XXe siècle : le type de contrôle encore le plus répandu. Le protocole MIDI 7 bit est toujours là, 29 ans après sa création (1983). C'est dans les accès au jeu vidéo et industrie du divertissement que la musique pioche et adapte ses outils à la musique : voir récemment les manettes sans fil Wii (sans câble, ça fait plus magique) et tablette écran touchpad avec des curseurs lumineux. Bien qu'avec le DX7 en 1983, il était muni d'un contrôleur par le souffle en protocole MIDI qui n'a pas évolué depuis (seul le « saxophone » MIDI Akaï l'utilise, mais les saxophonistes comme les guitaristes préfère l'instrument acoustique). L'interactivité tend à s'affiner, mais demande une programmation assez lourde. La poussée de l'utilisation du programme Max dans les années 90 ne donne malheureusement que des résultats attendus. Il y a quelques années, Gérard Assayag a développé OMax un programme créant un musicien artificiel, reste plus prometteur (?) que les simples opérations logiques de l'interactivité usuelle : « si ça, alors ça ». Mais cette possibilité de l'informatique musicale reste encore rudimentaire.

Personnellement l'ordinateur me permet en ce moment :
1. d'enregistrer et de synthétiser des sons pour créer un instrument de musique virtuel (avec le sampler)
2. de former des orchestres virtuels (avec n'importe quel objet sonore) spatialisés dans l'espace 3D (rassemblé dans le sampler)
3. d'affecter les échelles nonoctaviantes découvertes à chaque instrument permettant une harmonie autre que celle des 12 1/2 tons divisant l'octave.
4. de disposer cet orchestre dans le multipiste en générant des rythmiques injouables ou difficilement jouables par le musicien humain (dextérité musculaire impossible).
5. de trancher la composition finalisée pour la jouer en concert comme plusieurs « momente form » superposables ou la composition elle-même devient un instrument de musique 3D jouée avec un sampler avec un clavier MIDI dont la musique est recomposée pendant le concert, jouée en temps réel (sans écran).
6. composer et mixer la musique de film (avec dialogues et bruitages) sans passer par le studio, puisque l'ordinateur fait office de studio.

Le tout sans musiciens : je peux tout faire par moi-même : du jeu instrumental jusqu'à l'album mixé et masterisé.

- Mais cela n'isole-t-il pas ?
- n'est-ce pas contraire à l'esprit de la musique ?

.

1990-2020

Le son numérique reste le son numérique : douçâtre (avec des clics).

La sonorité attachée aux machines enregistreuses est indéniable. La sonorité des outils et des instruments de musique dépend de 2 choses : de la culture et de la tendance. Notre culture occidentale favorise dans sa musique les basses (autour de 100Hz) qui demandent une grande énergie (puissance) pour être produites (contrairement à pratiquement toutes les autres musiques de la planète qui se reposent sur la partie sensible de l'audition localisée autour de 3kHz). Cette culture des basses fonde l'harmonie-tonale avec un son de base dit fondamental sur lequel s'accrochent les harmoniques : cette conception a formé le chant (sur les harmoniques) et l'accompagnement (la fondamentale pour la tonalité du chant : basse continue). Avec l'arrivée de l'énergie électrique et du haut-parleur, les basses n'arrêtent pas de s'amplifier et de s'approfondir. Notre tendance est d'obtenir « un son propre » (pas sale) à l'enregistrement et à la diffusion. Les magnétophones à bande de l'ère analogique produisaient du souffle que l'ère numérique ne produit plus, à la place, il produit des clics (échantillonnage oblige). Le « denoiseur » (le bruit en anglais est une dispute tapageuse en français, du latin « nausea » = mal de mer) est le premier effet attaché à l'informatique audio : en revanche, il produit un artefact qui ressemble à de l'eau : le son dans l'air (souffle) passe dans l'eau (glouglou). La production de grande puissance sonore pour entendre les basses a réégalisé le champ audible grave-medium-aigu (le fameux « loudness » des « chaînes Hifi » des années 70 du XXe siècle) : pour éviter l'agression sonore, il fallait baisser les médiums et les médiums aigus, là où tout le « grain du son » (sa texture) réside : la sonorité des équipements numériques est devenue douçâtre par excès de puissance et de « pureté » (retirer le sale, mais qu'est-ce qui est sale ?). La sonorité de l'Occident est directement liée à son désir de domination et de purification (loin du dégueu du dégoûté), base cosmogonique de notre civilisation. Notre génération de musiciens a réintroduit et généralisé « le sale » dans la musique : processus indispensable pour le rééquilibre mental de nos sociétés. Avec les équipements numériques, on se retrouve avec la standardisation, l'homogénéisation, l'uniformisation, la « normalisation » de la sonorité instaurée par l'idéologie des circuits électroniques des interfaces audio qui transforment les ondes électrifiées en nombres. La tendance audio est d'impressionner par les basses : le film Tremblement de Terre a introduit les infrabasses dans les cinémas en 1974 je crois qui aujourd'hui est banalisé avec les dispositifs THX ou Dolby Surround (avec l'infrabasse séparée dans un coin). Le projet numérique a renforcé la croyance de l'objet sonore : le son comme un objet qu'on dispose (le vibrant capturé, tout comme son signe écrit qui le re-présente) et non un agrégat vibrant en état changeant. Le fichier audio accentue cette croyance. Nous pouvons dire que l'esprit métrique réalise son grand projet dans le numérique, pour le contrôle (le gouvernement politique) de l'humanité avec des caractéristiques quantifiables et donc chiffrables est une illusion de domination. C'est une vision, une croyance et une culture qui a repoussé la musique à de l'ambiance sonore : le manque de médium qui rend toute vibration intelligible, désagréable agréable ou supportable, même à très grande puissance. L'intolérance développée utilisant des mots comme « dissonant » et « bruit » dans la conception même dépassée de la musique a obligé les créateurs de synthétiseurs « d'adoucir » la sonorité de leur machine : le bruit acceptable de l'audio chiffré. (le sampler kontakt sonne douçâtre). [7]

Dans l'idée de départ, le « son numérique » (les machines enregistreuses (comptables) et diffuseures) a été réalisé pour la « musique classique » : oui, pas pour la musique « contemporaine ». L'étendue dynamique du disque vinyle est de 40 dB qui avec le disque compact (12 cm au lieu de 33 avec 60 minutes au lieu de 2 x 20), le CD est passé à 90 dB. De l'inaudible à la douleur nous entendons dans une étendue dynamique de 120 dB environ qui dépend de la fréquence (la dynamique d'un son grave est moindre qu'un son médium aigu) et du contexte et de la croyance. Cette « avancée technologique » a donné au son une « identité + remarquable » (loudness pour + de basse et d'aigu (= moins de médium) et + de puissance que le mot anglais désigne). Ça a impressionné. Le revers de cette « avancée technologique » est le manque de présence du sonore dans la chaîne électroacoustique ; manque de présence : la sensation de fortissimo (fort) et pianissimo (faible) ne dépend pas uniquement de l'amplitude et de son champ dynamique. Pour refaire revenir la sonorité de la musique devant, là avec nous et non en fond sonore douçâtre, il n'y a pas d'autres moyens que d'abuser de compresseurs et de filtres pour rendre la présence retirée.

Le format d'archivage (archie = dominant)

de la musique enregistrée semble se fixer sur le disque dur même : en 30 ans nous sommes passé du vinyle au CD au mp3 et FLAC pour l'écoute « grand public ». Les cartes audio sont passées du NuBus au PCI généralisé pour toutes les plates-formes jusqu'au PCMCIA des portable et USB ou FireWire. Les disques durs à connectiques SCSI (Apple] de IDE au SATA (PC & Apple) plus la connectique externe Firewire (Apple puis PC) et USB (Apple et PC). Disquette 750Ko et 1.4Mo et « grosse disquette » 80 Mo sont obsolètes, le CD de données 700 Mo ou le DVD 4,5 Go deviennent obsolètes (les données « se perdent » rapidement) remplacés par USB Flash Memory ou clé USB qui passe de disque dur en disque dur, en fait remplacés par le disque dur lui-même. Les enregistrements studio sont passés des bandes magnétiques du magnétophone aux bandes numérique DAT (Digital Audio Tape) aux disques durs. Les formats PCM audio non compressés principaux heureusement n'ont pas changé AIFF pour Apple et Waves pour PC (bien que PC lit et enregistre en AIFF et que Apple peut enregistrer et lire en WAV), mais cela dépend des logiciels si les formats sont implantés ou non. Tout cela en à peine 30 ans.

Programmes-conteneurs ouverts

Il semble qu'à partir des années 2005, certaines équipes de programmeurs se soucient plus de faire évoluer leurs programmes informatiques musicaux vers l'interactivité de l'instrument de musique. Il existe un sampler (kontakt) et un looper (live) qui en ce moment ont la cote des musiciens-compositeurs. Ces programmes-conteneurs ont eu la bonne idée d'ouvrir leur programme aux musiciens programmeurs qui proposent des sous-programmes (avec script abordable) pour personnaliser leur instrument. Un programme fermé n'évolue pas et meurt par inutilité. Bien que Miller Puckette ait pris cette direction avec Max puis avec PureData, mais leur programmation demande un trop « gros effort » (de temps en +) supplémentaire que les compositeurs-musiciens déjà surchargés ne sont pas prêts à donner. Ce sont encore des programmes pour : « computer geek » pas pour musicien : le temps de la programmation ne peu pas dépasser le temps de la composition.

.

 

L'informatique musicale et le cinéma

L'informatique audio est véritablement conçue pour le cinéma (et le home cinéma) qui fournit toutes les standardisations comme le 5.1, inutile à la musique. Tout dans l'informatique multimédia est conçu pour joindre « le son à l'image ». Même les « jeux interactifs » initiés par un programme comme « Director » [6] n'ont pas résisté au règne du cinéma. La musique a le troisième rôle après l'image et la parole. Tout le dispositif de l'informatique musicale est conçu pour ce second rôle, de la musique dans le cinéma : accompagner l'image, la rendre « réaliste » par des artifices. Au cinéma plus un son est éloigné de la réalité plus il paraitra ou sera considéré comme vraisemblable par la « preuve » de l'image. Le bruitage ancien (foley et sound effect) intégré dans le « sound design » (esthétique utilitaire du son), ne copie pas « les sons de la nature », mais les recrée par numérisation. L'architecture même, de l'analyse de l'onde audible par de l'algorithme majeur FFT (fast Fourier transform) qui décompose une « vision » particulière de l'audible en simples oscillations (sinus), qui est le nommé « son », convient au second plan de la musique au cinéma. Le registre médium creusé de la musique laisse la place à la voix parlée. La musique numérique [7] pour le cinéma rejoint le « sound design » dans l'entremêlement de son intention : du « stéréotype utilitaire » de la représentation du pouvoir de la puissance politique de l'Occident américain.

...

 

ce texte est en anglais, car il concerne une + large communauté que celle francophone :
la globalisation planétaire informatique est une intension de culture anglophone

The End of Computer Music?

Something is deeply wrong with computer music

the unfinished possible...

The purpose of the nerd (a person educated as intellectual working in an office who does not know what to do with her/his life) is to never finish the work (to keep her/his job). Being in state of permanent updating of what is unfinished. But sold as it. Yes! Users are paying to use unfinished tools. A tool that creates problems in opposition of a tool to resolve problems. Let us make a comparison with food: imagine to be obliged to buy unfinished fruits and vegetables being unriped, eating them to not die of hunger, waiting being seek for the next upgrade? Until today, we are waiting almost 30 years for food to be riped. Something is wrong, isn't it?

With musical instrument, there is no upgrades or updates. The tool must be achieved, and useful to sound, and to sound various and deep. To be performed to create music. In opposition: a computer is always in a state of being upgraded and the programs updated stay never finished. Why? To keep alive the computer industry, to keep the nerd's activity, with no sense of life. Which has nothing to do with music, but with money.

Music with unfinished musical instrument does not work. Or works with unneeded unnecessary complications of the unfinished instrument. And computer music does not work without unnecessary complications: listenable in its mechanical digital synthesis sound. As others, musical programs are sold unfinished to wait and pay the update of what could be done, but never really do.

This conception of human activity, sustain the "paying society", a corruption, doing something else to do what you want to do, a society where you have to pay to be aloud to live (decently): a slavery society conducted by slaves sustain by salary: a pension any human deserves in "paying society".

But the computer and programs industry are in contradiction with the Internet network, which its foundation is: free sharing of knowledge between human beings: its first purpose now corrupted by property and payment making knowledge exchange not free or biased (by people convinced they know better than others). This huge amount of free corrupted knowledge in one hand and knowledge to be payed in second hand is the show of, of our believes which makes think we are intelligent: are we? to produce and maintain so much archives, and garbage by fear of death? This book will end with my death (in few years). Dead, I will not pay any more the host to aloud my web site public. My thoughts will be eaten and digest by others, and used or not to try to make human species less stupid to put itself and other living beings in danger (in domination by loosing selfgoverment).

But to access the network you have to pay a provider (+ the upgraded hardware equipment) which is in contradiction with the original free will being connected. But since the beginning we are connected electronically for what? Since the beginning of Internet my major activity is to send and receive emails: letters. Instantaneous videophone does not work yet to have non interrupted conversation, and people feel uncomfortable being seen in privacy. This technology is only useful for people far away from each other (same as telephone). Friends and family around, we do not need communication technology.

Is it useful to speak about the 2 abusive companies monopoly? At the next "global" starvation, they will be executed. By people supporting buying using their operating system and computers. Since the free operating system Linux in 1993, it does not exist free adapted computers to run it: means Linux as all others are supported the OS duopoly expenses. It never exists any OS for music.

Computer industry is in contradiction with music. Music share for free the sonic mankind gestures active being alive. Computer (with music) industry does not. The unfinished tools keep the computer industry profit real. From 1990s I bought 8 computers, 10 screens, 9 modems, 6 MIDI keyboards, scanners, tablets, printers, and too many softwares to update (forced by obsolescence) all garbage, since 1979 I have my same guitar. The amount of sold useless computer product goes beyond what was expected. Computer became the main tool of human activity and garbage. Everybody nowadays face a screen. I am writing this text with a computer I will publish with the an other connected computer in the Internet network in my website for you to read it, copy it, transform it. Trapped.

The permanent payment to upgrade to update what you already paid, and will pay again to keep it by paying the next upgrade update is a form of voluntary slavery which are exhausted and poisoned the unique and vital human resources of the Earth: water and food. Since the 90s of XX century, the amount of useless computers and peripherals garbage of electronic unfinished tools is absolutely huge compare to resources balance (what one needs as materials to do it). Useless electronic equipment (like cars and other) are stored in Africa (and India), where are living the most unrespected human being on Earth, in gigantic garbage storage where the pollution and illness of the worker are ignored by the international "well thinking" UNcommunity of richest countries users. The money benefit are so colossal that no information are communicate about this human scorn. Using a disposable computer (where the summit is the "laptop" defeated by the "iPad" and other "cellphone-computer-game-camera-walkman-tv" unrefurbishable because the updated programs ask for more powerful machine you need to buy if you want to use the updated software) contribute to small acts of Earth death multiplied by billion of users = killers. An irresponsible act to put our children in misery. The next generation will live starving in our garbages of useless electronic equipment which will collapse the network becoming secondary, and unnecessary. The utopia (the pipe dream) of unlimited cybernetics is living its beginning of its end, it's done: the consequences of brain and body pollution by planetary colossal garbage had started the misery of all species. By scorn.

Calculators has to restart an healthy proposal where nobody can take the power to slave anybody and to kill other species to get raw materials: plastic comes from petrol, and metal, gold, lithium, copper, etc., from mines. The series of wars in Afghanistan is to control their rich mines, nothing else. People being nerds will not die by making achieved programs tools to be full used. In contrary, it will stop the economical hegemony which kill our planet and ourselves being dependent to stay alive.

Computer's sounds sound as computer is what nobody expected. At the beginning. A series of clicks. Computer is a tool for (nowadays) film, a tool to record, to edit, to add effects, but not to play music. Its time is not real, its calculations are too simple. Bio+metrics does not work.

A musical instrument with age become better, a computer with age become obsolete. The amount of electronic equipment I acquired and paid, and clicks since 1990 is incomparable to what a musical instrument can give. One takes, the another gives. The computer industry (and all industry in general) is the perfect tool for an economic hegemonic dictatorship as we are living: a perfect tool to destroy our vital resources with the strong false belief of permanent abundance: which is not the state of eternal happiness and enjoyment.

The worst is: everybody knows, what I just say.

to make this text more understandable, some correction to suggest

download pdf 39Ko

Next episode: how to leave our stupidity?

 

2017

BILAN

 

En fait, ne suis-je pas déçu par ce que l'informatique n'apporte pas à la musique ?

01. jamais rien ne fonctionne comme on le conçoit
02. il y a toujours des pannes de fonctionnement
03. une configuration musicale intéressante plante la machine
04. il y a toujours des problèmes qui font que ça ne fonctionne pas
05. le temps passé à régler les problèmes est supérieur à la réalisation de la musique
06. les systèmes d'exploitation ne sont pas adaptés à la musique, mais à piéger le client
07. pour jouir d'une sonorité adéquate, il faut un équipement de sonorisation lourd
08. la dépense est sans fin
09. les logiciels ne sont jamais finis
10. la sonorité est homogénéisée et uniformisée (à revivifier obligatoirement en sortie d'interface avec de l'équipement analogique « vintage »)
11. l'assistance informatique renvoie à l'incompétence sans informatique ? oui
...

Ce que peu de monde sait, est pourquoi certains synthétiseurs et amplis analogiques sonnent (rien à voir avec les lampes) : c'est parce que leurs circuits électroniques assemblés sont illogiques (et les composants électroniques généreux). Mais ni l'illogisme ni le paradoxe n'est l'apanage de l'informatique, dans le cas contraire l'ordinateur ne fonctionnerait pas : la raison qui fait que ça ne sonne pas, réside là.

 

Comment sortir du piège ?

1. de l' « extension (mécaniques) des possibilités pour la création musicale »
2. du son numérique homogénéisé et uniformisé
3. de la standardisation de la musique
   (par des logiciels qui ne tiennent pas compte des besoins réels de la musique qui fondamentalement depuis 30 ans n'évoluent pas)
4. de l'activité ordinateur bureau qui a englobé les autres
5. de perdre son temps à des tracasseries supplémentaires (à reajuster des systèmes inadaptés)
6. de ne plus avoir les yeux douloureux et aveuglés après des heures obligées de travail
7. de ne plus alimenter les poubelles de matériels électroniques obsolètes
8. de ne plus être accroc
9. du long travail effacé par plantage et mort de disques durs
...

 

Implications

1. J.-C. Risset et tous les autres nerds perdent leur boulot et se retrouvent au chômage (la duperie a assez duré)
2. la « computer music » prend la place qu'elle aurait dû avoir depuis le début : un instrument comme un autre
3. l'utopie du monde automatisé et globalisé CYBERNETIQUE gouvernant les humains est révolue
4. condamner les milliardaires de l'informatique (et tous les autres) à réparer les dégâts qu'ils ont commis

   A. ofrrir le contexte de déconditionner nos enfants en leur rendant leur liberté (nous c'est trop tard)
      au monde électronique futile illusoire dangereux et bêtifiant
      en changeant fondamentalement notre régime de société
 d'industrialisation de la soumission, du servage et de la misère :
        0. abolition du pouvoir politique, financier, médical, judiciaire, policier, fonctionnaire, etc., et toute activité nuisible à soi et aux autres         
        0 => 1. abolition de la hiérarchie
        0 => 2. abolition de l'autorité
        0 => 3. abolition de l'obéissance
        0 => 4. abolition de la menace institutionnelle
        0 => 5. abolition de la ségrégation, de la discrimination et de la persécution
        6. dénormalisation de l'attitude attendu de l'être humain en société = développer son intelligence au lieu de la contrarier
        7. abolition de l'esclavage (quel qu'il soit : économique, politique (de la guerre) ou social) et de son contexte : la domination
        8. abolition du péage et de la carotte du salariat et instauration de la gratuité sans condition pour tous les humains bien sûr
        9. recomprendre le sens fondamental de la liberté pour la vivre et développer son intelligence pour le bénéfice de l'humanité
       10. celles et ceux tous responsables qui commettent des dégâts, réparent leurs dégâts : reresponsabilisation de ses actes envers les autres
        ...
   B. résoudre le problème de la poubelle électronique planétaire et le reste qui nous empoisonne et les autres habitants la planète
   ...

5. réaliser une machine calculante suffisante à l'usage : sans la carotte de l' « upgrade » (clone de l'idéologie économique du « toujours + »)
    (beaucoup trop de gens possèdent des machines trop puissantes pour l'usage qu'elles en font)
6. réaliser un système d'exploitation qui n'exploite pas l'usager (est-ce possible ? voir l'échec de Linux)

7. l'ordinateur est un calculateur visuillusionant pour humains qui s'ennuient : maintenant nous le savons.
...

Et il s'utilise en audio pour ce qu'il est : un magnétophone
(amélioré ?).

 

2018

Pratique / pas pratique ?

La musique informatique calculée par ordionateur

Ça a commencé avec des programmes de séquence

La suite Illiac (l'automate reste à la mode depuis le XVIIIe siècle a changé de nom pour cybernétique : aïe) en 1956 nous confirme qu'une composition musicale classique est une séquence mécanique (dans l'échelle de temps et l'échelle de hauteurs), après Pierre Barbaud et Iannis Xenakis qui au contraire utilisaient l'ordinateur comme le calculateur qu'il est (Xenakis a en + réalisé son synthétiseur UPIC d'ondes à dessiner -avec un peigne-). C'est à ce stade que va commencer le mélange de l'harmonie avec la synthèse sans qu'il existe aucune formation opératoire ni l'aide d'une théorie. Bien que Xenakis pose une amorce avec sa « musique stochastique » dessinée.

Pour prouver notre intelligence et notre liberté, nous devons transcender l'automate. les automatismes. le préaudible.

Puis avec des programmes de synthèse de sons

Xenakis a initié la synthèse granulaire à partir de son premier synthétiseur numérique UPIC qui permettait aussi de dessiner la partition (très en avance pour son temps). Initié aussi par Max Matthews avec Music I II III IV et V (synthèse additive numérique) qui a évolué vers Csound. UPIC par contre ne reste pas autant disponible et travaillé à son évolution autant que CSound, on se demande pourquoi ? Jean Claude Risset (l'un des premiers aussi) a conçu sa musique avec Music V : un son fondamental qui monte et ses harmoniques qui descendent en même temps, impossible autrement. A côté et plus tard, avec la première station disponible pour le particulier Mac+Digidesign (fin des années 80 début 90). On a Turbosynth : le train d'ondes à dessiner mélangeable avec un train de samples. Puis arrive Metasynth : ça se complique dans la peinture électronique pour faire du son ; le son devient douçâtre, et il continue en 2014 contre 300$ (pour Mac uniquement). Les programmes de synthétiseurs prolifèrent, mais les synthèses restent restreintes à 4 : additive, granulaire, modulation de fréquence et par modélisation. Et surtout à reproduire les sonorités analogiques des instruments de musique du passé...

Synthétiseur numérique en différé :

1. calculer un son
2. s'il convient, l'enregistrer (en le nommant)
3. continuer
4. avec une collection suffisante de sons synthétisés (calculés) on les assemble dans un arrangement dans un multipiste (les premiers multipistes numériques avait 4 pistes) et on les mixe,
5. une fois fini, on dispose d'un morceau de musique apprécié ou pas.

Ça, c'est la musique électroacoustique, et ça me fait rire ! parfois moins : la musique dans ce contexte est une audition de sons capturés et disposés. Le problème est là : l'enregistré ne vit pas : c'est une mémoire inamovible. Cette procédure d'enregistrement au magnétophone analogique puis d'objetification d'un fichier informatique a alimenté la croyance du son en tant qu' « objet sonore » dont Pierre Schaeffer composa même un traité. Ou un renforcement de la mémoire de ramener le passé au présent. L'objet sonore de la musique concrète est l'objet vibré enregistré et non le son-objet fiché et stéréotypé d'aujourd'hui.

LE PROBLEME MAJEUR DE LA MUSIQUE PAR ORDINATEUR EST LE TEMPS DIFFERRÉ

Je préfère jouer la vibration dans l'instant. L'objet sonorisé.
Ça a donné entre autres la musique de la lampe archisonique : la lampe d'architecte (anglepoise lamp) instrument de musique.
L'informatique travaille toujours en temps différé, jamais dans l'instant.

Ce que je fais d'audio avec les ordinateurs :
1. je synthétise ou je capture un son (j'adore la sonorité primaire du [vieux ?] Turbosynth qui colle aux membranes des haut-parleurs !)
2. s'il convient, je l'enregistre
3. si c'est sur Mac je le passe sur PC dans lequel j'ai un sampler
4. je joue le son calculé au sampler (clavier) avec divers attributs jouables (échelles nonoctaviantes comprises)
5. s'il convient au jeu instrumental, je l'enregistre dans mon orchestre d'instruments (virtuels)
6. ça n'est pas systématique
7. j'essaye de tout jouer sans mécaniser (qui efface l'humanité)

 

 

LE PROBLEME MAJEUR DE LA MUSIQUE ELECTRONIQUE & INFORMATIQUE
EST QUE SES INSTRUMENTS NE VIBRENT PAS, ILS SONT DETACHES DU CORPS.
IL FAUT POUR CELA UNE PUISSANTE SONORISATION POUR VIBRER AVEC LA MUSIQUE.

 

 

On peut

. On peut enregistrer en (presque) temps réel (12 ms de latence de délai (512 samples de buffer, mémoire tampon -moins pour les + fortunés-)).
. On peut désactiver la grille temporelle (grid) du multipiste-séquenceur et éviter d'effacer son jeu instrumental en procédant un « Quantize » : une quantification temporelle, ou + précisément : une reposition des apparitions sonores de son jeu instrumental dans une horloge aux durées équidistantes (grid). Ce qui donne le côté mécanique inhumain de la musique séquencée qui a donné la « techno » musique électronique à danser sans arrêt dans le rythme inflexible et immuable de la machine pour une « transe dans l'éternité de la liberté infinie ». Finalement, avec toute cette technologie « pour » la musique, la « populaire » s'en sort mieux que la « savante ». Le problème de la musique savante dominante (pas la mienne qui est transgenre) est qu'elle fait le contraire de ce qu'il faut faire pour la musique.
. On peut mélanger les programmes audio (il vaut mieux).
.
...

On ne peut pas

. On ne peut pas faire ce qui n'est pas programmé. Le programme ordonne une seule méthode, la sienne. Ou, il faut pour sa propre créativité, déployer une ingéniosité perspicace pour détourner le programme de son idéologie première. C'est pour ça qu'il est recommandable d'utiliser plusieurs programmes combinés, car s'en tenir à 1 seul multiplie l'idéologie du programmeur qu'il a instaurée dans son programme.
. On ne peut pas ne pas avoir avec le son : des clics numériques.
. On ne peut pas obtenir d'aigus non sous-échantillonnés (voir schéma ci-dessus).
. On ne peut pas ne pas être envahi par l'excès de graves sur-échantillonnés (voir schéma ci-dessus).
.
...

 

 

2018

Des esclaves dans le monde du son en-registré ?

"In the digital world, all devices are either the ‘Master’ (clock source) or a ‘Slave’ synchronized to the master. If several digital devices are to be used simultaneously in a system, they not only have to operate with the same sample frequency but also be synchronous with each other. This is why digital systems always need a single device defined as ‘master’, which sends the same clock signal to all the other (‘slave’) devices." Un constructeur leader d'interface audio-numérique professionelle

L'idée du champ ouvert (où les êtres se disposent librement d'eux-mêmes)
ne s'impose pas dans les états d'esprit constructeurs d'architectures techniques

Comme tous les milieux, celui de l'audio-numérique est formé ou déformé par une idéologie (= une opinion d'esprit qui ne se pense pas et s'agit par les autres : « moi je fais où on me dit de faire » sic). L'idéologie audio-numérique (qui est au service de l'audio-visuel et de la musique ensuite par pitié) est gouvernée par la conviction de la synchronicité. Qu'est-ce que la synchronicité ? L’idéologie de la synchronicité, c'est, avec le l'idée du progrès (techno-logique), réduire le temps multiple à 1 temps unique sur lequel toutes les différences s'accordent pour se disposer en même temps au même moment, voire dans le même temps différé (même court). (Disposition qui force, qui oblige de punir pour son retard). L'audio de la musique, comme les autres, n'es pas libre. D'abord du son synchronisé à l'image, puis de la synchronicité entre les différentes machines et enfin la synchronicité dans le débit numérique des différents programmes. Synchrone, c'est avoir la MÊME allure, vitesse, fréquence, période, en même temps, au même moment, au même départ, à la même arrivée : pour les êtres vivants et les machines. On voit la course à pied en compétition au départ synchrone, mais aux vitesses de courses différentes (eh oui, dans le jeu de la compète, il n'y a qu'1 vain-coeur, rarement des ex aequo [8], et jamais 3 gagnants en même temps = la différence dans l'assimilarisation). Pour obtenir cette synchronicité, pour que cette synchronicité fonctionne (dans l'état d'esprit de ce qu'elle représente à chacune et chacun), c'est-à-dire : « l'ordre du temps » ou « le temps rigoureusement ordonné » (les ordinateurs [9] pas les calculateurs ou les compteurs computent pour compter) sans hasard, ni surprise de l'instant ou, la suppression de l'instant infini (les temps entre les temps sont aussi infinis que l'éternité de la dure durée) remplacé par un « clic » ordonnateur, le sens commun s'est accordé sur la conviction d'une organisation (propre = gouvernable) nécessaire (?) des différences temporelles (sachant que tout est relatif selon chaque contexte, oui sachant que la relativité est générale) de chacune et chacun en appliquant une relation unique de domination qui ne se réalise pas sans soumission. L'idée maîtresse du maître unique qui gouverne les esclaves multiples. Mais dans le monde de la musique, la synchronicité affadit la musique.

Nous comprenons qu'être synchrone abolit les temps infinis des instants différents imbriqués les uns dans les autres

Le monde audio-numérique de l'audio-visuel est peuplé d'esclaves. Où 1 seul Dieu maître unique cloque (pas la boursouflure), mais le clic du clock (ou le tic tac de l'horloge numérique qui clique [10] au son du cloc qui bloc le clic). Dans le monde audio-numérique, il n'y a qu'1 seul maître. L'horloge unique établit institue l'allure maître maîtrisée à la mesure exacte sur laquelle les autres aux allures différentes doivent se régler et sont mécanisés. Cette loi instaurée par les hommes (= complexité organique incomprise) fait que si elle n'est pas obéie, le résultat, la conséquence est qu'il n'y a aucun son d'audible, qu'un son brouillé d'une bouillie numérique constante uniforme « brouillant le signal », + : détruisant l'onde originale audible émise.

Cette idéologie est généralisée et, il n'y a aucun moyen de la contourner ; que ne pas utiliser la technologie audio-numérique asservie, contre la musique. Ce qui en soi est un paradoxe baignant dans le flux de l'idée du progrès : de la progression de l'intelligence de l'humanité (pas le vice de l'asservissement des humains aux machines). De ce fameux progrès dont l'humanité s'enorgueillit. En effet, comment peut-on s'enorgueillir de l'esclave, même de son idée appliquée aux machines de la cybernétique ? Toute la musique produite par la technologie audio-numérique est dominée par cette idéologie du maître gouvernant ses esclaves. Du maître image aux esclaves audio. Du temps compté de l'horloge unique du maître appliqué aux esclaves multiples. De la gamme (échelle de 12 1/2 tons égalisés) unique pour tout.

Le temps est décompté et l'espace ?

L'espace numérique n'est pas épargné non plus. Toutes les machines audio-numériques (conçues pour l'audio-visuel, pas pour la musique) formatent l'espace : forme à déformer la perception spatiale de l'audible dans le contexte de la surface terrestre (géophonique) : le champ libre de notre contexte de vie. Dans le monde de l'audio-visuel, le spectateur-auditeur est assiégé au centre. L'écouteur = l'auditeur, l'écoutrice = l'auditrice n'ont pas le choix, dans l'état d'esprit des concepteurs d'équipements, que de « rester assis » au milieu dans le siège des enceintes. D'abord dans le champ triangulaire exact des 2 haut-parleurs de la stéréo, puis dans le monde du « surround ». L'auditeur est fixé, assiégé à un siège, au centre pour consommer l'encerclement du « surround » (dans le noir des salles de cinéma). Avec la naissance de la scène frontale au XVIIe siècle, ça fait 4 siècles que le spectateur est dans le noir [11]. Si ça dure, c'est que ça le réjouit. Qu'est-ce alors qui le réjouit à voir sans être vu, soi invisible dans le noir ? Dans le noir, le transfert du voyeur est facilité à vivre dans le corps des comédiennes et des comédiens du film. L'espace tridimensionnel est réduit à un encerclement plan, le spectateur n'a pas la possibilité d'être là, là-bas, en haut, en dessous, à droite, à gauche, plus loin ou dedans. L'assiègement du spectateur est la conséquence de l'écran qu'il regarde. Mobile, il ne verra rien. L'auditeur de la musique spatiale est libre de se déplacer, car les champs de spatialisation sont hétérogènes : ici ça ne sonne pas pareil que là-bas. L'idéologie du « surround » (5.1, 7.1) homogénéise l'espace dans le plan plat : les dialogues en face en monophonie, la musique en stéréo et les effets spéciaux en quadriphonie. Pour la musique spatiale, cette disposition est très réductrice. Dans le monde de la musique classique, l'auditeur a la même place que le spectateur depuis l'instauration de la scène à l'italienne frontale au XVIIe siècle. Les fauteuils sont fixés et numérotés vers la même direction frontale, exactement comme la disposition des chaises dans une salle de classe à l'école pour écouter en silence le maître ou la maîtresse qui dicte où il est interdit de parler et de bouger (= l'instauration de la discipline).

Sans liberté, pas de développement de l'intelligence ni de la sensibilité

Ce que j'essaye de démontrer à travers ces faits banalisés, est comment une idéologie peut déformer (réduire) un monde vaste de possibles en 1 seule formation pour tous. Comment les états d'esprit sont gouvernés dans la seule direction imposée tenue par la technologie (même, surtout du divertissement, où on ne se méfie pas). Les machines gouvernantes (telle l'institution) est l'idéal qui s'impose quand les êtres humains veulent se déresponsabiliser de leurs actes = la volonté de vivre une vie en soumission, au lieu de vivre et de décider par soi-même, de se gouverner soi-même à respecter les autres ; de vivre libre. Si la majorité des êtres humains vivent soumis, sans vouloir penser par eux-mêmes (= résoudre les problèmes par eux-mêmes), c'est qu'ils confondent confort et possession (à être possédé par la volonté d'un autre, n'est pas un confort, mais une domination). Si nous musiciens libres comprenons, c'est que l'état d'esprit de notre civilisation se dévoile dans sa musique. Et restreindre les possibles de la musique signifie que nous vivons un état de dictature (voulu et approuvé par la majorité). Mais la musique pour se développer ne peut pas se passer de la liberté.

Le monde informatique des machines audio-numériques est un monde asservi à l'unité différée.

 

 

2018

The problem of AI in music composition? AI cannot invents anything unknown.
LE problème de l'intelligence artificielle
[12] dans la création musicale ? IA ne peut rien inventer d'inconnu.

Déjà, dans l'idée de la séquence (du séquenceur numérique = partition du temps et de l'ensemble) il s'agit de poser une suite d'objets visuels sonores immuables lus à la suite dans la synchronicité de l'horloge de l'ordinateur. La séquence, en effet, demeure immuable basée sur ce qui est connu et séquençable (des bouts de sons enregistrés pour un morceau) : elle n'invente rien, elle se fait disposer ses objets sons dans son milieu séquencé. La disposition n'est pas la composition. Composer la musique, ce n'est pas disposer des objets (ce qui est pourtant cru, au vu des définitions des dictionnaires) en séquence ou autres. L'esprit des objets reconnus reconnaissables et en disposer dans une séquence fixée est une pratique orientée (par une croyance convaincue), une pratique orientée vendue par le commerce des services à la clientèle : dedans l'ordre. En effet, une indépendance de décision, pour choisir entre n objets, doit d'abord mémoriser les objets à choisir, pour les disposer (les utiliser). Un objet non enregistré est un objet inexistant, et donc, indisposable, et donc incomposable, et donc, invendable. Un objet non-enregistré est un objet inappropriable. Dans la réalité de la création musicale, « ses objets » (qui ne peuvent pas être des objets) sont inconnus jusqu'à leur audition finale du concert (voire, bien après). La musique ne devient un objet, un mémorisable vendable pour le commerce qu'une fois enregistrée. Un vibrant « enfermé dans une boite », qui est répétable indéfiniment exactement pareil : appropriable pour être vendu. Là, nous faisons la différence entre « un morceau » (vendu) et la musique ; ou, entre de l'audible consommable (acheté, rangé, classé) et l'inattendu inentendu qui surprend la sensibilité et l'intelligence ; ce qu'une machine ne pourra jamais réaliser (même avec tous les programmes de calculs aléatoires pouvant s'adapter à différents contextes), car la machine ne peut agir que ce que l'humain a déjà digéré, pas ce qu'il ne sait pas. L'infini est incalculable, une machine, AI ou pas, est une calculatrice, elle ne peut agir (calculer) que dans un champ fini : le champ calculable, l'être humain agit en permanence au-delà (ne serait-ce que par incohérence).

Quelle est la différence entre coder et écrire de la musique ?
Personnellement aucune ; coder c'est écrire et écrire c'est encoder (lire c'est décoder).

Ce qu'annonce le cofondateur d'Amper (programme AI générateur de musique automatique) disant « It’s more of intelligence augmentation. We can facilitate your creative process (...) » (Il s'agit plus d'augmentation de l'intelligence [humaine]. On peut faciliter votre processus de créativité [avec Amper]...) est une contradiction de vendeur, car à faciliter, l'intelligence ne peut pas se développer (l'intelligence à résoudre des problèmes et à imaginer l'inimaginable). L'utilisateur se (re)trouve être le jouet du programme, AI ou pas, qui lui permet de jouer, dans ses limites infranchissables = son domaine programmé avec ce qui lui est donné (as programmable data), c'est à dire, qu'avec le programme, il n'y a aucune possibilité d'inventer (avec des éléments extérieurs au programme), ou dans un champ très réduit (celui de mélanger un grand nombre de programmes incompatibles). La créativité se situe dans le détournement du programme. L'invention véritable passe toujours par la difficulté (un nombre permanent de difficultés à résoudre) d'une vie de recherche et d'expérimentation et de découverte(s). Une machine, AI ou pas, aura toujours un métro de retard, car avant d'agir, elle doit enregistrer, ce dont l'être humain créateur peut se passer, car il peut agir créer de l'inouï directement dans et avec le flux vibratoire. L'être humain créateur est producteur de différences, les machines sont productrices de copies. Croire la machine intelligente, revient à constater la dégradation de son intelligence, ce, sans en prendre conscience. C'est cette inconscience (bêtise ?) qui génère et aggrave notre médiocratie sociale jusqu'à dégénérer dans l'idiocratie individuelle. Ce croire intelligent est la première forme de la bêtise. AI sert à remplir le vide des idiots terrorisés. Où, au moins, la robotique a une fonction sociale : celle de conforter les imbéciles à acheter (leur croyance).

Some examples:
. Jukedeck? You have to pay before listening...: "we can give people the tools to personalise the music they need" (sic). It then takes about 20 seconds for the track to be created. When it's finished, simply click the play button to have a listen!" (sic).
. AIVA? from "vaguely similar" to "very similar" with the "similarity slider" (sic) is the only humain choice.
. Quelques autres ? Des startups dont. L'argument de sonoriser automatiquement les 400 heures de vidéo amateur téléchargées par minutes sur Youtube. L'argument de ne pas payer les (royalties, droits d'auteur) compositeurs à utiliser leurs musiques. L'argument de la musique Muzak (fade et pas déplaisante = easy listening) à 7$ le morceau (moins cher qu'un droit d'auteur ?). Etc. Des arguments de vente, pas d'AI. Le synthétiseur de Google est une copie de l'éditeur de synthétiseur Synthwork sur Atari (en particulier le contrôle quadratique de 4 sons du SY/TG77/99 Yamaha (le dernier modèle hardware à synthèse FM) sur Atari). D'autres, une copie d'OMax, l'ordinateur improvisateur (qui remplace le groupe de musiciens) de Gérard Assayag. Etc. Rien de nouveau ni de différent.

 

 

Notes
[1] compositeur informaticien né en 1938 qui a assisté Max Matthews aux Bell Laboratories et y composa sa pièce Mutation de 10:30 en 1969 qui démontra les paradoxes de l'audition tels que : un son qui monte ou descend indéfiniment, etc. Jean-Claude Risset est devenu « l'autorité » de l'informatique musicale institutionnelle en France (fonctionnaire de l'Etat).
[2] Bob Ostertag - Why Computer Music Sucks, originally published in published in LMC, Texts on Improvised and Experimental Music from Resonance Magazine. Volume 5 Number 1. Now readable at his web site http://www.bobostertag.com/index.php
[3] J. M. Chowning. The Simulation of Moving Sound Sources. J. Audio Eng. Soc.19,2-6,1971. .pdf 112 Ko
[4] A la fin des années 80 quand Roland a sorti son spatialisateur binaural RSS 100, deux musiciens en France étaient intéressés : Vangelis et moi-même, mais le prix demandé de 100 000 francs français (~ + de 30 000 € d'aujourd'hui base SMIC) par les commerciaux de Roland, était pour nous inaccessible (même pour Vangelis) au prorata du service rendu de la machine. Aujourd'hui l'effet binaural est devenu obsolète.
[5] L'expérience consiste à enregistrer un bouquet d'herbes sèches secouées dont les nombreux partiels « montent très haut » dans l'aigu du spectre sonore. Pour dénaturer le son numérisé, il suffit d'appliquer une « normalisation » (sic) : une amplitude-bit de l'onde à zéro décibel.
[6] de chez Macromedia racheté par Adobe, mais Director ne fait plus partie des collections multimédia Adobe si mais reste cher.
[7] en 40 ans, le registre médium de la musique amplifiée c'est retiré au prorata des infra basses (boum) et des aigus (tss). Pour laisser la place au message de la parole. Une autre raison de soumettre la musique, à celle de la parole autant qu'à celle de l'image : retour à la domination qui jusqu'au XVe siècle était sous le joug de la parole biblique de l'Eglise chrétienne, voire après. 500 après, à coup de domination numérique, elle retourne à sa servitude : la musique libérée doit terroriser les gouvernants ; oui, parce qu'elle ne signifie pas (ne ment pas), elle sublime uniquement par le gouvernement de soi parmi les autres et non par le gouvernement des autres par un soi dominant : ça, ça marche pas. Le chef d'orchestre est une mise en scène qui ne sert à rien qu'à rassurer le dominant de sa société à l'image du pouvoir faussé.
[8] « du latin “ex aequo” signifiant : à égalité. Décomposable en : “ex” = à partir de, et “aequo”, ablatif de “aequus” = égalité ; du latin classique “aequus” = uni, au sens de plan. » Antidote. Notons que dans le jeu de nos sociétés nous confondons égalité avec assimilarisation = rendre les différences semblables.
[9] mot formé par les ingénieurs de IBM France.
[10] le son numérique cohabite avec des clics numériques audibles qui sont le cauchemar de l'ingénieur du son à les traquer pour les effacer à l'audition. Un clic numérique s'efface en « redessinant l'onde » à l'écran !
[11] « Le théâtre à l'italienne substitue au modèle sphérique antique une conception cubique de la scène, qui coupe le spectateur de la représentation » La rousse. Modèle toujours dominant dans les architectures destinées au concert et au spectacle au XXIe sècle. La « vision frontale » est l'argument de la tête fixe et, de la perspective inventée 1 siècle avant les premières scène à l'italienne frontale. « Désormais, le spectateur est placé DEVANT le spectacle et n'entoure plus l'aire de jeu comme c'était le cas chez les Grecs et au Moyen Âge ». La vision frontale du spectacle reste reine 1/2 millénaire, jusque dans le cinéma contemporain (qui est l'opéra d'aujourd'hui, bien que sa musique soit galvaudée au rang d'une « bande-son » d'un fond sonore). C'est cette vision frontale gardée dans le cinéma qui provoque l'encerclement du spectateur dans le noir (Jean-Jacques Rousseau condamnait, dans sa Lettre à d'Alembert (1757), le lieu théâtral qui enferme « tristement un petit nombre de gens dans un antre obscur » où ils demeurent « craintifs et immobiles dans le silence et l'inaction » et où le film d'horreur prendra logiquement sa place pour terroriser « les craintifs » qui en redemandent. La rousse et moi). La perspective du XVe siècle est ce qui est aujourd'hui nommé 3D : pour rentrer dans l'image numérique animée des jeux vidéos. Pareil avec les lunettes rouge/vert, il s'agit de perspective (stéréoscopique), pas de tridimensionnalité.
[12] Computer music started with The Illiac Suite. First score composed by a computer. Then Pierre Barbaud, and Iannis Xenakis using stochastic algorithm to compose orchestral and instrumental (corrected) music. I met artificial intelligence in the 70s with Patrick Greussey* who invents Intelgreu** a computer language for musician.
* Directeur du Laboratoire d'intelligence artificielle de Saint-Denis (LIASD). Professeur d'informatique musicale. Compositeur et musicien. Co-fondateur en 1969 du Groupe Arts et Informatique de Vincennes (GAIV) dans le cadre du Département d'Informatique de l'Université de Paris VIII à Vincennes dont il fut directeur.
** langage conversationnel élaboré par Patrick Greussay pour les musiciens.
http://www.artinfo-musinfo.org/scans/aimi/aimi27p4.pdf
https://www.jstor.org/stable/3679797?seq=1#page_scan_tab_contents
http://www.artinfo-musinfo.org/scans/docs/nonNumeriquef.pdf
http://www.artinfo-musinfo.org/scans/aimi/aimi22p2.pdf
Rapport de recherche en Intelligence Artificielle, Université Paris 8, 1974-1975
http://www.artinfo-musinfo.org/fr/issues/vlisp/Rapport1974-1975.html

Bibliographie
Curtis Road, the Computer Music Tutorial, MIT press 1996 (plus de 1000 pages d'un panorama de la Computer Music)
John M. Chowning, The Simulation of Moving Sound Sources. J. Audio Eng. Soc.19,2-6,1971.
Bob Ostertag, Creative Life (music, politics, people, and machines), 2009 university of Illinois press.

Programmes
http://ccrma.stanford.edu/planetccrma/software/soundapps.html

 

les formats audio numériques

re tour à la table des matières