Date de publication
5 avril 2024
modifié le

Musique et IA : une partition injouable ?

L’année 2023 fut marquée par une couverture médiatique considérable autour de l’IA, avec notamment l’arrivée de ChatGPT, Midjourney, et en musique, les deepfakes musicaux, et autres AI covers.

Image floue d'instruments et d'ordinateurs utilisés lors de création de musique
Légende

De quelle façon l’IA peut-elle bouleverser le monde de la création musicale ? Paul JF Fleury. Image générée avec DALL·E 2 et Stable Diffusion., Fourni par l'auteur

La chanson « Heart on My Sleeve » en est l’exemple le plus retentissant, puisqu’on y entend Drake et The Weeknd, sans qu’aucun des deux ne l’ait enregistré. Leurs voix ont en effet été imitées grâce à l’IA, avec une précision qu’on aurait du mal à différencier des originales. La qualité du morceau, la popularité des deux artistes et la bulle médiatique autour de l’IA l’ont rendu viral très rapidement avant qu’il ne soit retiré des plates-formes de streaming.

« Heart on My Sleeve », Ghostwriter (2023)
D’aucuns y voient un signe avant-coureur des problèmes soulevés lorsqu’une innovation technique se développe de manière erratique, sans que le droit nécessaire pour réglementer son usage ne soit en place. D’autres perçoivent les débuts d’une transformation sans précédent de tous les aspects du fait musical : sa pratique, sa production, sa consommation, son économie, ses univers sociaux et son esthétique.

Une pratique de plus en plus accessible

La pratique de l’IA musicale, issue de la recherche en informatique musicale, est depuis les années 2010 rendue de plus en plus accessible. Des start-up se sont emparées de la recherche pour développer des outils de composition automatique, et les diffuser sur le marché. Les GAFAM ne tardent pas à suivre, avec Google qui développe sa suite d’outils baptisée Magenta, puis MusicLM, un text-to-audio similaire à MusicGen développé par Meta. Ces applications permettent de générer des fichiers audio de musique sur la base de prompts, à la manière de Midjourney ou DALL-E.

Les outils actuels s’inscrivent dans la continuité du virage numérique et rendent la production musicale plus accessible, mais subsiste encore le problème de la boîte noire : leur fonctionnement reste encore pour le grand public un mystère. Bernard Stiegler pointait du doigt la prolétarisation des savoirs numériques, et la musique par IA n’est en cela pas en reste : la majorité des utilisateurs de ces outils ne savent pas comment ils sont conçus.

Musique symbolique et génération audio

D’un point de vue purement technique, on distingue deux domaines dans l’IA musicale, la génération de musique symbolique et la génération audio. La génération symbolique permet de générer des partitions musicales ou des séquences de notes. Par exemple, DeepBach permet de générer automatiquement des chorals de Bach. La génération audio permet de générer de la musique directement sous forme de fichier audio, comme avec les text-to-audio Stable Audio ou Riffusion. Dans les deux cas, l’approche la plus généralisée est l’utilisation de techniques basées sur les réseaux de neurones profonds.

L’application de la génération audio est large : création de musique, synthèse vocale, suppression du bruit, ou encore restauration audio. Grâce à ces techniques, les Beatles ont pu exploiter la voix du défunt John Lennon pour terminer leur dernière chanson. Jusqu’à présent, la qualité de l’enregistrement de Lennon était trop mauvaise pour être utilisée. Les techniques de séparation audio ont permis d’extraire la voix des bruits parasites.

Quelles conséquences pour le secteur musical ?

Que dire de la transformation de l’économie de la production musicale ? Est-ce qu’avec le développement d’entreprises proposant la fabrication automatisée sur mesure de musique, la place des musiciens est menacée ? En effet, grâce à la portabilité croissante et à l’accessibilité des technologies, il est de plus en plus facile de produire de la musique de qualité professionnelle. Aujourd’hui, les utilisateurs de l’application Boomy, par exemple, peuvent sélectionner quelques paramètres et générer en quelques secondes un instrumental qu’ils peuvent ensuite réarranger, remanier ou sur lequel ils peuvent enregistrer une voix. L’application SongStarter de BandLab peut quant à elle générer un morceau à partir de paroles et d’émojis.

La composition automatisée et facilitée par l’IA va engendrer un afflux massif de musique très rapidement, et les professionnels de l’industrie de la musique s’en inquiètent. Notamment lorsque des analystes financiers prédisent une dilution des parts de marché. La génération personnalisée de musique en temps réel, proposée par certaines start-up, est déjà à l’œuvre dans l’industrie du jeu vidéo ou encore de la relaxation.

Par ailleurs, la synthèse vocale par IA est déjà utilisée par les auteurs professionnels pour placer leurs productions auprès d’artistes de grande envergure. La pratique déjà courante était d’engager des interprètes imitant la voix de gros artistes pour leur vendre une chanson. Aujourd’hui, les maisons de disque se servent de l’IA pour montrer aux artistes-stars ce que donnerait la chanson avec leur propre voix posée dessus. C’était d’ailleurs ce à quoi était destinée au départ « Heart on My Sleeve ». Enfin, la séparation des sources permettrait aux maisons de disques détenant des albums ayant été enregistrés avant le mixage multi-pistes de vendre les parties individuelles d’un morceau, d’une voix chantée ou des parties uniquement instrumentales, pour le cinéma ou la publicité par exemple.

Des enjeux juridiques

Les enjeux juridiques liés à l’IA musicale sont des questions de propriété intellectuelle. La question du droit d’auteur relatif à l’IA se joue à deux niveaux. Les bases de données servant à nourrir les algorithmes peuvent-elles être des œuvres protégées par le droit d’auteur ? Peut-on considérer le résultat obtenu comme une œuvre de l’esprit ?

Les juristes répondent que le droit de la propriété intellectuelle protège des réalisations de formes mais pas un style ou une manière de créer. Ainsi, l’IA se contente d’emprunter le style sans jamais retenir la forme d’une œuvre, elle déconstruit le contenu pour en extraire les tendances, et les reconstruire. Pour ce qui est de ces questions, les institutions prennent les devants, comme la Sacem en 2019, qui a reconnu officiellement AIVA, un programme d’IA musicale, comme compositrice de l’album Genesis.

AIVA : Symphonic Fantasy in a minor, Op.21, “Genesis”

Le droit semble ne s’emparer que maintenant de ces questions. Universal Music Group et d’autres sociétés musicales poursuivent une plate-forme d’intelligence artificielle appelée Anthropic PBC pour avoir utilisé des paroles de chansons protégées par le droit d’auteur pour « entraîner » son logiciel. Il s’agit du premier procès important dans ce qui devrait être une bataille juridique clé sur l’avenir de l’intelligence artificielle musicale.

Dans le même ordre d’idées, un projet de loi intitulé « No Fakes Act » a été déposé au Sénat américain. Il vise à empêcher la création de « répliques numériques » de l’image, de la voix ou de la ressemblance visuelle d’un artiste sans son autorisation. La plate-forme YouTube a annoncé peu après qu’elle donnerait aux labels la possibilité de supprimer les contenus « synthétiques », tout en exigeant des créateurs de AI covers qu’ils signalent leurs contrefaçons.

L’IFPI (International Federation of the Phonographic Industry) a interrogé 43 000 personnes dans 26 pays et est parvenue à la conclusion que 76 % des personnes interrogées « estiment que la musique ou les voix d’un artiste ne devraient pas être utilisées ou ingérées par l’IA sans autorisation », et 74 % pensent que « l’IA ne devrait pas être utilisée pour cloner ou usurper l’identité d’un artiste sans autorisation ».

Imitation ou création ?

Quelle valeur esthétique peut-on accorder à la musique créée par IA ? Les œuvres musicales créées par IA sont les témoins de l’usage de techniques d’apprentissage automatiques fonctionnant par l’exploitation de volumes importants de données. Ces œuvres sont donc indissociables des jeux de données qui ont servi à leur fabrication.

Dans la lignée des œuvres musicales utilisant l’emprunt, la citation ou bien les samples, il faut considérer la dimension réinterprétative, réadaptative, voire même imitative de la musique générée par IA. Dans la continuité de la rétromanie, décrite par Simon Reynolds pour décrire la constante réinterprétation des codes de la musique passée dans la production contemporaine, l’IA permet de rendre cette réinjection du passé beaucoup plus réaliste. En témoigne cette dernière chanson des Beatles utilisant la voix du défunt John Lennon, enregistrée des décennies auparavant. C’est le concept d’hantologie, développé par Derrida et repris par Mark Fisher, qui résonne à travers ces morceaux faisant revenir le passé dans le présent.

Mais comment une œuvre fabriquée par un outil qui reproduit, imite, peut-elle être originale ? Si elle ne se contente que d’imiter, on peut tout au plus saluer la fidélité avec laquelle elle imite, ainsi que son caractère innovant. Si la fin de l’originalité et de l’expressivité musicale est souvent crainte, l’on répond qu’en effet, ces notions doivent être remises en question. Il s’agit simplement de placer l’originalité ailleurs dans le processus créatif. Des artistes comme Oneothrix Point Never ou Holly Herndon s’emparent de ces techniques avec une distance critique, comme de vrais moyens de servir leur subjectivité, pour proposer des œuvres singulières à l’expressivité émotionnelle forte.The Conversation

AI is changing music forever | Holly Herndon and Mat Dryhurst
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

    Dans la même série

    51 articles
    v-aegirprod-1