Entretien avec Aārp, Compositeur de Musique Electronique

(fait le 30 Avril 2021, par Ellen Moysan, skype Paris/Heidelberg)

photo5796225977506969494

 

Interviewer : Ellen Moysan

Interviewee : Aārp

***

https://aarp.bandcamp.com/music

***

EM : Qu’est-ce que tu donnerais comme définition du chant intérieur, et qu’est-ce que tu pourrais proposer comme autre définition si celle-ci ne convient pas ?

Aārp : Je pense que le chant intérieur c’est la voix que l’on a à l’intérieur de soi qui va ensuite être traduite par l’instrument dans le monde réel.

EM : Mais toi tu n’as pas vraiment UN instrument, non ?

Aārp : Oui justement, je pense que c’est un contenu mélodique avec un enchaînement de notes, d’accords, d’harmonies, mais dans le chant intérieur il y a aussi une caractéristique texturale c’est-à-dire que je dirais que le chant intérieur ce sont aussi des timbres. C’est-à-dire qu’il y a du son, la matière brute avec les fréquences et tout ça, et il y a aussi la texture qu’il a c’est-à-dire s’il est plus ou moins rugueux, s’il est plus ou moins filtré, plus ou moins doux, plus ou moins aérien… en fait toutes les caractéristiques qu’on pourrait donner à un son. Donc pour moi le chant intérieur c’est le mélange à la fois d’un contenu mélodique et du contenu timbral.

EM : Mais quand tu dis « mélodique » tu vois les notes ? Tu sais à quelle hauteur ça correspond ? Tu as fait beaucoup de théorie ? Tu as lu des traités d’harmonies ? Tu visualises quoi quand tu dis « notes » ou « accord » ?

Aārp : Je dirais que ça a évolué dans le temps en fonction de mon langage musical qui s’est amélioré petit à petit. Dans mon chant intérieur je vais avoir une mélodie toute simple, monophonique, avec des rythmes – elle peut venir quand je me promène par exemple. Ensuite je vais imaginer quels accords pourraient aller avec, quels accords pourraient étoffer cette mélodie monophonique.

EM : En fait tu as une ligne, et ensuite tu épaissies la ligne.

Aārp : Oui. C’est ce qu’on appelle « harmoniser » je pense.

EM : Donc la mélodie tu la voies comment ? Tu te la chantes dans ta tête avec des onomatopées ? Tu entends le nom des notes ? Tu vois des vibrations ?

Aārp : ça dépend des moments où ça arrive. Parfois les idées arrivent en dehors de la phase « logiciel » pendant laquelle je suis à mon bureau et parfois elles viennent en même temps. Ça dépend. Par exemple, dans mon album de l’année dernière qui s’appelle « Propaganda », avec Green Growth et qui est un morceau de l’album, l’idée m’est venue pendant une promenade pendant laquelle je me suis chanté quelque chose dans ma tête, et ensuite je me suis dit : « tiens, je vais retraduire ça dans le logiciel ».

https://aarp.bandcamp.com/album/propaganda

Je me suis dit qu’avec ce type de son, il fallait faire un timbre un peu dans le style des cuivres, je voyais quelles formes d’ondes je voulais utiliser etc. Du coup, si on revient à ta définition, le chant intérieur est la voix à l’intérieur de soi qui porte à la fois un contenu mélodique et un contenu timbral, et qu’on va traduire via des sons pour que ça soit accessible aux autres. Le chant intérieur c’est vraiment une projection de soi vers l’autre.

EM : Ah oui d’accord.

Aārp : C’est vraiment donner un accès à l’autre, à son intériorité à soi.

EM : C’est ensuite via ton logiciel que c’est possible. Comment est-ce qu’il fonctionne ?

Aārp : C’est un peu comme tous les logiciels audio, photo etc. Tu vas enregistrer des sons dedans… Visuellement ça ressemble à une grande ligne avec des secondes, et tu disposes dans cette grande ligne des petits blocs qui correspondent à des instruments, à des mélodies, et après tu les emboîtes

Image1

C’est comme un jeu de cube où tu vas emboîter les clips les uns par-dessus des autres, à des temps donnés… c’est comme une partition d’orchestre en fait ! Sauf qu’au lieu d’avoir le nom des notes ce sont des sortes de clips qui ressemblent à des petites boîtes les unes à côté des autres qui correspondent à un thème, un développement, plusieurs choses comme ça. Dans ce logiciel-là tu peux enregistrer des audios, du midi – tu enregistres des notes, des rythmes, et les fichiers midi peuvent être joués par des instruments virtuels. C’est là que moi, je compose les sons qui m’intéressent, en fonction du chant que j’aurais eu à l’intérieur de moi. C’est-à-dire que je vais me dire « telle mélodie correspond à tel son ». Les accompagnements sont souvent assez similaires… ça dépend de ce que tu veux faire… par exemple pour obtenir des grandes nappes de son il va falloir faire des sons continus, pour une mélodie avec un rythme assez soutenu il va falloir des sons assez saccadés sinon ça va faire une sorte de soupe…

EM : Ah oui d’accord. Du coup les sons que tu utilises ressemblent à de vrais instruments ?

Aārp : Alors non. Bien sûr, tu peux t’amuser à synthétiser des sons qui ressemblent à de vrais instruments. Par exemple des sons de cuivres vont être beaucoup de sons en dents de scie  que tu vas superposer,

Image2

filtrer etc, avec des sons assez aigus, et tu peux aussi les faire en staccato.

Les sons plutôt doux sont des ondes sinusoïdales, des flûtes sont des ondes sinusoïdales

Image3

un klaxon ce sont des ondes carrées etc. En fait pour modeler un son tu vas te demander « à quoi j’ai envie qu’il ressemble ? » et ensuite tu vas mettre les formes d’ondes qui te conviennent, tu les mélanges, tu les additionnes, tu les soustraits etc. C’est un travail de physique en fait.

EM : C’est de la physique ou de la sculpture ?

Aārp : C’est de la physique. Mais pour pouvoir donner forme à quelque chose tu vas devoir sculpter dans le temps ce que le son donne. Si tu veux le sculpter de sorte que le son soit bref, tu vas le sculpter grâce à une forme d’enveloppe particulière.

Une enveloppe c’est « attaque » « decay » « sustain » et « release ». Une attaque courte ça va être comme ça :

 

Image4

Une attaque longue comme ça :

 

Image5

Le « decay » ça va être le temps que va durer le son.

Et le « release » ça va être le temps de retombée du son.

Par exemple si tu as un son avec attaque courte, decay court, et release longue ça va faire :

 

Image6

C’est comme ça que tu modèles le son. Après quand tu vas imaginer la mélodie, l’accompagnement… parfois ça vient en même temps que tu tapes au clavier… il y a une sorte de petit décalage dans le temps donc ton cerveau va se dire « tiens cette mélodie irait bien », donc tu la joues, ça correspond à ce que tu avais imaginé, ou parfois j’essaye des trucs sur le clavier, je remarque que ça fonctionne bien, j’enregistre, et voilà.

EM : Tu chantes à voix haute ?

Aārp : Oui oui ! Souvent je chante. Et comme ça, ça m’aide à avoir une ligne directrice.

EM : Pourquoi ? ça rend les choses plus concrètes ?

Aārp : Déjà, ça va permettre de donner un aspect physique à cette mélodie. Si tu chantes ta mélodie, elle va exister dans le monde réel.

EM : Tu peux la décomposer par exemple.

Aārp : Voilà. Après, ce qui va être intéressant, c’est, même avec la voix – et ça je le fais très souvent lorsque je vocalise des sons, de faire des effets, et ensuite de chercher à imiter ce que j’ai chanté, moi, avec le logiciel.

EM : Oui.

Aārp : Evidemment, cela ne marche qu’avec des sons monophoniques parce que je ne suis pas capable de chanter des polyphonies tout seul !

[Ils rient]

Il y a quand même cette idée, quand tu chantes, de chanter le timbre. Ensuite avec les rythmes c’est différent. Les rythmes, c’est un peu comme du beat box. Je vais les faire à la voix puis essayer de les retraduire dans le logiciel. Il y a donc la mélodie, le rythme, et les deux ne fonctionnent pas de la même manière.

EM : Tu penses qu’il y aurait une différence si tu chantais juste dans ta tête et pas à voix haute ?

Aārp : Je ne sais pas. Parce qu’en fait je chante quand même dans ma tête.

EM : L’idée c’est quand même qu’il y ait une relation de miroir. Ce que tu fais avec tes logiciels est une imitation de ce que tu entends dans ta tête.

Aārp : Oui.

EM : Et la voix qui chante est un intermédiaire qui aide à entendre… plus concrètement à l’intérieur ? Ou à entendre plus concrètement à quoi ça doit ressembler ? Qu’est-ce qui se passe ? J’imagine un truc, je le chante pour m’aider à mieux imaginer ? Ou je chante quelque chose, et comme cela devient une matière sensible que je peux percevoir avec mes oreilles, je peux mieux travailler la ressemblance avec mon logiciel ? C’est une sorte de processus en plusieurs étapes : je chante dans ma tête, puis je chante à voix haute, puis je chante avec mon instrument.

Aārp : C’est vrai. Mais ça dépend. Parfois je chante après avoir composé la mélodie. Ou alors je vais chanter le nom des notes quand je compose les accords. Par exemple je vais jouer un accord, me dire qu’il faut ajouter une neuvième, et chanter cette neuvième. Il n’y a donc pas une seule manière d’écrire un morceau. Parfois je vais avoir du mal à trouver une mélodie donc je vais jouer les accords de la gamme, les rentrer dans le logiciel – mais pas en direct… En fait il y a la prise de son directe ou tu vas enregistrer quelque chose que tu joues, et puis à d’autres moments je vais me dire : « je ne sais pas trop à quoi ça va ressembler, donc je vais tester, puis enregistrer note par note dans le logiciel. »

EM : En gros, ou tu plaques l’accord ou tu décomposes l’accord.

Aārp : Voilà. Et parfois ça m’arrive de composer quelque chose et de me dire « tiens, j’ai cette base-là, je peux faire un accord avec ça, je vais chanter un accord, et le faire ». C’est comme ça que j’écris les morceaux parfois. Je vocalise souvent la décomposition des accords, mais lorsqu’il s’agit de thèmes je ne suis pas toujours capable de chanter parce qu’il s’agit de quelque chose de polyphonique et qu’il n’y a pas forcément de ligne directrice, de mélodie bien identifiée. En tout cas, si je suis capable de chanter la mélodie de ce que j’ai fait, ça veut dire que la mélodie est bonne. Tu vois ce que je veux dire ?

EM : Oui, très bien. C’est intéressant parce que, comme le disait aussi François hier, les capacités de la voix intérieure excèdent les capacités de la voix vocale.

Aārp :  Oui, exactement. Tu peux tout à fait entendre des accords que tu ne pourras pas chanter. C’est d’ailleurs un peu frustrant. Parfois j’aimerais bien pouvoir chanter plusieurs voix à la fois mais c’est impossible.

[Ellen rit]

C’est pour ça que le travail avec le clavier est intéressant. Il remplace la voix parce qu’avec lui tu peux composer des accords que tu ne vas pas chanter, mais que tu as imaginés dans ta tête, et c’est une sorte de voix. C’est pour ça qu’en musique on dit que quelque chose est « à plusieurs voix » : il y a la voix de la guitare, la voix du piano etc… Evidemment, la voix du piano n’est pas une voix vocale, mais c’est une voix qui correspond à la voix intérieure.

EM : Il y a un processus de traduction en fait.

Aārp : Voilà, exactement.

EM : Tu fais passer ce que tu imagines comme dans une autre langue finalement.

Aārp : Exactement.

EM : En ce qui concerne le rythme, il est dans ta tête ? Tu le sens par les mouvements ? Tu le sens physiquement ? Tu le respires ? Dans la musique classique on « respire » la partition dans un sens.

Aārp : Avec le rythme c’est assez différent parce qu’en fait, petit à petit, au fur et à mesure que j’arrivais à mieux décomposer les rythmes, c’est devenu beaucoup plus clair dans ma tête, je suis devenu capable de les frapper… D’ailleurs, si tu écoutes les premiers disques que j’ai fait, les rythmes sont totalement infrappables parce que je ne savais pas frapper les rythmes, et je faisais donc des trucs hyper complexes. Maintenant que je sais taper les rythmes, j’ai tendance à plus utiliser de percussions corporelles que je retraduis ensuite dans le logiciel, au lieu d’écrire tout seulement à partir du logiciel. Finalement, plus le temps passe, plus la musique s’humanise, parce que je progresse et j’ai recours à de moins en moins d’artifices pour cacher mes défauts [ils rient]. Très souvent, il n’y a pas vraiment de rythme parce qu’à cette époque j’écoutais beaucoup de musique symphoniques avec de grandes plages de sons.

Il y a donc beaucoup de noires, de croches, parfois aussi des contretemps… Il y a plusieurs manières de rythmer la même mélodie. Parfois je me chante un rythme puis le complexifie dans le logiciel, l’écrire directement dans le logiciel. Parfois je vais me dire « ça ne sonne pas bien corporellement mais si j’ajoute un contretemps ça peut aller ». Parfois il y a des choses que je ne peux pas frapper… Pour moi le pied correspond à la grosse caisse, et les « claps » la caisse claire. Après il y a beaucoup de petits sons que je ne peux pas directement faire parce que le rythme est trop rapide et que je ne peux pas le frapper directement avec mes mains.

EM : Tu frappes dans tes mains.

Aārp : Oui. Et sur mes jambes.

EM : Tu incarnes le rythme finalement.

Aārp : Oui. C’est ça qui est intéressant : que ce soit du contenu mélodique ou du contenu rythmique, il y a vraiment l’idée que ce que tu ressens dans ton corps va se retraduire dans l’espace parce que tu tapes sur des objets, ou va se retraduire sur ton corps parce que tu tapes avec tes mains. Il y a un passage entre l’intériorité et l’extériorité, et c’est le corps qui permet de faire ça.

EM : Oui.

Aārp : De toute façon pour la musique tu as forcément besoin d’en passer par le corps. Après la musique électronique n’est pas une musique qui correspond directement à un geste. Tu n’as pas de coups d’archet. Sauf si c’est de la prise directe et que tu enregistres en temps réel, exactement comme avec l’écriture d’une partition, tu n’as pas de geste. C’est aussi quelque chose de difficile avec cette musique : il faut recréer un geste. Le chant correspond à quelque chose : tu as des nuances, même avec la voix tu vas t’arrêter lorsqu’il y a un point par exemple, tu vas marquer le point d’une certaine manière. Avec la musique électronique tu dois faire attention à donner une impression de geste, une impression de « flow », des respirations, des grands mouvements… C’est une musique qui pourrait être entièrement statique finalement. Comme elle n’est pas enregistrée directement dans un espace physique, tu n’as pas toutes les subtilités que tu peux avoir si tu enregistres directement dans une pièce, la réverbération, les bruits corporels – par exemple si tu écoutes des violonistes tu peux les entendre respirer, etc. Dans la musique électronique il n’y a pas ça. A part si tu enregistres en ligne directe.  Tu n’as pas quelque chose d’aussi précis que le chant intérieur.

EM : En fait tu es en train de dire que cette musique pourrait être désincarnée, et que le but est justement de l’incarner.

Aārp : Exactement. Il faut qu’il y ait un côté organique même si elle peut être parfois entièrement numérique. Tu peux t’amuser à recréer des formes de gestes. Si tu composes tout dans le logiciel comme une partition, c’est-à-dire que tu rentres les notes une par une, ça va avoir un côté statique.

Image7

 

Par contre, tu peux le rendre plus organique en imitant le très léger décalage qu’il y a entre deux notes lorsqu’on joue vraiment avec nos mains et que nos doigts ne retombent pas tous exactement au même moment sur le clavier. A ce moment-là, tu donnes un côté un peu plus naturel.

Image8

En fait on ne tape jamais des notes sur le clavier de façon droite. Il y a toujours des notes qui arrivent un peu plus en retard que d’autres. Ça s’entend à peine. Mais être capable de reproduire ça, cela donne le côté organique qui pourrait manquer sinon. Avec le logiciel on va travailler pour donner quelque chose de naturel. On va mettre tous les sons dans une pièce, on va créer une réverbération dans laquelle on va glisser tous les sons, c’est ce qu’on appelle les « pistes de retour », et en faisant cela on va créer une pièce dans laquelle on va faire rentrer tous nos sons. Un peu comme tu mettrais tous tes jouets dans un coffre à jouets [Ellen rit]. Tu mets tous tes sons dans une pièce, et ensuite cette pièce va les mettre en valeur, les inscrire dans un environnement. Du coup, lorsque je me chante des mélodies dans ma tête je me dis parfois « cette mélodie correspond à un petit espace », ou au contraire c’est quelque chose de plus grandiloquent donc je me dis qu’il faut un grand espace avec une grosse réverbération, et plein de matériaux mélodiques.

EM : Ta pièce est un espace électronique ?

Aārp : En fait tu es chez toi, et dans le monde naturel quand tu claques des portes ça va résonner dans ta pièce. Avec un logiciel, tu n’as pas cette résonnance parce que le logiciel ne créé pas une pièce par défaut. Sauf que pour que la personne qui écoute la musique s’y retrouve, elle a besoin d’entendre ces sons dans une pièce. Du coup on créé une pièce virtuelle dans laquelle on va mettre nos sons. Et cette pièce virtuelle a un temps de réverbération, elle filtre plus ou moins des fréquences, du coup au bout d’un moment ça va donner l’impression que les sons ont été enregistrés dans une pièce. Tu peux créer une réverbération de cathédrale par exemple, et le son va sonner comme si tu étais vraiment dans une cathédrale.

EM : On appelle vraiment cela « réverbération de cathédrale » ?

Aārp : Oui. En fait il y a des ingénieurs du sons qui ont travaillé à ça : ils ont remarqué qu’une réverbération de cathédrale ça ressemblait à ça, et ils ont modélisé des pre-set (configurations qui existent dans des logiciels) qui ressemblent à des pièces.

EM : Du coup est-ce que ça veut dire qu’à l’origine la musique électronique est totalement désincarnée, sans espace et sans temps, mais que lorsque tu composes, toi, tu fais passer ton propre espace intérieur à toi, à travers le logiciel, dans la musique ? Tu recrées ton espace mental constitué par la perception de ton environnement finalement.

Aārp : C’est ça. Tu vas faire passer quelque chose d’organique qui vient de toi, de ton intériorité, à quelque chose de virtuel que tu as envie de rendre à nouveau organique.

EM : Super intéressant.

Aārp : Après moi, je n’utilise pas trop de patterns aléatoires. En attendant, il y a vraiment l’idée que ton chant intérieur est « trajectifié » par quelque chose de virtuel. Ce n’est pas directement un instrument. Il n’y a pas de corps… Comme il n’y a pas de geste, il n’y a pas le rapport corporel au son tu vois.

EM : Hum.

Aārp : Tu dois recréer ça virtuellement. Après on peut le faire de façon plus simple. Par exemple avec la techno on ne se donne pas forcément tant de mal. Mais parfois moi, j’ai envie que ça ressemble à un orchestre symphonique, donc j’essaye de créer de sorte que les choses soient massives, ou discrètes etc.

EM : Finalement la machine ne sert qu’à recréer quelque chose qui pourrait être humain.

Aārp : Oui. Ou pas. Tu peux aussi t’amuser à créer des choses totalement artificielles, virtuelles, des sons qui n’existent pas dans la nature. Parce qu’avec la musique électronique on peut recréer des sons qui existent dans la nature, mais on peut aussi tout à fait recréer des sons qui n’existent pas. C’est le cas des bruiteurs dans les films par exemple. Lorsque quelqu’un se prend un coup de poing dans la réalité tu n’entends jamais le son « paf ! » [ils rient], tu dois créer un son qui correspond à des choses. Un son de fantôme par exemple, on n’entendrait jamais « whouhouhou » [ils rient], mais avec un thérémine tu vas pouvoir créer un son de fantôme.

EM : Oui.

Aārp : Ensuite les gens vont se dire « pour les fantômes on a toujours enregistré ce son-là », donc lorsqu’ils vont entendre ce son, ils vont se dire « ah, c’est un son de fantôme ». Tu vois ce que je veux dire ?

EM : Oui tout à fait. En fait, tu créés des codes culturels finalement.

Aārp : Voilà. Tu peux recréer des codes culturels. Tu peux t’amuser à duper les gens. De la même manière que tu peux duper les gens en faisant des marches de septième pour créer un effet bœuf, par exemple, tu fais un son qui fait « plic, ploc » et les gens vont se dire : « ça c’est le son de la pluie ». Mais c’est totalement virtuel.

EM : Comment ça ?

Aārp : En fait, les sons correspondent toujours à une image. Les gens se font toujours une image du son. Ils comment en disant : « c’est agressif, c’est doux ». D’autres vont dire : « ça m’évoque tel paysage » … ça m’arrive que des gens me disent ça. C’est bon signe généralement [ils rient]. Ça veut dire que les sons recréent des ambiances grâce au jeu avec les codes culturels des gens. Par exemple, lorsque tu as quelque chose de contemplatif au cinéma, tu vas avoir de grandes nappes de son. Du coup, quand tu vas recréer une musique contemplative, tu vas aussi utiliser de grandes nappes de son.

EM : En fait, ce que tu dis c’est qu’il y a un rapport entre le visuel et le son ? Cela veut dire que les choses ne sont jamais abstraites.

Aārp : Oui.

EM : On pourrait se dire « oui, la musique électronique c’est abstrait »… en fait non. Déjà, pour que ce soit réussi il faut que ce soit une sorte d’électronisation de quelque chose de très concret (comment tu chantes, comment tu sens les choses dans ton corps, comment tu peux faire en sorte que ça ressemble à ce que tu vis), et même lorsque c’est abstrait, que cela ne correspond à rien dans la nature, ça finit toujours par évoquer quelque chose de perceptible chez celui qui l’écoute en fait.

Aārp : Voilà. Pour moi, c’est très important ce passage du musical au visuel. Parce que lorsque j’imagine, j’imagine des mondes, et des mondes dans lesquels je me sens bien. Ça peut correspondre à des moments. Par exemple, des coups durs vont correspondre à de la musique plus agressive, et des moments d’exaltation de la musique plus exaltée. Du coup les choses vont se retraduire d’une certaine manière parce que tes émotions sont retraduites électroniquement d’une certaine manière : la tristesse tu vas mettre des sons assez désaccordés pour évoquer l’instabilité… Des sons qui doivent évoquer la fête, tu vas utiliser les codes culturels en mettant des sons clairs, de gros accords, des tierces, parce que dans la tête des gens le club est associé à des tierces et des accords simples… Quand tu vas vouloir recréer une ambiance contemplative tu vas mettre beaucoup plus de réverbération, tu vas essayer de perdre un peu le rythme, tu vas essayer de perdre le son, le faire aller de gauche à droite, qu’il soit plein etc. Si tu veux une ambiance contemplative mais comme dévastée, tu vas rajouter de la distorsion sur le son, et ça va évoquer un environnement instable pour les gens parce que tout ce qui est distorsion, désaccord des instruments, tout cela va correspondre à l’instabilité. Quelque chose de festif ou joyeux, tu vas utiliser des sons clairs, assez justes etc…

EM : Du coup comment est-ce que tu as repéré ces choses-là ? Tu as observé ? Ecouté ? Parce que pour pouvoir jouer avec les codes culturels il faut les avoir compris les avoir décodés du vois. 

Aārp : En fait oui.

EM : François par exemple,[1] il écoute de la musique, il la prend en dictée musicale, et il va être capable de la rejouer parce qu’il l’a d’abord comprise par la dictée. Mais toi, si tu joues avec les codes cultures, les émotions, il faut aussi que tu aies été capable de repérer, de traduire, il faut que tu aies pu repérer les mots, avoir compris comment les utiliser. Il y a un travail de décodage/recodage d’une certaine façon.

Aārp : Oui mais ça, ça vient avec l’expérience parce que d’un certaine manière, à force d’avoir appris à synthétiser tous les sons que j’aimais, j’ai aussi appris à avoir une palette différente dans chaque style. Je sais que pour créer tel effet, il faut mélanger telle forme d’onde, ajouter telle réverbération, tel effet ; pour faire un son rock des années 80, il faut rajouter des effets de chorus après la réverbération pour faire un son un peu crade ; pour faire un son de teuf, il faut des « stabs » avec des rythmes simples.

En fait j’aime bien changer de palette. Par exemple, dans mon album il y a un morceau avec un « fender », ça fait un peu Michel Legrand parce que c’est un instrument qui a été très utilisé dans les musiques de Michel Legrand.

https://aarp.bandcamp.com/track/less-than-1-of-patients-become-addicted-oxycontin-commercial-from-purdue-pharma

La mélodie est un peu triste et nostalgique, il y a un peu de réverbération, c’est un peu désaccordé, ça fait une ambiance très années 70 tu vois. Du coup il faut s’entraîner en écoutant beaucoup de musique je crois, et il faut essayer de recréer dans sa tête quelle son correspond à quoi, et comment je vais pouvoir resynthétiser le son dans le logiciel. Quels effets je vais pouvoir ajouter pour que ça sonne de telle manière. Du coup, au bout d’un moment j’ai fini – parfois par erreur, à recréer des sons de bâtons de pluie, de chasse d’eau [ils rient], sans faire exprès, mais c’est comme ça que je m’entraîne à recréer des sons. Il y a une artiste qui est morte il n’y a pas longtemps, SOPHIE, j’ai essayé de recréer sa palette sonore, je suis encore en recherche parce que c’est assez compliqué, mais du coup si j’ai envie de sonner comme elle, je sais à peu près quels sons il faut utiliser.

EM : En fait, c’est exactement le même processus que François qui a appris l’impro jazz en copiant Keith Jarrett : tu copies, tu créées une sorte de palette avec les choses que tu sais faire, tu accumules du vocabulaire, et tu fais du réassemblage. Mais il y a aussi ce processus : écouter, repérer, refaire.

Aārp :  Oui oui, totalement. Par contre je passe moins par la mélodie parce que je suis moins mélodiste que lui, mais, par exemple, comme j’ai envie de faire des morceaux un peu plus Rn’B dans mon prochain album, il ne va pas y avoir 36 méthodes : je vais devoir utiliser des enchaînements II-V-I, et effectivement si j’essaye ça, ça sonne Rn’B.

Par contre, si je ne veux pas que ça sonne pareil que n’importe quel morceau de Rn’B, qu’est-ce qu’il va falloir faire ? Et bien, je vais changer le timbre ! Je vais utiliser des instruments différents. Du coup les gens vont dire : « ah oui, c’est du space Rn’B parce que c’est comme du Rn’B mais il y a des sons un peu de l’espace. En gros, l’objectif de la musique c’est vraiment de duper l’auditeur [Ellen rit]. Il faut lui faire croire des trucs, l’emmener dans des endroits, le situer dans des ambiances, et c’est ça le but de la musique. Parce que la musique c’est fait pour se détendre. Du coup avec la musique électronique tu vas te dire : « pour avoir une atmosphère festive, je vais mettre ça », et là tu places l’auditeur dans une certaine ambiance. Après les gens récupèrent, s’approprient le morceau d’une certaine façon, en fonction de leur vécu, en fonction de leurs émotions, en fonction de là où ils l’ont écouté, parfois ça va être des traces dans l’espace, ils vont se dire « tel morceau correspond à telle période, correspond à telle date, correspond à telle période de ma vie, parce que je l’ai écouté en boucle », et c’est comme ça qu’ils se le réapproprient. L’idée c’est de leur communiquer cela : « je vais t’emmener à tel endroit, tu vas te débrouiller avec ce que je te donne, et tu vas en faire ta propre interprétation.

EM : Humhum. C’est intéressant. Ce n’est pas un processus très loin de celui de la musique classique.

Aārp : Non pas du tout. Par exemple ce que les rappeurs font avec le sampling, Bartók l’a aussi fait en allant chercher des mélodies populaires dans les montagnes qu’il a retravaillées.

[Exemple de sampling, exemple de B]

On a toujours fait comme ça ! Du coup, pour faire un album riche il faut quand même emprunter à plusieurs styles. Maintenant j’écoute assez peu de musique électronique. J’essaye de recopier beaucoup. Je pense qu’il faut beaucoup pomper les autres.

EM : [Ellen rit] c’est ça oui !

Aārp : Il faut prendre ce qu’il y a de bon chez les autres et ensuite faire sa propre « tambouille » avec. Quand j’ai commencé je me disais : « non, moi, je ne m’inspire de personne ». En fait ça n’est pas vrai du tout. On s’inspire toujours des autres. Plus ou moins maladroitement, mais ça vient toujours de quelque part. Il n’y a jamais un point zéro qui est celui de la création. Tu es toujours le point B-C, après une multitude d’autres choses qui sont venues avant.

EM : On a parlé de ça avec François aussi. On a dit que la mémoire était importante parce que tout ce qu’on percevait rentrait dans notre chant intérieur. Après, la mémoire est sélective : il y a des choses que l’on retient et des choses que l’on oublie ou qu’on va choisir de ne pas prendre en considération. Du coup, quel est le filtre lorsque tu « pompes » les autres ? Qu’est ce qui fait que tu décides : « ça, je le garde », et qu’est ce qui fait que tu vas laisser quelque chose de côté, ou même passer à côté ? ça te touche plus ? C’est quelque chose d’original ? Ou bien… je pense que tout commence dans la perception, mais, si ça commence dans la perception, et qu’il y a un travail de filtre, qu’est ce qui fait que certaines choses vont rester ?

Aārp : Souvent je garde les choses originales, ou bien les choses très cliché. Très original comme par exemple, je ne sample pas, je n’utilise pas des choses qui existent déjà, mais je vais essayer de les recréer…

qu’est ce que je vais garder et qu’est ce que je vais laisser ? Et bien par exemple, chez Scriabine tu trouves tel accord un peu dissonant, ça va me plaire, je vais le garder, mais je vais jeter le son de piano.

Du coup je vais l’utiliser avec des instruments que j’aurais programmés. Ça va être original parce que c’est un type d’accord qu’on n’a pas l’habitude d’utiliser dans le répertoire électronique, mais je vais le moderniser en utilisant des sons électroniques. Si j’utilise un son, je vais par exemple garder le timbre, recréer le timbre, mais utiliser une mélodie plus complexe. Je vais donc recréer le son d’un artiste mais essayer de changer la mélodie pour qu’elle soit plus intéressante. Par exemple, je vais entièrement pomper un type qui s’appelle «Flume», mais je vais utiliser ce qu’il fait en faisant des accords plus pop, plus Rn’B, plus jazzie.

Je vais garder le son tel qu’il l’a sculpté, mais en le changeant d’une certaine manière. Première façon : garder la mélodie en changeant l’instrumentation (Scriabine et l’exemple que je t’ai montré) ; deuxième façon, utiliser un instrument similaire en changeant la mélodie.

EM : Dans tous les cas, tu décomposes l’ensemble pour comprendre comment c’est fait, et ensuite tu gardes certaines parties.

Aārp : Exactement.

EM : mais il y a vraiment un travail de déconstruction au début.

Aārp : Oui bien sûr [cette phrase est suivie d’une longue séquence d’exemple de modification du son difficile à retranscrire].

EM : Cela permet d’évoquer des ambiances en fait.

Aārp : Oui. Pour moi c’est très important. Parce que je me fais des images. Si je devais traduire l’immeuble que je vois par la fenêtre en musique, comme il a une architecture plutôt abrupte, avec des murs plats sans trop d’aspérité, je vais créer des sons sans trop d’aspérité. Il y a vraiment l’idée d’utiliser des sons pour retraduire les choses que j’imagine en musique. Si j’imagine le ciel, ça va être des sons plutôt doux, aériens… S’il y a de la neige, je vais utiliser un son de distorsion de vinyle, que tu filtres légèrement pour enlever les hautes fréquences. Tu le ralentis pour le rendre plus grave, et au bout d’un moment, tu vas avoir l’impression qu’il y a de la neige qui tombe. C’est comme ça que tu peux t’amuser à recréer des ambiances. Pour évoquer la douceur, tu peux rajouter, dans cet environnement de neige, un son fait d’ondes sinusoïdales, et comme tu as envie d’évoquer un paysage avec de la neige, une atmosphère douce, il va falloir mettre une attaque relativement douce… et comme c’est un paysage aérien, tu vas utiliser un « shimmer »… tu vas créer un effet qui va tout octavier. C’est cela qui va donner un son doux, paisible.

EM : Pourtant, là je pourrais te répondre qu’en vrai, la neige ne fait pas de bruit.

Aārp : Oui. Mais comme je te disais tout à l’heure à propos des bruiteurs du cinéma, on passe notre temps à reproduire des sons qui n’existent pas ou qu’on ne peut pas vraiment percevoir.

EM : Du coup ce sont des émotions que tu fais passer plutôt.

Aārp : Oui. En fait tu imagines un paysages associé aux émotions que tu ressens, toi, quand tu le regardes. Par exemple, la neige évoque quelque chose de paisible mais peut aussi évoquer quelque chose d’inquiétant. Si j’ai envie d’évoquer les fjords, je vais utiliser des accords plutôt majeurs, avec de la réverbération. Pour l’angoisse, je vais mettre du mineur, des sons distordus parce que la distorsion peut représenter l’instabilité, l’angoisse. Quand tu fais ton morceau, tu imagines un paysages, et tu te poses la question suivante : « comment je traduis ça en musique » ? Et là, je vais commencer à donner des caractéristiques un peu artificielles à ce qui se passe, pour que ça sorte en forme de son.

EM : Il y a vraiment un jeu avec le réel finalement.

Aārp : Tout à fait. Parce qu’on ne créé jamais à partir de rien. On n’est pas des robots. Même le robot est programmé à partir de lignes qui ne sont pas neutres. On n’est jamais neutre en face de son objet finalement.

EM : Et comment tu as appris à faire ça ? A décomposer ? En essayant ?

Aārp : En essayant. En tâtonnant beaucoup. Par l’expérience. En faisant attention pour comprendre les différents composants d’un son – chorus, réverbération etc. C’est vraiment de l’imitation. C’est ce que Schönberg dit dans son Traité d’harmonie : la musique avait pour but de recréer le chant des oiseaux, aussi au moyen-âge. Par exemple, Janequin essaye de recréer l’ambiance des marchés… Il est bel et bon de Passereau imite les femmes qui piaillent, et pour cela le compositeur reproduit les sons vocaux du piaillement.

Après tu peux créer des sons artificiels. Par exemple le son de moteur est fait de pleins de paramètres aléatoires. Il faut comprendre quels sont les différents éléments du son. Par exemple le clap [il frappe dans ses mains] est composé de plusieurs sons : le son du choc, mais différent du choc que tu entends lorsque tu frappes ta main avec un chausse pied, parce que l’« excitateur » (ce qui va frapper l’objet – marteau, baguette) est différent. Si tu tapes sur une tasse avec ton doigt ou avec un crayon, le son n’est pas le même, parce que l’objet qui frappe n’est pas le même. Tu peux donc synthétiser les sons de sorte de reproduire ce qui se passe lorsque tel ou tel objet frappe telle matière.

EM : Je comprends.

Aārp : Pour recréer une manière de frapper, tu vas sculpter le son différemment.

EM : Tout ce que tu décris correspond à l’apprentissage de la technique instrumentale je dirais.

Aārp : Oui.

EM : Tout ce que tu décris correspond au travail instrumental de répétition, lecture de partition etc.

Aārp : Oui. En fait, ce qui m’intéresse là-dedans, c’est de brouiller les pistes entre le naturel et le non-naturel. Par exemple, dans mon morceau « Les malheureux sont les puissances de la terre », on ne sait pas trop si ce sont des vrais cuivres enregistrés ou si ce sont des sons synthétiques. En fait ce sont des sons synthétiques que j’ai synthétisés pour que ça sonne d’une certaine manière. Du coup, ça perd l’auditeur. Il y a une sorte de jeu de dupe. Tu crées des sons qui ressemblent à la nature mais qui ne font pas partie de la nature.

EM : Qu’est ce que tu as lu ou écouté pour constituer ton monde à toi ?

Aārp : J’ai écouté beaucoup Alva Noto

Flume, Sophie, Autechre

Amon Tobin

pour certaines ambiances la musique romantique allemande avec les orchestres symphoniques… j’utilise très souvent des cors d’harmonie échantillonnés un peu comme chez Wagner où tu as l’impression que tu as toujours des cors qui sortent du fin fond de la forêt… moi ça me sert à faire comme si quelque chose arrivait du fond du paysages sonore. En fait je ne t’ai pas encore dit ça, mais tu sculptes tes sons en les faisant rentrer dans une sorte de 3D. Tu vas avoir des sons plus ou moins proches, plus ou moins éloignés, plus ou moins de fond de cours. Parfois, j’aime faire comme si un son arrivait du fond du paysages sonore et me tombait dessus : j’augmente la réverbération d’un coup, les basses d’un coup, je mets un claquement, et c’est comme si quelque chose m’arrivait en pleine face. Pour ça, j’ai lu de la littérature technique pour comprendre comment faire, j’ai lu des choses pour comprendre comment recréer un son de clarinette, j’ai regardé des documentaires sur l’Islande qui sont toujours illustrés avec le même type de sons – des sons doux, parce que tout le monde sait que l’Islande, c’est doux… même s’il y a aussi de la lave, qu’il y a un côté éruptif etc [ils rient]. C’est un peu comme dans les documentaires sur l’Afrique, soit on t’évoque le Sida et l’armée, soit on t’évoque l’Afrique sauvage – et là on utilise des percussions… On joue avec ces représentations-là.

EM : … avec les codes culturels.

Aārp : oui… Avec les codes culturels. Mais tout le monde oublie qu’il y a aussi de la musique électronique nigérienne par exemple. On va mettre des percussions ethniques. On veut quelque chose de doux et orientalisant… on va mettre du koto japonais [ils rient]. Ça va évoquer un ailleurs… Mais là par contre, c’est un ailleurs qui est purement construit [ils rient]. Il y a un album de Tim Hecker qui utilise des kotos jamais et du coup on se dit : c’est doux, c’est oriental, alors qu’en fait c’est fait par un canadien blanc qui, peut-être, est allé enregistrer des gongs dans des monastères… mais bon… [ils rient]. C’est pour ça que ça m’intéresserait de faire de la musique pour les documentaires : on illustre à l’image. La musique de pub aussi c’est très intéressant : créer la frénésie de l’achat pour le nouvel Iphone en utilisant des sons de percussions très rapides parce que c’est la pulsion, la modernité, et que la modernité ne peut pas être représentée par un théorbe. On a besoin de sons percussifs, saccadés, parce que c’est la modernité. Il y a vraiment une manière d’attraper l’auditeur pour l’emmener où l’on veut.

EM : Et l’espace ? Comment tu le fais passer du 2D au 3D ? Comment tu ouvres un espace si ce n’est pas physique ? Comment tu crées de la distance physique avec le son ?

Aārp : Effectivement, lorsque j’ai entendu mes morceaux dans des concerts je me suis rendu compte que ça ne sonnait pas du tout pareil. J’utilise pas mal de réverbération mais dans les salles le son devenait imprécis parce qu’il y avait une grosse acoustique et que je n’avais pas prévu cela puisque je travaille au casque, ou avec des enceintes à quelques centimètres de moi, en tout cas avec peu de distance physique par rapport au son qui sort. Le même son, situé dans un espace différent de ma chambre, va donner une impression différente. Un son intimiste est constitué de petites réverbérations. Comme les Tiny Desk Concert et NPR qui sont enregistrées dans des petites salles avec une petite acoustique. Ça ne va pas être la même chose qu’à Paris-Bercy tu vois.

EM : Hum.

Aārp : En fait, plus j’utilise de son mono, plus ça va sortir stéréo, parce que plus tu vas être capable de le disposer dans l’espace. Dans le rock, les rythmes sont au milieu – à part chez les Beatles ou dans la musique des années 60 où ils étaient capables de mettre la batterie entièrement à gauche donc lorsqu’on écoute ça au casque ça fait très bizarre. Maintenant dans la plupart des enregistrements les percussions sont au milieu, les accompagnements sur les côtés et au milieu, et tout ce qui est décorations sur les côtés mais un peu au fond, alors que le thème sonne en frontal.

EM : Tu parles de quelle disposition ?

Aārp : Du champ stéréo. Lorsque tu écoutes des chants dans la nature, tu vas avoir par exemple la grive mélodieuse à gauche et le son d’un train à droite.

EM : Oui.

Aārp : Du coup, si tu veux recréer cet espace-là, si tu veux recréer quelqu’un qui marche le long d’un route, tu vas mettre tout le son de la grive à gauche, et le train à droite. Donc la personne qui va écouter ça au casque va vraiment entendre la grive à gauche et le train à droite, ce qui va lui permettre de réaliser cet espace.

EM : Là encore, tu recréés ce qui est dans la nature : l’homme a une oreille à droite et une oreille à gauche finalement, pas une oreille au milieu.

Aārp : Oui. Par exemple, si tu as envie qu’un son te tombe dessus par la gauche, tu vas le faire venir du fond, et plus il va s’approcher de toi, plus il aura des caractéristiques définies, plus il va être riche harmoniquement, plus sa composition va être riche d’harmoniques. Sur 6 secondes tu vas faire en sorte que le son va avoir de plus en plus de caractéristiques physiques pour être plus défini. Par exemple, si tu veux créer le son de quelqu’un qui descend dans une boîte, tu vas mettre le son des basses, et plus la personne va descendre dans la boîte, plus la mélodie va être claire, plus tu vas entendre de composantes, alors que plus tu seras loin plus tu n’entendras que les basses fréquences.

EM : Comment est-ce que tu décides que ton morceau est fini ensuite ? Comment est-ce que tu mets le point final puisque tu n’as pas de forme définie et que tu peux prolonger le morceau autant que tu veux ?

Aārp : En fait c’est assez simple : comme je travaille à côté, la musique est circonscrite aux moments où je ne travaille pas. Je fais donc des brouillons, et à un moment je les lie ensemble pour créer un morceau. Si je veux un morceau efficace, je mets deux minutes. Si je suis dans une posture non commerciale je peux faire quelque chose de 13 minutes. Si je veux quelque chose de contemplatif, je vais faire un morceau long, sans beaucoup de variations. Si je veux un truc plus pop je vais mettre une forme thème-refrain, une forme ABA, camoufler avec une modulation au ton supérieur qui ne compte pas bien cher et qui est efficace, avant de clore le morceau. Après je reproduis souvent dans mes morceaux ce qui se passe dans les matches de foot : je repasse le meilleur moment du morceau à la fin, au ralenti, plusieurs tons en dessous comme à la fin de ce morceau. [il rit]

https://aarp.bandcamp.com/track/les-malheureux-sont-les-puissances-de-la-terre-saint-just

EM : Tu repasses le but. [elle rit]

Aārp : Voilà. Tu repasses le but à la fin du morceau. Ou tu repasses la bande son à l’envers, la mélodie à l’envers.

EM : Soit tu as des idées qui ont de l’avenir et que tu développes de façon complexe, soit tu as des idées plus simples pour lesquelles tu ne te foules pas trop.

Aārp : Tu fais des cache-misères. [ils rient]. Un peu comme les épices dans un plat qui n’est pas super. Parfois, si l’album est déjà chargé, je choisis volontairement de faire quelque chose de plus calme, sans beaucoup de développement.

EM : Tu travailles pour des commandes ?

Aārp : Non. Mon label me laisse assez libre. Là par exemple, je veux faire un album plus pop, donc je vais charger les 2/5/1. J’arrête aussi quand je suis fier, satisfait.

EM ; Est-ce que tu t’inspires aussi de la peinture ? Par exemple Bosch.

Aārp : Oui, pour le style. Par exemple Bosch met des détails qui sont porteurs d’une symbolique mais n’ont l’air de rien ; je vais faire la même chose : mettre des sons qui n’apportent pas forcément grand-chose à l’architecture générale. El Lissitzky. Je vais faire des morceaux bien charpentés. Je peux traduire une peinture romantique avec des lignes moins définies, du Malevitch avec des formes simples. Ça dépend des périodes. En ce moment je fais de l’animation 3D donc j’essaye de travailler sur la forme. Les films comme le Transperceneige m’a conduit à faire des morceaux avec des ambiances de neige.

EM : Je vois…

Aārp : En fait, je dirais que le chant intérieur correspond à la manière dont on a synthétisé notre monde, et dont on l’a retraduit en musique. Ton monde intérieur passe par le medium de la musique. Tes émotions jouent là-dessus. Tu perçois le monde autours de toi, il se synthétise dans ton chant intérieur, et tu le retranscris en musique.

EM : … en passant par le moment d’incarnation quand même…

Aārp : Voilà.

EM : Après ce n’est pas forcément important que les gens comprennent ce que toi, tu entendais, non ?

Aārp : Oui et non. C’est sûr qu’on reçoit une musique en fonction de qui on est, et de quand on l’écoute.

EM : C’est la question de la perception, et de la mémoire.

Aārp : Oui. Après tu peux guider l’interprétation en fonction du titre que tu choisis pour ton morceau. Tu guides dans une certaine direction et ensuite les gens se débrouillent comme ils peuvent. C’est un peu comme un cadeau : ça signifie quelque chose pour toi, et c’est reçu par l’autre d’une certaine façon parfois un peu différente.

EM : je comprends. Bon, ben merci et bonne continuation avec tous tes projets !

[1] http://www.ellenmoysan.com/entretien-avec-francois-moysan-pianiste/

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *