Chercheurs & chercheuses

Présentation des chercheurs et chercheuses impliqués et de leur rôle dans le projet ARS

Axel Roebel

Equipe Analyse et Synthèse des Sons (STMS Lab UMR 9912 – IRCAM/CNRS/Sorbonne Université)

email

Axel Roebel est directeur de recherche à l’IRCAM et responsable de l’équipe Analyse et synthèse des sons.

Ses recherches portent sur les algorithmes de traitement du signal pour la parole, la musique et le son, notamment pour des applications artistiques. Il est l’un des principaux auteurs de SuperVP, un vocodeur de phase amélioré pour le traitement de la musique et de la parole qui a été intégré dans de nombreux outils audio professionnels. Il a travaillé sur la représentation paramétrique des signaux de parole et de chant, comme par exemple le backend de traitement du signal PaN dans le synthétiseur de voix chantée ISiS (projet ANR ChaNTeR). Plus récemment, il s’est intéressé aux traitement du signal en utilisant des méthodes de l’apprentissage profond.

Axel Roebel est coordinateur du projet ARS et supervise plus particulièrement les recherches en analyse et transformation du chant.


Céline Chabot-Canet

Passages XX-XXI (EA 4160) / Université Lyon 2

email

Céline Chabot-Canet est Maîtresse de conférences en musicologie à l’université Lyon 2 (Passages XX-XXI). Ses recherches portent sur les musiques populaires et actuelles, l’informatique musicale et l’analyse de l’interprétation vocale dans les musiques enregistrées. Elle est l’auteur d’une thèse, Interprétation, phrasé et rhétorique vocale dans la chanson française depuis 1950 : expliciter l’indicible de la voix (2013), dans laquelle elle élabore une méthode d’analyse de l’interprétation vocale fondée sur la transdisciplinarité et l’association entre sciences humaines et analyse spectrale. Elle est également l’auteur d’articles sur la chanson, en particulier sur la voix, et du livre Léo Ferré : une voix et un phrasé emblématiques (Prix IASPM 2008). Elle travaille en collaboration avec l’équipe analyse-synthèse de l’IRCAM sur la description et la modélisation des styles interprétatifs dans le chant : projet ANR ChanTeR (Chant numérique avec contrôle temps Réel, 2013-2017) et projet ANR ARS (Analyse et tRansformation du Style de chant, 2020-2024).


Gaël Martinet

Flux Software Engineering

email

Gaël Martinet est le fondateur, le PDG et le responsable de l’ingénierie logicielle chez Flux Software Engineering.
Depuis les années 2000, et avec la naissance de l’entreprise en 2006, Gaël a développé des logiciels de pointe pour l’analyse audio, le traitement de la dynamique et l’équilibre spectral.
Il collabore depuis des années avec les équipes de recherche de l’IRCAM et cette collaboration a conduit à la sortie d’une gamme complète de produits innovants : “IRCAM Tools”, et en particulier le logiciel phare de FLUX:: : “SPAT REVOLUTION”, pour une “Révolution Audio Immersive”. Ce collaboration a fait de FLUX:: la première marque à obtenir un partenariat avec l’Institut de recherche. Actuellement, il se concentre sur le développement d’outils logiciels audio intuitifs et techniquement innovants, et sur l’amélioration de la gamme existante des produits FLUX::.


Christophe d’Alessandro

Équipe Lutheries-Acoustique-Musique de l’Institut Jean Le Rond d’Alembert (UMR CNRS 7190)

email

Christophe d’Alessandro est un chercheur et un musicien, directeur de recherche au CNRS, responsable de l’équipe Lutheries-Acoustique-Musique de l’Institut Jean Le Rond d’Alembert (UMR CNRS 7190) et organiste titulaire de Sainte-Élisabeth. Après des études de mathématiques pures et d’informatique à Sorbonne Université il a rejoint le CNRS en 1989. Il a publié plus de 250 articles dans des revues, actes de conférences ou chapitres de livres, a dirigé 25 doctorats et a effectué des séjours comme chercheur invité au Canada, en Inde, au japon, en Argentine. Ses recherches portent sur les sciences de la parole et de la voix, l’informatique musicale, l’acoustique musicale et l’organologie. Après des études de clavecin, orgue, écriture et composition, il a été nommé en 1987 organiste de Sainte-Élisabeth et a enregistré pour le disque, la radio et la télévision. Sa démarche de recherche musicale associe improvisation, composition et création d’instruments, notamment dans les domaines de l’orgue et de l’électronique temps-réel, et de la synthèse vocale performative.

Dans le cadre du projet ARS, Christophe d’Alessandro s’intéresse au contrôle gestuel de la voix de synthèse et des effets audionumériques pour la création et l’étude du style vocal.


Frederik Bous

Équipe Analyse et Synthèse des Sons (STMS Lab UMR 9912 – IRCAM/CNRS/Sorbonne Université)

email

Frederik Bous est doctorant à l’Université de la Sorbonne et lauréat de la bourse de doctorat EDITE. Il travaille à l’IRCAM dans l’équipe Analyse et synthèse des sons.

Dans le cadre de son doctorat, avec le thème synthèse paramétrique de la parole avec des réseaux neuronaux profonds, il étudie les représentations paramétriques significatives de la parole qui permettent la transformation et la synthèse de la voix humaine. Le doctorat prolonge les recherches menées dans le cadre de sa thèse de master où il a travaillé sur la synthèse vocale.


Nicolas Obin

Équipe Analyse et Synthèse des Sons (STMS Lab UMR 9912 – IRCAM/CNRS/Sorbonne Université)

email

Nicolas OBIN est professeur associé à la Faculté des sciences de l’Université de la Sorbonne et chercheur dans l’équipe Analyse et synthèse des son à l’Ircam . Il est titulaire d’un doctorat en informatique sur la modélisation de la prosodie de la parole et du style de parole pour la synthèse de la parole à partir du texte (2011) pour lequel il a obtenu le prix de la meilleure thèse de doctorat de la Fondation Des Treilles en 2011.

Il mène ses recherches dans les domaines du traitement des signaux audio, de l’apprentissage machine et de la modélisation statistique des signaux sonores, avec une spécialisation dans le traitement de la parole. Son principal domaine de recherche est la modélisation générative de l’expressivité des voix parlées et chantées, avec des applications dans divers domaines tels que la synthèse vocale, les agents conversationnels et la musicologie computationnelle.

Il participe activement à la promotion des sciences et technologies numériques pour les arts, la culture et le patrimoine. Il a notamment collaboré avec des artistes de renom (Georges Aperghis, Philippe Manoury, Roman Polansky, Philippe Parreno, Eric Rohmer, André Dussolier), et a contribué à reconstituer la voix numérique de personnalités, comme le clonage artificiel de la voix d’André Dussolier (2011), le court-métrage Marilyn (P. Parreno, 2012) et le documentaire Juger Pétain (R. Saada, 2014).


Yann Teytaut

Équipe Analyse et Synthèse des Sons (STMS Lab UMR 9912 – IRCAM/CNRS/Sorbonne Université)

email

Yann Teytaut est doctorant à l’IRCAM et membre de l’Équipe Analyse et synthèse des sons.

Il a également étudié à l’IRCAM en suivant le Master ATIAM (Acoustique, Traitement du signal et Informatique Appliqués à la Musique), ce qui a confirmé sa volonté de poursuivre des recherches en sciences et musique.

Dans le projet ARS, Yann Teytaut développe des algorithmes mêlant traitement du signal et apprentissage profond pour l’analyse et la transformation du style musical dans la voix chantée.


Judith Deschamps

Lauréate du programme de résidence de recherche artistique 2020/21 à l’IRCAM.

email

Judith Deschamps est une artiste multidisciplinaire, et son projet “Quell’usignolo che innamorato” : La résurgence d’une voix artificielle et profondément plurielle s’appuie sur les avancées en matière de traitement du signal vocal et d’apprentissage profond pour recréer un chant que le castrat italien Farinelli aurait performé au roi Philippe V d’Espagne afin de calmer sa mélancolie.

Mené en collaboration avec l’équipe l’Équipe Analyse et synthèse des sons, le projet de cette résidence expérimentera les technologies de conversion de la voix chantée développées dans le cadre du projet ARS avec pour objectif de créer un chant hybride, incorporant les spécificités de 4 voix chantées réelles.


Daniel Hernán MOLINA-VILLOTA

Lutheries-Acoustique-Musique team at Institut Jean Le Rond d´Alembert Institute (UMR CNRS 7190) – Sorbonne Université

email

Daniel Hernán Molina Villota est doctorant au sein de l’équipe LAM (Lutherie-Acoustique-Musique) – Institut Jean Le Rond D’Alembert à l’Université de la Sorbonne.

Il est titulaire d’un Master en mécanique : Acoustique (Université Paris-Saclay + Institut Polytechnique de Paris), un Master en Informatique Musicale (Université Jean Monnet membre de l’Université de Lyon) et un Master en Ingénierie Acoustique (Universidad de Málaga – Espagne).

Dans le cadre du projet ARS, Daniel travaille sur des effets audio numériques interactifs et sur le contrôle gestuel du style vocal en temps réel.


Antoine Petit

Passages XX-XXI (EA 4160) / Université Lyon 2.

email

Antoine Petit est doctorant en musicologie à l’Université Lumière Lyon 2 (Passages XX-XXI). En s’appuyant sur les fondements théoriques de son mémoire de Master, ses recherches actuelles portent sur les caractéristiques stylistiques et rhétoriques des chansons pop anglophones contemporaines enregistrées d’un point de vue musical. Grâce à une combinaison de multiples méthodologies analytiques fusionnées dans un cadre sémiotique, son travail, axé sur la voix chantée, tente de construire une vision exhaustive de ce qu’est musicalement une chanson afin de comprendre ce qui la rend unique et ce qui lui donne un sens pour nous.

Dans le cadre du projet ARS, Antoine Petit fournira des descriptions précises des performances vocales dans les chansons enregistrées, y compris leurs multiples relations avec la technologie.


Caio Lang

Équipe Analyse et Synthèse des Sons (STMS Lab UMR 9912 – IRCAM/CNRS/Sorbonne Université)

email

Caio Lang est un étudiant ingénieur à l’ENSTA Paris (France) et à l’Unicamp (Brésil), ainsi qu’un musicien. Il s’intéresse aux interfaces entre la musique et la technologie, en particulier aux potentialités expressives de la voix humaine.

Caio rejoint le projet ARS en tant que stagiaire de recherche dans l’équipe d’Analyse-Synthèse du Son, assistant à la création et au prétraitement de la base de données de styles de chant du projet.