Les logiciels d’aide à la composition et de composition automatique

Les logiciels d’aide à la composition et de composition automatique

La différence entre la composition aidée par ordinateur et la composition automatique est exprimée dans Anders et al. (2003). La première a pour vocation d’assister le compositeur humain dans le processus de création alors que la seconde automatise le processus en excluant l’humain de l’exécution de ses différentes tâches. Des outils permettent donc d’accompagner les musiciens dans leur travail et parfois de les remplacer dans l’exécution de certaines tâches. La calculatrice a changé la façon dont les mathématiciens font des calculs numériques leur permettant à la fois d’aller plus vite dans l’exécution de certaines tâches, d’en exécuter d’autres auparavant impossibles ou très pénibles avec facilité, et parfois cet outil les a même remplacés entièrement dans l’exécution de certaines activités comme le traçage d’une fonction (pour ensuite la visualiser) ou bien encore pour faire le calcul de π. L’idée est répandue selon laquelle faire de la musique c’est faire des mathématiques sans le savoir et que comprendre l’un peut permettre d’acquérir une logique apportant une meilleure compréhension de l’autre.

La musique peut être vue comme un ensemble de phénomènes physiques pouvant être représentés par des modèles mathématiques. Un lien existe donc entre mathématiques et musique. L’admettre est important pour comprendre comment les outils numériques du musicien peuvent l’assister, voire le remplacer, dans l’exécution de certaines tâches d’un processus de création tout comme la calculatrice peut assister les mathéma10 ticiens au cours du processus de résolution de problèmes. Sans doute ne pourrons-nous jamais voir d’innovation dans les mathématiques sans mathématiciens, bien que ce soit sujet à débat (Ruelle (2008)), tout comme nous ne verrons sans doute pas l’émergence de nouvelles musiques sans compositeurs. Mais nous avons vu et verrons sans nul doute l’arrivée de nouveaux outils qui rendront possible l’automatisation de nombreuses activités du processus de composition au sens large. Gardons en tête que chaque compositeur a son(ses) propre(s) processus de création et c’est aussi ça qui fait l’originalité de sa production. En attendant, intéressons-nous aux technologies qui existent déjà.

Le MIDI Quand on parle d’un processus automatique qui génère de la matière musicale, celle-ci peut prendre différentes formes. Sans entrer dans les détails, il nous semble important de faire le point sur le format le plus utilisé pour transmettre des informations musicales au format numérique qui est aussi le format que nous avons utilisé pour lire et exporter les séquences musicales de notre prototype. MIDI signifie Musical Instruments Digital Interface. La norme MIDI est à la fois un protocole de communication permettant l’échange de donnés musicales en temps réel entre la plupart des instruments virtuels, électroniques, et séquenceurs sous forme de messages MIDI, ainsi qu’un format de fichier pouvant contenir ces messages MIDI accompagnés d’informations temporelles. Ces fichiers peuvent être importés ou exportés dans la majorité des logiciels de musique et peuvent ensuite permettre de visualiser ces informations sous forme d’une partition par exemple, aussi bien que d’être incorporés sur la piste d’un projet dans un séquenceur logiciel. Il existe une autre norme, l’OSC, ayant la même finalité que le MIDI et ayant pour vocation de la remplacer.

En effet, l’OSC est bien plus récente (la norme MIDI date de 1983) et est plus riche que son prédécesseur. Elle est de ce fait souvent favorisée par la communauté scientifique, depuis quelques années, dans l’expérimentation de nouveaux prototypes logiciels. Cependant, les solutions commerciales sont pour l’essentiel encore compatible nativement exclusivement avec la norme MIDI. Si nous avons choisi le MIDI c’est pour sa compatibilité avec la majorité des systèmes existants et pour la gestion facilitée de celle-ci par l’API java.sound de Java. De plus, elle répond entièrement à nos besoins actuels. Si ceux-ci venaient à évoluer, il serait possible d’implémenter la gestion de la norme OSC, en plus de celle du MIDI. La principale différence entre le MIDI et l’OSC est que le MIDI est originellement prévu pour être communiqué entre les systèmes au travers d’un câble MIDI physique alors que l’OSC est prévu pour être transmis au travers d’un réseau informatique. Pour transmettre du MIDI entre deux applications logicielles, par exemple, il faut créer un port MIDI « virtuel » à l’aide d’un petit outil logiciel, ce qui est (un peu) contraignant puisque non géré nativement.

La MAO et les séquenceurs

LaMAO c’est la Musique Assistée par Ordinateur. Tout usage de l’informatique pour faire de la musique, c’est de la MAO. Les outils de MAO peuvent ainsi prendre des formes extrêmement diverses pour soutenir les divers processus de composition, de production, de sonorisation, mais aussi bien être des outils d’apprentissages de la musique, de technique de production, etc. À l’origine, les séquenceurs permettaient de manipuler des séquences MIDI, de les arranger, de rediriger le signal vers d’autres systèmes prenant la norme MIDI (voir section 1.1.1) en entrée telle que des synthétiseurs, expandeurs ou échantillonneurs et d’acquérir des messages provenant d’autres systèmes. Aujourd’hui, la plupart des séquenceurs permettent aussi de gérer de l’audio, d’intégrer des applications prenant en entrée du midi telle que des synthétiseurs virtuels, de rediriger les signaux audio et les messages MIDI vers tout type de système matériel ou logiciel compatible et de récupérer le MIDI et l’audio de la même façon en entrée.

On les appelle des DAW (vient de l’anglais Digital Audio Workstation qui signifie station audionumérique). Bien que l’acronyme DAW est censé désigner l’ensemble des outils d’une configuration pour la production de musique (ou audiovisuelle), ces séquenceurs, dont nous parlions, proposent un ensemble d’outils tellement complet qu’on les nomme ainsi. Le plus souvent, les DAW logiciels s’accompagnent de cartes son pour s’interfacer avec des systèmes matériels (un microphone en entrée pour prendre un instrument et des enceintes amplifiées en sortie par exemple) et de surfaces de contrôle (principalement MIDI). Pour plus d’informations à propos des outils de MAO actuellement utilisés pour la composition de musique, il peut être intéressant de se référer à la thèse Han (2011) qui a pour vocation d’étudier des méthodes de composition utilisant les outils les plus vendus. Bien que les technologies évoluent rapidement, ce travail est suffisamment récent pour être actuel. Jinseung Han s’attarde notamment à détailler les fonctionnalités de Pro Tools (Digidesign (1991-2013)) et Cubase (Steinberg (1990-2012)) qui sont les deux séquenceurs les plus répandus du marché professionnel. Si l’on cherche des informations sur les outils matériels et logiciels utilisés pour la composition, mais aussi pour tout ce qui touche de près ou de loin à la musique et au son, l’une des plus importantes bases de données francophones est, à notre connaissance, celle du fanzine web Audiofanzine (Raynaud (2000-2013)). Cette source d’information est très riche, mais attention aux sources qui alimentent le contenu, celui-ci est en partie contributif.

En 1999, le logiciel Ableton Live (Ableton (2013)) est un nouveau séquenceur proposant une approche nouvelle pour la manipulation de séquence audio et MIDI sous forme clip. Un clip c’est une séquence d’une ou plusieurs mesures, d’un ou plusieurs temps. Cette séquence peut être jouée en boucle ou bien une seule fois. La lecture d’un clip peut être lancée rapidement et plusieurs clips peuvent être lus simultanément. L’ordre de lecture des clips peut être automatisé. Les clips sont placés dans une grille dans une vue appelée session. Ce que vous voyez sur la figure 1.1 est un exemple de configuration en vue session. Les clips sont représentés par des rectangles de couleurs avec un petit bouton « lecture » sur la gauche. Lorsqu’un clip est sélectionné, son contenu apparait en bas de la fenêtre. Une vue arrangement permet d’enregistrer l’exécution d’une session en live pour ensuite la travailler dans un séquenceur plus traditionnel. Cette approche d’Ableton Live est très appréciée des musiciens de musique électronique tant pour avoir offert de nouvelles possibilités lors des performances scéniques que pour donner un aspect vivant à leur processus de composition et de production en studio. Bien que plus adapté à la production de musique électronique et surtout répétitive que pour la prise d’instruments acoustiques, il permet de s’aventurer dans n’importe quel genre autant pour la composition que pour la production.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
CHAPITRE 1 LA REVUE DE LITTÉRATURE
1.1 Les logiciels d’aide à la composition et de composition automatique
1.1.1 Le MIDI
1.1.2 La MAO et les séquenceurs
1.1.3 SongSmith
1.1.4 Noaktil
1.1.5 Hyperscore
1.1.6 Pizzicato
1.1.7 L’intégration des générateurs de mélodies dans les DAW
1.2 Les algorithmes de génération de musique
1.2.1 Les algorithmes génétiques
1.2.2 Les algorithmes non déterministes basés sur les règles
1.3 ZUI : Les interfaces utilisateur zoomables
CHAPITRE 2 LA PROBLÉMATIQUE
CHAPITRE 3 LE PROTOTYPE : GENSESSION
3.1 Le survol général
3.2 L’interface zoomable
3.2.1 Le zoom automatique
3.2.2 Le zoom et panoramique manuel
3.2.3 Le ré-encadrement automatique
3.3 Les voix
3.4 Les objets paramètres de génération
3.4.1 Paramètre global et paramètre dynamique
3.4.2 Les paramètres de génération
3.5 Les objets clips
3.5.1 Les options des clips
3.5.2 La sélection multiple
3.6 La timeline
3.7 La lecture des clips et de la timeline
3.8 Le système de sauvegarde et d’export
3.9 Les raccourcis
3.10 L’algorithme de génération
3.10.1 La méthode de génération par défaut
3.10.2 L’algorithme de génération rythmique
3.10.3 L’algorithme de génération harmonique
3.10.4 La variante 1 : gardant le rythme des notes
3.10.5 La variante 2 : gardant la hauteur des notes
3.10.6 La variante 3 : mélangeant aléatoirement les autres variantes
3.11 Le module de gestion de la théorie musicale
3.11.1 Codage des informations : les entités
3.11.2 La transposition intelligente
CHAPITRE 4 L’ÉVALUATION
4.1 La rétroaction des utilisateurs
4.1.1 Le protocole
4.1.2 Les résultats
4.1.3 La discussion
CONCLUSION
RECOMMANDATIONS
ANNEXE I SCÉNARIO DE PRÉSENTATION DE L’APPLICATION
ANNEXE II NOTES PRISES AU COURS DES RENCONTRES
RÉFÉRENCES BIBLIOGRAPHIQUES

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *