C’est en particulier ce que démontre cette ambitieuse encyclopédie. On pense au dodécaphonisme, au sérialisme et à sa combinatoire, à l’importance croissante des structures, au courant de musique spectrale permis par les avancées technologiques, à l’irruption du hasard, à l’outil informatique. Mais la décomposition progressive de la musique en paramètres abstraits (rythme, hauteur, intensité, mélodie, timbre, systèmes de notation, harmonie, tonalité, temporalité, durée, effets sonores, échelles de tempos entre différents instruments…) a ouvert d’autres horizons. Les mathématiques ont alors parfois été conviées, au-delà de l’arithmétique élémentaire, des codages sémantiques, des représentations graphiques, des symétries ou des transformations.
Une certaine obsession du nombre ou de l’espace ont conduit Ivan Wyschnegradsky à l’ultrachromatisme, John Cage à sa méthode de la racine carrée, Dennis Gabor à sa synthèse granulaire des sons. Milton Babbitt et Allen Forte ont revisité la théorie des ensembles. Lejaren Hiller utilisait les chaînes de Markov.
Armando Gentilucci conviait l’algèbre linéaire et les matrices. Une école stochastique de composition a émergé en France. La musique électro-acoustique fait la place belle à l’analyse harmonique, à l’algorithmique, aux théories de Fourier (filtrage, modulation, convolution), du signal et de l’information (synthèse modulaire, échantillonnage musical…). Le théoricien
Ian Quinn mobilise la théorie des ensembles flous pour ses analyses d’une œuvre de Steve Reich.
Cette exploration de la recherche de « lois universelles » pour la composition est décortiquée avec moult exemples en quelque soixante-dix chapitres passionnants et soigneusement rédigés.
Théories de la composition musicale au XXe siècle. Collectif, sous la direction de Nicolas Donin et Laurent Feneyrou, Symétrie, 1 830 pages, 2013, 220 euros (tome I), 190 euros (tome II).