Spektrale Komposition in der elektronischen Musik

Tommi

||||||||||
Ohne es zu wissen höre ich wahrscheinlich schon mein Leben lang Spektralmusik. Dieser Begriff ist mir tatsächlich zum ersten Mal dieses Wochenende in einem Podcast begegnet.

Einordnung:
Die Spektralmusik (Musique spectrale) hat sich in den 1970er Jahren in Paris im Umfeld des Ensemble l’Itinéraire herausgebildet. Die wichtigsten Vertreter dieses Musikstils sind die Komponisten Gérard Grisey, Tristan Murail, Georg Friedrich Haas, Philippe Manoury, Michaël Levinas und Hugues Dufourt. Die Spektralmusik ist nicht von der mathematischen Reihung von (Ton-)Parametern der seriellen Musik oder der freien Konstruktion der atonalen Musik geprägt, sondern beruht auf den Teiltönen der Klänge. Vorläufer dieses Kompositionsverfahrens sind Giacinto Scelsi, Ravel und Messiaen.Die Bezeichnung „L’Itinéraire“ (französisch: Der Weg) zeigt auf, dass sich die Gruppe auf den Weg machte, um von außermusikalischen Einflüssen zurück zum Klang zu gelangen. Die physikalisch-akustischen Charakteristika des Klanges allein wurden wissenschaftlich untersucht und zur Grundlage eines neuen Komponierens, das vor allem auf feinen Modifikationen der Klangfarben basierte. Dadurch wird „ein Ton zur Klangfarbe, ein Akkord zum Spektralkomplex und ein Rhythmus zu einer Welle von unvorhersehbaren Dauern“ (nach Gérard Grisey).Zur zweiten Generation der Spektralmusikkomponisten gehören unter anderem Magnus Lindberg, Philippe Hurel, Thierry Blondeau, Jean-Luc Hervé, Ivan Fedele und Marco Stroppa.
Quelle: Wikipedia

So richtig kann ich es aber nicht fassen. Klar, prinzipiell geht es eher um "Klang". Ich "komponiere" mit einem (Teil-)Spektrum eines Klangs. Die halbe Nacht habe ich alle möglichen Informationen dazu inhaliert, bekomme aber so gar nicht den Dreh in die praktische Anwendung mit z. B. Synthesizern.

Tja, wieder so ein Nischenthema, fürchte ich. Ich hoffe, dass ihr mir da vielleicht auf die Sprünge helfen könnt. Eine konkrete Frage habe ich noch nicht da ich noch nicht begriffen habe was Spektralmusik eigentlich genau ist.
 
Eine konkrete Frage habe ich noch nicht da ich noch nicht begriffen habe was Spektralmusik eigentlich genau ist.
Da ist dieser Wikipedia-Beitrag auch nicht wirklich erhellend. Man weiß danach, dass es sowas gibt, und wer das macht, aber wie das geht...

Ich tu mir nachher mal das Video von @intercorni rein.
 
Ohne das Video jetzt gesehen zu haben - mag sowas auch in den Bereich der "spektralen Synthese" gehören?

Composer and researcher Jown Chowning worked on the first digital implementation of FM in the 1970’s. By using envelopes to control the modulation index and the overall amplitude evolving sounds with enormous spectral variations can be created. Chowning showed these possibilities in his pieces, in which various sound transformations occur. In the piece Sabelithe a drum sound morphes over the time into a trumpet tone.

(Aus: https://flossmanual.csound.com/soun...ation#the-john-chowning-fm-model-of-a-trumpet)
 
So richtig kann ich es aber nicht fassen. Klar, prinzipiell geht es eher um "Klang".

du musst sehen in welcher zeit das entstanden ist.

analoge filter und filterbänke und die digitale fast fourier transform bzw. methoden des additiven synthese oder resynthese waren 1980 immer ein ziemlich neues instrument, und von daher ist diese idee, dass die veränderung des klangs während eines "traditionellen" musikalischen ereignisses ("note") selbst den charakter eines ereignisses bekamen - und somit auf dieser ebene nun auch diese art der ereignisse "komponiert" werden konnte - von diesen technik abhängig gewesen.

zuvor hast du die dreieinhalb klangfarben, die eine trompete so konnte, als zusätzliche kleine anweisung (ähnlich der anweisung einer trillo verzierung oder einer synkope) an die note (beginn, ende, stimme und tonhöhe des ereignisses) geschrieben - und auch so gedacht während des komponierens.

seit man die möglichkeit hatte klänge beliebig oft und häufig zu verändern während ein ding noch läuft hatten diese veränderungen plötzlich ein eigenes wesen und einige leute begannen daher auch ihre denkweise umzustellen.

du wirst bei manoury & co folglich auch nicht nur techniken finden, die irgendwas mit "spektral" im namen heißen, sondern eben auch "granular", hoch und runtergepitchte samples, diverse formen (aus heutiger sicht rudimentären) "morphings" - und selbstverständlich vor allem zunächst einmal microtonality.

mit jeder einzelnen dieser techniken und ideen kannst du selbst das mal stück für stück ausprobieren, was der ansatz hinter "spektralkomposition" (im sinne von "weg von der komposition nur mit note on/note off") bedeutet.

einfaches beispiel: man halte eine note an seinem lieblingsbehringerspielzeug und lege einen LFO auf den filter oder auf die lautstärke und verstärke dann langsam die modulationsintensität. ab wann ist das noch eine modulation, und ab wann sagt die dein ohr gehirn, dass das kein monolithisches ding mit einer modulation mehr ist, sondern lauter einzelne dinger?
keine sorge, irgendwann kommt der punkt immer. (nur um nicht zu sagen, sich möglichst dicht an der grenze zwischen beiden zu bewegen ist eh am interessantesten.)

und was mit amplituden geht, das geht mit klangfarben um so besser. viele wavestation presets machen nichts anderes. (außer, dass das dann nicht deine komposition ist.)

Tja, wieder so ein Nischenthema, fürchte ich.

überhaupt nicht.

der kampf gegen den LFO- und ADSR-terror steht im zentrum des weltgeschehens und er hat gerade erst begonnen.

aber wir werden immer mehr.


Ohne das Video jetzt gesehen zu haben - mag sowas auch in den Bereich der "spektralen Synthese" gehören?

nein... eine form der komposition gehört nicht in den bereich einer form der synthese.

und man kann es auch nicht essen.
 
Zuletzt bearbeitet:
Wenn das so ist, mache ich das auch seit Jahren - Drones, in die mit LFOs Bewegung gebracht wird... Ich wusste nur nie, wie man das korrekt akademisch nennt ;-)
 
minimal und drone reizen das prinzip oft aus, und machen nur noch das. (wobei ein zufallsergebnis u.u. noch keine kompositionstechnik ist..)

und klar, aus heutiger sicht braucht man dazu sicher keinen extra begriff mehr. damals als er neu war aber hatte er eine berechtigung.

es ist quasi eine eine weiterentwicklung der idee hinter der "elektronischen musik" aus der ersten hälfte des letzten jahrhunderts (=also überhaupt erst mal den klang einer stimme frei selbst zu gestalten.)
 
Es ist natürlich irgendwo auch eine "Kopfgeburt". Wann genau ist eine Komposition denn "spektral". Und warum? Mal abseits von irgendwelchen technischen Umsetzungen mit elektronischen Hilfsmitteln oder Algorithmen um etwas herauszufinden und dann nachzubilden.

Debussy (und andere, hier mal als Beispiel, ich bin da kein Auskenner) hat hier ein Werk komponiert welches (zumindest in der Einleitung) dem westlichen Ohr keinen Halt gibt. Es wird nichts aufgelöst. Es führt nirgendwo hin. Zurück bleiben beim bildungsbürgerlich geprägten Musikliebhaber (ist nicht despektierlich gemeint) nur Fragezeichen. Das was wir hier neudeutsch Chord Progression nennen um Stimmungen und Spannungen zu erzeugen wird von Debussy absichtlich ignoriert.



Da fragt an sich halt: Worum geht's hier eigentlich? Geht es hier nicht doch eher um das Klangspektrum? Also um den Klang an sich der, anders als eben Akkorde in einer bestimmten Abfolge, Emotionen auslösen soll? Und ja auch tut?

Ähnliches Konzept von Steve Reich:



Was dem Zuhörer allerdings schon etwas abverlangt. Aber auch hier verlieren die Worte (wie die Akkorde bei Debussy) ihre Bedeutung. Und wenn man dazu in der Lage ist, verschiebt sich die Aufmerksamkeit auf den Klang und seine Nuancen.

Aber ich denke, dass du (@einseinsnull) da irgendwo schon Recht hast. Im Grunde ist das heute wohl eher Normalität und nichts besonderes mehr. Ich fand es im ersten Moment spannend. Trotzdem werde ich mal schauen was ich damit mache. Unaufgelöste Akkorde sind allerdings sowieso schon meine Spezialität. ;-)
 
"It's gonna Rain" von Reich ist eigentlich was anderes. Er hat da diesen Straßenprediger aufgenommen, und das zufällig auf 2 Tapes abgespielt, die nicht 100% die gleiche Geschwindigkeit hatten. Das führt dann quasi zu "Phasenverschiebungen".

Später hat er das für 2 Pianisten umgesetzt (das muss elend schwer zu spielen sein - nicht wegen der Noten, die sind total simpel, aber weil man sich ja von dem anderen Pianisten mental entkoppeln muss):
 
Möglicherweise treibt es John Cage mit seinem Stück 4:33 auf die Spitze?



Ich würde es gern mal live erleben. In einem gefüllten Konzertsaal wahrscheinlich der Hammer.

"It's gonna Rain" von Reich ist eigentlich was anderes
Bestimmt sogar. Aber wenn du dieselben Worte in permanenter Wiederholung hörst kommt es zu einer "semantischen Sättigung". Die Bedeutung verliert sich im Gehirn und es bleibt dann nur noch der Klang, also Spektrum.
 
Ich zeige gerade in der Galerie Setareh X in Düsseldorf meine Installation "Der Tag, an dem die Erde stillsteht" (noch bis 13.7.) und habe in diesem Rahmen auch einen Text zum Thema verfasst, der auf Klangflächenkomposition und auch spektrale Komposition eingeht, wer mag, kann ja mal reinlesen (der Schlusssatz bezieht sich nur auf die Radiosendung, in der das ausgestrahlt wurde):
 

Anhänge

  • Die Klangflächenkomposition im Werk von Pyrolator .pdf
    64,1 KB · Aufrufe: 6
danke an alle, das hab ich alles ewig nicht gehört. sehr schön das hie versammelt zu sehen.
Aber ich denke, dass du (@einseinsnull) da irgendwo schon Recht hast. Im Grunde ist das heute wohl eher Normalität und nichts besonderes mehr. Ich fand es im ersten Moment spannend. Trotzdem werde ich mal schauen was ich damit mache. Unaufgelöste Akkorde sind allerdings sowieso schon meine Spezialität. ;-)

bei "normalität" stellt sich doch die frage wie viele leute die noise oder drone o.ä. sich wirklich gedanken über die spektrale zusammensetzung ihrer stücke, jenseits von "ok, hier lowpass, da highpass" machen? also setzen sie bewusst ein Spektrum zusammen oder halt nur klang. Was jetzt nichts über die qualität der arbeit aussagt, sondern nur über die "akademisierung" der herangehensweise.

Macht das hier jemand so? ich hab das in älteren stücken, die aus aberwitzig vielen schichten loops bestehen, gemacht. und gerade zum ersten mal seit langem, wieder, aber eher unakademisch...==>"ok, hier lowpass, da highpass":)
 
bei "normalität" stellt sich doch die frage wie viele leute die noise oder drone o.ä. sich wirklich gedanken über die spektrale zusammensetzung ihrer stücke, jenseits von "ok, hier lowpass, da highpass" machen? also setzen sie bewusst ein Spektrum zusammen oder halt nur klang. Was jetzt nichts über die qualität der arbeit aussagt, sondern nur über die "akademisierung" der herangehensweise.

richtig, das "ich habe auch schon mal einen LFO benutzt" ist es sicherlich noch nicht ganz. es ist nur eine ähnliche technik, die sich in diesem falle aber auf beginn und ende von ereignissen bezieht, und noch nicht auf den klang.

und es ist natürlich nur "komposition", wenn man wirklich zufälligweise genau das komponieren wollte, was so ein LFO macht, nämlich endlose, immer gleich lange und gleich schnelle viertelnoten. :)

um es halbwegs zu erfassen, was es mal hauptsächlich bedeutet hat, muss man wohl das grundprinzip mal etwas radikaler umsetzen.
ein erstes beispiel dafür ist das cello, was im ersten video dicht am steg gespielt wird. mit dem ergebnis, dass wenn man das dauerhaft tut, man aufgrund der jetzt nahezu fehlenden fundamental eine andere tonhöhe als fundamental (wie heißt die eigentlich aud deutsch?) heraushört. mit diesem sachverhalt spielt die spektrale komposition.

wavetable oder additive synthesizer eignen sich ganz gut für erste experimente, weil man bei deren klägen nicht unbedingt alles raushören muss, sondern im handbuch oder im 32-zeichen display nachschlagen kann, weilche obertöne die enthalten.

man spiele eine sequenz mit dem klang A und finde dann heraus, welches der lauteste oberton ist. dann spiele man mit dem klang B eine zweite stimme dazu, die auf diesen oberton gestimmt ist, und zwar auch dann, wenn dieser oberton nicht zufällig in einem ganzzahligen verhältnis zu seinem grundton steht sondern erst mal quietscht.

...

nimm an, du hast einen klang, der aus 2 tönen besteht, die im verhältnis 10:27 zueinander stehen.

verändert sich deren lautstärke verhältnis untereinander, kommt das dem prinzip hochpass/tiefpass nahe.

wenn du jetzt aber den höheren der beiden sehr viel lauter machst, dann hörst du dessen tonhöhe. und die ist nicht mehr bei C Dur, sondern irgendwo zwischen E und F.
 
Zuletzt bearbeitet:


News

Zurück
Oben