"Oxymore": Jean-Michel Jarre über die Herausforderungen von 3D-Audio

Nix für ungut.
Der Artikel, um den es in diesem thread geht handelt von Jarres Idee, seine Musik in 3D abzumischen. Was das für Vorteile hätte und welche Probleme das mit sich bringt. ;-)
Im Zuge dessen sind ein paar Unschlüssigkeiten im Bezug auf Mono vs Stereo vs 3D aufgekommen.
Da wird man ja wohl noch mal drüber sprechen dürfen. (in diesem thread)
 
Zuletzt bearbeitet:
Ich war mal ~1998 auf einem JMJ Konzert in Paris… Riesenspektakel… Open Air. Damals hat er Remixes mit irgendwelchen bekannten DJs gemacht. Klang gar nicht mal so schlecht, habe sogar das Album damals gekauft.

Klar ist er eine Größe in der (elektronischen) Musik. Mir gings bei Interviews nur immer so, speziell wenn er sich über Gear äußert, dass ich das Gefühl (sic!) hatte, dass er erstaunlich weit weg von diesen Dingen ist. Reines Gefühl allerdings… keine Evidenz.
 
Zuletzt bearbeitet:
Mono und Poly finde ich in dem Kontex auch spannend. Ich habe mal im Studio von Andreas Vollenweider (der Elektroharfenspieler) gearbeitet und er fand dass Musik, die nur mit monophonen Synths gemacht ist, sei viel einfacher zu mischen und ergibt ein viel räumlicheres Stereobild.
 

herumraten wird völlig überschätzt - mit wissen kommt man viel weiter.

ich kenne eine ganze reihe von leuten, die genau so etwas machen wie z.b. die 3D mischung ovn kraftwerk´s frankreich tour erledigt zu haben. daher kannst du mich von gegenteil nicht überzeugen indem du einfach das gegenteil behauptest.

wenn die realität nicht zum weltbild passt, muss man das weltbild modulieren, nciht die realität.

wenn du das interview noch mal aufmerksam liest, wirst du feststellen, dass jarre da von "wir" spricht. das sagt man nicht, wenn man alles alleine produziert hat.


jarre ist komponist und performer, er hat gar nicht den anspruch sich mit technik auszukennen, philosophische konzepte zu entwickeln oder alles alleine zu produzieren. woher also nimmst du diesen anspruch an ihn?

falls du bislang davon ausgegangen bist, dass jemand der seit 50 jahren auf der bühne steht und gut 100 millionen tonträger verkauft hat abends seine kabel selbst wegräumt lautet die antwort jedenfalls "nein". solche leute haben dutzende von mitarbeitern, auftragnehmern und partnern bei dem, was sie tun.

und dass er wenig plan hat von dem, was er da erzählt, das kann man ja nun wirklich sehen. er benutzt das alles erst seit es das als plug-ins für nuendo gibt und er hat hilfe dabei. erdreistet sich dann aber solche dinge zu sagen wie "die filter sind scheiße".


aber ihr glaubt ja auch, dass er sein laser ding selbst erfunden hat. hat er sicher auch irgendwann mal in einem interview gesagt. :D
 
Der Artikel, um den es in diesem thread geht handelt von Jarres Idee, seine Musik in 3D abzumischen. Was das für Vorteile hätte und welche Probleme das mit sich bringt.


sein merkwürdiger satz mit den mono schallquellen in der natur könnte uns eine gute vorlage für eine sinnvolle diskussion über das generelle thema sein.

dieser satz ist nämlich meiner meinung nach vor allem deswegen merkwürdig, weil seine arbeit damit ja gar nichts zu tun hat. er nimmt ja gar keine natursamples, kunstkopfaufnahmen oder sowas in der art, sondern er macht ja synthesizermusik.


und in bezug auf synthesizermusik wäre dieser satz auf eine frappierende art und weise "richtig" und träfe genau das kernproblem: denn in der tat hat man bei synthesizersounds das problem, dass die im regelfall mono sind, oder auch mal 2 kanäle oder ein layer von mehreren quellen.

die virtuelle klangquelle, die man dann in in die szene oder in ein soundfield einsetzt um seine musik "in 3D" zu mischen, ist dort also immer nur eine (virtuelle) punktschallquelle.

genau deswegen forsche ich z.b. seit vielen jahren an der generierung von entsprechend "breiten" sounds mit verschiedenen syntheseformen und datenformaten, weswegen ich regelmäßig die krise mit den heutigen industrieformaten bekomme, weil die einfach ein fauler kompromiss sind.

im rahmen dieser möglichkeiten ist der ansatz der bei jarre verfolgt wurde allerdings korrekt, weil es der einzig mögliche ist: man setzt mithilfe des immer gleichen effekts - in diesem fall einen hall - erst mal einen raum, und mischt dann darin.
 
Kommt auch drauf an, was du genau als die Schallquelle ansiehst: Das Klavier als Ganzes? Die 3 Saiten einer Bassnote? Eine Saite? Ein Punkt auf der Saite?

wie weiter oben schon jemand sagte: spätestens wenn das klavier auf einem fussballfeld steht und du bist 200 meter weit weg, kannst du es mit gutem gewissen als punktschallquelle betrachten. ein solches phänomen gibt es also in der natur durchaus.
 
lass einfach juut sein!

irgendwie hatte ich gehofft, dass du uns jetzt von deiner umfangreichen erfahrung mit 3D mischungen erzählst und welche schlüsse du so daraus ziehst.

dann habe ich mich wieder daran erinnert, dass das ja hier das sequencerforum ist.


dafür ist die on-topic quote hier mit 5% aber bemerkenswert überdurchschnittlich hoch. wobei ich den part, der offenbar bereits abgetrennt wurde weil es plötzlich um cannabis ging, zum glück irgendwie verpasst habe.


Ist er ja auch… :)

mono/stereo war eine schöne diskussion, aber ob es wirklich etwas mit dem interview zu tun hat ist wohl noch nicht ganz geklärt.
 
@einseinsnull

Es ging mir bei meinem Kommentar dazu nur um deine pauschalisierende & übertriebene abwertende Art und Weise, dagegen bin ich allergisch.

Das war alles.
 
Im Grunde ist es doch ganz einfach:

Eine Punktschallquelle ist NUR DANN "mono", wenn sie sich in einem schalltoten Raum befindet.
Sobald jedoch ein Raum (mit all seinen Reflexionen) beteiligt ist, wird jede Punktschallquelle "räumlich", bzw. "stereo".

Und zur Produktions-Ebene:
Sobald man es erreicht hat, daß die erzeugte Musik IM KOPFHÖRER nicht mehr im Zentrum des Schädels wahrgenommen (bzw. geortet) wird, sondern (in angenehmem Maße) außerhalb des Schädels, hat man das (klanglich räumliche 3-D-) Ziel erreicht.
Alles darüber hinausgehende ergibt in der Regel nur unangenehme "Surround-Effekte aus dem Reich der Phasenschweinereien".

Grundsätzlich gilt:
Nachdem man seit Jahrzehnten bereits ausgiebig durch die (digitalen) Möglichkeiten überbordender Audio-Dynamik genervt worden ist (siehe die "bombastischen" Filmvertonungen mit Explosionen in Originallautstärke neben leisen (unverständlichen) Dialogen), wäre es doch besser, wenn man von zusätzlichen 3-D-Nerv-Effekten verschont bleiben würde.
 
"Der Raum" ist nicht die (Luft-)Leere, sondern nur die Begrenzung (mit all ihren komplexen Reflexionen).

Der "fehlende Raum" (bzw. der "nichtexistente" Raum) ist nicht der "luftleere" Raum, sondern der SCHALLTOTE Raum.

Der schalltote Raum ist genauso Bestandteil einer Punktschallquelle, wie der NICHT schalltote Raum, nur daß ersterer keinerlei Einfluß auf das resultierende Schallereignis hat.
 
@einseinsnull alles klar bei dir? Du bist diese Woche außergewöhnlich „giftig“, du machst ja fast schon @ppg360 Konkurrenz.

ich habe schlichtweg nicht verstanden, was er überhaupt sagen wollte. aber die erklärung wurde ja inzwischen nachgeliefert.

es läge natürlich nahe - auch zur erfüllung der erwartungshaltung meines kabarett-publikums - jetzt noch irgend etwas total giftiges über jean michael jarre zu sagen, aber das wäre dann ja offtopic und das wollen wir gar nicht erst anfangen.


sinnvoller erscheint es an dieser stelle noch etwas total giftiges über ppg360 zu sagen, der offenbar mal einen grundkurs in physik braucht.

Ohne Raum keine Schallquelle keine Ortung keine Orientierung im Raum.

ohne raum kein raum? ahhh, danke für die info. :P


aber im ernst: direktschall kann man unter bestimmten bedingungen schon auch orten. z.b. wenn man das geräusch kennt oder wenn es relativ statisch ist, und sich die quelle dann bewegt. oder ein kleines bischen auch wegen der phase i.e. weil man 2 ohren hat.

erst für feststehende positionen kann es dann kniffelig werden den gewünschten eindruck aufs band zu bekommen. 2-3 reflektionen, wo auch immer, können da in der tat wunder bewirken. vbap oder ambisonics als platttform vorausgesetzt kann dazu im prinzip einfach irgendein beliebiges mono to stereo (er hat jehova gesagt!) hall oder delay plug-in nehmen (das delay aber bitte mit absorbtionsfilter) und die reflektionen, die da rauskommen, an eine beliebige stelle im soundfield wieder einsetzen.

andereseits bindet man sich aber dann auch an sowas und muss das konzept den ganzen song lang durchhalten. und wenn nachher im mix überall gleichzeitig was ist was dröhnt und säuselt, dann hört man wieder die reflektionen nicht mehr. :sad:

deswegen machen die meisten leute dann auch nichts anderes als die lead stimmen ihres popgedudels (damit meine ich nicht jarre aber z.b. schulze) ein bischen mit einem LFO hin und herzubewegen, so wie sie das vorher mit stereo auch gemacht haben.


ich denke es bleibt keine andere perspektive als positionen, sprünge und bewegungen von quellen als teil der kompositionsgrammatik zu betrachten - und nicht der "mischung" - bevor man an den reglern herumspielt.

deswegen komme ich auch mit diesem industrieretortennuendo nicht klar; da kannst du z.b. nicht so ohne weiteres parameter mit sequencern ansteuern um ereignisse hin und her hüpfen zu lassen.
 
Zuletzt bearbeitet:
Mag lustig erscheinen, aber klopfe in einem Vakkumraum gegen die Wand. Durch die Luft wird sich nichts übertragen, weil ja keine da ist, aber durch die Wand.
 
Und was sind Vibrationen? Unter anderem Schallwellen, die über feste Körper übertragen werden. Mit einem Seil und zwei Becher kann man "telefonieren".
 
Zuletzt bearbeitet:


Zurück
Oben