Hmm kann natürlich sein das von der Rechenleistung in einer akzeptablen Qualität immernoch zu viel ist. Ich dachte halt nachdem es inzwischen Berichte gibt wo Realtimeraytracing Grafiken möglich sind das hier auch machbar sein sollte. Ist ja im prinzip das selbe. Ob es sich um ein Ton oder Lichtspektrum handelt ist für die Berechnung egal.
ne, das ist ne milchmädchenrechnung.
beim raytraycing von grafiken hast du ja i.d.r. eine / mehrere lichtquellen, die ein objekt beleuchten. bei audio hast du eine / mehrere schallquellen, die nicht ein objekt bestrahlen, sondern schall in einer richtung abstrahlen. dann hast du aber wände drumherum, die alle potentiell reflektieren können - und das auch tun. ab der 3. oder 4. reflexion wird das schon recht viel zu berechnen (es werden ja für jede reflexion neue zusätzliche spiegelschallquellen erzeugt)
bis du das diffussschallfeld berechnet hast, reicht das aber noch lange nicht. um early reflexions zu berechnen ist das natürlich absolut sinnvoll.
Es ließen sich ja Presets einführen für verschiedene Materialen wie das auch bei den Grafikprogrammen gemacht wird.
gibt es - aber die eigenschaften sind durchaus komplexer, z.b. sind die akustischen eigenschaften von materialien ja von ihrer größe und dicke abhängig (okay sind sie in der optik auch, z.b. für die beugung am spalt. aber die wellenlänge von licht ist natürlich viel kleiner, und objekte dieser größenordnung doch eher selten
).
Und die 3d-Modelle die benutz werden ließen sich ja hier auch benutzen.
kann man nicht. z.b. eine einfache treppe: in einem grafikmodeller hat eine treppe stufen. in einem auralisationsprogramm ist das aber u.u. nicht notwendig, wenn die stufen viel kleiner als die wellenlänge der schallwellen sind. dann kann die treppe als ebene dargestellt werden. würdest du das nicht tun, müsstest du die reflexionen an jeder stufe berechnen - das ist dann kein spaß mehr!
Aber es kann natürlich sein das tatsächlich um das ganze auch hörbar zu machen so eine Lautsprecherwand wie in dem Beispiel notwendig wird
du bestimmst ja in der auralisation eine hörerposition, an der du das ergebnis ausrechnest. i.d.r. ist das eine impulsantwort. (wenn du als eingangssignal einen impuls draufgibst halt). damit könntest du dann in deinen faltungshall gehen...
Was ich aber traurig finde ist das selbst unser Stereo meistens nicht wirklich genutzt wird. Ein einfaches Pan links/rechts berücksichtigt nichtmal die Laufzeitunterschiede zur Klangortung. Das ließe sich ja auch unabhängig vom Reverb machen nur für die direkten Signale. Ginge ja auch besser aber da sind wir eben wieder schnell bei sowas was ähnlich komplex ist wie eben die Wellenfeldsynthese.
die laufzeitunterschiede sind aber entfernungsabhängig oder? möchtest du beim mix festlegen, wie weit die instrumente weg sind, um dann kammfiltereffekte zu bekommen, wenn man den mix mono abspielt?
in wellenfeldsynthese kann man z.b. keine beweglichen schallquellen erzeugen, weil die wellenfeldsynthese nur in der lage ist, statische positionen von schallquellen abzubilden. bewegliche schallquellen sind keine superposition aufeinanderfolgender statischer positionen - simuliert man es so, klingt es auch nicht echt.
aber will man das überhaupt?
hast du im kino schonmal gesessen, und eine wilde actionszene gesehen? eine explosion, der krankenwagen rast vorbei, unterwegs, die verletzten zu retten. du hörst die sirene, sie rast vorbei, doch was du nicht hörst ist ein dopplereffekt! im kino erwartet das _niemand_ (mehr). umfragen haben gezeigt, dass bei den kinobesuchern kein interesse an einem so hohen realismusgrad besteht.