Modellierung von Hallfahne und binaurale Positionierung von Klangquellen in derselben Stereo-Raumimpulsantwort

Einigen wir uns auf den physikalischen Begriff der Diffusion

nö, weil: in den meisten reverbs es dabei haupitsächlich um einen ersatz für die späteren reflektionen geht bzw darum eine künstlicher hallfahne zu produzieren.

und wir erinnern uns: letztlich sind das alles nur reflektionen, auch die, die abgelenkt, zertrut und frequenzgefilöter werden. bei ohn kommt immer nur eine welle aus einer richtung an.

alles andere ist keine frage der theorie, sondern nur der implementation!

wie ihn @Scenturio weiter oben offenbar gemeint hat, oder? Das was die Lücken zwischen den Delays füllt, was aus einer IR eine Palisade macht statt Käfigstäbe.

ja.

Das ist ja das, was Diffusoren tun

ne, nicht ganz... denn auch in einem raum ohne akustikbehandlung entstehen tausende von reflektionen, genau wie in einem mit. mit sind die reflektionen nur unregelmäßiger, was besser klingt.

Halbwissen, zu bestätigen oder zu widersprechen: Diffusoren, die Studiotechniker nutzen, um Räume reflektionsarm zu machen, erledigen das zu einem extremen Grad, damit der Schall möglichst lange möglichst weit weg von Mikrophonen bleibt und in ihre Richtung zielender Restwellen möglichst schwach sind. Mangels eigenem Tonstudio kann ich folgende Vermutung nicht experimentell überprüfen: Würde man Mikrophone in die Talsohlen tiefschaliger Diffusoren tun, wären die emittierten Audiosignale recht laut.

tonstudio == kleiner raum. je kleiner der raum, desto problematischer sind dort die moden. die meisten solcher elemente dämmen darüberhinaus auch gleichzeitig.

im biotop konzertsaal ist das "mittendrin sein" gefragt und der rest ist egal.

im biotop wohnzimmer/masteringstudio hingegen soll links vorne links vorne und rechts vorne rechts vorne bleiben und der rest elimiert werden.

Detailliertere Diagramme als diese bekomme ich momentan nicht hin.

das sieht ganz schön heftig aus, vor allem das fast gleichbleibende in der zweiten hälfte.

schalldruck fällt draußen im real life tendenziell linear ab.

die alten schröder und moorer krankten alle daran, dass sie ein bischen eine gaußkurve aufwiesen, das liegt aber an der implementation.

dein bild sieht hier ein bischen aus wie square root... wie entstanden diese amplituden bei dir? willkürlich?

Diesen Ratscheffekt halte ich in einer (katholischen) Kirche mit großem Altar und ohne akustiktechnische Präparation der Bühne für durchaus möglich

gleich lange reflektionen setzen voraus, dass der weg von der schallquelle zum ohr gleich lang ist.

also z.b. wenn man in einem 4x4 meter großen raum, 3 meter hoch, in der mitte sitzt.

in der kirceh ist der weg quelle-boden-ohr viel kürzer wie der über die wände und die decke ist am höchsten. und anders als im konzertsaal sollte man sich in der kirche nicht genau in die mitte setzen. schon weil da keine bänke stehen. :)


In einer Tropfsteinhöhle wäre das Ratschen vielleicht sogar noch eher der Fall.

jetzt bist du wieder bei extrembeispielen.

ja klar, es gibt auch in der natur höhlen, in denen der hall anzuschwellen erscheint, aber das sind absoilut ausnahmefälle.

Es sind eben die paar frühen Reflektionen, die möglichst eng am Direktschall stehen und laut sind. Wenn das in einer modernen Kirche kein Anlass ist für Diffusormontagen, aber der Denkmalschutz weiß den Pastor sicher zu aktiver Akustiktechnik zu überreden.

man sollte da sofas reinstellen. dann gehen auch wieder mehr leute in die kirche. ich will in konzerten gefälligst bequem sitzen.
 
Es sind eben die paar frühen Reflektionen, die möglichst eng am Direktschall stehen und laut sind.
das ist mir bisher weder in Kirchen noch in Tropfsteinhölen in dieser Form begegnet. Dass die Sprachverständlichkeit teilweise schlecht ist, ist richtig, aber das liegt eher nicht an den Erstreflektionen.

ja klar, es gibt auch in der natur höhlen, in denen der hall anzuschwellen erscheint, aber das sind absoilut ausnahmefälle.
Ja, das sind Spezialfälle.
 
in den meisten reverbs es dabei haupitsächlich um einen ersatz für die späteren reflektionen geht bzw darum eine künstlicher hallfahne zu produzieren.
Ich müsste wohl auch erst mal verstehen, wie ich Filter anwende und dabei aber das numpy.convolve – und das ist schon hochoptimierter Maschinencode, intern kein Python! – umgehe, ohne das Problem einfach an zu viele alsbaldige Abhängigkeiten abzutreten, denn verstehen möchte ich es ja auch noch und das bedeutet für mich einfach mal ganz populistisch ideal: das Wesentliche passt auf nen Untersetzer.

Da beißt die Maus aber keinen Faden ab: Ne Hallfahne von 2.7s Länge bei 44100Samples/s kann man mit 5min Audio_IN falten ... zu Feiertagen ... wenn man am Tag drauf für den kommenden beginnt ... und einen Businesstarif mit dem Stromanbieter vereinbart ...

Da würde mir wohl auch ne naiv implementierte Hadamard-Matrix nix helfen, oder? Moment, ich beschäftige mich damit noch, aber Filter würden vermutlich auch da mit Audio_IN gefaltet, jede Änderung im Rahmen der Kommutativgesetze der Multiplikation, die für Faltung genauso gilt, ist eine nette gedankliche Spielerei, mehr nicht. Die Diffusion nach deinem Verständnis wird also nicht mit Faltung funktionieren.

Die Hallfahne von 2.7s bei 44100 Samples die Sekunde krieg ich zur Zeit nur mit vertretbarem Rechenaufwand gerendert, wenn ich viele überspringen kann, also eben gerade Zerstreuung, den Nachhall des Nachhalls. numpy.convolve nutze ich also nicht, sondern summiere nur Schicht für Schicht, aber nur die mit höhbarem Echo, auf Audio_OUT.
 
Ich müsste wohl auch erst mal verstehen, wie ich Filter anwende

dinge wie einen comb oder einen biquad kann man notfalls auch in datarate realisieren.

aber wie gesagt, so lange wie du nicht zwischen modell und implementaiton unterscheiden willst wird das halt schwer.

im endeffekt sind alle in reverbs verwendeten filter entweder ein "delay" oder ein "eq", wobei ersteres essentiell und letzteres nur optional ist.

es ist also total ausreichend einfach nur in "verzögerung" zu denken wenn man an modellen herumdenkt.

Da beißt die Maus aber keinen Faden ab: Ne Hallfahne von 2.7s Länge bei 44100Samples/s kann man mit 5min Audio_IN falten ... zu Feiertagen ... wenn man am Tag drauf für den kommenden beginnt ... und einen Businesstarif mit dem Stromanbieter vereinbart ...

das problem ist mir bekannt, echte (aka nicht CPU-optimierte) faltung ist auf einem alten G4 auch nicht in echtzeit möglich.

aber dann muss man halt seine philosophie ändern und anders arbeiten. dann nimm dir doch für den binauralfilter teil ein sparta plug-in und rendere deine reflektionen vorher einzeln inclusive der richtungs-information.

Die Diffusion nach deinem Verständnis wird also nicht mit Faltung funktionieren.

ich kann dir nicht wirklich folgen... aber zum letzten satz... was man mit faltung machen kann ist, dass man das, was man sich vorher anders erarbeitet hat, "absampelt" um den gesamtprozess zu vereinfachen und leichter portierbar zu machen. im extramfall kann das auch bedeuten, dass das dann sogar weniger rechenliestung braucht als das original.

Die Hallfahne von 2.7s bei 44100 Samples die Sekunde krieg ich zur Zeit nur mit vertretbarem Rechenaufwand gerendert, wenn ich viele überspringen kann, also eben gerade Zerstreuung, den Nachhall des Nachhalls. numpy.convolve nutze ich also nicht, sondern summiere nur Schicht für Schicht, aber nur die mit höhbarem Echo, auf Audio_OUT.

die mehrheit der hallgeräte mischt deswegen herkömmliche FDN modelle mit FIR frequenzfiltern.

FIR = deconvolution mit vorhersagbarer maximallänge -> für einen halbwegs glaubwürdigen lowpassfilter sind 512 samples oft ausreichend, mit 8096 kannst du dann schon HRIR binarualfilter inclusive der laufzeitdifferenz zwischen den ohren machen.

für 2.7 sekunden geht dann nur noch altiverb & co, die die integration intelligent vereinfachen, auf einem niveau, das man in max oder python niemals hinbekäme.
 
Nehmen wir an, die Zerstreuung würde ich wirklich als Hall vom Hall realisieren, hätte ich es mit einem Vielfachen an Rechenzeit zu tun. Wie viel tatsächlich, probiere ich wenigstens mal aus, nächstes Jahr wohl erst. Dass ich jetzt per irgendwelchen Plugins um das Problem herumarbeiten soll, macht meinem Stolz zu schaffen. Da fehlt nur noch einer, der vorschlägt, das irgendwie mit KI zu lösen.
Keine Plugins. Lieber generische Tools, die allein für sich betrachtet sehr viel einfacher konstruiert sind als mein Gesamtprojekt. Wer zu dieser Grundsätzlichen näheres erfahren möchte, den verweise ich auf ein frisch erstelltes Posting in meinem allgemeinen Thread.

Ach ja: Wenn es DSP-Geräte gibt, denen man eine uni- oder dipolare IR verfüttern kann, das sie in Echtzeit mit furztrockenem Audio_IN zu falten in der Lage sind, toll! Dann wäre ich an Formatspezifikationen interessiert, denn numpy-Files verstehen diese bestimmt nicht nativ. Denn die IR selber kann ich schneller generieren, obszön langsam und aufwendig ist nur die Faltung mit dem Audiosignal.
 
Zuletzt bearbeitet:
Nehmen wir an, die Zerstreuung würde ich wirklich als Hall vom Hall realisieren, hätte ich es mit einem Vielfachen an Rechenzeit zu tun.

warum sollte das so sein? buffern, wieder abspielen, addieren? gibt schlimmeres.

Wie viel tatsächlich, probiere ich wenigstens mal aus, nächstes Jahr wohl erst.

dann hast du die 5 jahre seit beginn ja bald voll.

Keine Plugins. Lieber generische Tools, die allein für sich betrachtet sehr viel einfacher konstruiert sind als mein Gesamtprojekt.

also zum beispiel... plug-ins. ;-)

wie eben sparta (filter eingebaut) oder xconvolve (filter selbst laden)

einfach ist das: einschleifen, stereo transferfunktionen laden, fertig.

die hallfahne mit IR zu machen (statt mit tapping delays und mischmatrix) klingt jedenfalls nach ressourcenverschwendung.

Ach ja: Wenn es DSP-Geräte gibt, denen man eine uni- oder dipolare IR verfüttern kann, das sie in Echtzeit mit furztrockenem Audio_IN zu falten in der Lage sind, toll!

für einen binauralfilter brauchst du dutzende von kanälen, zwischen denen du hin und her interpolieren musst, das würde ich nicht mal mit einem H-9000 machen wenn das damit gescheit ginge.

die kostengünstigte hardware dürfte das mungo modul (euroformat) sein, das kostet aber auch schon 500 euro für mono, und da brauchst du dann so 19-53 davon.
 
die hallfahne mit IR zu machen (statt mit tapping delays und mischmatrix) klingt jedenfalls nach ressourcenverschwendung.
Mag sein. Um perspektivisch verschiedene Abkürzungen, Vereinfachungen zu testen und ihre Qualität und ihre Performance vergleichen und abwägen zu können mit dem vielleicht rechenaufwendigen, dafür mir verständlichsten Weg, muss ich logischerweise aber erst mal letzteren realisieren.

Zum Troste sei versprochen, ich verschwende nur erneuerbare Energie. Höchstens kann man mir vorwerfen, dass ein Windrad mehr angeworfen wird dadurch und ein Singvogel mehr existentielle Bekanntschaft mit nem Rotorblatt macht.

also zum beispiel... plug-ins.
Wollte ich das tun, müsste ich wohl erst mal entsprechende Logistik entwickeln, damit Plugins überhaupt laden. VST2/VST3 lenkt mich vom Kerngeschäft ab, das ist so derartig weit weg von meinem Interesse, dass sich für China ein eigener Überseehafen dort lohnt. Dann entwickel ich doch lieber Scores, die ich als furztrockenes Audio render und rausschreibe und importiere in eine richtige DAW mit VST-Unterstützung. Aber da kommt mir halt wieder mein Gewissen in die Quere, das schreit "Blasphemie".
 


Neueste Beiträge

News

Zurück
Oben