Modellierung von Hallfahne und binaurale Positionierung von Klangquellen in derselben Stereo-Raumimpulsantwort

Ja, stimmt. Für Direktschall – gibt es wirklich kein englisches Pendant lt. deutscher Wikipedia? – als Besonderheit markierende Bezeichnung von "Peak #0" spricht auch der Begriff der Anfangszeitlücke zur darauffolgenden ersten Reflektion. Je kürzer diese Anfangszeitlücke in Verbindung mit reduziertem Pegel(EDIT: -unterschied zur R. #1), desto ferner wirkt die Schallquelle. Je länger die Lücke, um so näher wirkt die Schallquelle.

Das wird implementiert, und dann verdient Peak #0 auch einen eigenen Namen direct_sound(?) im Code ...
 
Zuletzt bearbeitet:
zum Beispiel meine ich mit Erstreflektion den Direktschall

reflektion nullter ordnung? :P

wohl, weil ich nach einer philosophischen Versenkung befunden habe, dass der Direktschall nicht wahrnehmbar ist

wenn direktschall nicht wahrnehmbar wäre hätten wir in der vergangenheit weder bei der mammutjagd noch im masteringstudio besonders viel auf die reihe bekommen.

Aber wäre das nicht zumindest naheliegend?

was soll naheliegend daran sein, etwas als erste reflektion zu bezeichnen, was gar keine reflektion ist?

bemerke, dass nicht argumentiere "das macht man aber anders". es ist total okay alles anders zu machen wie normal - wenn man es denn gut begründen kann.

Im Prinzip ist es einerlei, ob man mit 0 oder 1 zu zählen beginnt

außer man will verstanden werden.

Im Ernst: Ein Fachgebiet ist auf etablierte Begriffe angewiesen.

dann benutz nicht dinge, die du über C++ gelesen hast wenn du über physik redest.

reflektion und beugung von schallereignissen finden per definitionem immer dort statt, wo die wellen die richtung ändern.

mit "seitenwind" als absolutem sonderfall. :)

Ob das wie Binaural Beats

okay, jetzt wechselst du also zum fünften mal das thema und bis wieder ganz woanders.

betrachten wir es als kostenlose karussellfahrt.
 
Zuletzt bearbeitet:
dir ist schon klar, dass du jetzt deinen eigenem hall thread mit binaural zugemüllt hast - und es viel klüger gewesen wäre stattdessen den binauralthread des kollegen mit hall zuzumüllen?

Das wird implementiert, und dann verdient Peak #0 auch einen eigenen Namen direct_sound(?) im Code ...

direct sound oder source dürfte die korrekte übersetzung sein.


aber ich habe hier noch etwas anderes für dich.

fällt dir hier etwas auf?

1697681297618.png

was du finden willst befindet sich relativ weit oben.

das thema um was es dabei geht war noch ein drübiges, wurde von dir am rande angesprochen und hat auch etwas mit jarre zu tun.
 
was soll naheliegend daran sein, etwas als erste reflektion zu bezeichnen, was gar keine reflektion ist?
Weil es aus Membransicht egal ist, diese nicht vorweghören kann, wenn irgendwas die erste Schallwelle schickt? Und wenn ich ne IR auf dem Reißbrett modelliere, drängt sich diese Perspektive zuweilen auf und prägt mein Verständnis. Ja, das kann passieren.
Aber ja, Direktschall und Erstreflektion auseinanderzuhalten bietet sich an, wenn man das mit der Anfangszeitlücke verstanden hat.


bemerke, dass nicht argumentiere "das macht man aber anders". es ist total okay alles anders zu machen wie normal - wenn man es denn gut begründen kann.
Wie schon selber gesagt ...

dann benutz nicht dinge, die du über C++ gelesen hast wenn du über physik redest.
Verstehe, dass ich nicht an jeden Satz des reumütigen Zugebens ein "O Welt, ich habe einen Fehler gemacht, schlag mich beiß mich, gib mir Tiernamen" dranschreibe. Das Leben ist schwer genug.

okay, jetzt wechselst du also zum fünften mal das thema und bis wieder ganz woanders.
Nö, war mir auch schnurz, da habe ich kein neues Thema angeschnitten. Wenn die Ohren unterschiedliche Referenzfrequenzen kriegen, denken Leute, die sich mit BB beschäftigen, halt gerne daran. Es ging mir darum, auszuprobieren, ob sich meine Ohren dadurch ins Bockshorn jagen lassen wegen Ortung. Befund: Nun, kann auch Einbildung sein, aber jeder Trommelschlag hat ne eigene Zufallsposition in Abhängigkeit der Tonhöhe. Aber hört halt selber und denkt euch ja oder nein
 
Und wenn ich ne IR auf dem Reißbrett modelliere, drängt sich diese Perspektive zuweilen auf und prägt mein Verständnis.

für die IR ist es eh egal. für die transferfunktion braucht es nur eine richtungsangabe, ganz egal wie man die quelle nennt.

benennen tut man dinge aber nicht fürs ohr oder fürs basteln, sondern damit man versteht was gemeint ist. :)


den rest verstehe ich wieder nicht. :)


bis heute abend hast du das bilderrätsel gelöst oder es gibt einen eintrag ins klassenbuch.
 
und wenn dich ambi-to-binaural downmix interessiert, dann schau dir mal google´s resonance audio an. das benutzen die meisten leute zur zeit, inclusive kommerzieller plug-ins.
 
Wie es immer so ist mit Hobbyprojekten. Wenn man mal Zeit hat, hat man eher Lust aufs Rechthaben im Netz statt auf Fortschritt beim Projekt. Heute setz ich mich dran, versprech ich mir.

Entfernung zwischen Raumgrenze, Klangquelle und Abhörposition spiegelt sich nun adäquat in der zeitlichen Lage der Erstreflektion zwischen Direktschall und Folgereflektionen/Nachhall wieder – implementiert und getestet. Links und rechts bleibt unverändert in der relativen zeitlichen Lage von Direktschall und ersten Reflektionen je nach Luv- und Leeohr.
Gestern getestet mit synthetischen Hundertstelsekunden weißen Rauschens (Spikes waren mir dann doch zu kurz), die hier nicht veröffentlicht werden sollen. Zu stark ist die Assoziation mit Schusswechseln in Häuserschluchten und andere Auswüchse von Kriegshandlungen. Aus Rücksicht auf Lesende mit Kriegserfahrungen überlege ich mir eine neutrale Umfrage mit musikalischen Schallereignissen.
 
Zuletzt bearbeitet:
Naja, musikalisch ... ach, nee.





Wer mag, kann gern raushören, wenn ersie kann, bei welchem da Direktschall und Erstreflektion in der "Ferne" näher beieinander sind als in der Nähe.
Ich habs nicht rausgehört, geb ich zu. Aber bei einer der drei Versionen hab ich bei ca. 3s einen kleinen Adrenalinstoß. (Abgehört über Kopfhörer)
 
Ich bin mir nicht sicher, ob ich gut daran tue mich mit dem Thema weiter zu beschäftigen und darüber zu posten. Viele dürfte ich damit langweilen. Bei meiner wenig ausgeprägten, aber auch nicht völlig abgelehnten wissenschaftlichen Experimentierweise mag ich im Nebel unbeholfen herumstochern.

Sei es drum. Den genervten Herrschaften steht der Zugriff auf die Navigationsfunktionen offen, niemand ist gezwungen, sich das anzutun. Dabei ist natürlich Anteilnahme an einem toten Gaul gern gesehen. Ich gallopier also auf meinem toten Gaul so dahin, auf eine Stadt zu, nein, nicht Paris ...

Viermal die gleiche Melodie, nein, nichts Weihnachtliches, Advent hin oder her. In einer Kirche oder Kathedrale vielleicht, so viel Weihnachten ist es dann doch. Nein, es ist aber nicht die Notre Dame, in der ich mein Instrument probier auf meinem toten Gaul. Wiederaufbau und Einweihung hin oder her.

Anhang anzeigen te.mp3
Wann steh ich vor dem Altar, wann dahinter? Wann auf der Kanzel rechts, wann auf der linken oder rechten Empore?
 
der gaul ist nicht tot, aber man muss natürlich schon schauen wo vorne und hinten ist bevor man losreitet.

da ich wieder zwei drittel der botschaft nicht verstanden habe muss ich zurückfragen: hast du denn jetzt mal versucht den eigentlichen prozess (des erstellens von reflektionen, die aus verschiedenen richtungen auf den zuhörer zukommen) und dem downmix auf binaural zu trennen?

diese vorgehensweise hilft nämlich ungemein dabei dann auch beides auf die reihe zu bekommen. dahinter verbirgt sich das alte spiel... probleme in kleinere probleme zerlegen um es zu lösen...
 
hast du denn jetzt mal versucht den eigentlichen prozess (des erstellens von reflektionen, die aus verschiedenen richtungen auf den zuhörer zukommen) und dem downmix auf binaural zu trennen?
Sicher trenne ich das. Da du fragst und ich in den letzten Jahren den Prozess ja erklärt habe, offenbar leider nicht so, dass du es verstehst. Du hast etwa durchscheinen lassen, dass du das "Bildchen" weiter oben nicht verstehst und nicht verstehen willst, denn du hast (EDIT: keine!) konkrete Fragen dazu gestellt. Warum soll ich mir da Mühe machen, dich verstehen zu wollen? Nur mir Literaturverweise vor den Latz knallen reicht dazu nicht aus, das vermag jeder mit etwas Googlerecherche. Da müsstest du mir schon beim Lesen assistieren als Fragenbeantworter, aber eine beiderseitige Verpflichtung dazu fehlt.

Luv- und Leeohr analog zur Luv- und Leeseite von Bergen, die entscheidend sind für die Entstehung lokaler Wetterbedingungen in bergigen Landschaften, sollten für den binauralen Teil des Prozesses keine Verständnisschwierigkeiten bedeuten, richtig? Klar, einem fünfjährigen erklärt man das mit linken und rechten Ohr und legt die Schallquelle auf eine der Seiten fest, scheiß auf Abstraktion, aber wir sind ja erwachsen und wissen, dass Winde als Druckausgleichsströmungen ähnlich Schall sind, halt auf Makroebene im Hertzbruchteilbereich. Dass mein Modell mit der Realität schon im Klinsch liegt darüber, dass der Kopf eine Scheibe sei mit den Ohren jeweils auf einer und der anderen Seite, und Ohrmuscheln gar nicht vorhanden, lässt in der Folge die Sinnhaftigkeit von detaillierten Raumkonstruktionen zweifelhaft erscheinen.

Wenn du also mit Reflektionen herstellen meinst, ich soll doch bitte Räume konstruieren wie das Wohnungseinrichtungsprogramme ermöglichen, und darin dann Schallwellenbrechungen simulieren: Dann nein, dass werde ich nicht tun, den Aufwand treib ich nicht, das ist mir dann doch zu weit weg von der Musik.

Ich skizziere, modelliere lieber kurzerhand Raumimpulsantworten direkt für das linke und das rechte Ohr in Abhängigkeit von der Position der Schallquelle relativ zum Ohrenpaar. Der Nachhall ist diffuser als die ersten n Reflexionen, sehr viele Delays auf engstem Raum repräsentieren allerlei Möbel und Gegenstände, an denen sich der Schall zum xten Male bricht. Du erwartest nicht ernsthaft, diese Schallbrechungsursachen zu modellieren, als wär ich ein Tischler, gell? Zumal wenn es sich um kugelförmige, nach allenseiten hin abstrahlende Schallquellen handelt, da wird die Sachlage noch mal komplizierter als bei einem Doppelpendel und selbst dessen Bewegungen sind ein nahezu chaotisches System. Dass die Herangehensweise im Detail Plausibilitätsprobleme mit sich bringt, wenn man sich architektonisch preiswert herzustellende viereckige Räume als Vorbild nimmt, haben wir bereits erörtert.

Wenn du meinst ich mache deine Hausaufgaben, kannste ruhig warten. Eher kommt Godot.
 
Zuletzt bearbeitet:
Sicher trenne ich das. Da du fragst und ich in den letzten Jahren den Prozess ja erklärt habe, offenbar leider nicht so, dass du es verstehst.

es mag naiv klingen, aber ich gehe einfach grundsätzlich immer davon aus, dass dort, wo so eine erklärung erfolgt, auch der wunsch vorhanden ist verstanden zu werden.

genau wie gestellte fragen bei mir meistens dazu führen, dass ich versuche die fragen zu beantworten.

Luv- und Leeohr analog zur Luv- und Leeseite von Bergen, die entscheidend sind für die Entstehung lokaler Wetterbedingungen in bergigen Landschaften, sollten für den binauralen Teil des Prozesses keine Verständnisschwierigkeiten bedeuten, richtig?

texte, in denen jegliche worte, seien sie noch so einfach und grundlegend, grundsätzlich in metaphern verpackt werden, macht das gesagte nicht verständlicher.

dein ausgangsbildchen von vor gefühlt 5 jahren wurde dem leser seinerzeit als "impulsantwort" präsentiert, kann aber schon aufgrund der dort zu sehenden unipolarität keine impulsanwort sein.

Klar, einem fünfjährigen erklärt man das mit linken und rechten Ohr

ja, links und rechts sind die normalen worte für links und rechts.

wenn jemand die digitale signalverarbeitung in einem hallprogramm mit wetterphänomen am alpenrand erklären will dann steigt die wahrscheinlichkeit dafür, dass die öffentlichkeit aussteigt auf [expr (100% minus 110 plus ein paar zerquetschte)]

und legt die Schallquelle auf eine der Seiten fest, scheiß auf Abstraktion, aber wir sind ja erwachsen und wissen, dass Winde als Druckausgleichsströmungen ähnlich Schall sind, halt auf Makroebene im Hertzbruchteilbereich.

nach solchen sätzen muss ich meist erst mal raus gehen und neuen kaffee holen.

da merkt man erst mal wie relativ einfach engels oder kant doch zu lesen sind. :)

Dass mein Modell mit der Realität schon im Klinsch liegt darüber, dass der Kopf eine Scheibe sei mit den Ohren jeweils auf einer und der anderen Seite, und Ohrmuscheln gar nicht vorhanden, lässt in der Folge die Sinnhaftigkeit von detaillierten Raumkonstruktionen zweifelhaft erscheinen.

ich sehe da keinen clinch. modellierung ist nie perfekt, das ist die idee dahinter.

hättest du den ratschlag von @swissdoc befolgt dir mal anzuschauen was eine "HRTF" ist, dann könntest du wissen, dass man sich darum überhaupt nicht selbst kümmern muss.

das gibt es alles convenience von www.abendessen24.com, inclusive den leckeren ohrmuscheln.


Wenn du also mit Reflektionen herstellen meinst, ich soll doch bitte Räume konstruieren wie das Wohnungseinrichtungsprogramme ermöglichen, und darin dann Schallwellenbrechungen simulieren: Dann nein, dass werde ich nicht tun, den Aufwand treib ich nicht, das ist mir dann doch zu weit weg von der Musik.

wenn das nicht weniger, sondern mehr aufwand wäre als dein ansatz, dann würde man™ das nicht so machen. :)

für die einfachste form von raytracing brauchst du den satz des pythagoras, einen frequenzfiltern für die distanz und ein set aus (F)IR filtern, von denen man die hälfte irgendwo runterladen kann.

Ich skizziere, modelliere lieber kurzerhand Raumimpulsantworten direkt für das linke und das rechte Ohr in Abhängigkeit von der Position der Schallquelle relativ zum Ohrenpaar.

dieses "kurzerhand" klingt bei dir seltsam aufwendig, und wenn du mir das so erlaubst, klingt das alles auch auch reichlich unkonkret.

den normalen weg findest du in meinem letzten satz. noch einfacher als so dürfte es nicht mehr gehen.

Der Nachhall ist diffuser als die ersten n Reflexionen, sehr viele Delays auf engstem Raum repräsentieren allerlei Möbel und Gegenstände, an denen sich der Schall zum xten Male bricht. Du erwartest nicht ernsthaft, diese Schallbrechungsursachen zu modellieren, als wär ich ein Tischler, gell?

wir hatten das thema schon mal in einer deiner andere hall threads: bereits die erstreflektionen (also z.b. maximal 6 in einem quaderförmigen raum) liefern bei korrekter berechnung von air absorbtion, wall absorbtion und richtungfilter erstaunlich gute ergebnisse. eine zweitreflektion ist seit den achtzigern üblich, den rest macht man einfach wischi-waschi.
für eine kathedrale mit querschiff bedarf es dann etwas mehr aufwand.

Zumal wenn es sich um kugelförmige, nach allenseiten hin abstrahlende Schallquellen handelt, da wird die Sachlage noch mal komplizierter

nö. man braucht immer nur die linie zum ohr. :)

als bei einem Doppelpendel und selbst dessen Bewegungen sind ein nahezu chaotisches System.

noch komplizierter wird es, wenn wir uns im inneren der sonne befinden und vor der berechung der schallgeschwindigkeit in plasma erst mal die relativitätstheorie in frage stellen.

es gibt immer noch einen aspekt.

aber in schritt 1 baut man immer erst mal einen combfilter, einen tappingbuffer, ein sampledelay und versucht das verhältnis zwischen distanz und schalldruck zu verstehen. das kann dann sogar ich, und ich bin erst 5.

Dass die Herangehensweise im Detail Plausibilitätsprobleme mit sich bringt, wenn man sich architektonisch preiswert herzustellende viereckige Räume als Vorbild nimmt, haben wir bereits erörtert.

komplexere räume sind aufwendiger zu machen, aber die technik dahinter ist immer die gleiche.

dort, wo der spass zuviel rechenleistung braucht lassen ich später für jede der benötigten richtungen zum ohr die transferfunktionen einfach summieren.

gut, das geht nur wenn sich schallquelle und ohr nicht bewegen sollen, aber das ist durchaus eine der hauptanwendungen (jedenfalls im vergleich zur schallquelle an einem doppelpendel :P )

Wenn du meinst ich mache deine Hausaufgaben, kannste ruhig warten. Eher kommt Godot.

keine hausaufgaben, kein godot.

es freiwillig aufzulösen auf was ich da hinweisen wollte bzw. wie ich damit eine deiner fragen beantworten wollte würde den lerneffekt kaputtmachen.


aber solange du spass dran hast: weitermachen.
 
Zuletzt bearbeitet:
Danke. Eine Lizenz zum Weitermachen eineinsnullscher Prägung kriegt ja nicht jeder. Darauf bild ich mir jetzt schon mal etwas ein.

Wenn du dein Posting versachlicht hast, sag mir bitte per PN bescheid, dann überleg ich mir, ob ich inhaltlich noch darauf antworte.

Ansonsten hier noch mal der Schnipsel Content aus dem vorletzten Post von mir verlinkt, zu dem mich Kommentare am ehesten interessieren:
Anhang anzeigen 236645
Viermal das gleiche aus verschiedenen Richtungen und Distanzen in einem großen Raum mit harten Wänden. Hatte bei der Modellierung eine Kirche im Sinn. Ob jemand unbeteiligtes eine Kirche hört, ohne dass ich ihm das vorher verrate, keine Ahnung. Leicht ist es auch zu behaupten, das wäre nach irgendwes offiziellen Ohren eine Abstellkammer oder gar nichts plausibel räumliches. Meine Ohren bestätigen mir viel, wenn der Tag lang ist.
Keine Ahnung, ob mich das überhaupt interessiert, wenn ich bei jeder gefragten Person in so stumpfe, lächerliche Diskussionen gezogen werde, eher nicht. Konsumiert euren Scheiß was das Zeug hält, hängen Arbeitsplätze dran, ich bastele meinen Scheiß egal ob auf falsche, falsch verstandene oder kommunizierte oder richtige Annahmen und poste immer mal wieder dazu. Selbst wenn ich nicht jeder Literaturempfehlung folge: bin ja nicht nur ich, der davon profitieren könnte, lesen vemutlich manche hier mit.

Hier noch eine populärwissenschaftliche Literaturempfehlung:
Cox, T.: Das Buch der Klänge, Springer Link, 2015. Nichts für einseinsnull, da darin unipolare Reflektionskettenschemata enthalten sind.
 
Ansonsten hier noch mal der Schnipsel Content aus dem vorletzten Post von mir verlinkt, zu dem mich Kommentare am ehesten interessieren:
bezüglich der Frage:
Wann steh ich vor dem Altar, wann dahinter? Wann auf der Kanzel rechts, wann auf der linken oder rechten Empore?
kann ich leider nicht viel beitragen, weil es wohl auch davon abhängt, wo die Orgelpfeifen stehen. Ob ich als Zuhörer jetzt vor oder hinter dem Altar stehe, dürfte da nicht so viel ausmachen, wenn die Schallquelle ganz hinten über dem Eingang liegt. Aber ich war auch schon länger nicht mehr in einer Kirche ...

Klingt alles nach Reverb, Beispiel #2 vielleicht etwas zu viel Early-Reflections oder allgemein zu hoher Hallpegel? Ist aber für meine Ohren auch nicht so gut identifizierbar, weil der Orgelsound a) nicht sehr viele Obertöne hat und b) ein paar "beißende" Frequenzen mitbringt. Kannst du das nochmal mit einem ungefilterten Sawtooth machen bzw. mit einem Plucksound, der insgesamt mit einer knackigeren Hüllkurve kommt?
 
Wenn du dein Posting versachlicht hast, sag mir bitte per PN bescheid, dann überleg ich mir, ob ich inhaltlich noch darauf antworte.

was sachlich ist - und was tendenziell eher wirr - ist halt wie vieles immer eine frage der perspektive. :P

aber ich kann die ausnahmegenehmigung zum weitermachen gerne auch wieder entziehen, wenn das mit den hausaufgaben auch weiterhin ungehört im wald vehallt.
 
@Scenturio, Orgel, nun ja, ähm, wirklich?
Hier ein Audio mit verhallten Plucks, daraus abgeleitet:
Anhang anzeigen te.mp3
Dagegen hab ich mich erst entschieden, da Haltetöne legato besser zeigen, was mich an dem Hall noch stört. Was ich natürlich nicht verrate, das überlass ich anderen Ohreninhabern. Wenn andere genau dasselbe finden, liegts nicht an meinen Ohren.

Tu dir keinen Zwang an, @einseinsnull, mir ist offengestanden egal ob du mir ne Lizenz zu irgendwas erteilst, oder Hausaufgaben, schreib sie von mir aus gerne hier ... auf ...*rratsch*... meine als nächstes benutzten Blätter Klopapier.
Du schreibst weiter oben, dass du zwei Drittel wieder mal nicht verstehst? Und? Ist das Grund für dich, hier mit dem Zaunpfahl rumzuironisieren, statt Fragen zum Unverstandenen zu stellen? Ganz gleich, ob ich dann darauf antworte, wenn nicht, sieht jeder, dass ich mich drum drücke, dann wäre ich am Zug.

Naja, immerhin gerierst du dich als Troll der klügeren Sorte (und Ahnungslosigkeit in der Sache kann man dir nun wirklich nicht vorwerfen), da ist es nicht ganz so trivial zu erkennen, dass du an ernsthaftem Austausch gar nicht mehr interessiert bist.
Mal angenommen, ich irre mich da. Warum nun drücke ich mich vor der Aufgabe, die Schallbrechungen in einem rechteckigen Raum zu modellieren und so die zeitliche Position und Stärke jedes Echos und seinen Auftreffwinkel auf die Ohren (zumindest um den Kopf-Halo, eine gedachte Kugel um den Kopf), sagen wir der ersten zehn Echos zu berechnen?
Weil sich der Aufwand für mich nicht lohnt und du mir von den Spike-Hallsounds her geschlossen eh nicht sagen könntest, ob das Ergebnis plausibel war – du bist meines Wissens nicht von Geburt an blind und hast nicht gelernt, dir mit Zungenklicklauten Räume zu erschließen.
 
Dagegen hab ich mich erst entschieden, da Haltetöne legato besser zeigen, was mich an dem Hall noch stört.
hier hört man die Erstreflektionen viel deutlicher und meiner Ansicht nach sind die auch deutlich zu laut. Die Releasekurve des Halls insgesamt finde ich auch etwas merkwürdig (fällt der Pegel eher linear ab als asymptotisch/exponentiell?), aber konkret kann ich nicht den Finger drauflegen.
 
konkret kann ich nicht den Finger drauflegen.
Der Raum ist halt fiktiv künstlerisch skizziert, fast mag ich sagen abstrakt künstlerisch, aber das ist keine bewusste Entscheidung, sondern dem besagten Aufwand geschuldet, den ich (im Moment(?) scheue, nicht leisten möchte.
Dein Hörsinn hat möglicherweise Schwierigkeiten sich einen Reim auf die räumliche Situation zu bilden, Widersprüche im Hall aufzulösen.
Widersprüche sind allerdings nicht immer unnatürlich. Das oben erwähnte "Buch der Klänge" vom Akustiker Trevor Cox erwähnt viele akustische Illusionen und Klangwunder, die so existieren sollen auf der Welt. Strammen Vernunftvernarrten würden die böse den Kopf verdrehen, ich nenn jetzt keinen Namen.

Hoffentlich wird niemandem sogar schlecht beim Hören der folgenden Variante, die nicht nur deine Kritik berücksichtigt (ein bisschen, hoffe, schon hörbar), sondern bei welcher ich auch die einzelnen Reflektionen unterschiedlich nach einigem Gutdünken im Raum positioniere, nicht strikt auf der Raumachse zwischen Kopf und Klangquelle.

Die nahen ersten Reflexionen sind Absicht. Sind nun weniger krass. Die nahen Reflexionen kommen von den gedachten Säulengängen links und rechts der Bänke.

Anhang anzeigen te.mp3
 
Die nahen Reflexionen kommen von den gedachten Säulengängen links und rechts der Bänke.
hm ... ein Raumeindruck (schon gar ein natürlicher) will sich bei mir nicht einstellen (aber habs auch noch nicht mit Kopfhörern gehört). Kannst Du beliebiges Audiomaterial durch dieses Reverb schicken, oder nur die Sompyler-interne Klangerzeugung?
Weil: mich irritiert nach wie vor auch ein wenig der Input-Sound, es würde mich aber interessieren, wie das ganze mit einer natürlicher klingenden (bzw. gewohnteren) Schallquelle wie Klatschen, Sprache oder von mir aus Sägezahn klingt.

Aktuell würde ich sagen, Reflektionen, die in so großem zeitlichen Abstand vom Primärsignal kommen, müssten deutlich diffuser sein.
 
Ja, ich kann beliebiges Audiomaterial da durchschicken. Sogar Spikes, wie früher im Thread angemahnt. Aber die sind auch nicht natürlich. Schick mir was.

Ich knete gedanklich derweil auch an der räumlich-geometrischen Raummodellierung um kugelförmige Schallquellen und Ohrenpaare enthaltene Kugeln ("Kopf") herum, wenn ich lustig bin ... aber in endlicher Zeit sind von mir keine Ergebnisse zu erwarten. Zugegeben, mich wurmt die nicht vorhandene räumliche Plausibilität. Zu schön, du könntest mir sagen, mit Kopfhörern bewaffnet, $1 kommt aus Richtung $a und Distanz $da, $2 aus $b und $db, $3 aus $c und $dc, $4 aus $d und $dd.

Diffusion fehlt, ja. Ich möchte Diffusion erst mal sein lassen und nehme Abstriche in der Natürlichkeit erst mal in Kauf, wenn es nur daran liegt. Bis ich verstehe, wie Diffusion und Natürlichkeit genau zusammenhängen. Sonst hab ich die Diffusion im Verständnis.

Hab mal Spikes ausprobiert. Der Mangel an Diffusion ist nicht zu überhören. Und dass der EQ dann irgendwas macht, muss man sich auch einbilden.


Link hat nicht lange Bestand, wird ersetzt durch die verhallte Version des mir zu schickenden Impulses, was auch immer das für dich ist. Ohnehin fehlt hier die Richtungsvariation/freie Positionierung vom vorigen Beispiel, das ist wirklich nur zum analytischen Hören und um sich das im Audioprogramm anzugucken ohne von Klanginformation abgelenkt zu werden.
Ohne Diffusor hört sich ein Reverb bei Spikes halt sehr nach kettengeschalteten Delays an. Da die Spielzieit des Wavs viel länger ist, ist es aber auch eben nicht nur "Eimerkette". Dass mein Reverb nur n ein Kettendelay war, darüber wenigstens bin ich weg entwicklungstechnisch.
 
Zuletzt bearbeitet:
Anhang anzeigen tr909-rev-different-positions.mp3
Ein Auslassungsfehler am Ende wird euch verraten, wie ich grundsätzlich vorgegangen bin, um verschiedene Fragmente an die unterschiedlichen Positionen im "Kirchenraum" zu setzen.

Bitte mit Kopfhörer anhören. Diese Bitte ist aber vermutlich auch das einzige, was ich mit Binauralpsychoakustikern gemein hab. Und wenn wer unterschiedliche Richtungen ausmacht, kann mans gerne hier verraten, mit Zeitcodes bitte. Denn wenn nur ich es "weiß", ist es nichts wert, dann ist es wohl nur Einbildung. Muss anscheinend schon froh sein, wenn ich beim Gedanken an Presslufthammer keinen Presslufthammer neben mir rattern höre. Das Vertrauen in mein Gehör ist lädiert.

Also okay, das nächste auf meiner Todo-Liste ist Diffusion. Ein Todo-Item mit Fragezeichen. Stell ich mich mal ganz dumm, dann müsste es schon Diffusion sein, wenn ich auf die Impulsantwort des Halls noch Zufallsdaten draufaddiere und Audio_IN mit der Summe falte. Und Diffusion wird mit meinen Mitteln vermutlich rechenintensiv wie nur was.

Was nicht mit ein paar Zahlen und bisschen Syntaxwürze zu spezifizieren ist und wo aus so einer Angabe kein möglichst mit Gymnasialbildung verständlicher Algorithmus mit vertretbarem Rechenaufwand etwas sinnvolles macht, entbehrt Faszination, dann lieber einfach à la Minecraft bzw. Chiptune-Musik, um bei Audio zu bleiben. Um mir naturwissenschaftliche (Akustik ist doch eine Naturwissenschaft, gell?) Hochschulmathematik draufzuschaffen bin ich schlicht schon zu alt.

Die in obigem Audio verwendete Halldefinition lässt sich wirklich in folgendem Text spezifizieren:
YAML:
  levels: "100:110;1,80*5;2,82;3,75!;5,70;7,50;10,45"
  delays: "2.7:2000;1,190!;2,1850!;4,453!;19,12;20,7;21,5;25,3"
  freq_lanes: # EQ-Verläufe von 20 Frequenzbänder, für 100 Echos in Scheiben geschnitten und jede Scheibe als Spektrum via IFFT in eine Impulsantwort (IR)umgewandelt. Das Produkt der IR mit der zugehörigen Reflektion zur Hallfahne summiert
  - "20:1;1,1"
  - "3:2;5,1;8,1;9,0"
  - "4:1;1,0;2,0"
  border: "35:6+1;0,0;1,1;2,1!;6,1" # Haaseffekt, 35ms
  jitter: "1,70!;3,71;7,76" # Leveljitter, Zufallsanteil auf die Delay-Intensitäten
  deldiffs: "4,3,1,2,7,1-4;1,2,0|1,2,5,3,4,1;1,3,2" # Richtungswechsel
  diffusor: # to do

Das so wenig Daten nicht zu einem natürlichen räumlichen Hörerlebnis führen können, wundert sicher nur mich, und auch mich nicht wirklich.
 
Zuletzt bearbeitet:
Hier noch eine Ressource zum Thema, mir scheint als könnte mir die Lektüre weiterhelfen, aber die Formeln sind mir zu kompliziert, zumindest zu hoch als dass ich sie aus dem Stegreif begreifen könnte. Vielleicht kannst und willst du, @einseinsnull, ja sagen, ob du das verstehst und Unklarheiten auf deutsch beseitigen helfen könntest. Wenn dir nur wieder Sarkasmus in den Fingern liegt, behalt ihn aber ruhig für dich, danke.

 
zum austesten sollten vor allem mal ein paar pausen im test material sein.
neben den eher technischen clicks und bursts bietet sich unter anderem eine gesangsspur für sowas an.

ob du das verstehst und Unklarheiten auf deutsch beseitigen helfen könntest.

mir hilft mathematik und physik auch oft nicht um dinge zu begreifen und in meiner lieblingssprache umzusetzen.

und ich denke du solletst besser mal nach c++ code für klassiche reverbs ausschau halten, das ist viel besser lesbar.
seitenlange begründungen darüber warum irgendjemand 1960 die hadamard matrix modifieren musste stören den kreativen flow eher.

so ein FDN ist aber im kern nichts anderes als eine anordnung von delays, und der vergleich mit einer anordnung aus comb filtern bzw comb allpässen, wie sie die mehrheit der geräte benutzt, liegt daher nahe.*)

die mehrheit der "klassischen" ansätze sind auch nichts anderes, egal ob lexicon, moorer usw. ... seit gerzon und schröder eigentlich.

die unterscheiden sich alle nur in der modellierung... also in dem versuch, irgendwas nachzubilden oder auch nicht. ein "reines" FND ist das sowas, was du da bereits hast (vermute ich). insofern köntest du da nicht neues mehr lernen.
darauf aubauend kann man dann diffusion (mit so eine matrix, die ich dir mal gezeigt habe, ist glaube ich, von puckette), die air absorbtion (vermutlich erstmals bei moorer), und die oben vielzitierten HRIRs für die richtung oder was auch immer ergänzen.

insgesamt darf man solche papiere nicht überschätzen - in code sind das nachher 3-4 zeilen standard zeugs, die man einfacher aus den "originalen" herauslesen kann als aus arbeiten, die darüber schreiben.


wer einen hall bauen will der baut sich eines der bestehenden modelle aus der steinzeit, findet heraus, dass es kacke ist, und ändert dann so lange etwas daran bis es ihm gefällt. das ist der weg.


*)
das heißt FDNs, oder die reflektionen aus komplizierten effekten, müssen also auch nicht zwingend überhaupt realistische räume modellieren.

wenn du dich an mein max patch erinnerst, dann habe ich da dem user freigestellt was er für reflektionszeiten haben kann, wobei die zeiten immer so gerastert sind, dass die millisekunden-werte untereinander immer in einem verhältnis von primzahlen stehen - was für "guten klang" eines reverbs nachher viel interessanter ist als die garage des nachbarn möglichst realitätsnah zu modellieren.

das ganze konzept des modellierens stößt also auch schon mal an seine grenzen. ;-)
 
Zuletzt bearbeitet:
und ich denke du solletst besser mal nach c++ code für klassiche reverbs ausschau halten, das ist viel besser lesbar.
In meiner Informatik-etc.-Bücherwendelsäule, die mehr zur Wohnzimmer-Deko dient, ist auch der C++-Primer, den es mittlerweile auch online gibt. Nun, als lesbar würde ich die C++-Codes darin nur bezeichnen, wenn du mir ne Knarre an den Kopf hältst, aber z.B. Perl ist noch um Größenordnungen härter. Tatsächlich hatte ich nie in C++ programmiert, nicht ganz so selten in C. So Quelltexte sind jedenfalls nicht gerade Gutenachtlektüre.

Wenn du magst, kannst du ja das Rendering im unendlichen idealen Freifeld / schalltoten Raum meines letzten Soundbeispiels (angehängtes Audio mit nur einer Wiederholung, zentral, ganz nah = 0dB re + li) durch dein Maxpatch jagen. Oder das zweite, soeben ergänzte, worin die Töne schärferen Attack und nicht so schroff abfallenden Sustain haben. Man kann dann raten wofür du dich entschieden hast.

Hier die verhallte Version der zweiten Variante, schon über Handylautsprecher wirkt sie wie ein Wasserspiel und ich frag mich, ob zerstreuungsfreie Raumsimulationen nicht ihre Berechtigung haben, auch wenn sie nicht arg natürlich sind:
Anhang anzeigen te3-rev.mp3

wenn du dich an mein max patch erinnerst, dann habe ich da dem user freigestellt was er für reflektionszeiten haben kann, wobei die zeiten immer so gerastert sind, dass die millisekunden-werte untereinander immer in einem verhältnis von primzahlen
Primzahlen spielen ja auch bei reinen Stimmungen eine Rolle. Stimmungen definieren sich über Frequenzverhältnisse und Räume haben ihre charakteristischen Eigenfrequenzen, und das Eigenfrequenzprofil ist wohl nur eben die spektrale Perspektive auf die Impulsantwort. Es wäre ja gelacht, wenn es da keinen Zusammenhang gibt. Auch wenn ich diesen Zusammenhang nicht konzis erklären kann, aber diese Vermutung drängt sich auf, nicht?

Back to diffusion​

Themenwechsel. Annahme, Vermutung, Arbeitshypothese für mich: Ist Diffusion physikalisch verständlich als second-order reverberation, Nachhall zweiter Ordnung, also ein Hall auf jede Reflektion? Nehmen wir exemplarisch die Täler zwischen den Noppen einer Raufasertapete: Das sind doch eigentlich auch wieder "Räumchen", in dem das einzelne Echo des Gesamthalls seinerseits in einer sehr kurzen Nachhallzeit "zerstreut" wird. Diffusion verhält sich demnach zur Reflektion wie die Reflektionen als Gesamtheit zum Direktschall. Klang ließe sich demnach als dreidimensionales Gebilde begreifen: Direktschall, Reflektion, Diffusion.
Betrachtet man Diffusoren, ich meine konstruierte Wandapplikationen aus bestimmten Materialien mit bestimmten Formen, so lässt sich sogar noch eine dritte Ordnung von der zweiten trennen: Sei die zweite Ordnung bedingt durch die Konstruktionsgestalt der Diffusoren, so wäre die dritte Ordnung bestimmt von dem Material ihrer Schale und seinen Unebenheiten im Millimetermaßstab.

Ach ja, die erste angehängte Version enthält noch ein Repetitionsfehler im letzten Takt, in der zweiten Version habe ich diese sogenannte melodische Prime ersetzt durch eine einzelne Note, doppelt so lang. Repetitionen einzelner Töne könnte man auch als Hall nullter Ordnung bezeichnen, die Motiv-, Phrasen-, und Themenwiederholung, also die musikalische Wiederholung überhaupt, als Nachhall minus-erster Ordnung. Wenn mans draufanlegt.
 

Anhänge

  • te (2).mp3
    72,3 KB
  • te (3).mp3
    78,6 KB
Zuletzt bearbeitet:
Nun, als lesbar würde ich die C++-Codes darin nur bezeichnen, wenn du mir ne Knarre an den Kopf hältst

bei struktur und workflow von C oder java bin ich auch vollnoob, aber dir dort verwendete mathematik lässt sich für uns nichtmathematiker viel einfacher lesen und in andere sprachen übersetzen, ohne dass man nun C können müsste.

if (fsScale != 1.0) {
// scale comb filter delay lines
for (int i = 0; i < numCombs; i++) {
cDelayLen = (int) floor(fsScale * cDelayLen);
}

// scale allpass filter delay lines
for (int i = 0; i < numAllPasses; i++) {
aDelayLen = (int) floor(fsScale * aDelayLen);
}
}

// initialize delay lines for the LBFC filters
for (int i = 0; i < numCombs; i++) {
combDelayL_.setMaximumDelay(cDelayLen);
combDelayL_.setDelay(cDelayLen);
combDelayR_.setMaximumDelay(cDelayLen + stereoSpread);
combDelayR_.setDelay(cDelayLen + stereoSpread);
}


...zumal da ja oft auch alles ordentlich kommentiert ist.

vor allem beschäftigen sich wissenschaftliche papiere mit viel zu viel kram, den man zum bloßen bauen überhaupt nicht braucht.

was hab ich denn davon zu wissen, dass die sich das ampltudenspektrum des onepole allpasses wie folgt berechnet:

1733586007344.png

sebst die blockdiagramme in solchen papieren erscheinen mir immer ein wenig überkompliziert zu sein, zumal ich alles, was aus elektrischen schaltplänen stammt, auch nicht flüssig lesen und korrekt interpretieren kann.

praktiker kommunizieren da viel klarer:

1733586413597.png
1733586527059.png


das kann ich nun in einer sprache, die ich halbwegs kenne, sofort umsetzen.

wobei dazu verraten sei, dass falls man es nicht hinbekommt den filter kernel selbst zu bauen damit er exakt genau so funktioniert wie dort beschrieben, dass man natürlich auch genauso gut irgendeinen anderen comb und irgendeinen anderen onepole verwenden kann.

chowning hat das schröder II mindestens 5 mal geändert, bis es ihm gefiel. das darfst du auch.

um das freeverb zu bauen und spass damit zu haben muss ich auch nicht wissen ob die von mir verwendete max/csound/c++ klasse für den combfilter 2-fach oder 4-fach upsampling macht oder ob der biquad auch bloß direct form II ist oder nicht.
den filter selbst klaut man, kauft man oder programmiert ihn ein einziges mal und dann verwendet man ihn 30 jahre lang.

ich baue allerdings keine freeverbs, weil ich besseres habe. :)

Hier die verhallte Version der zweiten Variante

mich würde mal interessieren wie die zeiten und die amplituden deiner reflektionen aussehen. diese ratchet-mäßigem echos dort klingen zwar ganz nett, aber nicht nach einem halbwegs natürlichen raum, weil dort die frequenzfilterung normalerweise mit der verzögerungszeit ansteigt (weiter weg = stärkere luft absorbtion)

nimm dir hierzu mal ein beliebiges freeverb VST plug-in und analysiere die presets.

Primzahlen spielen ja auch bei reinen Stimmungen eine Rolle.

ganz andere baustelle, oder vielleicht auch nicht.

es geht einfach nur darum zu vermeiden, dass 2 oder mehr verzögerungen sich überlappen und dann eine einzige lautere entsteht, denn das führt zu dem bekannten phänomen des "metallischen" klangs...

Auch wenn ich diesen Zusammenhang nicht konzis erklären kann, aber diese Vermutung drängt sich auf, nicht?

...das kannst du ausprobieren indem du mal 20/40/50/60/80/100 gegen primzahlen (oder auch nur zufällig gewürfelte 3-stellige zahlen) vergleichst.

Back to diffusion
Themenwechsel. Annahme, Vermutung, Arbeitshypothese für mich: Ist Diffusion physikalisch verständlich als second-order reverberation, Nachhall zweiter Ordnung, also ein Hall auf jede Reflektion?

nein, es ist eine abkürzung dafür, jede einzelne reflektion einer reflektion nicht mehr einzeln berechnen zu müssen.

dass spätere reflektionen in der realität in der tat auch "mehr gestreut" sind ist nur ein nebenaspekt, der unter "deswegen stört es auch nicht weiter" fällt.

erste und zweite reflektionen lassen sich für kubisch/stage/cathedral noch einzeln berechnen, dritte reflektionen gibt es einfach zu viele dafür, als dass man sie noch korrekt ausrechnen will.
da erzeugt man dann eben einfach irgendwelche (indem man z.b. einen längeres feedbackdelay dahinterhängt, wo sich die einzeln berechneten reflektionen dann immer wieder wiederholen, und dabei aber untereinander gemischt und in der phase invertiert werden.)

Nehmen wir exemplarisch die Täler zwischen den Noppen einer Raufasertapete: Das sind doch eigentlich auch wieder "Räumchen", in dem das einzelne Echo des Gesamthalls seinerseits in einer sehr kurzen Nachhallzeit "zerstreut" wird.

das nennt man zwar auch diffusion, aber das ist hier nicht gemeint.

allerdings: halte dir bezüglich dieses reverb designs (erst ein paar reflektion möglichst realitätsnah berechnen, für die späteren dann alles zusammenmatschen) vor augen, dass man genau das auch in theatern macht: mit 50 centimeter großen, leicht schief montierten panelen versucht man die reflektionen ganz bewusst ein bischen "umzulenken" - ganz einfach weil so ein raum besser klingt als ein kubischer.

in einem guten theater- oder konzertsaal kannst du mit geschlossenen augen manchmal nicht mal mehr sagen ob du links oder rechts sitzt.

Betrachtet man Diffusoren, ich meine konstruierte Wandapplikationen aus bestimmten Materialien

die im tonstudio haben wieder ein bischen eine andere aufgabe, aber das wirkungsprinzip ist sicher das gleiche.
 
Zuletzt bearbeitet:
Einigen wir uns auf den physikalischen Begriff der Diffusion, wie ihn @Scenturio weiter oben offenbar gemeint hat, oder? Das was die Lücken zwischen den Delays füllt, was aus einer IR eine Palisade macht statt Käfigstäbe. Das ist ja das, was Diffusoren tun – gleich ob nun künstlichere, weil Akustiker genau das wollen oder weniger künstliche, da die Gegebenheiten eben so sind wie sie sind: Energie der eigentlichen Reflektionen auf der Zeitachse nach hinten "abschmieren".

Halbwissen, zu bestätigen oder zu widersprechen: Diffusoren, die Studiotechniker nutzen, um Räume reflektionsarm zu machen, erledigen das zu einem extremen Grad, damit der Schall möglichst lange möglichst weit weg von Mikrophonen bleibt und in ihre Richtung zielender Restwellen möglichst schwach sind. Mangels eigenem Tonstudio kann ich folgende Vermutung nicht experimentell überprüfen: Würde man Mikrophone in die Talsohlen tiefschaliger Diffusoren tun, wären die emittierten Audiosignale recht laut.
mich würde mal interessieren wie die zeiten und die amplituden deiner reflektionen aussehen.
Detailliertere Diagramme als diese bekomme ich momentan nicht hin. Erstes Diagramm linear skaliert, x-Achse in Samples, links und rechts hier fast identisch, zumindest erfordern die Unterschiede höhere Auflösung. Zweites Diagramm gibt auf der y-Achse die Abstände zwischen den 100 Reflektionen an, relativ zur Gesamtlänge von 2,7sec. T60 bei ca. 1.3sec.
Response links, rechts
Delays
(Forum unterstützt kein SVG, keine direkte Einbindung möglich.)
Diesen Ratscheffekt halte ich in einer (katholischen) Kirche mit großem Altar und ohne akustiktechnische Präparation der Bühne für durchaus möglich, bedingt durch die ganzen Schmuckelemente in dem Bereich (Kanzel etc.) und die Tatsache, dass Klangquellen zu allen Seiten abstrahlen. Kirchen sind akustisch nicht ideal gebaut, ohne akustiktechnische Präparation ist Verständnis erschwert.

In einer Tropfsteinhöhle wäre das Ratschen vielleicht sogar noch eher der Fall. Es sind eben die paar frühen Reflektionen, die möglichst eng am Direktschall stehen und laut sind. Wenn das in einer modernen Kirche kein Anlass ist für Diffusormontagen, aber der Denkmalschutz weiß den Pastor sicher zu aktiver Akustiktechnik zu überreden.

Vermutungen Ende.
 
Zuletzt bearbeitet:


Neueste Beiträge

News

Zurück
Oben