Modellierung von Hallfahne und binaurale Positionierung von Klangquellen in derselben Stereo-Raumimpulsantwort

Ja, stimmt. Für Direktschall – gibt es wirklich kein englisches Pendant lt. deutscher Wikipedia? – als Besonderheit markierende Bezeichnung von "Peak #0" spricht auch der Begriff der Anfangszeitlücke zur darauffolgenden ersten Reflektion. Je kürzer diese Anfangszeitlücke in Verbindung mit reduziertem Pegel(EDIT: -unterschied zur R. #1), desto ferner wirkt die Schallquelle. Je länger die Lücke, um so näher wirkt die Schallquelle.

Das wird implementiert, und dann verdient Peak #0 auch einen eigenen Namen direct_sound(?) im Code ...
 
Zuletzt bearbeitet:
zum Beispiel meine ich mit Erstreflektion den Direktschall

reflektion nullter ordnung? :P

wohl, weil ich nach einer philosophischen Versenkung befunden habe, dass der Direktschall nicht wahrnehmbar ist

wenn direktschall nicht wahrnehmbar wäre hätten wir in der vergangenheit weder bei der mammutjagd noch im masteringstudio besonders viel auf die reihe bekommen.

Aber wäre das nicht zumindest naheliegend?

was soll naheliegend daran sein, etwas als erste reflektion zu bezeichnen, was gar keine reflektion ist?

bemerke, dass nicht argumentiere "das macht man aber anders". es ist total okay alles anders zu machen wie normal - wenn man es denn gut begründen kann.

Im Prinzip ist es einerlei, ob man mit 0 oder 1 zu zählen beginnt

außer man will verstanden werden.

Im Ernst: Ein Fachgebiet ist auf etablierte Begriffe angewiesen.

dann benutz nicht dinge, die du über C++ gelesen hast wenn du über physik redest.

reflektion und beugung von schallereignissen finden per definitionem immer dort statt, wo die wellen die richtung ändern.

mit "seitenwind" als absolutem sonderfall. :)

Ob das wie Binaural Beats

okay, jetzt wechselst du also zum fünften mal das thema und bis wieder ganz woanders.

betrachten wir es als kostenlose karussellfahrt.
 
Zuletzt bearbeitet:
dir ist schon klar, dass du jetzt deinen eigenem hall thread mit binaural zugemüllt hast - und es viel klüger gewesen wäre stattdessen den binauralthread des kollegen mit hall zuzumüllen?

Das wird implementiert, und dann verdient Peak #0 auch einen eigenen Namen direct_sound(?) im Code ...

direct sound oder source dürfte die korrekte übersetzung sein.


aber ich habe hier noch etwas anderes für dich.

fällt dir hier etwas auf?

1697681297618.png

was du finden willst befindet sich relativ weit oben.

das thema um was es dabei geht war noch ein drübiges, wurde von dir am rande angesprochen und hat auch etwas mit jarre zu tun.
 
was soll naheliegend daran sein, etwas als erste reflektion zu bezeichnen, was gar keine reflektion ist?
Weil es aus Membransicht egal ist, diese nicht vorweghören kann, wenn irgendwas die erste Schallwelle schickt? Und wenn ich ne IR auf dem Reißbrett modelliere, drängt sich diese Perspektive zuweilen auf und prägt mein Verständnis. Ja, das kann passieren.
Aber ja, Direktschall und Erstreflektion auseinanderzuhalten bietet sich an, wenn man das mit der Anfangszeitlücke verstanden hat.


bemerke, dass nicht argumentiere "das macht man aber anders". es ist total okay alles anders zu machen wie normal - wenn man es denn gut begründen kann.
Wie schon selber gesagt ...

dann benutz nicht dinge, die du über C++ gelesen hast wenn du über physik redest.
Verstehe, dass ich nicht an jeden Satz des reumütigen Zugebens ein "O Welt, ich habe einen Fehler gemacht, schlag mich beiß mich, gib mir Tiernamen" dranschreibe. Das Leben ist schwer genug.

okay, jetzt wechselst du also zum fünften mal das thema und bis wieder ganz woanders.
Nö, war mir auch schnurz, da habe ich kein neues Thema angeschnitten. Wenn die Ohren unterschiedliche Referenzfrequenzen kriegen, denken Leute, die sich mit BB beschäftigen, halt gerne daran. Es ging mir darum, auszuprobieren, ob sich meine Ohren dadurch ins Bockshorn jagen lassen wegen Ortung. Befund: Nun, kann auch Einbildung sein, aber jeder Trommelschlag hat ne eigene Zufallsposition in Abhängigkeit der Tonhöhe. Aber hört halt selber und denkt euch ja oder nein
 
Und wenn ich ne IR auf dem Reißbrett modelliere, drängt sich diese Perspektive zuweilen auf und prägt mein Verständnis.

für die IR ist es eh egal. für die transferfunktion braucht es nur eine richtungsangabe, ganz egal wie man die quelle nennt.

benennen tut man dinge aber nicht fürs ohr oder fürs basteln, sondern damit man versteht was gemeint ist. :)


den rest verstehe ich wieder nicht. :)


bis heute abend hast du das bilderrätsel gelöst oder es gibt einen eintrag ins klassenbuch.
 
und wenn dich ambi-to-binaural downmix interessiert, dann schau dir mal google´s resonance audio an. das benutzen die meisten leute zur zeit, inclusive kommerzieller plug-ins.
 
Wie es immer so ist mit Hobbyprojekten. Wenn man mal Zeit hat, hat man eher Lust aufs Rechthaben im Netz statt auf Fortschritt beim Projekt. Heute setz ich mich dran, versprech ich mir.

Entfernung zwischen Raumgrenze, Klangquelle und Abhörposition spiegelt sich nun adäquat in der zeitlichen Lage der Erstreflektion zwischen Direktschall und Folgereflektionen/Nachhall wieder – implementiert und getestet. Links und rechts bleibt unverändert in der relativen zeitlichen Lage von Direktschall und ersten Reflektionen je nach Luv- und Leeohr.
Gestern getestet mit synthetischen Hundertstelsekunden weißen Rauschens (Spikes waren mir dann doch zu kurz), die hier nicht veröffentlicht werden sollen. Zu stark ist die Assoziation mit Schusswechseln in Häuserschluchten und andere Auswüchse von Kriegshandlungen. Aus Rücksicht auf Lesende mit Kriegserfahrungen überlege ich mir eine neutrale Umfrage mit musikalischen Schallereignissen.
 
Zuletzt bearbeitet:
Naja, musikalisch ... ach, nee.





Wer mag, kann gern raushören, wenn ersie kann, bei welchem da Direktschall und Erstreflektion in der "Ferne" näher beieinander sind als in der Nähe.
Ich habs nicht rausgehört, geb ich zu. Aber bei einer der drei Versionen hab ich bei ca. 3s einen kleinen Adrenalinstoß. (Abgehört über Kopfhörer)
 
Ich bin mir nicht sicher, ob ich gut daran tue mich mit dem Thema weiter zu beschäftigen und darüber zu posten. Viele dürfte ich damit langweilen. Bei meiner wenig ausgeprägten, aber auch nicht völlig abgelehnten wissenschaftlichen Experimentierweise mag ich im Nebel unbeholfen herumstochern.

Sei es drum. Den genervten Herrschaften steht der Zugriff auf die Navigationsfunktionen offen, niemand ist gezwungen, sich das anzutun. Dabei ist natürlich Anteilnahme an einem toten Gaul gern gesehen. Ich gallopier also auf meinem toten Gaul so dahin, auf eine Stadt zu, nein, nicht Paris ...

Viermal die gleiche Melodie, nein, nichts Weihnachtliches, Advent hin oder her. In einer Kirche oder Kathedrale vielleicht, so viel Weihnachten ist es dann doch. Nein, es ist aber nicht die Notre Dame, in der ich mein Instrument probier auf meinem toten Gaul. Wiederaufbau und Einweihung hin oder her.

Anhang anzeigen te.mp3
Wann steh ich vor dem Altar, wann dahinter? Wann auf der Kanzel rechts, wann auf der linken oder rechten Empore?
 
der gaul ist nicht tot, aber man muss natürlich schon schauen wo vorne und hinten ist bevor man losreitet.

da ich wieder zwei drittel der botschaft nicht verstanden habe muss ich zurückfragen: hast du denn jetzt mal versucht den eigentlichen prozess (des erstellens von reflektionen, die aus verschiedenen richtungen auf den zuhörer zukommen) und dem downmix auf binaural zu trennen?

diese vorgehensweise hilft nämlich ungemein dabei dann auch beides auf die reihe zu bekommen. dahinter verbirgt sich das alte spiel... probleme in kleinere probleme zerlegen um es zu lösen...
 
hast du denn jetzt mal versucht den eigentlichen prozess (des erstellens von reflektionen, die aus verschiedenen richtungen auf den zuhörer zukommen) und dem downmix auf binaural zu trennen?
Sicher trenne ich das. Da du fragst und ich in den letzten Jahren den Prozess ja erklärt habe, offenbar leider nicht so, dass du es verstehst. Du hast etwa durchscheinen lassen, dass du das "Bildchen" weiter oben nicht verstehst und nicht verstehen willst, denn du hast (EDIT: keine!) konkrete Fragen dazu gestellt. Warum soll ich mir da Mühe machen, dich verstehen zu wollen? Nur mir Literaturverweise vor den Latz knallen reicht dazu nicht aus, das vermag jeder mit etwas Googlerecherche. Da müsstest du mir schon beim Lesen assistieren als Fragenbeantworter, aber eine beiderseitige Verpflichtung dazu fehlt.

Luv- und Leeohr analog zur Luv- und Leeseite von Bergen, die entscheidend sind für die Entstehung lokaler Wetterbedingungen in bergigen Landschaften, sollten für den binauralen Teil des Prozesses keine Verständnisschwierigkeiten bedeuten, richtig? Klar, einem fünfjährigen erklärt man das mit linken und rechten Ohr und legt die Schallquelle auf eine der Seiten fest, scheiß auf Abstraktion, aber wir sind ja erwachsen und wissen, dass Winde als Druckausgleichsströmungen ähnlich Schall sind, halt auf Makroebene im Hertzbruchteilbereich. Dass mein Modell mit der Realität schon im Klinsch liegt darüber, dass der Kopf eine Scheibe sei mit den Ohren jeweils auf einer und der anderen Seite, und Ohrmuscheln gar nicht vorhanden, lässt in der Folge die Sinnhaftigkeit von detaillierten Raumkonstruktionen zweifelhaft erscheinen.

Wenn du also mit Reflektionen herstellen meinst, ich soll doch bitte Räume konstruieren wie das Wohnungseinrichtungsprogramme ermöglichen, und darin dann Schallwellenbrechungen simulieren: Dann nein, dass werde ich nicht tun, den Aufwand treib ich nicht, das ist mir dann doch zu weit weg von der Musik.

Ich skizziere, modelliere lieber kurzerhand Raumimpulsantworten direkt für das linke und das rechte Ohr in Abhängigkeit von der Position der Schallquelle relativ zum Ohrenpaar. Der Nachhall ist diffuser als die ersten n Reflexionen, sehr viele Delays auf engstem Raum repräsentieren allerlei Möbel und Gegenstände, an denen sich der Schall zum xten Male bricht. Du erwartest nicht ernsthaft, diese Schallbrechungsursachen zu modellieren, als wär ich ein Tischler, gell? Zumal wenn es sich um kugelförmige, nach allenseiten hin abstrahlende Schallquellen handelt, da wird die Sachlage noch mal komplizierter als bei einem Doppelpendel und selbst dessen Bewegungen sind ein nahezu chaotisches System. Dass die Herangehensweise im Detail Plausibilitätsprobleme mit sich bringt, wenn man sich architektonisch preiswert herzustellende viereckige Räume als Vorbild nimmt, haben wir bereits erörtert.

Wenn du meinst ich mache deine Hausaufgaben, kannste ruhig warten. Eher kommt Godot.
 
Zuletzt bearbeitet:
Sicher trenne ich das. Da du fragst und ich in den letzten Jahren den Prozess ja erklärt habe, offenbar leider nicht so, dass du es verstehst.

es mag naiv klingen, aber ich gehe einfach grundsätzlich immer davon aus, dass dort, wo so eine erklärung erfolgt, auch der wunsch vorhanden ist verstanden zu werden.

genau wie gestellte fragen bei mir meistens dazu führen, dass ich versuche die fragen zu beantworten.

Luv- und Leeohr analog zur Luv- und Leeseite von Bergen, die entscheidend sind für die Entstehung lokaler Wetterbedingungen in bergigen Landschaften, sollten für den binauralen Teil des Prozesses keine Verständnisschwierigkeiten bedeuten, richtig?

texte, in denen jegliche worte, seien sie noch so einfach und grundlegend, grundsätzlich in metaphern verpackt werden, macht das gesagte nicht verständlicher.

dein ausgangsbildchen von vor gefühlt 5 jahren wurde dem leser seinerzeit als "impulsantwort" präsentiert, kann aber schon aufgrund der dort zu sehenden unipolarität keine impulsanwort sein.

Klar, einem fünfjährigen erklärt man das mit linken und rechten Ohr

ja, links und rechts sind die normalen worte für links und rechts.

wenn jemand die digitale signalverarbeitung in einem hallprogramm mit wetterphänomen am alpenrand erklären will dann steigt die wahrscheinlichkeit dafür, dass die öffentlichkeit aussteigt auf [expr (100% minus 110 plus ein paar zerquetschte)]

und legt die Schallquelle auf eine der Seiten fest, scheiß auf Abstraktion, aber wir sind ja erwachsen und wissen, dass Winde als Druckausgleichsströmungen ähnlich Schall sind, halt auf Makroebene im Hertzbruchteilbereich.

nach solchen sätzen muss ich meist erst mal raus gehen und neuen kaffee holen.

da merkt man erst mal wie relativ einfach engels oder kant doch zu lesen sind. :)

Dass mein Modell mit der Realität schon im Klinsch liegt darüber, dass der Kopf eine Scheibe sei mit den Ohren jeweils auf einer und der anderen Seite, und Ohrmuscheln gar nicht vorhanden, lässt in der Folge die Sinnhaftigkeit von detaillierten Raumkonstruktionen zweifelhaft erscheinen.

ich sehe da keinen clinch. modellierung ist nie perfekt, das ist die idee dahinter.

hättest du den ratschlag von @swissdoc befolgt dir mal anzuschauen was eine "HRTF" ist, dann könntest du wissen, dass man sich darum überhaupt nicht selbst kümmern muss.

das gibt es alles convenience von www.abendessen24.com, inclusive den leckeren ohrmuscheln.


Wenn du also mit Reflektionen herstellen meinst, ich soll doch bitte Räume konstruieren wie das Wohnungseinrichtungsprogramme ermöglichen, und darin dann Schallwellenbrechungen simulieren: Dann nein, dass werde ich nicht tun, den Aufwand treib ich nicht, das ist mir dann doch zu weit weg von der Musik.

wenn das nicht weniger, sondern mehr aufwand wäre als dein ansatz, dann würde man™ das nicht so machen. :)

für die einfachste form von raytracing brauchst du den satz des pythagoras, einen frequenzfiltern für die distanz und ein set aus (F)IR filtern, von denen man die hälfte irgendwo runterladen kann.

Ich skizziere, modelliere lieber kurzerhand Raumimpulsantworten direkt für das linke und das rechte Ohr in Abhängigkeit von der Position der Schallquelle relativ zum Ohrenpaar.

dieses "kurzerhand" klingt bei dir seltsam aufwendig, und wenn du mir das so erlaubst, klingt das alles auch auch reichlich unkonkret.

den normalen weg findest du in meinem letzten satz. noch einfacher als so dürfte es nicht mehr gehen.

Der Nachhall ist diffuser als die ersten n Reflexionen, sehr viele Delays auf engstem Raum repräsentieren allerlei Möbel und Gegenstände, an denen sich der Schall zum xten Male bricht. Du erwartest nicht ernsthaft, diese Schallbrechungsursachen zu modellieren, als wär ich ein Tischler, gell?

wir hatten das thema schon mal in einer deiner andere hall threads: bereits die erstreflektionen (also z.b. maximal 6 in einem quaderförmigen raum) liefern bei korrekter berechnung von air absorbtion, wall absorbtion und richtungfilter erstaunlich gute ergebnisse. eine zweitreflektion ist seit den achtzigern üblich, den rest macht man einfach wischi-waschi.
für eine kathedrale mit querschiff bedarf es dann etwas mehr aufwand.

Zumal wenn es sich um kugelförmige, nach allenseiten hin abstrahlende Schallquellen handelt, da wird die Sachlage noch mal komplizierter

nö. man braucht immer nur die linie zum ohr. :)

als bei einem Doppelpendel und selbst dessen Bewegungen sind ein nahezu chaotisches System.

noch komplizierter wird es, wenn wir uns im inneren der sonne befinden und vor der berechung der schallgeschwindigkeit in plasma erst mal die relativitätstheorie in frage stellen.

es gibt immer noch einen aspekt.

aber in schritt 1 baut man immer erst mal einen combfilter, einen tappingbuffer, ein sampledelay und versucht das verhältnis zwischen distanz und schalldruck zu verstehen. das kann dann sogar ich, und ich bin erst 5.

Dass die Herangehensweise im Detail Plausibilitätsprobleme mit sich bringt, wenn man sich architektonisch preiswert herzustellende viereckige Räume als Vorbild nimmt, haben wir bereits erörtert.

komplexere räume sind aufwendiger zu machen, aber die technik dahinter ist immer die gleiche.

dort, wo der spass zuviel rechenleistung braucht lassen ich später für jede der benötigten richtungen zum ohr die transferfunktionen einfach summieren.

gut, das geht nur wenn sich schallquelle und ohr nicht bewegen sollen, aber das ist durchaus eine der hauptanwendungen (jedenfalls im vergleich zur schallquelle an einem doppelpendel :P )

Wenn du meinst ich mache deine Hausaufgaben, kannste ruhig warten. Eher kommt Godot.

keine hausaufgaben, kein godot.

es freiwillig aufzulösen auf was ich da hinweisen wollte bzw. wie ich damit eine deiner fragen beantworten wollte würde den lerneffekt kaputtmachen.


aber solange du spass dran hast: weitermachen.
 
Zuletzt bearbeitet:
Danke. Eine Lizenz zum Weitermachen eineinsnullscher Prägung kriegt ja nicht jeder. Darauf bild ich mir jetzt schon mal etwas ein.

Wenn du dein Posting versachlicht hast, sag mir bitte per PN bescheid, dann überleg ich mir, ob ich inhaltlich noch darauf antworte.

Ansonsten hier noch mal der Schnipsel Content aus dem vorletzten Post von mir verlinkt, zu dem mich Kommentare am ehesten interessieren:
Anhang anzeigen 236645
Viermal das gleiche aus verschiedenen Richtungen und Distanzen in einem großen Raum mit harten Wänden. Hatte bei der Modellierung eine Kirche im Sinn. Ob jemand unbeteiligtes eine Kirche hört, ohne dass ich ihm das vorher verrate, keine Ahnung. Leicht ist es auch zu behaupten, das wäre nach irgendwes offiziellen Ohren eine Abstellkammer oder gar nichts plausibel räumliches. Meine Ohren bestätigen mir viel, wenn der Tag lang ist.
Keine Ahnung, ob mich das überhaupt interessiert, wenn ich bei jeder gefragten Person in so stumpfe, lächerliche Diskussionen gezogen werde, eher nicht. Konsumiert euren Scheiß was das Zeug hält, hängen Arbeitsplätze dran, ich bastele meinen Scheiß egal ob auf falsche, falsch verstandene oder kommunizierte oder richtige Annahmen und poste immer mal wieder dazu. Selbst wenn ich nicht jeder Literaturempfehlung folge: bin ja nicht nur ich, der davon profitieren könnte, lesen vemutlich manche hier mit.

Hier noch eine populärwissenschaftliche Literaturempfehlung:
Cox, T.: Das Buch der Klänge, Springer Link, 2015. Nichts für einseinsnull, da darin unipolare Reflektionskettenschemata enthalten sind.
 
Ansonsten hier noch mal der Schnipsel Content aus dem vorletzten Post von mir verlinkt, zu dem mich Kommentare am ehesten interessieren:
bezüglich der Frage:
Wann steh ich vor dem Altar, wann dahinter? Wann auf der Kanzel rechts, wann auf der linken oder rechten Empore?
kann ich leider nicht viel beitragen, weil es wohl auch davon abhängt, wo die Orgelpfeifen stehen. Ob ich als Zuhörer jetzt vor oder hinter dem Altar stehe, dürfte da nicht so viel ausmachen, wenn die Schallquelle ganz hinten über dem Eingang liegt. Aber ich war auch schon länger nicht mehr in einer Kirche ...

Klingt alles nach Reverb, Beispiel #2 vielleicht etwas zu viel Early-Reflections oder allgemein zu hoher Hallpegel? Ist aber für meine Ohren auch nicht so gut identifizierbar, weil der Orgelsound a) nicht sehr viele Obertöne hat und b) ein paar "beißende" Frequenzen mitbringt. Kannst du das nochmal mit einem ungefilterten Sawtooth machen bzw. mit einem Plucksound, der insgesamt mit einer knackigeren Hüllkurve kommt?
 


Neueste Beiträge

Zurück
Oben