Noise-Generator schrieb:Is neuronale Synthese auch Resynthese?
Arbeitet doch auch so oder wie war das mit der Hartmann Klospülung?
Fragile SoulFire schrieb:ich weiß, dass es philosophische Unterschiede gibt. Die additive synthese hat sich ja schließlich nicht umsonst so lange eigentlich nie durchsetzen können, da die anderen syntheseformen einfach "praktischer" sind.
Die Musikwissenschaftler jedoch denken nicht (immer) wie Musiker. Die wollen auf einer ganz weiten Meta-Ebene philosophieren, rein theoretisch.
Mein Gedanke war jetzt: Man hat den idealen theoretisch Fall, dass wir tausende SinusOSC haben im hörbaren Bereich, ganz übertrieben sogar jede ganzzahlige Frequenz hat einen Sinus Oscillator. Unter der Vorraussetzung müsste doch jeder beliebige, statische Klang nachgebildet werden können, oder nicht?
Bei nichtstatischen Klängen müsste man die utopische Option hinzuziehen, dass jeder OSC soetwas(!) wie eine ENV braucht, die die Lautstärke steuert. Technisch ist das erstmal undenkbar umzusetzten, aber ich möchte nur von Hirngespinnsten ausgehen.
Versteht ihr meinen Gedankengang? Falls ja: Ist dem so?
Moogulator schrieb:Fragile SoulFire schrieb:ich weiß, dass es philosophische Unterschiede gibt. Die additive synthese hat sich ja schließlich nicht umsonst so lange eigentlich nie durchsetzen können, da die anderen syntheseformen einfach "praktischer" sind.
Die Musikwissenschaftler jedoch denken nicht (immer) wie Musiker. Die wollen auf einer ganz weiten Meta-Ebene philosophieren, rein theoretisch.
Mein Gedanke war jetzt: Man hat den idealen theoretisch Fall, dass wir tausende SinusOSC haben im hörbaren Bereich, ganz übertrieben sogar jede ganzzahlige Frequenz hat einen Sinus Oscillator. Unter der Vorraussetzung müsste doch jeder beliebige, statische Klang nachgebildet werden können, oder nicht?
Bei nichtstatischen Klängen müsste man die utopische Option hinzuziehen, dass jeder OSC soetwas(!) wie eine ENV braucht, die die Lautstärke steuert. Technisch ist das erstmal undenkbar umzusetzten, aber ich möchte nur von Hirngespinnsten ausgehen.
Versteht ihr meinen Gedankengang? Falls ja: Ist dem so?
1) nee, eher weil es technisch sehr aufwendig war, erst der K5000 konnte das so "richtig".. alles davor war dauteuer..
2) das ist nicht theoretisch, es ist einfach falsch, wenn man FM und additiv gleichsetzt.. es ist eine ganz andere Grundlage.. (sorry.. ist halt so.. )
statisch ist FM aber immernoch generativ, additiv eben nicht (reine mischung)..
theorie erlaubt leider imo diese denkweise nicht..
(hoffe ich HELF dir dabei.. aber es ist leider so.. wobei die leute, die dich checken ,vermutlich weniger drüber wissen..)
Moogulator schrieb:die FM würde ich da weniger drin sehen, ausser dem genannten "nebenzustand"..
Fragile SoulFire schrieb:Durch die addierung einzelner Sinusschwingen (tausender) und anpassung ihrer Lautstärke müsste doch jeder statische Klang reproduzierbar sein, oder?
Beim Resultat (nicht Erzeugung!) des Signals muss es doch egal sein, ob die Momentaufnahme eines Klanges den Ursprung in FM, Wavetable oder subtraktiver Synthese hatte. Oder erreicht die FM Synthese Frequenzen, die die additive Synthese (in einer momentaufnahme) nicht erreichen kann (was ich mir nich vorstellen kann?).
Fragile SoulFire schrieb:Durch die addierung einzelner Sinusschwingen (tausender) und anpassung ihrer Lautstärke müsste doch jeder statische Klang reproduzierbar sein, oder?
Fetz schrieb:Eine *brauchbare* Synthese muß die Menge der Parameter so beschränken, dass möglichst viele unbrauchbare Sounds rausfallen und möglichst wenig brauchbare verloren gehen. Ausserdem sollten die Parameter eine nachvollziehbare Wirkung auf den Klang haben. Ein Syntheziser der 'theoretisch' jeden Klang erzeugen kann ist ebenso einfach zu konstruieren wie unbrauchbar: einfach eine Sampledatei mit dem Audioeditor erzeugen (malen mit der Maus) und abspielen...
Fragile SoulFire schrieb:Forschung is Forschung. Im Diskurs lernt man mehr als aus reinem Lesen.
chain schrieb:stimmt die aussage, das es in der natur keinen reinen sinus gibt ?
Fragile SoulFire schrieb:mal schaun, ob wir nach fertigstellung den thread verstecken, oder löschen, nicht dass mein Prof mir schummeln unterstellt...
Forschung is Forschung. Im Diskurs lernt man mehr als aus reinem Lesen.
Moogulator schrieb:ja, es sit eigentlich sogar noch weniger bei vielen.. (einige hören schon 13000 nicht mehr)..
1. Theoretische Grundsätze
1.1 Die Fourieranalyse und Sinusaddition
1822 veröffentlichte der französische Ingenieur(Roads, S. 1075), Mathematiker und Physiker Jean Baptiste Joseph Fourier (1768-1830) in Paris unter dem Titel Theorie analytiques de la chaleur einen Beweis dafür, dass sich jede noch so komplexe periodische Schwingung als Summe endlich bzw. unendlich vieler simultaner Sinusschwingungen mit unterschiedlichen Amplituden, Frequenzen und Phasen dekonstruieren lässt. Im Umkehrschluss betrachtet, bedeutet diese hierarchische Betrachtungsweise der so genannten *Fourieranalyse* ebenso die Möglichkeit, aus diskreten Sinusschwingungen eine komplexe Schwingung zu konstruieren (*Fouriersynthese*), womit schon der grundlegenste Kerngedanke der Additiven Synthese formuliert wurde. Im Gegensatz zur weitaus verbreiterten subtraktiven Synthesetechnik setzt die Additive Synthese, wie schon aus dem Namen ableitbar, auf die Addition von Sinuswellenformen. Anstatt sich aus einem obertonreichen Spektrum den gewünschten Klang wortwörtlich herauszufiltern, geht man bei der Additiven Synthese den genau umgekehrten Weg: Das gewünschte Spektrum wird direkt aus den benötigten Teiltönen zusammengemischt. Die Sinusschwingung wird auf Mikroebene deshalb ausgewählt, weil sie sich nicht filtern lässt und somit keine Obertöne besitzt, womit sie ideal als eine Art Atom eines Klanges fungieren kann. Ähnlich wie sich jegliche Materie aus immer gleichen Zutaten wie Atomen, Elektronen und dergleichen aufbaut, kann jeder Klang als eine Mischung von elementaren Schwingungen verstanden werden, wobei durch ihre Obertonfreiheit die Sinuswelle die elementarste aller Schwingungen darstellt. Auch technisch hat sich der Sinus als purste Wellenform für Oszillatoren bei additiven Synthesizern etabliert, da er durch seine relativ simple mathematische Definition vergleichbar leicht elektronisch umsetzbar ist.
Wenn man davon ausgeht, dass der Mensch durchschnittlich ein Frequenzspektrum hörbar wahrnehmen kann, welches ungefähr 15.000 Hertz (u.a. altersabhängig) umfasst, wäre dementsprechend im Idealfall eine gleiche Anzahl von Oszillatoren von Nöten, um Klänge in dessen Rahmen zu (re)synthetisieren. Diese Umsetzung wäre natürlich mit einem gewaltigen technischen und finanziellen Aufwand verbunden, wenn man vergleicht, dass subtraktive Synthesizer meist mit nicht mehr als drei Oszillatoren ausgestatten waren und trotzdem schon einige tausend Deutsche Markt kosteten. Zudem kommt noch hinzu, dass Fourier seine Theorie auf periodische Signale bezieht, dass heißt: bei unperiodischen, dynamischen Klängen wäre eine ebenso hohe Anzahl an Modulationsquellen (wie beispielsweise Hüllkurvengeneratoren) notwendig, um jedem Oszillator einen individuellem Lautstärkeverlauf zu ermöglichen.
Diese Veranschaulichung mag erklären, warum die Additive Synthese in der elektronischen Instrumentenentwicklung des 20. Jh. eher eine untergeordnete Rolle gespielt hat, besonders da die analoge Realisierung noch weitaus aufwendiger und kostspieliger wäre, als eine digitale Umsetzung, die sich aber erst viel später erst richtig entwickeln sollte. Dennoch versuchte man schon früh diese Probleme zu bewältigen, was folgende Chronik dokumentieren sollte.
2. Umsetzungsentwicklung des Additiven Synthesemodells - Eine Chronik
2.1. Die Orgel
Eigentlich ist das Konzept der Additiven Synthese bereits seit Jahrhunderten existent, da die Orgel schon allerspätestens im 14. Jahrhundert einen vergleichbaren Entwurf anwendete. Dieser setzt auf mehrere Pfeifenreihen gleicher Bauart. Normalerweise wird eine, manchmal jedoch auch mehrere, dieser Pfeifenreihen zu einem Register zusammengefasst, welches ein- und ausgeschaltet werden kann. Die Register erzeugen verschiedene Tonhöhen, die durch die Fußtonzahlen gekennzeichnet werden, welche sich auch bei einem Großteil der Synthesizer durchgesetzt hat. Man unterscheidet zwischen Grundregister und Aliquoten, wobei Letztere durch bewusste Kombination maßgeblichen Einfluss auf die Klangfarbe wegen ihrer Abstimmung mit Obertönen haben. Doch die Registrierung entscheidet ebenso über die unterschiedlichen Lautstärken der einzelnen Pfeifenreihen, was sich genauso auf die resultierende Klangfarbe bzw. der so genannten Disposition einer Orgel auswirkt.
Es ist spannend zu wissen, dass man wohl nirgendwo Orgeln mit identischem Klang finden wird, da jede Orgel eine individuelle Konstruktion ist, bei der Material, Maße oder Bauart geschmacks- oder bauortsbedingt variieren. Auch jede Epoche bevorzugte sein eigenes, spezielles Klangbild, das nur noch vom Organisten durch die Wahl der Register umgesetzt werden musste.
Wie man sieht, wurden schon deutlich vor Fouriers Lebzeiten Klänge durch Addition zusammengesetzt. Jedoch erzeugten die Orgelpfeifen längst keine puren Sinuswellen, aber dennoch wurde die Mischung von Teiltönen schon praktisch umgesetzt. Es ist nicht bekannt, ob Fourier sich in irgendeiner Art und Weise an der Orgelkonstruktion orientierte, als er sein Theorem postulierte. Jedenfalls ist festzuhalten, dass er das Phänomen ,Klang; bis aufs Äußerste präzisieren wollte, bis er mit dem Sinus als kleinsten Bestandteil einer Schwingung am Ende seines Erstrebens angekommen war.
Fetz schrieb:Die Idee hinter der Hammond-Orgel sind zwar Sinuswellen, die praktische Ausführung ('Zahnräder', die mit einer Art E-Guitarren-Tonabnehmer arbeiten) klingt aber doch schon eigen.
komons.de schrieb:quatsch.
-schreib da doch lieber die weit verbreiteten 20-20000 Herz
-man braucht nicht pro hertz einen Oszillator, das macht keinen Sinn,
man kann ja bei 100Hz, 100.5Hz, 100,01Hz usw oszillatoren schwingen lassen.
Schau dir einfach mal die den Tonhöhen zugehörigen Frequenzen an.
es wäre im Idealfall eine Komposition von unendlich vielen Oszillatoren im besagten Frequenzspektrum vonnöten.
Da wir aber nur auf einige hundertstel eines Hz Tonhöhen differenzieren können (ich glaube typisch was so ca. 20cent) kann man diese Zahl reduzieren.
Zudem kann man die Zahl weiter reduzieren wenn man psychoakustische Effekte und vielleicht sogar den Klirrfaktor der "Anlage" mit einrechnet.
Man kann also vom kontinuierlichen Frequenzspektrum zum diskreten übergehen. Trotzdem gibt es in dem sinne unendlich viele Frequenzschritte im Hörfrequenzbereich. Bei der digitalisierung muss jedoch zwangläufig sowieso eine diskretisierung erfolgen, d.h. wenn man sich auf digitaler ebene bewegt...
Wenn man davon ausgeht, dass der Mensch du
Wenn man davon ausgeht, dass der Mensch durchschnittlich ein Frequenzspektrum hörbar wahrnehmen kann, welches ungefähr 15.000 Hertz (u.a. altersabhängig) umfasst, wäre dementsprechend im Idealfall eine gleiche Anzahl von Oszillatoren von Nöten, um Klänge in dessen Rahmen zu (re)synthetisieren
Das hört sich an, als ob du da etwas mißverstanden hast.
Wenn du einen Ton von 440Hz hast, dann reichen die Oszilatoren
440, 880, 1320, 1760,2200,2640,3080,3520, 3960, 4400, 4840, 5280, 5720, 6160, 6600, 7040, 7480, 7920, 8360, 8800, 9240, 9680, 10120, ....
vollständig aus um jeden Klang mit dieser Frequenz zu Synthtisieren.
Ist dein Ton aber 440,1 Hz brauchst du Oszilatoren von 440.1 880.2, 1320.3... Hz.
Die Vorraussetzung für die Fouriertransformation heisst: *periodisch*.
Wenn du beide obige Töne gleichzeitig wiedergibst hat die Fouriertransformation eine Periode von 10 sekunden (0.1Hz nämlich das KGV von 440 und 440.1)!
So etwas wie ein Klavierton verarscht einen dabei völlig: aufgrund der Saitensteifigkeit sind die Obertöne gespreizt. Daher ist die Periodendauer mitnichten der (Grund)ton der Saite sondern irgendwas im 0.xx Hz Bereich!
P.S.: Frequenzspektrum ist IMHO immer von bis, so wie du Hz verwendet hast hört es sich nach Mengenangabe an.
Fetz schrieb:Wenn du einen Ton von 440Hz hast, dann reichen die Oszilatoren
440, 880, 1320, 1760,2200,2640,3080,3520, 3960, 4400, 4840, 5280, 5720, 6160, 6600, 7040, 7480, 7920, 8360, 8800, 9240, 9680, 10120, ....
vollständig aus um jeden Klang mit dieser Frequenz zu Synthtisieren.
Ist dein Ton aber 440,1 Hz brauchst du Oszilatoren von 440.1 880.2, 1320.3... Hz.
Die Vorraussetzung für die Fouriertransformation heisst: *periodisch*.
Wenn du beide obige Töne gleichzeitig wiedergibst hat die Fouriertransformation eine Periode von 10 sekunden (0.1Hz nämlich das KGV von 440 und 440.1)!
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.