Digital ist schlechter

Zeitkontinuierlich: Nein, es gibt ja eine Sampling-Rate.
Wertekontinuierlich: Auch nein.

Faustformel:
Kann ich es digital abspeichern, sind die zugrunde liegenden Daten ebenfalls digital, also nicht kontinuierlich.
Man hat also immer Quantisierungsrauschen (Bitbreite) und Bandbreitenbegrenzung (Sample-Rate).
So ganz grob.

Nach(!) der Wandlung hat man ein analoges Signal (mit oben erwähnten Fehlern genüber dem abgetasteten Originalsignal), aber das ist bei der CD ja auch nicht anders.

Grüße
Omega Minus
Bin irgendwie noch nicht ganz überzeugt, da ja fürn diskretes Signal irgendwie die Stufigkeit fehlt. Dadurch das die Abtastpunkte ja immer nur steigt oder fällt enthalten, sind die Werte dazwischen ja auch definiert, hört sich für mich irgendwie schon kontinuierlich an. Will aber auch nicht ausschließen, dass ich grad nen massiven Denkfehler habe.
 
Ein wertekontinuierliches Signal kann beliebig (ja ja, von Quanteneffekten abgesehen) viele Zwischenwerte annehmen.
Eine digitale Darstellung kann aber nur endlich viele Werte annehmen.
Ergo kann ein digitaler Datenstrom für jeden Zeitpunkt nur endlich viele Werte repräsentieren. Man hat also eine digitale Näherung.
Oder?

Grüße
Omega Minus
 
Aus quantentheoretischer Sicht gibt's die (beobachtbare ergo reale) Welt nur in diskreten Werten. Insofern ist die Kontinuität nur eine Interpretation durch den Betrachter. Siehe das 60 Bilder pro Sekunde Beispiel oder Schrödingers Katze.
 
Ein wertekontinuierliches Signal kann beliebig (ja ja, von Quanteneffekten abgesehen) viele Zwischenwerte annehmen.
Eine digitale Darstellung kann aber nur endlich viele Werte annehmen.
Ergo kann ein digitaler Datenstrom für jeden Zeitpunkt nur endlich viele Werte repräsentieren. Man hat also eine digitale Näherung.
Oder?

Grüße
Omega Minus


Ja, aber das rekonstrierte Signal ist kontinuierlich in dem Sinn daß es für alle Zwischenwerte definiert ist.
Das ist dann vermutlich eins der Probleme, daß das in der Sinulation nicht der Fall ist.

Man müsste also statt expliziter numerischer Simulation zB abstrakte Differentialgleichungen fortschreiben und erst am Ende die numerische Lösung ausrechnen.

Diktat Ende.
Alfred, kümmern Sie sich um die Details.
 
Ja, aber das rekonstrierte Signal ist kontinuierlich in dem Sinn daß es für alle Zwischenwerte definiert ist.

Das ist bei jedem DAC so, dass das Ergebnis so tut, als wenn es kontinuierlich für alle Zwischenwerte wäre. Das macht ja gerade der Wandler: Er wandelt ein zeitdiskretes und wertediskretes Signal (den Datenstrom) in eine analoge Spannung um.

Man müsste also statt expliziter numerischer Simulation zB abstrakte Differentialgleichungen fortschreiben und erst am Ende die numerische Lösung ausrechnen.

Wie das halt so bei Differentialgleichungen und deren nummerischer Lösung so ist:
Man geht von einem Schritt t auf den nächsten Schritt t + delta t, delta t 'klein genug'.
Man kann sie halt nicht analytisch lösen.

Man kann sie transformieren, <otto>wudeln und knudeln</otto>, FEM, Übergitterverfahren, ... aber es bleibt immer von einem Schritt zum nächsten. Mit fürchterlich vielen komplizierten Details und Ansätzen, aber es ist immer das (zumindest bei einem Anfangswertproblem).

Schon das einfache allgemeine Dreikörperproblem kann man nicht nummerisch lösen, man kann sich nur vom einen Schritt zum nächsten hangeln.

Grüße
Omega Minus
 
Ja, deswegen der ironische Nachsatz.

Aber es gibt zB beim anolg modeling von Synths diverse Techniken die das Problem teils zu umschiffen versuchen, zB die "ZDF" ( zero delay feedback) Filter, "Wave Digital Filter" nach Fettweis (so was ähnliches das ich nicht verstehe), Emulation von Schaltkreisen usw.

Das löst das Problem der Zeitauflösung teilweise, das der Wertauflösung natürlich nicht.
Da müsste man dann mit Brüchen arbeiten und Platzhaltern für transzendente Zahlen...

Nicht lösbar, aber es würde mich nicht wundern wenn die (Musik)Industrie Ansätze hätte die im akademischen Feld ausserhalb weniger bekannt sind und die Sitution im Einzelfall verbessern könnten.
 
Ein dynamisches System wird in der Simulation als Satz von DGLs abgebildet. Dies wird dann numerisch gelöst. Je nach System geht das gut oder auch nicht. Die Auswahl an adaptiven Solvern ist galore. Hier wird nicht mit fester Schrittweite gerechnet, sondern die Schrittweite vom geforderten Fehler abhängig und adaptiv vom Solver (Löser im Deutschen? - klingt blöd) gewählt. Solche Solver zu bauen ist dann wieder ein eigenes Forschungsgebiet. Dumm ist es wohl, wenn man sich mit Steifen Problemen herumschlagen muss. Ein Mitdiplomand hatte das Vergnügen, seine DGL hatte einen Time-Delay drinnen.

Beim analg modeling von Synths geht man anders vor, man will ja eine äquidistant abgetastete Zeitreihe haben und muss sich mit dem Sampling Theorem und Aliasing bzw. der Verhinderung von eben diesem herumschlagen.
 
Zuletzt bearbeitet:
Ich warte ja noch immer darauf, dass es endlich einen Convolution Algorithmus von der Realität gibt.
Damit meine ich das gesamte Universum, die Zeit, den Raum und am besten noch alle parallel Dimension dazu.
 
Bin irgendwie noch nicht ganz überzeugt, da ja fürn diskretes Signal irgendwie die Stufigkeit fehlt. Dadurch das die Abtastpunkte ja immer nur steigt oder fällt enthalten, sind die Werte dazwischen ja auch definiert, hört sich für mich irgendwie schon kontinuierlich an. Will aber auch nicht ausschließen, dass ich grad nen massiven Denkfehler habe.

vielleicht ist das nicht besonders toll erklärt so, aber im prinzip gibt es 2 "gegenargumente":

zum einen ist für die datenstream selbst gaz egal, ob sich der mensch zwischenwerte denkt oder nicht. es sind trotzdem nur schritte.

zum anderen ist das mit den gedachten zwischenschritten bei PCM audio oder bei einem GL dreieck auch nicht anders. und dennoch passt letzteres in 8 bytes, und zwar auch dann, wenn das dreieck 5 kilometer groß ist.
 
Zuletzt bearbeitet:
umgekehrt ist das genauso. strom oder spannung kann man niemals exakt für einen moment bestimmen. selbst eine atomuhr mit nanosekunden ist noch ungenauer als "jetzt". um ihn darzustellen und insbesondere die messewerte zu digitalisieren, muss man schritte daraus machen.
 
mir erklären die herren mathematiker an dieser stelle zu wenig, als dass ich davon etwas verstünde. und noch besser als eine erklärung wäre natürlich ein beweis.

Ok, da stimme ich zu, die Stelle ist wirklich knapp gehalten - hab mir in der Zwischenzeit das Paper auch mal genauer durchgelesen und die Argumentation bezieht sich schon in erster Linie auf ungleichmäßig verteilte floats. Ich werd mal auf Facebook die Spezialisten fragen, was sie davon halten...

du musst es mal so sehen: wenn die behaupten, dass das mit zahlenformaten, die kongruent zu ganzen/natürlichen zahlen sind, auch nicht geht, dann sagen die damit nur, dass es schon mathematisch nicht geht.

Wie meinst du das? In der Mathematik hab ich doch reelle Zahlen, die unbestritten mächtiger sind als die natürlichen? (nur ob es dazwischen war gibt ist doch unklar)
 
ungleichmäßig verteilte floats.
Versuch einer Erklärung:
Es kommt nicht auf die Nachkommastellen an, sondern auf die Zahl der signifikaten stellen
Bei 0,000000001 kann man deshalb wesentlich feiner auflösen, als bei 4,000000001
Man hat in diesem Bereich mehr Floats zur Verfügung. Das ist mit ungleichmäßig aufgelöst gemeint. Man wird also zwangsläufig ungenauer, wenn man in höhere Bereiche vordringt.
 
Ok, da stimme ich zu, die Stelle ist wirklich knapp gehalten - hab mir in der Zwischenzeit das Paper auch mal genauer durchgelesen und die Argumentation bezieht sich schon in erster Linie auf ungleichmäßig verteilte floats. Ich werd mal auf Facebook die Spezialisten fragen, was sie davon halten...

ja ja, die zeigen uns da ihre komischen mathematischen formeln die nur insider verstehen, anstatt mal den programmcode, den auch einige normale menschen halbwegs lesen könnten.

Wie meinst du das? In der Mathematik hab ich doch reelle Zahlen, die unbestritten mächtiger sind als die natürlichen? (nur ob es dazwischen war gibt ist doch unklar)

weil ja zumindestens ganze und endliche rationale zahlen mit jedem prozessor, der 1 byte auf einmal verarbeiten kann, theoretisch endlos groß sein können und im rahmen eines integer oder fixed number formats auch mit ihnen in grundrechenarten operiert werden kann, und zwar vollkommen fehlerfrei.

(1/80) * 50000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000

kann jeder prozessor korrekt berechnen.

natürlich braucht man für die wenigsten aufgaben im alltag nur 1 oder 2 arten von zahlen, das ist schon klar.
 
Mich überkommt grad so ein schaurig-wohliges Gefühl nach Mathe / Physik /E-Technik Vorlesung :) Heute muss ich meistens nur noch (alt)klug daherreden und/oder bunte Folien malen — eine DGL habe ich seit der Diplomprüfung nicht mehr gelöst :P
 
Und? Vermisst du was?
Nee… ich glaub nicht ;-) Ich bewundere nur grad den Fakt, dass ich die Postings hier lesen kann und zumindest einen Schimmer einer Ahnung habe, um was es geht :P

DGLs fand ich am ehesten noch dann interessant, wenn ich mal wieder kurz verstanden habe, wo überall in der „wahren Welt“ sie eine Rolle spielen. Für das Lösen von diesen Dingern habe ich mir halt die diversen Kochrezepte gemerkt. Und die habe ich in der Tat nie wieder gebraucht :D
 
Versuch einer Erklärung:
Es kommt nicht auf die Nachkommastellen an, sondern auf die Zahl der signifikaten stellen
Bei 0,000000001 kann man deshalb wesentlich feiner auflösen, als bei 4,000000001
Man hat in diesem Bereich mehr Floats zur Verfügung. Das ist mit ungleichmäßig aufgelöst gemeint. Man wird also zwangsläufig ungenauer, wenn man in höhere Bereiche vordringt.

ja, genau - aber bei Festkommazahlen (fixed-point numbers) hat man doch an jeder Stelle eine gleich feine Auflösung, also bei 0,000000001 auch nicht besser als bei 4,000000001? Da hat @einseinsnull schon einen Punkt (bei dem Username auch kein Wunder dass er sich so zur Ehrenrettung der digitalen Berechnung einsetzt :xenwink: )


weil ja zumindestens ganze und endliche rationale zahlen mit jedem prozessor, der 1 byte auf einmal verarbeiten kann, theoretisch endlos groß sein können und im rahmen eines integer oder fixed number formats auch mit ihnen in grundrechenarten operiert werden kann, und zwar vollkommen fehlerfrei.

(1/80) * 50000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000

kann jeder prozessor korrekt berechnen.

natürlich braucht man für die wenigsten aufgaben im alltag nur 1 oder 2 arten von zahlen, das ist schon klar.

ok, das ist dann aber schon ein ziemlich arger "Spezialfall"...
 
gleich feine Auflösung
vielleicht ist Auflösung auch das falsche Wort.
Es geht um die Darstellung von Zahlen bei gegebener Stellenzahl

Um nicht mit Binärdarstellung von Zahlen rummachen zu müssen, nehm ich mal eine frei erfundene dezimale Darstellung

0,000000001 könnte ich darstellen als 1 * 10 hoch -9
1-9


4,000000001 muss ich aber schon darstellen als 4 + 1 * 10 hoch -9
4.1-9
brauche also mehr Platz

und dann brauche ich nur einen Algorithmus zu finden, der Zahlen erzeugt, für die die gegebene Stellenzahl nicht ausreicht, und schon explodiert die Sache weil ich die Zahlen nur noch näherungsweise darstellen kann.

Mit "Auflösung" ist dann wohl die Dichte der exakt darstellbaren Zahl in der Umgebung einer Zahl gemeint.
 
Zuletzt bearbeitet:
Ergo kann ein digitaler Datenstrom für jeden Zeitpunkt nur endlich viele Werte repräsentieren. Man hat also eine digitale Näherung.
Oder?
Worin mich Dumpfbacke aufzuklären ich jemanden aus den unendlichen Weiten des Internets bitten würde: Welche praktische Relevanz haben die endlich vielen Werte etwa in einer Sekunde Audiomaterial, wenn mein Ohr zu träge ist, diese Werte auseinander zu halten? Wenn, sagen wir mal, auf meinem Audiogramm schon bei 15kHz Schicht ist, geht mir doch völlig ab, ob eine Audiosekunde mit 96000 oder mit 192000 Werten kodiert ist? Es erscheint mir vollkommen ausgeschlossen, dass letzteres irgendwie besser klingen kann.

Und so ist es doch mit allem. Mein Dumpfbackenpostulat: Jede Gegebenheit in der Natur, die theoretisch nur mit einer irrationalen Zahl "unendlich genau" darstellbar ist, lässt sich mit n Bit soweit annähern, dass ein Sinnesorgan oder eine physikalische Messvorrichtung mit einer Auflösung von <n Bit die Abbildung dieser Gegebenheit nicht mehr von ihrer realen Manifestation unterscheiden kann.

Allerdings, wenn der Artikel auf dieses Problem eingehen sollte, bitte ich meine Anfrage zu ignorieren. Eine Antwort habe ich dann nicht verdient.
 
Ich kann mal was zu Bitrate und Samplingfrequenz sagen:

Erhöhen der Bitrate
  • Abbilden der Dynamik im Quellmaterial: Wenn ein Klassikstück seehr leise spielt, hat das menschliche Gehör kein Problem sich zu adaptieren - es fährt gewissermaßen die Empfindlichkeit hoch. Technisch habe ich dann aber potenziell das Problen einer unzureichenden Auflösung oder schlimmstenfalls das Zutagetreten von Quantisierungsrauschen
  • Audioprocessing: Jede DSP-Bearbeitung fügt Rundungsfehler zum Ursprungssignal hinzu. Eine erhöhte Bitrate erlaubt mehr Berabeitungsschritte ohne dass diese Nebenwirkungen sich manifestieren

Erhöhen der Samplingfrequenz
  • Eher technisch relevant bei der Bearbeitung oder Erzeugung von Signalen: Vermeidung von Aliasing bzw. seiner Verschiebung in sehr hohe/unhörbare Frequenzbereiche und/oder der Nutzung von Oversampling
  • Für das reine Anhören des Ergebnisses gibt es kaum echte Argumente für eine hohe Samplingfrequenz. Wie du schon sagst… das Hörspektrum der meisten Menschen endet weit unterhalb von 20 kHz

Fazit: Für das Erhöhen der Bitrate gibt es mehrere gute Gründe (technische und hörphysiologische). Für eine Erhöhung der Sanplingrate sprechen eher technische Gründe, und dann auch primär bei der Bearbeitung…
 
Zuletzt bearbeitet:
@Neusiker Es klingt ja auch nicht besser.
Es ist uU nicht mal messtechnisch unterscheidbar, weil schon die Aufnahme nicht mehr Information enthält.

Der Artikel behandelt ein ganz anderes Problem.
Nämlich Fälle in denen sehr kleine Abweichungen in vielen Rechnungen am Ende zu sehr großen unbrauchbaren Unterschieden im Ergebnis führen.

So wie wenn Du 60 000 mal Minuten addierst, aber die Sekunden immer etwas ungenau sind.
Wenn Du dann am Ende die Sekunde ablesen willst, kann das Sekundenergebnis bis zu 60 Sekunden abweichen, ist also vollkommen aussagelos.
Auch dann wenn Deine Sekunden 0.001 Sekunden genau sind.
 
Zu den endlich vielen Werte in einer Sekunde Audiomaterial sei gesagt. dass das wegen der Bandlimitierung vor der Abtastung und dem Rekonstruktionsfilter bei der Wandlung ins Analoge kein Problem ist. Wenn man nichtlinearen Krams mit den Samples macht, wird das mit der Bandlimitierung i.d.R. verletzt und man muss intern Oversampling treiben und wieder bandlimitieren etc. Höhere Sampleraten bringen leichte Vorteile bei den Filtern.

Der Artikel beschäftigt sich mit dem Problem, dass die Werte bei IEEE Float nicht gleichmässig verteilt sind und daher Fehler durch nichtlinearen Krams (Chaos) hochskaliert werden. Dazu bitte auch mal zum Thema Ljapunow-Exponent nachlesen: https://de.wikipedia.org/wiki/Ljapunow-Exponent
 
Worin mich Dumpfbacke aufzuklären ich jemanden aus den unendlichen Weiten des Internets bitten würde: Welche praktische Relevanz haben die endlich vielen Werte etwa in einer Sekunde Audiomaterial, wenn mein Ohr zu träge ist, diese Werte auseinander zu halten?

Es ging um die Frage 'kontinuierlich oder nicht'. Dass man das beliebig annähern kann sollte eigentlich bekannt sein.

Ist wie die Wurzel aus 2: Es gibt keinen Bruch, der Wurzel aus 2 exakt repräsentiert, aber ich kann es beliebig genau mit einem Bruch annähern. Fragt also einer "Dann ist die Wurzel aus 2 eine rationale Zahl?" ist die Antwort "Nein."

Allerdings ist der Unterschied zwischen Theorie und Praxis in der Praxis wesentlich größer als in der Theorie. Sagt ein Theorem. Praktisch, nicht?

Grüße
Omega Minus
 
So wie wenn Du 60 000 mal Minuten addierst, aber die Sekunden immer etwas ungenau sind.
Wenn Du dann am Ende die Sekunde ablesen willst, kann das Sekundenergebnis bis zu 60 Sekunden abweichen, ist also vollkommen aussagelos.
Auch dann wenn Deine Sekunden 0.001 Sekunden genau sind.
Grundsätzlich korrekt, aber der nichtlineare Aspekt (das Chaos) fehlt hier.
 
Erhöhen der Samplingfrequenz
  • Eher technisch relevant bei der Bearbeitung oder Erzeugung von Signalen: Vermeidung von Aliasing bzw. seiner Verschiebung in sehr hohe/unhörbare Frequenzbereiche und/oder der Nutzung von Oversampling
  • Für das reine Anhören des Ergebnisses gibt es kaum echte Argumente für eine hohe Samplingfrequenz. Wie du schon sagst… das Hörspektrum der meisten Menschen endet weit unterhalb von 20 kHz
Sofern man mit etwas Einbußen am oberen Rand des Hörbereichs leben kann. Bei 44,1 khz klingen für meine Ohren sämtliche digitalen Echtzeit-Filter, die nicht schon unter 20khz etwas wegnehmen, kaputt. Schrill, wattig, dynamisch kastriert usw., trotz auf dem Papier guter Messwerte. Ich weiß das, weil ich DACs habe, bei denen ich selber Filter hochladen kann. Die Erhöhung der Samplingfrequenz bis zu einem gewissen Punkt, 60 khz z.B. ist daher u.U. durchaus sinnvoll. Nicht weil man dort hören kann, sondern weil das Antialiasing-/Rekonstruktionsfilter dann weniger im Hörbereich arbeitet.
 


Neueste Beiträge

Zurück
Oben