Was genau ist eigentlich analoges Audio?

Ich würde das Buch sofort kaufen, wäre es als Kindle verfügbar. Von physischen Büchern bin ich komplett weg.

Es ist übrigens nicht so, dass ich nicht Literatur über Synthesizer und elektronische Musik gelesen habe, aber ich hatte dieses Thema trotzdem nie so richtig kapiert. Das mag daran liegen, dass die Autoren zu viel voraussetzen, es selber nur halb verstehen, oder ich zu blöd bin. Mir ist klar, dass es irgendwie um Strom, Spannung, Frequenzen und Wellen geht. Die Analogie mit dem Wasserhahn von Christian Böckle fand ich ziemlich hilfreich.

Was ich aus den Antworten mitgenommen habe, ist, dass der Trick darin besteht, elektrische Spannung in Schallwellen umzuwandeln.
Da ist was dran. Hatte vor Ewigkeiten mal die Keys abonniert und dann wieder abbestellt. Null Mehrwert mit all diesen Fachmagazinen. Einmal wird wie für Erstklässler geschrieben und im nächsten Satz werden spezielle Fachbegriffe inkl. Verständnis vorausgesetzt. Sogenannte Produzenteninterviews waren nur bla bla und gespickt mit Werbung. Und sämtliche Themen in jährlicher Endlosschleife. Man hat den Eindruck man will die Leser auf der Stelle treten lassen.
 
Kann man sagen, dass digitale Klangbearbeitung, wie z.B. ein digitales Reverb-Pedal, das analoge Signal in digital und wieder zurück wandelt, und die eigentliche Magic dazwischen durch Algorithmen passiert? Während ein analoges Effekt-Pedal nur auf Basis von elektronischen Bauteilen und deren Auswahl und Anordnung auf der Platine funktioniert?

Exakt so ist das.
 
als alter Besserwisser ist man ja drauf und dran zu antworten:
wenn du es fragst , was dir dein Ohr vermittelt.

Du Übertragung von Signalen für den menschlichen Hausgebrauch erfolgt mittels Schall, und da wir mehr als nur binäre Klopfgeräusche verwenden verwenden wir "analoge" Signale.

Man müsste eigentlich sagen: Es gibt Audio oder halt digitalisiertes (codiertes) Audio. mit digitalem Audio kann ich keine Schall erzeugen, ich muß das Signal erst zurückwandeln.
 
Im Digitalen ziehe ich von den Zahlen, die die Lautstärke repräsentieren, eine Zahl ab.
Unschön erklärt. Was passiert denn mit den Zahlen, die die Lautstärke repräsentieren? Wenn du sie nicht mit den Zahlen verwechselst, die Auslenkung des Luftdrucks in stärkere oder in schwächere Richtung symbolisieren (D/A-zur-Membran-Pipeline hat den Zweck, diese Informationen in mechanische Kräfte umzusetzen, auf ein mechnisches Medium zu übetragen), auch Samples genannt, und zu Frames zusammengesetzt, deren Bestandteile die Auslenkung des Luftdruck zum selben Zeitpunkt symbolisieren, genauer zu demselben eine z.B. 44100-stel Sekunde langen Zeitscheibchen, aber für unterschiedliche Lautsprecher-Membrane (bei Stereo links und rechts). Die Lautstärke dient schlicht als Faktor von Multiplikationen.

Digital Audio ist angewandte Mathematik (Informatik). Analog Audio ist angewandte Physik (Elektrik). Ein Digitalrechner, genauer dessen Hardwarekomponenten nach außen und in ihrem Zusammenspiel dienen dem Zweck, angewandte Mathematik auf die Physik anzuwenden, bilden also die Schnittstelle einer Simulationsebene (Elektronik). Simulation ist die Abbildung von Symbolen in einer Realität auf eine andere.
 
Zuletzt bearbeitet:
  • HaHa
M.i.a.u.: Cee
Kann man sagen, dass digitale Klangbearbeitung, wie z.B. ein digitales Reverb-Pedal, das analoge Signal in digital und wieder zurück wandelt, und die eigentliche Magic dazwischen durch Algorithmen passiert? Während ein analoges Effekt-Pedal nur auf Basis von elektronischen Bauteilen und deren Auswahl und Anordnung auf der Platine funktioniert?

das würde ich nicht so sagen, denn die analoge schaltung ist auch ein algorithmus.

es gibt sogar beispiele dafür, dass elektronische schaltungen durchaus sehr ähnlich wie ihre software pedants aufgebaut sind.

und die verwendete mathematik dahinter ist auch immer die gleiche.
 
Florians Buch ist ein Standardwerk. Sollte man analog gelesen haben.
Standardwerke von mir aus immer gerne auch als Kindle. Garantiert wäre ich der erste Käufer.

Ich war früher übrigens auch auf der analogen Schiene. Auch, weil ich es nie eingesehen habe, für ein Kindle fast denselben Preis wie für das Buch zu zahlen. Seit ich den aktuellen Kindle-Reader habe und nicht mehr den ollen von vor 10 Jahren, weiß ich aber die Vorteile von eBooks zu vollumfänglich zu schätzen.

Das Ding verbraucht fast keinen Strom, lässt sich aber im Gegensatz zu einem Buch sehr angenehm im Dunkeln lesen. Mit angenehm meine ich auch, dass man die Schriftgöße seiner Augenkraft anpassen kann. Man hält und blättert es in einer Hand. Nimmt im Gegensatz zu einem Buch keinen Platz weg und updatet sich automatisch auf die aktuelle Ausgabe. Besonders praktisch: Man hat das E-Buch in wenigen Sekunden nach dem Kauf lesebereit.

Ich finde ja auch, ein gut gebundenes Buch in der Hand zu halten hat seinen Reiz, weil es ein Stück feinen Handwerks ist (uraltes Gewerbe und so), aber mal ganz ehrlich: Das war's dann auch an Pro-Argumenten.

P.S.: Ach so, man kann ein eBook nicht verleihen oder weitergeben. Muss halt jeder wissen, wie wichtig einem dieser Punkt ist.
 
Da ist was dran. Hatte vor Ewigkeiten mal die Keys abonniert und dann wieder abbestellt. Null Mehrwert mit all diesen Fachmagazinen. Einmal wird wie für Erstklässler geschrieben und im nächsten Satz werden spezielle Fachbegriffe inkl. Verständnis vorausgesetzt. Sogenannte Produzenteninterviews waren nur bla bla und gespickt mit Werbung. Und sämtliche Themen in jährlicher Endlosschleife. Man hat den Eindruck man will die Leser auf der Stelle treten lassen.
Früher gab´s aber nix anderes, da war man froh über jedes Fitzelchen Info. Das ist heutzutage natürlich anders. :opa:
 
Strom fließt.
Spannung fließt NICHT, sondern sie "liegt an".
Du hast natürlich Recht. Die Spannung kann nicht fließen sondern der Strom fließt.
Kein Anspruch auf Wahrheit aber so wie ich Elektrizität verstanden habe steht ein Kupferdraht für eine Kette von Kupfer Atomen, die aneinander kleben und um die sich Elektronen in einer Umlaufbahn drehen. Legt man eine elektrische Spannung an, springen die Elektronen von einem Kupferatom zum Nachbar Atom. Das passiert in Lichtgeschwindigkeit. Und dieser Elektronenfluss ist der elektrische Strom.

Den Vergleich mit dem Wasserschlauch habe ich so in Erinnerung:
das fließende Wasser ist der Strom (gemessen in Ampere), der Wasserdruck entspricht der Spannung (Volt) und der Druckminderer am Schlauch ist der Widerstand (Ohm).
 
Ich hab da mal was gezeichnet ...

Links das analoge Audio. Das kann im Grunde ne Schwingung in der Luft sein oder das Signal in einem analogen Synthesizer. Einmal ist das Medium die Luft, einmal elektrische Ladungen.

Kern von analogen Schaltungen ist, dass sie einen kontinuierlichen Verlauf haben. Sprich, für jeden Zeitpunkt gibt es einen ganz individuellen Wert, der im Grunde nie identisch mit dem Vorherigen ist. Auch gibt es eigentlich keinen Vorherigen, da man in den Verlauf "unendlich" fein reinzoomen kann.

Und alle klassischen Audiosignale sind erstmal analog. Ob das die Aufnahme mit nem Mikro ist, die Schwingungen einer E-Gitarre usw.

Um Audiosignale digital verarbeiten zu können, müssen sie zwangsläufig digitalisiert werden. Warum man das macht, kann viele Gründe haben. Vor allem ist inzwischen die Speicherung und auch Verarbeitung (finanziell) deutlich günstiger.

Die Digitalisierung sieht man in der Skizze. Dabei wird aus dem Linken, das rechte Signal. Digitale Audiosignale sind dann immer nur eine Annäherung an das analoge Ursprungssignal, nie identisch.

Wie fein diese Annäherung ist, beschreiben die Digitalisierungsparamter der Abtastfrequenz (zB 44.1kHz), das ist die Auflösung in x-Richtung und die Bitrate (zB 16bit) in y-Richtung.

Der große Unterschied zwischen analogen und digitalen Synthesizern ist einmal die Verarbeitung mit analogen Bauelementen, wie Transistoren, Kondensatoren und Widerständen. Das andere Mal mit digitalen, sprich logischen Bauelementen (="Mikrochips"). Und auch, wenn Mikrochips aus vielen Transistoren bestehen, ist die Verarbeitung eine andere.

Verarbeitung kann in beiden Fällen alles mögliche sein. Von der Filterung bis zur Mischung von Signalen.

Und will man die digitalen Audiosignale schlussendlich abspielen, werden sie wieder in Analoge verwandelt. Und dann über einen Lautsprecher ausgegeben.

IMG_1187.jpg
D
 
Zuletzt bearbeitet:
da auch beim digitalsynth am klinkenausgang ein analoges signal rauskommt, und so mancher analogsynthesizer digitale potis und displays hat, könnte man es sich leicht machen und diese geräte einfach als "hybrid" einordnen...
Ich glaube da bringst du ein paar Sachen durcheinander. Es geht ja um die Signalerzeugung. Und die Quelle bei einem Substraktiven Synthesizer kann eine analog aufgebaute Schaltung sein, oder eine digitale Schaltung. Das am Audioausgang dann ein analoges Signal rauskommen kann ist klar. Es gibt aber auch Geräte (Roland Boutique, Elektron Analog **, Digi**, wasauchimmer) die neben dem Analog Ausgang auch Audio Ausgabe über USB, also ein rein digitales Signal anbieten. Das macht jetzt den Analog Four beispielsweise aber nicht zum Hybrid Synthesizer, weil die Klangerzeugung dennoch als analoge Schaltung aufgebaut ist, und danach richtet sich die Einordnung als analoger oder digitaler Synth.
 
Ich hab da mal was gezeichnet ...

Links das analoge Audio. Das kann im Grunde ne Schwingung in der Luft sein oder das Signal in einem analogen Synthesizer. Einmal ist das Medium die Luft, einmal elektrische Ladungen.

Kern von analogen Schaltungen ist, dass sie einen kontinuierlichen Verlauf haben. Sprich, für jeden Zeitpunkt gibt es einen ganz individuellen Wert, der im Grunde nie identisch mit dem Vorherigen ist. Auch gibt es eigentlich keinen Vorherigen, da man in den Verlauf "unendlich" fein reinzoomen kann.

Und alle klassischen Audiosignale sind erstmal analog. Ob das die Aufnahme mit nem Mikro ist, die Schwingungen einer E-Gitarre usw.

Um Audiosignale digital verarbeiten zu können, müssen sie zwangsläufig digitalisiert werden. Warum man das macht, kann viele Gründe haben. Vor allem ist inzwischen die Speicherung und auch Verarbeitung (finanziell) deutlich günstiger.

Die Digitalisierung sieht man in der Skizze. Dabei wird aus dem Linken, das rechte Signal. Digitale Audiosignale sind dann immer nur eine Annäherung an das analoge Ursprungssignal, nie identisch.

Wie fein diese Annäherung ist, beschreiben die Digitalisierungsparamter der Abtastfrequenz (zB 44.1kHz), das ist die Auflösung in zeitlicher (x-Richtung) und die Bitrate (zB 16bit) in y-Richtung.

Was nun der große Unterschied zwischen analogen und digitalen Synthesizern ist, ist dass einmal die Verarbeitung (Filterung etc.) mit analogen Bauelementen, wie Transistoren, Kondensatoren und Widerständen passiert. Das andere Mal mit digitalen, sprich logischen Bauelementen (="Mikrochips"). Und auch, wenn Mikrochips aus vielen Kondensatoren bestehen, ist die Verarbeitung eine andere.

Und will man die digitalen Audiosignale schlussendlich abspielen, werden sie wieder in Analoge verwandelt. Und dann über einen Lautsprecher ausgegeben.

Anhang anzeigen 159625


Genaugenommen dürfte die rechte Darstellung keine waagerechten Linien haben, sondern nur unverbundene Punkte...
 
Ich hab da mal was gezeichnet ...

Links das analoge Audio. Das kann im Grunde ne Schwingung in der Luft sein oder das Signal in einem analogen Synthesizer. Einmal ist das Medium die Luft, einmal elektrische Ladungen.

Kern von analogen Schaltungen ist, dass sie einen kontinuierlichen Verlauf haben. Sprich, für jeden Zeitpunkt gibt es einen ganz individuellen Wert, der im Grunde nie identisch mit dem Vorherigen ist. Auch gibt es eigentlich keinen Vorherigen, da man in den Verlauf "unendlich" fein reinzoomen kann.

Und alle klassischen Audiosignale sind erstmal analog. Ob das die Aufnahme mit nem Mikro ist, die Schwingungen einer E-Gitarre usw.

Um Audiosignale digital verarbeiten zu können, müssen sie zwangsläufig digitalisiert werden. Warum man das macht, kann viele Gründe haben. Vor allem ist inzwischen die Speicherung und auch Verarbeitung (finanziell) deutlich günstiger.

Die Digitalisierung sieht man in der Skizze. Dabei wird aus dem Linken, das rechte Signal. Digitale Audiosignale sind dann immer nur eine Annäherung an das analoge Ursprungssignal, nie identisch.

Wie fein diese Annäherung ist, beschreiben die Digitalisierungsparamter der Abtastfrequenz (zB 44.1kHz), das ist die Auflösung in zeitlicher (x-Richtung) und die Bitrate (zB 16bit) in y-Richtung.

Was nun der große Unterschied zwischen analogen und digitalen Synthesizern ist, ist dass einmal die Verarbeitung (Filterung etc.) mit analogen Bauelementen, wie Transistoren, Kondensatoren und Widerständen passiert. Das andere Mal mit digitalen, sprich logischen Bauelementen (="Mikrochips"). Und auch, wenn Mikrochips aus vielen Kondensatoren bestehen, ist die Verarbeitung eine andere.

Und will man die digitalen Audiosignale schlussendlich abspielen, werden sie wieder in Analoge verwandelt. Und dann über einen Lautsprecher ausgegeben.

Anhang anzeigen 159625
Ich kann dir eine analoge Spannung mit einem Sample And Hold modulieren, dass sie wie deine rechte Skizze aussieht, die dann aber trotzdem Analog ist. Will sagen die Skizze ist falsch.
 
Genaugenommen dürfte die rechte Darstellung keine waagerechten Linien haben, sondern nur unverbundene Punkte...

Digital
Ein Punkt alleine würde nur die Zustandsänderung abbilden, nicht das kontinuierliche Signal. Insofern würde der Punkt "nur" den Impuls (oder Information) zur Zustandsänderung repräsentieren, während die Treppe das tatsächlich generierte Signal darstellt.

Analog
Auch ein analoges Signal könnte man genauso verstehen, mit dem Unterschied, dass wir analog eine unendliche Anzahl Zustandsänderungen haben, während die Anzahl Zustandsänderungen im digitalen Signal endlich ist und von der Auflösung des "Erzeugers" abhängen.
 
Zuletzt bearbeitet von einem Moderator:
Ich bitte um Verzeihung. Kommt nicht wieder vor

Kein Problem, ich helfe gerne.

Kein Anspruch auf Wahrheit aber so wie ich Elektrizität verstanden habe steht ein Kupferdraht für eine Kette von Kupfer Atomen, die aneinander kleben und um die sich Elektronen in einer Umlaufbahn drehen. Legt man eine elektrische Spannung an, springen die Elektronen von einem Kupferatom zum Nachbar Atom. Das passiert in Lichtgeschwindigkeit. Und dieser Elektronenfluss ist der elektrische Strom.

Falls dich auch noch interessiert, wie Energie fliesst, gibt es hierzu ein interessantes Video:


https://www.youtube.com/watch?v=bHIhgxav9LY
 
Ein Punkt alleine würde nur die Zustandsänderung abbilden, nicht das kontinuierliche Signal. Insofern würde der Punkt "nur" den Impuls (oder Information) zur Zustandsänderung abbilden, während die Treppe das tatsächlich generierte Signal abbildet.

Sobald Du eine Treppe bzw. einen Polygonzug oder sonstwas dazwischen zeichnest, interpretierst Du das digitale Signal als analoges Signal - in der Art, wie es ein S/H Glied im DAC vor der Filterung tut. Digitale Daten selbst haben nunmal keine zeitliche Ausdehnung, denn zwischen den Punkten befindet sich nichts. Es gibt also genau genommen nicht mal eine Zeitachse, sondern allenfalls eine Reihenfolge, in der die Datenpunkte zu lesen sind. Alles darüber hinaus ist eine Interpretation der Koordinaten als analoges Signal.
 
Sobald Du eine Treppe bzw. einen Polygonzug oder sonstwas dazwischen zeichnest, interpretierst Du das digitale Signal als analoges Signal - in der Art, wie es ein S/H Glied im DAC vor der Filterung tut. Digitale Daten selbst haben nunmal keine zeitliche Ausdehnung, denn zwischen den Punkten befindet sich nichts. Es gibt also genau genommen nicht mal eine Zeitachse, sondern allenfalls eine Reihenfolge, in der die Datenpunkte zu lesen sind. Alles darüber hinaus ist eine Interpretation der Koordinaten als analoges Signal.

Die "Verbindung" zwischen den einzelnen digtalen Signalen ergibt sich doch aus der Konvention (oder Konzept), dass bei der digitalen Abbildung von Audiosignalen zwischen zwei diskreten digitalen Signalen die Zustandsänderung für solange als persistent verstanden wird, bis eine neue Zustandsänderung eintritt (was im Prinzip einer versteckten Zeit-Information entspricht). Das ist ja genau das, wie du auch schreibst, was ein DAC macht: Er nimmt die diskrete Zustandsänderung zum Zeitpunkt t0 und behält diesen Wert solange bis die nächste diskreten Zustandsänderung zum Zeitpunkt t1 eintritt.

Darum meinte ich oben auch, dass die Frage nach der "richtigen" Abbildung ist, ob man nur die Information der Zustandsänderung als diskretes Signal (deine Sicht) oder jene des "Konzepts" (da kommt dann noch die Information "Zeit bis zur nächten Zustandsänderung" dazu) als stetiges Signal (Sicht von @Pete1) abbilden will.
 
Das ist eben die Häufigkeit pro Zeiteinheit (=Frequenz) und nicht die Geschwindigkeit. Es ist schon wichtig, wenn man etwas erklärt, präzise zu sein.
Momeeeent! Frequenz hat schon etwas mit Geschwindigkeit zu tun. 10 Herz schwingt tausend Mal so schnell wie 10.000 Herz. Und damit meine ich natürlich nicht die Ausbreitungsgeschwindigkeit der Welle sondern ich meine damit die Geschwindigkeit des hin und her bewegen der Luftmoleküle.
Da wird innerhalb eine Sekunde eine bestimmte Strecke zurückgelegt und wieder zurück geschwungen. Definition von Geschwindigkeit ist Strecke durch Zeit.
Deswegen erhöht sich auch die Tonhöhe eines Loops, wenn man ihn schneller abspielt. Um wie schneller die Schwingung desto höher der Ton.
 
Die "Verbindung" zwischen den einzelnen digtalen Signalen ergibt sich doch aus der Konvention (oder Konzept), dass bei der digitalen Abbildung von Audiosignalen zwischen zwei diskreten digitalen Signalen die Zustandsänderung für solange als persistent verstanden wird, bis eine neue Zustandsänderung eintritt (was im Prinzip einer versteckten Zeit-Information entspricht). Das ist ja genau das, wie du auch schreibst, was ein DAC macht: Er nimmt die diskrete Zustandsänderung zum Zeitpunkt t0 und behält diesen Wert solange bis die nächste diskreten Zustandsänderung zum Zeitpunkt t1 eintritt.

Darum meinte ich oben auch, dass die Frage nach der "richtigen" Abbildung ist, ob man nur die Information der Zustandsänderung als diskretes Signal (deine Sicht) oder jene des "Konzepts" (da kommt dann noch die Information "Zeit bis zur nächten Zustandsänderung" dazu) als stetiges Signal (Sicht von @Pete1) abbilden will.

Der DAC interpretiert die Messpunkte und von da an ist es quasi analog, wenn auch noch nicht "zuende interpretiert". Und in dem Moment kommt auch der Faktor Zeit wieder ins Spiel, so dass man für die von der Samplerate definierten Abstände der Messpunkte Werte hat (nämlich genau den letzten der geliefert wurde). Das kommt womöglich darauf an, aus welcher Richtung man das Thema betrachtet. Ein wenig so, als ob man darüber diskutiert, ob man auf einem Gemälde eine Landschaft sieht oder Farbpartikel.

Ich betrachte das in meiner Ausführung für den Moment aus der Sicht des Rechners: Solange die Daten nur im Speicher sind und weder Aufnahme noch Playback stattfindet, besteht digitales Audio nur aus Zahlen in festgelegter Reihenfolge. Das ist übrigens auch der Grund, warum viele Messsoftware eine Punktdarstellung bietet (oftmals sogar als Standardeinstellung), die zwar nicht dem Auge schmeichelt und schwer zu lesen ist, aber die korrekteste Darstellung aus der Sicht eines Computers ist.

[Edit: Beispielbilder angehängt.]

Korrekt, aber bei komplexem Material schwer zu entziffern:

SFM Points.jpg

Inkorrekte Interpretation als quasianaloges Signal, aber bei komplexem Material besser lesbar:

SFM Lines.jpg


Das ist eigentlich auch von Audio ganz unabhängig - es gilt ebenso für jeden anderen digital erfassten Vorgang. Deshalb würde ich fast sagen: Alles außer nackten Wertetabellen ist schon analog.
 

Anhänge

  • SFM Lines.jpg
    SFM Lines.jpg
    117,2 KB · Aufrufe: 0
Zuletzt bearbeitet:
Momeeeent! Frequenz hat schon etwas mit Geschwindigkeit zu tun. 10 Herz schwingt tausend Mal so schnell wie 10.000 Herz.

Nein. Nicht tausend mal so schnell, tausend Mal häufiger.

Stell dir zwei ovale, geschlossene Laufbahnen in einem Stadion vor. Die eine ist 400 Meter lang, die zweite 800 Meter. Du läufst auf beiden Bahnen 10 Minuten lang mit der Geschwindigkeit von 200 m/Minute.
Auf Bahn 1 (400 Meter) brauchst du 2 Minuten pro Umrundung, du schaffst in 10 Minuten 5 Umrundungen.
Auf Bahn 2 (800 Meter) brauchst du 4 Minuten pro Umrundung, du schaffst in 10 Minuten 2.5 Umrundungen.

In beiden Fällen hast du die gleiche Distanz (2000 Meter) in der gleichen Zeit (10 Minuten) und mit der gleichen Geschwindigkeit (200 Meter/Minute) zurückgelegt. Das Einzige, das sich geändert hat, ist die Häufigkeit der Umrundungen. Genau gleich ist es bei einer elektromagnetischen Schwingung - die Geschwindigket, Dauer und Weg bleiben gleich, nur die Häufigkeit (aka Freqzenz) ändert.
 
Zuletzt bearbeitet von einem Moderator:
Nein. Nicht tausend mal so schnell, tausend Mal häufiger.
Heißt das, bei einer Schwingung von 100 Hertz bewegen sich die Luftatome genauso schnell hin und her wie bei einer Schwingung von 1000 Hertz? Nur häufiger?

Aber das heißt doch wenn innerhalb einer Sekunde 1000 Ereignisse genauso schnell stattfinden wie 100 Ereignisse, dann muss es über die Strecke wieder ausgeglichen werden. Das heißt doch, dass die 1000 Ereignisse eine größere Strecke bräuchten als die 100 Ereignisse damit alles wieder passt?
Nach meinem Verständnis brauchen 1000 Ereignisse eine 10 Mal größere Strecke als die 100 Ereignisse, wenn sie denn in der selben Geschwindigkeit stattfinden sollen.
Seltsamerweise ist die Wellenlänge von tiefen Frequenzen aber größer als die von hohen Frequenzen. Also genau andersherum?😅

Bei Schallausbreitung in Luft beträgt also beispielsweise die Wellenlänge bei 100 Hz 3,4 m, bei 1.000 Hz 34 cm und bei 1.0000 Hz 34 mm. Die Unterschiede der Wellenlängen von Schallvorgängen im Hörbereich sind danach sehr groß.
Link li
 
Zuletzt bearbeitet von einem Moderator:
Unschön erklärt. Was passiert denn mit den Zahlen, die die Lautstärke repräsentieren? Wenn du sie nicht mit den Zahlen verwechselst, die Auslenkung des Luftdrucks in stärkere oder in schwächere Richtung symbolisieren (D/A-zur-Membran-Pipeline hat den Zweck, diese Informationen in mechanische Kräfte umzusetzen, auf ein mechnisches Medium zu übetragen), auch Samples genannt, und zu Frames zusammengesetzt, deren Bestandteile die Auslenkung des Luftdruck zum selben Zeitpunkt symbolisieren, genauer zu demselben eine z.B. 44100-stel Sekunde langen Zeitscheibchen, aber für unterschiedliche Lautsprecher-Membrane (bei Stereo links und rechts). Die Lautstärke dient schlicht als Faktor von Multiplikationen.

Digital Audio ist angewandte Mathematik (Informatik). Analog Audio ist angewandte Physik (Elektrik). Ein Digitalrechner, genauer dessen Hardwarekomponenten nach außen und in ihrem Zusammenspiel dienen dem Zweck, angewandte Mathematik auf die Physik anzuwenden, bilden also die Schnittstelle einer Simulationsebene (Elektronik). Simulation ist die Abbildung von Symbolen in einer Realität auf eine andere.
Und DAS ist jetzt "schöner" erklärt??
 
Heißt das, bei einer Schwingung von 100 Hertz bewegen sich die Luftatome genauso schnell hin und her wie bei einer Schwingung von 1000 Hertz? Nur häufiger?

Die Ausbreitungsgeschwindigkeit von Schall in einem Medium ist bei gegebenen Bedingungen konstant.


Gegenfrage: Nach deinem Verständnis müssten sich unterschiedliche Frequenzen unterschiedlich schnell ausbreiten. Das würde bedeuten, dass eine langwellige Bassfrequenz, die gleichzeitig mit einer kurzwelligen Höhenfrequenz am gleichen Punkt zum gleichen Zeitpunkt erzeugt wird, bei dir als Hörer zu unterschiedlichen Zeiten ankommt. Also hörst du zB die Basedrum später als den Crash, die der Drummer gleichzeitig auf die 1 gespielt hat? Deckt sich das mit deiner Wahrnehmung der Realität?
 
Bei Schallausbreitung in Luft beträgt also beispielsweise die Wellenlänge bei 100 Hz 3,4 m, bei 1.000 Hz 34 cm und bei 1.0000 Hz 34 mm. Die Unterschiede der Wellenlängen von Schallvorgängen im Hörbereich sind danach sehr groß.

genau.

deswegen hört man bei musik, die in 1000 metern entfernung spielt auch immer erst mal nur die hihats, nach einer minute dann den gesang und 3 minuten später erst den bass.

10 Herz schwingt tausend Mal so schnell wie 10.000 Herz

bzw. je nachdem welche version der mathematik man anwedet kommt manchmal auch der bass zuerst. :P
 
Digital
Ein Punkt alleine würde nur die Zustandsänderung abbilden, nicht das kontinuierliche Signal.

es ist keine zustandsänderung, weil das zweite sample nicht das gleiche wie das erste ist. es sind einfach nur werte.

in einem GUI stelt man üblicherweise eine ansicht zur verfügung, die zeigt, was nach der wandlung hinten herauskommt. cyclotron hat aber erst mal recht, dass punkte näher an der wahrheit wären.
 


News

Zurück
Oben