Rechteckwellen Cwejman komisch ?

There´s always some sort of wave modification due to the electronic components.
You can see it quite good when you hook the oscilloscope after a filter. Even if the filter is fully open, there´s a modification of the waveform. Same with VCAs etc... the more direct the path between VCO and oscilloscope the more accurate the result is.
 
Analog filters tend to saturate, depending on the input level, VCAs may clip...
 
Summa schrieb:
Nur fuer das ungeuebte Auge, viele sehr auffaellige Unterschiede zum perfekten Rechteck sind haeufig nur auf eine Verschiebungen der Phase im Bereich der ersten Harmonischen zurueckzufuehren. Waehrend Rundungen in der Steigung und ausgepraegte Spitzen einen groesseren Einfluss auf den Klang haben. Von daher ist die Spektralanalyse in den meisten Faellen viel aussagekreaftiger als 'ne Wellenformdarstellung...

Right, one should take the frequency spectra of the waveforms instead of the oscilloscope pictures to compare the sound.
You could use freeware like audacity for this purpose. (or Audition, Wavelab etc.)
 
komons.de schrieb:
Right, one should take the frequency spectra of the waveforms instead of the oscilloscope pictures to compare the sound.
You could use freeware like audacity for this purpose. (or Audition, Wavelab etc.)

Correct - but it´s fun looking at these waveforms anyway! :)
 
Moogulator schrieb:
btw: you do know that filters (even if they do not filter anything) shift the phase, right?..

Note it's quite easy to design linear-phase FIR filters. These could be used in plug-ins for mastering.
 
Summa schrieb:
Nur fuer das ungeuebte Auge, viele sehr auffaellige Unterschiede zum perfekten Rechteck sind haeufig nur auf eine Verschiebungen der Phase im Bereich der ersten Harmonischen zurueckzufuehren.

Ich habe mir mal sagen lassen, dass die Phasenlage der Partialwellen für's Hören vollkommen schnuppe ist. Bei einem reinen Sinus leuchtet das direkt ein, aber die Aussage gilt ja wohl auch für komplexe Wellenformen. Spontan hätte ich vermutet, dass die relative Phasenlage da durchaus ne Rolle spielen kann. Hat da jemand Informationen dazu? Das geht dann ja in die Hörpsychologie...
 
So lange man die Wellenformen einzeln betrachtet und von statischen Phasenlangen ausgeht, macht es keinen Unterschied, aber sobald du Wellen stackst, beeinflusst die Phasenlage jeder einzelnen Harmonischen das Ergebnis. Im Extremfall loeschen sich bestimmte Harmonische komplett aus und ganze Frequenzbereiche verschwinden, weil sie gleichlaut und um 180 Grad zueinander verschoben sind. Sowas laesst sich natuerlich auch gezielt beim Sound- oder Synthdesign einsetzen...
 
Summa schrieb:
So lange man die Wellenformen einzeln betrachtet und von statischen Phasenlangen ausgeht, macht es keinen Unterschied, aber sobald du Wellen stackst, beeinflusst die Phasenlage jeder einzelnen Harmonischen das Ergebnis.

Das ist schon klar - selbe Frequenz, 180 Grad Phasendifferenz und weg ist das Ergebnis.

Mir geht's aber nur um die einzelne, reine Welle (keine Summe zweier Signale). Weiß jemand was über die Art und Weise, wie das Gehirn/Gehör das wahrnimmt? Oder nochmal anders gefragt, warum höre ich die relative Phasenlage einzelner Harmonischer nicht? Obowohl die Welle anders ausschaut und damit die Welle auch anders in der Luft propagiert und anders an den Haarzellen in meinen Ohren zupft?
 
Ich nehm mal an dass es daran liegt dass unsere Wahrnehmung mehr auf spektrale Peaks (Formanten, z.B. zur Stimmerkennung) als auf Wellenformanalyse trainiert ist. Dem Spektrum Analyzer ist die Phasenlage der Harmonischen ja auch erst mal egal...
 
warum höre ich die relative Phasenlage einzelner Harmonischer nicht?

Weil darin keine nützliche Information liegt. Diese Phasenlage ist bei den Signalen die das Ohr bekommt zufällig (schallausbreitungsbedingt) - wenn wir sie hören könnten würden gleiche Schallquellen grundlos verschieden klingen.
Das Ohr hört einerseits Zeitdiffernzsignale zwischen den Ohren(Ortung) und andererseits Amplitudenspektren. Teilweise passiert das schon im Innenohr - die Basilarmembran schwingt an einer Resonanzstelle, teilweise passiert das in den ersten Nervenzellen am Ende des Hörnervs. Die bekommen die Signale von beiden Ohren - und irgendwo dort wird auch aus der 'Feuerhäufigkeit' der Neuronen eine Frequenzinformation gewonnen, die dann zusammen mit der Ortsinformation (wo schwingt die Basilarmembran, d.h. welche Nervenzellen haben gefeuert) zu Tonhöhe und Lautstärkeempfindung führen.

Die Fouriertransformation (=viele Audioanalyser) liefert übrigens aus einem 1024 Stützstellen langen Sample 512 Amplitudenwerte und 512 Phasenwerte. (Insofern ermöglich das Weglassen der Phase dem hörenden Menschen die zu verarbeitende Informationsmenge mal eben zu halbieren, ohne das *sinnvolle* Information verloren geht.)
 
verstaerker Good, similar wave! we have the same synthesizer.

Herr Schulz You are right , but I don t have any analog oscilloscope. however, we have tried to pass the signal through the less possible circuits.

Kommons.de : I was trying with the analizer spectrum voxengoSPAN, but depending of the values that I assigned in the scale of dB, the results varied a lot; From only to turn up the odd harmonics, until turns up all the harmonics with the slightly attenuated pairs harmonics . Another time the theory, the reality and the interpretation of a scale.





Mit freundlichem Gruß

Oscar.
 


Neueste Beiträge

Zurück
Oben