warum haben samples 24bit oder 32bit?

intercorni schrieb:
virtualant schrieb:
Ich pegel trotzdem bis -1dB aus (die lautesten Stellen) und ziehe dann natürlich die Fader runter im Mix damit die Summe aller Spuren unter 0dB bleibt.
Warum der volle Pegel? Damit übersteuerst du evtl. nachfolgende Plugins.
aber wenn ich den Fader in Cubase wieder runterziehe übersteuere ich doch nicht? Natürlich achte ich darauf dass keine der Spuren (ggf. mit Plugins) und die Summe übersteuert.
ist es nicht egal ob ich
1) die lauteste Stelle bei -1dB aussteuere bei der Aufnahme und den Fader dann in Cubase so runterziehe dass ich max. bei -8dB lande (und dann kommt in Cubase noch Hall drauf)
2) oder ob ich die lauteste Stelle bei -8dB aussteuere bei der Aufnahme und den Fader dann in Cubase so lasse (und dann kommt in Cubase noch Hall drauf) ?

:dunno:
wenn es da tatsächlich einen Unterschied gibt bin ich auf die Erklärung gespannt.
 
In 16 bit wirst du ja nicht mixen?, gibt keinen Grund da jetzt mit -1 dB rumzumachen :kaffee:
Alles kurz vor der roten Lampe ist Schnee von gestern und ein Überbleibsel analoger Gewohnheiten
Weg damit
 
So ein Quatsch. Klar sollte man maximal aussteuern. Aber auch so, dass es keinesfalls zur Übersteuerung kommt. Kein 24 Bit Wandler schafft auch tatsächlich 24 Bit. Der Rauschabstand reicht im besten Fall für 20 Bit oder so. -18 dB bedeutet einen Verlust von 3 Bit bzw. 18 dB mehr Rauschen am Eingang. Vocal-Aufnahmen werden im Rechner i.d.R. nochmal ganz schön komprimiert. Das hebt nochmal das Rauschen nach oben. Wenn -18 dB aber nötig sind, um Übersteuerungen zu vermeiden, dann ist das wohl so. Lieber -18 dBfs als +1 dBfs. ;-)
 
ich les mich grad etwas ein, demnach gibt es den Standard Referenzpegel laut EBU Empfehlung: -18dBFS. Einige Peaks dürfen bis -9dBFS reichen, der Bereich darüber sollte jedoch frei bleiben. ok, verstanden (dBu und dBFS muss ich mal wieder auffrischen, kommt ein andermal).

Ferner auch verstanden dass wenn man auf -18dB auspegelt bei livegesang (den man ja kaum vorausschauend bis ins Detail einstellen kann), dass man dann damit Pegelspitzen ausgleicht, sprich es erfolgt kein Clipping. Und dass der Dynamikbereich nach unten (oder nach oben) bei 24bit und einem Pegel bei ca. -18dB immer noch mehr als ausreichend ist.

Aber einen tatsächlichen nennenswerten Nachteil auf -1dB max. auszupegeln gibt es anscheinend nicht wenn ich einen Synthesizer über MIDI gesteuert aufnehme (mehrmals abspielen, auspegeln, und dann aufnehmen). Wenn man allerdings berücksichtigt dass Cubase vielleicht garnicht alle Peaks anzeigt wäre ich wohl mit -3dB besser beraten.
 
Die grafische darstellung von pegeln in daws kan man eh vergessen, das sind eher so pi Mal Daumen werte und keine Messinstrumente, die Grafik kann auch stark verzögert sein und Krams verschlucken, Hauptsache audio läuft weiter ...
Maximal aussteuern ist bei 24 bit eh Wurst

Nehmen wir mal Gesang so der wurde bei 24 bit und -1dbfs spitze aufgenommen

Wozu soll das gut sein?
S/N?
Is doch Quack
damit ich nachher viele Signale mit -1dbfs zusammen mischen kann? :lol:
Und das Master eh nur -10dbfs haben soll ...
Wie gesagt maximal aussteuern ist nicht mehr das Ding der Wahl laut genug reicht völlig
Das möglichst nah an 0dbfs rankommen wollen kommt nur von Menschen die nicht geschnallt haben das sie nicht mehr an ihrem analogmixer mit +12dbvu sitzen :kaffee:
 
Wer Friedemann Tischmeyer kennt, weiß ja was los ist.
Einer von Deutschlands größten Mastering Enginheers.

Hier seine professionelle Erklärung der Vorteile von 32 Bit zu 24 Bit:


Ich nehme schon immer in der höchsten Auflösung auf.
Warum? Weil ich es kann!!!
Schaden kann es nie!
Wer es genauer wissen will soll sich das Video anschauen.
 
der mensch erklärt nicht den Vorteil von 32bit vs. 24bit ;-)
er zeigt den unterschied zwischen floating point und fixed point :mrgreen:
ob 24 oder 32 bit ist dabei erstmal wurst ;-) (solange keine insert plugins zum Einsatz kommen)
also immer schön aufpassen bei der wurstverarbeitung :opa:
 
Jup, Verwechslungsgefahr, weil meist in Audioprogrammen nur 24bit Integer und 32bit floating point angeboten werden. Nur hat 32bit float nix mit 32bit integer zu tun. Der praktische Nutzen von 32bit float ist für die Aufnahme von nutzen, im wesentlichen entspricht das 24bit mit mehr Headroom zum Schutz vor ungewolltem Clipping. Für die reine und zB bereits normalisierte Ausgabe sind 16bit immer noch genug, 24 Bit liefert halt bei geringer Lautstärke noch genug SNR. In der Regel reicht es bei der Aufnahme völlig 24 bit zu verwenden und einfach genug Headroom zu lassen, dann läuft man auch nicht Gefahr, wie oben in dem Video gut erklärt, Transienten später bei einer Konvertierung zu clippen... that's it.
 
snowcrash schrieb:
Der praktische Nutzen von 32bit float ist für die Aufnahme von nutzen, im wesentlichen entspricht das 24bit mit mehr Headroom zum Schutz vor ungewolltem Clipping.
Nee, eigentlich nicht. Bei 24 Bit Wandlern kommen auch nur 24 Bit an. 32 Bit ist erst bei Weiterverarbeitung relevant. Man kann natürlich auch mit 32 Bit aufnehmen und zwischenspeichern. Der Vorteil ergibt sich aber erst bei der Nachbearbeitung.
 
jungs, ich werde demnächst mal einen neuen Thread starten, je mehr ich grad recherchiere desto unklarer sind mir einige Sachen.

eine Frage vorab an alle die bei ca. -18 dB auspegeln (was ich überhaupt nicht in Frage stellen will): wenn Euer Projekt auf 24bit eingestellt ist und ihr nur mit ca. -18dB bis -12dB aufnehmt, wie geht ihr dann mit SoftSynths um, die ihr parallel in das Projekt ladet? zieht ihr die dann auch auf -12dB bis -18dB runter? Ich müsste das so machen, da die ansonsten viel zu laut wären im Vergleich.

Näheres zu meiner Konfiguration ein andermal ;-)
 
Was mich dabei manchmal wundert, das mit zunehmender Aufnahmeleistung die Qualität der Musik trotzdem immer schlechter wird.
:selfhammer:
Verlieren wir bei dem ganze High-End Hype eventuell den Focus auf die Musik selbst?
:opa:
 
Der Grund ist ganz einfach, weil heute jeder Depp sich High Quality Aufnahmen leisten kann.
Früher waren es nur ein paar talentlose Millionäre, die mit High Quality Equipment Scheiße produzierten. Heute kann jeder mit High Quality Equipment Scheiße produzieren. Da reicht sogar ein Laptop für 100 Euro mit etwas Software aus dem Internet.
 
Bernie schrieb:
Verlieren wir bei dem ganze High-End Hype eventuell den Focus auf die Musik selbst?
:opa:


Verzettelei kann passieren und ist menschlich. Sich auf sich selber besinnen und nicht zu dolle von außen ablenken lassen ist eine freie Entscheidung, die man jederzeit aus der Schublade holen kann, sollte man es mal kurz vergessen haben.

Und sich auf seine Stärken konzentrieren und die Parts im Produktionsprozesse, die man nicht drauf hat, von jemandem erledigen lassen, der sowas kann. Man muss auch nicht dauerhaft ungebildet bleiben, sondern mal ein Buch der Kategorie "Mischen wie die Profis" aufs Klo legen und in 2 Monaten hat man das dann durch. Das hilft auch, sich nichts auftischen lassen zu müssen von jemandem, der sich Tontechniker nennt, aber bei genauer Betrachtung Kompetenzlücken hat.

Der Rest ist persönliche Entwicklung und Zielstrebigkeit sowie einfach seine eigene Nummer machen. Sich vor allem nicht von Lob und Tadel selbsternannter Anschleimer und Kritiker wuschig machen lassen. Sondern sich einen kleinen Kreis vertrauenswürdiger Freunde aufbauen, von denen man sich gelegentlich Feedback geben lässt. Und eine derartige Wurschtigkeit entwickeln, nur selber beurteilen zu können, was richtig und was falsch an der eigenen Produktion ist. Andere wissen nämlich eh alles besser, sind aber oft lahme Enten oder Maulhelden, wenns um realen Output geht :)

Technik und Spezifikationen sind immer nur Hilfsmittel, die eigene Kreativität auszudrücken. Letzteres hat immer Vorrang.
 
Klaus P Rausch schrieb:
.. Sich vor allem nicht von Lob und Tadel selbsternannter Anschleimer und Kritiker wuschig machen lassen. .. Andere wissen nämlich eh alles besser, sind aber oft lahme Enten oder Maulhelden, wenns um realen Output geht :)
Das ist wohl so. Ich habe nichts gegen ehrliche Kritik. Aber man muss sich auch nicht alles anhören, schon gar nicht von Leuten wo eh nichts an output kommt. Jedenfalls halte ich das so. Ist vermutlich aber auch nicht die beste Art damit umzugehen. Ich halte das aber so und fahre, für mich, ganz gut damit. Nörgler, oder Leute die einen runterziehen wollen gibts schon genug, damit muss ich nichts zu tun haben.
 
16bit = CD-Standard
24bit = dichtere abtastung = Standard in bereich der sample-bearbeitung / sample-manipulation / etc.. (da viel genauer, als 16bit)
32bit = kein audio-standard, sondern interne flesskomma-berechnung (gleitkommazahlen). Inzwischen geht die interne fliesskommaberechnung sogar bis zu 64bit tiefe.

Max.möglich samplerate, die als festes audio-format abgespeichert werden kann = 24bit. Kein Wandler kann da weiter was machen. Bei 24bit ist also faktisch schluss.

Alles weitere..
-> http://de.wikipedia.org/wiki/Samplingtiefe
-> http://en.wikipedia.org/wiki/Audio_bit_depth

Darüberhinaus..
ScOtTy hat mit dem video ein gutes bsp. gestellt. Man sieht hier, dass man mittels fliesskomma-berechnung audio-informationen festhalten kann (peaks über 0db), da eigentlich physikalisch nicht mehr da sind. Speichert man solch ein sample als audio-file ab und öffnet es anschliessend wieder, sind die peaks geglättet.
 
rauschwerk schrieb:
32bit = kein audio-standard, sondern interne flesskomma-berechnung (gleitkommazahlen). Inzwischen geht die interne fliesskommaberechnung sogar bis zu 64bit tiefe.

Max.möglich samplerate, die als festes audio-format abgespeichert werden kann = 24bit. Kein Wandler kann da weiter was machen. Bei 24bit ist also faktisch schluss.
32 bit audio files kann man ja auf dem rechner speichern und auch mit player-software wiedergeben, als consumer-format aber wohl noch nicht etabliert?... dafür gibt es im consumer-bereich bereits 32 bit wandler für computer. ob bzw. wie viel sinn es macht... da hatten wir schon mal einen thread zu 32 bit wandlern...

viewtopic.php?f=75&t=82435

ja, aber nicht viel diskutiert. das war also im musiker board:

http://www.musiker-board.de/threads/32- ... er.542203/
 
neue Frage: wie verhält es sich mit digitalen Signalen bei niedrigen Pegeln?

Anders gefragt, was passiert mit einem 16-bit Signal, wenn es auf einen niedrigen Pegel geregelt wird?
 
Phil999 schrieb:
neue Frage: wie verhält es sich mit digitalen Signalen bei niedrigen Pegeln?

Anders gefragt, was passiert mit einem 16-bit Signal, wenn es auf einen niedrigen Pegel geregelt wird?

ich vermute
1. der Dynamikumfang wird natürlich kleiner
2. der Signal-Rausch-Abstand wird kleiner
richtig?
 
Phil999 schrieb:
, was passiert mit einem 16-bit Signal, wenn es auf einen niedrigen Pegel geregelt wird?
hatte ich oben ja schon gepostet:
nordcore schrieb:

Der Pegel ist hier hinterher wieder angehoben, damit man das sinnvoll im Vergleich anhören kann.
(Es ist grundsätzlich(!) nicht möglich verschieden Laute Signale klanglich miteinander zu vergleichen, es sei denn auf "Lautstärke". )
 
hmm ... aber was geschieht mit der Information, mit dem Signal? Ist es nicht so, dass bei weniger (oder zuwenig) Bitbreite ein runtergeregeltes Signal auch die relevanten Bits verliert? Dass ein 16-bit Signal, auf -20dB, nur noch 4 Bit enthält? (Zahlenangaben aus dem Ärmel gezogen, müsste da nachschlagen, tue das aber absichtlich nicht)

Und ist es nicht deshalb der Grund, warum wir mit 24-bit und höher aufnehmen und 24-bit Samples verwenden, damit wir auch bei niedrigen Pegeln keine Verluste der Information bzw. des Signals haben? Damit eine digitale Mischung von Signalen (und eben auch Pegeln unter 0dB) überhaupt möglich wird?

Ein digital-virtuelles Mischpult ist glaube ich schon eine ziemlich komplizierte Sache. Da steckt viel Forschung, Theorie, und Mathematik dahinter. Wir Anwender merken davon nicht viel, müssen auch all die Theorie gar nicht kennen oder verstehen. Hauptsache es funktioniert wie in der analogen Welt, wo das kein Problem darstellt. Die analoge Welt hat ihre eigenen Probleme, auf die wir hier wohl nicht näher eingehen müssen.
 
Dein Signal verliert einfach S/N Ratio, bei 16-bit sind das 96 dB (6dB pro Bit, grob gesagt), wenn Du um 20 dB runtergehst, dann bleiben 76 dB oder etwa 13-bit. Wenn Du ein Signal herunterfadest, dann versinkt es einfach irgendwann im Rauschen, genauso, wie es das auch bei analoger Aufzeichnung machen würde. Das Rauschen heisst dann einfach Quantisierungs-Rauschen und klingt anders.

24-bit nimmst Du, um gleichzeitig S/N und Headroom zu haben und Dein Nominalpegel ist dann eben nicht 0 dBFS sonder z.B. -20 dBFS
 
swissdoc schrieb:
Dein Signal verliert einfach S/N Ratio, bei 16-bit sind das 96 dB (6dB pro Bit, grob gesagt), wenn Du um 20 dB runtergehst, dann bleiben 76 dB oder etwa 13-bit. Wenn Du ein Signal herunterfadest, dann versinkt es einfach irgendwann im Rauschen, genauso, wie es das auch bei analoger Aufzeichnung machen würde. Das Rauschen heisst dann einfach Quantisierungs-Rauschen und klingt anders.

24-bit nimmst Du, um gleichzeitig S/N und Headroom zu haben und Dein Nominalpegel ist dann eben nicht 0 dBFS sonder z.B. -20 dBFS
ah, das scheint die Antwort auf die ursprüngliche Frage zu sein. Bin da mittlerweile etwas unsicher geworden. Aber eben, Quantisierungsrauschen bzw. Verlust an Information ist schon ziemlich eine andere Sache als Bandrauschen. Kann somit nicht einfach mit analogem Signal-Rauschabstand verglichen werden. Ist doch komplett eine andere Welt, oder nicht?
 
ich muss gestehen das mir da noch so Einiges nicht klar ist. Die ganz grossen Zusammenhänge und die Schlüsse, die man daraus ziehen kann für die eigene Arbeitsweise (die nun wiederum auch abhängig ist von den technischen Möglichkeiten bzw. den technischen Geräten die man da verkettet hat), da habe ich noch Klärungsbedarf.

Möchte aber jetzt mal anschliessen an den ursprünglichen Gedanken: warum haben Samples häufig 24bit wenn doch 16bit reichen würden?
Früher in den 90ern haben alle Sample CDs Daten in 16bit gehabt, egal ob Audio-CD oder WAV-CD oder AKAI-CD. Da hat sich auch keiner beschwert, das hat den Leuten gereicht.
Ich behaupte nachwievor dass von der Qualität 16bit reichen würden: vorausgesetzt wenn man ein Sample als fertige Audiodatei sieht, vergleichbar mit einer Audiodatei auf einer Musik-CD. Ein fertiges Produkt halt. Mit diesem Hintergrund habe ich die Frage gestellt. Sprich, in der Sample-Herstellungsphase wird in einer DAW in 24bit gearbeitet mit FX und keine Ahnung was, aber am Ende wird eine 16bit Datei exportiert, so wie eine AudioDatei für eine Musik CD.

Inzwischen denke ich allerdings dass die Sample Hersteller davon ausgehen, dass der überwiegende Teil der Sample Käufer/User die Samples entweder direkt in die DAW ziehen oder anderwertig innerhalb einer DAW verwursteln. Wenn man nun überlegt dass ein Grossteil ihre Projekte in 24bit fahren (so wie ich ja auch), dann ist dieser Schritt eigentlich nur logisch, ansonsten würde das Sample eh in 24bit umgewandelt werden, wenn man die Samples auf ein Audiospur zieht - zumindest macht Cubase das so.
 
stellt sich für mich folgende Frage: was passiert wenn ich 24bit Samples in 16bit Samples umwandele (um Platz zu sparen :selfhammer: ) z.B. mit Audacity oder Oceanaudio unter OS X?
Also ich öffne die WAV 24bit Datei und speichere sie als WAV 16bit wieder ab.

Was ändert sich dann?
gute Frage :agent:

Inzwischen versteh ich das so: alles bleibt gleich, aber aufgrund der fehlenden 8bit (von 24 auf 16) wird die S/N Ratio kleiner, sprich das Rauschen wird lauter, genaugenommen um 48dB (8bits x 6dB)

also von ca. -140 dB auf ca. -92dB...
???

:floet:

dithern Programme wie Audacity wenn sie die Bitrate reduzieren?
 
Phil999 schrieb:
ah, das scheint die Antwort auf die ursprüngliche Frage zu sein. Bin da mittlerweile etwas unsicher geworden. Aber eben, Quantisierungsrauschen bzw. Verlust an Information ist schon ziemlich eine andere Sache als Bandrauschen. Kann somit nicht einfach mit analogem Signal-Rauschabstand verglichen werden. Ist doch komplett eine andere Welt, oder nicht?

Nein, ist es nicht.
Zugefügtes Bandrauschen ist genau so ein Informationsverlust wie die Quantisierung.

In der Technik bzw. Informatik spricht man von "Kanalbandbreite": ein Übertragungskanal (einmal auf Tonband speichern ist so ein Kanal) kann immer nur eine begrenzte Menge an Information übertragen (bzw. speichern).
Das ist ld(SNR)*B (in bit/sek), meint Logarithmus zur Basis 2 des Störabstandes mal Bandbreite = Kanalkapazität. Ein Tonbandgerät mit einer Bandbreite von 20Hz bis 24kHz und einem Rauschabstand von 55dB speichert eine Datenmenge von 220000 bits/Sekunde. Für die nicht so harten Grenzen kann man natürlich kompliziertere Mathematik bemühen, am Prinzip ändert das aber nichts: die Information ist endlich. Und es ist in jedem Fall weniger als auf CD.

virtualant schrieb:
dithern Programme wie Audacity wenn sie die Bitrate reduzieren?
Hoffentlich. Es wäre jedenfalls richtig.
Allerdings ist bei lauten Signalen das Quantisierungsgeräusch "von alleine" weißes Rauschen.

Kann man einfach ausprobieren: Original und reduziertes Signal auf je eine Spur, eine in der Phase drehen, beide Pegel exakt(!) gleich stellen, dann bleibt nur der Quantisierungsfehler übrig.
 
hm, scheint so dass diese für mich allzu simple Frage doch noch als eine schwierige herausstellt.

Also ich kann nicht nachvollziehen, wie analoge und digitale Verluste bzw. Signalrauschabstand gleichgesetzt werden können. Das eine hat mit Informationsverlust zu tun der nicht mehr reparierbar ist, das andere mit Rauschpegel, das zwar qualitativ eine Verminderung bedeutet, aber das Signal nicht reduziert. Das sind doch vollkommen verschiedene Welten, oder nicht? Aber ich lasse es mal so stehen, und werde bei Gelegenheit mal gründlich recherchieren, obwohl ich das vermeiden wollte, in der Ansicht, ich hätte da schon genug Überblick. Und dass dies schon längst kalter Kaffee sei.

Danke übrigens für die Anregung. Immer gut zu wissen dass man selber nicht so sattelfest ist und die Lektion nachholen muss. Das prüft und vermehrt Wissen.
 
Phil999 schrieb:
Also ich kann nicht nachvollziehen, wie analoge und digitale Verluste bzw. Signalrauschabstand gleichgesetzt werden können. Das eine hat mit Informationsverlust zu tun der nicht mehr reparierbar ist, das andere mit Rauschpegel, das zwar qualitativ eine Verminderung bedeutet, aber das Signal nicht reduziert.

nordcores letzten beitrag gelesen?

nordcore schrieb:
Kann man einfach ausprobieren: Original und reduziertes Signal auf je eine Spur, eine in der Phase drehen, beide Pegel exakt(!) gleich stellen, dann bleibt nur der Quantisierungsfehler übrig.

das beschreibt ja genau das: rauschpegel, der das signal nicht reduziert.
 


News

Zurück
Oben