32bit float ist meines Wissens nach im Prinzip genauso fein wie 24 Bit
es ist hundert mal feiner aufgelöst, allerdings ist es nicht mehr präzise (bei 16 und 24 bit sind alle werte präzise)
die zusätzlichen 8 Bit werden einfach drangehängt und als Headroom genutzt
aus der sicht eine jungfräulichen 24 bit signals, was gerade erst gewandelt wurde, könnte man das so sagen. aber technisch ist es streng genommen etwas völlig anderes als "bits dranhängen".
"bits dranhängen" gibt es allerdings auch. das nennt man dann "24.8", das hat protools viele jahre benutzt und war am anfang der system audio standard von iOS 1 oder 2.
So gibt es kein digitales Clipping, auch wenn der Pegel zwischendurch mal deutlich höher wird. Hauptsache am Schluss wird es wieder unter 0 geregelt.
es viele gründe dafür, immer in 32 zu arbeiten, es gibt eine situation, wo es dagegen spricht, und das ist die, die du beannte hast.
wenn man nämlich direkt nach dem wadeln eine datei aufzeichnet, dann ist eine tranferierung nach 32 bit vollkommen überflüssig.
ich möchte aber an einem beispiel erklären, warum das ion der praxis eigentlich gar nicht vorkommt, dass man das nicht gebrauchen kann.
denn als 32 bit erstmals für die massen eingeführt wurde - in cubase und nuendo - konnt man damals auch erstmals native plug-ins schon vorm aufzeichnen einschleifen. cubase und nuendo hatten damals die option, direkt mit einem bandsättigungseffekt (der technisch ein ganz normales VST plug-in ist) aufzunehmen.
und dieses - und viele andere - plug-ins berechneten audio natürlich in float.
und das ist der punkt: in dem moment wo man ein signal - auch wenn es gerade direkt von einem wandler kommt - sowieso in 32 bit bearbeitet - was sowohl die VST schnittstelle als auch z.b. die faderautomation in einer DAW macht - ist es mehr oder weniger sinnlos nur um 25% festplatten- und RAM platz zu sparen*) das signal wieder in 24 bit umzurechnen. (und um es dann später abzuspielen, wo es vom nächsten plug-in intern wieder in 32 bit gewandelt werden muss usw.)
heute ist das zwar wieder dynamischer, aber als float recording und wiedergabe in die DAW einzog, musste man sich auch stets bei beginn eines projekts im sinne von entweder-oder entscheiden, mit welchem fileformat man arbeiten wollte.
da irrst du dich aber ... 96 kHz erhöht nicht nur die maximale abbildbare Frequenz , es erhöht auch die Auflösung
"auflösung" ist etwas völlig anderes.
aber natürlich weiß ich, was du meinst (auflösung über die zeitachse), und jemand hat ein gutes beispiel schon genannt: wenn man später z.b. extremes stretching oder pitching vorhat, ist eine höherer auflösung schon sehr von vorteil.
für den grundklang hingegen ist es eher weniger wichtig, da gibt noch andere primäre merkmale davor, die einen wandler gut klingen lassen.
*) edit: 25% ist natürlich gelogen, es sind 50% mehr. also um ein drittel größer. es ist noch früh am morgen.