Was macht für euch so einen richtig analogen Klang aus?
Ich merke es in den obersten Höhen. Da ist bei guten Analogsynths einfach mehr "Information".
Der digitale Ansatz vertritt den Standpunkt, dass ein digitales System bis 20kHz getreu (d.h. ohne Artefakte) arbeiten muss, denn da ist bekannterweise die Grenze des menschlichen Gehörs. Gemäss Shannons Theorem muss deshalb die Systemfrequenz mindestens das Doppelte dieser Grenze aufweisen, um Audiomaterial getreu wiedergeben zu können -daher die altbekannten 44,1 kHz. (Dies ist aber wie gesagt die
Systemfrequenz, nicht die Audiobandbreite -die ist eben die Hälfte davon.)
Hier liegt aber ein subtiler Irrtum begraben: Auch wenn Frequenzen jenseits von 20kHz nicht mehr
direkt wahrgenommen werden kann, heisst das nicht, dass
Intermodulationen dieser Frequenzen untereinander nicht wieder in den hörbaren Bereich zurückfinden, und hier für mehr "akustische Information" sorgen. Beim Aufnehmen und Mixing bei 44,1 geht all das einfach verloren. Audio-Guru Walter Sear hat sich genau aus diesem Grund selber ein analoges Mischpult gebaut (API-Komponenten und viel DIY), das bis 50kHz linear ist, und nimmt auf modifizierten Bandmaschinen auf. Erst ganz am Schluss wird der Gesamtmix digitalisiert. (In derselben Tatsache liegt auch der aktuelle Trend zur analogen Summierung beim Mixing begründet.)
Was aber für Aufnahme und Mixing von digital Audio gilt, gilt für die
Generierung von Audio (also Sampling, VA etc.) gleich doppelt. Nonfraktionales Sample-Auslesen resp. Oszillieren wird spätestens ab 1/4 der Systemfrequenz problematisch, und muss mit Interpolationsalgorithmen von Aliasing befreit werden. Der Haken ist hier nur, dass ein mathematisch ideale Interpolation infinitesimal ist, d.h. bis in alle Unendlichkeit in die Vergangenheit und Zukunft hin alle Samples kennen und berücksichtigen muss -was natürlich praktisch aus mehreren Gründen nicht durchführbar ist. (Ein Interpolationsalgorithmus, der in die unendliche Zukunft "blicken" könnte, hätte auch unendliche Latenz, und bräuchte auch unendliche Rechenleistung dafür.
) So muss man halt eine Näherungslösung benutzen mit einem begrenzten "Zeitfenster", und hier gilt: Je grösser das Zeitfenster, desto sauberer die Interpolation, aber desto mehr Latenz und desto mehr Rechenleistung. Die Latenz kann verringert werden indem die Systemfrequenz erhöht wird (z.B. durch Oversampling), was dann aber noch mehr Rechenleistung verbrät. Bei dieser Angelegenheit zeigt sich, welche Programmierer ihre Hausaufgaben gemacht haben.
Mangelhafte Interpolation macht sich je nach Verfahren auf auf verschiedene Art akustisch bemerkbar -bei VA-Oszillatoren entweder als Dumpfheit oder als subtiles zyklisch-inharmonisches Störgeräusch in den Höhen (=Schwurbel), bei der Sample-Wiedergabe entsprechend ebenfalls als Dumpfheit oder harmonische Verfremdung im Höhenbereich. Die meisten Algorithmen arbeiten heuer mit 4-6 Interpolationsreferenzpunkten (Samples), was aber eigentlich viel zu wenig ist.
Problematischer ist es aber beim nonfraktionalen Auslesen aus Delayspeichern bei Physical Modelling, da sich hier Signalverfremdungen durch den Rückkopplungsprozess ansammeln und potenzieren. Dies ist der Grund, warum wirklich
gute Physical Modelling Algorithmen so rechenintensiv sind, und warum der VL1 trotz massig VLSIs nur 2-stimmig war (dafür ist seine Qualität bis heute IMHO unerreicht). Vielleicht liegt darin auch der Grund, dass digitale Filterresonanz klanglich nicht zu befriedigen scheint, denn auch hier wird gerückkoppelt. Das ist aber nur Mutmassung meinerseits. (Würde aber Sinn machen, denn wenn ich beim G2 selber Filterstrukturen baue, muss ich den Rückkopplungspfad selber im Frequenzband begrenzen, da ohne Gegenmassnahmen digitale Rückkopplungen ab ca. 1/8 der Systemfrequenz instabil werden können.)
Bei all dem hier ist jetzt aber nur von den
technischen Rahmenbedingungen die Rede gewesen, die eine dem analogen Vorbild entsprechende Klangqualität überhaupt ermöglichen
würden. (Die ganze Nachmodellierung der psychoakustischen Eigenschaften ist dann wieder eine ganze Wissenschaft für sich.) Generell kann man aber sagen, dass wir mit der heutig verfügbaren Rechenleistung noch nicht soweit sind,
innerhalb eines nützlichen Rahmens (d.h. CPU-Last) nur schon rein
technisch gesehen gleichwertige Ergebnisse zu erzielen. Das es prinzipiell
gehen würde, zeigen u.A. die Experimente von Resofreak in diesem Forum, die ich für sehr vielversprechend halte. Wenn man berücksichtigt, dass auch Audiomaterial über der Hörgrenze für das Klangerleben relevant ist (s.o.), und somit die Bandbreite des
effektiven Nutzsignals auf 48kHz erhöht, treibt das die Anforderungen an Rechenleistung und Algos noch weiter in die Höhe.
Mit anderen Worten: Not yet, my friends, not yet. Und das ist nicht Religion sondern wissenschaftlicher
Fakt.
Langer Rede kurzer Sinn: Ich höre es bei Analog in der Auflösung der Höhen, und im Vorhandensein von mehr "Information" -vielleicht ist es das was Mic mit "Breite" im Klang meint.
Sorry für das lange Posting.