CLAP – Neuer Plug-in Standard (CLever Audio Plug-in API)

Nein es ging mir nicht um die Größe. Es ging mir darum, dass andere Plugin Hersteller mit eigenen Plugin Formaten lieber nicht fremde Standards übernehmen wollen sondern stattdessen ihren eigenen Standard pushen wollen. Steinberg verdient ja schließlich Geld mit seinen Lizenzen.
 
Klingt schon wirklich interessant. Mal ne Frage zu folgendem Punkt bzw. zu beiden Punkten;

  • Going one step further, CLAP’s parameter modulation concept allows for temporary parameter offsets. Parameter modulation is non-destructive, so as soon as the modulation has finished, the target parameter will return to its original state.
Wie genau funktionieren die temporary offsets bzw. was ist damit gemeint?
Ist damit nur Plugin-interne Modulation gemeint, oder auch Automation aus der DAW und könnte mir evtl. jemand das ganze mal an einem Beispiel veranschaulichen?
 
Aber die Lizenzierung von VST, AAX oder AU kostet ja nichts.

Was es schon bringt ist, dass "den Industrienationen-Standard" definieren den Unternehmenswert nach oben treibt.

Bei Avid is das aber offenbar in die Hose gegangen. Man fühlt sich vom Plug-In-Ecosystem ausgeschlossen, was sicher selbstverschuldet ist, aber eben auch daran liegt, dass man, genau wie Apple, die proprietäre Lizenz von Steinberg nicht unterschreiben konnte. Mit der MIT-Lizenz verhält es sich anders. CLAP wird zwar sicher nicht nach iOS kommen, aber ich würde die Möglichkeit, dass es nach Logic kommt, nicht kategorisch ausschließen.

Ich glaube auch, dass es eine realistische Chance gibt, dass CLAP nach Cubendo kommt. Schließlich gehört Steinberg Yamaha und Yamaha ist der de facto führende Player was MIDI angeht. Und in CLAP gibt es eine realistische Chance, MIDI vollständig zu unterstützen, was von Steinberg in VST3 abgelehnt wurde.
 
Klingt schon wirklich interessant. Mal ne Frage zu folgendem Punkt.


Ist damit nur Plugin-interne Modulation gemeint, oder auch Automation aus der DAW und könnte mir evtl. jemand das ganze mal an einem Beispiel veranschaulichen?
Es gibt dazu schöne Videobeispiele, davon eines von uns selbst, verlinkt im ersten Post. Ein weiteres Beispiel kommt von Polarity Music, ich verlinke es unten.

Ja. In CLAP kann der Host Plug-In Parameter temporär automatisieren, und dabei eine gewünschte Ziel-Note angeben. Wir nennen das Parameter-Modulation, weil es temporär ist und den eigentlichen Parameterwert nicht überschreibt.

In diesem Video wird ein Sound nach und nach aufgebaut mit mehreren Per-Note Modulationen:


https://www.youtube.com/watch?v=UktuhuADRuA
 
Ah, danke! Ich muss mich mal drangewöhnen Videos zu gucken...^_^

Dann ist es so wie es verstanden hatte. Man kann Parameter, die vom Host automatisiert werden trotzdem noch im Plugin "bewegen", also ein Offset nach der Automation. Sehr cool! Automation Lanes, die Parameter quasi besetzen sind nämlich ziemlich kontraproduktiv imho.

Der Rest ist natürlich auch vielversprechend, aber das wäre für mich persönlich sehr wertvoll in puncto Workflow.
 
Zuletzt bearbeitet:
Genau so ist es. Immer, wenn ich mal was automatisiert habe, habe ich mir irgendwann am Hinterkopf gekratzt und gefragt, wie ich nun zum Originalsound zurückkomme. Das ist mit Parameter-Modulation total Banane.
Hey Urs wenn ich Diva mit einem midi Controller Mappe und es in ableton aufneheme, dann starten alle automationen bei 0. Das heißt ich muss das preset nach dem Start des Abspielens zurück setzen um die original Aufnahme als midi Spur zu hören. Würde clap das Problem umgehen? - und wie wahrscheinlich ist es das ableton in absehbarer Zeit aufspringt ???
 
Hey Urs wenn ich Diva mit einem midi Controller Mappe und es in ableton aufneheme, dann starten alle automationen bei 0. Das heißt ich muss das preset nach dem Start des Abspielens zurück setzen um die original Aufnahme als midi Spur zu hören. Würde clap das Problem umgehen? - und wie wahrscheinlich ist es das ableton in absehbarer Zeit aufspringt ???
Ja, exakt, s. hierzu mein Video ab ca. Minute 11 (die vorherigen Erklärungen sind aber auch ganz hilfreich zum Verständnis):

https://youtu.be/ANJkeeyBv18
 
Dieses Multicore Feature finde ich sehr interessant und wichtig.

@Urs Ist es eventuell schon möglich oder geplant das auch GPU Kerne zur Berechnung mit genutzt werden?

Wenn man sich mal die aktuellen Apple M1/M2 Prozessoren anschaut, bieten die ja mehr GPU Kerne als CPU Kerne.
Ich stelle mir immer Laienhaft vor, das eine DAW ja eher wenig (2 oder 3 Kerne) GPU Power benötigt. Also machen sehr viele GPU Kerne nix.
 
Auch wenn es ein frei verfügbarer Standard ist, wird Steinberg es wahrscheinlich niemals übernehmen. Steinberg hat ein Interesse daran, seinen eigenen Standard zu verbreiten.

Im Grunde verliert Steinberg ja nichts, wenn neben VST3 und ARA2 dann auch CLAP als Schnittstelle in Cubase und Nuendo funktioniert.
 
Beherrscht Clap eigentlich die Weitergabe von Plugin Einstellungen an Midi Controller Hardware?
Würde der Midi Controller Entwicklung ja mal einen ganz neuen Schub geben.
 
Beherrscht Clap eigentlich die Weitergabe von Plugin Einstellungen an Midi Controller Hardware?
Würde der Midi Controller Entwicklung ja mal einen ganz neuen Schub geben.
Plugins sprechen ja mit dem Host (der DAW) und nicht mit der Hardware. Allerdings ist hierbei wichtig in welcher Form die Parameter an die DAW übergeben werden. Soweit ich dies verstanden habe, ist hierbei der Vorteil, dass die echten Werte übergeben werden und keine auf 0..1 normierten (was gerade bei Parametern die nicht den ganzen Bereich abdecken immer zu Problemen führt). Insofern könnte sich da was verbessern, das muss sich dann aber erst noch in der entsprechenden Controller-API der DAW niederschlagen.
 
Soweit ich weiß, kann der TAL Juno ( seit einer Anpassung) direkt mit dem passenden Soundforce Midi Controller kommunizieren .Wer auch immer dafür zuständig ist, wäre schön, wenn in der Richtung mal was passieren würde.
 
Soweit ich dies verstanden habe, ist hierbei der Vorteil, dass die echten Werte übergeben werden und keine auf 0..1 normierten (was gerade bei Parametern die nicht den ganzen Bereich abdecken immer zu Problemen führt).
Das klingt ja immer besser! So wie Automationen heute von VSTs gehandhabt werden kriegt man ja schnell mindestens einen Knoten im Knopf.
 
ich möchte mich der Frage von aven aus Post 42 anschließen
Du hättest auch einfach zitieren können, anstatt zu umschreiben wo man die Frage findet.

Hab's mal für dich übernommen.
@Urs Ist es eventuell schon möglich oder geplant das auch GPU Kerne zur Berechnung mit genutzt werden?

Wenn man sich mal die aktuellen Apple M1/M2 Prozessoren anschaut, bieten die ja mehr GPU Kerne als CPU Kerne.
Ich stelle mir immer Laienhaft vor, das eine DAW ja eher wenig (2 oder 3 Kerne) GPU Power benötigt. Also machen sehr viele GPU Kerne nix.
 
Ich habe bisher eher negative Performance im Vergleich zu dem selben Plugin im VST3-Format feststellen müssen. Ich hatte mal mit U-he ACE als CLAP und als VST3 herumgespielt. Ich konnte 24 Instanzen als VST3 nutzen, mit CLAP allerdings nur 7. Ok, ist halt Beta (ACE, meine ich), aber ich würde lügen, wenn mich das nicht einwenig enttäuscht hätte. 😉
 
Ich habe bisher eher negative Performance im Vergleich zu dem selben Plugin im VST3-Format feststellen müssen. Ich hatte mal mit U-he ACE als CLAP und als VST3 herumgespielt. Ich konnte 24 Instanzen als VST3 nutzen, mit CLAP allerdings nur 7. Ok, ist halt Beta (ACE, meine ich), aber ich würde lügen, wenn mich das nicht einwenig enttäuscht hätte. 😉

Das "mal" sollte mit einem Zeitstempel und mehr Info (Plugin Version, Host Version, OS und sowas) versehen sein. Damals TM hatte ich auch mal mit einer DAW rumgespielt, da war aber nach 2 Audio Tracks Ende Gelände mit der CPU (286er) :)
 
Bitwig 4.3, beta 7,beta 8, beta 10 und das aktuelle offizielle 4.3 Release.

U-HE ACE rev 13207

System: AMD Ryzen 9 5950x, 64 GB RAM, 1TB NVMe PCIe 4.0 SSD, 2x4TB SATA HDD in RAID0 Modus + 2x2TB SATA SSD ebenfalls als RAID0 als Cache für das HDD RAID Windows 11 Pro. RME HDSP 5692 256 Samples Buffer.

Ok, ich gebe zu. Ein schnarch langsames System. 😊
 
Die Hardware ist ja fast unerheblich, solange das das System nicht permanent swappt. Aber ja, ein langsames System.
Gibt es irgendwo eigentlich etwas zum Versuchsaufbau, wie das Beispiel zusammen kommt, das immer genannt wird?
Ich schau mal die Tage, was das Aufsummieren von Plugins bei mir macht.
 
Ganz einfacher Versuchsaufbau:

ACE: Multicore: ON, Patch: RL Timeless spielt pro Track je 4 Noten gehalten. Ich habe die Anzahl der Spuren dann immer weiter erhöht, bis es Aussetzer gab.
 
Ich gehe mal davon aus, dass es an dem ACE Beta-Plugin liegt. Ab dem achten Track kommt es bei dem CLAP-Ace zu heftigen Spikes im Bitwig DSP Performance Graph, bei den VST3 Instanzen nicht. Nach dem was so im Vorfeld angekündigt und erzählt wurde, war das für mich halt ernüchternd. Von Eye-Popping Performance, wie Urs irgendwo zum Performancegewinn sagte, war bei mir nichts zu spüren. Gerade mit meinem 16 Kerner hätte ich mir im Bezug zu den Aussagen zum Thema "verbessertes Multithreading" eben etwas mehr erwartet. Ich bleibe trotzdem erstmal positiv. Manche Dinge brauchen halt Zeit.
 
Ich gehe mal davon aus, dass es an dem ACE Beta-Plugin liegt. Ab dem achten Track kommt es bei dem CLAP-Ace zu

Naja, wie du schon sagst, ist es ja eine Beta Version. Da würde ich jetzt nicht zuviel von ableiten. Wenn ich mich richtig erinnere, ging es ja in dem berühmten Beispiel um Diva. Die sollte dieses Feature ja dann auch schon in der Beta können. Keine Ahnung, ob ACE da schon soweit ist. Ich probiere das mal mit Hive2.
 
Stimmt, habe allerdings keine Diva-Lizenz, musste also mit dem testen was ich habe. ;-) Generell bin ich auch optimistisch, was die ganze Sache angeht. Trotzdem fand ich das schon krass, da es halt nur ein Drittel der Instanzen im direkten Vergleich war.
 
Ich gehe mal davon aus, dass es an dem ACE Beta-Plugin liegt. Ab dem achten Track kommt es bei dem CLAP-Ace zu heftigen Spikes im Bitwig DSP Performance Graph, bei den VST3 Instanzen nicht. Nach dem was so im Vorfeld angekündigt und erzählt wurde, war das für mich halt ernüchternd. Von Eye-Popping Performance, wie Urs irgendwo zum Performancegewinn sagte, war bei mir nichts zu spüren. Gerade mit meinem 16 Kerner hätte ich mir im Bezug zu den Aussagen zum Thema "verbessertes Multithreading" eben etwas mehr erwartet. Ich bleibe trotzdem erstmal positiv. Manche Dinge brauchen halt Zeit.
Das klingt für mich nach einem Bug. Wenn ich Urs richtig verstanden habe, sind die VST3-Varianten jetzt Wrapper um CLAP insofern ist das eigentlich unmöglich was du feststellst.
Hast du mal versucht Multicore auszustellen? Das sollte ja eigentlich jetzt bei CLAP vom host gemanagt werden. Vielleicht ist das der Fehler.
Solltest du aber auf jeden Fall mal an u-he melden.

Ace habe ich nicht, hab aber einiges mit Diva gemacht und das "fühlt" sich bisher sehr gut an.
 
Hab jetzt mal 256 Instanzen von Full Buckets Blooo laufen lassen. Da sieht das schon anders aus. Ich weiß, ich bin ein Spinner. :)

VST3:

VST3 256 Instanzen.jpg

CLAP:
CLAP 256 Instanzen.jpg

So hatte ich mir das irgendwie eher vorgestellt. Liegt wohl vermutlich wirklich an ACE.
 
Zuletzt bearbeitet:


Zurück
Oben