Ok, also wird es noch Jahre dauern bis Hardware so was hinbekommt wie wir es in dem Bitwig Video gesehen haben.
in software geht das alles schon immer, es ist nur die frage ob man es für einen kommerziellen markt überhaupt machen will, weil es so viele leute dann nachher doch nicht brauchen.
aber über sowas wie MPE kann ich auch nur schmunzeln, das ist einfach wieder nur der nächste faule kompromiss.
allein schon, dass es natürlich so wie es gemacht ist nur 15 kanäle bietet. und wenn ich nun 100 haben will? muss ich es doch wieder selbst machen. also mache ich doch lieber gleich alles selbst.
was hardware angeht, da haben wir neben der nachfrage noch ein anderes problem, nämlich schon die machbarkeit.
bei MIDI hast du immer ein bandbreitenproblem, und bei CV hast du immer das problem, dass sich die dinge ("LFO") nicht so exakt teilen und verdoppeln lassen wie man sich das wünscht - oder dass so manche eigentlich rudimentäre rechenoperation ("phasenverschiebung eines LFOs") nur sehr aufwendig implementiert werden kann, und das dann schnell richtig ins geld geht.
ein neues plug-in format löst das "problem" übrigens meiner meinung auch nicht.
genau wie bei MPE werden auch mit CLAP die synthesizerschmieden nur wieder ihre ewig gestrigen paradigmen für das format zur verfügung stellen, anstatt sich mal auf die "polyphonie" möglichkeiten einzulassen, die es bieten würde.
von den meisten menschen ist es einfach zu viel verlangt, etwas anderes zu tun als immer das gleiche zu wiederholen (und dann eben als supertolle neue innovation jetzt ein modwheel pro voice zu erlauben und aus channel pressure key pressure zu machen.)
und es sei auch darauf hingewiesen, dass ein virtuelles instrument mit 100 parametern und 100 stimmen dann bis zu 10,000 automation tracks in der DAW erzeugen würde. viel spass beim scrollen. oder beim erkennen, was was ist, falls nur die dargestellt werden, die daten enthalten.
das lustige ist, dass "die totale polyphonie" eigentlich das viel
einfachere konzept ist, denn da ist einfach alles in einem klanggenerator teil einer stimme.
vereinfacht gesagt baust du dir erst einen monophonen synth, und ergänzt dann die option der instanzierung des gesamten codes. (so wie cubase das mit seinen mixerkanälen macht)
das ganze spiel geht im prinzip sogar mit bereits bestehender software. eine meiner VST hosts z.b. erlaubt dir jedes monophone plug-in auch polyphon zu spielen - mit dem ergebnis, dass du dann genau das hast, was ich oben beschrieb: nämlich quasi "automatisch" getrennte parameter für jede stimme, die dann entsprechend getrennt moduliert werden können. außer die stimme korrekt zu adressieren, musst du nichts mehr tun.