Hersteller aufgepasst: Multitimbralität & Multimode

Gibt es eigentlichen einen technischen Grund für die heutzutage übliche Monotimbralität? Verkompliziert sich der innere Aufbau des Synths oder ist die Software für die Stimmzuteilung so viel schwieriger zu realisieren?
In der Softwarewelt gibt es (fast!) nur noch Hampelmänner, die nur noch Java oder Web kennen und agil, die Wurzel allen Übels, nebst Excel. Da kommt dann so ein Mist raus ("haben wir nicht mehr geschafft, war ja nicht geplant") ... Dass es auch anders geht, beweisen immer nur wenige Einzelpersonen. ;-)
 
Was meinst du in dem Kontext mit dynamisch?
Dynamische vs. statischer Stimmenzuordnung: Dynamische Stimmenzuordnung erlaubt es, die Stimmen nach Bedarf auf die Parts zu verteilen, bei statischer Stimmenzuordnung werden die Stimmen fest den Parts zugewiesen.

Beide Verfahren sind sinnvoll: Statische Stimmenzuordnung vermeidet abgeschnittene Stimmen, dynamische Stimmenzuordnung vermeidet ungenutzte Stimmen.
 
Oder gibt es bei Analog-Synths tatsaechlich Gruende, die dagegen sprechen, so bauteilmaessig gesehen?

analog ist eine dynamische stimmenzuteilung schon eine ecke komplizierter als in einem geschlossenen programm, denn das setzt voraus, dass man erst mal jede stimme auch einzeln gezielt ansprechen kann. can you say "sunsyn"?
 
Zuletzt bearbeitet:
Sequential hat es beim P5/10 Rev4 geschafft mit einem Software-Update Bitimbralität hinzubekommen. D.h. die Hardware konnte das von Anfang an.
 
analog ist eine dynamische stimmenzuteilung schon eine ecke komplizierter als in einem geschlossenen programm,
Man braucht halt ein paar Multiplexer und S/H mehr, kein Hexenwerk. Zum Studium sei das Service Manual des Microwave empfohlen. Moderne Synths (hier denke ich nun an den Modal 002) können aber inzwischen recht komplex gestrickt sein, so von der Hardware und Multiprozessor Architektur her, dass alles nicht mehr flott genug ist, das on the fly umzuschalten. Alleine das Laden eines Sounds dauert dort gefühlte Ewigkeiten, liegt einfach am Linux Fundament. Offenbar hat nicht jeder Hersteller Spass daran, ein kleines Mini-OS auf die Beine zu stellen. Der Moog One basiert auch auf Linux. Beim Waldorf M ist da was Eigenes am Start. Aber auch hier laden die Sounds einen Moment länger als beim Original.
 
mir langt es völlig, wenn es einen mono mode als bestandteil des presets gibt.

ansonsten ist mono mode ja nur die kleine schwester von "ich will in jedem multi part die max voices festlegen dürfen."
Ich war damals eigentlich ganz froh die Anzahl der Stimmen damals selbst bestimmten zu können, bei der eher bescheidenen FX Ausstattung hab' ich vieles (z.B. Delay/Reverb artiges) mit den Hüllkurven gemacht, dass möglichst nicht zu früh abgeschnitten werden sollte.
 
ich komm damit nicht klar, dass manchmal was abgeschnitten werden könnte und manchmal nicht. klar, ok, bei einem klavier kann man in der praxis so einen kompromiss machen, aber eigentlich hab ich am liebsten überall unbegrenzt stimmen oder die max. anzahl, die ich selbst festlege, im hinterkopf.

ich komm auch mit der idee nicht klar, dass manche geräte je nach patch plötzlich mehr stimmen bieten.
 
aber um noch mal aufs thema zurückzukommen.

es spricht praktisch nichts wirklich dagegen, einem synthesizer mit 4 stimmen einen 16-fach multimode zu spendieren.

es gibt nur dinge, die dafür sprechen.


edit: eh, also bis auf die sache mit den ladezeiten bei raspberry oder FPGA... darüber habe ich noch gar nicht nachgedacht. andererseits entsteht das gleiche problem ja auch bei einem nur-2-fach multimode.
 
Zuletzt bearbeitet:
es spricht praktisch nichts wirklich dagegen, einem synthesizer mit 4 stimmen einen 16-fach multimode zu spendieren.
So lange er die Sounds nicht alle gleichzeitig spielt, sowas musste ich damals mit häufigen Programm Changes realisieren, speziell als ich nur CZ-1 und TX81z hatte. Hier und da hab' ich später ein paar der Sounds von Synths meiner Mitstreiter spielen lassen und konnte den Sounds noch was an polyfonie oder dem Track 'nen weiteren Sound spendieren.
 
Mal grundsätzlich:

@Moogulator - Dein ursprünglicher Beitrag enthält ja drei Forderungen:

1. Immer Multimode (möglichst mindestens 8fach)
2. Immer alle digitalen Schnittstellen "Class Compliant".
3. MIDI immer mit In, Out, Thru.

Ich unterstütze das zwar grundsätzlich alles, sehe aber auch ein paar Einschränkungen.

Ad 1.
- Fällt flach für monophone Synths, die Du ja auch nicht so magst, die ich aber aus verschiedenen Gründen (je nach Anwendung) immer noch sehr bevorzuge. Für diese sollte man aber - sofern mehr als ein OSC vorhanden ist - grundsätzlich die Möglichkeit von Paraphonie fordern, denke ich.
- Ist in erster Linie interessant für live. Im Studio arbeitet kaum noch jemand mutlitimbral - abseits möglicherweise des Layerns. Oder?
- Warum schlägt eine Waldorf Kyra nicht ein wie eine Bombe, wenn Multimode doch so wichtig ist - 8fache Multitimbralität plus vielen Einzelausgängen ist da vorhanden und so einfach und direkt zugänglich wie sonst bei historischen Synths fast nirgendwo. Ist auch class-compliant - mit MIDI und Audio über USB. Trotzdem und trotz der 128 Stimmen ist der Synth kein Riesen-Erfolg. Warum, wenn Multitimbralität doch so wichtig ist?
- Für Live-Instrumente mit Tastatur finde ich mindestens 2fache, besser 4fache Multitimbralität sinnvoll - 8fach ist da ein bisschen over the top, oder nicht?

Ad 2.
Das sollten sich die Hersteller viel, viel roter anstreichen als die Sache mit der Multitimbralität, wenn Du mich fragst. Baut die Instrumente so, dass sie möglichst kompatibel mit möglichst allem sind auf möglichst lange Zeit!

Ad 3.
Macht auch nicht immer Sinn. Out und Thru kann man m. E. kombinieren, wenn das Instrument selbst nichts Sinnvolles weitergibt an Controller-Daten.
 
Zuletzt bearbeitet:
das war die idee, dass du dann program change vermeiden kannst. wir haben 16 midi channels, also sollte man sie auch benutzen.

und da reden wir noch gar nicht über key zones.
 
Ad 1.
- Fällt flach für monophone Synths, die Du ja auch nicht so magst, die ich aber aus verschiedenen Gründen (je nach Anwendung) immer noch sehr bevorzuge. Für diese sollte man aber - sofern mehr als ein OSC vorhanden ist - grundsätzlich die Möglichkeit von Paraphonie fordern, denke ich.
Warum?

- Ist in erster Linie interessant für live. Im Studio arbeitet kaum noch jemand mutlitimbral - abseits möglicherweise des Layerns. Oder?
Was macht Dich das glauben?

- Warum schlägt eine Waldorf Kyra nicht ein wie eine Bombe, wenn Multimode doch so wichtig ist - 8fache Multitimbralität plus vielen Einzelausgängen ist da vorhanden und so einfach und direkt zugänglich wie sonst bei historischen Synths fast nirgendwo. Ist auch class-compliant - mit MIDI und Audio über USB. Trotzdem und trotz der 128 Stimmen ist der Synth kein Riesen-Erfolg. Warum, wenn Multitimbralität doch so wichtig ist?
Bitte, was ist das für eine bizarre Argumentation? Was soll der angenommene Erfolg oder Misserfolg eines bestimmten Instruments über die Sinnhaftigkeit von Multitimbralität aussagen?

- Für Live-Instrumente mit Tastatur finde ich mindestens 2fache, besser 4fache Multitimbralität sinnvoll - 8fach ist da ein bisschen over the top, oder nicht?
Warum soll es „over the top“ sein, die Tastatur eines Instruments in acht Zonen aufteilen zu wollen? Das ist nicht nur für Schlagwerkähnliches sinnvoll, man denke nur einmal an Klangumschaltung per Velocity…
 
Hier verstehe ich nicht genau, was Du meinst. Warum macht Multitimbralität bei monophonen Synths keinen Sinn oder warum sollte man bei monophonen Synths mit mehr als einem OSC für die Möglichkeit der Paraphonie eintreten? Ersteres erklärt sich von selbst, das Zweite dadurch, dass Paraphonie eine weitere interessante Ausdrucksmöglichkeit ist, die nicht genau identisch mit Polyphonie ist.

Was macht Dich das glauben?
Meine Beobachtung. Bezogen darauf, wie sich meine eigene Arbeitsweise im Laufe der letzten 20 Jahre verändert hat und die der mir bekannten Musiker-Kollegen und Freunde. Mit der Nutzung audio-fähiger DAWs wurde die Nutzung reiner multitimbraler MIDI-Setups zunehmend überflüssig. Ich denke, das könnte man auch empirisch belegen, wenn man die entsprechenden Daten hätte.

Bitte, was ist das für eine bizarre Argumentation? Was soll der angenommene Erfolg oder Misserfolg eines bestimmten Instruments über die Sinnhaftigkeit von Multitimbralität aussagen?
Das ist nicht bizarr. Es gibt ein Instrument auf dem aktuellen Markt, das genau alle Forderungen von @Moogulator erfüllt. Aber dieses Instrument ist kein ausgesprochener wirtschaftlicher Erfolg. Der Schluss, dass die Forderungen also keine entscheidenden Verkaufsargumente für viele Kunden sind, liegt doch wohl nahe, oder nicht? Zumal wenn man die Kyra kennt und weiß, wie gut sie - aller Unkenrufe zum Trotz - klingt und bedienbar ist. Das ist der beste Synth im Bezug auf Multitimbralität, Class-Compliance usw. seit vielen, vielen Jahren. Das scheint aber vielen potentiell Interessierten dann doch nicht so wichtig zu sein. "Der hat zu langsame LFOs", höre ich dann, obwohl er Audiorate-FM von OSC zu OSC bietet und dabei eben grundsätzlich mutlitimbral ist. Da kann ich doch nur müde und traurig lächeln, wenn ich so etwas höre. Die Kyra kann alles, was da immer gefordert wird, wird aber nur selten gekauft. Was schließen wir daraus? Die laut ausgesprochenen Forderungen einiger Spezialisten entsprechen nicht den Anforderungen der tatsächlichen Kunden. Und das registrieren natürlich auch die potentiellen Hersteller ähnlicher Konzepte.

Warum soll es „over the top“ sein, die Tastatur eines Instruments in acht Zonen aufteilen zu wollen? Das ist nicht nur für Schlagwerkähnliches sinnvoll, man denke nur einmal an Klangumschaltung per Velocity…
"Schlagwerkähnliches" kann man besser über einen Drummode lösen - siehe Q und microQ - Klangumschaltung per Velocity wäre ein Argument - aber mal ehrlich - wer macht das wirklich abseits von Samples, die sowieso schon - innerhalb eines Timbres - entsprechend umschalten? Dafür mag es Spezial-Interessierte geben. Aber again: Warum kaufen die dann keine Kyra? Die kann das.
 
Zuletzt bearbeitet:
Ein "Problem" seh ich in den FX Blöcken.

Das hat bei mir früher für viel Frust gesorgt, und dazu geführt das ich den Multimode gar nicht mehr genutzt hatte / ...nutzen konnte.
Korrekt umgesetzt muss man mehr DSP power bereitstellen, die dann wiederum (heute?) oft gar nicht genutzt würde.
( die ganze Thematik hat imho durchaus mehr Tiefe als auf den ersten Blick ersichtlich)
 
Die machen das nur semi-gut IMHO weil die einzelnen Stimmen nicht voneinander unabhängig sind. Wenn man Program Changes benutzen will, muss man immer alle vier Stimmen beim DN oder A4 gleichzeitig wechseln. Aber das läuft leider des Öfteren so, z. B. beim P12 (immer hin nur 2 Stimmen).
Ja, da liesse sich bestimmt noch einiges optimieren. Man kann bei Analog Four/Keys, Analog Rytm und Digitone Keys z.B. gut die Einzelausgänge für die Synthstimmen nutzen und die Send Effekte am Main Out abgreifen. Das ist schon praktisch. Multimap (quasi Keyzones für Pattern oder Patches, bis 128 Pattern oder Patches auf 128 Midinoten verteilen) ist auch cool und generell bei Midisteuerung geizt Elektron nicht.

Da sind viele anderer eher sparsam eingestellt.

Ins Rack schrauben kann man die Elektrons auch, die kleinen haben Vesa Mount. Solche umfassenden Konzepte sind selten geworden. Elektron könnte auch sagen, hey die meisten Leute nehmen doch zu 98% eh nur den Main Out, sparen wir uns den anderen Scheiss doch einfach...
 
Zuletzt bearbeitet:
Ein "Problem" seh ich in den FX Blöcken.

Das hat bei mir früher für viel Frust gesorgt, und dazu geführt das ich den Multimode gar nicht mehr genutzt hatte / ...nutzen konnte.
Korrekt umgesetzt muss man mehr DSP power bereitstellen, die dann wiederum (heute?) oft gar nicht genutzt würde.
( die ganze Thematik hat imho durchaus mehr Tiefe als auf den ersten Blick ersichtlich)
Ich war zum Glück nie groß abhängig von den Effekten, meist reichte mir ein Chorus, den Rest hab' ich später in der DAW auf die Audio Tracks "gebastelt" - in den 90er meist Offline berechnet. Wie weit ich alleine mit der FX Ausstattung meiner aktuellen multitimbralen (Synthese) Workstations komme wird sich bei Gelegenheit zeigen.
 
Zuletzt bearbeitet:
Im Studio arbeitet kaum noch jemand mutlitimbral - abseits möglicherweise des Layerns. Oder?
Durch Multitimbralitat (die z.B. die Anzahl aller Stimmen eines Synth umfasst) kann man (im Studio) Synthesizern Mikrotonalitat via Pitchbend beibringen, die Mikrotonalität von Haus aus nicht können.
Ich denke da an Xpander, Andromeda und Microwave 1.
Mit der Software MTS-ESP sollte das funktionieren. Leider hab ich's noch nicht ausprobiert.
Haben Synthesizer keine wie o.a. "voll ausgebaute" Multitimbralitat geht das nicht oder eben nur eingeschränkt.
 
Durch Multitimbralitat (die z.B. die Anzahl aller Stimmen eines Synth umfasst) kann man (im Studio) Synthesizern Mikrotonalitat via Pitchbend beibringen, die Mikrotonalität von Haus aus nicht können.
Ich denke da an Xpander, Andromeda und Microwave 1.
Mit der Software MTS-ESP sollte das funktionieren. Leider hab ich's noch nicht ausprobiert.
Haben Synthesizer keine wie o.a. "voll ausgebaute" Multitimbralitat geht das nicht oder eben nur eingeschränkt.
Das finde ich interessant zu lesen und es war mir so nicht präsent. Nur könnte man das Gleiche auch mit einem 259,- Euro "teuren" Korg Monologue erzielen mit nur einer einzigen Stimme und einem einzigen Timbre und viel, viel weniger Aufwand. Selbst wenn man das nachher polyphon braucht, geht es viel schneller, mit so einem Synth einfach mehrere Spuren aufzunehmen, als da lange über Multitimbralität und die Anpassungen jedes einzelnen Timbres nachzudenken.
 
Im Studio arbeitet kaum noch jemand mutlitimbral - abseits möglicherweise des Layerns. Oder?
Natürlich arbeitet man im Studio multitimbral – meist mit/in einer DAW, wo man die Ausgänge von virtuellen Instrumenten gleich mit Effekten abmixen kann. Bei multitimbralen Hardware-Klangerzeugern sind Möglichkeiten des Abmixens mit Effekten meist eingegeschränkt. Neuere Geräte bieten da z.B. Multikanal-Audio per USB, wenn interne Möglichkeiten des Abmixens mit Effekten zu eingeschränkt sind. Kurzweil K2700 scheint intern gute Effekt-Möglichkeiten zu bieten. Wer allerdings sowieso virtuelle Instrumente in einer DAW verwendet, der mixt natürlich gleich in der DAW mit Effekten. Und natürlich findet das alles multitimbral statt. Zwischendurch vielleicht mal Spuren Rendern zwecks CPU- und Latenz-Einsparung.
 
Natürlich arbeitet man im Studio multitimbral – meist mit/in einer DAW, wo man die Ausgänge von virtuellen Instrumenten gleich mit Effekten abmixen kann. Bei multitimbralen Hardware-Klangerzeugern sind Möglichkeiten des Abmixens mit Effekten meist eingegeschränkt. Neuere Geräte bieten da z.B. Multikanal-Audio per USB, wenn interne Möglichkeiten zu eingeschränkt. Kurzweil K2700 scheint intern gute Effekt-Möglichkeiten zu bieten. Wer allerdings sowieso virtuelle Instrumente in einer DAW verwendet, der mixt natürlich gleich in der DAW mit Effekten. Und natürlich findet das alles multitimbral statt. Zwischendurch vielleicht mal Spuren Rendern zwecks CPU- und Latenz-Einsparung.
Darum ging es ja nicht.

Wir sprachen über Multitimbralität innerhalb eines einzelnen Klangerzeugers.

Dass in der DAW alles mehrstimmig läuft, dürfen wir abseits von Gregorianik heute wohl getrost voraussetzen.
 
Wir sprachen über Multitimbralität innerhalb eines einzelnen Klangerzeugers.
Hier kommt's darauf an, ob erstens die Gesamt-Polyphonie ausreicht, damit MIDI-Sequencing multitimbral ausgerarbeitet werden kann, und zweitens, wie umfangreich die internen Effekt-Möglichkeiten sind bzw. ob Einzelausgänge vorhanden sind. Bei neueren Geräten gibt's, wie gesagt, z.B. Mehr-Kanal-Audio per USB, allerdings sollte man da schauen, ob man auch einzelne Drum-Instrumente eines Drum-Kits entsprechend rausrouten kann.
 
Hier kommt's darauf an, ob erstens die Gesamt-Polyphonie ausreicht, damit MIDI-Sequencing multitimbral ausgerarbeitet werden kann, und zweitens, wie umfangreich die internen Effekt-Möglichkeiten sind bzw. ob Einzelausgänge vorhanden sind. Bei neueren Geräten gibt's, wie gesagt, z.B. Mehr-Kanal-Audio per USB, allerdings sollte man da schauen, ob man auch einzelne Drum-Instrumente eines Drum-Kits entsprechend rausrouten kann.
Einverstanden. Aber wer macht noch MIDI-Sequencing in dieser Form? Sei mal ehrlich! Das ist ein Anachronismus.

Heute arbeitet man entweder voll-analog out of the box (Minderheit) oder man arbeitet eben innerhalb der DAW komplett in the box (Mehrheit) oder hybrid (vernünftiges Mittel) - und wer von diesen hybird-arbeitenden Leuten setzt dann noch gleichzeitig ein und denselben Klangerzeuger für zwei verschiedene Sounds ein? Sei doch bitte ehrlich? Das macht niemand. Die nimmt man dann ganz bequem nacheinander auf.
 
Zuletzt bearbeitet:
Aber wer macht noch MIDI-Sequencing in dieser Form? Sei mal ehrlich! Das ist ein Anachronismus.
Multitimbrales MIDI-Sequencing? Ist doch Standard. Warum sollte man darauf verzichten?
Selbst Audiospuren von nicht-MIDI-fähigen Instrumenten bzw. Vocals in einer DAW stellen einen multitimbralen Ansatz dar. Außer dass es eben Audiospuren und keine MIDI-Spuren sind. Du hast dort aber auch parallel verschiedene Timbres als Einzelspuren. Anders wäre es, wenn man ein Orchester mit einem Stereomikrofon aufnimmt. DAS wäre vielleicht Anachronismus, weil es einem die Möglichkeiten nimmt, nachträglich was am Mixing zu verändern usw.
Aber jeder kann arbeiten wie er möchte. Es gibt ja heutzutage alle Möglichkeiten der Welt.
Wer an einem echten nicht-MIDI-fähigen Flügel einspielt und das als Audio aufnimmt, begeht nicht zwangsläufig Anachronismus, weil es doch legitim ist, einen echten nicht-MIDI-fähigen Flügel einzusetzen, oder? Oder echte Streicher spielen lassen statt "Streicher" mit einem Synthesizer zu machen. Ja, ich habe den Spieß umgedreht, wo akustische Instrumente nicht umbedingt als Anachronismus anzusehen wären. :P MIDI ist da eher modern im Vergleich zu einem klassischen akustischen Instrument. Und MIDI bleibt modern. Oder ist MIDI inzwischen wieder out und altmodisch, konservativ usw.? Musiktheorie überflüssig? Es lebe Dilettantismus? Verständnis von MIDI überfordert junge Generation von "Musikern"? :agent: :P
 
Multitimbrales MIDI-Sequencing? Ist doch Standard. Warum sollte man darauf verzichten?
Selbst Audiospuren von nicht-MIDI-fähigen Instrumenten bzw. Vocals in einer DAW stellen einen multitimbralen Ansatz dar. Außer dass es eben Audiospuren und keine MIDI-Spuren sind. Du hast dort aber auch parallel verschiedene Timbres als Einzelspuren. Anders wäre es, wenn man ein Orchester mit einem Stereomikrofon aufnimmt. DAS wäre vielleicht Anachronismus, weil es einem die Möglichkeiten nimmt, nachträglich was am Mixing zu verändern usw.
Aber jeder kann arbeiten wie er möchte. Es gibt ja heutzutage alle Möglichkeiten der Welt.
Wer an einem echten nicht-MIDI-fähigen Flügel einspielt und das als Audio aufnimmt, begeht nicht zwangsläufig Anachronismus, weil es doch legitim ist, einen echten nicht-MIDI-fähigen Flügel einzusetzen, oder? Oder echte Streicher spielen lassen statt "Streicher" mit einem Synthesizer zu machen. Ja, ich habe den Spieß umgedreht, wo akustische Instrumente nicht umbedingt als Anachronismus anzusehen wären. :P MIDI ist da eher modern im Vergleich zu einem klassischen akustischen Instrument. Und MIDI bleibt modern. Oder ist MIDI inzwischen wieder out und altmodisch, konservativ usw.? Musiktheorie überflüssig? Es lebe Dilettantismus? Verständnis von MIDI überfordert junge Generation von "Musikern"? :agent: :P
Es geht hier um Multitimbralität innerhalb von Synthesizern, nicht um Audio-Mehrspur-Recording innerhalb der DAW. Du bist komplett neben der Spur, sorry. Und ausgerechnet MIDI jetzt hier als Lehr-Standard für eine junge Generation von Musikern einzufordern, ist so lächerlich, dass ich kaum noch weiß, was ich dazu sagen soll. Das ist so, als ob man von Menschen, die sehen können, fordert, sie sollten Blindenschrift lernen, damit sie endlich auch mal etwas wahrnehmen.

Vielleicht könnte man als "Ersatz" einfach Noten lernen? Oder, wenn es dazu nicht reicht, begreifen lernen, was elementare Begriffe wie Dur, Moll, Tonleiter, Akkord usw. bedeuten?
 
Zuletzt bearbeitet:
Es geht hier um Multitimbralität innerhalb von Synthesizern, nicht um Audio-Mehrspur-Recording innerhalb der DAW. Du bist komplett neben der Spur, sorry.
Ich habe den Blickwinkel erweitert.
Wenn wir von Multitimbralität von MIDI-fähigen Klangerzeugern reden, dann habe ich schon alles gesagt. Man benötigt erstens ausreichend Polyphonie, und zweites zwecks eines Audio-Mixes im besten Falle auch umfangreiche Effekt-Möglichkeiten. Notfalls Einzelausgänge. In Hardware können das eher teurere Geräte, oder ältere gebraucht. Alternativ kann man in einen DAW-Computer investieren und alles virtuell machen. Da ist man dann flexibler, und alles ist in sehr guter Qualität möglich.
Analoge Klangerzeugung wäre wieder ein eigenes Thema. Da ist Polyphonie eingeschränkter. Computer könnte aber bei MIDI-Fähigkeit der Klangerzeugung beim MIDI-Sequencing unterstützen und Ergebnisse als Audio aufnehmen.
 
Zuletzt bearbeitet:


Zurück
Oben