Mich würde mal interessieren, wie ihr den Deluge als zentralen Sequenzer in der Live Performance einsetzt. Wie legt ihr die Clips an? Macht ihr chronologisch organisierte Sektionen mit redundanten Clips oder haltet ihr alles einmalig vor und behaltet mit bestimmten Tricks den Überblick zur richtigen Auswahl der Clips? Sind hierfür Controller essentiell? Was gibt es generell zu beachten bei der Erzeugung von Clips, die live gespielt werden sollen.
Den Songmodus möchte ich gerne bei der Frage außen vor lassen, da ich im Abspielen von Songs keine Performance erkenne.
Pro MIDI Kanal bzw. Stimme/Gerät eine Farbe. Clips sind jeweils nur ein Mal vorhanden. Zur Orientierung experimentiere ich mit Leerzeilen. Momentan sind die Clips einfach nach Kanal gruppiert. Pro Clip hab ich auch jeweils Program-Change und Bank-Select gespeichert. Inzwischen hab ich mir angewöhnt die Presets der Geräte mit dem Deluge auszuwählen statt am Gerät selbst - beim Einstellen des PC wird sowieso jeder Wert ausgegeben. Muss immer dran denken, dass der PC an dem Track hängt beim Kopieren. Wenn man einen Controller zum Einspielen verwendet, muss man live immer ans Anlernen denken für neue Clips. Redundante Clips sind kacke, dann sind es noch mehr Clips und Änderungen müssen dann mehrfach vorgenommen werden.
Insgesamt ist es schon ziemlich unübersichtlich wenn man mal 14 Clips hat. Eigentlich nur schwer benutzbar, da auch noch das Zoom-Level jedes Mal angepasst werden muss. Das ist eines der Hauptgründe warum ich am liebsten vom Deluge weg will.
Habe schon darüber nachgedacht irgendeinen Matrix-Controller bzw. ein Tablet für die Clips zu nehmen. Einen Rückkanal gibt es aber nicht, sodass sich Änderungen am Deluge dann nicht auf die Matrix auswirken. Außerdem müsste man dann den Clip jeweils anlernen sobald man ihn erstellt hat. Wenn man Live etwas Neues erstellt, ist das immer ein Mehraufwand den man eigentlich nicht haben will. Und der Controller braucht dann auch noch nicht-vorhandenen Platz.
Der Matrix-Controller am Tablet könnte interessant sein wenn man eine spezielle Lösung dafür baut:
Es gibt ja diese SD-Karten mit WLAN drin. Mithilfe dieser könnte man eine App permanent die Song-XML-Datei lesen lassen. Wenn man nun eine Änderung bei den Clips vornimmt und diese speichert, könnte die App das erkennen und die Daten neu auslesen. Daraus ließe sich dann eine Matrix bauen welche sogar den Inhalt des Clips anzeigen könnte. Voraussetzung hierfür ist, dass das WLAN stabil genug ist. Anlernen müsste man den Clip aber trotzdem noch.
Ich hoffe einfach, dass Rohan endlich zur Vernunft kommt und die Clip Matrix implementiert.