Warum ist die Intelligenz der Midi-Controller so mangelhaft?

A

Anonymous

Guest
Ich bin mit der Intelligenz von Midi-Controllern im Allgemeinen nicht zufrieden.

- Es gibt noch keine Standards für Sequencer, Step Sequencer im weiteren Sinne, egal ob Software oder Hardware.
- Die Intelligenz ist kein offenes System, z.B. kann man keine Intelligenz-Plugins oder Intelligenz-Module entwickeln und einfach mitbenutzen, so wie man auch Vsti-Plugins je nach Lust und Gefallen benutzen kann. Ähnlich könnte man auch bei der Intelligenz von Midi-Controllern und Step Sequencern verfahren. Warum darf nicht jeder selber bestimmen was die Bedeutung eines "Steps" genau sein soll?
- Warum sind als Hardware z.B. 1 bis 2 BCR2000, 1 bis 2 PC Keyboards gleichzeitig an einem Rechner angeschlossen (ja, das geht auch), 1 bis 2 Midi Keyboards mit 2 bis 5 Oktaven und jeweils Pitchbend und Modulationsrad nicht genug Eingriffspunkte um fast beliebig komplexe Musik in Echtzeit/Live akzeptabel zu kontrollieren, ein Mensch hat sowieso nur 2 Hände, die man gleichzeitig benutzen kann?

Hier das Schema nochmal wovon ich ausgehe:

Code:
Mensch    -->    2 Hände    -->    Endliche Anzahl an Kontrolleingriffspunkten wie oben genannt    := A    -->    Intelligenz    -->    Target, was die intelligent bearbeiteten Pakete/Events/Messages empfangen soll, z.B. Synthesizer, Effekt, Host    :=  B

Im Endeffekt und in der Praxis hat jeder Musiker andere Voraussetzungen für A und B. Wieso gibt es für variierende A und B noch keine modulare, offene, erweiterbare, elegante, einfache Intelligenzschicht dazwischen, was für beliebige A und B komfortabel anpassbar wäre. Es wäre dann egal, welche Midi-Kontroller wer wo im Einsatz hat, trotzdem könnte jeder soweit genug Eingriffspunkte (sprich Encoder, Tasten, Fader) vorhanden sind, die gleiche Intelligenzschicht benutzen, wenn man nur vorher das Mapping von A nach Intelligenz vornimmt. Diese Intelligenzschicht sollte auch unabhängig von Firmen (wie z.B. Novation, Mackie, Ableton, NI ...) sein, also nicht nur mit ihren eigenen Produkten funktionieren, sondern mit allen Geräten, die Midi-Daten senden und empfangen können.

Kurz gesagt sollte die Intelligenzschicht ein multi-in-multi-out System für Midi-Events darstellen. Für den Anfang sollten zumindest folgende Midi Event Typen unterstützt werden:

1. Note On/Off
2. CC
3. Program Change
4. Pitchbend
5. Sysex

für beliebige vorhandene Midi-Ports und Midi-Kanäle.


Existiert solch ein System schon? Wenn nicht, könnten wir hier vielleicht mit der Spezifikation anfangen? Vielen Dank im Voraus.
 
Ehm, Sysex und so ist doch Standard.

Ich glaub aber, du meinst eine gewisse Zusammengehörtigkeit oder die Möglichkeit ohne großen Aufwand Stepsequencer auf Controller zu übertragen. DA hast du leider REcht. Da muss jeder Knopf definiert werden und kann halt dann auch nur 1 oder 0 senden oder 0-127 und das wars. SysEx geht auch, aber schalu wirds mit Anpassungen für bestimmte Controller. Dann kriegst du alles so übertragen, wie es die Hersteller vorgesehen haben. Leider nicht mehr. Das ist halt alles auf DAWs und sehr sehr gängige Controller begrenzt. Bei Lauflicht ist man da allerdings noch weit zurück, da man 1991 nicht weiter daran gearbeitet hat. Da konnte der Atari und die ersten MIDI Synths nicht weniger.
 
Einstein sagte ja, "alles ist relativ", und Intelligenz auch, aber da möchte ich nicht sehr in die Tiefe gehen, im Prinzip sollte da nur die menschliche Vorstellungskraft und Programmierkenntnisse die Grenze darstellen, aber solche Intelligenz-Module könnten ja verteilt über die Community entwickelt werden, und jeder könnte davon profitieren, ich meine musikalisch natürlich, nicht finanziell. Ich meinte nicht nur Stepsequencer auf Controller zu übertragen, sondern ganz allgemein der Weg von A nach B, und eben die Intelligenz an sich was ja alles sein kann.

Naja, es gibt ja schon

1. Max/Msp
2. Bome's Midi Translator
3. MIDI Rules ( http://cycokraut.wordpress.com/midi-rules )
4. Pd

aber sowas wie Vsti-Plugins sind sie noch lange nicht.

Noch ein gutes Beispiel was die Intelligenz des BCR2000 erweitert wäre BCR Performer was mit Max/Msp entwickelt wurde. Leider auch weit von einer Standardmethodik entfernt.
 
Das Problem ist da eher, dass die offenen Systeme sehr viel Arbeit erzeugen werden und man alles erstmal ausprogrammieren muss. Das ist leider nicht das, was ich intelligent nennen würde. eher ein "weils nicht anders geht und die einzige Alternative zum selbst C-proggen ist". Aber das ist dann noch umständlicher. Das sollte schon anders gehen. Dazu müssten einige Firmen sowas wie eine gemeinsame Basis vereinbahren. Damit solltest du nicht rechnen. Dazu sind die meisten nicht in der Lage.

Man sollte es eher klar formuliert und so breit wie möglich und so einfach wie möglich formuliert an die Hersteller weiterleiten. Damit wenigstens die üblichen Verdächtigen davon Wind kriegen. Deshalb ist ein Ding wie die Maschine zzt mehr oder weniger konkurrenzlos. Es muss halt klar gemacht werden, dass man das will. Laut und überall. Nicht zu individuell, eher so, dass damit 99% aller Lauflichtler und Sequencler damit leben können.

Und natürlich nicht PC only. Das sollte am besten auf allen Plattformen gehen. Sonst ist das nicht interessant.

Ein Programm wie Numerology als Basis, was aber komplett selbstkonfiguriert vom Controller steuerbar ist und selbst track-für-track darstellen kann - Das wäre was. Aber das ist leider noch ein Weg. Wenn das mal geschafft ist, wird das ein großer Schritt für die Menschheit sein. Vermutlich wird das aber keine große Firma machen. Die bleiben gern oft lieber bei dem, was schon da ist.

BCR: Das ist zu speziell. Aber ist schon klar. Es geht darum, das Rückmeldungen passieren und dass man frei konfigurieren kann und das ÜBERTRAGEN KANN auf andere Systeme. Das ist sehr schwierig. IdR sind es eh Nerds, die das für EINS der Teile rausfinden und machen. zB Korg PadControl, aber dann natürlich NUR da, nicht auf JEDEM Controller, weil es eben andere Methoden braucht.

Auch das APC40 oder sowas wäre geeignet, Monome und so weiter auch. Aber die alle sind ohne Steuersoftware erstmal nur dumme LED-Taster-Gruben ohne besondere Möglichkeiten.

Da wirst du also die "Intelligenz" selbst bauen müssen.
Und PD und Co sind echt kein echter Spaß. Und wenn ein Patch mal sehr groß ist und dem entspricht, was zB eine electribe macht, dann wird es schon auch aufwendig und ggf. sogar wackelig werden.

Da müssen wir alle noch lang arbeiten und bitten. Mit OSC geht auch was, ist aber das gleiche Problem, nur dann ohne MIDI-Anteil.

Ich denke, wer da zuerst ein cooles System bringt, was nicht nur wieder auf 16 oder 32 Steps aufbaut und mit höheren Auflösungen fährt eine Chance hat, noch mehr, wenn es offen ist und an den richtigen Stellen "modular". Und sich jedem Controller anpasst.

Davon sind wir noch weit weg. Leider.
 
Es gab in den 80ern einen im Software-Bereich sehr beruehmten Artikel namens "No Silver Bullet": Kernaussage ist, dass es in absehbarer Zeit keine "silberne Patrone" geben wird, mit der man die Komplexitaet von Software deutlich besser in den Griff kriegt als mit den "herkoemlichen" Methoden.

Du meinst ja auch "die Intelligenz kann ja alles sein" und genau das ist wohl das Problem. Wenn man sich alle Moeglichkeiten offen lassen will, kann man nicht fuer Alles etwas "Vorgefertigtes" anbieten.

...aber es ist natuerlich nicht bewiesen, dass es nicht doch besser geht: wenn dir da was gutes einfaellt wirst du ziemlich sicher ziemlich viel Geld damit verdienen ;-)
 
Mein Lieblings-Midi-Programmiersystem ist mit grossem Abstand Keykit von Tim Thompson, am liebsten ohne GUI, nur Feedback in Form von Textmeldungen, die man via TTS (Text-to-Speech Engines) auch hörbar machen könnte, zumindest während der Studier- und Übungsphase, später bei "richtigen Live-Acts" kann man dies dann wieder deaktivieren. Bei Musik sollte es sowieso mehr um das Gehör, die Ohren und Sounds gehen und nicht um irgendwelche visuellen Darstellungen von Parametern, Werten, Farben... Alles was man nicht hört, kann man dann ohne Probleme weglassen, denn man hörte ja keine Unterschiede, was wir ja nicht wollen.

Ich denke Keykit wäre ein guter Kandidat für solch ein modulares Intelligenz-Plugin System, zumindest aus meiner Sicht. Bislang habe ich mich nur mit non-real-time Bearbeitungen beschäftigt, da ich keine interessante Anwendungsidee für real-time Anwedungen hatte, aber jetzt hätten wir diese Idee mit der modularen Intelligenz hier im Thema.
 
Irgendwann ziehen wir alle Module per Linen zusammen und brauchen davon auch nur 4-5 oder 10 und dann läuft das. Das wird schon kommen. Jemand muss nur ein Framework machen, am besten für alle und als quasistandard. Am besten im OS bei Win und Apple und Linux direkt drin.
 
Max schrieb:
Du meinst ja auch "die Intelligenz kann ja alles sein" und genau das ist wohl das Problem. Wenn man sich alle Moeglichkeiten offen lassen will, kann man nicht fuer Alles etwas "Vorgefertigtes" anbieten.
Naja, das System an sich ist technisch gesehen sehr einfach eigentlich, stellen wir uns einen 3D Raum vor, x-Achse ist Midi-Kanal, z-Achse ist Midi-Port, y-Achse ist Midi Event Type, was zumindest die oben genannten 5 Event Types unterstützen sollte. Aus diesem Midi-Ereignisraum wollen wir einen oder mehr Events, zu einer Menge/set zusammenstellen und so als ein Entscheidungskriterium für ein ganz bestimmtes Intelligenzpaket am Ausgang, je nach Target und Funktion wieder genau aus diesem 3D Raum verwenden. Das wärs schon, nur für die einfachen multi-in-multi-out Mappings.

Natürlich kann die Intelligenz auch musikalische Ideen und Kriterien beinhalten. Die real-time Bedingung schränkt die Möglichkeiten etwas ein im Vergleich zu non-real-time Algorithmen. Nur als Beispiele: Du spielst die Melodie ein, und die Intelligenz liefert dir im Rhythmus den Du willst, sagen wir mal als Offbass, oder sogar als Pitchbass die Grundnoten zu dieser Melodie in einem bestimmten Port und bestimmten Midi-Kanal. Ich weiss nicht, ob es Algorithmen gibt, die in real-time die Grundnote einer Melodie bestimmen können, ich vermute eher nicht. Aber non-real-time ist sowas möglich. Bei Step-Sequencer Patternfunktionen könnte man aber durchaus auch non-real-time Algorithmen verwenden, da die Midi-Analysen sehr schnell berechenbar sind.
 
So ist das System natuerlich sehr einfach: es epmfaengt Events und gibt andere Events aus.
Nimmt man noch eine vierte Achse "Zeit" dazu, hat man alle moeglichen Systeme vollstaendig erfasst...

Das Problem ist halt, was "dazwischen" passiert: die eigentliche Programm-Logik (also z.B. den Grundton einer Melodie bestimmen)...
 
Die Zeit ist dann eben für den Performer reserviert, sobald ein definiertes Ereignis eintritt wird so schnell es mit der Hardware möglich ist das entsprechende Output generiert und rausgeschickt. Die Programm-Logik dazwischen sehe ich nicht als ein Problem an, genauso wie man mit Vst-Effekten Audio-Signale am Eingang in Audio-Signale am Ausgang überführen kann, kann dies auch mit Midi Event Sets geschehen. Bei Vst-Effekten gibt es ja auch Oberkategorien für Effekte wie Reverb, Delay, Chorus, Distortion, EQ, Compressor, Phaser... genauso könnte man auch bei Midi Event Set Manipulatoren verfahren. Die Programm-Logik muss natürlich programmiert werden, z.B. in Keykit in Form von vielen kleinen Funktionen oder Methoden, die bestimmte musikalische Daten (Midi Events oder .mid Dateien) bearbeiten. Oder was meintest Du mit "Problem", klar diese Programm-Logik soll ja modular, erweiterbar und nach Lust einsetzbar sein. So viele praxisrelevante Programm-Logik Fälle wären das wahrscheinlich erst mal gar nicht.

Ein Beispiel: Nehmen wir z.B. eine aus heutiger Sicht "sehr gute" Hardware und Listen alle ihrer Features auf := AlleFeatures.

Code:
PraxisrelevanteFeatures  +  X    =    AlleFeatures

Wieviel Prozent von AlleFeatures wäre X Deiner Meinung nach? Vielleicht sind viele Geräte auch mit sinnlosen Features überladen, die sowieso die grosse Masse kaum versteht und somit kaum nutzt in der Praxis?
 
Mit "Zeit" meinte ich z.B., wenn du einen Knopf an einem Step-Sequencer drueckst wird der ja nicht sofort und direkt in ein Event gewandelt - das passiert erst, wenn der entsprechende Zeitpunk (Step) erreicht ist. Denkt man z.B. an einen Arpeggiator wird ein Eingabeevent in sehr viele Ausgabeevents in unterschiedlichen Zeiten "umgewandelt".

Um die "offensichtlichen" Sachen (Stepsequencer etc.) zu bauen, gibt es ja genug Standard-Software (Max, PD, Reaktor etc.) - schwierig wird es meistens in den Faellen, wo man persoenlich ein Feature gerne haette, das es aber so nicht direkt gibt.

So, jetzt aber genug mies geredet - ich verstehe deine "Vision" schon in etwa, was waeren denn fuer dich die typischen Features die du gerne haettest?

(bin jetzt leider uebers WE weg und kann wohl erst am Montag wieder meinen Senf dazugeben...)
 
Max schrieb:
Mit "Zeit" meinte ich z.B., wenn du einen Knopf an einem Step-Sequencer drueckst wird der ja nicht sofort und direkt in ein Event gewandelt - das passiert erst, wenn der entsprechende Zeitpunk (Step) erreicht ist.
Doch, umgewandelt wird es eigentlich sofort, nur abgespielt erst, wenn das System die Erlaubnis bekommt es abzuspielen. Die Performance tauscht nur durch Midi (oder OSC) Events zustandsverändernde Informationen aus, wo ich ganz allgemein zwischen Sounding-Events und Non-Sounding-Events unterscheiden würde. Sounding-Events würde man gleich hören, wie z.B. wenn ich eine Note auf dem Midi Keyboard spiele. Non-Sounding-Events würde man nie oder irgendwann hören.

Denkt man z.B. an einen Arpeggiator wird ein Eingabeevent in sehr viele Ausgabeevents in unterschiedlichen Zeiten "umgewandelt".
Arpeggiator wäre eine musikalische Operation, mit Input = 1 bis n Noten und Output = irgendein Motiv was aus den Eingangsnoten generiert wird.
 
Moogulator schrieb:
Jemand muss nur ein Framework machen, am besten für alle und als quasistandard. Am besten im OS bei Win und Apple und Linux direkt drin.
Bei Keykit wäre dies auch der Fall, in der Keykit Seite kann man lesen:
In the download site you'll be able to download complete source code, and executables for Windows, Linux, and the Macintosh.
 
Wenn wir z.B. von den Firmen Novation, Mackie, Ableton und NI ausgehen, und nur die deutschen Unternehmen hernehmen, also Ableton und NI, was auch den Vorteil hat, dass beide ihren Stammsitz in Berlin haben. Warum können sich Ableton und NI und von mir aus alle anderen Hard- und Softwareentwickler aus Berlin nicht zusammentun und solch ein Framework nebenbei, in der Freizeit z.B. mit der Programmiersprache Keykit entwickeln? Ihr Prestige würde um einiges besser werden... als sie ohnehin jetzt schon sind. Etwas auf die Beine stellen, wovon die ganze Musikercommunity langfristig profitieren könnte, sie könnten damit Midi-Controller-Musikgeschichte schreiben. Umso besser wäre es später dann zu sehen, dass ihre Hardwareprodukte genau dieses Framework auch von Haus aus unterstützen. Machbar wäre es, man muss es nur wollen. Die Musikcommunity würde den Preis mit Liebe bezahlen, nicht mit Geld. Einen Namen für das Framework hätte ich auch schon: Open Intelligenz-Framework für Hardware, oder genauer Hardware Sets. Aber mehr als Ableton oder NI könnte ich mir eher vorstellen, dass Manuel Odendahl solch ein Projekt unterstützt.

Die technischen Geräte sollten sich den Musikern und ihren Ideen anpassen, nicht umgekehrt. Wieso sollte es mich jucken, was für Features z.B. APC40 oder Machine anbieten? Mich würde dann nur die Schnittmenge aus meinen Ideen und deren Features jucken, was knapp über Null wäre. Aber solange es genügend Käufer für solche Produkte gibt, so dass sich der Aufwand lohnt, wieso nicht mit der gleichen Strategie weitermachen? Ich wäre einer, ausserhalb dieser Käufermenge.
 
Moogulator schrieb:
Das Problem ist da eher, dass die offenen Systeme sehr viel Arbeit erzeugen werden und man alles erstmal ausprogrammieren muss. Das ist leider nicht das, was ich intelligent nennen würde.
Hm, ich weiss nicht, ob ich Dich hier richtig verstehe, aber man könnte doch etwas denken und sich umsehen, was es schon alles gibt, was man dafür hernehmen könnte, ohne alles von Null programmieren zu müssen. Mein Vorschlag wäre, es gibt hier tatsächlich schon etwas, was ich oben schon erwähnt habe, Keykit von Tim Thompson, siehe auch die kurze Übersicht hier, vor allem dort die "Phrase and Note Attributes" und "Phrase-Operations, the select". Was würde denn dagegen sprechen, Keykit nicht zu benutzen, gibt es da überhaupt Gegenargumente mit Durchschlagskraft? :?

eher ein "weils nicht anders geht und die einzige Alternative zum selbst C-proggen ist". Aber das ist dann noch umständlicher. Das sollte schon anders gehen. Dazu müssten einige Firmen sowas wie eine gemeinsame Basis vereinbahren. Damit solltest du nicht rechnen. Dazu sind die meisten nicht in der Lage.
Hmm, gemeinsame Basis, irgend etwas, was dafür (nahezu) ideal wäre, wie z.B. aus meiner Sicht Keykit.
 
Max schrieb:
... was waeren denn fuer dich die typischen Features die du gerne haettest?
Unabhängigkeit von der (meist nicht in ausreichendem Maße) vorhandenen Intelligenz in den existierenden Geräten. Auch für die Geräteentwickler könnte sich das allgemein lohnen, sie könnten Entwicklungskosten sparen, da die gesamte Intelligenzschicht sozusagen extern ausgelagert wäre, sie könnten sich nur noch um das Design, Grösse der Geräte und die Qualität der Materialien kümmern. Hier habe ich versucht, Geräte allgemein formelhaft als ein Modell darzustellen.

Mein Fazit wäre:
- Geräte brauchen keine interne Intelligenz. (Aber auch keine externe abgeschlossene Intelligenz, Alternativen wären Offenheit, Modularität, Eleganz, Erweiterbarkeit, Anpassbarkeit.)
- t Tasten und b Bereichsencoder würden einfach der Reihe nach, einer bestimmten standardisierten Midi Event Liste folgend, aus dem Gerät ausgespuckt/rausgeschickt werden. Man kann sich dies so ähnlich wie den General Midi Standard vorstellen. Wenn ich z.B. zwei solch einen Standard unterstützende Geräte kaufen würde, die die gleiche Anzahl an Tasten und Bereichsencodern besitzen, sollten sie auch am Midi-Ausgang jeweils die gleichen Midi Events ausspucken. Nur als Beispiel, wie man dies handhaben könnte: Tasten schicken Note On/Off angefangen bei der Note mit pitch = 0, jede weitere Taste weiter hoch bis pitch = 127 und Midi-Kanal = 1. Hat man mehr als 128 Tasten im Gerät, macht man einfach weiter im Midi-Kanal = 2. Für die Bereichsencoder nach dem gleichen Schema, nur anstatt von Note On/Off benutzt man CC, entweder als 7bit oder besser gleich alle(!) mit 14bit. Für Switch-Funktionen für Bänke, Presets, Speicherplätze für Sequence-Patterns kann man Program Change hernehmen, auch einem Standard folgend. Für die Sequence-Patterns an sich, also die Noten, Pitchbend, CC --> Midi-Dateien. Das erste Gerät würde Midi-Port = 1 benutzen, das zweite Gerät Midi-Port = 2 ... (z.B. für Windows-Nutzer, Midi-Yoke unterstützt sowieso 16 Midi-Ports.) Nur das Design der Geräte wäre anders, ihre Farben, die Qualität der Materialien, die Anordnung der Tasten und Bereichsencoder.
- Ein Display oder eine Rückmeldung wird nicht benötigt, das Ohr ist das Display! Die vorhandenen Geräte sollte man sowieso auswendig kennen, welcher Regler macht was, schliesslich entwickelt man ja ihr eigenes persönliches System.

Vielleicht bin ich der Einzige der ein persönlich angepasstes System haben möchte? :| Nur als ein passendes Beispiel hier, das Mackie Control System finde ich absolut unbrauchbar für Live-Set/Performance Manipulationen. Natürlich kenne ich den ganzen Rest auch kaum aus der Praxis... nur eins ist klar, auf die Falle der Werbeversprechungen seitens der Unternehmen darf man nicht hereintappen? Ausser man hat keine eigene Vision und Ideen wie man Musik komponieren will, ja dann kann man getrost den produzierten Müll konsumieren. :heul: Hauptsache Konsum, egal ob Handy oder Mp3-Player oder Midi-Controller oder Hardware-Sequencer, nicht wahr?! :prost:
 
TonE schrieb:
Max schrieb:
Ausser man hat keine eigene Vision und Ideen wie man Musik komponieren will, ja dann kann man getrost den produzierten Müll konsumieren. :heul: Hauptsache Konsum, egal ob Handy oder Mp3-Player oder Midi-Controller oder Hardware-Sequencer, nicht wahr?! :prost:


Ich bin mir doch einigermassen sicher das es bereits einen ganzen Batzen an Menschen gegeben hat (und weiterhin geben wird) ,die mit den vorhandenen Mitteln zu musikalisch durchaus achtbaren Ergebnissen gekommen sind.Wüsste nicht das man seit neustem spezielles Equipment erst erfinden müsste um (s)eine ganz persönliche"Vsion"umzusetzen.Ich bin in der Lage mich von den vorhandenen Möglickeiten weit genug inspirieren zu lassen.Sicher,es gibt immer was "noch nicht vorhandenes"dem man hinterherträumt aber ich setz mich dann nicht hin und warte bis es einer erfindet.Persönlich würde ich mir wünschen das sich mal einer des ganzen Kabelsalates annimmt :)
 
Crabman schrieb:
... Sicher,es gibt immer was "noch nicht vorhandenes"dem man hinterherträumt aber ich setz mich dann nicht hin und warte bis es einer erfindet.
Träumen sollte man wirklich nicht, der Vsti-Plugin Standard und der Midi-Standard sollten doch genug Beweise sein, wofür Standards gut sein können. Für die Kommunikation untereinander, man spricht eine gemeinsame Sprache, ein gemeinsames Protokoll, eine gemeinsame Schnittstelle. Wieso sollte es nicht auch einen Standard für die Intelligenz von Midi-Controllern und Step/Pattern-Sequencern (hardware oder software) geben?
 
Crabman schrieb:
TonE schrieb:
Max schrieb:
Ausser man hat keine eigene Vision und Ideen wie man Musik komponieren will, ja dann kann man getrost den produzierten Müll konsumieren. :heul: Hauptsache Konsum, egal ob Handy oder Mp3-Player oder Midi-Controller oder Hardware-Sequencer, nicht wahr?! :prost:
...

Da hast du was falsch zitiert, das hab ich nie geschrieben...

@TonE: wenn ich dein Fazit lese, frage ich mich vor allem, wo denn da genau der grosse Unterschied zu herkoemlichen MIDI-Controllern sein soll? (ausser der Standardisierung von Controller-Nummern etc.) - die haben doch sowieso kaum Intelligenz eingebaut...

Ich verstehe denk ich in etwa, was du haben willst, aber ich bin mir sehr sicher, dass das so nicht geht. Wenn du deine "Intelligenz" selber erstellen willst, gibt es zwei "Extreme":

A) Alles ist moeglich, wenig ist vorgefertigt (= Programmiersprache)

B) Wenig ist moeglich, viel ist vorgefertigt (= fertiges System)


"Dazwischen" gibt es z.B. Max/Msp, Reaktor oder aehnliches.

Es gibt aber immer diesen Tradeoff... man kann nie alle Moeglichkeiten abdecken.

Was natuerlich schon geht, ist dass man fuer ein spezielles Anwendungesgebiet (z.B. Stepsequencer, Audiobearbeitung) viele fertige Module anbietet.
 
Max schrieb:
@TonE: wenn ich dein Fazit lese, frage ich mich vor allem, wo denn da genau der grosse Unterschied zu herkoemlichen MIDI-Controllern sein soll? (ausser der Standardisierung von Controller-Nummern etc.) - die haben doch sowieso kaum Intelligenz eingebaut...
APC40 und Machine wären doch schon mal zwei Gegenbeispiele oder? Die dort "eingebaute Intelligenz" verursacht vermutlich auch die grössten Anteile der Gesamtherstellungskosten, aber das können Ableton oder NI bestimmt ganz genau beantworten, wäre eine interessante Frage für die nächsten Interviews, wo sind die Musikzeitschriften?

Wenn du deine "Intelligenz" selber erstellen willst, gibt es zwei "Extreme":
A) Alles ist moeglich, wenig ist vorgefertigt (= Programmiersprache)
Das sehe ich anders, alles ist möglich und Tausende von Intelligenz-Plugins sind offen mit Source-code verfügbar, schön nach Kategorien sortiert und immer mit Angabe von Mindestanforderungen an den Midi-Controller, also Anzahl der Tasten und Anzahl der Bereichsencoder. Ich stelle mir eine Intelligenz-Plugin-Datenbank vor, wo ich oben einfach die Anzahl meiner Hardware-Kontroller eingebe, jeweils mit Angabe der vorhandenen Tasten und Bereichsencoder, dann klicke ich auf SUCHEN und erhalte eine Liste an Intelligenz-Plugins für verschiedene Kategorien, die zu meiner "Hardware-Menge" passen würden. Kann dann jede für sich entscheiden, was sie wie, wo einsetzen will. Die Orthogonalität unter den verschiedenen Geräten, kann z.B. über getrennte Midi-Ports garantiert werden. Und innerhalb eines Gerätes, also eines Midi-Ports, sollte die Orthogonalität der Features automatisch (!) garantiert werden. 16 orthogonale Midi-Kanäle hätte man ja gleich auf Anhieb, ohne grosse "intelligente Verteilungscodes". Wenn jemand sagen wir mal 4 Midi-Controller und 2 Hardware-Sequencer (einmal für Drums, einmal für den Rest) hätte, sollte es z.B. auch "ganz locker nebenbei" möglich sein, per einzigem Tastendruck die gesamte Intelligenz in all diesen 6 Geräten auf einmal zu ändern, also zwischen mehreren Intelligenz-Varianten schnell umzuschalten. Die Intelligenz-Module wären ja extern, erinnern wir uns und Codes kann man schnell "reloaden",
während die Musik weiterläuft und die Tanzfläche kocht. :musikmach: :sequ: :tribe: :ms20: :massen:

B) Wenig ist moeglich, viel ist vorgefertigt (= fertiges System) ... dass man fuer ein spezielles Anwendungesgebiet (z.B. Stepsequencer, Audiobearbeitung) viele fertige Module anbietet.
Ist Intelligenz kein spezielles Anwendungsgebiet? Mir geht es um die Gesamtperspektive auf die Summe aller vorhandenen Geräte und deren Gesamtintelligenz, die zueinander passen und sich irgendwie gegenseitig unterstützen. Wie es jetzt aussieht wissen wir ja alle. :selfhammer: :agent: :konzert: :regen:
 
TonE schrieb:
Mir geht es um die Gesamtperspektive auf die Summe aller vorhandenen Geräte und deren Gesamtintelligenz, die zueinander passen und sich irgendwie gegenseitig unterstützen. Wie es jetzt aussieht wissen wir ja alle. :selfhammer: :agent: :konzert: :regen:

Aeh... nein. Die Beschreibung ist viel zu abstrakt, es soll "irgendwie" intelligent sein und die Geraete sollen sich "irgendwie" gegenseitig unterstuetzen...

Wie gesagt, ich verstehe die Vision dahinter - aber wie das jetzt konkret aussehen soll... schwierig...
 
Max schrieb:
Aeh... nein. Die Beschreibung ist viel zu abstrakt, es soll "irgendwie" intelligent sein und die Geraete sollen sich "irgendwie" gegenseitig unterstuetzen... aber wie das jetzt konkret aussehen soll... schwierig...
Das "irgendwie" oben bezog sich nur darauf, wie genau die Aufgabenverteilung erfolgen soll, aber wie es geschehen kann habe ich eigentlich oben schon geschrieben, durch orthogonale Verteilung der Aufgaben im 3D-Raum, so dass die Befehle sich nicht in die Quere kommen und somit entsprechend voraussagbare Funktionalität der jeweiligen Module im Gesamtsystem garantiert ist.

Wie es konkret aussehen kann? Viele viele Open-Source (oder von mir aus auch Closed-Source wenn diese Methode z.B. für Keykit auch noch eingeführt wird) Codes für Funktionen und Methoden für die jeweilge Intelligenzfunktion.

Code:
GesamtIntelligenz    =    Intelligenz1  +  Intelligenz2  +  ...  +  IntelligenzN
mit N = beliebig lang, wie es die vorhandene Hardware und Softwareintelligenzmodule erlauben.
 
An Numerology hängt man ein Launchpad an und hat, was man will - In dem Falle eine Lauflichtluxuskonsole.
Einbindung sollte heute vom Hersteller sein ohne Krücken. Man sieht, dass es geht wenn man will. Notfalls müsste man wohl dafür "geld nehmen" oder die Hersteller bitten, dies umzusetzen für alle wichtigen DAWs ohne Plattformbevorzugung. Live, Logic, Cubase..
 
Ich verstehe noch nicht wieso man bei Soundanwendungen, farbige Tasten und laufende Lichter braucht? All diese blinkenden Lichter lenken doch eher von der Musik ab, sieht vielleicht interessant aus für die Augen, wäre dies nicht die Aufgabe von VJs, aber für den Klang produktiv?! - aus meiner Sicht eher nicht, eher kontraproduktiv. Wenn als Zustandsinformation, dann eher zurückhaltend, so ähnlich wie bei der RS7000 zum Beispiel.
 


Zurück
Oben