Ist es OK, alle Menschen und deren Verhaltensweisen in einen Topf zu werfen? Da werden ja zwangsläufig manche Menschen diskriminiert. Wobei ich nicht sagen kann, ob das Problem nicht genauso besteht, wenn Menschen entscheiden.
Ehe wir dieses Fass aufmachen, zurück zur Musik: Ist es richtig oder falsch, zunächst einmal unsere Musik zu analysieren und maschinell zu erschließen (das heißt, zu programmieren), also wieder mal unseren Eurozentrismus zu pflegen? Was ist mit der rhythmisch viel weiter entwickelten afrikanischen Musik oder die ursprüngliche aus Indien oder Südamerika oder Sibirien? Diskriminieren wir mit unserem Fokus nicht diese Musikkulturen? Oder im Gegenteil: Wenn die maschinelle Erschließung moralisch abzulehhnen ist, so ist es vielleicht auch eine Sache des Respekts, andere Kulturen verdammt noch eins in Ruhe zu lassen?
Ich beschäftige mich nun schon seit ein paar Jahren mit Musikprogrammierung und bin mir bewusst, dass ich mit 20% des investierbaren Aufwands schon recht weit komme, aber für die restlichen 20% 80% des Aufwands zu leisten wäre. Aber wozu eigentlich? Um Musiker arbeitslos zu machen? Denn das würde passieren, nicht weil programmierte Musik besser wäre, sondern weil sich das Ohr an ihre relative Informationsarmut gewöhnt, bald jegliche unregelmäßigen Eigenarten als Fehler ablehnt.
Das passiert ja heute Straß ab, Straß auf auf anderem Gebiet: Ist euch schon aufgefallen, dass diese kiezdeutsch-sprachigen instagramligen Schaufensterpüppchen und Wimperntussis alle irgendwie gleich aussehen? Mir müssen die ja nicht mehr gefallen, aber man sieht, dass offenbar ein paar wenige "Influencer" das Sagen haben.
Diese Gleichmacherei könnte auch der Musik drohen, wobei - ist das nicht eh schon so im Popbereich? Die ist doch auch programmiert, wenn auch nicht in Code, sondern in eingeschliffenen Routinen am Pult. Gibt es heute noch Conny Planks?
So lese ich weiter gemeinfreie notierte Musik und interpretiere sie, übersetze sie in eine maschinell eindeutige Sprache, meinetwegen in mehr oder weniger sterile Samples, um die Noten zum Klingen zu bringen und eben um interessierten Dritte zu zeigen, wie viel Programmierung in der notierten Musik steckt. (Wäre Beethoven heute Programmierer?) Meine Kreativität lässt also die Frage, wann welche Töne wie lange und wie artikuliert zu werden haben außer Acht, das ist alles Handwerk. Die Kreativität beschränkt sich allein auf die Umsetzung von Notationszeichen in Parameterwerte und auf die Klangcharakteristik und perspektivisch auf die klangliche Differenzierung zwischen Motiven, Phrasen und Themen, so dass ein Werk, ursprünglich komponiert für Klavier oder
ein anderes Instrument klingt wie von Vögeln im Urwald orchestriert.
Die Semantik lasse ich also außen vor, wenn man so will, die erschließe ich mir nach Kräften weiterhin annähernd so, wie man es vielleicht an einer Musikhochschule lernen würde: Lesen, probieren, hören, andere mit meinen Versuchen belästigen, lernen. Diese auch zu programmieren wird mich dernst auch noch reizen, wenn die Syntax durch ist, aller Unkenrufe von heute zu Trotz, das würde ich gar nicht wollen. Ähnliches habe ich mal über mein Tonleiterngrid gedacht. Muss ich wohl versehentlich mal programmiert haben. Wie dem auch sei, falsche Töne, die ich nicht höre, kann ich so quasi über Bande entdecken, das geht schon in Richtung Semantik.