Moogulator
Admin
Das zu diskutieren, auseinander zu nehmen und ggf. sogar zeigen, dass ich einfach nicht Recht habe.Grundsatzidee
Oder ggf. gibt es andere Wege. Worte.
Keine Ahnung, was raus kommen kann, ich antworte aber zu viel, ich will das eigentlich nicht wie ein Rechtehaber verteidigen. Aber sowas in der Art tue ich gerade
Für den Roboterarm: jaAnlernen finde ich also nicht so falsch, auch wenn ich den Begriff selbst nicht verwende.
Ein Synth ist ja nur einstellen, da fehlt der Lernfaktor.
Ein Synth kann nur die Werte zurück laden, also Sound 1, 2... aber das Gegenstück zu nachführen fehlt. Oder?
Schaun wir mal genauer hin:
Zielgerichtete Konfiguration: Beide Prozesse zielen darauf ab, ein System für eine bestimmte Aufgabe oder einen bestimmten Klang zu konfigurieren.
Sowohl beim Roboter-Teach-In als auch bei der Synthesizer-Programmierung erfolgt die Einstellung oft schrittweise und erfordert Feinabstimmungen.
und das folgt parameterbasiert: Beide Systeme verwenden Parameter, um das Verhalten oder den Klang zu definieren. quasi Variablen.
Aber da fehlen noch die Kontrollstrukturen. Eine Bewegung hat schon ein Programm - es läuft ab - fährt diese Teile ab - aber wenn-dann ist vermutlich da nicht drin - das passiert vielleicht eher bei Robotern, die zB unterschiedliche Wege gehen kann, zB Kaffee kochen - wenn kein Kaffee da ist Tee oder Kaffee kaufen oder sowas..
Ist aber jetzt bisschen weit her geholt von mir. Ist nur so ein Gedanke.
Roboter haben nur bestimmte Bewegungsoptionen, aber das können wir ggf. vernachlässigen.
Das Feedback ob das alles passt mit dem Teach-in ist quasi durch angucken und nachstellen, beim Synth hören, also müssen wir diesen Job machen, spielt aber beim Begriff noch keine Rolle, nur so fürs Protokoll.
Der Roboter wird eine Bewegung exakt nachstellen, ein Synth wird den Sound nachstellen - allerdings auch nur nach dem, was der Nutzer vorher eingestellt hat.
Indirekt sind das schon ähnliche Dinge.
Wenn man Synth und Roboter vergleicht:
Während beide Prozesse zum Ziel haben, ein System zu einzustellen (das wäre nicht programmieren), unterscheiden sie sich in der Art der Kontrolle, dem Feedback und der Zielsetzung. Die Parametereinstellung bei Synthesizern ist "kreativer" und flexibler als Gelenke steuern, während das Teach-In bei Robotern eher auf Präzision und Wiederholbarkeit ausgerichtet ist. Es hat aber keine Bedingungen oder sowas, es ist relativ dumm.
Das Einstellen selbst ist dann eben der Sound oder die Bewegung. Das eine ist mechanisch, das andere per Zahl (oder sogar auch mechanisch, wenn das zB ein ARP2600 oder sowas wäre). Zahl und Roboter und so - ja, das ist digital - das ist schon alles richtig.
Aber - Ich bin noch nicht klar, mit der Logik wie man das vergleichen kann.
Vielleicht hast du Bock, findest du meine Einlassung halbwegs sinnvoll? Kannst du gern verändern. Ggf. Denkfehler drin? Oder Definition anders? Das wäre ja interessant.
Das Feedback ob das alles passt mit dem Teach-in ist quasi durch angucken und nachstellen, beim Synth hören, also müssen wir diesen Job machen, spielt aber beim Begriff noch keine Rolle, nur so fürs Protokoll.
Der Roboter wird eine Bewegung exakt nachstellen, ein Synth wird den Sound nachstellen - allerdings auch nur nach dem, was der Nutzer vorher eingestellt hat.
Indirekt sind das schon ähnliche Dinge.
Wenn man Synth und Roboter vergleicht:
Während beide Prozesse zum Ziel haben, ein System zu einzustellen (das wäre nicht programmieren), unterscheiden sie sich in der Art der Kontrolle, dem Feedback und der Zielsetzung. Die Parametereinstellung bei Synthesizern ist "kreativer" und flexibler als Gelenke steuern, während das Teach-In bei Robotern eher auf Präzision und Wiederholbarkeit ausgerichtet ist. Es hat aber keine Bedingungen oder sowas, es ist relativ dumm.
Das Einstellen selbst ist dann eben der Sound oder die Bewegung. Das eine ist mechanisch, das andere per Zahl (oder sogar auch mechanisch, wenn das zB ein ARP2600 oder sowas wäre). Zahl und Roboter und so - ja, das ist digital - das ist schon alles richtig.
Aber - Ich bin noch nicht klar, mit der Logik wie man das vergleichen kann.
Vielleicht hast du Bock, findest du meine Einlassung halbwegs sinnvoll? Kannst du gern verändern. Ggf. Denkfehler drin? Oder Definition anders? Das wäre ja interessant.
Ich versuche es mal zu fokussieren:
Der Begriff "Programmierung" wird in diesen Teach-in und Synth-Sounds eher metaphorisch verwendet, um den Prozess der gezielten Einstellung und Konfiguration zu beschreiben.
Es ist präziser zu sagen, dass sowohl die Parametereinstellung bei Synthesizern als auch das Teach-In bei Robotern Formen der Systemkonfiguration sind, nicht der Programmierung im engeren Sinne. Beide Prozesse zielen darauf ab, ein System für bestimmte Aufgaben oder Outputs zu optimieren, ohne dabei klassische Programmiertechniken zu verwenden.
Der Weg wäre das:
- Direkte Manipulation: In beiden Fällen werden Parameter oder Positionen direkt eingestellt oder "gelehrt".
- Zielgerichtetes Einstellen: Sowohl bei Synthesizern als auch bei Robotern hat man ein klares Ziel (bestimmter Klang oder bestimmte Bewegung) und stellt entsprechend ein.
- Erfahrungsbasierte Einstellung: In beiden Fällen basiert die Einstellung auf dem Wissen und der Erfahrung des Bedieners. Man weiß, wie ein Filter einzustellen ist oder welche Bewegung der Roboter ausführen soll.
- Speichern und Abrufen: Beide Systeme erlauben es, Einstellungen zu speichern und später wieder abzurufen.
- Schrittweise Anpassung: Oft erfordert sowohl die Synthesizer-Einstellung als auch das Roboter-Teach-In mehrere Durchgänge zur Feinabstimmung.
Zuletzt bearbeitet: