Synthesizer programmieren - eine Grundsatzidee

Das zu diskutieren, auseinander zu nehmen und ggf. sogar zeigen, dass ich einfach nicht Recht habe.
Oder ggf. gibt es andere Wege. Worte.

Keine Ahnung, was raus kommen kann, ich antworte aber zu viel, ich will das eigentlich nicht wie ein Rechtehaber verteidigen. Aber sowas in der Art tue ich gerade ;-)

Anlernen finde ich also nicht so falsch, auch wenn ich den Begriff selbst nicht verwende.
Für den Roboterarm: ja
Ein Synth ist ja nur einstellen, da fehlt der Lernfaktor.
Ein Synth kann nur die Werte zurück laden, also Sound 1, 2... aber das Gegenstück zu nachführen fehlt. Oder?

Schaun wir mal genauer hin:

Zielgerichtete Konfiguration: Beide Prozesse zielen darauf ab, ein System für eine bestimmte Aufgabe oder einen bestimmten Klang zu konfigurieren.

Sowohl beim Roboter-Teach-In als auch bei der Synthesizer-Programmierung erfolgt die Einstellung oft schrittweise und erfordert Feinabstimmungen.

und das folgt parameterbasiert: Beide Systeme verwenden Parameter, um das Verhalten oder den Klang zu definieren. quasi Variablen.
Aber da fehlen noch die Kontrollstrukturen. Eine Bewegung hat schon ein Programm - es läuft ab - fährt diese Teile ab - aber wenn-dann ist vermutlich da nicht drin - das passiert vielleicht eher bei Robotern, die zB unterschiedliche Wege gehen kann, zB Kaffee kochen - wenn kein Kaffee da ist Tee oder Kaffee kaufen oder sowas..

Ist aber jetzt bisschen weit her geholt von mir. Ist nur so ein Gedanke.
Roboter haben nur bestimmte Bewegungsoptionen, aber das können wir ggf. vernachlässigen.

Das Feedback ob das alles passt mit dem Teach-in ist quasi durch angucken und nachstellen, beim Synth hören, also müssen wir diesen Job machen, spielt aber beim Begriff noch keine Rolle, nur so fürs Protokoll.

Der Roboter wird eine Bewegung exakt nachstellen, ein Synth wird den Sound nachstellen - allerdings auch nur nach dem, was der Nutzer vorher eingestellt hat.
Indirekt sind das schon ähnliche Dinge.

Wenn man Synth und Roboter vergleicht:

Während beide Prozesse zum Ziel haben, ein System zu einzustellen (das wäre nicht programmieren), unterscheiden sie sich in der Art der Kontrolle, dem Feedback und der Zielsetzung. Die Parametereinstellung bei Synthesizern ist "kreativer" und flexibler als Gelenke steuern, während das Teach-In bei Robotern eher auf Präzision und Wiederholbarkeit ausgerichtet ist. Es hat aber keine Bedingungen oder sowas, es ist relativ dumm.

Das Einstellen selbst ist dann eben der Sound oder die Bewegung. Das eine ist mechanisch, das andere per Zahl (oder sogar auch mechanisch, wenn das zB ein ARP2600 oder sowas wäre). Zahl und Roboter und so - ja, das ist digital - das ist schon alles richtig.
Aber - Ich bin noch nicht klar, mit der Logik wie man das vergleichen kann.

Vielleicht hast du Bock, findest du meine Einlassung halbwegs sinnvoll? Kannst du gern verändern. Ggf. Denkfehler drin? Oder Definition anders? Das wäre ja interessant.

Ich versuche es mal zu fokussieren:

Der Begriff "Programmierung" wird in diesen Teach-in und Synth-Sounds eher metaphorisch verwendet, um den Prozess der gezielten Einstellung und Konfiguration zu beschreiben.

Es ist präziser zu sagen, dass sowohl die Parametereinstellung bei Synthesizern als auch das Teach-In bei Robotern Formen der Systemkonfiguration sind, nicht der Programmierung im engeren Sinne. Beide Prozesse zielen darauf ab, ein System für bestimmte Aufgaben oder Outputs zu optimieren, ohne dabei klassische Programmiertechniken zu verwenden.


Der Weg wäre das:

  1. Direkte Manipulation: In beiden Fällen werden Parameter oder Positionen direkt eingestellt oder "gelehrt".
  2. Zielgerichtetes Einstellen: Sowohl bei Synthesizern als auch bei Robotern hat man ein klares Ziel (bestimmter Klang oder bestimmte Bewegung) und stellt entsprechend ein.
  3. Erfahrungsbasierte Einstellung: In beiden Fällen basiert die Einstellung auf dem Wissen und der Erfahrung des Bedieners. Man weiß, wie ein Filter einzustellen ist oder welche Bewegung der Roboter ausführen soll.
  4. Speichern und Abrufen: Beide Systeme erlauben es, Einstellungen zu speichern und später wieder abzurufen.
  5. Schrittweise Anpassung: Oft erfordert sowohl die Synthesizer-Einstellung als auch das Roboter-Teach-In mehrere Durchgänge zur Feinabstimmung.
 
Zuletzt bearbeitet:
Ich finde, das ist genau entsprechend der Definition eines "Programms". In dem Moment, in dem ich das Signal eines LFOs zur Modulation in den Modulations-Eingang eines Filters einstecke, bewirke ich eine genau definierte und vorhersehbare Ablaufsteuerung dessen, was im zeitlichen Verlauf mit dem resultierenden Klang geschehen wird. Ich "programmiere" meinen Synthesizer, indem ich durch meine Handlung vorherbestimme, was in der Zukunft als klangliches Resultat meiner Handlung geschehen wird.

Ein modularer Synthesizer ist ein Analog-Rechner. Ein Analog-Rechner wird von Programmen gesteuert, die durch Verbindungen der Patch-Punkte einzelner Module vorbestimmt werden. Die Rechenergebnisse werden von den Einstellungen der Operatoren (Parameter) bestimmt. So würde ich das definieren.
Darüber denke ich noch mal nach - spontan würde ich das als IT Typ ziemlich seltsam finden, unlogisch ist es aber nicht.
Aber die Tätigkeit würde ich Patchen, Bauen, Erstellen - nennen, sicher nicht programmieren eines Euroracks. Das wirkt irgendwie falsch.

Analoge Rechner könnten eine Art Bindeglied sein - zudem sie auch "Sounds" erzeugen könnten.
Aber auch hier ist vielleicht das Ding dabei - wie wir jeweils Programmieren definieren - als solches.
Das was ich hier mache ist eigentlich mein Verständnis zu schildern mit genau meinem Hintergrund. Das ist oder kann einseitig sein. So, wie als ich Elektro oder Techno (bevor des das als Stil gab) für mich reklamieren wollte oder New Wave oder sowas, was unbedingt elektronisch zu sein hatte oder sowas - also Wunschdenken mit etwas Wahrheit ;-)

Also ich stelle mich hiermit in Frage.
 
Also ich stelle mich hiermit in Frage.
Danke. Sich in Frage zu stellen ist immer gut und das geht mir natürlich auch so. Ich weiß natürlich auch nicht, ob ich hier "Recht habe" ... (wobei Rechthaberei natürlich sowieso doof wäre.) Ich habe tatsächlich zum ersten Mal über diese Frage nachgedacht durch einen Post von @fanwander, in dem er sinngemäß sagte, dass ein analoger Synthesizer im Prinzip immer ein "Computer" sei ... Ich konnte das zuerst nicht nachvollziehen, aber je mehr ich darüber nachdachte, desto klarer wurde es. Ich würde allerdings inzwischen lieber von "Rechner" sprechen als von "Computer" und eher nur von Modularsynths als auch von fest verdrahteten Instrumenten, denn ich glaube, dass die freie Kombination der Module schon eine gewisse Voraussetzung ist, um von einer "Programmierbarkeit" zu sprechen.
 
Zuletzt bearbeitet:
Auch dazu müsste ich nochmal nachdenken. Es kann ja sein, dass ich zu digital und zu sehr in IT denke - ich mag natürlich auch, ich programmiere etwas zu sagen, weil das so schön nach Können, Wissenschaft und klar wissen was man tut klingt. Es überhöht mich als Bediener eines Synths.

Das hätte ich in den 70/80ern super gefunden, weil ich das eh für die beste Methode der Musik hielt.

Bei einem analogen Synth finde ich nur diese Bezeichnung klingt so dermaßen unpassend für meinen Hintergrund, aber vielleicht muss ich mehr an SciFi der 60er denken, wo es Elektronengehirne gab und man den Computer fütterte.
 
Na ja, in Frankreich macht die Académie Française genau das. Sie "normieren" die französische Sprache. Dass der DUDEN das eben nicht macht, sondern rein beschreibend vorgeht, steht unter manchen Germanisten permanent unter Kritik. Ich persönlich finde es gut, dass es bei uns bisher keine Normierungs-Versuche der deutschen Sprache gibt.

dafür gibt es ja dann dirk matten.

und deutschlehrer natürlich.


Bei einem analogen Synth finde ich nur diese Bezeichnung klingt so dermaßen unpassend für meinen Hintergrund, aber vielleicht muss ich mehr an SciFi der 60er denken, wo es Elektronengehirne gab und man den Computer fütterte.

"...ganz auf Liebe programmiert..."
 
aber um noch mal zum ernst zurückzukommen.

der duden mag bechreiben wie worte verwendet werden, aber er vermag nicht zu erklären, wann es nicht eventuell gerade ein noch besseres wort dafür gibt.

beim programmieren eines digitalen synthesizers besteht in der praxis das problem, dass "einen synthesizer programmieren" mehrere bedeutungen hat, so dasss man zum zwecke der abgrenzung verschiedener tätigkeiten voneinander wohl sinnvollerweise verschiedene begriffe verwendet.

bei einem korg wavestation hat erst der programmierer die software programmiert, und danach programmiert der sounddesigner patches.

wenn jetzt ein kleinkind daherkommt und gelangweilt am filterknopf dreht, und du das auch "einen synthesizer programmieren" nennen willst, dann streiten sich hier schon 3 leute darum, wer den "synthesizer programmiert" hat.

irgendwo muss eine grenze sein, auch wenn sie weich ist, und auch wenn wir dann vielleicht keinen konsens darüber finden wewrden, wo sie ist.

du kannst es auch "einen synthesizer programmieren" nennen wenn du dir ein butterbrot schmierst, denn mit ausreichend begründungsfantasie ist auch ein stück brot ein musikinstrument, und der belag ist eine art programmierung. aber das hilft halt nicht gerade beim kommunizieren.


statt die grenzen auszuloten wie man etwas gerade noch nennen darf, ohne dass der streitgegner gleich beweisen kann, dass es quatsch ist sollten wir daher versuchen, den bestmöglichen begriff dafür zu finden.

in einem modularsystem patcht man üblicherweise, bei einem digitalsynth stellt man etwas ein.

"ich habe gestern etwas an meinem modularsystem etwas programmiert" mag nicht falsch sein, aber man weiß eben auch nicht wirklich was gemeint ist, weil es halt aufgrund der mehrfachbedeutung erst mal so klingt als ob du eine software für ein digitales modul modifiziert hättest.
 
Zuletzt bearbeitet:
Der Roboter wird eine Bewegung exakt nachstellen, ein Synth wird den Sound nachstellen - allerdings auch nur nach dem, was der Nutzer vorher eingestellt hat.
Indirekt sind das schon ähnliche Dinge.
Jetzt wo ich nochmal darüber geschlafen habe, kingt Teachen (Teach-in) doch zu sehr nach Arbeit, zu der ich jetzt dann gleich hin muss:sad:
Mit Spass zu haben hat das nicht viel zu tun.

Wie wärs mit herantasten? Zielführend natürlich mit einer Vision;-)
 
Doch, bei einem Modularsystem oder Analog-Rechner eben schon.
Auch bei einem Kompaktsynth mit Modmatrix kann man - in einem gewissen Rahmen - diese Richtungen und Abläufe vorgeben. Das fängt schon damit an, dass ich am Polybrute die Filter parallel oder seriell betreiben kann, oder das ein Oszillator die Frequenz (oder den Hub) eines LFOs moduliert, der dann wieder einen anderen Oszillator modulieren kann. Dafür brauche ich kein Modularsystem, obwohl man dort in der Regel natürlich noch um einiges flexibler ist.

Nebenfrage: Also sobald ein Synth Turing-Vollständig ist, dürfte man von Programmieren sprechen? Dazu braucht er aber vermutlich mindestens einen Stepsequencer, bei dem sich die Steps modulieren lassen, oder? ;-)
 
Zuletzt bearbeitet:
sicher, aber du hast mehr Kontroller als der, der den Synth programmiert hat - der kann sagen ob eine Hüllkurve 4 oder 7 Segmente hat, ob und wo sie loopt und kann sie total frei bauen - ein reiner Einsteller kann nur das einstellen, was der Coder bestimmt
Das ist abstrakt gesehen, wie mit Programmiersprachen, die alle auf Maschinensprache aufbauen. Und die Systemarchitektur, die du programmierst, ist gegeben. Ob du mit Maschinensprache programmierst oder dir einen eigenen Computer baust, ist keine Voraussetzung dass du ein Level höher programmieren kannst.
 
Wenn ich bei Synthesizern den Begriff "Programmieren" verwende, dann bei Sachen, bei denen man sich wie ein Programmierer vorkommt. Also bei allem was mit Menu-Diving zu tun hat oder die Bedienung unübersichtlich/verschachtelt ist, wie beim DX7 zum Beispiel. Aber auch beim, für mein Empfinden sehr übersichtlichen, Digitakt "programmiere" ich Beats, weil ich sie eintippe und Pitch/Velocity/Gate nachträglich bearbeite.

Der Begriff "Programmieren" im Kontext von Synthesizer-Sounddesign ist nicht im strengen informatischen Sinne korrekt.
Das stimmt, aber Programme gibt es nicht nur in der Informatik.

Bei der Erstellung von Synthesizer-Sounds handelt es sich primär um das Einstellen von Parametern innerhalb eines vordefinierten Synthesemodells, nicht um das Schreiben von Programmcode mit Kontrollstrukturen, Schleifen oder bedingten Anweisungen.
Ein Programm kann auch ein definierter Ablauf von Ereignissen oder eine bestimmte Einstellung von Parametern sein. Du kannst dir also ein Preset (Programm) programmieren. Bei Modular sind Patches und Settings auch Programme. Da eine Setlist auch ein Programm ist und man diesen Begriff für Vieles verwenden kann, hat man hier Patches, dort Presets und da Sounds. Ist aber alles programmierbar oder vorprogrammiert.
 
Zuletzt bearbeitet:
So isses.

Beim Wort 'programmieren' hat sich in D die Computerei derart in den Vordergrund gedrängelt (wie man hier im Thread gut sieht), dass Wendungen wie "Nashville Radio programmiert Country Musik" oder "Der Pfarrer programmiert die Christmette" schon komisch klingen. Im Engl. klingen sie übrigens ganz normal.

Dann wollen natürlich die 'echten' Programmierer auch nicht, dass ihr Tun mit einfachem Scripten gleichgesetzt wird (oder gar dem Rumschieben, Parametrieren und Versehen mit Gummi-Linien von Kästchen am Bildschirm) - und schon sind wir bei komplizierten Scheindefiitionen...

Wenn ich aufschreibe: Sägezahn, Tiefpass, Resonanz hochdrehen, schneller Attack, langer Decay, splitten und vorm VCF nochmal reinmischen, leichten Glide und Cutoff-Hüllkurve bei jeder Taste triggern - dann ist das ein Programm. Den Musiker kratzt nicht, was der Informatiker oder Techniker dazu sagt.
 
Streng genommen ist das was man mit einem Synthesizer macht in einem Großteil der Fälle Konfiguration und Nutzung, wenn man es im IT Sinne sieht.
 
Lieber @Cee, man kann die Grenzen jedes Begriffs ausdehnen, bis sie unscharf geworden sind. Gewonnen ist damit nichts, verloren einiges. Und da wir uns hier in einem technikaffinen Forum bewegen, sind Privatdefinitionen von Begriffen recht störend.

Deine Beispiele aus dem Englischen zeigen im Übrigen nur, dass Begriffe wie "programmieren" auch metaphorsch verwendet werden können. Das machen wir im Deutschen auch, etwa wenn wir etwas sprachfaul schreiben "...damit sind zukünftige Konflikte bereits programmiert". Aus derartigen Alltagsverwendungen würde ich aber kein Argument in einem Thread destillieren wollen, in dem nach Präzision gefragt wurde.
 
Das machen wir im Deutschen auch, etwa wenn wir etwas sprachfaul schreiben "...damit sind zukünftige Konflikte bereits programmiert".
"Vorprogrammiert" bezieht sich in diesem Zusammenhang aber nicht auf die Programmiersprache, sondern das Programm eines Theaters o.ä. 🤷‍♂️
 
Ich wollte nochmal betonen, dass sich die Metapher nicht auf die Informatik bezieht.
Sagt ja auch keiner, dass sich das Programmieren eines Synths auf die Informatik beziehen muss.

Das Grundproblem ist hier m.E., dass das Wort "Programmierung" mehrere/viele Bedeutungen hat. Die Erstellung von logischen Anweisungen auf einem Digitalrechner ist nur eine davon ...
 
Nachdem ich jetzt eine Nacht darüber geschlafen habe, ergibt sich folgendes Szenario für mich:

Stellen wir uns das größte und komplexeste Modularsystem vor, das überhaupt denkbar und möglicherweise sogar realisierbar ist: Zig tausende Euroräcker weltweit stellen ihre Geräte zur Verfügung und übernehmen die Voreinstellungen.
Diese Einstellungen hat ein einziger Komponisten erdacht. Sogar CV-Signale werden ADDACisiert und per Internet in Echtzeit um den Planeten geschickt.

Um dem Ganzen einen künstlerischen Sinn (?) zu geben: Das Musikstück/Sounddesign heißt "Noise of Now" und thematisiert die Schönheit des Wartens. Latenzen entstehen "einfach so" und global, der Klang dekoriert die zufälligen Delays.
Ein einziger Knopfdruck soll die Musik auslösen, keiner weiß, wie es klingen wird, nur der modularsynthetisch und softwarelatenztechnisch sehr bewanderte Komponist (hoffentlich).
Das Musikstück wird nur ein einziges Mal über Lautsprecher im Raum (jedes Teilnehmers) erklingen und wird nicht aufgenommen, das gehört zu den Spielanweisungen, weil die Vergänglichkeit der Schwingungen der Luft ein Teil des "Jetzt", also des Kunstwerks, ist.

Es braucht natürlich Wochen, nein Monate, um alle analogen Module den Vorstellungen des Komponisten entsprechend einzustellen und weltweit aufeinander abzustimmen.
Bevor der erste Ton erklingt, werden alle Geräte vom Netzstrom getrennt, sind aber per CV einschaltbar – auch das gehört zur Komposition (klar: Strom rules.)
Es gibt weltweit nur einen Controllerbutton, der das Musikstück auslöst.

Problem: Es findet sich keiner, der das machen will. Alle Juristen, wetweit, raten davon ab.
Der Komponist drückt den Knopf auch nicht, weil er kein Interpret sein will.
Das Stück wird also möglicherweise nie aufgeführt. Es beginnt quasi mit einer juristischen Pause.


Ist diese Pause Teil des Programms?

Ist das Ganze überhaupt ein Programm, hat es ein Programm?

Hat der globale Synthesizer, der dafür zusammengestellt wird, nun ein Soundprogramm (also ein einziges, abrufbar über den Controllerbutton), oder nicht?

Gehört die Pause zu dem einen Soundprogramm des globalen Synhesizers?

Wie komplex muss ein von Menschenhand gemachtes System sein, damit der Begriff "programmieren" (griech. programma = vorschreiben) angemessen ist?

Wird der Klang von der Community "programmiert" oder "eingestellt"?

Wird die erste Pause von Juristen "programmiert" oder "eingestellt"?

Oder wird nur ein Gerät, der globale Synthesizer, von der Community "programmiert" oder "eingestellt"?

Oder muss der Komponist alles alleine machen (also zu den Geräten reisen und den Startknopf drücken), damit der ein oder ander Begriff besser passt?

Ist die Anweisung der Einstellungen bereits ein/das Programm?

Ist das Erdenken bereits ein Programm, also hat der Komponist seine Neuronen "programmiert"?

Wieviele verschiedene Programme hat dieses Musikstück eigentlich, und: haben alle diese 'Phänomene' den Begriff Programm "verdient"?

Nach welchen Kriterien bemisst sich generell, ob der Begriff "bedienen" angemessener/verdienter ist oder der Begriff "programmieren"?

Wer bestimmt diese Kriterien? Der Duden ja nicht.

Muss ein Programm überhaupt ausgeführt werden können, damit es eines ist?
 
Zuletzt bearbeitet:
Rezept für einen String-Sound

Zutaten
:
2 Oszillatoren (Sägezahn)
1 Mixer
1 Chorus
1 Hüllkurve (ADSR)
1 Filter (LP)
1 Verstärker

Zubereitung:
  1. Man nehme die beiden Oszillatoren, verstimme diese leicht gegeneinander
  2. Das Ergebnis tue man in dem Mixer
  3. Dieses dann in das Filter (Cutoff nach Geschmack)
  4. Usw. usf.
Ist das Jetzt ein „Prgramm“? Ja? Ne?
 
Zuletzt bearbeitet:
Ist das Jetzt ein „Prgramm“? Ja? Ne?
btw. "Rezept": Das kann einmal ein komplettes Kochrezept sein, und einmal nur der Zettel für die Apotheke, die dir dann ein fertig konfektioniertes Medikament aushändigt. Ist das vergleichbar mit der Komplexitätsspanne zwischen Assembler und ein paar Makroparametern? ;-)
 
Interessant ist es aber dennoch, was Cee sagt und die metaphorische bzw. landläufigen Nutzungen sind natürlich schon drin.
Der Duden erfasst diese Ebenen alle nicht, er sammelt - das sogar richtig gut - aber er schlüsselt das nicht so haarklein auf - für Nerds ist das nicht ideal.
"Wir sind die Maschinen, ihr müsst uns bedienen" passt gut - das programmieren um Längen cooler klingt ist aber ohne Frage.

Diese Programmierer und Informatikspezialisten von Heaven 17 haben sich zusammengefunden, um Musik zu machen - das klingt auch ordentlich nach Wissenschaft, obwohl sie "nur" ein paar Knöpfe drehten und zwar ohne diese "drückst paar Knöppe" und meint damit abwertend "Musik machen, aufnehmen und Sounds erstellen - kann jeder". Also von oben oder unten kommen ist schon auch möglich, wenn das auch auch eine Art Metaebene ist zu "meinem" Thema.

Jaja, und dann heißten "Programmer" auch nicht "Einsteller" bei Roland - das ist nun wirklich ein sehr gut klingender Name. Wenn ich so etwas kaufe, habe ich die Steuereinheit eines Großrechners gekauft und kann damit - naja, den alten JX3P einstellen.

Übrigens: in der Modularwelt gibt es ja die Welt der Autoplayer, leider wurde das von einigen "Noodles" genannt, gemeint sind Patches, die sich selbst spielen.
Diese könnte man natürlich schon als eine Reihe von Methoden sehen, wie das passiert - es spielt keine Rolle, ob das einfach ist. Allerdings ist das auch so bei einem Threaterstück (playing a programme) oder wenn ein Künstler eine Performance macht, oder auch nur eine Skulptur bearbeitet - nur ist dieses Programm am Ende "er selbst, wie der mit dem Hammer einen Steinblock bearbeitet" - ohne Computer. Wenn es einer wäre, wäre das was raus kommt oft sogar "weniger Kunst", und wiederholbar - dann ist es Herstellung. Aber das was er dann laufen lässt ist ein CNC Programm oder sowas.

Dünnes Eis ist das wohl schon.

Ich zerlege mich selbst, ich rede mit mir selbst, ich reeeede mit mir selbst… (Nina, nein nicht der rote Synth aus Tralien)

Aaaaaber - am Ende ist der Unterschied eben nur einstellen vs. programmieren weiter ein ziemlich großer, auch wenn der Entwurf eines Klanges an einem Iridium oder SY99 mit weit über 1000 Parametern schon eine gewaltige Arbeit. So wie der Arbeiter, der in der Fabrik div. Schritte abläuft, so gesehen also auch mal was ohne Computer einzubauen. Er folgt einem Programm oder einer Liste von Arbeitsschritten - Der Musikhansel kann natürlich auch wild an allem drehen bis der Sound interessant ist (Dauer ist egal, 2 Stunden oder 2 Sekunden) oder gezielt einstellen und nur noch fein abstimmen in Sekunden oder auch eben die erwähnten 1000 Parameter - wobei Erfahrene mit FM eben eher 5-10 Minuten brauchen, der Zufallsmusiker dann wohl eher länger und weiss nicht, was das war. Auch das sagt, dass ein Teil der Abfolgen wo anders drin ist. Selbst der könnte aber ggü seinen Hörern von programmieren reden - das ist die berühmte und leicht gemeine Ansage..

ja, Rezept könnte man auch für ein Programm sagen, aber diese Sache mit dem "zufallsdrehen" ist eher ... Programm auslösen. Einstellen.
 
Zuletzt bearbeitet:
In der Informatk-Grundvorlesung meinte unser Prof, ein Algorithmus wäre wie ein (gut geschriebenes) Kochrezept. Also kein „die zwischendurch geschälten Kartoffeln werden jetzt gekocht“, sondern: die Kartoffeln schälen, Wasser in einen Topf, diesen auf den Herd, Platte anstellen, Kartoffeln rein. Schleife: Kochen until Kartoffel is gar /* mindestens 10 Minuten */
 
Also kein „die zwischendurch geschälten Kartoffeln werden jetzt gekocht“
Ein Softwareingenieur (Programmierer) und seine Frau.
Sie: „Schatz, wir haben kein Brot mehr, könntest du bitte zum Supermarkt gehen und eins holen? Und wenn sie Eier haben, bring 6 Stück mit.”
Er: „Klar Schatz, mach ich!”
Nach kurzer Zeit kommt er wieder zurück und hat 6 Brote dabei.
Sie: „Warum nur hast du 6 Brote gekauft?!?”
Er: „Sie hatten Eier.”
 
Rezept für einen String-Sound
Du entlehnst einen Begriff aus Kontext A für Kontext B. Das erlaubt die Sprache. Und funktioniert in diesem Fall mE (schon irgendwie) ganz gut.
Mal schaun ob er sich langfristig in der Community durchsetzt.

Das Entlehnen des Begriffs "program" für Software, der ursprünglich für Vorschriften (=programma) im alten Griechenland gedacht war, hat sich in den 50ern durchgesetzt.
Genau wie davor die Entlehnung für "Abfolgen für Theateraufführungen" in der Renaissance (oder so).

Das Entlehnen des Begriffs "programmieren" für die Synthbedienung hat sich ebenfalls irgendwann durchgesetzt.
Fragt sich nur, wo er entlehnt wurde. Wurde er bei den Softwareentwicklern entlehnt, führt das zu Beschwerden von Softwareentwicklern.

Ich persönlich entlehne ihn bei den Griechen und habe keine Beschwerden.
Ich finde es faszinierend und inspirierend, Softwareentwicklern beim NLP zuzusehen.
 
💡Einem Synth einen Sound Beibringen, habe ich aber schon öfter verwendet in Diskussionen usw🤔.
Bedingt "beibringen" nicht dass derjenige dem etwas beigebracht wird lernfähig ist?

Ist ein Synthesizer "lernfähig" nur weil er das abgespeicherte wieder abrufen kann?

Programmierung umgeht diese Lernfähigkeit, zum "Lernen" gehört immer Kontext, Programmierung geht auch ohne. Ein Synthesizer kann ganz gut ohne Kontext beispielsweise einen Streichersound abspeichern und wiedergeben, vergleich das mal mit all den Assoziationen die bei Dir selbst mitschwingen wenn du einen solchen Sound "programmierst". Meine Assoziation beispielseise ist, daß ich in Dortmund beim Messeaufbau beinahe vom Tourbus von André Rieu überfahren wurde, mit dem langhaarigen Grinsegeiger im Sitz in der ersten Reihe..... und jetzt frag mal deinen Synthesizer an was er dabei denkt.t Zusammenfassung: nicht intelligente Dinge programmiert man, intelligente Dingen bringt man etwas bei - und immwe mir dabei einen Haufen zur Lösung der eigentlichen Aufgabe nicht (mehr) benötigten Kontext.
 
Nur für mich, damit's mir nicht zu viel des Guten wird :cool: : Synthesizersound = Patch (Schaltung). Space Invaders = Programm ;-)
 
Bedingt "beibringen" nicht dass derjenige dem etwas beigebracht wird lernfähig ist?

Ist ein Synthesizer "lernfähig" nur weil er das abgespeicherte wieder abrufen kann?
Nein. Eben darum Beibringen...ist sinnbildlich gemeint.
Von sich aus wäre er im Idealfall ja stumm, ohne unser zutun...
Und der Synth weiss bestimmt auch nicht das er Musik macht;-)
 


Zurück
Oben