3
3zspb9wbisüfd
Guest
Natürlich nur als Modul.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: This feature may not be available in some browsers.
Bluetooth ist Standard Warum sollte man nicht mehrere Synthesizer per direkter Funkverbindung kurzschließen?
Natürlich nur als Modul.
Wird Zeit, das du dich mit €-Racks anfreundestNatürlich nur als Modul.
Wird Zeit, das du dich mit €-Racks anfreundest
Latenz.
AFAIK wurde Bluetooth nicht für niedrige Latenz entwickelt. Ich habe mal einen Bluetooth-Lautsprecher als Notlösung benutzt als Krachausgabe für eine improvisierte Chorprobe. War nicht spielbar, Latenz 1s.
Falsches BT-Protokoll. Mit dem Richtigen gehts: https://de.wikipedia.org/wiki/AptX
Wenn man will, dann geht das auch.
Heißt ja nicht umsonst "Euro-Crack".
"Nehmen Sie Drogen oder sind sie sonst irgendwie abhängig?"
"Ja. VCAs und Multiples. Aber besonders VCAs."
Zum Thema: ich könnte mich mit dem Gedanken anfreunden, ein Modular-System auf digitaler Basiszu verwenden - nicht im Computer a'la VCV, schon richtige Module zum anfassen.
Das bietet interessante Möglichkeiten, z.B. Patches speichern oder die Patchkabel entfallen zu lassen.
ich denke Physical Modeling kam zu einer Zeit als man noch Klaviere, Oboen und Saxophone modellieren wollte und gleichzeitig oder kurz danach gab es eine neue Generation sample-basierter Synthies (Trinity, Triton usw.), die leichter zu bedienen und billiger(?) waren. Weil der große Durchbruch nicht kam, wurde in der Richtung nicht weitergemacht.. dabei hat diese Syntheseform durchaus Potenzial.als ich von den ersten Physical Modeling Synths in der Keyboards gelesen habe. Und dachte mir: Das ist die Zukunft! Und was ist davon geblieben?
Anderes Thema:
Digitalsynths würden sich auch prima eignen um Naturklänge zu erzeugen, bzw sich davon inspirieren zu lassen, anstelle von akkustischen Instrumenten (Bass Synth, E-Piano, String Machine).
Wie wäre es mal einen Tierlaut Synth zu bauen? Wir wissen alle wie vielfältig Tierlaute sein können. Wale, Delfine, Vögel, Insekten ... man könnte dann im Synth einen Wal Osszillator mit der Hüllkurve eines Amselrufs kombinieren und den Lautstärkeverlauf einer muhenden Kuh als LFO nehmen.
Ich meins ernst! Das wäre ein ganz neues Klangspektrum und mit Sicherheit auch musikalisch sehr gut nutzbar. Die Natur klingt ja oft eh am schönsten.
Wer würde sowas denn benutzen? Wie musikalisch ist Hundegebell?Tierlaut Synth zu bauen?
wenn es wenigstens von Arrangement und Spannungsbogen getragen würde,Ich bin immer ein bisschen pikiert darüber, wie Synthesizer zurzeit oft eingesetzt werden (jedenfalls wenn man Youtube-Videos als Referenz anschaut): Da wird ganz viel mit relativ statischen Sequenzen und Loops gearbeitet und nur wenig wirklich "gespielt", das halte ich auf jeden Fall für einen kreativen Rückschritt. Und wenn ich dann Kommentare lese nach dem Motto "Wer braucht schon Aftertouch?", weiß ich alles. Wer so an Musik rangeht, der wird als Musiker sicherlich sehr schnell durch KI ersetzt werden, er ist bereits ein gutes Stück weit davon ersetzt worden, ohne es zu merken - siehe auch "Musikmaschinen" wie den Korg Wavestate (ja, ich weiß, man kann den auch anders nutzen, aber wer kauft ihn wofür?).
Ich versuche das unmögliche Experiment, ob es so eine Art Konsens gibt über das, was zu passieren hat und was schon gut ist und was eben unbedingt nocb besser sein kann. und da lese ich eben diese Modelingsache und eher minimalen Ansatz raus, was übrigens auch trendet, mal ist es etwas mehr und mal etwas anders.. aber die Module zB sind ja alle sehr simpel, aber man erreicht sehr sehr viele sehr verschiedene Spektren in einem Rutsch und das ist vielleicht das Ding, eben anders als FM oder sowas, denn das gab es so wegen langsamer Rechner noch nicht viel in HW. Aber du meinst https://www.sequencer.de/synthesize...e-zukunft-digitale-synths.153655/post-2003515 - also @Bjørn-65 nicht @Björn - aber denke das ist eh klar - ja, hab ich natürlich auch so verstanden. Ich geh schon bereits weiter, um das Thema weiter zu entwickeln, da mich das ja interessiert. Ich denke, dass das auch reichte, möchte aber sehen, ob das eine Art Konsensus ist oder etwas, was viele super fänden oder ob es auch Varianten gibt, wir sind ja viele.. denn zB ein guter VA wird ja auch gemocht, siehe S8 Post direkt nach deinem. Das Ding IST auch verdammt gut, die HW ist natürlich böse, AT mit polypressure und Multislot mit 4 Slots oder mehr Stimmen - alles geschenkt, wäre sicher besser, Roland hat ja weniger Synthese gewählt und mehr Modelle aber dafür mehr Stimmen. Das ist nicht ganz meine Zone, aber der Klang ist noch immer gut. Die Bedienung aber schlechter, Listenmenüsache.@Björn hat den entscheidenden Aspekt doch gleich zu Anfang beschrieben. So wie ich ihn verstehe, sieht er große Möglichkeiten beim Physical Modelling (sehe ich auch), aber das ist nicht das Entscheidende, sondern die musikalische Schnittstelle zwischen Synthese und Musiker ist es: Wie kann ich das spielen? Welche Möglichkeiten erlauben mehr Expressivität als bisher mit elektronischer Klangerzeugung möglich ist. Warum ja ein Cello mit seiner "einen" Art der akustischen, mechanischen Klangerzeugung immer noch eine Expressivität aufweist, die man bisher mit keinem elektronischen Instrument erreichen kann. Um nur eines von vielen Beispielen zu nennen.
Ich bin immer ein bisschen pikiert darüber, wie Synthesizer zurzeit oft eingesetzt werden (jedenfalls wenn man Youtube-Videos als Referenz anschaut): Da wird ganz viel mit relativ statischen Sequenzen und Loops gearbeitet und nur wenig wirklich "gespielt", das halte ich auf jeden Fall für einen kreativen Rückschritt. Und wenn ich dann Kommentare lese nach dem Motto "Wer braucht schon Aftertouch?", weiß ich alles. Wer so an Musik rangeht, der wird als Musiker sicherlich sehr schnell durch KI ersetzt werden, er ist bereits ein gutes Stück weit davon ersetzt worden, ohne es zu merken - siehe auch "Musikmaschinen" wie den Korg Wavestate (ja, ich weiß, man kann den auch anders nutzen, aber wer kauft ihn wofür?).
Weiß ich, ehrlich gesagt, nicht. Denn für mich ist der Ansatz einfach ein anderer: Was sind die "spielbaren" Instrumente? Was "klingt gut"? So simpel. Aber immer im Fokus ist bei mir: Mich interessieren Instrumente für Musiker, die selber spielen. "Musikmaschinen", "Roboter", "KI" oder "Wave Sequencer" lehne ich ab. Wie sagte der Kollege @micromoog das oben? Ich nehme lieber die eigen erstellte Knallererbse statt des fremd erstellten Feuerwerks. Und ich ordne dann die Erbsen so an, wie ich will, nicht wie eine KI das bestimmt. Nennt mich Erbsenzähler from now on ...Fasst es das zusammen?
Ist bei mir sowas wie ein Heimspiel, aber sicher nicht die einzig selig machende Form der Synthese, aber auch nicht so kompliziert wie manche annehmen, ansonsten würd' ich damit nicht klar kommenFM hat sich mir bisher nie erschlossen, aber viele schwören darauf, Du ja auch und @Summa.
Eher für viele sowas wie ein Angstthema, da wurde Jahrzehnte lang behaupted FM sei nicht gezielt zu programmieren, sowas lässt sich nur schwer aus den Köpfen bekommen.Abseitsthema XX) FM ist nicht schwer, das kam aber nicht vor. Ich sehe darin aber oft die "interessanteren" Ergebnisse, aber nicht per se und nicht ausschließlich. Aber es ist eine Technik die schon ganz gut umgesetzt ist. Nur die ADSR-4-OP Tendenzen nerven, weil das ist der falsche Weg.. *G* nur simpler kann es nicht immer sein. Ich wollte es ja mehr und mit den heutigen Interfaces ginge das, gut gemacht hat das noch keiner wirklich.