?
-.-.
Guest
Ich habe hier mal gleichzeitig versucht, alles tonale mit dem Moon 569 Sequencer zu programmieren, nebenbei meine frisch gebaute Yocto näher kennen zu lernen und mich in Final Cut Pro rein zu fuchsen. Möglicherweise wird das jetzt wieder eine kleine Abschiedsserie weil ich den Sequencer verkaufen werde.
Der M569 läuft also nur mit einer durchlaufenden Clock zur Yocto synchronisiert, die Gates der vier einzelnen Reihen sind dann unterschiedlich geschaltet, Reihe 2 (die putzige randomisierte Melodie) triggert dann Reihe 3 (der Phasing Sound, der auch auf dem Oszilloskop zu sehen ist), die wiederum triggert Reihe 4, die dann alle drei oberen Reihen transponiert. (ab 2:15 kann man sich das auch angucken)
Es spielen drei C921B Oszillatoren von CotK. Der Bass geht durch den Polyresonator, das Phasing kommt aus dem Oakley Deep Equinoxe, Filter auf der Melodie ist die Oakley Diode Ladder.
Was nicht so gut geklappt hat, ist Ton und Bild in FCPX synchron zu halten. Das ist relativ schnell auseinander gelaufen, deshalb ist das Video etwas krude geschnitten. Das gehört natürlich so und ist Kunst. Die Idee dahinter war, wie im modularen Synthesizer die Module, einfach unterschiedliche (->modulare), Videoclips mit einander zu verbinden.
Wenn Jemand eine Idee hat, was dahinter steckt, dass die Ton und Bild in FCPX nicht synchron bleiben, bin ich für jeden Hinweis sehr dankbar. Naheliegend wäre natürlich, dass die Quellen (zwei unterschiedlich alte iPhones und ein mehr als unterschiedlich altes iPad) mit unterschiedlichen framrates aufnehmen. Aber da behauptet zumindest FCKW, dass das kein Problem ist. Di Abweichung ist aber so beeindruckend (>1 sek/min), dass ich mir nicht vorstellen kann, dass es einfach nur schlecht programmiert, sondern mein Fehler ist.
Anyway, hier isses - viel Spaß damit:
{URL}
Der M569 läuft also nur mit einer durchlaufenden Clock zur Yocto synchronisiert, die Gates der vier einzelnen Reihen sind dann unterschiedlich geschaltet, Reihe 2 (die putzige randomisierte Melodie) triggert dann Reihe 3 (der Phasing Sound, der auch auf dem Oszilloskop zu sehen ist), die wiederum triggert Reihe 4, die dann alle drei oberen Reihen transponiert. (ab 2:15 kann man sich das auch angucken)
Es spielen drei C921B Oszillatoren von CotK. Der Bass geht durch den Polyresonator, das Phasing kommt aus dem Oakley Deep Equinoxe, Filter auf der Melodie ist die Oakley Diode Ladder.
Was nicht so gut geklappt hat, ist Ton und Bild in FCPX synchron zu halten. Das ist relativ schnell auseinander gelaufen, deshalb ist das Video etwas krude geschnitten. Das gehört natürlich so und ist Kunst. Die Idee dahinter war, wie im modularen Synthesizer die Module, einfach unterschiedliche (->modulare), Videoclips mit einander zu verbinden.
Wenn Jemand eine Idee hat, was dahinter steckt, dass die Ton und Bild in FCPX nicht synchron bleiben, bin ich für jeden Hinweis sehr dankbar. Naheliegend wäre natürlich, dass die Quellen (zwei unterschiedlich alte iPhones und ein mehr als unterschiedlich altes iPad) mit unterschiedlichen framrates aufnehmen. Aber da behauptet zumindest FCKW, dass das kein Problem ist. Di Abweichung ist aber so beeindruckend (>1 sek/min), dass ich mir nicht vorstellen kann, dass es einfach nur schlecht programmiert, sondern mein Fehler ist.
Anyway, hier isses - viel Spaß damit:
{URL}