MvKeinen
|||||||||
dingsda....
es gibt ja schon ein paar freds hier die in ähnliche richtung gehen aber trozdem
ich fänds knorke wenn wir hier mal laut nachdenken über samplesequencing der neuen generation. vielleicht mal ganz unabhängig von maschinen und software, sondern erstmal spinnen und dann reverse-engeniiieren.
und da man in nicht allzuweiter zukunft mehr zugriff auf impulsive interfacelösungen haben wird glaube ich wird der weg zum fertigen instrument viel mehr als früher schon in den grundsätzen vom haptikgedanken beeinflusst.
touchscreens und co.
frage: was wollt ihr mit samples machen können?
- anfassen 1: start- und endpunkt auf der wellenformabbildung mit den fingern festlegen. lange samples, die mit transientenerkennung gesynct werden werden so beispielsweise geloopt. wenn man die finger wegnimmt dann bleibt der loop so wie mit der letzten fingerberührung festgelegt. dann kann man einzelne slices, die entweder automatisch erkannt, von der aktuellen clock gerastert, oder man selbst rausgeschnitten hat (mit quantisierung auf die transienten) herausnehmen und eine neue spur damit befüttern. bei kurzen "one shot" samples kann man dann mit start- und endpunkt-anfassen eine art wavetableosc ähnliche sache machen. eine art samplescanning
- wichtiger punkt für mich ist auch die errechnung von musikalisch relevanten daten aus dem samplematerial. zb einen pegelverlauf den man dann anderen samples aufdrücken kann, auch in negierter form.
das ist noch lang nicht alles mir reicht es jetzt aber erstmal weil andere ideen (algo-beat-gen) verbal bei mir noch nicht ausgereift sind
es gibt ja schon ein paar freds hier die in ähnliche richtung gehen aber trozdem
ich fänds knorke wenn wir hier mal laut nachdenken über samplesequencing der neuen generation. vielleicht mal ganz unabhängig von maschinen und software, sondern erstmal spinnen und dann reverse-engeniiieren.
und da man in nicht allzuweiter zukunft mehr zugriff auf impulsive interfacelösungen haben wird glaube ich wird der weg zum fertigen instrument viel mehr als früher schon in den grundsätzen vom haptikgedanken beeinflusst.
touchscreens und co.
frage: was wollt ihr mit samples machen können?
- anfassen 1: start- und endpunkt auf der wellenformabbildung mit den fingern festlegen. lange samples, die mit transientenerkennung gesynct werden werden so beispielsweise geloopt. wenn man die finger wegnimmt dann bleibt der loop so wie mit der letzten fingerberührung festgelegt. dann kann man einzelne slices, die entweder automatisch erkannt, von der aktuellen clock gerastert, oder man selbst rausgeschnitten hat (mit quantisierung auf die transienten) herausnehmen und eine neue spur damit befüttern. bei kurzen "one shot" samples kann man dann mit start- und endpunkt-anfassen eine art wavetableosc ähnliche sache machen. eine art samplescanning
- wichtiger punkt für mich ist auch die errechnung von musikalisch relevanten daten aus dem samplematerial. zb einen pegelverlauf den man dann anderen samples aufdrücken kann, auch in negierter form.
das ist noch lang nicht alles mir reicht es jetzt aber erstmal weil andere ideen (algo-beat-gen) verbal bei mir noch nicht ausgereift sind