studio-kiel
||||||||
Hab mich gestern mal wieder auf BestService umgeschaut und dabei sind mir "Synergy", "EVOLVE" und "the Elements" von SampleLogic aufgefallen. Sehr coole Sounds in Richtung Ambient, Soundtrack, etc. - hab sie dann mal über "TrySound" live angetestet und "Synergy" für 269€ hat mir bis dato am besten gefallen (P.S.: die Demos auf der Herstellerseite sind noch besser als bei BS).
Was mir nur immer wieder bei diesen riesigen Librarys auffällt ist, dass die Hersteller schaffen es auch bei 18GB-Soundmaterial immer noch nicht schaffen ordentliche Multisample-Programme zu erstellen. Viele der Sounds haben rhythmische Sequenzen, die somit dann nicht wirklich spielbar sind, weil diese Sequenzen halt unterschiedlich lang sind, wenn sie als "ein" Sample auf die ganze Tastatur gelegt sind.
Keine Frage, die Sounds an sich der Hammer und die Auswahl ist auch gigantisch, doch diese Einzelsamples sind für mich oftmals ein KO-Kriterium. Bei Drones, etc. kein Problem, aber sobald der Sound geschwindigkeitsabhängige Elemente hat, verstehe ich diese Praxis nicht.
Ok, würde man jede Taste sampeln, würde es bei diesen langen Sounds noch größere Datenmengen geben, aber dadurch wären die Sounds auch viel effektiver spiel- und einsetzbar...
Mit dem Kontakt2-Player gebe es ja auch die Möglichkeit die Sequenzen per Arpeggiator oder Gater unabhängig vom Drone-Hintergrund ablaufen zu lassen. Ist das zu aufwendig oder warum wird das so selten eingesetzt?
Was meint ihr zu dem Thema?
Was mir nur immer wieder bei diesen riesigen Librarys auffällt ist, dass die Hersteller schaffen es auch bei 18GB-Soundmaterial immer noch nicht schaffen ordentliche Multisample-Programme zu erstellen. Viele der Sounds haben rhythmische Sequenzen, die somit dann nicht wirklich spielbar sind, weil diese Sequenzen halt unterschiedlich lang sind, wenn sie als "ein" Sample auf die ganze Tastatur gelegt sind.
Keine Frage, die Sounds an sich der Hammer und die Auswahl ist auch gigantisch, doch diese Einzelsamples sind für mich oftmals ein KO-Kriterium. Bei Drones, etc. kein Problem, aber sobald der Sound geschwindigkeitsabhängige Elemente hat, verstehe ich diese Praxis nicht.
Ok, würde man jede Taste sampeln, würde es bei diesen langen Sounds noch größere Datenmengen geben, aber dadurch wären die Sounds auch viel effektiver spiel- und einsetzbar...
Mit dem Kontakt2-Player gebe es ja auch die Möglichkeit die Sequenzen per Arpeggiator oder Gater unabhängig vom Drone-Hintergrund ablaufen zu lassen. Ist das zu aufwendig oder warum wird das so selten eingesetzt?
Was meint ihr zu dem Thema?