Welche DAW kann audio track zu midi-Track (trigger-Information) konvertieren ? ( gibts doch, oder ? )

siebenachtel

siebenachtel

||||||||||
´Mörgeli,

der Titel sagt eigentlich schon alles.

Hab die Übersicht verloren welche DAW was kann.
Mir gehts ums timing, nicht unbedingt um akurate Pitch information.

D.h. ich will aus Hand gespieltem Bass (audio file) trigger informationen (midi file) generieren.
wie gesagt: wichtig ist mir midi trigger-events zu bekommen die auf der Zeitachse stimmen
(monophon reicht, kann aber -selten mal- überlappende Noten haben)

theoretisch hab ich:
- Live 11 (damit komm ich am ehesten klar)
- Logic (noch als demo / noch komplett neu für mich)
- studio one 5 ( die billige, bzw. als beigabe zum AI ( komme mit S1 aber nicht klar) / die S1 pro hab ich auch, als V3 )
 
Wie gut kann die Software das? Ich nehme an, die Instrumentenerkennung und ihre Zuordnung zu General-MIDI-Nummern ist nicht trivial. Und die Mannigfaltigkeit der Jazz-Akkorde mit ihren vielen Dissonanzen, sowie das Aussieben von Hintergrundgeräuschen etc. lassen mich verstehen, warum zwei ausprobierte Python-Skripte zu diesem Zweck nur Schrott produziert hatten.

Übrigens würde ich für eine einmalige Leistung durch Dritte Geld ausgeben. Gibt es Gewerbe mit Audio->MIDI Konvertierung im Leistungsangebot?
 
Wie gut kann die Software das? Ich nehme an, die Instrumentenerkennung und ihre Zuordnung zu General-MIDI-Nummern ist nicht trivial. Und die Mannigfaltigkeit der Jazz-Akkorde mit ihren vielen Dissonanzen, sowie das Aussieben von Hintergrundgeräuschen etc. lassen mich verstehen, warum zwei ausprobierte Python-Skripte zu diesem Zweck nur Schrott produziert hatten.

Sobald das Ausgangsmaterial etwas komplexer ist, kam bei mir wenig Brauchbares raus, weshalb ich's auch nicht nutze. Liegt also entweder an meiner Unfähigkeit, die Software richtig einzusetzen oder an der Limitation der Software (resp. der Komplexität der Sache an sich).

Was bei meinen Tests etwas Verbesserung brachte, war den Ausgangstrack mehrfach zu duplizieren und mit dem EQ jeweils soweit zu filtern, dass die Instrumente besser isoliert sind. Das gibt dann zB einen Track für die Drums (unten drum), die Bassline, Layers (wobei's da dann eben schon schnell schwierig wird), Lead/Vocals, etc. Raushören geht mir deutlich schneller.
 
Zuletzt bearbeitet von einem Moderator:
Wie gut kann die Software das? Ich nehme an, die Instrumentenerkennung und ihre Zuordnung zu General-MIDI-Nummern ist nicht trivial. Und die Mannigfaltigkeit der Jazz-Akkorde mit ihren vielen Dissonanzen, sowie das Aussieben von Hintergrundgeräuschen etc. lassen mich verstehen, warum zwei ausprobierte Python-Skripte zu diesem Zweck nur Schrott produziert hatten.
das kommt aufs ausgangsmaterial an. es geht relativ gut aber paar ausreißer hat man immer.
 
Danke fürs ganze feedback !

bin noch nicht dazu gekommen..........
Und in meinem Fall gehts ja (zum Glück) nur um Hand-eingespielten Bass.
bin also zuversichtlich..........
 
ist im prinzip ein recycle job. oder mit anderen worten: ging schon im letzten jahrtausend. :)

du magst, egal bei welchem tool, mit bandpassfilter und expander nachhelfen wenns beim ersten anlauf nicht so gut klappt.
 


News

Zurück
Oben