Motivator - Distribution für Audio?

zita-reverb gibts auch noch als Hallplugin, und den Bitwig internen Hall
 
Moogulator schrieb:
Als großer Plugin User mit wenig Hardware würde ich eher nicht so stark Bock haben, als jemand der seine EQs und Compressoren oder FX und so von gut gewählten Anbietern holt zB - ich mag die Eventide Sachen, gibt es natürlich nicht für Linux. Ultraverb - find ich super für mein Zeug. Sowas wird sicher noch ne Weile nicht existieren. Dh - Spezialisten und Wünsche werden natürlich nicht glücklich.

Das mit den Plugins ist schon richtig. Es gibt soweit mir bekannt eigentlich nur 5 Hersteller die diesen Schritt bisher gewagt haben.

TAL -> findet man im Distrho plugin pack -> http://distrho.sourceforge.net/ports
U-HE -> die Betas findet man hier -> http://www.kvraudio.com/forum/viewtopic.php?p=5938265
DiscoDSP -> http://www.discodsp.com
Loomer -> http://www.loomer.co.uk
OvertoneDSP -> http://www.overtonedsp.co.uk

Dazu kommen noch die Calf plugins -> http://calf.sourceforge.net
Und noch die Plugins die die jeweilige Studio Software selbst mitbringt die der User einsetzt. Da gibt es welche bei Bitwig, Renoise und Carla.

Das ist zwar schon mal recht statliche Anzahl an Plugins die für die meisten Sachen ausreichen dürften, aber einen klassischen Software User dürfte das sicher nicht voll zufrieden stellen.
 
Der Hall bei Bitwig ist nur algorithmisch.

Installiere die Demo doch einfach. Kann man per jack ja auch einfach als Effektrack verwenden.
Wir sind hier ja nicht auf OSX oder Win ;-)
 
Drumfix schrieb:
Der Hall bei Bitwig ist nur algorithmisch.

Installiere die Demo doch einfach. Kann man per jack ja auch einfach als Effektrack verwenden.
Wir sind hier ja nicht auf OSX oder Win ;-)

Hab ich noch vor, es ging mir nur darum für Mic ne recht vollständige Listung in den Thread hier zu bringen.
 
snd_virmidi?
Bitwig will bissel Gnome zeusch was ich wiederum grad nicht will deswegen kann ich es mom nicht testen.
 
LOL grad getestet und bzg. Gnome Abhängigkeiten war eine falsche Erinnerung meinerseits. Zu lang her ... War wegen Lizensen lesen ein tool, nix Gnome Abhängigkeiten ... alles fein rennt ... sry.
Hab mal download, entpackt und bitwig-studio.exe ;-) draufgeklickt (gestartet, rennt ja eh ohne zu install), "richtiges" MIDI erscheint nicht im qjackctl, also braucht anscheind noch snd_virmidi :sad:
http://answers.bitwig.com/questions/1218/how-do-i-get-midi-inout-of-bws-on-linux
 
Hmmmm... spannend, ich verstehe was du meinst. Claudia zeigt die midi in/outs auch nicht an... ich "fummel" mal grad ein bissel.
 
ah okay... man braucht also wirklich das modul. Auf Arch muss ich es allerings nicht bauen, irgendwie war das schon da. Bitwig grabbed sich dann die virtual devices. Das ist ne etwas schräge Implementation. Würde mich interessieren wie die da drauf gekommen sind. Hmmm... wobei, was passiert eigentlich wenn ich das Modul rausnehme und einfach kurz per usb mein kleines Miditech anschließe. Die a2jmidid Brücke hab ich eh schon laufen.
 
Also bei mir wird der Controller auch noch nach dem anstecken in jack und in bitwig gleichzeitig erkannt. Das macht der a2jmidid den ich an und auf export gestellt habe. Damit ist das Midi Device in Jack und Bitwig verfügbar. Allerdings nimmt sich Bitwig das Midi nicht über jack sondern über alsa. Bitwig locked soweit ich das sehe den Controller auch nicht für Jack so das man dann halt über Jack in andere Software und über ALSA direkt ins Bitwig aus dem selben Controller zeitgleich senden kann. Wenn man alles über Jack routen will dann braucht man das snd_virmidi.
 
Psychotronic schrieb:
Drumfix schrieb:
Der Hall bei Bitwig ist nur algorithmisch.

Installiere die Demo doch einfach. Kann man per jack ja auch einfach als Effektrack verwenden.
Wir sind hier ja nicht auf OSX oder Win ;-)

Hab ich noch vor, es ging mir nur darum für Mic ne recht vollständige Listung in den Thread hier zu bringen.

super - die ist nicht nur für mich, ich hoffe ja das das vielen hilft.
 
Hat Bitwig eigentlich so ne Render PluginChain to Instrument Funktion wie Renoise oder bounced das klassisch?
 
Ich hätte nie eine Verwendung dafür - du meinst sone Art Batch-Offline Renderfarm?
Das geht idR immer, ich hab das wenig in Gebrauch, da ich sonst eigentlich auf dem ollen Logic 9 alles mache.

Kenne Renoise nicht sonderlich gut, daher weiss ich nicht genau was das macht, aber natürlich hat Bitwig diese freien langen Ketten von Effekten und Fx Wege, eigentlich sehr ähnlich wie Live. Und Bouncen kann man natürlich auch.
 
Moogulator schrieb:
Kenne Renoise nicht sonderlich gut, daher weiss ich nicht genau was das macht

Okay, dann erklär ich es, erstmal die Grundlage dazu:

Renoise hat 3 Arten von Instrumenten. Plugins, Midi nach extern(Outboard Gear) und "Renoise Instrumente". Die "Renoise Instrumente" sind immer Sample basiert. Der Klangerzeuger ist dort immer der eingbaute Übersampler und der eigentlich Core von Renoise. Du kannst simple Samples Tonal gepitched abspielen oder dir auf Basis von Samples ein komplexes Instrument zusammenbauen welches Multisamples via Keyzones, Modulationsmatrix und FX Chains mit VSTs und co hat. Parameter die in der UI oder der UI von Plugins in der FX Chain existieren kann man nun noch zusätzlich auf Potis in einer extra UI exposen und das was das Poti mit dem Wert machen soll auch noch mit irgendwelchen Kurven belegen(genannt Macros).

Das ist sozusagen ein in die Software direkt eingebautes NI Kontakt. Das ist der Kern von Renoise. Der Tracker Style Sequencer steuert das dann. Alle by default mitgelieferten Renoise Instrumente basieren auf dieser Samplingengine.

Die angesprochene Funktion ist ein Feature was die Erstellung des Samplematerials solcher komplexen Samplebasierten Instrumente vereinfacht.

Man nehme sich ne Spur. Hänge da zum Beispiel Bazille drauf. Man programmiert nen Loop der ein paar Noten spielt und dreht sich dann den Sound so wie man ihn braucht. Danach wählt man im Hauptmenu "Render Plugin to Instrument" gibt einen Noten Bereich an der gerendert werden soll und ne Notenlänge die man maximal braucht. Renoise rendert dann alle angegebenen Noten zu Samples und packt sie in ein neues "Renoise Instrument". Danach baut man sich den Rest des Instruments so wie man es braucht und kann es dann ganz normal über den Sequencer polyphon spielen.

So sieht die UI dazu aus:



In einen Kontext anderer Produkte gebracht ist das vergleichsweise sowas wie: "Du liebes Ableton Live bounce mir doch bitte mal Instrument auf Spur 1 + seiner FX chain in einen neuen Kontakt Patch den ich dann in Kontakt mit seinen eigene FX chain und co noch mal weiter ausbaue... klick... done"


Wozu brauche ich das? Naja, du kennst doch meine Abneigung bzgl. Brot/Butter, Standard, Werks Sounds? :floet:

Ich habe nämlich die dumme Angewohnheit VST Instrumente soweit zu verzwirbeln, das man sie über eine Klaviatur nicht mehr gerade in Dur und Moll spielen kann. Viele virtuelle Instrumente lassen sich ab einem bestimmten Punkt des Verschraubens nicht mehr nachstimmen.(Filter FM und co...) Allerdings produzieren sie genau dann die Art von Ton oder Noise oder was auch immer den ich benutzen will, nur ich kann das dann nicht mehr tonal spielen.

Renoise fixt mir das mit dem Feature.
 

Anhänge

  • plugin_grabber.png
    plugin_grabber.png
    13,3 KB · Aufrufe: 82
Das ist dann also praktisch ein Samplerobot für VST Plugins. Etwas ganz so praktisches gibt es in Bitwig nicht.
Dein Anwendungsfall, ein Sample tonal spielbar zu machen, lässt sich in Bitwig mittels "Slice to Multisample"
realisieren.
"Slice to Multisample" bounced einen Clip, zerlegt den Bounce in ein oder mehrere Slices und
erzeugt eine neue Spur mit dem Samplerinstrument in dem die Slices als Multisample geladen sind.
 
14:45 Arch Linux as a lightweight audio platform - Workshop
(90 min) David Runge » Location: Workshop I (P2)
This workshop discusses several purposes and reasons for chosing a rolling release distribution over a frequent release candidate one which translate very well into the field of pro-audio application:
- Higher possibility for configurability
- Software versions are up-to-date
- Newer kernels guarantee (or at least raise the possibility for) better compatibility with hardware (old and new)
- Easier to build own packages, if not limited by outdated core components
- Distribution documentation is up-to-date (less possibility for ambuigity)
- Better chance for lightweight customization (if that's your thing)

In this tutorial I will elaborate further on the concepts and environments I chose to create concert- and installation-ready environments. This will include (but is not limited to):
- Arch Linux package management (pacman and aura)
- Arch Audio
- Systemd
- Awesome WM
- Realtime kernels
- Custom JACK2 startup scripts

khz@[url=https://www.sequencer.de/synthesizer/viewtopic.php?p=1152503#p1152503:2ryvx5z9]Linux Audio Conference - LAC 2015 /Mainz[/url] schrieb:
Es wird, wie jedes Jahr, Livestream / IRC channel geben (Link dann auf der http://lac.linuxaudio.org/2015/ Seite zu finden) und, zeitlich versetzt (evt. 3-4 Monate kann es mal dauern, also keine Panik (; ), im "Linux Audio Conference Website Archive" jederzeit abrufbar.
http://lac.linuxaudio.org/
 
cool :supi: Noch mehr Leute mit: "Lasst uns das mal selber zusammenstellen." Arch macht das ja einfach für Leute die vor der Commandline keine Angst haben.
 
Also Rendern geht, und Slicen, aber weit darüber hinaus fällt mir da sonst nicht so viel ein.
Also bis auf sowas wie diese Slice-Funktion fällt mir da auch nicht ein, sowas ähnliches gibt es auch in Ableton.
 
Apropos basteln, ich bin auf was Unglaubliches gestoßen: Faust

Ich hab einfach nur ein Delay gesucht, das ich in Millisekunden einstellen kann. Stereo sollte es sein. Ich brauchte nur den verzögerten Teil des Signals. Direktes Signal, Feedback und ähnliches Candy brauchte ich nicht.

Da hat einer einfach ein paar Zeilen Faust-Code zusammengebaut, ich bin als planloser Mensch zur Faust-Seite mit dem Online-Compiler und hab mir in kürzester Zeit mein LV2-Plugin generieren lassen. Wer also ernsthaft Bock auf DSP-Programmierung hat, aber vor dem ganzen aufwändigen Drumherum zurückschreckt, um ein LV2-Plugin zu bauen, der sollte sich folgenden Thread anschauen:

http://linuxmusicians.com/viewtopic.php?f=48&t=13652

Übrigens: Das Modul funktioniert bei mir bestens.
 
bluebell schrieb:
Apropos basteln, ich bin auf was Unglaubliches gestoßen: Faust

Ich hab einfach nur ein Delay gesucht, das ich in Millisekunden einstellen kann. Stereo sollte es sein. Ich brauchte nur den verzögerten Teil des Signals. Direktes Signal, Feedback und ähnliches Candy brauchte ich nicht.

Da hat einer einfach ein paar Zeilen Faust-Code zusammengebaut, ich bin als planloser Mensch zur Faust-Seite mit dem Online-Compiler und hab mir in kürzester Zeit mein LV2-Plugin generieren lassen. Wer also ernsthaft Bock auf DSP-Programmierung hat, aber vor dem ganzen aufwändigen Drumherum zurückschreckt, um ein LV2-Plugin zu bauen, der sollte sich folgenden Thread anschauen:

http://linuxmusicians.com/viewtopic.php?f=48&t=13652

Übrigens: Das Modul funktioniert bei mir bestens.


Interessant, quasi ein Code statt halbgrafischer Core-Reaktor Stil

Code:
declare name "Simple Stereo Delay";
declare category "Delay";
declare description "A simple Stereo Delay with controls in ms";


import("music.lib");

process = voice,voice
   with 
   { 
      voice    = _: sdelay(N, interp, dtime);
      N    = int(2^19); 
           interp  = SR/1000.0;
      dtime   = hslider("delay[unit][style]", 0, 0, 5000, 0.1)*SR/1000.0;
   };

aber auch nur semiselbsterklärend, wenn man nicht in die Doku schaut.
Das hier kann man schon noch irgendwie lesen. Übrigens finde ich das etwas anschaulicher als manchen Core-Reaktor bzw Max-Code, der so in halbgrafisch irgendwie tut als wäre er irgendwie einfacher, ist es aber nicht sondern nur anders dargestellt.

Aber - für Noobs und Nicht-Programmierer ist das alles zusammen so was mit Lernkurve.
Hier haben wir ja offenbar eine Funktion für Delay mit drin, wenn man die kennt ist das super.
 
Brummer hat den guitarix mit diesem Tool (Faust) angefangen zu programmieren.
[url=http://www.audio4linux.de/forum/viewtopic.php?p=9132#p9132:2vndf37y]brummer[/url] schrieb:
Genau genommen ist Faust ein Compiler, der Mathematische Definitionen in optimierten C++ Code und oder binär übersetzt. Das hat den Vorteil das man Dsp Algorithmen als, für den Menschen besser verständliche Mathematische Formel schreiben kann, statt direkt in C++ zu entwickeln.
https://ccrma.stanford.edu/~jos/aspf/aspf.pdf - Audio Signal Processing in Faust
https://packages.debian.org/de/wheezy/faust
 
Moogulator schrieb:
Interessant, quasi ein Code statt halbgrafischer Core-Reaktor Stil
aber auch nur semiselbsterklärend, wenn man nicht in die Doku schaut.
Das hier kann man schon noch irgendwie lesen. Übrigens finde ich das etwas anschaulicher als manchen Core-Reaktor bzw Max-Code, der so in halbgrafisch irgendwie tut als wäre er irgendwie einfacher, ist es aber nicht sondern nur anders dargestellt.

Aber - für Noobs und Nicht-Programmierer ist das alles zusammen so was mit Lernkurve.
Hier haben wir ja offenbar eine Funktion für Delay mit drin, wenn man die kennt ist das super.

Max und Reaktor machen auch nur Leute die das mit dem programmieren verstanden haben. Die grafische Anzeige in Reaktor hat übrigens auch Nachteile. Vor allem im Core. Schleifen und FFT based processing ist unendlich hässlich und komplex zu implementieren. Statt dessen hätten die einfach ein Programmierinterface mit sowas wie supercollider oder ähnlichem einbauen sollen. Gewisse Sachen gehen da gar nicht. Man muss sich dann mit anderen mathematischen Methoden nähern. Fand ich ganz ganz evil.

Und so Zeug ist und war nie was für Noobs.

Juce und Faust sind aber schon schöne Dinge wenn man da drauf Bock hat. Ich hab da aktuell eher weniger Lust, da ist aber ne sehr individuelle Störung. :mrgreen:
 
Re: Motivator - Eine Distribution für Audio machen?

Moogulator schrieb:
TB ist ein Thema in Linux?
[url=http://www.heise.de/newsticker/meldung/Linux-4-7-soll-AMDs-neue-Radeon-Grafikkarten-unterstuetzen-3221749.html:2geg26aa]heise.de: Linux-4-7[/url] schrieb:
Ferner gab es einige Funktionen, die die Sicherheit verbessern. Unter vielen neuen und verbesserten Treibern ist einer, der Unterstützung für die Thunderbolt-Controller bringt, die Apple in vielen 2011 und einigen 2012 vorgestellten Mac-Modellen verbaut hat.
 
TB ist ein Thema in Linux?
Ich habe kein Thunderbolt und kann daher auf keine praktische Erfahrung berichten. Laut https://wiki.archlinux.org/index.php/Thunderbolt läuft TB "out of the box"
Thunderbolt 3 works out of the box with recent Linux kernel versions [1]. The Linux kernel, starting with version 4.13, supports Thunderbolt Security, too.
Thunderbolt 3 and Linux

View: https://www.youtube.com/watch?v=_oLSrNYDAlY
 
Damit kannst du jetzt ein Thunderbolt-Audiointerface anschliessen und es wird von lspci angezeigt. Das wars ohne gerätespezifischen Treiber dann aber auch schon.
 


Neueste Beiträge

Zurück
Oben