[Umfrage] Software vs Hardware

Software oder Hardware?

  • Software

  • Hardware

  • Scheißegal


Die Ergebnisse sind erst nach der Abstimmung sichtbar.
Ich denke, man muss dabei zwischen digitaler und analoger Hardware unterscheiden. Es gibt eigentlich null Gründe warum Software nicht "besser" klingen sollte als digitale Hardware (wobei das sehr subjektiv ist), ABER, anders verhält sich das bei analoger Hardware.
Das war auch bisher immer meine Arbeitshypothese: Ich setze gerne und oft analoge Klangerzeuger ein, habe aber kein Problem damit, digitale Synts auch mal durch Plugins zu ersetzen, wenn die Haptik keine Rolle spielt.

Andererseits gibt es eben auch Stimmen, nach denen die DA-Wandler und/oder der analoge Signalweg zwischen Synth und Interface eine Rolle spielen, und den Sound in der gewünschten Richtung beeinflussen. Ich kann das nicht völlig von der Hand weisen, da ich auch schon Softsynths für die Aufnahme durch die analoge Kette (sprich: Interface --> Analogmixer --> Interface) geschickt habe, und mir einbilde, dass das eine gewisse "Wärme" reinbringt. Letztendlich fehlt natürlich die streng wissenschaftliche Beweisführung, und hauptsächlich wird es sich wohl um zusätzliches Noise, Phasenverschiebungen und sonstige Artefakte handeln, die für unsere Hörgewohnheiten als angenehm bewertet werden. 🤷‍♂️ Aber warum dies nicht ausnutzen, wenn es etwas bringt, das ansonsten vielleicht mit 2-3 EQs, Sättigungs- oder Bandsimulationsplugins gemacht werden muss?

Subtil ist es natürlich, und wo die tatsächlichen Vor- und Nachteile liegen, kommt immer auf den Einzelfall (und den Anwender) an.
 
Das mit den Wandlern glaube ich sofort. Gerade bei älterer digitaler Hardware wird das sicher eine Rolle spielen, und, ich glaube auch, dass es einen Einfluss auf die "Wärme" des Klangs hat. Wenn man sich mal die alten Waldorf-Synths zu Gemüte führt, z.B., dann höre ich da immer so eine softe, warme "Luftigkeit" im Klang, sozusagen das Gegenteil von harsch, schrill und klirrend. Eben, weil ich vermute, dass die Wandler damals nicht so hoch in den Frequenzen gingen, Stichwort hi-fi lo-fi. So mancher moderner Softsynth kann doch sehr schneidend und steril dadurch klingen, dass er so klinisch hi-fi klingen will.

Interessantes Thema, und, wird auch nicht alt. 😉
 
Wenn man sich mal die alten Waldorf-Synths zu Gemüte führt, z.B., dann höre ich da immer so eine softe, warme "Luftigkeit" im Klang
.. wobei sie das m.E. beim Microwave Plugin ganz gut hinbekommen haben.

Aber ich bin ja auch in sofern Banause, als dass mir z.B. die Resampling-Optionen beim TAL-Sampler als Vintage-Simulation völlig ausreichen. ;-)
 
zunächst einmal ist es immer die hardware, die latenzen hat. :)

bei software beträgt sie genau einen block: das sind in cubase 0,7 millisekunden (bei 88kHz halb so viel), in kyma 1 sample.

das ist schon weniger als du verzögerung hast wenn du 2 noten "gleichzeitig" durch ein MIDI kabel schickst.
Plus ca. 3 ms pro Meter, die der Schall von der Abhöre zu den Öhrchen braucht.
 
Ich denke, man muss dabei zwischen digitaler und analoger Hardware unterscheiden. Es gibt eigentlich null Gründe warum Software nicht "besser" klingen sollte als digitale Hardware (wobei das sehr subjektiv ist), ABER, anders verhält sich das bei analoger Hardware. Ich denke, man sollte sich da keinen Illusionen machen. Es ist schlichtweg unmöglich, alle Parameter von analogen Schaltkreisen die der reellen Physik unterliegen in Software oder digitaler Hardware nachzubilden. Es ist maximal möglich, ein Annäherungsmodell zu entwickeln, welches eine nahezu perfekte Illusion vermittelt. Und, da ist Software gerade in den letzten 10 bis 15 Jahren wirklich sehr weit gekommen. Ich mache mir aber auch nichts vor, dass echte analoge Hardware nochmal etwas "analoger" und damit für einige "besser" klingt.

Auch Rennsimulationen auf dem Rechner oder der Konsole sind trotz ihrer tausenden von simulierten Parameter nur ein Annäherungsmodell, und nicht "the real deal". Kann aber dennoch Spaß machen.

Das analoge Signal wird digital aufgenommen, wieso sollte man das nicht digital nachempfinden können? Wieso will man überhaupt so klingen wie 1980? Ach ja vergessen, wir sind nicht in einem Musikforum, sondern in einem Oldtimer-Club, Dampflock, tut tut, der schönste Golf war der von 1974, kein Golf kommt da ran. Alle anderen Golf sind hässlich. Es geht doch hier gar nicht um Musik-Hardware, es geht um Zeitmaschinen. Es gibt durchaus spannende innovative Hardware, aber die kauft keiner, die Leute kaufen den Stillstand, alter Wein in neuen Schläuchen.
 
wir sind nicht in einem Musikforum, sondern in einem Oldtimer-Club
man muss den Teufel nicht an die Wand malen - aber ich halte sequencer.de primär eher für ein Gear- als ein Musikforum (und Produktionstechnik ist wieder was anderes als Musizieren).

Dass ältere Semester auch gerne mal Zeugs goutieren, dass sie aus ihrer Jugend kennen und schätzen, ist eine Binsenweisheit - das war vermutlich schon immer so. :dunno: Die Generation Alpha, die hauptsächlich mit dem Smartphone Musik macht, dürfte sich auch eher seltener in Internetforen (selbst ein Relikt aus der digitalen Steinzeit) tummeln, sondern eher bei Insta oder TikTok (oder vielleicht sogar etwas noch moderneres, das ich gar nicht mehr kenne).
 
Das analoge Signal wird digital aufgenommen, wieso sollte man das nicht digital nachempfinden können?
Ganz einfach: Weil es in der analogen Welt unendlich viele nichtlineare Parameter gibt, die man so alle digital nachbilden müsste, was natürlich niemand macht und auch niemand kann.

Und, die digitale Aufnahme hat damit auch nicht wirklich etwas zu tun, außerdem dem abgebildeten Frequenzbereich, aber, das ist bei weitem nicht alles was analog ausmacht. Und, vor allem ist das so ziemlich das Uninteressanteste, weil unser Ohr ebenfalls nur einen begrenzten Frequenzbereich hat.
 
Ich denke, man sollte sich da keinen Illusionen machen. Es ist schlichtweg unmöglich, alle Parameter von analogen Schaltkreisen die der reellen Physik unterliegen in Software oder digitaler Hardware nachzubilden. Es ist maximal möglich, ein Annäherungsmodell zu entwickeln, welches eine nahezu perfekte Illusion vermittelt. Und, da ist Software gerade in den letzten 10 bis 15 Jahren wirklich sehr weit gekommen. Ich mache mir aber auch nichts vor, dass echte analoge Hardware nochmal etwas "analoger" und damit für einige "besser" klingt.
Was ich bis jetzt so gelesen habe, braucht man auch nicht alle Elektronik Komponenten in eine Schaltungssimulation miteinfließen zu lassen. Eine große Aufgabe ist es wohl erstmal, bei so einem Analoggerät, zu separieren welche Bauteile überhaupt klangentscheidend sind. Meist reicht es auch dann aus nur diese zu modellieren und bei den Modellen gibt es wohl auch noch Unterschiede. Es werden wohl immer neue Techniken aufgezeigt, wie man die Elektronen in einer Schaltungssimulation berechnet. z.B. werden wohl alle Sachen, die in der Realität gleichzeitig passieren, per Wahrscheinlichkeit berechnet. Solche Schaltungssimulationen sind was völlig anderes als das was die VSTs am Anfang gemacht haben und auch heute hat nicht jeder Softwaresynth eine Schaltungssimulation drin, weswegen es auch nur ein paar wirklich gute Exemplare gibt.

Wann das alles mal perfekt klingt wird man sehen. Bei vielen Sachen kommen sie dem Ideal schon sehr nahe finde ich. Und oft reicht das schon aus.

Ich für meinen Teil würde mir mehr Hardware kaufen, aber die ist mir meist zu teuer und so viel Platz habe ich in meiner kleinen Ecke auch nicht. In Zukunft ist mal ein Syntakt geplant zum Rumjammen, aber gut 1000k ist schon eine Hausnummer für mich.

Die Frage Hardware vs Software ist unmöglich für die Allgemeinheit zu beantworten. Jeder holt sich das was er bezahlen kann und womit er den meisten Spaß hat.
 
Das analoge Signal wird digital aufgenommen, wieso sollte man das nicht digital nachempfinden können?

Die Frage ist wie und mit welchem Aufwand. Es ist naiv anzunehmen, dass die chaotischen Prozesse in der (praktisch unendlich) hochaufgelösten analogen Welt sich mit begrenzter Rechenleistung im bandbreitenbegrenzten digitalen Raum in Echtzeit vollständig nachbilden lassen.

Meine Ohren interessieren sich nicht für Jahreszahlen sondern für Klangqualität. Und da klingt auch ein alter DX7 mit schräger Samplerate und idiosynkratischem Wandleraufbau interessanter und funktioniert besser im Mix als ein DX7II, der wiederum besser als das Plugin klingt (das mit Echtzeit-SRC die Impulswiedergabe vermatscht).
 
Was ich bis jetzt so gelesen habe, braucht man auch nicht alle Elektronik Komponenten in eine Schaltungssimulation miteinfließen zu lassen. Eine große Aufgabe ist es wohl erstmal, bei so einem Analoggerät, zu separieren welche Bauteile überhaupt klangentscheidend sind. Meist reicht es auch dann aus nur diese zu modellieren und bei den Modellen gibt es wohl auch noch Unterschiede. Es werden wohl immer neue Techniken aufgezeigt, wie man die Elektronen in einer Schaltungssimulation berechnet. z.B. werden wohl alle Sachen, die in der Realität gleichzeitig passieren, per Wahrscheinlichkeit berechnet. Solche Schaltungssimulationen sind was völlig anderes als das was die VSTs am Anfang gemacht haben und auch heute hat nicht jeder Softwaresynth eine Schaltungssimulation drin, weswegen es auch nur ein paar wirklich gute Exemplare gibt.
Eine realitische Schaltungssimulation verbraucht viel mehr Rechenleistung, als zur Verfügung steht. Und dann bleibt das Problem mit der Samplerate und der Konvertierung. Ich habe Signale durch Schaltungen in Spice geschickt (bei einem längeren Stück rechnet ein moderner PC stundenlang) und da klangen ein paar TL072 in echt trotzdem besser als die Simulation.
 
Eine realitische Schaltungssimulation verbraucht viel mehr Rechenleistung, als zur Verfügung steht. Und dann bleibt das Problem mit der Samplerate und der Konvertierung.
Um so beindruckender ist es wie die, die total langsamen Algos von LTSpice zur Echtzeit gebracht haben. Bei den ADC gibt es immer mal wieder interessant Neuentwicklungen wie man bestimmte Problem schneller und genauer angehen kann. Da werden wir noch einiges erleben in Zukunft, das wird mit Sicherheit nicht schlechter werden.
 
Um so beindruckender ist es wie die, die total langsamen Algos von LTSpice zur Echtzeit gebracht haben. Bei den ADC gibt es immer mal wieder interessant Neuentwicklungen wie man bestimmte Problem schneller und genauer angehen kann. Da werden wir noch einiges erleben in Zukunft, das wird mit Sicherheit nicht schlechter werden.
[/URL]
Warum sollte es auch schlechter werden? :selfhammer:
 
zum thema:
als ob analoge hardware nur aus "ollen synthis für alte säcke" bestehen würde... (gähn)
gehe doch mal zur superbooth , und schaue dir die ganzen feinen klangformer/erzeuger/effekte und so weiter mal an.
alleine die ganzen modular geräte sind eine welt für sich.

ansonsten, wie schon x mal erwähnt,
beides benutzen und spass haben.
 
Was ich bis jetzt so gelesen habe, braucht man auch nicht alle Elektronik Komponenten in eine Schaltungssimulation miteinfließen zu lassen. Eine große Aufgabe ist es wohl erstmal, bei so einem Analoggerät, zu separieren welche Bauteile überhaupt klangentscheidend sind. Meist reicht es auch dann aus nur diese zu modellieren
Richtig. Deshalb schrieb ich ja auch, dass virtuell-analog keine detailgetreue Abbildung, sondern die Illusion von Analog ist. Warum sollte man sich auch mit etwas abmühen, was nur geringen wenn überhaupt einen Einfluss auf den Klang hat.
 
Wenn ich die midi Latenz bei mehreren midikeyboards die auf verschiedene softsynths geroutet sind dann noch zur itb Latenz addiere, und vielleicht noch einen externen sequencer den ich dann brauche und der auch seine Events mit reinfuddelt ist einfach kein gefühlvolles spielen mehr möglich, das sperrt sich einfach.
zuerst: ich verstehe wo du stehst. Du hast HW und magst das.
Versuche dich nicht von irgend was zu überzeugen ! ;-)

Aber ich versuche falschen Vorurteilen und Fehlinformationen entgegenzuwirken.
Weil es schade ist für die Leute denen ein *gutes* SW setup wirklich was bringen würde.
Deine Argumente kann ich nachvollziehen.
zweitens: sobald sequenzing mit an Board ist und wichtig ist, bin ich plus-minus auch raus aus dem SW dingens. ;-)
Aber lassen wir den Punkt mal beiseite.

Mehrere keyboards sollte nicht mehr Latenz bedeuten.
ich benutze nur eines. Den Punkt kann ich nicht nachvollziehen. Wenn man das richtige Setup wählt* ist das nicht so.
* Das wäre ein moderner Mac mit mehreren TB3/TB4 ports. Also macminiM2pro, oder ähnlich/aufwärts.

Latenz ist innsgesammt ein Punkt !
Den man absolut im Griff haben kann wenn man weiss worauf man achten muss.
Latenzen wie mit normalen "Workstations" sind absolut machbar. Nichts spezielles.
Wie gesagt, beim sequenzing klinke auch ich auch aus.
( den punkt dass ich mich bei allem auf Keyboard handspielen beziehe hatte ich gemacht, ne ? )

Gefühlvolles spielen ?
nun, ich hatte noch nie HW unter den Händen die mich GENAU bei dem so unterstützt wie es mein SW setup tut.
Hat viele Gründe !
ich hänge hier ne gewisse Begeisterung raus, weil ich diese auch so hab ! Und das hat eben viele Gründe.
Kurvaturen zu velocity zeichnen z.bsp.
Oder dem Piano nen LP-Filter spendieren, den ich GENAU SO einstellen kann wie ich das will bzgl. wie ein Fader (oder Knopf) den steuert, wie das reagiert. Weil ich zu jedem CC mapping die kurvatur zeichnen kann.
EQs kann ich nen morph anlegen. Mache ich so !!....oft !
allein die beiden piunkte, LP-filtern oder Eqing mit morphs bedienen, z.bsp. um nen sound weichzuzeichen, das aber gleichzeitig voll jammbar zu haben, wäre für mich wahrscheinlich das umsteigen auf SW bereits wert. Jetzt wo ich weiss dass es das gibt und wie´s geht. Und vor allem wieviel musikalischen nutzen allein die zwei kleinen tricks bringen.

LP-VCF kein trick ?....nun, mit angepassten kurvaturen wirds zu einem !
Ist dann was VÖLLIG anderes als wie ein popeliges LPF in irgend nem Synth oder FX. Egal ob HW oder SW.
allein angepasste kurvaturen werden zum gamechanger wenn man es mal erlikt hat wie damit umzugehen ist !
Kann ne DAW nicht btw. / Drum weiss auch niemand das es das gibt / Drum benutzt es niemand / .....der informatiosnstand der normalen szene ist am Boden unten / Drum werten die Leute ITB Setups auf ner komplett falschen Basis.
Wer es nicht kennt, kann sich gar nicht vorstellen wie fest sich allein die Welt des LP-filterns ändert, indem man kurvaturen zeichnen mit rein nimmt. Das ist ernst gemeint,...man kann es sich nicht vorstellen !

ich komme/kam vom Modularsynth kontext. Ich hab genug mit VCFs gedealt !
aber wie stark sich der anwendungsbereich ändern kann,.......es war jenseits dessen was ich mir vorstellen konnte.
Weil man es eben auch ins subtile ziehen kann. Oder eben, man nimmt gleich ein "EQ setup" statt dem LPF.
Gibt plugins die haben alles on board. ich kann innerhalb eines plugins mixen wie ich will.
Dann ne morph control anlegen.

Zu gut deutsch heisst das: ITB kann ich den Klang GENAU SO formen wie ich das haben will.
Betonung auf -> im spiel shapen -> im spiel adjustieren, oder -> damit " wild jammen".
Beim jammen ist der punkt, es so anzulegen dass es einen unterstützt, dass man immer in nem sweetspot bereich liegt, es aber auch ins extremere ziehen kann z.bsp.
Also sounds, z.bsp. Piano nur leicht weicher machen im Klang, aber gleichzeitig das potential haben (ich mache das immer so), nen LPF auch fast komplett schliessen zu können.
Ha, ich führe das mal weiter aus.
Ziehst du den LP runter, machst dicht, wird das leiser !
also zieht man noch ne gainstufe mit ins patch, nimmt das in den morph mit rein, jetzt kann man das Piano komplett LP Filtern, kann aber trotzdem den Pegel bewahren,.......oder das sogar boosten !...fett machen ;-)

Wer´s nicht kennt, ein Piano durch nen GUTEN LP-Filter zu senden, und damit zu jammen, kann sich gar nicht vorstellen wie das tönt. Das Piano tönt dann plötzlich richtung Synth ! es ist fantastisch....es kann fantastisch sein wenn man weiss wie man es richtig aufsetzt. Allenfalls muss man den LP Filter noch etwas kitzeln, d.h. Reso aufdrehen bei gewissen frequenz einstellungen. Dazu legt man nen morph an. "jammt" man dann mit dem LPF da unten rum rum, fängt das plötzlich an zu sounden. (jetzt, nachdem der morph steht, bewegt man Freq und reso )
...sagen wir wir besetzen damit die ersten 25-30-40% des Regelweges eines Faders, dann kann ich oben in den oberen 30% oder so, das leichte "weich-machen des sounds" ansiedeln. allenfalls dazu sogar LPF + EQsetup koppeln. alles mit nur einem Fader steuern.
Nen bereits leicht komplexeren morph anlegen.
Dann hab ich auf nur einem Fader 2-3 aufgaben abgelegt.
-leichtes weich machen des sounds
- LPF typisches rumjammen mit dem cutoff-
- LPF jammen, aber NUR im ganz unteren bereich bleiben wo das LP stark geschlossen bleibt. Nur in dem bereich rumjammen. Ja, hab ich früher in den alten patches so gemacht. "Das" dann mit delay koppeln !
est voilà,....ab hier spätestens, steige ich persönlich aus der HW Kutsche aus und steig in das ITB Schiff ein !
ich hab dann das LP-VCF in den patches noch verdoppelt, frisst dann halt 2 Fader. Dann hatte ich den LP VCF sowohl einmal im send weg vor dem Delay, und noch einmal separat im dry-Weg des pianos.

Das ganze war jetzt NUR die Antwort auf dein "mit Gefühl spielen"....nur das, ....hab nur das als trigger genommen.
Bei mir findet sowas statt, aber nur Piano und/oder EP. Kann man auf alles anwenden. Das mit dem delay hab ich noch optional reingenommen ;-)

wer mal gehört hat wie geil LP gefilteretes Piano klingen kann....? ich mein: handgejammt !......oh Mann !
was denkt ihr wieso ich quasi NIE Synths nutze ? :lollo:


aber jetzt das:
würde ich dasselbe Patch mit HW anlegen wollen, hab ich erstens kein Aux-send/dry-Volumen setup, sondern werde beim Delay mit nem popeligen Dry-Wet mix leben müssen.
Würde ich nie wieder machen ! ALLEIN NUR wegen dem punkt würde ich in den PC zügeln. ( das ist kein scherz)
aber bleiben wir HW: mein geiles, ich mein dieses allergeilste echt analoge LP-VCF (kein Scherz, so gemeint ! ich hab wahrscheinlich etwa 16 analoge VCFs rumliegen irgendwo / das beste vom besten vom besten).....also dieses echt geile anaioge VCF,....es wäre gar nie so jammbar ! NIE !! das hat seine eingebaute regelcharakteristik, du drehst am poti, das filter öffnet sich. aber das bewegt sich nicht unbedingt so, dass es wirklich synchron läuft wie wir nen Fader autiomatisch bwegen beim schnellen, wilden jammen.
ITB, jamme ich dir den LP Filter so, dass ich "per tastendruck den ich am piano mache", den Ton filtere. LP schnell auf ! wieder zu ! ganz ganz kurz, grad knapp nur für den einen ton öffne. Sehr gezielt öffnen, nur genauso viel wie es sein soll. und das nun je Ton den man spielt.
Jetzt ist das piano nicht mehr nur weich, jetzt wirds zum Synth. Nur durch das anwenden eines LP-Filters.
Diese form des jammens würde ich mit nem echten LP Filter "soo" nicht hinbekommen. Und selbst wenn man purzelbäume macht wärs nie so gut jammbar. (in HW könnte man ne CV source nutzen, und min-max bereich festlegen. mehr nicht. Das ist niemals auf die gleiche Weise jammbar )


gehts um wildes LP-VCF jamms, oder gehts nur ums sanfte weich machen des klanges ?
Das krasse ist, man kann beides zugleich haben !
Haptik ?
DAS IST HAPTIK....das ist was geile Haptik wirklich ist.
...der Fader daneben würde dann bei mir den Delay send regeln ;-)....nur schnell eine Note ins Delay senden ? geht ! ....ohne dass man nen dry-wet zudreht und das Delay wieder verliert !
Soo werden die Dinge jammbar. Soo wird das expressiv !


Mensch, allein dieses ganz kleine LP-VCF beisp. auszuführen hat mir grad wieder gezeigt dass ich den richtigen Weg gegangen bin.
Das alles geht aber NICHT solange man seine scheiss plugins in ne DAW rein lädt.
man MUSS in die dezidierten live-play hosts rüber wechseln.
und die sind auch dafür gemacht viele keyboards anzuschliessen ;-)

Die sind in erster .linie auf stabilität hin ausgelegt und geprüft ! Zumindest GigPerformer ist das. Und GP ist auch extrem klein was latenz angeht. Und: man kann mehrere instanzen paralell laden. Jede läuft explizit auf nur einem kern ! (und kann auch nicht anders)
und: man kann auch mehrere instanzen über die selben midi controller + keyboards steuern.
Da sind extrem flexible setups möglich. ( ich hatte dir nen link zum richtigen Ort dort im Forum gepostet.
Das sind profi musiker die GP entwickelt haben. Und die ganze szene dort besteht aus nem recht hohen anteil an pro musikern und sehr ambitionierten Amateuren. Zu denken dass mehr keyboards mehr latenz bedeutet ist irgendwie absurd. oder sagen wir mal so: die Technik ist heute angekommen....immer auf Mac setzen wäre mein tipp ! und über TB3/TB4 anschlüsse gehen. Hubs und docks verwenden !)


wie gesagt, Latenz ist ein Thema ! ganz klar.
wers drauf anlegt kann mit dem ITB setup bzgl. keyboard spielen kleinere Latenzen realisieren als wie mit nem standard digital keyboard ( die fetten workstations). Das geht !....wird aber nicht die Regel sein, weil man ITB einfach doch fettere patches machen will.
Limiter, comps, ...viele vintage outboard klon FX, viel viele viele pliugins bringen ne eigene Latenz mit.
alles UAD hat z.bsp. so um 4ms ! Kush audio auch !
D.h. ITB, wenn minimale latenz ne rolle spielt muss man sich gut informieren, und gut aufpassen ! ja, dann kämpft man gegen die Latenz.

ne reale keyboard klang-raus latenz von 7-8ms Sekunden ist gut machbar wenn man schaut was man tut.
6ms gehen auch. locker
aber dann sollte man anfangen USB audiointerfaces zu meiden und auf TB3 Dinger setzen !...oder bessere RME verwenden.

Viele profi gitarristen gehen ITB ! die nutzen alle GP als Host. Bassisten auch.
Dort willst du dann eher nicht über 6mS Latenz haben. Eher lieber nur 4ms !
Und das ist dann rountrip wohlgemerkt !
Das geht.
ich hab E-Bass setups aufgesetzt gehabt.
um 4ms roundtrip zu erreichen, das ist hart, aber es geht.
6ms ist realistischer.
Das ghet alles.
aber dann muss man halt in die Thematik reinsteigen.
Dasselbe tut man ja auch bzgl. seiner HW setups !
Man weiss bescheid, man ist informiert, man sucht sich seine Tools gezielt aus ;-)

Latent IST ein Argument !
aber es ist weder ein KO argument noch sonstwie der ganz grosse rückschlag.
Erst bei den sehr wilden FX patches wird es zum grossen rückschlag. aber das ist ne ganz andere thematik.
diese FX gibts in HW gar nicht. Und alles an FFT basierten FX hat halt schnell mal 40ms latenz.
aber, ganz anderes Thema !


was ihr alle hier wirklich unterschätzt ist die Macht von EQs !
ITB, als plugins, haben wir teils EQing, VCF, und anderes, alles in einem plugin.
(ist aber gar nicht so wichtig. Es erlaubt aber ein einfacheres visuelles feedback in bezug wenn man morphs anlegt)
EQing, in verschiedener couleur ist das wesentliche Ingredrient um SW klangerzeugern Beine zu machen.
aber, fast noch viel wichtiger, es ist ein extrem mächtiges tool um Synths und andere instrumente "besser spielbar" zu machen. Den klang on the fly anpassen. EQs nicht mehr nur als statisch genutztes tool in der produktion, rein nur fürs entzerren gedacht.
Mittels morphs werden EQs zum extrem mächtigen tool.
mit normalen Eqing ist der Punkt NICHT das besser tönen, sondern das sich besser an den moment anpassen können.
Wäre ich live onStage keyboarder, würde ich EQ morphs anlegen um den Sound an die Bühne anpassen zu können. Per ein oder zwei knopf Regelung.....komplexe morph controls.

...du bist on stage, du findest dein Sound passt nicht ganz ?
oder andere Instrumente der Band verdecken dich in dem Raum ?....du willst den sound leicht anpassen, bass etwas rausnehmen, höhen etwas hervorheben ? Nun, im host kann man sich morphs dazu anlegen ;-)

spannend wirds aber da:
statt nur statisches EQing, kann man erstes dynamisches EQing nehmen, und man könnte paralell dazu auch transienten designer usw. mit reinnehmen, so dass man seinen gesammt sound zwar geEQed hat, aber so das da gar nichts plötzlich wummerig oder spitzig stechend rüber kommt. Einfach nur EQ reindrehen ?....nun, da handelt man sich schnell was ein ;-)
Wer die Erfahrung dazu mitbringt "könnte" sich so morphs anlegen, rein für onStage. ( ich war mal onStage im Band kontext unterwegs, ich sag das nicht einfach so ;-) ...war aber nie keyboarder)

Kann man alles noch weiter ziehen.
diverse Raum-anpassungs morphs anlegen.
die EQS parallel oder seriell patchen. ALLE EQs durch die selben HW controls regeln, aber nur ein EQ ist auf einmal aktiv.
Den EQ wählen der zum Raum passt. ...per dreh eines HW knopfes am controller.

Das IST Haptik !

wie gesagt, wer gerne HW hat ? nichts dagegen !
aber die heutigen Möglichkeiten von ITB basierten setups sollte man nicht unterschätzen ;-)


so, das war mal eine antwort, auch wenn nicht ganz direkt aufs zitat geantwortet.
ich wollte einfach mal perspektiven aufzeigen.....getriggert vom der Phrase "weich spielen"


egal in welche Ecke man es ziehen würde.
mit dem ITB Setup kannst du alles immer in wesentlich vergeinert aufsetzen, als wie es HW jemals könnte.
aber wenn sequenzing mit ins spiel kommt bin ich ITB auch raus......ausser es gäbe den Montage dann mal als Plugin.
die korgys gibts ja schon.

totzdem, verstehe sehr wohl wenn Leute lieber mit nem HW setup dealen.
Ich selbst konnte ITB einfach Grenzen sprengen. Es ist fantastisch ! GRAD wegen der Haptik :lol:
 
Richtig. Deshalb schrieb ich ja auch, dass virtuell-analog keine detailgetreue Abbildung, sondern die Illusion von Analog ist. Warum sollte man sich auch mit etwas abmühen, was nur geringen wenn überhaupt einen Einfluss auf den Klang hat.

VA hat den Vorteil kurz mal analog zu sein. Das macht schon was mit dem Sound, deshalb auch der Tipp nen Softsynth mal
durch einen Preamp zu jagen. Das vollendet auch eine Pluginmischung. Klingt offener als ITB Lösungen, klingt schon etwas
komprimiert, ohne komprimiert zu sein, aber das wollen oder können hier einige nicht hören.

Selbst schlechte Synths, bspw. der CS1x, den ich nunmal habe, klingt aus dem Stand heraus verwertbarer, auch wenn er
für sich scheiße klingt. Bedeutet aber nicht, dass man ihn nicht verwenden kann, da muss man auch was für tun.
 
Aber ich versuche falschen Vorurteilen und Fehlinformationen entgegenzuwirken.

Tust du aber nicht. Wie wäre es mal mit konkreten Argumenten, Beispielen?

Du lässt es immer dastehen, als müsse sich die Hardwarefraktion rechtfertigen,
dabei arbeiten die meisten längst hybrid und suchen sich bei Soft- und Hardware das passende heraus.

Wenn man dabei Erfahrungen sammelt und die Vor- und Nachteile von jeweils beidem kennt,
ist das noch lange kein Angriff auf die Softwarefraktion, sondern eine differenzierte Betrachtung.

Ich würde bspw niemals nur wegen eines Hardwrae EQs die Box verlassen und neu aufnehmen,
sondern nur, wenn das Signal bereits analog ist.
 
wie gut die Sachen klingen wissen die meisten die hier mitlesen alle, da würde ich niemandem (auch dir nicht) irgendwie Kompetenz absprechen.
ich würde es den leuten absprechen dass die wissen wie gut der Sound ITB sein kann.
sie wissen es eben genau nicht. behaupte ich so.
das hat viele Gründe.

das angetönte anlegen von morphs im grad gemachten langen post von mir spielt da mit rein.
in DAWs kannst du so morphs nicht machen. Live12 evtl. ?,......würde ich aber dennoch nie in ner DAW machen wollen.
ganz abgesehen davon dass die dann meistens erheblich mehr Latenz haben
 
Die Frage ist wie und mit welchem Aufwand. Es ist naiv anzunehmen, dass die chaotischen Prozesse in der (praktisch unendlich) hochaufgelösten analogen Welt sich mit begrenzter Rechenleistung im bandbreitenbegrenzten digitalen Raum in Echtzeit vollständig nachbilden lassen.

Meine Ohren interessieren sich nicht für Jahreszahlen sondern für Klangqualität. Und da klingt auch ein alter DX7 mit schräger Samplerate und idiosynkratischem Wandleraufbau interessanter und funktioniert besser im Mix als ein DX7II, der wiederum besser als das Plugin klingt (das mit Echtzeit-SRC die Impulswiedergabe vermatscht).

Wieso kann ich kein Chaos in ein digital generiertes Signal integrieren? Wie kann ich die unendlich hochaufgelöste analoge Welt in digitaler Form hören, wenn ich sie digital aufnehme? Wenn wir soweit gehen, dann klingen nicht mal die Geräte eines Models in der analogen Welt gleich. Was bedeutet, nicht mal die Hersteller der Hardware sind in der Lage mir den spezifischen Sound zu garantieren.

man muss den Teufel nicht an die Wand malen - aber ich halte sequencer.de primär eher für ein Gear- als ein Musikforum (und Produktionstechnik ist wieder was anderes als Musizieren).

Dass ältere Semester auch gerne mal Zeugs goutieren, dass sie aus ihrer Jugend kennen und schätzen, ist eine Binsenweisheit - das war vermutlich schon immer so. :dunno: Die Generation Alpha, die hauptsächlich mit dem Smartphone Musik macht, dürfte sich auch eher seltener in Internetforen (selbst ein Relikt aus der digitalen Steinzeit) tummeln, sondern eher bei Insta oder TikTok (oder vielleicht sogar etwas noch moderneres, das ich gar nicht mehr kenne).

Ja, nur ist die Hardware irgendwann vor 20 Jahren stehen geblieben und jeglicher Fortschritt wird nieder gedrückt. Wenn ich mich erinnere, wie hier gegen die MPC One gewettert wurde, so dass man danach wirklich dachte, hey die MC707 ist eine geniale Groovebox, die so viel besser zu bedienen ist als die MPC One. Ja, ne klar, irgendwo muss dann auch mal Platz für die Realität sein. Wenn das Showview deines Videorecorder immer noch auf die SpaceNight programmiert ist und du denkst mit einem DVD-Player wärst du am Puls der Zeit, dann ist der Zug mit der Realität einfach abgefahren. Ist ja alles kein Problem, geht mir genauso, ich kann z.B. auch nix mit Instagram anfangen, aber ich würde halt nie sagen, dass ist scheiße weil xy. Mir ist bewusst, ich bin nen alter Sack und darum habe ich kein Instagram installiert. Und Generation Alpha ist max. 14 Jahre alt, wenn die da mit nem Handy in Garageband Musik machen, dann klingt das bestimmt mind. genauso cool wie ich damals 14 auf nem 100 Euro Casio-Keyboard. Generation Z ist mit Ableton sicherlich den meisten hier im Forum bzgl. Musik bereits weit voraus.
 
Tust du aber nicht. Wie wäre es mal mit konkreten Argumenten, Beispielen?
Genau. Das ganze rumgeier mit Einstellungen klingt superkompliziert. Ich komme nicht vom Modularsystem. Ich habe ein ganz kleines, wegen des Sounds, habe aber keine Freude am rumfrickeln. Ich bin Pianist und Produzent, und ich bin faul. Ich will, dass meine Demos wie fertige Produktionen klingen. Quasi automatisch. Das kriege ich mit meinem - zugegebenermaßen aufwendigen - OTB-Setup hin.
 
Wie kann ich die unendlich hochaufgelöste analoge Welt in digitaler Form hören, wenn ich sie digital aufnehme?
Weil Bearbeitung und Aufnahme/Wiedergabe nicht dasselbe sind. Ich nehme auch digital auf und spiele ab (allerdings nur mit sehr speziell ausgewählten Wandlern). Aber die Klanggenerierung und Bearbeitung findet weitestgehend OTB statt.
 
dann klingen nicht mal die Geräte eines Models in der analogen Welt gleich

Das ist ein anderes "anders", aber spätestens da hört es für mich auf.
Mir reicht es, wenn ein Signal verwertbar klingt, dabei ist es mir egal, ob der MS20
ne andere Revision hat oder einfach nur ein MS20 mini. Alles klingen verwertbar.
Vielleicht nicht mit den spezifischen Besonderheiten, aber nochmal anders als ein Softwareinstrument.

Da kann man jetzt aufdröseln warum das so ist, ich wähle einfach das für mcih passende Tool
 


Neueste Beiträge

News

Zurück
Oben