Ich bin beeindruckt...

Es geht auch mit weniger als halbnackt:

mit tittenbildern männer dazu zu bringen irgendeinen mist anzuklicken funktioniert jetzt seit 3000 jahren.

vielleicht stimmt ja mit mir irgendwas nicht, aber mir ist es bei pianistinnen lieber, wenn sie klavierspielen können.

stephen hawking war auch nie wirklich hübsch und dennoch bewundere ich kaum jemanden so wie ihn.

und was habe ich von einer halbnackten lufthansa-pilotin wenn sie nicht ... you get the idea.
 
Etwas OT zwar, aber der Klang eines Klaviers ist in meinem Ohren unglaublich inspirierend, wenn es um das Komponieren von Melodien geht ... Vielleicht ist das ja eines der Probleme, warum nicht mehr so viele gute Melodien entstehen: zu wenige Synthesizer-Spieler benutzen auch etwas "klavierartiges"?

der effekt ist zweifelsfrei da.

du drückst eine taste und es macht MÖÖÖÖP oder RBRUUUUMS und so kommt natürlich kein mensch auf eine vernünftige und fantasievolle melodie.

aus dem gleichen grund sollte man auch sehr sparsam mit delay umgehen, bevor die komposition überhaupt steht.

mein tool der wahl sind beim herumprobieren auf ereignisebene das mda piano und die alte version vom ppg plug-in (als microwave ersatz)

wenn dann später techno oder klassik daraus wird, nähere ich die ersatz sounds langsam dem gewünschten endergebnis an. :)
 
Zuletzt bearbeitet:
Quantisierung = Tod. Die Musik lebt davon, dass sie eben nicht 100% genau gespielt wird. Microtiming ist ganz wichtig. In der Klassik hat man ein anderes Microtiming als beim Jazz, aber man hat es.

Ich hatte immer angenommen, gerade hier bei den Synth-Leuten ist das starre Raster beliebt. Viele Sequenzer erlauben gar kein Microtiming und EDM ist so gut wie immer quantisiert. Ist das dann keine Musik?
 
Ich hatte immer angenommen, gerade hier bei den Synth-Leuten ist das starre Raster beliebt.
Warum? Es machen ja nicht alle "Synth-Leute" starr quantisierte Musik.

Viele Sequenzer erlauben gar kein Microtiming…
DAWs erlauben es, bei den Hardware-Sequencern geht es z.B. mit Elektron-Geräten. Wer modular unterwegs ist, kann es mit Modulation der Master-Clock probieren. Und dann gibt es ja noch das weite Feld der mit Synthesizern gemachten Musik, die ganz ohne Sequencer aufkommt.

…und EDM ist so gut wie immer quantisiert. Ist das dann keine Musik?
EDM ist nicht die einzig mögliche Musik, die mit Synthesizern gemacht werden kann.
 
Ich hatte immer angenommen, gerade hier bei den Synth-Leuten ist das starre Raster beliebt.
Synth-Musik kann anders funktionieren. Rhythmisch kommt das einem mit anderen Hörerfahrungen manchmal arg mechanisch vor. :)
(Komme vom klassischen Klavier und spiele viel Jazz.)

Viele Sequenzer erlauben gar kein Microtiming und EDM ist so gut wie immer quantisiert. Ist das dann keine Musik?
Unpräzise ausgedrückt, meinerseits. Die Antwort bezog sich ja auf eine DAW, die schneller und präziser spielt als jeder Pianist. Wenn man dann darüber allerdings Musik spielt, die vom Microtiming lebt, dann quantisiert man diese zu Tode.

Also, mit dem Rechner Ungenauigkeiten oder besonderes Timing anzuerziehen, davon hat man doch schon Ende 80er/Anfang 90er gesprochen, IIRC. Die Snare 10ms nach hinten legen, das wirkt halt relaxt, 10m s vor dem Beat, dann wirkt's treibend.

Grüße
Omega Minus
 
Quantisierung = Tod. Die Musik lebt davon, dass sie eben nicht 100% genau gespielt wird. Microtiming ist ganz wichtig. In der Klassik hat man ein anderes Microtiming als beim Jazz, aber man hat es.

Man spielt auch nicht die Noten genau, wie sie da stehen. Bach spielt man anders als Mozart oder Debussy. In dem Spannungsfeld zwischen mechanisch exakter Musik und Herumeiern, dazwischen lebt und atmet die Musik.

Selbst ein Militärmarsch hat ein gewissen Groove, um den "Schmiss" zu erzeugen. Beim Winer Walzer ist die zwei leicht vorgezogen, die drei ist ein kleines bisschen später. Spielt man die exakt, ist der Groove kaputt.

Oder Miles Davis, wie unterschiedlich er in der Time Viertel und Achtel plaziert. usw usf

Grüße
Omega Minus
Das ist schon klar.
Allerdings kann man mit Groove Templates, näherungsweise Quantisierung, Tempotrack usw auch ohne KI dem von der DAW Gespielten einiges an Leben einhauchen. Und wenn das dann auf irgendeinem Tonträger landet, weiß ich nicht wie eindeutig man dann den Menschen oder die Maschine raushört (je nach Musikstil).
Entscheidender für mein "ich bin beeindruckt" ist dann das, was der Mensch live darbieten kann oder könnte, unabhängig davon, wozu eine KI oder eine Maschine in der Lage wäre.

@serge hat das ja gut auf den Punkt gebracht
....

Warum? Weil dort demonstriert wird, zu welchen Leistungen Menschen in der Lage sind. Damit meine ich ausdrücklich nicht, dass ein Konzertpianist eine Leistung erbringen würde, die eine Maschine nicht ebenso oder vielleicht sogar besser (im Sinne von "schneller" oder "präziser") erbringen könnte, sondern dass im Konzertsaal die menschliche Leistung als solche vorgeführt, genossen, gefeiert und verglichen wird, im Sinne von: Ist Lang Lang ein besserer Pianist als Ivo Pogorelich, hat Martha Argerich die beste Interpretation von Tschaikowskis erstem Klavierkonzert geliefert und so weiter und so fort.

Hinzu kommt das schwer in Worte zu fassende Phänomen, dabei zu sein, wenn ein Interpret ein bekanntes Werk so interpretiert, dass entweder völlig neue Facetten eines Stücks sichtbar werden, oder dass bereits bekannte Facetten in einem neuen Licht erscheinen, so dass man das Gefühl hat, ein Stück Musik zum ersten Mal in seiner ganzen Schönheit zu hören.
 
....

vielleicht stimmt ja mit mir irgendwas nicht, aber mir ist es bei pianistinnen lieber, wenn sie klavierspielen können.

stephen hawking war auch nie wirklich hübsch und dennoch bewundere ich kaum jemanden so wie ihn.

...

Klingt auf Anhieb plausibel, letztendlich sind das aber auch wieder nur Klischees.
Die leicht bekleidete Dame auf den verlinkten Videos spielt ganz hervorragend Klavier, völlig unabhängig davon wie sie sich optisch in Szene setzt.
Das ist mit Stephen Hawking ähnlich. Den bewundern alle, auch ich, weil ein brillanter Geist in einem so gebrechlichen Körper gefangen ist, sein Schicksal viele Menschen (auch Wissenschaftler) anrührt und weil er bis zuletzt gekämpft hat.
Trotzdem glaube ich, dass seine Bedeutung für die Wissenschaft aufgrund dieser Umstände, seiner Popularität und der Tatsache, dass er gute Bücher geschrieben hat, nicht neutral bewertet wird.
 
Allerdings kann man mit Groove Templates, näherungsweise Quantisierung, Tempotrack usw auch ohne KI dem von der DAW Gespielten einiges an Leben einhauchen.
Für diese Mühe könnte man doch auch Klavier üben. :)

Wenn ich einen Audiostrom verkonsumiere, dann ist keine Interaktion und nur eine unidirektionale Kommunikation da. Technisch ist es vielleicht möglich, einen generierten Audiostream so zu editieren, dass er nicht mehr von einer menschlichen Aufnahme zu unterschieden ist. Aber ganz viele Leute spielen ja auch zusammen mit anderen Menschen in Echtzeit. (OK, 2020 haben wir Corona.) Da ist dann der Arsch ab, wie man so schön sagt.

Weiteres Problem:
Heute möchte ich mal das Werk so oder so interpretieren. Der Pianist kann das, in Echtzeit. In der DAW muss man dann wieder herumfummeln bis zur Gesichtslähmung. Es halt keine Echtzeit. OK, die ist die CD-Aufnahme auch nicht. Aber man kann Musiker auch live hören (OK, 2020, hatten wir schon.)

Und dann sind wir bei der Frage: Was hat sich der Mensch bei der Interpretation gedacht? Was denkt der DAW-User über die Interpretation einer Skrjabin-Sonate, wenn er seine Tempotracks macht? (Man braucht ja mehrere, da mehrere Stimmen sich unterschiedlich verhalten. Ich kann den Bass recht straff spielen, die Begleitstimme hat wieder anderes Microtiming und die Melodie auch.)

Grüße
Omega Minus
 
Ich bin da ganz bei dir. Und für Klassik und Jazz halte ich realistische Ergebnisse zwar für machbar, aber für unverhältnismäßig aufwendig, mal abgesehen davon, dass es niemanden interessiert.
Im Rock und Pop Bereich ist es imho aber genau umgekehrt. Da wird dann nachher versucht bei Liveauftritten die artifizielle und perfektionierte Studio/DAW Produktion möglichst genau umzusetzen.
Und Ausnahmen bestätigen die Regel, wie immer.
 
Aber ganz viele Leute spielen ja auch zusammen mit anderen Menschen in Echtzeit.
Das ist einer der Pfründe, womit wir (gut, vielleicht nicht gerade ich) gegenüber der KI punkten können. Mit anderen Menschen in Echtzeit spielen können heißt aufeinander Rücksicht nehmen, sich auf kleinste Abweichungen vom bisher Geprobten, wenn man überhaupt geprobt hat, spontan einstellen können. Eine KI würde da wenig soziale Kompetenz beweisen.

Musik aus dem Prozessor ist insofern unsozial, könnte man sagen. Das ist insofern nicht verwerflich. Schließlich ist auch ein gemaltes Bild in dem Sinne unsozial, oder ein Roman. Bei Musik handelt es sich nun mal um eine tief im sozialen Austausch verwurzelte Kunstform, die sich, im Falle der rein instrumentellen Musik zumindest, von der oralen Erzähltradition durch die fehlende Verbalität unterscheidet, nur die Prosodie und die Rhythmik übrig lässt. Mit Gesang erhält sie uns auch die semantische Seite der Erzähltradition, wenn man mal von der banalen inhaltlichen Qualität vieler Liedtexte absieht.

Musikkonsum wird nun halt immer stärker mit KI-Ergüssen ... "verseucht". Manchen gefällt das, mir nicht, denn KI verteufle ich, handelt es sich hierbei ja um irreversiblen Abfluss von Wissen und die Gesellschaft wird sich mehr und mehr der angleichen, die H.G. Wells in seiner Zeitmaschine vorhersieht: Die Eloi dort sind in der Übertragung Menschen, die auf Technik vertrauen und ihre Fähigkeiten an sie verlieren. Die Morlocken sind die exklusiven Inhaber der Macht über die einst verlorenen, da maschinisierten Fähigkeiten.

Auch selber sehe ich mich nicht als Musiker, sondern als jemand, der "Software für Ohren" entwickelt, denn ich sehe auch nicht ein, warum ich nicht auf existierendes Wissen aufbauen sollte, um mir neues anzueignen. Daher nenne ich das, was ich mache: Neusik. Lang NeRDMusik, RDM steht für Radically Descriptive Model, und dass Neusik nach noise klingt, kommt mir zupass, denn ich mag Understatements.
 
??? Da spielt einer Chopin, und dann wird bezweifelt, daß er das gespielt hat?
Chopins Stücke sind doch nunmal für Klavier, und Pianisten spielen die die ganze Zeit.
Wo ist das Problem?

Beeindruckt bin ich von Vika (Pianistin) und ihren Arrangements von Pop-Songs. Sie spielt so viele Spuren (die sonst die jeweiligen Bands spielen) wie möglich gleichzeitig. Und vor allem ist es einfach toll interpretiert:
 
Zuletzt bearbeitet:
Mit anderen Menschen in Echtzeit spielen können heißt aufeinander Rücksicht nehmen
Bei Musik handelt es sich nun mal um eine tief im sozialen Austausch verwurzelte Kunstform
:supi:
Genau das, was diese Welt noch braucht. Ersetzbare Schauspieler, gefälschte politische Aussagen ... ich möchte gar nicht weiterdenken.
Wenn man aber weiterdenkt kommt man aber darauf, dass die Realität nur in der direkten Interaktion mit
echten Menschen im realen Raum stattfindet.
Dem Reichweitenvorteil digitaler Medien steht dann die Schwierigkeit Realität von Fake zu unterscheiden gegenüber:
Hat Person X wirklich y gesagt oder getan?
Wurde das Stück wirklich live gespielt?
Erst die Abkopplung von der digitalen Welt kann uns die Realität bewusst machen.

Aber entsteht die "Realität" nicht erst in unserem Gehirn?
 
??? Da spielt einer Chopin, und dann wird bezweifelt, daß er das gespielt hat?

auch für dich nochmal im klartext: "rousseau" ist eine kunstfigur zur bewerbung einer software.

alle diese videos wurden mit midifiles und virtuellen instrumenten erstellt.

jemand, den es gar nicht gibt, kann auch nicht klavier gespielt haben.
 
Für mich liest sich das so, dass er echt spielt.

Ja, natürlich. Vor iihm haben das viele andere gemacht. Steht ja auch in deinem Text.

Es ist eben keine KI..

Ich wundere mich, dass @einseinsnull auch nicht auf meine Einwände eingeht und frage mich, ob er mich ignoriert?
Ignorliste? Wieso?
 
Für mich liest sich das so, dass er echt spielt. ?‍♂️

na wenns auf reddit steht dann muss es ja stimmen, und was der hersteller der software dazu im app store selbst sagt ist dann natürlich falsch. ;-)


wie stellst du dir das eigentlich vor, dass man sich ein programm herunterladen kann, und das, was es dann macht, ist, dass ein herr rousseau gleich mit heruntergeladen wird um bei dir zuhause im ipad live ein echtes klavier zu spielen?

"AR Pianist uses machine learning to superimpose a virtual pianist on your piano. Featuring songs performed by award winning pianists."

man beachte den plural ("pianists")

 
Zuletzt bearbeitet:
Die Frage kannst Du Dir ja mal stellen, während der Zahnarzt in der Nähe vom Nerv bohrt und die Betäubung wegen Entzündung nicht funktioniert. :)

Auch der Schmerz entsteht erst im Gehirn...

Tatsächlich fällt es vielen immer schwerer, die physische Welt von der virtuellen zu unterscheiden. Bzw. verschiebt sich die Aufmerksamkeit weg von der physischen- hin zur virtuellen Welt, weil die viel spannender und perfekter ist als die echte. Ich würde sogar behaupten, die Leute beschäftigt mehr, was sie auf ihren Devices sehen und lesen, als das, was sie im Meatspace erleben. Das scheint die meisten auch nicht zu stören, ob etwas 'echt' ist, oder nicht. Weil: Die Realität eben im Gehirn entsteht. ;D
 
Zuletzt bearbeitet:
Dass es diese App ist, bezweifle ich.

- Die Bewegubgen der App sind unnatürlich, Rousseau wirkt real
- Rousseaus Setup ändert sich. 1) Kante von Klaviatur zum Kunststoffgehäuse und 2) Reflektionen auf der Klaviatur vom Licht über ihm auf den weissen Tasten.

Ich möchte es nicht ausschließen, aber für mich spricht mehr für die Echtheit als dagegen.
 
Auch der Schmerz entsteht erst im Gehirn...
Das ist mir klar.

Das Beispiel sollte andeuten, dass es mitunter Dinge gibt, die so eindeutig sind, dass wir ihnen zwar keine objektive, aber mithin eine intersubjektive Realität zuschreiben können.

Wenn man sich auf die Position zurück zieht "entsteht ja alles im Gehirn", ist unser Strafrecht hinfällig. Sollen sich die Opfer doch einfach was anderes vorstellen! Diese Position teilt die Mehrheit definitiv nicht.

Grüße
Omega Minus
 
OT

Ich glaube, das Problem ist eher, dass zu vielen Dingen, die nur im Gehirn entstehen, Objektivität unterstellt wird und dass virtuelle Realität nicht unbedingt zur Bildung intersubjektiver Realität beiträgt, weil man eben nur virtuell mit Subjekten zu tun hat, aber 'in der Realität' mit einer Maschine aus Plastik, Metall und Glas, die jedem seine eigene Realität präsentiert. Aber das merken viele eben nicht. Sie sehen die Maschine nicht, obwohl sie sie die ganze Zeit ankucken.

Darum bin ich davon überzeugt, dass es besser wäre, wenn es intersubjektiver Konsens wäre, dass alles im Gehirn entsteht. (Nicht zu verwechseln mit 'Alles ist nur Einbildung').

Edit: Deswegen ist es so ein Genuß, mit anderen Leuten zusammen zu musizieren, weil das echte und von allen unmittelbar wahrnehmbare intersubjektive Realität erzeugt.
 
Zuletzt bearbeitet:


News

Zurück
Oben