RIAA verklagt Suno, Udio...

eine 3D-Projektion ist aber noch ein wenig was anderes als ein humanoider Roboter, der sich richtig frei auf einer Bühne bewegen kann. Ersteres finde ich persönlich eher langweilig, letzteres könnte ich mir durchaus als Avatar für die eigenen Ergüsse vorstellen. 🤷‍♂️

Ob die Musik dahinter von Menschen oder einer AI erzeugt wird, ist natürlich ein anderes Thema - aber bei Acts wie Hatsune Miku vermutlich auch nur noch eine Frage der Zeit. Vielleicht gründen Siri und Alexa ja mal eine Girlgroup?
 
eine 3D-Projektion ist aber noch ein wenig was anderes als ein humanoider Roboter, der sich richtig frei auf einer Bühne bewegen kann. Ersteres finde ich persönlich eher langweilig, letzteres könnte ich mir durchaus als Avatar für die eigenen Ergüsse vorstellen. 🤷‍♂️

Das is jetzt aber wirklich ziemlich offtopic. Da können wir uns auch gleich wegen Terminatoren kollektiv in die Hose machen hier...
 
Das is jetzt aber wirklich ziemlich offtopic.
ja, schon. 🤷‍♂️ Sofern es allerdings um weitere Anwendungen für Machine Learning geht, spielt das für Robotik sicher auch eine Rolle (und nicht nur für Militär und (Unterhaltungs)industrie, sondern auch z.B. für autonomes Fahren usw.). Aber klar, dass hat jetzt direkt nichts mehr mit dem Thema Urheberrecht und Musik zu tun.
 
ich frage mich nur, warum ich beispielsweise selber noch wochenlang durch die Gegend latschen soll, um meine coolen Field Recordings zu machen, wenn es mit der KI auch bei Regenwetter vom Schreibtisch geht.
Weil du es tun willst. Weil es spannend ist das zu tun. Weil es gesund ist draussen in der Natur rumzulatschen. Weil du da an Geräusche kommst die zufällig vorhanden sind und die du dir nicht vorher so ausgedacht hättest.... usw.

Konnte man schön bei den Fotografen beobachten, wie der Einzug der Digitalkameras deren Berufswelt veränderte.
Viele haben mittlerweile aufgegeben, weil es sie nicht mehr ernährt und selbst bei der Hochzeitsfotografie findet sich fast immer ein Bekannter, der Hobbyfotograf ist und kein Geld dafür nimmt.
Auch Fotolabore etc.
Kodak und Agfa hats zerrissen.

Ich habe auch eine Digitale Spiegelreflexkamera, trotzdem latsche ich gern mit Ilford Schwarzweissfilm in meinen analogen Olympus OMs verschiedenster Generationen durch die Gegend. Warum? siehe oben.
Was mir die KI an Bildern ausspuckt ist geplant. Wenn ich etwas bestimmtes will, ist das gar nicht mal so schlecht.
Aber was die Natur an zufälligen Eindrücken bietet, Überraschungen kann die KI nicht.
 
Weil man KI zum Beispiel eben auch darauf hin trainieren kann, den eigenen Content aufzufinden und den Missbrauch dann zu ahnden. Youtube hat das ja bereits implementiert.

die kopie schon, aber doch nicht wenn 15% davon hoch abstrakt zu etwas völlig neuem verarbeitet wurden. das lässt sioch ja so eben genau nicht herausfinden.

ganz grob gesagt müsste man für so eine analyse ja ungefähr den gleichen aufwand treiben wie für das erstellen der "musik" durch KI.

Ferner: Ich will mich einfach noch nicht zu einer fatalistischen Sichtweise wegen einer technologischen Entwicklung hinreißen lassen.

natürlich, sehe ich genauso. ich war nur der auffassung, dass seine frage zunächst nicht hinreichend beantwortet wurde. jedenfalls nicht nach dem wortsinne. :)

der weltweite umsatz der MI ist inzwischen wieder auf dem niveau von 2000, und es liegt dann nur noch an einem selbst, ob und ein wie großes stück vom kuchen man davon abbekommt. von weltuntergang kann keine rede sein.

und die mehrheit war schon immer arm, egal ob komponisten oder ausübende orchestermusiker. ich habe alleine in meinem landkreis mindestes 80 sänger im katalag, die meisten davon sind froh wenn sie 2 mal im monat gebucht werden. für durchschnittlich 30 euro/h.
 
Sony,Warner,Uniersal usw. verklagen KI Startups wie Suno und Udio, wegen der Nutzung von urheberrechtlich geschützter Musik zum Training deren Ki Algos...
Die RIAA will ein Grundsatzurteil erreichen bezüglich geschützten Inhalten und KI...

Sicherlich nicht die beste Quelle... Aber hier von MTN Link

Was denkt ihr darüber?

Meine Meinung... Inspiration ist sicher ein wichtiger Faktor für neue Kompositionen...Dennoch bleibt die Kreativität des Menschen, was die KI definitv nicht hat...
Auch die Nachahmung von Stimmen berühmter Sänger finde ich problematisch... (Denkt an das KI Produkt eines Depeche Mode Songs)...
Im Video Bereich das gleiche Prinzip...
Und alles ergibt wieder Sinn, wenn man das hier liest und ein wenig kombiniert:

Natürlich kümmern die sich einen Scheiß um Autoren und Produzenten. Es geht nur um die Markthoheit.
 
Schon klar, mir auch nicht, ich wollte nur sagen, dass die Karten schon ungewollt offen auf dem Tisch gelegen haben, bevor diese Meldung erschien.
 
diese tendenz, dass der produzent der ware vom kapitalisten verarscht wird, steht als arbeitshypothese seit circa 1830 im raum, wurde von engels 1882 dann umfangreich begründet, und bislang konnte sie noch keiner widerlegen.

rückblickend betrachtet war es auch schon bei der entwicklung des urheberrechts schon nur ein vorgeschobenes motiv, dass es dabei um den komponisten ginge.
die tonträgerindustrie in der kaiserzeit wollte die komponisten (im sinne des späteren henry ford zitats) nur nicht ganz verhungern lassen, weil man sie brauchte um die eigenen interessen durchzusetzen.

demnächst brauchen sie die komponisten weniger als bisher.

wir sie allerdings auch.
 
Hier ist noch ein interessanter View, von Rick Beato.

Eigentlich gehts nicht nur um dieses Thema, aber bei 5:58 wirds interessant

Wir wissen ja, dass sich die Plattenfirmen jetzt mit einem Plugin-Hersteller zusammengeschlossen haben. Dieses Plugin ersetzt deine Stimme mit der Stimme eines bekannten Künstlers.
Was Rick jetzt ganz richtig bemerkt, ist dass dann die RECHTE an der Stimme bei den Plattenfirmen liegen werden, nicht bei dir.



Meine Gedanken dazu....
Es könnte für einen Producer im Endeffekt günstiger werden das dünne Stimmchen irgendeiner günstigen Sängerin aufzunehmen und dann mit etwas richtig Fettem zu ersetzen.
Das fieseste daran ist ja, dass die Verlage die Rechte bereits haben, der Sänger / die Sängerin nicht mehr zustimmen müssen.
Oder mit anderen Worten: du wirst auf lange Sicht keine Möglichkeit haben der Verwendung deiner Musik, was auch immer deine Ecke darin ist, ob du singst, Keyboard spielst, Gitarrist bist....
du wirst keine Möglichkeit haben diese Verwendung zu verhindern, weil die Plattformen auf der du Musik frei hochladen kannst damit monetarisieren werden und die Verlage sowieso.
Natürlich bekommst du entweder Geld dafür oder kannst den Upload-Space frei nutzen, aber Widerspruch ist einfach nicht drin. Wenn es nur noch Verlagsdeals gibt die das beinhalten ( weil das die primäre Art und Weise werden könnte wird wie Verlage sich finanzieren, wenn man schaut wie wenig streams oder Verkäufe abwerfen ), wirst du auch da in den sauren Apfel beissen.

Das einzige was ich sehe, was wirklich demnächst funktionieren könnte, ist wenn du deine Musik überhaupt nicht zugänglich machst, ausser auf Livekonzerten... quasi ein NFT.
Selbstverlag, GEMA ja ( einfach für den Schutz ) aber nix veröffentlichen. Kein Youtube, keine offiziellen Livemitschnitte, kein Streaming, keine Vinyls ( so hart das ist ).
NUR Live. Wacklige Handyvideos werden existieren, aber das hätte dann eher den Charme eines frühen Grateful-Dead Bootlegs und könnte viral gehen.
 
Das ist alles nicht so schön und gut, aber im Endeffekt kann es einem egal sein. Wenn man kopiert wird, heißt es, dass man beliebt ist und am Ende des Tages bleibt man das Original, mit all seinen Stärken und Schwächen.
 
Da bin ich komplett bei @ganje. Wenn du als Künstler so beliebt bist, dass du kopiert wirst, dann hast du ggf. sogar einen Vorteil, weil du durch die Plagiate im Gespräch bleibst, ohne selbst Content zu produzieren.
Und machen wir uns nichts vor, niemand wird hier im großen Rahmen die Stimme einer Person klauen, weil die gut klingt. Die Stimme muss bekannt sein. Ich wette, dass sich ein Yoda-Plugin viel besser verkaufen würde als ein Pavarotti-Plugin.
 
Weil eine KI nur reproduzieren, selbst aber keine Ideen entwickeln kann. Deep Learning funktioniert über massenweise Trainingsdaten, bei denen jemand während des konkreten Trainings entscheidet, welche Ergebnisse gut und welche schlecht sind. Das Ergebnis ist ein massiv eingefärbter Algorithmus, der in engen Bahnen Variationen vornehmen kann.
...

Die eigentliche Arbeit ist die Auswahl geeigneter Trainingsdaten sowie das Training der KI selbst. Da drüber steht die eigentliche Konfiguration eines konkreten neuronalen Netzes, das eine bestimmte Aufgabe erfüllen soll.
Dazu noch ein paar Worte.

Ihr erinnert euch an die Google-KI, die gelernt hat, die alten Atari-Games zu spielen? Nämlich durch spielen. Die "Nutzenfunktion" ist hier schlicht die erreichte Punktzahl.

Bei einer hypothetischen Musik-KI könnte der Chart-Erfolg die Nutzenfunktion sein.


Das sagst du so. aber gilt das auch für alle Zeit, oder nur für jetzt im Moment? Ist denn schon verstanden, wie das menschliche Gehirn neue Ideen entwickelt? Oder kombiniert das etwa auch nur erlebte Umwelteinflüsse gewürzt mit einer Prise nichtdeterministischem Rauschen? 🤔 Warum sollte sich das nicht grunsätzlich auch mit KI realisieren lassen?
Ich denke, im Prinzip geht das, weil die Biochemie des Gehirns grundsätzlich verstehbar und damit nachbaubar ist. Wie weit sich das praktisch umsetzen läßt? Hmm. Vor ein paar Jahren brauchte IBM in der Schweiz einen Prozessor, um ein Mäuseneuron zu simulieren. Das menschliche Gehirn hat 100 Milliarden Neuronen. Und braucht 40 W.

Aber vielleicht ist es der falsche Ansatz, ein biologisches Neuron zu simulieren. Unsere Flugzeuge fliegen anders als Vögel. Es gibt eine weitere Sorte von "Maschinenlernen": Die genetischen Algorithmen. Man nimmt nicht eine, sondern dutzende Musik-KIs, die sich in einigen Parametern unterscheiden. Damit meine ich nicht die Gewichtung in den Knoten, sondern Konstruktionsparameter des Netzes. Zahl der Knoten in einer Schicht, Zahl der rauf, runter, quer, sonstwie Verknüpfungen. Oder die Geschwindigkeit der Konvergenz beim Training des Netzes. Oder, wie du sagtest, ein hohes oder ein niedriges Level nichtdeterministischen Rauschens.

Diese KIs läßt man Musik schreiben. Diejenigen mit den höchsten Chartplatzierungen werden ausgewählt für die nächste Runde. Dabei werden die Parameter leicht variiert oder gekreuzt. Das macht man ein paar Generationen und evolviert sich so seine Hitfabrik. Oder besser, mehrere Hitfabriken. Metalfans werden auch zukünftig nicht auf Wildecker Herzbuben stehen. Der Lösungsraum überlappt nicht - unterschiedliche Charts - das wird sich auch mit KI nicht ändern. ;-)
 
Dazu noch ein paar Worte.

Ihr erinnert euch an die Google-KI, die gelernt hat, die alten Atari-Games zu spielen? Nämlich durch spielen. Die "Nutzenfunktion" ist hier schlicht die erreichte Punktzahl.

Bei einer hypothetischen Musik-KI könnte der Chart-Erfolg die Nutzenfunktion sein.
...
Dann darf man sich nicht wundern, wenn die KI nichts anderes als bestenfalls mittelmäßige Musik abliefert, aber Social Media überschwemmt, um Klicks zu generieren. Das wird die allein durch Masse sehr viel besser bewerkstelligen als Menschen.
 
Dann darf man sich nicht wundern, wenn die KI nichts anderes als bestenfalls mittelmäßige Musik abliefert, aber Social Media überschwemmt, um Klicks zu generieren. Das wird die allein durch Masse sehr viel besser bewerkstelligen als Menschen.
Es gibt jetzt schon JEDEN TAG 100.000 neue Songs auf Streaming Plattformen.
Soviel zum Thema Masse. Natürlich wird die KI ihre Songs besser auf Social Media bewerben können, aber wird man das dann noch wahrnehmen?
Es gibt eigentlich nur eine Sache die KI einfach nie können wird... Live spielen. Am Streaming verdient eh kein Künstler mehr was, ausser Taylor Swift.
Da ist es leider auch nicht mehr so richtig wichtig ob du wirklich spielen kannst. Wenn man mal schaut wieviele Hupfdohlen nur mit Drehen an funktionslosen Knöpfen als DJ erfolgreich sind und das Publikum denkt die tun da tatsächlich was, kannst du dich massenkompatibel auch mit einem Sampler vollplayback auf die Bühne stellen. Das Volk ist seit den 90ern sowas gewöhnt, Hauptsache da tanzt jemand auf der Bühne rum.
Aber da sind halt Personen, machen vielleicht auch noch eine gute Show, und das macht den Unterschied.
 
Es gibt eigentlich nur eine Sache die KI einfach nie können wird... Live spielen.
Aber Live mag ich mir bei den meisten Künstlern nicht antun, da bin ich zu empfindlich was die Intonation betrifft und mir fehlt ein wenig der Herdentrieb um mich in großen Massen wohl zu fühlen.
 
Aber Live mag ich mir bei den meisten Künstlern nicht antun, da bin ich zu empfindlich was die Intonation betrifft
Gerade das oder auch andere Ecken und Kanten ist doch beim Livespiel reizvoll wie ich finde.

Ja und das:
Es gibt eigentlich nur eine Sache die KI einfach nie können wird... Live spielen.
...wird in meinen furchtbaren Visionen kommen. Ich sehe diese Robotor tanzen und fakeschrauben, die täuschend echt aussehen und vielleicht sogar in Echtzeit ihre scheiss Dosenmusik generieren.
Ne lass mal, dann doch lieber ein richtiger Musiker mit langen fettigen Haaren der mit Ecken und Kanten musiziert.
 
...wird in meinen furchtbaren Visionen kommen. Ich sehe diese Robotor tanzen und fakeschrauben, die täuschend echt aussehen und vielleicht sogar in Echtzeit ihre scheiss Dosenmusik generieren.
Ne lass mal, dann doch lieber ein richtiger Musiker mit langen fettigen Haaren der mit Ecken und Kanten musiziert.

Das Publikum das heute diesen erwähnten DJanes zujubelt beim Tanzen wird genauso einem Roboter zujubeln, oder einem vollkommen künstlichen Wesen auf einer Leinwand.
Da ist schliesslich kein wirklicher Unterschied.
Aber dieses Publikum geht auch nicht auf richtige Livekonzerte.
 
Gerade das oder auch andere Ecken und Kanten ist doch beim Livespiel reizvoll wie ich finde.
Das bereitet mir in vielen Fällen fast schon körperliche Schmerzen, da bin ich seit dem ich längere Zeit Sounds baue sogar noch was empfindlicher geworden.
...wird in meinen furchtbaren Visionen kommen. Ich sehe diese Robotor tanzen und fakeschrauben, die täuschend echt aussehen und vielleicht sogar in Echtzeit ihre scheiss Dosenmusik generieren.
Ne lass mal, dann doch lieber ein richtiger Musiker mit langen fettigen Haaren der mit Ecken und Kanten musiziert.
Hologramme sind schon Realität, ob das jetzt Abba in jung oder eine Anime Figur oder ein bereits verstorbener Künstler, die Unterschiede verwischen.
 
Wir wissen ja, dass sich die Plattenfirmen jetzt mit einem Plugin-Hersteller zusammengeschlossen haben. Dieses Plugin ersetzt deine Stimme mit der Stimme eines bekannten Künstlers.
Was Rick jetzt ganz richtig bemerkt, ist dass dann die RECHTE an der Stimme bei den Plattenfirmen liegen werden, nicht bei dir.

warum solltest du auch irgenwelche rechte an der stimme eines bekannten künstlers haben, nur weil du sie legal verwendest.

das ist im prinzip genau wie bei kompositionen oder fotos auch.

Das fieseste daran ist ja, dass die Verlage die Rechte bereits haben, der Sänger / die Sängerin nicht mehr zustimmen müssen.

sofern aufnahme einer stimme dazu verwndet wurden die KI zu trainieren, dürfte klar, sein, wer die rechte daran wirklich hat und dass das ohne zustimmung des rechteinhaber nicht geht. :)

Natürlich bekommst du entweder Geld dafür

eben.

ausser auf Livekonzerten... quasi ein NFT.

ein livekonzert ist wie ein NFT? ...

Selbstverlag, GEMA ja ( einfach für den Schutz ) aber nix veröffentlichen.

verlegen ohne zu veröffentlichen? ...


ah, jetzt erinnere ich mich. du bist doch der, der neulich der musik das geistige abgesprochen hat weil alles geistige religion ist.

keine fragen mehr.
 
Die KI hört das genau 1x. Und irgendein Gericht entscheidet 2026, dass dafür der Satz ungefähr in Höhe eines Spotify-Plays anfällt, also €0,000001 (ich übertreibe jetzt mal). Selbst wenn es so kommt: das zahlen die Unternehmen aus der Portokasse und das war‘s dann.
Heutige KI muss jedes einzelne Trainings-Beispiel zig-tausende Male sehen/hören, bis alle zig-Millarden Gewichte des Modells eingestellt sind.
Bei Streaming-Diensten wird wird aber jedes einzelne Streaming gezählt und Downloads sind nur in die App erlaubt, auch da wird jedes Anhören gezählt.
Wenn also jeder der 100 Mio Trainingssongs zig-Tausende Male betrachtet wurde, dann wird es auch bei 0,000001€ schmerzhaft teuer.

Ein menschlicher Komponist funktioniert da doch irgendwie ganz anders: Es reicht ihm tatsächlich manchmal einmaliges Hören, um die Essenz eines Songs zu erfassen, sich inspirieren zu lassen und etwas zu rekombinieren, das ähnlich klingt, aber anders genug.
 
Wenn also jeder der 100 Mio Trainingssongs zig-Tausende Male betrachtet wurde, dann wird es auch bei 0,000001€ schmerzhaft teuer.
gut, der wird aber vermutlich auch nicht zig-tausende Mal heruntergeladen, sondern einmal und liegt dann im Cache, oder? Würde sonst ja auch ewig dauern, wenn man das jedesmal in "Echtzeit" streamen müsste.
 
gut, der wird aber vermutlich auch nicht zig-tausende Mal heruntergeladen, sondern einmal und liegt dann im Cache, oder? Würde sonst ja auch ewig dauern, wenn man das jedesmal in "Echtzeit" streamen müsste.
Sicher, aber Gerichte sehen ja immer alles konventionell, um "nach gesundem Menschenverstand" urteilen zu können, und da wird wohl jeder Zugriff ob aus dem Cache oder real fairer Weise gerechnet werden müssen.

Wie dem auch sei, heutige KI ist natürlich nur K, nicht I. Und "komplex" kann man sie auch nicht nennen, da es im Grunde nur eine riesige Wiederholung maximal simpler Verknüpfungen und Berechnungen ist.

Die Ergebnisse - gerade bei Bildern - sind aber so erschreckend gut, dass man leicht auf die Idee kommen könnte, der Job des Grafik-Designers ist einer der ersten, die stark reduziert werden dürften.

In Anbetracht der seit ca. 20 Jahren deutlich zurückgehenden Intelligenz des Menschen (siehe z.B. Pisa-Tests, Schreib- und Lese- und Rechnen-Leistungen) werden natürlich noch weitere Jobs fallen. Der Anspruch an Musik und deren Komplexität fällt ja auch schon seit Jahrzehnten (siehe z.B. https://science.orf.at/stories/3225728/?utm_source=pocket-newtab-de-de)
 
Ein menschlicher Komponist funktioniert da doch irgendwie ganz anders: Es reicht ihm tatsächlich manchmal einmaliges Hören, um die Essenz eines Songs zu erfassen, sich inspirieren zu lassen und etwas zu rekombinieren, das ähnlich klingt, aber anders genug.
Ich bin da grösstenteils schon bei dir, aber es gibt noch einen kleinen Zusatz.

Wenn ich heute einen begnadet talentierten Musiker aus, sagen wir mal, einem Dorf im Landesinneren von Papua Neuguinea nehme und dem einen westlichen Song ( nehmen wir doch mal Depeche Mode, just for Fun ) zur Inspiration vorsetze, wird sein Ergebnis für unsere Ohgren wahrscheinlich seltsam klingen.
Einfach weil ihm der komplette Katalog fehlt, das abgespeicherte, gelernte Wissen über westliche Musik.
Er wird das im anderen Kontext hören und dann im anderen Kontext interpretieren.

Und das sind genau die höchstwahrscheinlich sechsstellige Anzahl von Songs die wir selbst in unserem Leben gehört haben. Also trainiert.
Ein neuer Song, der in unserem Repertoire landet, ist mit grosser Wahrscheinlichkeit nur eine Variation dessen was wir schon gelernt haben, und kann deswegen schnell verarbeitet und verknüpft werden.

Wenn ich versuche einen indischen Raga zu machen wird es mich ziemlich auf die Schnauze legen ( für uns wahrscheinlich ok, aber jeder Inder fängt an zu weinen ) bevor ich die Muster ( Regeln, erwünschter Klang ) nicht gelernt habe.
 
Zuletzt bearbeitet:
Ich verlange von jedem der mich in der U-Bahn ansieht Urheberrechtsgebühren, denn mein Anblick ist eine Inspiration für sein ganzes Leben. Natürlich treibe ich die sofort ein. „Ey, was kuckst du, 20 Euro“.
 
Dann darf man sich nicht wundern, wenn die KI nichts anderes als bestenfalls mittelmäßige Musik abliefert, ...
Wenn man Rick Beato glaubt, hat die Musikindustrie das ganz gut ohne KI hinbekommen.


aber Social Media überschwemmt, um Klicks zu generieren. Das wird die allein durch Masse sehr viel besser bewerkstelligen als Menschen.
Um das halb im Spaß, halb im Ernst zu Ende zu denken.

1) Ganz ohne KI-Content erschlägt einen die Flut der Veröffentlichungen. Das ist schon lange so, daß mehr veröffentlicht wird, als man verfolgen kann. Es liegt nahe ein KI-Interface zu bauen, das diese Flut eindämmt, indem sie aus den Bewertungen eines Hörers lernt, effizienter als Verschlagwortungen das könnten.

2) Da die KI deine Vorlieben schon kennt, sollte sie auch neue Stücke entsprechend deinem Strickmuster bauen können. Die JanTrenner-Geschmacks-KI.

3) Es stellt sich heraus, daß die JanTrenner-KI einige Hits produziert. Du wirst berühmt, siehst aber keinen cent, weil im Kleingedruckten steht, daß du die Rechte an deinen persönlichen KI-Gewichtungen an die Plattform abgetreten hast.
 


Zurück
Oben