"A ChatGPT for Music Is Here. Inside Suno, the Startup Changing Everything"

Wie wäre es denn mit * mach mir einen Basslauf mit Gesang . Bitte auf zwei getrennten Spuren in 24 Bit Qualität.

probiere es aus und du wirst feststellen, dass spätestens das mit dem dateiformat bzw. der qualität nicht funktionieren wird.

warum auch sollte dir jemand einen kostenlosen webservice zur verfügung stellen, damit du deinen kunden eine rechnung schreiben kannst? er könnte es ja deinen kunden auch selbst verkaufen.

oder warum sollten kunden noch zu dir kommen wenn man das, was man sucht, genausogut irgendwo kostenlos selbst generieren kann. die machen das dann selbst.

jemandem etwas verkaufen, was einem nicht gehört, wird nicht funktionieren. auch vermieten und verpachten kann man sein zeug nur, wenn man urheberrechte am produkt hat.

dass suno behauptet, dass du die hättest, kann wohl allenfalls den unterhaltungsfaktor erhöhen, denn das lässt sich nicht in AGBs unter vier augen regeln.

was suno will ist deine email adresse, damit sie dir dann mit deinem facebook account verknüpfen können - und natürlich um dir den kommerziellen account anzudrehen. wo du dann als einer von 1,3 milliarden hochprofessionellen KI musikproduzenten künstlerisch wertvolles gedudel fabrizieren lassen kannst, was niemals irgendjemand auch nur beachten, geschweige denn dir 75000 euro dafür bezahlen wird.
 
Zuletzt bearbeitet:
Fragen:

Was kann man automatisieren?
Welche Branchen werden da drauf aufspringen?
Welchen Effekt hat das auf das Internet und den Medien-Konsum.
Sind die Sorgen die ihr habt begründet und der Schutzinstinkt der sich bei euch zeigt auch angemessen dem Wert des von euch gesehenem zu schützendem Guts?
 
Die Songs lassen sicher recht gut mit dem Splitter in einzelne Spuren zerlegen. Ich denke, (nicht getestet), das das sicher ausreicht um Abelton damit zu füttern.

Aber habt ihr euch schon udio angeguckt angehört? Open Beta seit ein paar Tagen. Aktuell mit 1200 freien Songs pro Monat in der beta. Auch die wissen jetzt, wie es geht. Es fehlt der KI nur noch Übung um besser zu werden.

Glaskugel an: In nicht ferner Zukunft wird man als Studiomusiker bei großen KI Firmen angestellt werden, um hochwertigen Trainings Content zu produzieren. So ganz wird der Beruf nicht aussterben, aber gewaltig ausgedünnt. Zeit für viele, zum umdenken. Glaskugel aus.

Meiner Erfahrung nach etwa 50k Prompts und weit über 200k generierten Bildern, die KI kann nicht aus dem Bilderdatensatz 'ausbrechen'. Bei Musik wird das sehr ähnlich sein. Bei den Textmodellen ala Llama, CGPT usw. bin ich mir da gar nicht so sicher.

Udio finde ich noch besser als Suno. Man kann besser prompten, einzelne Teile eine Funktion zuweisen " [Bridge] [synth solo]" und die Ergebnisse sind schon ziemlich gut, noch kein HiFi, aber für die meisten Streaming-Anwendungen wird das reichen.

Wie sagte der Geiger im Londoner Studio, als er für eine Sample-Library verschiedene Tracks und Artikulationen aufnahm: "Another job I don´t get anymore".
Noch in den frühen 80er Jahren musste in GB ein Drummer im Studio anwesend sein, wenn eine Linn-Drum benutzt wurde, hatte die Gewerkschaft durchgesetzt.

Aufhalten kann man das nicht, aber Du hast vollkommen recht, das System kann eben nicht aus dem Datensatz der Musikgeschichte ausbrechen, die Vergangenheit hat sich erledigt, aber Neuartiges wird immer seinen Platz haben, dafür sind die Menschen zu neugierig.
 
...und ich denke die jahrelangen Sample-Klau-Streitereien etc sind jetzt auch langsam beendet.

Also rauf auf die Bühne.
 
Aber habt ihr euch schon udio angeguckt angehört? Open Beta seit ein paar Tagen. Aktuell mit 1200 freien Songs pro Monat in der beta. Auch die wissen jetzt, wie es geht. Es fehlt der KI nur noch Übung um besser zu werden.
Meiner Erfahrung nach etwa 50k Prompts und weit über 200k generierten Bildern, die KI kann nicht aus dem Bilderdatensatz 'ausbrechen'. Bei Musik wird das sehr ähnlich sein. Bei den Textmodellen ala Llama, CGPT usw. bin ich mir da gar nicht so sicher.

Danke, kannte ich noch nicht. Sehr eindrucksvolles Dings. Vor allem finde ich faszinierend dass jetzt gleich ein Zweiter Anbieter unabhängig mit einem guten Modell rausgekommen ist.
Speziell das hier hat mich geflasht. ich bin ja kein Country Fan aber das finde ich überzeugend
https://www.udio.com/songs/coixNX1gnJ1oWT8z2LQddk

Fragen:

Was kann man automatisieren?
Jetzt alles. Das ist ein Workflow der alles schon sehr eindrucksvoll automatisiert, du könntest jeden teil davon nehmen. Effekte, songwriting, mixing....
Oder....
Du könntest, z.B. als DJane, chatGPT automatisch endlos prompts eines bestimmten genre generieren lassen, die in Suno/Udio überführen, quasi einen endlosen stream generieren und den abspielen.
Dann musst du dich nur noch darauf konzentrieren möglichst sexy an funktionslosen Knöpfen rumzudrehen und bist am Ziel.

Welche Branchen werden da drauf aufspringen?

So ziemlich alle. Die Situation ist ähnlich der Einführung der Digital/Handykameras. Hatten früher Medien noch eigene Fotografen, wurde darüber spekuliert dass Medien jetzt einfach Handyfotos der bei einem Ereignis zufällig umherstehenden nehmen könnten und die Fotografen arbeitslos würden. Dass dann einfach alle irgendwelche "Symbol"Stockfotos statt richtiger Bilder nehmen würden war so überhaupt nicht auf dem Schirm, ist aber eingetreten. Überall.
AI-Musik? Werbung, Jingles, Filmmusik ( z.B. Mubert macht dir passende Musik zu einem Bild, schlecht aber die neue Version ist noch nicht raus )... speziell da kann AI sicher bald ein Video analysieren und entsprechend vertonen. Das sind nur noch Feinheiten und Training, dass das Maschinelle Lernen an sich funktioniert ist jetzt klar.
Egal ob Text, Bild, Musik, Video.

Udio finde ich noch besser als Suno. Man kann besser prompten, einzelne Teile eine Funktion zuweisen " [Bridge] [synth solo]" und die Ergebnisse sind schon ziemlich gut, noch kein HiFi, aber für die meisten Streaming-Anwendungen wird das reichen.

Wie sagte der Geiger im Londoner Studio, als er für eine Sample-Library verschiedene Tracks und Artikulationen aufnahm: "Another job I don´t get anymore".
Noch in den frühen 80er Jahren musste in GB ein Drummer im Studio anwesend sein, wenn eine Linn-Drum benutzt wurde, hatte die Gewerkschaft durchgesetzt.

Aufhalten kann man das nicht, aber Du hast vollkommen recht, das System kann eben nicht aus dem Datensatz der Musikgeschichte ausbrechen, die Vergangenheit hat sich erledigt, aber Neuartiges wird immer seinen Platz haben, dafür sind die Menschen zu neugierig.

Mit der Geschwindigkeit in der sich das entwickelt, speziell jetzt mit diesen beiden Anwendungen, wird das schneller als wir jetzt noch denken perfekteres Hifi werden als die meisten von uns das selber könnten.
Anfang des Jahres habe ich noch erwähnt das gutes Audio noch lange brauchen wird bis da was kommt. Ich hätte nicht falscher liegen können.
 
Irgendein findiger Unternehmer wird sicherlich bald für kleines Geld "Instantmusicbox" Geräte verkaufen, ein kleiner schwarzer Kasten, mit Raspberry Pi, WLan und Bluetooth innen und Audio Out anbieten, auf dem dann Suno AI und Co. in Dauerschleife vor sich hindudeln kann. 24h/7 Ambient für den Fahrstuhl, 24/7 Techno für den Club, 24/7 Rock&Pop&Schlager für die Ballermann Kneipe. Ohne einen Cent an die Verwertungsgesellschaften, oder an Streamingplattformen zu zahlen.
Auf dem Gerät ein Knopf um das Genre einzustellen, Lautstärkeregler und ein Ein/Ausschalter.
Und wir werden zahllose Websiten/Apps sehen mit Formulareingabe, auf dem man seiner/m Liebsten ein individualisiertes Glückwunschtelegram mit passender Glückwunschmusik und Namensnennung schicken kann, für nur 2,49 pro Karte.
 
Zuletzt bearbeitet:
ein kleiner schwarzer Kasten, mit Raspberry Pi, WLan und Bluetooth innen und Audio Out anbieten
da brauchst du ja nicht mal ne Box für, wenn eine App fürs Smartphone reicht. Anschluss für Phone an Hifi/Boxen werden die Leute in der Zielgruppe (z.B. Kneipenwirte) ja wohl haben.
 
da brauchst du ja nicht mal ne Box für, wenn eine App fürs Smartphone reicht. Anschluss für Phone an Hifi/Boxen werden die Leute in der Zielgruppe (z.B. Kneipenwirte) ja wohl haben.
So eine App wäre schnell gebaut. Ein Server mit suno Schnittstelle, entsprechende Lizenz von suno kaufen, und ab damit.

Aber ich sehe dort nicht dem Mehrwert, wenn normales streaming reicht. So teuer ist die gema auch nicht
 
Ich konnte nicht wiederstehen und hab dein Posting stumpf ins Englische übersetzt und mir visualisieren lassen.
Anhang anzeigen 211833
Aber genauso, wie du das oben skizziert hast, stelle ich mir das auch vor. Spotify wird durch AI.fy ersetzt werden. Allerdings wird es immer einen Markt für 'menschengemachte' Musik geben, nur ist der dann viel viel kleiner als heute.
Genauso hatte ich mir das auch vorgestellt…
 
Können wir uns mal davon weg bewegen in der Diskussion was in der Apokalypse passiert und statt dessen die Konsequenzen und das danach diskutieren.

Ich werde mal konkreter. Angenommen wir diskutieren jetzt mal nicht, was schon alles geht und auch nicht das alle das machen werden, sondern gehen mal davon aus das die komplette Werbe und Medien Industrie das Übernehmen wird. Die Social Plattformen sind heute schon ne reine Werbe / Influencer Industrie.

Das heisst dass der "Content" und ich ziehe hier bewusst eine Linie zwischen Content und Kunst, damit eine dermaßen Beschleunigung bekommt. Es ist schon nervig genug dass das große öffentliche Internet nur noch aus Leuten besteht die Werbung zu Hauptziel haben, weil die Algorithmen genau das pushen, wenn du dem Schema jetzt nen Zaubertrank verabreichst weil alle alles generieren können, dann hast du irgendwann keinen menschlich erzeugten neuen Content mehr im Netz und auf den Such Algorithmen, da sich das nicht mehr lohnt und die Algorithmen das nicht pushen. Menschlicher Content geht unter. Alles ist fake, keiner kann mehr irgend eine Form von Realität klar kriegen.

Und nun? Findet ihr das als Konsument interessant? Bleibt ihr in dem Netz?
 
Das heisst dass der "Content" ... damit eine dermaßen Beschleunigung bekommt. Es ist schon nervig genug dass das große öffentliche Internet nur noch aus Leuten besteht die Werbung zu Hauptziel haben, weil die Algorithmen genau das pushen, wenn du dem Schema jetzt nen Zaubertrank verabreichst weil alle alles generieren können, dann hast du irgendwann keinen menschlich erzeugten neuen Content mehr im Netz und auf den Such Algorithmen, da sich das nicht mehr lohnt und die Algorithmen das nicht pushen. Menschlicher Content geht unter. Alles ist fake, keiner kann mehr irgend eine Form von Realität klar kriegen.

Ja, und dazu kommt, dass all die Kontrollmechanismen, die bisher für Qualität gesorgt haben (zB in Verlagen, Redaktionen, Studios) flöten gehen, die Menschheit also verblödet. Und die Ergebnisse werden wiederum Lernvorlage für die KIs...

Die Kunst würde ich da auch nicht ausnehmen, btw.
 
Ja, und dazu kommt, dass all die Kontrollmechanismen, die bisher für Qualität gesorgt haben (zB in Verlagen, Redaktionen, Studios) flöten gehen, die Menschheit also verblödet. Und die Ergebnisse werden wiederum Lernvorlage für die KIs...

Die Kunst würde ich da auch nicht ausnehmen, btw.

Wenn man KI Daten zum Lernen von KI nutzt, dann geht die KI kaputt, sie degeneriert. Das wurde bereits getestet. Die KI Anbieter trainieren alle mit Filter und versuchen nur echt menschliches in den Trainingsdaten zu zu lassen.

Kunst nehme ich da von der Definition her raus, weil ich die nur im Zusammenhang mit menschlicher Aktion und Interaktion sehe. Wenn AI das selber macht braucht das nen neuen Begriff.
 
Zuletzt bearbeitet:
Ja, und dazu kommt, dass all die Kontrollmechanismen, die bisher für Qualität gesorgt haben (zB in Verlagen, Redaktionen, Studios) flöten gehen, die Menschheit also verblödet. Und die Ergebnisse werden wiederum Lernvorlage für die KIs...

Die Kunst würde ich da auch nicht ausnehmen, btw.
Du kannst davon ausgehen das das bereits schon geschehen ist.
 
  • hilfreich
M.i.a.u.: Cee
Wenn man KI Daten zum Lernen von KI nutzt, dann geht die KI kaputt, sie degeneriert. Das wurde bereits getestet. Die KI Anbieter trainieren alle mit Filter und versuchen nur echt menschliches in den Trainingsdaten zu zu lassen.

Kunst nehme ich da von der Definition her raus, weil ich die nur im Zusammenhang mit menschlicher Aktion und Interaktion sehe. Wenn AI das selber macht braucht das nen neuen Begriff.
Der meiste Content der heute schon im Netz zu finden ist, ist keine Kunst, obwohl es menschengemacht ist. Die Meisten machen Musik, weil sie es können oder wollen, ohne irgendwas auszusagen. Von daher ist die generierte Musik der nächste logische Schritt und die Konsequenz dessen.
 
Wenn man KI Daten zum Lernen von KI nutzt, dann geht die KI kaputt, sie degeneriert. Das wurde bereits getestet. Die KI Anbieter trainieren alle mit Filter und versuchen nur echt menschliches in den Trainingsdaten zu zu lassen.

Kunst nehme ich da von der Definition her raus, weil ich die nur im Zusammenhang mit menschlicher Aktion und Interaktion sehe. Wenn AI das selber macht braucht das nen neuen Begriff.

nein, wenn eine ki mit ki daten gefüttert wird, fängt sie an zu halluzinieren. ist doch schon passiert.

Unfug, wie spätestens durch Orca2 13B bewiesen wurde, kann man sehr wohl ne KI mit synthetischen Datensätzen trainieren und dabei gute Ergebnisse erzielen.

Ausserdem werden synthetisch erzeugte Daten logischerweise immer wichtiger für zukünftige Modelle, da die Menschheit garnicht soviel qualitativ hochwertige Daten erzeugen kann und sowieso nicht preisgeben sollte, wie für noch bessere Modelle benötigt werden.
 
Zuletzt bearbeitet:
Das machen sie heute - dh - meist kannst du nicht direkt Depeche Mode oder sowas schreiben sondern musst das Genre umschreiben.
Es ist natürlich sogar denkbar, dass du selbst so ein Artist bist - wenn jetzt also deinen Bandnamen / Artist Namen nutzt und quasi "deine" Songs baut ist das natürlich auch ein Big-Data Versuch und das ist nur Technik. Das DM Beispiel ist sicher gut geeignet, weil der Gesang ziemlich gut getroffen ist - der Sound sonst - ja - denke bei den neueren könnte sowas passieren - und dennoch kann man sich überlegen, ob man wirklich sowas machen würde - also DM in dem Falle. Die Sache ist die -- was Leute damit anstellen ist so eine Sache - ich kann mir vorstellen, dass einige bereits sehr glücklich über Soundalikes sein könnten, die besser als nachgesungen sind - also etwas in dem Stil - so man denn nicht erfährt ob es von denen kommt.
Das ist eher Psychologie und dazu kommt, dass eben die Vergangenheit zeigt, was kommt. Anders gesagt: Die Bands die ich besonders schätzte - besonders "früher", waren jene die mit fast jedem Album einen neuen Sound schufen. Sagen wir mal Skinny Puppy oder DM waren solche Bands für einen Zeitraum.

Manchmal besinnen sich sogar solche Bands und bauen quasi eine Art Klone ihrer selbst - so wie Weapon bei SP und MFTM bei Depeche Mode (und später gabs das auch wieder, genau genommen ist sogar Violator eine Art Rückbesinnung, wurde deren beliebtestes Album, innovativer war aber SOFAD. Also nach meiner Einschätzung. Wenn man nun das reinwirft und daraus was kommt, was so anders ist und dennoch weiter den Stil hat - dann muss man der KI schon eine Menge Erkenntnis durch zusammenmorphen bescheinigen. Nichtwahr?
Ist Musik so Magic? Oder kann das doch ein Rechner irgendwann?

Ich bin eher nicht so der Typ, der das nur negativ sieht aber die Ersetzbarkeit ist etwas, was Menschen fürchten.
Es wird eine spannende Sache bleiben.

Solang Katzen und Hunde erkannt werden anhand von vielen Bildern - ist das eine Methode, für Sprache scheint das schon ganz gut zu gehen, für Musik offenbar auch.
Es gibt noch immer so virtuelle Sachen, die klar Artefakte sind - könnten Glitch in der Matrix oder Autotune sein oder zB Gitarren in einigen Metal-Angeboten klingen etwas "nach Synth".
Aber irgendwann werden die auch noch gitarriger klingen. Nur so als Beispiel. Ich finde übrigens, dass das was man meint was besonders menschlich sei - die Stimme - bei den eher stimmorientierten Stilen wie Country oder Folk bis Gospel oder sowas - ist das KI Ding erstaunlich gut.
Und das ist schon neu gegenüber dem was vorher war.
Heute würde Vince Clarke sich vielleicht keine schwierige Kollegin mehr suchen sondern etwas gebackenes Silizium.
Oder all die Producer Sachen.

Wobei das Synthiezeugs vielleicht ersetzbarer ist als die Stimme? Oder doch nicht?
Tja.

Das werden wir sehen - die Prompts sind aber auch nicht so vielseitig, noch.
Also wenn man da eine Weinsprache erfindet mit der man sehr genau Nuancen umbitten kann - vielleicht klappt das ja? Und auch andersweltlich? Hier mal bitte mehr grüne brennende Monster einbauen im 2. Ref, damit das mehr nach geöffneter Erdspalte klingt, aber eher faszinierend, nicht scary. Danke.
 
Zuletzt bearbeitet:


News

Zurück
Oben