Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: This feature may not be available in some browsers.
Wenn sie's als App für Android bringen, will ich's.Und? Ist das was?
Mir würde das hier schon reichen:Ja, aber ich dachte eher an sowas: Man lässt den Computer zb eine Accapella von Adele hören (oder wenn er richtig gut ist, müsste er ja die Sprache auch aus dem normalen Song heraushören können) und singt dann selber was komplett anderes ein und der Rechner lässt es dann wie Gesang von Adele klingen.
Das stimmt, aber ich denke der Punkt an dem man unterscheiden könnte ist schon vorbei.Das ist gar nichts. Weil es nicht selbstbestimmt passiert.
Derjenige der das benutzt hat keinen blassen Schimmer was eigentlich vor sich geht.
Das gehört zu Googles Strategie seinem neuronalen Netzwerk das maschinelle Lernen bei zu bringen.
Es gibt auch eine Seite wo man seine Fotos hochladen kann um der KI bei zu bringen wie kreative Fotos gemacht sind. Oder eigene Videos um Teile davon durch die KI anlysiern und ersetzen zu lassen. Stichwort Pornos mit fremden Köpfen.
Sobald maschinelles Lernen Krativität nachahmen kann, wird es kommerziell angewandt.
Letztlich trägt derjenige dazu bei wer bei solchen Projekten mitmacht, Humane Kreativität wertlos zu machen. Weil man ab einem bestimmten Punkt, nicht mehr zwischen menschlich gemacht oder durch eine KI entworfen, unterscheiden können wird. Und viele das auch gar nicht mehr interessiert.
Offenbar ist es ja Open Source, dh - eigentlich braucht man ja nicht wirklich HW dafür.Find' ich cool.
Ist das ein reines Hardware-Dingsi? ...oder gibt's da auch was im Browser/als Software-Lösung zu?
Find' ich cool.
Ist das ein reines Hardware-Dingsi? ...oder gibt's da auch was im Browser/als Software-Lösung zu?
Würde das KI Ding nicht zu ernst nehmen, Machine Learning und so sind halt die aktuellen Superworte, die überall drin stecken müssen.
Nein.Ist das was?
Ich versuchs,
es reichen 1024 Bänder (oder ein FFT von Größe 2048 ) um den Frequenzbereich von
21 Hz bis 22 kHz abzudecken, dh man kann den Hörbereich mit 1024 Sinusoperatoren "samplen".
Dh wenn Du einen Schnipsel Musik hast mit 1/21 Hz Dauer (also ca 0.05 Sekunden)
kannst Du den mit 1024 Sinuswellen komplett beschreiben.
Wenn Du 20.000 Operatoren hast reicht das wenn Du die Phasenlage auch einstellen kannst um eine Sekunde Musik zu samplen
ohne daß Du die Operatoren noch irgendwie steuern müsstest, allein durch die Summierung der Töne.
Du hast dann praktisch einen Loop von einer Sekunde, dh die komplette Information davon,
auch wie sich die Musik in der Zeit ändert, wäre in den 20.000 Operatoren enthalten.
Der tiefste Ton wäre dann 1 Hz, nicht hörbar aber er würde einern Teil der Veränderung in der Musik ausmachen.
Aber das klingt mir sehr nach Analyse relativ statischer Klangereignisse - also LautstärkeDecay mit abnehmendem Obertongehalt (Klavier, Gitarre etc.).
.. und die passend fest auf eine Lautstärke und eine Phase zueinander einstellst, so daß jeder Sinusgenerator unendlich immer denselben Dauerton spielt, ohne jede Modulationen,
dann ergibt sich aus der Summe der statischen Oszillatoren/Dauertöne das Musikstück,
das sich alle 5 Sekunden wiederholt.
Aha. Danke für die Erklärung!