meines Wissens, und ich denke das ist eben auch was @schnuffke2 zu vermitteln sucht,
haben diese Art von Sprachmodellen mit expliziter Grammatik gar nicht so viel zu tun.
Genau so wie die advancten Go Programme von heute eben gar keine Regeln für Go abgespeichert haben.
Auch ein Musikprogramm, um ein bisschen zum Thema zurückzukommen, muss keine Tonarten oder Takte kennen.
Es reichen die Beziehungen zwischen vorangegangenen und folgenden Noten.
Diese ganzen Bildsynthesen kennen auch keine Theorie zur Bildkomposition und berechnen keine vorprogrammierten goldenen Schnitte, die lernen sie aber aus dem Trainingsnaterial.
Wenn das keine goldenen Schnitte sondern nur Schachbrettmuster hat kommen da auch keine raus.
Oben hatte @Moogulator ein Programm verlinkt dass mit Stable Diffusion Musik machen soll, also mit einer Bildsynthese Engine.
Die weiss zB gar nix von Musik. Die analysiert und synthetisiert 2D Arrays.
Kanten, Flächen, Verläufe, Linien, das ist was im ersten Layer da analysiert wird zB, und auch was synthetisiert wird.
Hört sich nur "zufällig" wie Musik an weils halt mit Spektrogrammen und nicht Picasso gefüttert wurde.