Naja, LLM in dieses Thema mit einzustreuen ist jetzt auch nicht zielführend. Im Grunde sind llama, Gemini und chatGPT halt einfach nur mathematische Funktionen, die mit vielen Daten beworfen werden oder um es ganz besonders stark zusammenzufassen: Die ultimative Möglichkeit, um sich langwierige Forendiskussionen zu sparen und DIREKT, ohne jede Zeitverzögerung, unbelegten Quark präsentieren zu lassen. Da werden halt auch Wikipedia, Internetforen und Blogs für cecrawlt. Kacke rein = Kacke raus.
Aber immerhin sind diese Sprachmodelle darauf trainiert worden, wenigstens höflich zu sein. Ich habe bei der praktischen arbeit mit codellama:13b jedenfalls festgestellt, dass es am besten als Gedankenstütze und Erinnerung für früher gelernte Dinge funktioniert. Hab schon mehrfach ganz finsteren Quatsch präsentiert bekommen, der sich zwischen faktisch korrekten Aussagen versteckt hat. Bei Programmalgorithmen fällt das zum Glück schnell auf. Bei gesellschaftlichen und historischen Textsynthesen sehe ich das aber deutlich kritischer. Kenne den einen oder anderen im Bekanntenkreis, der sich per ChatGPT auch wunderbar in seinen Verschwörungstheorien selbst bestätigt.