"current LLMs are not capable of genuine logical reasoning, instead they attempt to replicate the reasoning steps observed in their training data"
Oder, deutsch:
Aktuelle LLMs sind nicht in der Lage, echte logische Überlegungen anzustellen, stattdessen versuchen sie, die in ihren Trainingsdaten beobachteten Logikschritte zu reproduzieren
Hier gibts die Infos in lesbarer Form, für alle die keine Videos mögen:
Eine neue Studie von Apple-Forschern, darunter KI-Experte Samy Bengio, stellt die logischen Fähigkeiten aktueller Large Language Models grundlegend infrage - selbst bei OpenAIs neuem "Reasoning-Modell" o1.
the-decoder.de
Eine andere Studie kommt zu dem Schluss,
dass KI-Modelle zumindest eine Art probabilistisches Schlussfolgern durchführen.
"Ein Grund für diese Unterschiede könnte sein, dass Begriffe wie Intelligenz, Denken und Logik unscharf sind, unterschiedlich definiert werden oder in Variationen und Abstufungen auftreten können. Letztlich wird die akademische Diskussion in den Hintergrund treten, wenn zukünftige KI-Modelle in der Lage sind, die ihnen gestellten Aufgaben zuverlässig zu lösen"
Es ist ja auch bei Menschen zu beobachten, dass es Menschen gibt die logisch denken und auch ungewohnte Aufgaben schnell lösen können, während andere sehr gut auswendig lernen und das dann anwenden können ( auch Mathematik ), allerdings immer in den Grenzen des Gelernten. Es bleibt spannend.