Auf KI übertragen, arbeiten LLMs aktuell auf der intuitiven (durch Erfahrung gelernten) Ebene von System 1. Ein LLM verhält sich in etwa so, wie wenn ein Mensch gezwungen würde, ohne Nachzudenken (ohne System 2 einzuschalten), auf Anhieb eine Antwort zu geben. Das klappt auch für Menschen oftmals ganz gut, wenn es um Dinge geht, die man aus Erfahrung heraus „einfach weiß“. Bei komplexeren Problemen ist eine sofortige Antwort aber oft unausgegoren. Es ist dann eben notwendig, erst einmal mithilfe des kontrollierenden System 2 über das Problem nachzudenken, verschiedene Gedanken abzuwägen, Ideen zurückzuspielen, bevor man zu einer abschließenden Antwort kommt. Interessanterweise liefern auch LLMs bessere Ergebnisse, wenn man sie auffordert, noch einmal über eine gegebene Antwort nachzudenken (siehe dazu etwa diesen Talk über „Agentic Reasoning“). Und auch LLMs können einfache Matheaufgaben auf Anhieb lösen, scheitern aber regelmäßig etwa bei der Multiplikation dreistelliger Zahlen.
Die Defizite der aktuellen Systeme liegen eben vor allen in den System 2 Fähigkeiten (manchmal auch als „Reasoning“ bezeichnet). Außerdem können die Modelle zwar die Konversationshistorie und über Interaktionen mit der Außenwelt Gelerntes im aktuellen Kontextfenster (=Kurzzeitgedächtnis) halten, können diese Informationen aber nicht selbstständig in den Gewichten ihres neuronalen Netzes (= ihres System 1) verankern - wie Menschen und Tiere dies tun können.