Llm 3

Mechanistic Indicators of Understanding in Large Language Models

Philosophical Studies. Mit Pierre Beckmann. doi:10.48550/arXiv.2507.08017

Stützt sich auf detaillierte technische Evidenz aus der Forschung zur mechanistischen Interpretierbarkeit (MI), um zu zeigen, dass LLMs zwar tiefgreifend von menschlicher Kognition abweichen, aber mehr tun als Wort‑Ko‑Okkurrenzen zu zählen: Sie bilden interne Strukturen, die sich fruchtbar mit verschiedenen Formen menschlichen Verstehens vergleichen lassen, etwa mit begrifflichem, faktischem und prinzipiellem Verständnis. Wir synthetisieren die bislang relevantesten Befunde der MI und betten sie in einen integrativen theoretischen Rahmen ein, um über Verständnis in LLMs nachzudenken. Wie das Phänomen „parallel mechanisms“ zeigt, sind die Unterschiede zwischen LLMs und menschlicher Kognition jedoch ebenso philosophisch ergiebig wie die Ähnlichkeiten.

erklärbare KI, LLM, mechanistische Interpretierbarkeit, Philosophie der KI, Verständnis, Begriffswandel

PDF herunterladen

Can AI Rely on the Systematicity of Truth? The Challenge of Modelling Normative Domains

Philosophy & Technology 38 (34): 1–27. 2025. doi:10.1007/s13347-025-00864-x

Argumentiert, dass die Asystematizität normativer Bereiche, die aus der Pluralität, Unvereinbarkeit und Inkommensurabilität von Werten resultiert, die Fähigkeit der KI herausfordert, diese Bereiche umfassend zu modellieren, und die unverzichtbare Rolle menschlicher Handlungsfähigkeit in der praktischen Deliberation unterstreicht.

KI, Asystematizität, LLM, Technikphilosophie, Normativität, Systematizität

PDF herunterladen