Philosophie-Der-Ki 2

Mechanistic Indicators of Understanding in Large Language Models

Philosophical Studies. Mit Pierre Beckmann. doi:10.48550/arXiv.2507.08017

Stützt sich auf detaillierte technische Evidenz aus der Forschung zur mechanistischen Interpretierbarkeit (MI), um zu zeigen, dass LLMs zwar tiefgreifend von menschlicher Kognition abweichen, aber mehr tun als Wort‑Ko‑Okkurrenzen zu zählen: Sie bilden interne Strukturen, die sich fruchtbar mit verschiedenen Formen menschlichen Verstehens vergleichen lassen, etwa mit begrifflichem, faktischem und prinzipiellem Verständnis. Wir synthetisieren die bislang relevantesten Befunde der MI und betten sie in einen integrativen theoretischen Rahmen ein, um über Verständnis in LLMs nachzudenken. Wie das Phänomen „parallel mechanisms“ zeigt, sind die Unterschiede zwischen LLMs und menschlicher Kognition jedoch ebenso philosophisch ergiebig wie die Ähnlichkeiten.

erklärbare KI, LLM, mechanistische Interpretierbarkeit, Philosophie der KI, Verständnis, Begriffswandel

PDF herunterladen

Explainability through Systematicity: The Hard Systematicity Challenge for Artificial Intelligence

Minds and Machines 35 (35): 1–39. 2025. doi:10.1007/s11023-025-09738-9

Bietet einen Rahmen, um über die „Systematizität des Denkens“ nachzudenken: Er unterscheidet vier Bedeutungen der Wendung, entschärft die vermeintliche Spannung zwischen Systematizität und Konnektionismus, die Fodor und Pylyshyn einflussreich diagnostiziert haben, und identifiziert eine „harte“ Form der Systematizitätsherausforderung, der konnektionistische Modelle weiterhin nicht gewachsen sind.

KI, erklärbare KI, Philosophie der KI, Rationalität, Systematizität, Begriffswandel

PDF herunterladen