Lade Veranstaltungen

Bedeutungs­haftes maschi­nelles Denken

Zur Ent­stehung seman­tisch ver­ankerter Kog­nition in der KI

Vortrag von Prof. Dr. Holger Lyre

Verstehen große Sprachmodelle (LLMs) die Bedeutung der Texte, die sie generieren? Verfügen sie über eine semantische Verankerung? Und wie könnten wir herausfinden, ob und was sie verstehen? Um diesen Fragen nachzugehen, lohnt sich der Blick in die Philosophie des Geistes und die Philosophie der Sprache und die dort seit langem diskutierten Ansätze zu Theorien der Bedeutung. Ich werde dafür argumentieren, dass die semantische Verankerung weder bei uns Menschen noch in KI-Systemen eine Ja-Nein-Angelegenheit ist, sondern ein sich schrittweise entfaltender Prozess. In Anlehnung an die wesentlichen Motive philosophischer Bedeutungstheorien entfaltet sich dieser Prozess hinsichtlich dreier Dimensionen, die man als funktionale, soziale und kausale Verankerung bezeichnen kann.

LLMs zeigen hinsichtlich dieser drei semantischen Dimensionen verschieden starke Ausprägungen: am stärksten hinsichtlich der funktionalen, am schwächsten hinsichtlich der kausalen Verankerung. Keinesfalls aber handelt es sich bei ihnen um »semantisch leere« Systeme oder »stochastische Papageien«. Sie verstehen die Sprache, die sie generieren, bereits in elementarer Form. Ein starkes Indiz hierfür ist, dass LLMs Weltmodelle entwickeln.

Im Ausblick werde ich fragen, welche Elemente hinzutreten müssen, damit insbesondere die kausale Verankerung weiter zunimmt. Ein wichtiger Kandidat hierfür ist kontinuierliches Verstärkungslernen in Robotern. Dabei werde ich zum Ende auch auf einen entscheidenden Unterschied zwischen digital und neuronal-analog realisierter Kognition eingehen.

Nach oben