Zwischen den Zeilen: Wie KI das Lesen lernt
Eine neue Studie beleuchtet den Lernprozess von KI-Sprachmodellen. Die Forschenden zeigen, wie neuronale Netze ihre Strategien zum Textverständnis während des Trainings grundlegend verändern – vom anfänglichen Fokus auf Wortpositionen hin zu einem tieferen Verständnis der Wortbedeutungen. Dieser Übergang ähnelt erstaunlicherweise einem Phasenübergang in der Physik.
KI kann auf verschiedene Arten Texte erfassen.
Foto: SmarterPix/kaptn
Die sprachlichen Fähigkeiten moderner KI-Systeme wie ChatGPT, Gemini und vieler anderer sind inzwischen beachtlich. Die Modelle können natürliche Konversationen führen und demonstrieren dabei ein Maß an Wortgewandtheit, das dem eines Menschen immer näherkommt. Aber trotz dieser Leistungen ist das Verständnis über die internen Prozesse, die in den neuronalen Netzen ablaufen und zu diesen Ergebnissen führen, noch begrenzt. Eine aktuelle Studie, veröffentlicht im Journal of Statistical Mechanics: Theory and Experiment (JSTAT), präsentiert nun neue Ergebnisse zu dem speziellen Aspekt des Lernprozesses dieser Systeme.
Wie verlässlich ist KI? TU Wien macht Unsicherheit berechenbar
Das Forscherteam entdeckte, dass sich Strategien zum Textverständnis der neuronalen Netze während des Trainings immer wieder verändern. Zu Beginn, wenn das Modell nur mit einer begrenzten Datenmenge trainiert wird, verlässt es sich hauptsächlich auf die Position der Wörter in einem Satz, um deren Beziehungen und Funktionen zu erschließen. Sobald jedoch eine kritische Schwelle an Trainingsdaten überschritten wird, vollzieht das System einen abrupten Wechsel hin zu einer Strategie, die auf der Bedeutung der Wörter basiert. Dieser Übergang ähnelt einem bestimmten Phasenübergang in physikalischen Systemen.
So lernen KI-Modelle das Lesen
Der Lernprozess eines neuronalen Netzes weist zudem Parallelen dazu auf, wie Kinder das Lesen erlernen. Über die Positionen der Wörter kann es ableiten, ob ein Wort Subjekt, Verb oder Objekt ist. Mit fortschreitendem Training – das Netzwerk „geht weiter zur Schule“ – findet jedoch die genannte Verschiebung statt: Die Bedeutung der Wörter rückt in den Vordergrund und wird zur primären Informationsquelle für das Textverständnis.
Die Wissenschaftlerinnen und Wissenschaftler untersuchten diesen Übergang anhand eines vereinfachten Modells des sogenannten Selbstaufmerksamkeitsmechanismus‘, bei dem es sich um ein Kernelement von Transformer-Sprachmodellen handelt. Diese Mechanismen sind darauf spezialisiert, Beziehungen innerhalb eines Textes zu erfassen, indem sie die Bedeutung einzelner Wörter im Kontext der anderen bewertet. „Um die Beziehungen zwischen den Wörtern zu evaluieren“, erläutert Studienautor Hugo Cui, „kann das Netzwerk zwei verschiedene Strategien anwenden, von denen eben eine das Nutzen der Wortpositionen ist.“
Der Übergang von positionsbasiertem zu bedeutungsorientiertem KI-Lernen
Die Wissenschaftlerinnen und Wissenschaftler beobachteten, dass sich zunächst spontan die positionsbasierte Strategie einstellt, wenn das Netz trainiert wird. Ein einfaches Beispiel hierfür ist die typische Subjekt-Verb-Objekt-Reihenfolge wie in „Mary isst den Apfel“. Doch bei fortgesetztem Training, bei dem das System immer mehr Daten zur Verfügung gestellt bekommt, geschieht das Überraschende: Ab einem bestimmten Punkt wechselt die Strategie abrupt und das Netzwerk beginnt, sich auf die Wortbedeutungen zu verlassen.
„Wir wollten ursprünglich einfach untersuchen, welche Strategien oder Strategiemischungen die Netze anwenden würden“, sagt Cui. „Stattdessen fanden wir heraus, dass sich das Netzwerk unterhalb eines bestimmten Schwellenwerts ausschließlich auf die Position verließ, während es oberhalb dieses Schwellenwerts nur noch auf die Bedeutung setzte.“ Dieser Wechsel wird als Phasenübergang beschrieben – angelehnt an das Konzept bekannt aus der Physik.
Ein Phasenübergang im KI-Lernen
Die statistische Physik befasst sich mit Systemen aus enorm vielen Teilchen, indem sie deren kollektives Verhalten statistisch beschreibt. Neuronale Netze bestehen ähnlich wie diese Systeme aus einer Vielzahl von „Neuronen“, die einfache Operationen ausführen und deren Interaktion zur Intelligenz des Systems führt. Eine abrupte Änderung des Netzwerkverhaltens kann daher als Phasenübergang betrachtet werden – vergleichbar mit der Verwandlung von Wasser in Gas unter bestimmten Bedingungen.
„Aus theoretischer Sicht ist es wichtig zu verstehen, dass der Strategiewechsel auf diese Weise stattfindet“, sagt Cui. Obwohl die untersuchten Netzwerke im Vergleich zu komplexen KI-Modellen vereinfacht sind, können sie Hinweise darauf geben, unter welchen Bedingungen sich ein Modell auf die eine oder andere Strategie fokussiert. Dieses theoretische Wissen könnte zukünftig genutzt werden, um den Einsatz neuronaler Netze effizienter und sicherer zu gestalten.
Ein Beitrag von: