Wie verlässlich ist KI? TU Wien macht Unsicherheit berechenbar
TU Wien zeigt: Unsicherheit in KI-Systemen lässt sich exakt berechnen – mit Folgen für Medizin, Mobilität und Technik.

Mit geometrischen Analysen kann man das Verhalten künstlicher Intelligenz genau beschreiben.
Foto: TU Wien
Künstliche Intelligenz ist in vielen Bereichen längst Alltag: Sie steckt im Smartphone, in Produktionsanlagen, in der medizinischen Bildanalyse oder in automatisierten Fahrzeugen. Doch mit ihrer Leistungsfähigkeit kommt eine zentrale Frage auf: Wie sicher sind die Entscheidungen, die ein KI-System trifft – vor allem dann, wenn Eingaben verrauscht oder leicht verändert sind?
Ein Forschungsteam der Technischen Universität Wien hat jetzt eine mathematische Methode vorgestellt, die exakt berechnen kann, wie groß die Unsicherheit bei neuronalen Netzen in bestimmten Eingabebereichen ist. Dabei geht es nicht um ungefähre Schätzungen, sondern um garantierte Aussagen – ein möglicher Durchbruch für sicherheitsrelevante Anwendungen.
Inhaltsverzeichnis
Was passiert bei kleinen Störungen?
Neuronale Netze liefern bei gleichen Eingaben meist dieselben Ergebnisse. Aber schon kleine Abweichungen im Input können unerwartete Resultate hervorrufen. Ein bekanntes Beispiel: Ein Bild wird leicht verändert – durch Rauschen, veränderte Beleuchtung oder einen anderen Bildausschnitt – und die KI erkennt plötzlich nicht mehr das richtige Objekt.
„Neuronale Netze verhalten sich normalerweise vorhersehbar – sie geben jedes Mal die gleiche Ausgabe, wenn man den gleichen Input eingibt“, sagt Dr. Andrey Kofnov, einer der beteiligten Forschenden. „Aber in der realen Welt sind die Eingaben oft verrauscht oder unsicher und können nicht immer durch einen einzigen, festen Wert beschrieben werden. Diese Unsicherheit bei der Eingabe führt zu Unsicherheit bei der Ausgabe.“
Gerade in sicherheitskritischen Bereichen – etwa im Gesundheitswesen, im Verkehr oder im Ingenieurwesen – kann so etwas fatale Folgen haben. Doch klassische neuronale Netze geben keine Auskunft darüber, wie sicher sie sich bei ihrer Entscheidung sind. Genau das will das Team der TU Wien ändern.
Rechnen statt raten
Üblicherweise analysieren Forschende das Verhalten neuronaler Netze mithilfe von Simulationen. Dazu speisen sie Millionen zufälliger Eingaben in das System und werten die Ergebnisse statistisch aus. Das ist aufwendig und liefert nur Näherungen – ohne Gewähr, dass extreme Ausreißer ausgeschlossen werden.
Das neue Verfahren geht anders vor. Es basiert auf einem geometrischen Ansatz, der den Eingaberaum – also die Menge aller möglichen Eingabewerte – in kleine Teilbereiche zerlegt. Für jeden dieser Bereiche lassen sich dann die möglichen Ausgaben exakt berechnen.
„Die Menge aller möglichen Inputs – zum Beispiel die Menge aller möglichen Bilder, die man einem solchen AI-System eingeben kann – kann man sich geometrisch als Raum vorstellen, ähnlich wie unsere dreidimensionale Welt, aber mit einer beliebigen Zahl von Dimensionen“, sagt Prof. Efstathia Bura. „Wir zerlegen diesen Raum in kleine Teilbereiche, für die sich jeweils exakt bestimmen lässt, welche Ausgaben das neuronale Netz generiert.“
Die Methode verwendet sogenannte ReLU-Netze – neuronale Netze mit speziellen Aktivierungsfunktionen. Diese lassen sich durch zwei Näherungsnetze beschreiben: eines, das das Verhalten von oben, und eines, das es von unten eingrenzt. In Kombination mit einer Wahrscheinlichkeitsverteilung der Eingabedaten, etwa einer Gaußverteilung, entsteht ein klar definierter Wertebereich für die Ausgaben. So lässt sich quantifizieren, wie hoch die Wahrscheinlichkeit für bestimmte Fehler oder Extrema ist.
Vom theoretischen Raum in die Praxis
Das Team testete seine Methode anhand bekannter Datensätze wie „Iris“, „Wine“, „Diabetes“ oder dem „Banana“-Datensatz. Die Ergebnisse zeigen: Selbst bei verrauschten Eingaben lassen sich enge mathematische Schranken für die Netzwerkausgabe berechnen – deutlich präziser als mit bisherigen Methoden wie der „Piecewise Linear Transformation“.
Besonders effizient arbeitet das Verfahren bei niedrigen Eingabedimensionen – also bei Aufgaben mit wenigen Einflussgrößen. Doch auch in komplexeren Fällen bleibt die Genauigkeit hoch, wenn auch mit größerem Rechenaufwand.
Dr. Daniel Kapla betont die Begrenzung: „Eine KI wie ChatGPT ist viel zu komplex für diese Methode. Sie zu analysieren, würde eine unvorstellbare Menge an Rechenleistung erfordern.“ Der Ansatz zielt derzeit auf kleinere, besser kontrollierbare neuronale Netzwerke ab.
Warum das wichtig ist
Die TU-Wien-Methode könnte die Grundlage für sicherere KI-Anwendungen legen – insbesondere in Bereichen, in denen es auf Verlässlichkeit ankommt. Dazu zählen:
- Diagnosesysteme in der Medizintechnik
- Steuerungen in der Robotik und Luftfahrt
- Sensorfusion in autonomen Fahrzeugen
- Risikobewertung in der Finanzbranche
„Das volle Spektrum möglicher Ergebnisse zu verstehen, hilft dabei, bessere und sicherere Entscheidungen zu treffen – insbesondere in Bereichen, in denen viel auf dem Spiel steht“, erklärt Dr. Kofnov. „Indem wir die Wahrscheinlichkeit möglicher Ergebnisse berechnen, können wir wichtige Fragen beantworten wie: Wie hoch ist die Wahrscheinlichkeit eines extremen Ergebnisses? Wie hoch ist das Risiko?“
Ein Beitrag von: