Zusammenarbeit Mensch und Maschine 24.07.2024, 10:25 Uhr

TU Wien will künstliche Intelligenz garantiert rational und fair machen

Neuronale Netzwerke treffen heute viele Entscheidungen, die einst Menschen vorbehalten waren. Doch sind diese Entscheidungen wirklich rational und fair? Ein Forschungsteam der TU Wien entwickelt Methoden, um genau das sicherzustellen.

Zusammenarbeit Mensch und Maschine

Damit die Zusammenarbeit von Mensch und Maschine klappt, ist es wichtig, dass die KI rationale und faire Entscheidungen trifft.

Foto: PantherMedia / BiancoBlue

Immer mehr Entscheidungen, die bisher Menschen trafen, werden in Zukunft Maschinen übernehmen. Aber wie verlässlich sind die Entscheidungen der künstlichen Intelligenz (KI)? In sensiblen Bereichen wünschen wir uns eine Garantie dafür, dass die KI sinnvolle Antworten liefert und schwere Fehler ausschließt. An der TU Wien und dem AIT Austrian Institute of Technology hat man Methoden entwickelt, um neuronale Netzwerke auf Fairness und Sicherheit zu zertifizieren. Diese Ergebnisse wurden auf der 36th International Conference on Computer Aided Verification in Montreal vorgestellt – der wichtigsten Konferenz auf dem Gebiet der Verifikation.

KI-Entscheidungen in sensiblen Bereichen: Zuverlässigkeit garantiert?

KI neigt manchmal zu Fehlern. Während ein Bild mit sechs Fingern noch harmlos ist, sind Fehler in sicherheitskritischen Bereichen inakzeptabel. „Denken wir zum Beispiel an Entscheidungen, die von einem selbstfahrenden Auto getroffen werden – oder auch von einem Computersystem, das für medizinische Diagnostik eingesetzt wird“, erklärt Anagha Athavale vom Institut für Logic und Computation der TU Wien. Sie analysiert neuronale Netzwerke, die Eingabedaten bestimmten Kategorien zuordnen. Ob Verkehrssituation, Diagnosen in der Medizin oder Bankkundendaten – das Netz entscheidet, wann gelenkt, gebremst oder beschleunigt wird, welche Behandlung erfolgt oder ob ein Kredit vergeben werden soll.

„Nun gibt es aber zwei wichtige Eigenschaften, die wir von einem solchen neuronalen Netz verlangen“, erklärt Anagha Athavale. „Nämlich Robustheit und Fairness.“ Ein robustes Netz liefert bei minimal unterschiedlichen Eingaben dasselbe Ergebnis. Fairness bedeutet, dass Unterschiede in irrelevanten Parametern, wie Geschlecht oder Ethnizität, das Ergebnis nicht beeinflussen dürfen. „Stellen wir uns zum Beispiel vor, ein neuronales Netz soll die Kreditwürdigkeit einschätzen“, sagt Anagha Athavale. „Zwei Personen haben finanziell sehr ähnliche Daten, unterscheiden sich aber im Geschlecht oder in der Ethnizität. Das sind Parameter, die auf die Kreditvergabe keinen Einfluss haben sollten. Das System sollte somit also in beiden Fällen dasselbe Ergebnis liefern.“

Herausforderungen der KI-Verifikation

Die Verifizierungstechniken konzentrieren sich meist auf lokale Definitionen von Fairness und Robustheit. Athavale erklärt: „Wenn man diese Eigenschaften auf lokaler Ebene untersucht, dann überprüft man für einen ganz bestimmten Input, ob kleine Abweichungen zu abweichenden Ergebnissen führen. Wir wollen aber eigentlich globale Eigenschaften definieren. Wir wollen garantieren, dass ein neuronales Netz immer diese Eigenschaften aufweist, ganz unabhängig von der Eingabe“.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
THD - Technische Hochschule Deggendorf-Firmenlogo
Professorin / Professor (m/w/d) für das Lehrgebiet "Informatik" THD - Technische Hochschule Deggendorf
Deggendorf Zum Job 
ESFORIN SE-Firmenlogo
Mitarbeiter*in Marktkommunikation & Prozesse (m/w/d) ESFORIN SE
KLEBL GmbH-Firmenlogo
Fachkraft (m/w/d) für Nachhaltigkeit und Energiemanagement KLEBL GmbH
Neumarkt in der Oberpfalz Zum Job 
Mehrer Compression GmbH-Firmenlogo
Ingenieur für Elektrotechnik (m/w/d) Mehrer Compression GmbH
Balingen Zum Job 
Landeshauptstadt München-Firmenlogo
Dokumentationsingenieur*in (w/m/d) Landeshauptstadt München
München Zum Job 
Stuttgart Netze GmbH-Firmenlogo
(Junior) Ingenieur Projektmanagement Netzbau (w/m/d) Stuttgart Netze GmbH
Stuttgart Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
BG ETEM-Firmenlogo
Ingenieur/in (m/w/d) für den Außendienst als Aufsichtsperson BG ETEM
Region Siegen/Koblenz Zum Job 
Max Bögl-Firmenlogo
Entwicklungsingenieur (m/w/d) Steuerungstechnik Max Bögl
Sengenthal Zum Job 
BG ETEM-Firmenlogo
Dozenten/innen (m/w/d) BG ETEM
Bad Münstereifel Zum Job 
Technical University of Munich (TUM) / Fraunhofer Institute for Applied and Integrated Security AISEC-Firmenlogo
Full Professor in Software & System Security in combination with the Institute Director at Fraunhofer Aisec Technical University of Munich (TUM) / Fraunhofer Institute for Applied and Integrated Security AISEC
München, Garching Zum Job 
Diehl Defence GmbH & Co. KG-Firmenlogo
Mitarbeiter (m/w/d) Diehl Defence GmbH & Co. KG
deutschlandweit Zum Job 
Hochschule Anhalt-Firmenlogo
Professur Dynamik und Steuerung photovoltaischer Systeme (W2) Hochschule Anhalt
Köthen Zum Job 
Technische Universität Dresden-Firmenlogo
Wiss. Mitarbeiterin/Mitarbeiter / Doktorandin/Doktorand / Postdoc (m/w/d) Technische Universität Dresden
Dresden Zum Job 
Deibert & Partner GmbH-Firmenlogo
Ingenieur/Techniker (m/w/d) in der Elektronikentwicklung Deibert & Partner GmbH
Bamberg Zum Job 
Hochschule Angewandte Wissenschaften München-Firmenlogo
Professur für Data und Knowledge Engineering (W2) Hochschule Angewandte Wissenschaften München
München Zum Job 
Bundesamt für Bauwesen und Raumordnung (BBR)-Firmenlogo
Ingenieurinnen und Ingenieure (w/m/d) "Elektro- bzw. Nachrichtentechnik" Bundesamt für Bauwesen und Raumordnung (BBR)
THD - Technische Hochschule Deggendorf-Firmenlogo
Professorin / Professor (m/w/d) für das Lehrgebiet "Informatik" THD - Technische Hochschule Deggendorf
Deggendorf Zum Job 
REUTERS INGENIEUR GmbH-Firmenlogo
Projektingenieur/in - EMSR-Technik (Dipl.-Ingenieur/in) Elektro-/ Automatisierungstechnik (oder gleichwertige Ausbildung) (m/w/d) REUTERS INGENIEUR GmbH
Frankfurt am Main Zum Job 
THD - Technische Hochschule Deggendorf-Firmenlogo
Professorin / Professor (m/w/d) für das Lehrgebiet "Automatisierungstechnik" THD - Technische Hochschule Deggendorf
Deggendorf Zum Job 
THD - Technische Hochschule Deggendorf-Firmenlogo
Professorin / Professor (m/w/d) für das Lehrgebiet "Informatik" THD - Technische Hochschule Deggendorf
Deggendorf Zum Job 
ESFORIN SE-Firmenlogo
Mitarbeiter*in Marktkommunikation & Prozesse (m/w/d) ESFORIN SE
KLEBL GmbH-Firmenlogo
Fachkraft (m/w/d) für Nachhaltigkeit und Energiemanagement KLEBL GmbH
Neumarkt in der Oberpfalz Zum Job 
Mehrer Compression GmbH-Firmenlogo
Ingenieur für Elektrotechnik (m/w/d) Mehrer Compression GmbH
Balingen Zum Job 

Dies erfordert jedoch eine umfassende Überprüfung aller möglichen Eingaben, was zeitaufwändig ist. Deshalb entwickelte Athavale mathematische Tricks, um das Verhalten des Netzes zuverlässig abzuschätzen und dennoch strenge Aussagen über das gesamte Netz zu treffen. Athavale betont, dass die neue Methode auf Vertrauen basiert: „Unser Verifizierungs-Tool prüft das neuronale Netz nicht nur auf bestimmte Eigenschaften, sondern es gibt auch Auskunft über den Grad des Vertrauens: Genau an der Grenze zwischen zwei Kategorien ist das Vertrauen gering. Dort ist es völlig in Ordnung, wenn leicht unterschiedliche Eingaben zu unterschiedlichen Ergebnissen führen. In anderen Regionen des Eingaberaums ist das Vertrauen hoch, und die Ergebnisse sind insgesamt robust.“

Neue Wege zur globalen Analyse neuronaler Netze

Die neue Methode, die auf Vertrauen basiert, stellt eine bedeutende Veränderung in der Definition globaler Eigenschaften von neuronalen Netzwerken dar.  „Um ein neuronales Netz global zu analysieren, müssen wir allerdings alle möglichen Eingaben überprüfen – und das ist sehr zeitaufwändig“, sagt Anagha Athavale. Um dieses Problem zu lösen, entwickelte sie innovative mathematische Ansätze. Diese Methoden ermöglichen eine zuverlässige Abschätzung des Netzwerkverhaltens ohne den Einsatz rechenintensiver mathematischer Funktionen, die normalerweise in neuronale Netze integriert sind.

Athavale schuf Vereinfachungen, die dennoch strenge und zuverlässige Aussagen über das gesamte Netzwerk ermöglichen. Der Erfolg dieser Methode zeigt, dass es nicht notwendig ist, einer künstlichen Intelligenz blind zu vertrauen – besonders bei wichtigen Entscheidungen. Es ist technisch möglich, neuronale Netze gründlich zu testen und deren Eigenschaften mit mathematischer Präzision zu garantieren. Dies ist ein wichtiger Schritt für die zukünftige Zusammenarbeit von Mensch und Maschine.

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.