Künstliche Intelligenz 14.08.2020, 07:00 Uhr

Neue Methode soll mehr Vertrauen in KI schaffen

KI-Systeme sind in der Lage, selbstständig zu lernen. Hindernis dabei können sogenannte Confounders sein, die auch als Clever-Hans-Phänomen bekannt sind. Das bedeutet: KI lernt aus falschen Gründen, die richtigen Schlüsse zu ziehen. Wie man das umgeht, hat ein Forscherteam der Technischen Universität Darmstadt herausgefunden.

Künstliche Intelligenz

Forscher sehen große Vorteile in einer neuen Methode des interaktiven Lernens für KI, bei der auch Fachleute eingebunden sind.

Foto: panthermedia.net/Gudrun Best

Das Clever-Hans-Phänomen geht auf ein Pferd zurück, das Anfang des vergangenen Jahrhunderts angeblich rechnen konnte. Tatsächlich war es in der Lage, anhand der Körpersprache des Fragestellers richtige Antwort abzulesen. Das bedeutet übertragen auf KI, ein System lernt zwar, die richtigen Schlüsse zu ziehen. Die ursächlichen Gründe dafür sind aber falsch.

Ein Beispiel: Man will mit künstlicher Intelligenz erreichen, dass das System auf Fotos ein Pferd erkennt. Als Training dienen mehrere tausend Aufnahmen von Pferden. Irgendwann ist KI in der Lage, auch auf unbekannten Aufnahmen dieses Tier zu identifizieren. Wie genau KI zum Ergebnis kam, ist aber unklar. Nun stellte sich etwa heraus, dass bei den Fotos in einer Ecke immer eine Information zum Copyright mit einem Link auf eine Pferde-Website war. Das Copyright ist dafür da, denjenigen zu schützen, der das Recht an der wirtschaftlichen Verwertung des Werkes zu besitzen.

Top Stellenangebote

Zur Jobbörse
Die Autobahn GmbH des Bundes-Firmenlogo
Projektingenieur Planung (w/m/d) Die Autobahn GmbH des Bundes
Bundesamt für das Personalmanagement der Bundeswehr-Firmenlogo
Ingenieur/Ingenieurin (m/w/d) Informatik/Elektrotechnik Bundesamt für das Personalmanagement der Bundeswehr
Mannheim Zum Job 
Wirtgen GmbH-Firmenlogo
Entwicklungsingenieur im Bereich Kaltrecycling (m/w/d) Wirtgen GmbH
Windhagen Zum Job 
LTS Lohmann Therapie-Systeme AG-Firmenlogo
Leiter Haustechnik (m/w/d) LTS Lohmann Therapie-Systeme AG
Andernach Zum Job 
NORD-MICRO GmbH & Co. OHG a part of Collins Aerospace-Firmenlogo
Service Ingenieur - Fans (m/w/d) NORD-MICRO GmbH & Co. OHG a part of Collins Aerospace
Frankfurt am Main Zum Job 
Bundesamt für das Personalmanagement der Bundeswehr-Firmenlogo
Ingenieurin/Ingenieur (m/w/d) mit Master Bundesamt für das Personalmanagement der Bundeswehr
Mannheim Zum Job 
Stuttgart Netze GmbH-Firmenlogo
Ingenieur Bauprojekte Gashochdruck (w/m/d) Stuttgart Netze GmbH
Stuttgart Zum Job 
GOLDBECK West GmbH-Firmenlogo
Bauleiter (m/w/d) Elektrotechnik / Versorgungstechnik im Rhein-Ruhr-Gebiet GOLDBECK West GmbH
verschiedene Standorte Zum Job 
GOLDBECK West GmbH-Firmenlogo
Projektleiter (m/w/d) Elektrotechnik / Versorgungstechnik im Rhein-Ruhr-Gebiet GOLDBECK West GmbH
verschiedene Standorte Zum Job 
Cesra Arzneimittel GmbH & Co. KG-Firmenlogo
Mechatroniker / Elektroniker / Industriemechaniker (w/m/d) - Betriebstechnik Cesra Arzneimittel GmbH & Co. KG
Baden-Baden Zum Job 
Stadtwerke Tübingen GmbH-Firmenlogo
Meister der Elektrotechnik (m/w/d) als Bauaufsicht und Netzführung Stadtwerke Tübingen GmbH
Tübingen Zum Job 
Knauf Unternehmensgruppe-Firmenlogo
Projektingenieur Werksplanung Mechanik (m/w/d) Knauf Unternehmensgruppe
Iphofen Zum Job 
Stadtwerke Tübingen GmbH-Firmenlogo
Elektromonteure (m/w/d) Stadtwerke Tübingen GmbH
Tübingen Zum Job 
Stadtwerke Tübingen GmbH-Firmenlogo
Ingenieur (m/w/d) Netzleitwarte Stadtwerke Tübingen GmbH
Tübingen Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Planungsingenieur (w/m/d) Straßenbau Die Autobahn GmbH des Bundes
Max-Planck-Institut für Kernphysik-Firmenlogo
Ingenieur (m/w/d) als Leitung der Betriebstechnik Max-Planck-Institut für Kernphysik
Heidelberg Zum Job 
ESG Elektroniksystem- und Logistik-GmbH-Firmenlogo
Softwareentwickler und Softwaretester im Bereich virtuelle Simulation (gn) ESG Elektroniksystem- und Logistik-GmbH
Fürstenfeldbruck Zum Job 
ESG Elektroniksystem- und Logistik-GmbH-Firmenlogo
Expert Systems Engineering Drohnenabwehr (gn) ESG Elektroniksystem- und Logistik-GmbH
Fürstenfeldbruck Zum Job 
ESG Elektroniksystem- und Logistik-GmbH-Firmenlogo
Senior Softwareentwickler Missionsautomatisierung für FCAS (gn) ESG Elektroniksystem- und Logistik-GmbH
Berlin, Fürstenfeldbruck, Koblenz Zum Job 
Kölner Verkehrs-Betriebe AG-Firmenlogo
Ingenieur*in Betriebsleiterbüro (m/w/d) Kölner Verkehrs-Betriebe AG

Störfaktoren schränken die Anwendbarkeit von KI ein

Mit dieser Hilfe hat es sich KI sehr einfach gemacht. Die Copyright-Angabe war praktisch der Lerninhalt. Wissenschaftler bezeichnen solche Dinge als sogenannte Confounders, also Störfaktoren. Sie haben mit der eigentlichen Identifizierung nichts zu tun. Im Beispiel konnte das System tatsächlich bei Bildern ohne Copyright-Angabe die Pferde nicht mehr erkennen.

Wissenschaftler haben dieses Phänomen in den letzten Jahren relativ häufig nachgewiesen. Kristian Kersting, Professor für künstliche Intelligent und Maschinelles Lernen am Fachbereich Informatik der Technischen Universität (TU) Darmstadt, sieht darin ein großflächiges Problem, mit dem alle KI-Forschenden konfrontiert würden, weshalb seit einigen Jahren immer wieder der Wunsch aufkomme, KI erklärbarer zu gestalten.

KI funktioniert am besten in Kooperation mit Fachleuten

Kersting hat gemeinsam mit seinem Team eine Lösung entwickelt: interaktives Lernen. Wissenschaftler binden Fachleute in den Lernprozess mit ein. Um zu verstehen, was KI macht, muss sie die Fachleute über das aktive Lernen und dessen Inhalte informieren. Zugleich muss eine Erklärung erfolgen, wie KI aus dieser Information eine Voraussage ableitet. Diese beiden Fakten können Forscher mit entsprechender Expertise prüfen.

Bei der Prüfung kann es zu drei Ergebnissen kommen. Erstens, die Voraussage ist falsch, KI ist aber in der Lage, neue Regeln zu lernen. Zweitens, Voraussagen und Erklärung sind richtig. In diesem Fall gibt es für die Experten nichts weiter zu tun. Drittens kann die Voraussage richtig sein, die Erklärung jedoch falsch. Wie können Wissenschaftler einer künstlichen Intelligenz klar machen, dass die Erklärung falsch ist und ein neuer Ansatz erforderlich ist?

Tests von KI-Systemen mit Beispieldaten

Für diese Frage gibt es bereits eine Antwort, in Form einer Strategie – das sogenannte Explanatory Interactive Leaning (XIL). Das Prinzip dahinter: Ein KI-Experte füttert das System mit Beispieldaten. Aus ihnen muss klar hervorgehen, dass die bisher angenommenen Unterscheidungsmerkmale keine Rolle spielen. Man zeigt KI also absichtlich die Confounders.

Bei dem eingangs erwähnten Beispiel würde dies bedeuten: KI zeigt an, dass die Copyright-Daten bei einer Analyse von Bedeutung sind. Die Fach-Experten müssten nun dem System Bilder zur Verfügung stellen, auf denen genau an der Stelle des Copyright-Vermerks zufällig andere Bildinformationen stehen. Dieses Training hätte zur Folge, dass KI die Copyright-Informationen als immer weniger relevant einschätzt.

Neue Methode soll mehr Vertrauen in KI schaffen

Genau diese Methode haben Forscher bei ihrer Testreihe eingesetzt. Gegenstand der Reihe war die Cercospora-Blattfleckenkrankheit. Sie schädigt Zuckerrüben und ist bereits weltweit verbreitet. Das System lernte zuerst, sich auf Bereiche in hyperspektralen Daten zu fokussieren, die nach Aussage einer Pflanzenexpertin nicht dafür ausschlaggebend seien, um die Schädigung zu identifizieren – auch wenn Voraussagen in diesem Zusammenhang zuverlässig erschienen.

Im zweiten Schritt setzten die Forscher die XIL-Methode ein. Die Trefferquote sank leicht, dafür zog das System aus den richtigen Gründen die richtigen Schlüsse. Das bedeute zwar in einigen Fällen, dass KI langsamer lerne, dafür aber langfristig gesehen die belastbareren Voraussagen liefere, so die Wissenschaftler. „Interaktion und Verständlichkeit sind für das Vertrauen in maschinelle Lernverfahren somit von zentraler Bedeutung“, sagt Kristian Kersting. Der Zusammenhang zwischen Interaktion, Erklärung und Vertrauensbildung sei bislang in der Forschung aber noch weitgehend ignoriert worden.

Mehr zum Thema KI:

Ein Beitrag von:

  • Nina Draese

    Nina Draese hat unter anderem für die dpa gearbeitet, die Presseabteilung von BMW, für die Autozeitung und den MAV-Verlag. Sie ist selbstständige Journalistin und gehört zum Team von Content Qualitäten. Ihre Themen: Automobil, Energie, Klima, KI, Technik, Umwelt.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.