Inhalte aus der realen Welt integriert 01.07.2022, 07:00 Uhr

Maschinelle Lernmodelle werden endlich nutzerfreundlicher

Maschinelle Lernmodelle ermöglichen Fortschritt. Doch wie sieht es mit dem Vertrauen in die Ergebnisse aus? Hier gibt es durchaus noch Potenzial. Forschende beschäftigen sich deshalb damit, solche Modelle nutzerfreundlicher und verständlicher zu gestalten. Das ist einer Gruppe vom MIT nun gelungen.

abstrakte Darstellung künstlicher Intelligenz

Nutzerfreundliche Begriffe machen maschinelle Lernmodelle zu besseren Helfern. Sie werden verständlicher.

Foto: panthermedia.net/monsit

Eine Forschergruppe, bestehend aus Wissenschaftlerinnen und Wissenschaftlern der Elektrotechnik, Informatik, für Informations- und Entscheidungssysteme (LIDS), Expertinnen und Experten für künstliche Intelligenz (KI) und Datenwissenschaften, beschäftigt sich seit einiger Zeit damit, Modelle für maschinelles Lernen besser zu erklären. „Wir haben festgestellt, dass in der realen Welt, obwohl wir modernste Methoden zur Erklärung von Modellen für maschinelles Lernen verwendet haben, immer noch viel Verwirrung aufgrund der Merkmale und nicht des Modells selbst besteht“, sagt Alexandra Zytek, Doktorandin der Elektrotechnik und Informatik am Massachusetts Institute of Technology (MIT). Um das zu verändern, hat sie das Verfahren der Taxonomie in Betracht gezogen. Es dient der Klassifizierung von Objekten, die dann in Kategorien eingeordnet werden. Das Ziel lautet: Die Wissenschaftler wollen Entwicklern und Entwicklerinnen helfen, Funktionen zu erstellen, die es der Zielgruppe leichter machen, Ergebnisse und Zusammenhänge zu verstehen.

Geräte mit KI sind gefragt, doch eine gewisse Skepsis bleibt

Maschinelle Lernmodelle sind in der Lage, Vorhersagen zu treffen. Ein Beispiel: In einem Krankenhaus kommt ein solches Modell auf einer Intensivstation zum Einsatz. Es soll den Ärztinnen und Ärzten dabei helfen, das Risiko für Komplikationen vorherzusagen, die bei Patienten und Patientinnen nach einer Herzoperation entstehen können. Dazu nutzt das Modell zum Beispiel den Trend der Herzfrequenz eines Patienten in einem bestimmten Zeitraum als Merkmal. Ein paar solcher Merkmale wurden dazu als sogenannte aggregierte Werte dargestellt. Aggregierte Daten, auch Makrodaten genannt, fassen eine große Zahl an Einzelbeobachtungen (Mikrodaten) in einem Wert zusammen. Ein solcher aggregierter Wert ist zum Beispiel das Bruttoinlandsprodukt. Die Ärztinnen und Ärzte konnten aber nicht verstehen, wie die Risikovorhersagen auf Basis der Daten zustande kamen. Sie präferierten eher einen Bezug der aggregierten Merkmale zu den ursprünglichen Werten, um so die Abweichungen innerhalb der Herzfrequenz eines Patienten erkennen zu können.

Maschinelle Lernmodelle: Taxonomie als Schlüssel für den Erfolg

Daraus ergab sich für die Forschenden folgendes Bild: Wenn es darum geht, Daten zu interpretieren, passt nicht eine Größe für alle. Es gilt, unterschiedliche Bedürfnisse zu berücksichtigen. Auch die Interpretierbarkeit an sich beinhaltet viele Ebenen. Deshalb war für das Forscher-Team die Taxonomie der Schlüssel zum Erfolg. Es ließen sich auf diese Art und Weise Eigenschaften definieren, die Funktionen für verschiedene Entscheidungsträger mehr oder weniger interpretierbar machen können. Darüber hinaus ließe sich eingrenzen, welche Eigenschaften für die Benutzergruppen wohl am relevantesten seien.

Mit ihrem Ansatz hoffen die Forschenden, Entwickler von maschinellen Lernmodellen anzuregen, interpretierbare Funktionen schon von Anfang an in den Entwicklungsprozess einzubinden, statt sie nachträglich einzuarbeiten, um das System verständlicher zu gestalten. Schließlich dienten Funktionen, die von Menschen auf natürliche und verständliche Weise beschrieben würden, der Usability. Und wenn solche Modelle einfacher zu nutzen sind, sorge das auch für das notwendige Vertrauen in die Technik.

Maschinelle Lernmodelle müssen verständlich sein

Damit sich Funktionen in maschinelle Lernmodelle integrieren lassen, müssen Daten zum Beispiel aggregiert oder Werte normalisiert werden. Das erledigen meistens Datenwissenschaftler und -wissenschaftlerinnen. Doch diese Ergebnisse dann auf die eigene Arbeit zu transferieren und daraus Lösungen abzuleiten, ist für Laien nahezu unmöglich. Deshalb stand für das Forschungsteam vor allem eine bessere Interpretation im Mittelpunkt. Genau dabei können menschliche Begriffe helfen, wie die Wissenschaftlerinnen und Wissenschaftler herausfanden. Wenn bei Datenspannen immer die gleiche Anzahl von Jahren enthalten ist, ließe sich das trotzdem nicht unbedingt gut interpretieren. Füge man aber Begriffe wie Säugling, Kleinkind, Kind und Teenager hinzu, ließen sich die Daten auf Basis dessen gruppieren.

Das Ergebnis stimmt das Forscher-Team hoffnungsvoll. „In vielen Bereichen ist der Kompromiss zwischen interpretierbaren Merkmalen und Modellgenauigkeit tatsächlich sehr gering. Als wir beispielsweise mit Mitarbeitenden der Kinderfürsorge zusammengearbeitet haben, trainierten wir das Modell neu, indem wir nur Funktionen verwendeten, die unseren Definitionen für Interpretierbarkeit entsprachen und die Leistungseinbuße war fast vernachlässigbar“, erklärt Alexandra Zytek. Auf Basis dieser Ergebnisse haben die Forschenden ein System entwickelt, mit dem ein Modellentwickler künftig komplexe Merkmaltransformationen effizienter handhaben kann, um nutzerorientierte Erklärungen für maschinell lernende Modelle zu erstellen.

Mehr zum Thema maschinelles Lernen:

Ein Beitrag von:

  • Nina Draese

    Nina Draese hat Geschichte und Kunstgeschichte (M.A.) studiert. Unter anderem hat sie für die dpa gearbeitet, die Presseabteilung von BMW, für die Autozeitung und den MAV-Verlag. Sie ist selbstständige Journalistin und gehört zum Team von Content Qualitäten. Ihre Themen: Automobil, Energie, Klima, KI, Technik, Umwelt.

Top Stellenangebote

Uniper SE-Firmenlogo
Uniper SE Projektleiter Bau (w/m/d) Landshut
BAM - Bundesanstalt für Materialforschung und -prüfung-Firmenlogo
BAM - Bundesanstalt für Materialforschung und -prüfung TGA-Ingenieur*in als technische*r Leiter*in (m/w/d) Berlin-Steglitz
Duale Hochschule Baden-Württemberg-Firmenlogo
Duale Hochschule Baden-Württemberg Professur für Bauingenieurwesen und Holztechnik (w/m/d) Mosbach
Bau- und Liegenschaftsbetrieb des Landes NRW-Firmenlogo
Bau- und Liegenschaftsbetrieb des Landes NRW Ingenieurin / Ingenieur (Tiefbau) (w/m/d) als Projektteammitglied Duisburg
AUGUST STORCK KG-Firmenlogo
AUGUST STORCK KG SPS-Programmierer (m/w/d) Ohrdruf
AUGUST STORCK KG-Firmenlogo
AUGUST STORCK KG Teamleiter (m/w/d) Technik Ohrdruf
Shell-Firmenlogo
Shell Engineer Industrial Applications (m/f/d) Hamburg
Westfälische Hochschule-Firmenlogo
Westfälische Hochschule Professur Konstruktionslehre (W2) Gelsenkirchen
Hochschule für Technik und Wirtschaft des Saarlandes-Firmenlogo
Hochschule für Technik und Wirtschaft des Saarlandes W2-Professur für Automatisierung und Robotik Saarbrücken
Hochschule für Technik und Wirtschaft des Saarlandes-Firmenlogo
Hochschule für Technik und Wirtschaft des Saarlandes W2-Professur für Mechatronische Konstruktionen Saarbrücken
Zur Jobbörse

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.