Maschinelle Lernmodelle werden endlich nutzerfreundlicher
Maschinelle Lernmodelle ermöglichen Fortschritt. Doch wie sieht es mit dem Vertrauen in die Ergebnisse aus? Hier gibt es durchaus noch Potenzial. Forschende beschäftigen sich deshalb damit, solche Modelle nutzerfreundlicher und verständlicher zu gestalten. Das ist einer Gruppe vom MIT nun gelungen.
Eine Forschergruppe, bestehend aus Wissenschaftlerinnen und Wissenschaftlern der Elektrotechnik, Informatik, für Informations- und Entscheidungssysteme (LIDS), Expertinnen und Experten für künstliche Intelligenz (KI) und Datenwissenschaften, beschäftigt sich seit einiger Zeit damit, Modelle für maschinelles Lernen besser zu erklären. „Wir haben festgestellt, dass in der realen Welt, obwohl wir modernste Methoden zur Erklärung von Modellen für maschinelles Lernen verwendet haben, immer noch viel Verwirrung aufgrund der Merkmale und nicht des Modells selbst besteht“, sagt Alexandra Zytek, Doktorandin der Elektrotechnik und Informatik am Massachusetts Institute of Technology (MIT). Um das zu verändern, hat sie das Verfahren der Taxonomie in Betracht gezogen. Es dient der Klassifizierung von Objekten, die dann in Kategorien eingeordnet werden. Das Ziel lautet: Die Wissenschaftler wollen Entwicklern und Entwicklerinnen helfen, Funktionen zu erstellen, die es der Zielgruppe leichter machen, Ergebnisse und Zusammenhänge zu verstehen.
Geräte mit KI sind gefragt, doch eine gewisse Skepsis bleibt
Maschinelle Lernmodelle sind in der Lage, Vorhersagen zu treffen. Ein Beispiel: In einem Krankenhaus kommt ein solches Modell auf einer Intensivstation zum Einsatz. Es soll den Ärztinnen und Ärzten dabei helfen, das Risiko für Komplikationen vorherzusagen, die bei Patienten und Patientinnen nach einer Herzoperation entstehen können. Dazu nutzt das Modell zum Beispiel den Trend der Herzfrequenz eines Patienten in einem bestimmten Zeitraum als Merkmal. Ein paar solcher Merkmale wurden dazu als sogenannte aggregierte Werte dargestellt. Aggregierte Daten, auch Makrodaten genannt, fassen eine große Zahl an Einzelbeobachtungen (Mikrodaten) in einem Wert zusammen. Ein solcher aggregierter Wert ist zum Beispiel das Bruttoinlandsprodukt. Die Ärztinnen und Ärzte konnten aber nicht verstehen, wie die Risikovorhersagen auf Basis der Daten zustande kamen. Sie präferierten eher einen Bezug der aggregierten Merkmale zu den ursprünglichen Werten, um so die Abweichungen innerhalb der Herzfrequenz eines Patienten erkennen zu können.
Maschinelle Lernmodelle: Taxonomie als Schlüssel für den Erfolg
Daraus ergab sich für die Forschenden folgendes Bild: Wenn es darum geht, Daten zu interpretieren, passt nicht eine Größe für alle. Es gilt, unterschiedliche Bedürfnisse zu berücksichtigen. Auch die Interpretierbarkeit an sich beinhaltet viele Ebenen. Deshalb war für das Forscher-Team die Taxonomie der Schlüssel zum Erfolg. Es ließen sich auf diese Art und Weise Eigenschaften definieren, die Funktionen für verschiedene Entscheidungsträger mehr oder weniger interpretierbar machen können. Darüber hinaus ließe sich eingrenzen, welche Eigenschaften für die Benutzergruppen wohl am relevantesten seien.
Mit ihrem Ansatz hoffen die Forschenden, Entwickler von maschinellen Lernmodellen anzuregen, interpretierbare Funktionen schon von Anfang an in den Entwicklungsprozess einzubinden, statt sie nachträglich einzuarbeiten, um das System verständlicher zu gestalten. Schließlich dienten Funktionen, die von Menschen auf natürliche und verständliche Weise beschrieben würden, der Usability. Und wenn solche Modelle einfacher zu nutzen sind, sorge das auch für das notwendige Vertrauen in die Technik.
Maschinelle Lernmodelle müssen verständlich sein
Damit sich Funktionen in maschinelle Lernmodelle integrieren lassen, müssen Daten zum Beispiel aggregiert oder Werte normalisiert werden. Das erledigen meistens Datenwissenschaftler und -wissenschaftlerinnen. Doch diese Ergebnisse dann auf die eigene Arbeit zu transferieren und daraus Lösungen abzuleiten, ist für Laien nahezu unmöglich. Deshalb stand für das Forschungsteam vor allem eine bessere Interpretation im Mittelpunkt. Genau dabei können menschliche Begriffe helfen, wie die Wissenschaftlerinnen und Wissenschaftler herausfanden. Wenn bei Datenspannen immer die gleiche Anzahl von Jahren enthalten ist, ließe sich das trotzdem nicht unbedingt gut interpretieren. Füge man aber Begriffe wie Säugling, Kleinkind, Kind und Teenager hinzu, ließen sich die Daten auf Basis dessen gruppieren.
Das Ergebnis stimmt das Forscher-Team hoffnungsvoll. „In vielen Bereichen ist der Kompromiss zwischen interpretierbaren Merkmalen und Modellgenauigkeit tatsächlich sehr gering. Als wir beispielsweise mit Mitarbeitenden der Kinderfürsorge zusammengearbeitet haben, trainierten wir das Modell neu, indem wir nur Funktionen verwendeten, die unseren Definitionen für Interpretierbarkeit entsprachen und die Leistungseinbuße war fast vernachlässigbar“, erklärt Alexandra Zytek. Auf Basis dieser Ergebnisse haben die Forschenden ein System entwickelt, mit dem ein Modellentwickler künftig komplexe Merkmaltransformationen effizienter handhaben kann, um nutzerorientierte Erklärungen für maschinell lernende Modelle zu erstellen.
Mehr zum Thema maschinelles Lernen:
Ein Beitrag von: