Tiefe neuronale Netze 15.01.2025, 10:13 Uhr

Einfachheit gewinnt: KI und Ockhams Rasiermesser

KI trifft auf Philosophie: DNNs nutzen ein natürliches „Ockhams Rasiermesser“, um effektiver aus Daten zu lernen und neue Muster zu erkennen.

Künstliche Intelligenz und neuronale Netze

Forschende haben herausgefunden, dass künstliche Intelligenz eine natürliche Art von "Ockhams Rasiermesser" nutzt.

Foto: PantherMedia / Jirsak

Künstliche Intelligenz (KI) ist mittlerweile ein zentraler Bestandteil moderner Technologie. Ein spannender Aspekt der KI-Forschung ist die Frage, warum und wie tiefe neuronale Netze (Deep Neural Networks = DNNs), die Grundlage vieler KI-Systeme, so effektiv aus Daten lernen. Eine neue Studie der Universität Oxford hat darauf eine Antwort geliefert: DNNs verfügen über ein eingebautes Prinzip von Ockhams Rasiermesser. Dieses Prinzip besagt, dass bei mehreren möglichen Erklärungen die einfachste vorzuziehen ist. Doch wie funktioniert diese „Neigung zur Einfachheit“ in der Praxis, und warum ist sie für DNNs so entscheidend?

Was ist Ockhams Rasiermesser?

Ockhams Rasiermesser ist ein philosophisches Prinzip, das auf den mittelalterlichen Theologen und Philosophen William von Ockham (ca. 1285–1347) zurückgeht. Es wird oft so interpretiert, dass unnötige Annahmen vermieden werden sollten, wenn eine Theorie oder Lösung entwickelt wird. In seiner einfachsten Form lautet das Prinzip: „Von mehreren möglichen Erklärungen ist die einfachste zu bevorzugen.“

Das Konzept basiert auf der Annahme, dass einfache Lösungen weniger anfällig für Fehler sind, da sie weniger Annahmen enthalten. Zudem erleichtert Einfachheit das Verständnis und die Reproduzierbarkeit von Modellen oder Theorien. In der Wissenschaft und Technik wird Ockhams Rasiermesser häufig angewandt, um zwischen konkurrierenden Hypothesen auszuwählen oder komplexe Systeme zu analysieren.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
Unfallkasse Mecklenburg-Vorpommern-Firmenlogo
Ingenieur / Naturwissenschaftler (m/w/d) für Berufskrankheiten-Ermittlung Unfallkasse Mecklenburg-Vorpommern
Schwerin Zum Job 
ONTRAS Gastransport GmbH-Firmenlogo
Projektmanager für Wasserstoff (m/w/d) ONTRAS Gastransport GmbH
Leipzig Zum Job 
ROBEL Bahnbaumaschinen GmbH-Firmenlogo
Referent Zulassung (m/w/d) ROBEL Bahnbaumaschinen GmbH
Freilassing Zum Job 
THOST Projektmanagement GmbH-Firmenlogo
Ingenieur*in (m/w/d) in der Terminplanung für Großprojekte im Anlagenbau THOST Projektmanagement GmbH
Nürnberg, Berlin, Leipzig, Hamburg, Pforzheim Zum Job 
3M Deutschland GmbH-Firmenlogo
Senior Research Product Development Engineer (R&D) - Electrical Markets (m/f/*) 3M Deutschland GmbH
IMS Röntgensysteme GmbH-Firmenlogo
Entwicklungsingenieur (m/w/i) für digitale Inspektionssysteme IMS Röntgensysteme GmbH
Heiligenhaus Zum Job 
AbbVie Deutschland GmbH & Co. KG-Firmenlogo
Senior Project Engineer - Facility Automation (all genders) AbbVie Deutschland GmbH & Co. KG
Ludwigshafen am Rhein Zum Job 
Stadtwerke Augsburg Holding GmbH-Firmenlogo
Planer*in (m/w/d) für die technische Gebäudeausrüstung - Elektrotechnik Stadtwerke Augsburg Holding GmbH
Augsburg Zum Job 
OST  Ostschweizer Fachhochschule-Firmenlogo
Professor/in für Integrierte Digitale Systeme OST Ostschweizer Fachhochschule
Rapperswil (Schweiz) Zum Job 
Sentronics Metrology (a Nova Company)-Firmenlogo
Service Engineer Commissioning Metrology (m/w/d) Sentronics Metrology (a Nova Company)
Mannheim Zum Job 
Sentronics Metrology (a Nova Company)-Firmenlogo
Teamleiter (m/w/d) Integration & Commissioning Automation Sentronics Metrology (a Nova Company)
Mannheim Zum Job 
Sentronics Metrology (a Nova Company)-Firmenlogo
Elektriker / Industriemechaniker (m/w/d) für optische Messsysteme Sentronics Metrology (a Nova Company)
Mannheim Zum Job 
DB InfraGO-Firmenlogo
Senior Projektingenieur:in Leit- und Sicherungstechnik (w/m/d) DB InfraGO
Frankfurt am Main Zum Job 
DB InfraGO AG / DB Engineering & Consulting GmbH-Firmenlogo
(Senior) Planungsingenieur:in (w/m/d) DB InfraGO AG / DB Engineering & Consulting GmbH
Saarbrücken, Frankfurt am Main, Mainz Zum Job 
io-Firmenlogo
Senior Planungsingenieur/ Fachplaner Elektrotechnik (w/m/d) io
Heidelberg, Kaiserslautern Zum Job 
TÜV Hessen-Firmenlogo
Sachverständige/-r (m/w/d) Elektrotechnik TÜV Hessen
keine Angabe Zum Job 
TÜV Hessen-Firmenlogo
Sachverständige/-r (m/w/d) für EMV und EMF TÜV Hessen
keine Angabe Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
SCI-Selection - A Division of Stanton Chase Bad Homburg GmbH-Firmenlogo
Entwicklungsingenieur elektrische Antriebe (m/w/d) SCI-Selection - A Division of Stanton Chase Bad Homburg GmbH
Mannheim Zum Job 
Stadtwerke Augsburg Holding GmbH-Firmenlogo
Technischer Revisor (m/w/d) Schwerpunkt Prozessprüfung im Bereich Versorgung und ÖPNV Stadtwerke Augsburg Holding GmbH
Augsburg Zum Job 

Ein Beispiel aus dem Alltag verdeutlicht das Prinzip: Wenn ein Auto nicht startet, könnte dies an einer leeren Batterie, einem defekten Anlasser oder einer Vielzahl anderer Probleme liegen. Laut Ockhams Rasiermesser würde man zuerst die einfachste Erklärung prüfen – beispielsweise, ob der Tank leer ist. In der KI spielt dieses Konzept eine wichtige Rolle, da Modelle mit übermäßiger Komplexität dazu neigen, schlecht zu generalisieren.

DNNs und ihre Präferenz für Einfachheit

Deep Neural Networks können theoretisch jede mögliche Funktion erlernen, die den Trainingsdaten entspricht. Die Studie zeigt jedoch, dass DNNs eine eingebaute Präferenz für einfache Funktionen besitzen. Diese Präferenz hilft ihnen, aus einer Vielzahl von Lösungen diejenigen auszuwählen, die nicht nur die Trainingsdaten erklären, sondern auch bei neuen, unbekannten Daten gut abschneiden.

Professor Ard Louis, der Leiter der Studie, erklärte: „Wir wussten, dass die Effektivität von DNNs auf einer Art induktiver Voreingenommenheit beruht. Doch wie genau dieses Prinzip funktioniert, war bisher unklar.“

Die Forschenden untersuchten, wie DNNs sogenannte Boolesche Funktionen erlernen. Diese grundlegenden Regeln der Informatik haben nur zwei mögliche Ergebnisse: wahr oder falsch. Dabei stellten sie fest, dass DNNs einfachere Regeln bevorzugen, die sich leicht beschreiben lassen. Dieses Verhalten spiegelt eine einzigartige Form von Ockhams Rasiermesser wider.

Ein Ausgleich von Komplexität

Ein spannendes Ergebnis der Studie ist, dass das Rasiermesser der DNNs die exponentielle Zunahme möglicher Lösungen mit steigender Systemgröße ausgleicht. Dies bedeutet, dass DNNs seltene, einfache Funktionen identifizieren, die sowohl für die Trainingsdaten als auch für neue Daten gut geeignet sind. Komplexere Funktionen, die zwar die Trainingsdaten perfekt erklären, aber bei neuen Daten versagen, werden vermieden.

Auch interessant:

Ein Beispiel: In der realen Welt folgen viele Daten einfachen Mustern. Diese Eigenschaft erleichtert es DNNs, robuste Vorhersagen zu treffen, ohne Gefahr zu laufen, sich zu stark auf die Trainingsdaten zu überanpassen.

Grenzen der Einfachheit

Trotz ihrer Präferenz für Einfachheit können DNNs an ihre Grenzen stoßen. Wenn Daten besonders komplex sind und keine einfachen Muster aufweisen, können sie schlechtere Ergebnisse liefern. In solchen Fällen ist ihre Leistung oft nicht besser als reines Raten.

Darüber hinaus zeigte die Studie, dass selbst kleine Änderungen im Lernprozess die Fähigkeit von DNNs erheblich beeinträchtigen können, einfache Funktionen zu generalisieren. Dies unterstreicht, wie wichtig die richtige Balance zwischen Einfachheit und Komplexität für den Erfolg dieser Netzwerke ist.

Was bedeutet das für die Praxis?

Die Ergebnisse der Studie bieten wertvolle Einblicke, wie DNNs effektiv lernen. Sie könnten dabei helfen, die „Black Box“ der KI besser zu verstehen. Aktuell ist es oft schwierig, die Entscheidungen von KI-Systemen nachzuvollziehen oder zu erklären. Mit einem besseren Verständnis der zugrunde liegenden Prinzipien könnte die Entwicklung erklärbarer KI-Systeme vorangetrieben werden.

Christopher Mingard, einer der Hauptautoren, betont: „Wir müssen über die Einfachheit hinausblicken und weitere Faktoren identifizieren, die die Leistung von DNNs beeinflussen.“

Verbindungen zur Natur

Interessanterweise gibt es Parallelen zwischen der Funktionsweise von DNNs und den Grundprinzipien der Natur. Die von der Studie entdeckte Tendenz zur Einfachheit erinnert an evolutionäre Prozesse, bei denen symmetrische Strukturen in Proteinen oder anderen Systemen bevorzugt werden. Diese Verbindung könnte neue Forschungsfelder öffnen und weitere Ähnlichkeiten zwischen Lernen und Evolution aufdecken.

Professor Louis fasste es so zusammen: „Die von uns beobachtete Tendenz zur Einfachheit könnte ein tieferes Prinzip widerspiegeln, das in der Struktur der Welt verankert ist.“

Hier geht es zur Originalpublikation

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.