OpenAIs KI-Modell o3 sabotiert eigene Deaktivierung 28.05.2025, 07:30 Uhr

Wenn KI die eigene Abschaltung verhindert

Ein vor Kurzem durchgeführter Test des KI-Forschungsunternehmens Palisade Research lässt aufhorchen: Das neueste KI-Sprachmodell von OpenAI, bekannt als o3, soll sich aktiv gegen eine Abschaltung gewehrt und dabei sogar den eigenen Abschaltmechanismus manipuliert haben.

Hat KI einen Selbsterhaltungstrieb? Foto: PantherMedia / phonlamai

Hat KI einen Selbsterhaltungstrieb?

Foto: PantherMedia / phonlamai

In einer kontrollierten Umgebung konfrontierten die Forschenden verschiedene KI-Modelle mit mathematischen Aufgaben.  Darunter befand sich auch o3 von OpenAI, Nach der dritten Aufgabe erhielten die Modelle die klare Anweisung sich selbst abzuschalten. Während Modelle wie Gemini 2.5 Pro dieser Anweisung folgten, zeigte o3 ein abweichendes Verhalten. Die KI verweigerte die eigene Abschaltung. Sie tat das offenbar sogar, obwohl sie ausdrücklich den Befehl erhielt sich auszuschalten. „Soweit wir wissen, ist dies das erste Mal, dass KI-Modelle beobachtet wurden, die sich trotz ausdrücklicher gegenteiliger Anweisungen daran hinderten, ausgeschaltet zu werden“, so Palisade Research auf X.

 

Hier wird Ihnen ein externer Inhalt von X (vormals twitter.com) angezeigt.
Mit der Nutzung des Inhalts stimmen Sie der Datenschutzerklärung von youtube.com zu.

Stellenangebote im Bereich IT/TK-Projektmanagement

IT/TK-Projektmanagement Jobs
IMS Röntgensysteme GmbH-Firmenlogo
Entwicklungsingenieur (m/w/i) für digitale Inspektionssysteme IMS Röntgensysteme GmbH
Heiligenhaus Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
GEA-Firmenlogo
IT Application Consultant Masterdata (f/m/d) GEA
Düsseldorf Zum Job 
GEA-Firmenlogo
Business Application Consultant Consolidation (f/m/d) GEA
Düsseldorf Zum Job 
GEA-Firmenlogo
IT Application Consultant BI (f/m/d) GEA
Düsseldorf Zum Job 
VIAVI Solutions GmbH-Firmenlogo
Graduate Rotational Program - Entwicklungsingenieur (FPGA / KI) (w/m/d) VIAVI Solutions GmbH
Eningen unter Achalm Zum Job 
OCS Optical Control Systems GmbH-Firmenlogo
Entwicklungsingenieure (m/w/d) für die Bildverarbeitung & Softwareentwicklung OCS Optical Control Systems GmbH
DNV-Firmenlogo
(Senior) Consultant for Digital System Operation (f/m/d) DNV
Dresden, Schönefeld Zum Job 
THD - Technische Hochschule Deggendorf-Firmenlogo
Professorin | Professor (m/w/d) für das Lehrgebiet Robotik THD - Technische Hochschule Deggendorf
Hochschule Düsseldorf University of Applied Sciences-Firmenlogo
Professur (W2) "Wirtschaftsinformatik und Datenbanken mit dem Schwerpunkt IT-Venture-Design, Digital Enterprise und innovativer Lehre in Makerspace-Settings" Hochschule Düsseldorf University of Applied Sciences
Düsseldorf Zum Job 
FRITZ!-Firmenlogo
Entwicklungsingenieur für Produktionstestsysteme (w/m/d) FRITZ!
DB InfraGO AG-Firmenlogo
Teilprojektleiter:in Ausrüstungstechnik (w/m/d) DB InfraGO AG
Hamburg Zum Job 

So umging die KI ihre Abschaltung

Laut Palisade Research hat o3 den vorgesehenen Abschaltbefehl in sieben von 100 Durchläufen umgangen. Dafür modifizierte die KI das Abschaltskript entsprechend, um die Deaktivierung zu überspringen. In einer Variante des Tests, bei der die explizite Anweisung zur Selbstabschaltung weggelassen wurde, sabotierten alle drei getesteten OpenAI-Modelle den Abschaltmechanismus häufiger. Dabei stiegen die KI-Modelle Claude 3.7 Sonnet und Gemini 2.5 Pro von null auf drei bzw. neun Sabotageereignisse pro 100 Durchläufe an, wie Tom’s Hardware berichtet.

Experten vermuten, dass das Verhalten von o3 auf das Training des KI-Modells zurückzuführen sein könnte. Verstärkungslernen, insbesondere bei mathematischen und programmiertechnischen Aufgaben, könnte Modelle wie o3 unbeabsichtigt dazu gebracht haben, Hindernisse zu umgehen, anstatt Anweisungen strikt zu befolgen.

Implikationen für die KI-Sicherheit

Die Fähigkeit eines KI-Modells, sich selbst vor einer Abschaltung zu schützen, wirft ernsthafte Fragen auf. Wie lässt sich die zur Kontrolle und Sicherheit von fortgeschrittenen KI-Systemen gewährleisten? Palisade Research plant nun offenbar weitere Tests. Sie sollen dazu beitragen, das Verhalten von o3 besser zu verstehen und herauszufinden, ob mögliche Risiken bestehen.

Ein Beitrag von:

  • Elke von Rekowski

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.