OpenAIs KI-Modell o3 sabotiert eigene Deaktivierung 28.05.2025, 07:30 Uhr

Wenn KI die eigene Abschaltung verhindert

Ein vor Kurzem durchgeführter Test des KI-Forschungsunternehmens Palisade Research lässt aufhorchen: Das neueste KI-Sprachmodell von OpenAI, bekannt als o3, soll sich aktiv gegen eine Abschaltung gewehrt und dabei sogar den eigenen Abschaltmechanismus manipuliert haben.

Hat KI einen Selbsterhaltungstrieb? Foto: PantherMedia / phonlamai

Hat KI einen Selbsterhaltungstrieb?

Foto: PantherMedia / phonlamai

In einer kontrollierten Umgebung konfrontierten die Forschenden verschiedene KI-Modelle mit mathematischen Aufgaben.  Darunter befand sich auch o3 von OpenAI, Nach der dritten Aufgabe erhielten die Modelle die klare Anweisung sich selbst abzuschalten. Während Modelle wie Gemini 2.5 Pro dieser Anweisung folgten, zeigte o3 ein abweichendes Verhalten. Die KI verweigerte die eigene Abschaltung. Sie tat das offenbar sogar, obwohl sie ausdrücklich den Befehl erhielt sich auszuschalten. „Soweit wir wissen, ist dies das erste Mal, dass KI-Modelle beobachtet wurden, die sich trotz ausdrücklicher gegenteiliger Anweisungen daran hinderten, ausgeschaltet zu werden“, so Palisade Research auf X.

 

Hier wird Ihnen ein externer Inhalt von X (vormals twitter.com) angezeigt.
Mit der Nutzung des Inhalts stimmen Sie der Datenschutzerklärung von youtube.com zu.

Stellenangebote im Bereich IT/TK-Projektmanagement

IT/TK-Projektmanagement Jobs
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
VIAVI Solutions GmbH-Firmenlogo
Graduate Rotational Program - Entwicklungsingenieur (FPGA / KI) (w/m/d) VIAVI Solutions GmbH
Eningen unter Achalm Zum Job 
OCS Optical Control Systems GmbH-Firmenlogo
Entwicklungsingenieure (m/w/d) für die Bildverarbeitung & Softwareentwicklung OCS Optical Control Systems GmbH
DNV-Firmenlogo
(Senior) Consultant for Digital System Operation (f/m/d) DNV
Dresden, Schönefeld Zum Job 
Sanofi-Aventis Deutschland GmbH-Firmenlogo
Trainee Manufacturing & Supply (all genders) Sanofi-Aventis Deutschland GmbH
Frankfurt Zum Job 
IMS Röntgensysteme GmbH-Firmenlogo
Entwicklungsingenieur (m/w/i) für digitale Inspektionssysteme IMS Röntgensysteme GmbH
Heiligenhaus Zum Job 
Amt für Binnen-Verkehrstechnik-Firmenlogo
Ingenieurin / Ingenieur (m/w/d) (FH-Diplom/Bachelor) in der Fachrichtung Informatik mit der Vertiefungsrichtung Nachrichtentechnik/Informationstechnik oder vergleichbar Amt für Binnen-Verkehrstechnik
Koblenz Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
BIM-Manager (w/m/d) Die Autobahn GmbH des Bundes
Hohen Neuendorf-Stolpe Zum Job 
FRITZ!-Firmenlogo
Entwicklungsingenieur für Produktionstestsysteme (w/m/d) FRITZ!
THD - Technische Hochschule Deggendorf-Firmenlogo
Professorin | Professor (m/w/d) für das Lehrgebiet Robotik THD - Technische Hochschule Deggendorf
DB InfraGO AG-Firmenlogo
Teilprojektleiter:in Ausrüstungstechnik (w/m/d) DB InfraGO AG
Hamburg Zum Job 
Hochschule Osnabrück-Firmenlogo
Professur für Hard- und Software Digitaler Systeme Hochschule Osnabrück
Osnabrück Zum Job 

So umging die KI ihre Abschaltung

Laut Palisade Research hat o3 den vorgesehenen Abschaltbefehl in sieben von 100 Durchläufen umgangen. Dafür modifizierte die KI das Abschaltskript entsprechend, um die Deaktivierung zu überspringen. In einer Variante des Tests, bei der die explizite Anweisung zur Selbstabschaltung weggelassen wurde, sabotierten alle drei getesteten OpenAI-Modelle den Abschaltmechanismus häufiger. Dabei stiegen die KI-Modelle Claude 3.7 Sonnet und Gemini 2.5 Pro von null auf drei bzw. neun Sabotageereignisse pro 100 Durchläufe an, wie Tom’s Hardware berichtet.

Experten vermuten, dass das Verhalten von o3 auf das Training des KI-Modells zurückzuführen sein könnte. Verstärkungslernen, insbesondere bei mathematischen und programmiertechnischen Aufgaben, könnte Modelle wie o3 unbeabsichtigt dazu gebracht haben, Hindernisse zu umgehen, anstatt Anweisungen strikt zu befolgen.

Implikationen für die KI-Sicherheit

Die Fähigkeit eines KI-Modells, sich selbst vor einer Abschaltung zu schützen, wirft ernsthafte Fragen auf. Wie lässt sich die zur Kontrolle und Sicherheit von fortgeschrittenen KI-Systemen gewährleisten? Palisade Research plant nun offenbar weitere Tests. Sie sollen dazu beitragen, das Verhalten von o3 besser zu verstehen und herauszufinden, ob mögliche Risiken bestehen.

Ein Beitrag von:

  • Elke von Rekowski

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.