Whistleblower reichen Bericht ein 15.07.2024, 12:18 Uhr

Durften OpenAI-Mitarbeiter nicht auf Gefahren von ChatGPT hinweisen?

Durften Mitarbeiter von OpenAI nicht auf potenziale Gefahren von ChatGPT hinweisen? Whistleblower haben US-Börsenaufsichtsbehörde informiert.

ChatGPT

Von ChatGPT gehen auch Gefahren, OpenAI-Mitarbeiter durften darüber laut Arbeitsvertrag jedoch scheinbar nichts sagen.

Foto: PantherMedia / niphon

OpenAI, das Unternehmen hinter dem KI-Chatbot ChatGPT, sieht sich neuen schweren Vorwürfen ausgesetzt. Laut einigen Whistleblowern soll das Unternehmen seine Mitarbeiter daran gehindert haben, die potenziellen Gefahren der Technologie öffentlich zu machen. Diese Behauptungen wurden in einem Bericht an die US-Börsenaufsichtsbehörde Securities and Exchange Commission (SEC) eingereicht.

Ein siebenseitiges Dokument, das der Washington Post vorliegt, enthält detaillierte Anschuldigungen gegen OpenAI. Darin wird behauptet, das Unternehmen habe seine Mitarbeitenden mit übermäßig restriktiven Beschäftigungs-, Abfindungs- und Geheimhaltungsvereinbarungen unter Druck gesetzt. Diese Vereinbarungen hätten dazu führen können, dass Mitarbeitende bestraft würden, wenn sie Bedenken über OpenAI gegenüber Bundesbehörden äußern würden.

Restriktive Vereinbarungen für OpenAI-Mitarbeiter

Laut dem Bericht wurden die Mitarbeiter gezwungen, Vereinbarungen zu unterzeichnen, die sie verpflichteten, auf ihre Rechte auf Entschädigung als Whistleblower zu verzichten. Diese Vereinbarungen verlangten zudem, dass die Mitarbeitenden die vorherige Zustimmung des Unternehmens einholen mussten, bevor sie Informationen an Bundesbehörden weitergeben durften. Diese Maßnahmen hinderten die Mitarbeitenden effektiv daran, Sicherheitsverstöße oder andere Bedenken zu melden.

Der Brief an den SEC-Vorsitzenden Gary Gensler weist darauf hin, dass solche Vereinbarungen sowohl die Mitarbeitenden als auch die Investoren daran hindern, sich gegenüber Bundesbehörden zu äußern. Dies stellt nicht nur ein ethisches Problem dar, sondern verstößt auch gegen das Gesetz.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
B. Braun Melsungen AG-Firmenlogo
Senior Expert (w/m/d) Manufacturing Digitalization B. Braun Melsungen AG
Melsungen Zum Job 
Heuft Systemtechnik GmbH-Firmenlogo
Projektingenieur - Schwerpunkt Automatisierung, IT und Netzwerkinfrastruktur (m/w/d) Heuft Systemtechnik GmbH
Burgbrohl Zum Job 
Bundesamt für Bauwesen und Raumordnung (BBR)-Firmenlogo
Referenz Ingenieurinnen und Ingenieure (w/m/d) "Elektro- bzw. Nachrichtentechnik" Bundesamt für Bauwesen und Raumordnung (BBR)
Hochschule Esslingen-Firmenlogo
Professor:in (W2) für das Lehrgebiet Regelungstechnik Hochschule Esslingen
Stuttgart Zum Job 
Rolls-Royce Power Systems AG-Firmenlogo
Projektingenieur (m/w/d) Elektrotechnik Rolls-Royce Power Systems AG
Friedrichshafen Zum Job 
Rolls-Royce Power Systems AG-Firmenlogo
Projektleitung (m/w/d) Electrical Application Engineering Rolls-Royce Power Systems AG
Friedrichshafen Zum Job 
Rolls-Royce Power Systems AG-Firmenlogo
Service-Monteur (m/w/d) Außendienst (Elektroniker) Rolls-Royce Power Systems AG
Hamburg, Wilhelmshaven, Cuxhaven, Rostock, Kiel Zum Job 
Duale Hochschule Gera-Eisenach-Firmenlogo
Professur für Automation, Robotik und Industrie 4.0 (m/w/d) Duale Hochschule Gera-Eisenach
Eisenach Zum Job 
Duale Hochschule Gera-Eisenach-Firmenlogo
Professur für Automation, Robotik und Industrie 4.0 (m/w/d) Duale Hochschule Gera-Eisenach
Eisenach Zum Job 
MVV Netze GmbH-Firmenlogo
Projektingenieur Strom (m/w/d) MVV Netze GmbH
Mannheim Zum Job 
TenneT TSO GmbH-Firmenlogo
Ingenieur Leistungsfrequenzregelung (m/w/d) TenneT TSO GmbH
VIVAVIS AG-Firmenlogo
Produktmanager (m/w/d) - Metering Devices und Steuerbox VIVAVIS AG
Koblenz, Ettlingen Zum Job 
JUMO GmbH & Co. KG-Firmenlogo
Teamleiter Elektronikentwicklung (m/w/d) JUMO GmbH & Co. KG
HUBER SE-Firmenlogo
Inbetriebnahmeleiter (m/w/d) Großanlagen international HUBER SE
Berching Zum Job 
Timm Technology GmbH-Firmenlogo
Sales Manager / Vertriebsingenieur (m/w/d) Explosionsschutz Timm Technology GmbH
Reinbek Zum Job 
THOST Projektmanagement GmbH-Firmenlogo
Ingenieur*in (m/w/d) Projektmanagement - Bereich Energietechnik THOST Projektmanagement GmbH
Berlin, Hannover, Nürnberg, Kiel, Würzburg Zum Job 
ZECH Bau SE-Firmenlogo
Projektleiter Technische Gebäudeausrüstung (m/w/d) im Schlüsselfertigbau ZECH Bau SE
TenneT TSO GmbH-Firmenlogo
Ingenieur für Netzführungstechnologien (m/w/d) TenneT TSO GmbH
Bayreuth Zum Job 
CAREL DEUTSCHLAND GMBH-Firmenlogo
Sales Manager / Account Manager (m/w/d) Kältetechnik CAREL DEUTSCHLAND GMBH
Gelnhausen-Hailer, Homeoffice im Raum Baden-Württemberg, Bayern, Nordrhein-Westfalen, Rheinland-Pfalz, Hessen Zum Job 
TenneT TSO GmbH-Firmenlogo
Ingenieur als technischer Planer Sekundärtechnik (m/w/d) TenneT TSO GmbH
Bayreuth Zum Job 

Geldstrafen und andere Maßnahmen möglich

Die US-Börsenaufsichtsbehörde hat bereits klargestellt, dass Privatunternehmen, die sich solcher Praktiken bedienen, gegen das Gesetz verstoßen. Solche Unternehmen müssen mit Geldstrafen und anderen Durchsetzungsmaßnahmen rechnen. Der Bericht betont die Dringlichkeit, dass Mitarbeitende in der Lage sein müssen, sich an Bundesbehörden zu wenden, um Beschwerden vorzubringen oder Bedenken zu äußern. Das gelte insbesondere angesichts der Risiken, die mit der Weiterentwicklung der KI-Technologie verbunden sind.

Es wird weiterhin betont, dass Unternehmen wie OpenAI die Rechtswidrigkeit ihrer Geheimhaltungsvereinbarungen verstehen und sicherstellen müssen, dass ihre Arbeitsplatzkultur Mitarbeiter ermutigt, Bedenken zu äußern. Dies gilt selbst dann, wenn solche Äußerungen die Rentabilität des Unternehmens beeinträchtigen könnten.

Reaktion von OpenAI

Hannah Wong, Sprecherin von OpenAI, reagierte auf die Vorwürfe und erklärte, dass die Whistleblower-Politik des Unternehmens das Recht der Mitarbeiter auf Offenlegung von Informationen schütze. Sie betonte, dass eine rigorose Debatte über diese Technologie unerlässlich sei und dass OpenAI bereits wichtige Änderungen an ihrem Kündigungsprozess vorgenommen habe, um Verunglimpfungsbestimmungen zu entfernen.

Der Brief fordert die SEC auf, rasche und aggressive Schritte zu unternehmen, um die Regel 21F-17(a) im KI-Sektor durchzusetzen und sicherzustellen, dass es keine Verstöße gibt. Senator Grassley, dessen Büro den Brief von den Whistleblowern erhielt, betonte die Verantwortung der Bundesbehörden. Es sei ihre Aufgabe, die erheblichen Risiken, die von KI ausgehen, zu mindern. Er äußerte sich besorgt über die Praktiken von OpenAI, die das Recht von Whistleblowern einschränken könnten, ihre Meinung zu äußern und eine angemessene Entschädigung für ihre geschützten Enthüllungen zu erhalten.

Gefahren von ChatGPT

ChatGPT existiert bereits seit 2018, hat aber erst in den letzten Monaten bei uns große Bekanntheit erlangt und ist seitdem in aller Munde. Die Bewertung der Chancen und Risiken im geschäftlichen Umfeld ist insbesondere im Hinblick auf Informationssicherheit und Datenschutz von großer Bedeutung. Unternehmen müssen sich Fragen stellen wie: „Was geschieht mit den Informationen, die im Eingabedialog verwendet werden?“ und „Welche Möglichkeiten ergeben sich für das Unternehmen durch den Einsatz des Bots?“

Diese Fragen erfordern gründliche Überlegungen und Antworten. Hier ein Überblick über die größten Risiken beim Einsatz von ChatGPT:

  • Datenschutz und Informationssicherheit: Sensible Informationen, wie personenbezogene Daten oder Betriebsgeheimnisse, könnten in die falschen Hände geraten. Die eingegebenen Daten könnten bei späteren Anfragen anderer Nutzer wiederverwendet und dadurch ungewollt offengelegt werden.
  • Cyberangriffe: Beim Einsatz von ChatGPT zur Softwareentwicklung besteht die Gefahr, dass fehlerhafter oder sogar schädlicher Code eingeschleust wird. Solcher Schadcode könnte absichtlich von Angreifern genutzt werden.
  • Urheberrechtsverletzungen: Die von ChatGPT bereitgestellten Informationen stammen aus unbekannten Quellen und werden oft ungeprüft verwendet. Diese Informationen könnten urheberrechtlich geschützt sein, was zu rechtlichen Problemen führen kann.
  • Reputationsrisiko: Die generierten Antworten oder Ergebnisse könnten falsch sein und ungeprüft übernommen werden. Dies kann das Ansehen eines Unternehmens gefährden, wenn sich herausstellt, dass die Informationen fehlerhaft sind.
  • Wissenslücken: Ein Chatbot kann nicht auf alle Fragen eine Antwort finden. Diese Ungewissheit kann zu Problemen führen, wenn notwendige Informationen fehlen.

Eine im Dezember 2023 auf dem Preprint-Server arXiv veröffentlichte Studie zeigt, dass GPT-3 bei über 1.200 Aussagen, die Fakten, Verschwörungstheorien, falsche Vorstellungen und Fiktion umfassten, bis zu 26 Prozent der falschen Behauptungen zustimmte. Dies deutet darauf hin, dass das KI-System Schwierigkeiten hat, konsistent zwischen Wahrheit und Fiktion zu unterscheiden. Ob diese Ergebnisse auch auf GPT-4 übertragbar sind, ist unklar. Laut den Studienautoren unter der Leitung von Daniel G. Brown, Professor an der University of Waterloo, bestätigte ChatGPT falsche Behauptungen, darunter Stereotype, Verschwörungstheorien und verbreitete Irrtümer.

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.