AI Act auf der Kippe: Warum der TÜV jetzt Alarm schlägt
KI steckt in Maschinen, Medizingeräten und Spielzeug. Jetzt drohen die geplanten Sicherheitsregeln zu scheitern. Der TÜV warnt vor einem jahrelangen Regulierungsvakuum.
Der AI Act der EU-Kommission soll dafür sorgen, dass Menschen und Maschinen sicher zusammenarbeiten können.
Foto: Smarterpix / VitalikRadko
Der TÜV-Verband hat eine zügige Umsetzung des EU AI Acts nach dem Vorschlag der EU-Kommission gefordert, um einen europaweit einheitlichen Rechtsrahmen für industrielle KI-Anwendungen zu schaffen.
„Künstliche Intelligenz macht gerade den Sprung in die physische Welt von Maschinen, Robotik und Geräten“, so Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, zum Start der Hannover Messe 2026. „KI ermöglicht immer flexiblere Roboter, die mit Menschen Hand in Hand arbeiten, automatisierte Qualitätskontrollen oder Simulationen mit digitalen Zwillingen.“ Die Grundlage dafür bilden die umfangreichen Datenbestände, die in der deutschen Fertigungsindustrie vorhanden sind.
Inhaltsverzeichnis
Lesetipp: Nvidia, Siemens und Humanoid testen „Physical AI“ in der Praxis
Das steht im AI Act
Der AI Act ist das erste umfassende KI-Gesetz weltweit. Die EU hat ihn 2024 beschlossen, um Künstliche Intelligenz (KI) europaweit einheitlich zu regeln. Kern ist ein risikobasierter Ansatz: Je größer die Gefahr, die von einer KI-Anwendung ausgeht, desto strenger die Vorgaben an Transparenz, Datenqualität und Sicherheit. Für Unternehmen, die KI in Maschinen, Medizingeräten oder Industrieanlagen einsetzen, ist das Gesetz damit zentral. Hier setzt die Kritik des TÜV-Verbands an.
Bühler: „Deutsche Unternehmen haben die Chance, diesen Datenschatz zu heben und ihre Produktion auf das nächste Level zu heben. Das Ziel sind eine effizientere Fertigung und bessere Produkte.“
Voraussetzung dafür sind neben technischen und digitalen Kompetenzen die rechtlichen Rahmenbedingungen, um mögliche Risiken bewerten und eindämmen zu können. „Von physischen KI-Systemen gehen spezifische Gefahren aus, zum Beispiel, wenn Mensch und Maschine miteinander interagieren oder autonome Systeme Fehlentscheidungen treffen.“
Wo der AI Act besonders genau hinschaut
Der europäische AI Act sieht daher bestimmte Sicherheitsanforderungen für Hochrisiko-KI-Systeme vor. „Dieser risikobasierte Ansatz soll für verschiedene Produktgruppen wie Maschinen, Medizinprodukte oder auch Spielzeug gelten“, betont Bühler. Darüber hinaus werden auf dieser Basis Industriestandards entwickelt, die beispielsweise die Qualität der Trainingsdaten, den Schutz vor systematischen Verzerrungen sowie die Cybersicherheit von KI-Systemen betreffen. Bühler: „Diese industriellen KI-Standards werden in Europa für den Weltmarkt entwickelt.“
Der Streit um den Sektor-Exit
Aktuell wird darüber diskutiert, den bereits beschlossenen AI Act im Rahmen des „Digital Omnibus“ wieder aufzuschnüren und zentrale Regelungen aus dem Gesetzespaket herauszulösen. Während längere Umsetzungsfristen und Entlastungen für den Mittelstand sinnvoll sind, warnt der TÜV-Verband davor, Hochrisiko-Produkte aus dem direkten Anwendungsbereich des AI Act zu streichen. KI-Produkte mit hohem Risiko sind laut AI Act unter anderem Maschinen, Medizinprodukte, KI-Steuerungen für Aufzüge, Seilbahnen oder auch Spielzeuge.
Diese Produktgruppen sollen nach dem Willen der Befürworterinnen und Befürworter eines solchen Sektor-Exits stattdessen über spezifische Einzelgesetze geregelt werden. Dabei macht es technologisch keinen Unterschied, ob zum Beispiel ein Computer Vision KI-System in einem Medizingerät oder in einer Fertigungsmaschine Anwendung findet. Da die technische Basis und die KI-spezifischen Risiken dieselben sind, müssen dafür auch dieselben Regeln gelten.
Regulatorischer Flickenteppich droht
„Mit einem Sektor-Exit würde der ursprüngliche Ansatz des AI Acts ausgehebelt, einheitliche Regeln für viele Produktgruppen zu schaffen. Die Festlegung von Sicherheitsanforderungen für risikoreiche KI-Anwendungen würde auf unbestimmte Zeit verschoben“, sagt Bühler. „Es droht ein jahrelanges Regulierungsvakuum und anschließend ein Flickenteppich unterschiedlicher Einzelregelungen.“
Zugleich müsse das im AI Act politisch verankerte Schutzniveau für KI-Systeme vollständig erhalten bleiben. Bühler: „Eine Absenkung oder Aufweichung zentraler Sicherheitsanforderungen würde Vertrauen in KI untergraben und den europäischen Binnenmarkt schwächen.“
Lesetipp: Jeff Bezos will 100 Mrd. $ in KI-basierte Automatisierung investieren
Aus Sicht des TÜV-Verbands würde eine sektorale Regulierung den Rechtsrahmen nicht vereinfachen, sondern weiter zersplittern. KI-Anforderungen müssten in zahlreiche Einzelregelwerke integriert werden – mit unterschiedlichen Standards, Verfahren und Fristen.
KI entwickelt sich schneller als Regulierung
Gleichzeitig entwickelt sich KI schneller, als sektorale Regulierung angepasst werden kann. „Das wäre kein Bürokratieabbau, sondern der Einstieg in einen regulatorischen Flickenteppich – mit mehr Aufwand, mehr Unsicherheit und höheren Belastungen für Unternehmen“, warnt Bühler. Darüber hinaus droht die Entwicklung einheitlicher Sicherheitsstandards für KI zum Erliegen zu kommen, da die beteiligten Unternehmen ihre Expertinnen und Experten aus den entsprechenden Gremien abziehen würden.
Bühler: „Europa würde die Chance verspielen, weltweit eine Führungsrolle bei der Entwicklung von KI-Standards zu übernehmen.“ In den Trilog-Verhandlungen seien nun EU-Kommission, Mitgliedsstaaten und EU-Parlament gefordert, den horizontalen Ansatz des AI Acts zu sichern und klare Regeln für Hochrisiko-KI zu erhalten.




