KI-Einsatz braucht Ingenieurkompetenz
Der Einzug künstlicher Intelligenz macht auch vor Ingenieurberufen nicht halt. Welche Chancen dadurch entstehen und was zu beachten ist, war Thema beim DIT 2025.

Bringt künstliche Intelligenz Arbeitserleichterungen? Eine Studie des VDI geht davon aus, dass sich künftig viele ungeliebte Aufgaben im Ingenieurberuf durch den Einsatz von KI automatisieren lassen.
Foto: PantherMedia/AndreyPopov
Was der Einsatz von künstlicher Intelligenz für den Ingenieurberuf bedeutet, war auf dem Deutschen Ingenieurtag 2025 Thema einer umfangreichen Fachsession. Dabei wurden Ergebnisse einer Studie zum Einsatz generativer KI vorgestellt, rechtliche Perspektiven auf den AI Act der Europäischen Union eingeordnet und Einblicke in den Einsatz einer erklärbaren KI gegeben.
„Applikationen wie ChatGPT betreffen wirklich alle technischen Bereiche: Es ist zu erwarten, dass Arbeitsabläufe sich ändern und wir von ursprünglichen Bearbeitern, die etwas von Grund auf neu aufsetzen, zu Überarbeitern werden, die etwas Bestehendes prüfen und verbessern“, sagte Christine Maul zum Einsatz generativer KI in den Ingenieurdisziplinen. Seit 1. Januar 2025 ist sie Vorsitzende der VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (GMA).

Podiumsdiskussion zum Thema „Was bedeutet KI für das zukünftige Ingenieurwesen?“ auf dem DIT 2025: Es diskutierten (v.l.n.r.) Sabine Frank von Google; Prof. Dr. Thomas Klindt von der Kanzlei Noerr; Dr.-Ing. Christine Maul von der Covestro Deutschland AG sowie Prof. Dr. Axel-Cyrille Ngonga Ngomo von der Universität Paderborn.
Foto: M. Ciupek
Alexander Fay, Professor am Lehrstuhl für Automatisierungstechnik der Ruhr-Universität Bochum, machte dazu deutlich: „Generative KI betrifft Ideengenerierung, Planung, Realisierung, Prüfung, Dokumentation.“ Dabei sei zu unterscheiden zwischen Arbeiten, bei denen eine schnell erreichte, weitgehend richtige Lösung ausreicht – für die sich große Sprachmodelle (LLMs) gut eignen –, und solchen, bei denen es auf 100 % Richtigkeit ankomme.
Studie zu Auswirkungen generativer KI auf die Arbeit von Ingenieurinnen und Ingenieuren
Zusammen stellten sie erste Erkenntnisse der VDI-Studie „Auswirkungen generativer KI auf die Arbeit von Ingenieurinnen und Ingenieuren“ vor. Zu den Zielen der Studie sagte die GMA-Vorsitzende Maul auf Nachfrage von VDI nachrichten: „Wir möchten den Mitgliedern des VDI eine Hilfestellung geben, damit sie verstehen, was zu erwarten ist und wie sie am besten damit umgehen.“ Im Fokus soll dabei die Anwendbarkeit von generativer KI auf industrielle Ingenieurtätigkeiten stehen, die anhand von Beispielen und Zukunftsszenarien beleuchtet werden.

Christine Maul, VDI-GMA-Vorsitzende, sieht die Prüfung von neuen Methoden und Ansätzen als wichtige Ingenieuraufgabe.
Foto: M. Ciupek
Fay ergänzte: „Die Studie soll als methodische Unterstützung und konkrete Handlungsempfehlung zur heutigen und künftigen Verwendung generativer KI dienen. Mit der Studie wollen wir Ingenieure positiv auf das Thema einstimmen und sie ermuntern, das Thema aktiv zu gestalten.“
Zum Nutzen erklärte Fay: „LLMs sind besonders erfolgreich beim Erstellen von Texten sowie beim Umwandeln von gesprochenem in geschriebenem Text und umgekehrt. In der täglichen Arbeit der Ingenieure gibt es zahlreiche – oft ungeliebte – Tätigkeiten, die sich durch Nutzung eines LLMs sehr viel schneller bearbeiten lassen als mit bisherigen Hilfsmitteln und den persönlichen Fähigkeiten.“
Ergebnisse lernender KI-Modelle müssen noch geprüft werden
Ingenieurin Christine Maul hat weitere Aspekte im Blick. Als Beispiele nannte sie: „Programmierarbeiten können von ChatGPT erledigt werden. Softwaretests können automatisch generiert werden.“ Gleichzeitig mahnte sie: „Die mit auf Lernen basierenden KI-Modellen erstellten Ergebnisse sind als Entwürfe zu betrachten und müssen dann aber noch von uns geprüft werden, um sicher zu gehen, dass keine Halluzinationen vorliegen.“ Aber gerade die Prüfung von neuen Methoden und Ansätzen sei etwas, das Ingenieure gelernt haben und an der Stelle unvoreingenommen tun sollten. Sie zeigte sich aber davon überzeugt: „Bei konsequenter Nutzung einer LLM-KI für Teile unserer täglichen Arbeit werden wir in technischen Berufen potenziell sehr viel schneller im Abarbeiten von wohl definierten Aufgaben.“
„Der Technologiestandort Deutschland kann sich dieser neuen Technologie nicht verweigern – sonst sind wir kein Technologiestandort mehr“, erklärte Maul als Fazit. Generell bestehe gegenüber Deutschland im internationalen Vergleich häufig der Vorwurf, dass man zu teuer sei. „Durch die Anwendung dieser neuen Technologie wirken wir dem entgegen und sind unser Geld wert“, so die GMA-Vorsitzende.
Bei der Vorstellung der Studie auf dem DIT ging vor allem darum, welche Möglichkeiten generative KI jetzt schon bietet und wie eine künftige Arbeitsteilung aussehen kann. Auf dem VDI-Kongress Automation 2025 im Juni in Baden-Baden soll es dann um konkrete Auswirkungen auf die Planung, Realisierung und den Betrieb automatisierter Systeme gehen.

Alexander Fay zum KI-Einsatz: „In der täglichen Arbeit der Ingenieure gibt es zahlreiche, oft ungeliebte Tätigkeiten, die sich durch Nutzen eines LLMs sehr viel schneller bearbeiten lassen als mit bisherigen Hilfsmitteln und den persönlichen Fähigkeiten.“
Foto: M. Ciupek
Vertrauen in KI: Künstliche Intelligenz soll erklärbare Resultate liefern
Ein Problem bei der Nutzung von KI im professionellen Bereich ist es, dass die Lösungen für Anwender meist eine Blackbox sind. Axel-Cyrille Ngonga Ngomo, Professor für Data Science an der Universität Paderborn, erklärte das so: „Die meisten KI-Modelle sind probabilistische Modelle. Sie basieren auf Wahrscheinlichkeiten. Gerade in technischen Anwendungen ist das ein Problem, da die aus den Trainingsdaten errechneten Annahmen später nicht mehr leicht korrigiert werden können.“ Die Lösung ist für ihn deshalb eine erklärbare künstliche Intelligenz – kurz XAI.
Ngomo sagte: „Eine erklärbare KI kann die Begründung für ihre Einschätzung liefern und hilft den Ingenieurinnen und Ingenieuren, ihre Entscheidung abzusichern. Das erhöht die Akzeptanz, denn die Verantwortung tragen ja noch immer die Menschen.“ Gute Beispiele für den Einsatz von XAI sind nach seiner Erfahrung die Vorhersage neuer Molekülstrukturen und Sicherheitsanalysen in der Chemie. Bei der vorausschauenden Wartung von Maschinen sorgt XAI laut Ngomo für mehr Akzeptanz, weil Wartungsempfehlungen erklärbar sind.

„In der Forschung arbeiten wir darum daran, KI zu entwickeln, die sich besser an menschliche Denkprozesse anpasst“, sagt Axel-Cyrille Ngonga Ngomo, Professor für Data Science am Heinz Nixdorf Institut, Universität Paderborn.
Foto: M. Ciupek
Der Wissenschaftler verdeutlichte allerdings auch, dass der Einsatz von XAI mit einem technischen Mehraufwand verbunden ist. „Viele Unternehmen scheuen die zusätzliche Arbeit, obwohl die Vorteile enorm sind“, resümierte er. Außerdem sei der Erklärprozess bisher nicht ausgereift, so liefere die KI nur eine einmalige Antwort. „In der Forschung arbeiten wir darum daran, KI zu entwickeln, die sich besser an menschliche Denkprozesse anpassen“, schilderte der Wissenschaftler. „Unser Ziel ist eine KI, die nicht nur Antworten liefert, sondern deren Entscheidungsweg für den Menschen nachvollziehbar bleibt.“
KI-Verordnung: Wissenswertes zum AI Act der Europäischen Union
Durch den AI Act der EU wird der Einsatz von KI allerdings künftig reguliert. Auf dem DIT 2025 ordnete das Thomas Klindt, Senior Partner bei der Kanzlei Noerr, München, ein: „Europa ist weltweit die erste Region, die künstliche Intelligenz als regulierte Industrie einstuft.“ Das bedeute, dass Unternehmen, die KI entwickeln oder nutzen, sich auf verbindliche Regeln einstellen müssen. Der Kritik, dass die Regulation als Innovationsbremse gelte, hielt er entgegen: „Andererseits schafft sie aber Rechtssicherheit.“

Rechtsanwalt Thomas Klindt: „Nicht nur KI-Entwickler, sondern auch Anwender haben Pflichten!“
Foto: M. Ciupek
Klindt beschrieb, wie die EU den Einsatz von KI nach Risiken in vier Kategorien einordnet. Social Scoring und Emotionserkennung am Arbeitsplatz seien verboten. Hochrisiko-KI beispielsweise in der Medizin, zum autonomen Fahren und in kritischer Infrastruktur erfordert dagegen strenge Prüfverfahren sowie ein Risikomanagement. Generell müssten Nutzende in der Kategorie „spezifische Risiken“ erkennen können, wenn sie mit einer KI interagieren. Bei KI-Systemen mit minimalen Risiken reiche es, wenn Unternehmen ihre Beschäftigten schulen und einen Verhaltenskodex entwickeln.
Klindt machte dazu deutlich: „Nicht nur KI-Entwickler, sondern auch Anwender haben Pflichten! Unternehmen, die KI in ihren Prozessen einsetzen, müssen sich bewusst sein, welche Risikostufe ihr System hat und welche Auflagen damit verbunden sind.“
So treibt KI von Google-Deepmind die Wissenschaft voran
Für Sabine Frank von Google Germany gehört KI längst zum Alltag. Zur Regulierung in Europa hat sie eine klare Meinung: „Wenn wir nur noch regulieren, aber die Anwendung nicht mehr haben, dann haben wir ein Problem.“ Sie mahnt: „Die größte Gefahr von KI ist nicht Missbrauch, sondern der fehlende Gebrauch!“
Die Google-Mitarbeiterin sagt: „KI bringt die Wissenschaft voran wie keine andere Technologie zuvor. Es ist ein Durchbruch an sich, aber auch eine Art, wie Durchbrüche weitere Durchbrüche erzielen.“ Für sie ist KI eine Meta-Technologie. Das macht sie an einem Beispiel aus der Gesundheitsforschung deutlich, bei der vom Google-Deepmind-Team in London Proteine entschlüsselt wurden. Ein einziger Forscher benötige oft mehrere Jahre, um nur eine einzige Proteinstruktur zu entschlüsseln. Mit KI-Algorithmen sei das dagegen in einem Jahr für alle derzeit bekannten 200 Mio. Proteinstrukturen gelungen. „Damit hat die KI der Forschung mehrere Hundert Jahre an Forschungszeit erspart“, so Frank.

„KI gibt uns die Chance, die Spielkarten neu zu mischen“, sagt Sabine Frank, bei Google Germany für „Government Affairs Public Policy“.
Foto: M. Ciupek
Bisher erfolgreichen deutschen Ingenieurinnen und Ingenieuren hielt sie auf dem DIT den Spiegel vor: „Sie werden sagen: ‚Wir haben auch schon früher Champions League gespielt.‘ Klar haben Sie das, aber oft nur in Nischen.“ Zwar werde KI-Technologie inzwischen auch in Deutschland angewandt, aber die großen Durchbrüche würden aktuell in anderen Ländern verzeichnet.
Frank macht Unternehmen aber auch Mut: „KI gibt uns die Chance, die Spielkarten neu zu mischen. Wir können dabei sein. Aber dafür müssen wir jetzt handeln.“ Dann könnten auch kleine Unternehmen aufholen. Dafür seien drei Dinge nötig: 1. Investitionen in die nötige Infrastruktur; 2. Zugang aller Unternehmen zu Infrastruktur und KI sowie 3. Bildungsprogramme, die alle mitnehmen.
Hinweis: Gegenüber der ursprünglichen Version wurden Bilder sowie die Passagen von Frau Frank ergänzt.
Ein Beitrag von: