DeepL übersetzt bald das ganze Internet in 18 Tagen
DeepL nutzt erstmals in Europa den NVIDIA DGX SuperPOD mit GB200-Systemen – und verkürzt Übersetzungszeiten drastisch.

DeepL beschleunigt KI-Übersetzungen mit NVIDIA-Supercomputer – Internetübersetzung in Rekordzeit.
Foto: NVIDIA
Der Sprachspezialist DeepL setzt auf eine neue Generation von Supercomputern. Am 11. Juni verkündete das Unternehmen die Inbetriebnahme eines NVIDIA DGX SuperPOD mit den brandneuen GB200-Systemen – der ersten Installation dieser Art in Europa. Standort des Clusters ist das nachhaltige Rechenzentrum EcoDataCenter in Schweden, mit dem DeepL bereits länger kooperiert.
Mit dieser Infrastruktur will DeepL vor allem eins: seine Übersetzungstechnologie schneller, nuancierter und interaktiver machen. Der größte Unterschied zur bisherigen Lösung? Der neue Cluster kann Texte etwa zehnmal schneller verarbeiten als das bisherige System. Und das hat konkrete Auswirkungen.
194 Tage werden zu 18,5 Tagen
Im Kern geht es um Rechenzeit. Die Übersetzung des gesamten frei zugänglichen Internets dauert mit der bisherigen Infrastruktur knapp 200 Tage. Mit der neuen Plattform reduziert sich diese Zeit auf nur 18,5 Tage. Auch andere Vergleiche verdeutlichen das Leistungsplus:
- Oxford English Dictionary: von 39 Sekunden auf 2 Sekunden übersetzt
- Marcel Prousts Romanzyklus: von 0,95 auf 0,09 Sekunden
- Textausgabe insgesamt: 30-fache Kapazität gegenüber früher
Diese Zahlen sind keine reinen Marketingbotschaften – sie zeigen, wie effizient neue Hardware KI-Systeme antreiben kann. DeepL nutzt die gewonnene Rechenleistung nicht nur für schnellere Übersetzungen, sondern auch für die Entwicklung neuer Funktionen.
Mehr als Übersetzen: KI wird interaktiver
Mit dem neuen System kann DeepL seine Modelle nicht nur schneller, sondern auch differenzierter trainieren. Die Qualität der Übersetzungen steigt, weil mehr Trainingsdaten, feinere Nuancen und bessere Rückmeldeschleifen in das Modell einfließen. Künftig wird DeepL verstärkt auf sogenannte multimodale Modelle setzen – also KI-Systeme, die Text, Bild und möglicherweise bald auch Ton gleichzeitig verarbeiten können.
Hinzu kommt: Das System erlaubt nun generative Ansätze, etwa für alternative Formulierungen oder kontextbezogene Umschreibungen. Nutzende können also mit individuelleren, interaktiveren Übersetzungsoptionen rechnen.
DeepL rüstet für die Zukunft
DeepL-CEO Jaroslaw Kutylowski formuliert die Strategie deutlich:
„Indem wir unsere Forschungsinfrastruktur mit der neuesten Technologie ausstatten, verbessern wir nicht nur unser bestehendes Angebot, sondern ermöglichen auch die Entwicklung spannender neuer Produkte.“
DeepL will damit weiter wachsen – auch im Wettbewerb mit Tech-Konzernen wie Google, Meta oder Amazon, die ebenfalls auf generative KI im Sprachbereich setzen. Der neue SuperPOD-Cluster stellt die dritte Hochleistungseinheit dar, die DeepL installiert hat. Er übertrifft laut Unternehmen das bisherige Flaggschiffsystem DeepL Mercury deutlich.
Hardware im Detail: DGX SuperPOD mit GB200
Was steckt technisch hinter dieser Beschleunigung? NVIDIA hat mit der neuen Generation seiner DGX SuperPOD-Systeme eine Plattform geschaffen, die auf hohe Parallelisierung und Flüssigkeitskühlung setzt. Das ermöglicht extrem leistungsstarkes, aber zugleich energieeffizientes Training großer KI-Modelle.
• Skalierbar auf zehntausende GPUs
• Flüssigkeitsgekühlte Rack-Architektur
• Entwickelt für generative KI-Anwendungen
• Hohe Energieeffizienz durch optimiertes Design
• In Europa erstmals bei DeepL im Einsatz
Was bedeutet das für Unternehmen?
Für Unternehmen, die auf DeepL setzen, dürfte die neue Infrastruktur spürbare Vorteile bringen. Bessere Übersetzungsqualität, kürzere Reaktionszeiten und flexiblere Funktionen sind zentrale Argumente – gerade in mehrsprachigen Arbeitsumgebungen. Auch Behörden, internationale Projektteams und Anbietende im E-Commerce profitieren von leistungsstarken, datensicheren Sprachdiensten.
DeepL betont dabei, dass Datenschutz und Sicherheit trotz der neuen Funktionen höchste Priorität behalten.
Ein Beitrag von: