Neue Nvidia-KI-Plattform für humanoide Robotik ohne Cloud
Nvidia stellt mit Jetson Thor eine KI-Plattform vor, die humanoide Roboter und autonome Systeme ohne ständige Cloud-Anbindung leistungsfähig macht. Auf Basis der Blackwell-Architektur bietet sie massive Rechenleistung direkt im Gerät – ein Schritt hin zu verlässlicher KI im praktischen Einsatz.
Nvidias Jetson Thor bringt KI direkt in Roboter: humanoide Helfer, Landmaschinen und OP-Assistenz lernen in Echtzeit ohne Cloud.
Foto: Nvdia
Der Jetson Thor ist ein KI-Computer, der auf Nvidias Blackwell-GPU-Architektur basiert. Er soll gegenüber dem bisherigen Spitzenmodell Jetson Orin bis zu das 7,5-Fache an KI-Rechenleistung bei mehr als dreifacher Energieeffizienz liefern. Im Jetson AGX Thor Developer Kit steckt ein Jetson-T5000-Modul mit 128 GByte Speicher (LPDDR5X), ausgestattet mit einem 14-Kern-Arm-Neoverse-V3AE-Prozessor für allgemeine Aufgaben und der Blackwell-GPU für spezialisierte KI-Berechnungen. Die Leistungsdaten sind zumindest in der Ankündigung von Nvidia schon bemerkenswert: bis zu 2 070 TFlops in FP4-Sparse-Berechnungen, Werte, die noch vor wenigen Jahren nur in ausgewachsenen Rechenzentren möglich waren.
KI-Plattform für autonome Rechenleistung in Geräten
Nvidia will mit der Kategorie „Physical AI“ Rechenleistung in Geräte bringen, die autonom agieren müssen Die KI soll also nicht nur digitale Aufgaben erfüllen, sondern direkt in der physischen Welt agieren. Nützlich ist das zum Beispiel für humanoide Roboter, mobile Serviceroboter in Logistikzentren, autonome Maschinen in Fabriken oder präzise Assistenzsysteme in der Medizin. Wo bislang meist eine Anbindung an Cloud-Rechenzentren nötig war, soll Jetson Thor es ermöglichen, multimodales Reasoning direkt im Gerät auszuführen. Damit lassen sich visuelle Eindrücke, Spracheingaben und motorische Aktionen in Echtzeit verknüpfen, ohne Umweg über entfernte Server.
Aus Anwendersicht bedeutet das: geringere Latenz, höhere Ausfallsicherheit und weniger Abhängigkeit von stabilen Netzwerken. Ein Roboter, der in einer Produktionshalle Waren bewegt, kann auch dann weiterarbeiten, wenn die Internetverbindung gestört ist. Ein humanoider Serviceassistent reagiert spontan auf Spracheingaben, ohne dass Gesprächsdaten in ein entferntes Rechenzentrum geschickt werden müssen. Für sensible Umgebungen wie Krankenhäuser etwa soll das Datenschutzrisiken reduzieren und KI-Anwendungen vertrauenswürdiger machen.
Technisch bietet das Modul ein breites Set an Schnittstellen: vier 25-Gbit-Ethernet-Kanäle über QSFP-28, HDMI und Displayport für visuelle Ausgaben, USB und M.2-Anschlüsse für Erweiterungen, dazu Wi-Fi 6E für drahtlose Kommunikation. Damit lassen sich Sensoren, Aktoren und Zusatzhardware flexibel anbinden. Entwicklerinnen und Entwickler sollen so ein Komplettpaket erhalten, das als Herzstück robuster Robotiksysteme dienen kann.
On-Site-Intelligenz mit Cloud-Anbindung nach Bedarf
Eine häufige Frage bei neuen KI-Plattformen ist, ob sie vollständig autark laufen oder auf die Cloud angewiesen bleiben. Jetson Thor ist klar auf On-Site-Betrieb ausgelegt. Durch die enorme Rechenleistung können neuronale Netze, Sprachmodelle und visuelle Modelle lokal verarbeitet werden. Multimodales Reasoning – etwa die Kombination von Kameraeindrücken mit Sprachbefehlen – geschieht direkt im Gerät. Das soll Systeme reaktionsschneller und zuverlässiger machen. Von Vorteil ist das insbesondere in Umgebungen, in denen eine Verbindung nicht permanent garantiert ist, etwa in Lagerhallen, Häfen oder abgelegenen Produktionsstätten.
KI-Plattform lässt Entwicklern die Wahl
Dennoch ist die Plattform nicht isoliert gedacht, wie der Hersteller betont. Sie ist vollständig kompatibel mit Nvidias Software-Ökosystem, das sowohl Cloud- als auch Edge-Anwendungen umfasst. Entwickler können also entscheiden, ob sie KI-Workflows komplett vor Ort ausführen oder Rechenaufgaben an Rechenzentren auslagern wollen.
Hybride Architekturen sind vorgesehen: Sensordaten werden lokal vorverarbeitet, für langfristige Analysen oder Modell-Updates aber optional in die Cloud übertragen.
Für Anwender hat das mehrere praktische Konsequenzen. In der Industrie sollen Roboter mit Jetson Thor auf veränderte Produktionsbedingungen reagieren, ohne auf externe Server angewiesen zu sein. Sie erkennen visuelle Abweichungen, greifen auf Sprachkommandos zu oder steuern ihre Bewegungen laut Anbieter auch dann präzise, wenn das Firmennetzwerk ausgelastet ist. Im Bereich der Logistik lässt sich die Routenplanung von Transportrobotern in Echtzeit anpassen. Das ist zum Beispiel nützlich, wenn ein Gang blockiert ist. Serviceroboter im Handel oder im Gastgewerbe sollen spontan auf Gäste reagieren und zugleich von Cloud-Services profitieren können, wenn es um das Nachladen umfangreicher Datenbanken geht.
Wichtige Frameworks sind inklusive
Auch für die Sicherheit soll die Plattform vorteilhaft sein. Da sensible Daten wie Kamerabilder nicht zwingend in externe Netze gelangen, soll das Risiko von Datenlecks sinken. Besonders in Gesundheitsanwendungen, in denen Roboter für Pflegeaufgaben oder Diagnostik assistieren, könnte das ein entscheidender Vorteil sein. Auch im Bereich Energieeffizienz will Nvidia punkten. So wurde die Blackwell-Architektur gezielt für höhere Performance pro Watt entwickelt. Das soll im Dauereinsatz von Robotern den Energiebedarf spürbar reduzieren.
Das Entwickler-Ökosystem rund um Jetson Thor baut auf bewährten Plattformen auf. Frameworks wie Isaac für Robotik, Metropolis für Vision-Anwendungen und Holoscan für Sensorfusion sind vollständig integriert. Damit können Unternehmen bestehende KI-Modelle auf die neue Hardware portieren oder neue Anwendungen entwickeln, ohne Infrastruktur neu aufsetzen zu müssen.
Ein Beitrag von: