Noch keinen Zugang? Dann testen Sie unser Angebot jetzt 3 Monate kostenfrei. Einfach anmelden und los geht‘s!
Angemeldet bleiben
Ausgewählte Ausgabe: 05-2017 Ansicht: Modernes Layout
| Artikelseite 3 von 6

AR-Unterstützung durch Steuerungshersteller

2.2 Steuerungshersteller und AR

Hersteller intelligenter Automationsgeräte wie Steuerungen oder IPCs verkaufen ihre Produkte meist an so-genannte Original Equipment Manufacturer (OEMs), die sie in Maschinen und Anlagen integrieren und diese dann an ihre Endkunden weiterverkaufen. Für Komponentenhersteller stellt sich also die Frage, wie sie – auch ohne einen direkten Zugang zum Endkunden und dessen individuellen Anforderungen – die OEMs beim Anbieten von AR-Lösungen unter Berücksichtigung der in 2.1 angesprochenen Missstände unterstützen können.

3 Lösungsansatz

Um die genannte, oft unzureichende Leistungsfähigkeit mobiler Endgeräte zu kompensieren, können die ressourcenhungrigen AR-Algorithmen auf einen leistungsstärkeren Rechen- knoten ausgelagert und dort bearbeitet werden. Passiert dies – im Gegensatz zum Cloud Computing – innerhalb des eigenen (Firmen-)Netzwerks, spricht man von Edge bzw. Fog Computing. Niedrige Übertragungslatenzen vorausgesetzt, kann durch die Auslagerung ein Performance-Vorteil erreicht bzw. die Ausführung von AR-Anwendungen überhaupt erst ermöglicht werden [5]. Um zusätzlich deren Erstellung einem größeren Feld von Entwicklern zugänglich zu machen und gleichzeitig Plattformunabhängigkeit und größtmögliche Flexibilität zu erreichen, ist außerdem der Einsatz der in herkömmlichen Anwendungen bereits etablierten Webtechnologien erstrebenswert.
Hier kommen die Komponentenhersteller ins Spiel: Die von ihnen gelieferten Steuerungen und Industrie-PCs (IPCs) verfügen inzwischen größtenteils über einen integrierten Webserver und entsprechende Rechenleistung. Des Weiteren finden sie sich längst zur Steuerung von Maschinen und Anlagen in nahezu jeder Fabrikhalle und müssten nicht eigens zu dem hier beschriebenen Zweck nachgerüstet werden. Mit Hilfe der im Folgenden vorgestellten Architektur werden Augmented-Reality-Anwendungen und aktuelle Webtechnologien zusammengebracht und die komplexen Berechnungen serverseitig auf dem IPC aus-geführt. So werden die beiden in 2.1 beschriebenen Hemmnisse beseitigt. 
 Die Architektur ist in Bild 3 grafisch dargestellt: Die integrierte Kamera eines mobilen Endgeräts (Client), beispielsweise die eines Smartphones, eines Tablets oder einer AR-Brille, erfasst Videodaten und sendet diese über eine WLAN-Verbindung an den IPC (Server). Auf diesem finden die AR-Berechnungen statt, die das mobile Endgerät hinsichtlich Rechenleistung oder Energieaufnahme überfordern würden. Anschließend wird das Ergebnis – im einfachsten Fall ein fertig bearbeiteter Videostrom – zurück an das mobile Endgerät geschickt und dem Benutzer dort präsentiert.

Bild 3 Architektur für die webbasierte Echtzeit-Auslagerung von AR-Berechnungen auf einen Industrie PC

Bild 3
Architektur für die webbasierte Echtzeit-Auslagerung von AR-Berechnungen auf einen Industrie PC

3.1 Client-Architektur

Anders als bei den meisten verfüg- baren AR-Applikationen ist ein herkömmlicher Webbrowser das User-Interface für den Endanwender. Er navigiert in gewohnter Weise auf eine vom Server bereitgestellte Homepage, die sich automatisch um das weitere Setup kümmert. Als wichtigster Bestandteil wird eine WebSocket-Verbindung zu einem Endpunkt auf dem IPC aufgebaut, über die das Videobild der Kamera an den IPC gesendet wird. Auch weitere Konfigurations-Daten wie die intrinsischen Kamera-Parameter, die für die korrekte Darstellung der virtuellen Inhalte benötigt werden, können über diesen Kanal ausgetauscht werden.
Ist die Verbindung vollständig eingerichtet, kann das Kamerabild nach Zustimmung des Benutzers erfasst und für die Übertragung vorbereitet werden. Anschließend werden die einzelnen Frames über den WebSocket an den Server zur weiteren Verarbeitung (siehe 3.2) gesendet. Eingehende, fertig bearbeitete Bilder vom Server werden direkt dargestellt, Daten zur Kamerapose (siehe 3.2) werden an eine WebGL-Komponente zum Rendering übergeben.

Seite des Artikels
Autoren

M. Sc. Michael Schneider

Bosch Rexroth AG
Bgm.-Dr.-Nebel-Str. 2
97816 Lohr am Main
Tel.: 0 93 52/18–50 84
E-Mail: michael.schneider10@boschrexroth.de
www.boschrexroth.de

Prof. Dr. Didier Stricker

Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)
Trippstadter Straße 122
67663 Kaiserslautern
Tel.: 06 31/2 05 75–35 00
E-Mail: didier.stricker@dfki.de
www.dfki.de

Verwandte Artikel

Bildverarbeitung im Automobilbereich boomt

Qualitätsprüfung von zylindrischen Blechteilen durch optische Inspektion

Automobilindustrie profitiert von Machine Vision

Wenn Bildverarbeitung und Pneumatik zusammenarbeiten