Noch keinen Zugang? Dann testen Sie unser Angebot jetzt 3 Monate kostenfrei. Einfach anmelden und los geht‘s!
Angemeldet bleiben
Ausgewählte Ausgabe: 05-2017 Ansicht: Modernes Layout
| Artikelseite 1 von 2

Mit System ins Internet der Dinge

Aus Milliarden an Daten verwertbare Informationen zu gewinnen, ist einer der primären Werttreiber des Internet of Things (IoT). Die zunehmende Konnektivität von Produkten, Geräten und Maschinen stellt Hochleistungsanforderungen an die bisherige datentechnische Infrastruktur – und Unternehmen damit vor große Herausforderungen.


Das Marktforschungsinstitut Gartner prognostiziert, dass 21 Milliarden Dinge bis 2020 mit dem Internet vernetzt sein werden (Gartner Symposium ITxpo, Barcelona/E, November 2015). Dank der relativ kostengünstigen Integration von Sensoren in verschiedene Geräte, etwa zur Messung von Temperatur, Bewegung, Geräuschen oder des Standorts, ist ein Ende dieses Megatrends noch lange nicht in Sicht. Wie lassen sich jedoch diese riesigen Datenmengen sinnvoll in der „Cloud“ erfassen, verarbeiten, speichern und analysieren? Vor allem: Wie können Cloud-Server diesen massiven Input bewältigen? Die Antwort ist einfach: Indem sie es nicht alleine bewältigen, sondern ein großer Teil dieser Prozesse „an den Rand der Cloud“ verlagert wird – dorthin, wo sich Gerät und Anwender treffen. „Edge Computing“ nennt sich dieses alternative Architekturkonzept.

Ohne Cloud-Konzepte geht es nicht

Hatten Unternehmen lange Zeit Bedenken bei der Implementierung eigener Cloud-Lösungen bezüglich Sicherheit und Anwendungsrahmen, wird die Cloud spätestens mit dem Einzug von IoT-Konzepten ins Unternehmen unumgänglich. Wenn schnelle Bereitstellung der Anwendungen, hohe Agilität und Skalierbarkeit sowie vorausschaubare und planbare Betriebskosten gefragt sind, ist eine Cloud-Lösung der richtige Ansatz. Die dezentrale Architektur von Cloud Computing erlaubt den Fernzugriff von überall auf die abgelegten Daten und vereinfacht unter anderem die Zusammenarbeit weit entfernter Teams an gemeinsamen Projekten. Was aber passiert, wenn Trilliarden an Endgeräten riesige Datenmengen senden, die in kritischen Fällen in Echtzeit ausgewertet werden müssen?

Intelligenz „am Rand“ platzieren

Edge Computing oder auch „Fog Computing“ ist ein Ansatz dafür. Die Daten werden hierbei nicht über das Internet an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst und damit am Entstehungsort der Daten verarbeitet, etwa im vernetzten Auto oder in einer Überwachungskamera. Edge Computing unterstützt somit Hochleistungsinteraktionen in Echtzeit, da sie weder durch Batch-Verarbeitung noch von netzwerkbedingten Latenzzeiten ausgebremst werden. Die Geräte am Rande der Cloud kommunizieren miteinander und treffen unabhängig von ihr Entscheidungen. Möglich wird dadurch nicht nur die Sammlung, Verarbeitung und Analyse von Daten aus der „Außenwelt“, sondern auch die umgekehrte Richtung. Das neueste Update muss somit nicht mehr vom zentralen Server an jedes einzelne Gerät im Netzwerk geschickt werden, sondern nur noch an ein für Edge Computing ausgerüstetes Teil, über das daraufhin die Verteilung an alle anderen Geräte läuft.
Dieser Ansatz ist nicht gänzlich neu, die Umsetzung ist jedoch erst heutzutage möglich: Die Software ist mittlerweile so weit entwickelt, dass sie nicht mehr nur auf Hochleistungshardware laufen muss. Zudem ebnen die Geräte selbst den Weg für diese Form der Datenverarbeitung, indem sie Speicher, Rechenleistung und Netzwerkverbindung in sich vereinen können.

Gründe für Edge Computing

Wie angedeutet, wird die Geschwindigkeit der Datentransfers aufgrund teils hoher Latenzzeiten im Netzwerk bald zum Problem in der Cloud. Derzeit mag das noch für die meisten IT (Informationstechnologie)- und Kommunikationsprozesse funktionieren. Mit der drastischen Zunahme an „intelligenten“, vernetzten Geräten wird dies künftig jedoch zu einer echten Herausforderung. Bereits jetzt setzen Unternehmen in vielen Bereichen auf Echtzeit-Analysen von Daten, um kurzfristig Entscheidungen treffen zu können und damit Wettbewerbsvorteile zu erzielen. Edge Computing bietet hier die Möglichkeit, die Daten bereits zu verarbeiten und zu analysieren, bevor sie zentral gesammelt werden. Bei datenintensiven und zeitkritischen Anwendungen empfiehlt sich eine Vorverarbeitung „vor Ort“ auch, um mögliche Sicherheitsrisiken zu vermeiden, unter anderem gegen Angriffe von außen. Ein weiterer Grund für die Verlagerung an den Rand des Netzwerks sind die hohen Kosten für den Transport riesiger Datenvolumen zum Rechenzentrum oder zur Cloud. Dabei sind nicht immer alle Daten gleich wichtig und gleich zeitkritisch. Die Wahl zwischen einer Cloud- oder Edge-Verarbeitung wird von der Anwendung selber getroffen und hängt davon ab, welche Daten dringend mitgeteilt werden müssen und welche nicht.

Datenselektion wichtig, aber wie?

Welche Daten werden nun schnell benötigt und welche nicht? In Unternehmen beeinflussen drei Akteure die Entscheidung über die Datenverarbeitung am Rande des Netzwerks oder in der Cloud: der Unternehmens- und damit Dateninhaber (Produktionsleiter, CEO – Chief Executive Officer, CFO – Chief Financial Officer), ein technischer Entscheider, der die Anforderungen an die IT-Infrastruktur im Blick hat und zu guter Letzt ein Sicherheitsbeauftragter zur Einschätzung, wie sensibel die Daten sind und wie hoch ihr benötigter Schutz sowie wie sich diese Daten evaluieren lassen.

Bild 1.  Konventionelle Gateways reichen in der Produktion nicht mehr aus, wenn die Rechenleistung und analytische Verarbeitung „am Rande der Cloud“ mittels Edge Computing stattfinden soll.

Bild 1.
Konventionelle Gateways reichen in der Produktion nicht mehr aus, wenn die Rechenleistung und analytische Verarbeitung „am Rande der Cloud“ mittels Edge Computing stattfinden soll.

Technische Anforderungen

Ergänzend zu den strategischen Überlegungen bedarf es für Edge Computing auch zusätzlicher Hardware- und Softwareausstattung – beispielsweise die Gateways, die in der Produktion oder im Feld für die Steuerung oder Überwachung von Maschinen, Anlagen oder Geräten zum Einsatz kommen, Bild 1

Seite des Artikels
Autoren

 Stephan Ellenrieder

Senior Vice President Zentral- und Osteuropa und Geschäftsführer Deutschland, PTC
Kontakt:
PTC GmbH
Edisonstr. 8
85716 Unterschleißheim
Tel.: 0 89/3 21 06-0
www.ptc-de.com

Aus Datenmasse...

...wertvolle Inhalte generieren

Im Zuge der „Datenausdünnung“ werden unnötige Daten entfernt, sodass nur die wirklich relevanten zum Vorschein kommen. Bei dem täglich steigenden Volumen produzierter Daten wird dieser Selektionsschritt zukünftig unumgänglich. Spätestens die zunehmende Vernetzung von intelligenten Produkten im Internet der Dinge wird zeigen, dass nicht die Masse der Daten entscheidend ist, sondern der wertvolle und nützliche Inhalt dieser Daten.

Verwandte Artikel

Effizienter Steuerungs- und Schaltanlagenbau

Integrierte Qualitätssicherung in der Metallumformung

Optimierung der Produktion mit Smart Devices

Digitale Transformation aktiv gestalten

Wie Daten die Produktionswelt verändern

Altsysteme mithilfe digitaler Roboter erneuern