Sonntag, den 19. November 2017
Noch keinen Zugang? Dann testen Sie unser Angebot jetzt 3 Monate kostenfrei. Einfach anmelden und los geht‘s!
Angemeldet bleiben
Ausgewählte Ausgabe: 09-2017 Ansicht: Modernes Layout
| Artikelseite 1 von 2

Intuitive Mensch-Maschine-Schnittstellen

Digitalisierung | Die IT-Landschaften von Unternehmen sind heute von enormer Heterogenität geprägt. Die Praxis zeigt, dass durch historisches Wachstum, Zukäufe und funktions- statt prozessorientierter Entwicklung in Konzernen Hunderte von Systemen, Datenbanken und Data Lakes existieren. Auch kleinere Unternehmen benötigen für einfach Prozesse etliche Systeme. Diese „Datensilos“ verhindern die Nutzung der enthaltenen Daten für integrierte Auswertungen. Um den in den meisten Unternehmen vorliegenden Datenschatz aufwandsarm zu heben, hat das Fraunhofer ISST den Sherlock Bot entwickelt. Das Tool ermöglicht mithilfe von maschinellem Lernen die intuitive vernetzte Abfrage vieler Datenquellen, ohne dass der Anwender die Formulierung komplexer Abfrage-Statements beherrschen muss.


Die Digitalisierung als wesentliche Voraussetzung für die erfolgreiche Einführung der Industrie 4.0 erfordert, vorhandene Daten miteinander in Beziehung zu setzen, um allen Prozessbeteiligten – Menschen wie Maschinen – die Sichtbarkeit über die Prozesskette und Transparenz über Wirkzusammenhänge zu bieten. Gerade mittelständische und große Unternehmen kämpfen mit gewachsenen Systemen oder informationstechnologischen Parallelwelten, die z.B. durch Unternehmenszusammenschlüsse entstehen können. Beispielsweise zeigen Erfahrungen mit einem Unternehmen der Stahlindustrie, dass unterschiedliche IDs für dasselbe Material zu Intransparenz über Bestände und daher zu Überproduktion führen. Automobilkonzerne wie KMU kämpfen mit Daten in mehreren Planungssystemen bis hin zu lokalen Datensätzen in Excel-Dateien. Inkonsistente Planungsdaten sind die Folge. Rücken die Akteure einer Supply Chain durch verstärkte Kollaboration zusammen oder hält das Internet der Dinge in der Praxis Einzug, potenzieren sich die skizzierten Herausforderungen.
Dabei liegt ein enormes Potenzial in der Vernetzung verschiedener Datenquellen. Durch sie wird nicht nur der aktuelle Zustand des Logistiksystems sichtbar, sondern es lassen sich Wirkzusammenhänge und somit Transparenz herstellen. Der jüngst veröffentlichte Industrie 4.0 Maturity Index der acatech (Akademie der Technikwissenschaften) zeigt, dass dies die ersten Schritte hin zur Industrie 4.0 sind (Bild 1). Um diese Schritte durch Vernetzung von Daten zu erreichen, ist zum einen eine vernetzte IT-Architektur Voraussetzung. Zum anderen müssen die Verantwortlichen von Logistik- und Produktionsprozessen in die Lage versetzt werden, diesen Datenschatz zu heben.

Bild 1 Beitrag zur Adaption der Industrie 4.0 am Beispiel Entwicklungspfads gemäß Industrie 4.0 Maturity Index (in Anlehnung an acatech).

Bild 1
Beitrag zur Adaption der Industrie 4.0 am Beispiel Entwicklungspfads gemäß Industrie 4.0 Maturity Index (in Anlehnung an acatech).

Maschinelles Lernen

Neuartige textbasierte Dialogsysteme, kurz „Chatbot“, wie der am Fraunhofer ISST entwickelte Sherlock Bot, erlauben es, mit menschlicher Sprache komplexe Kennzahlen zu berechnen und sukzessive intuitive Abfragen zu erstellen. Die Besonderheit des Sherlock Bot ist die Fähigkeit, verschiedene Datenquellen mithilfe von Methoden des Maschinellen Lernens zu verknüpfen. Dadurch lassen sich dessen Abfragen auch über mehrere separate Datentöpfe ausführen.
Voraussetzung hierfür ist eine Beschreibung der Datenquellen und Datenmithilfe einer industriespezifischen semantischen Informationsschicht. Mithilfe des gängigen Resource Description Framework (RDF), einem vom World Wide Web Consortium (W3C) veröffentlichter Standard zur Beschreibung von Metadaten, werden zum einen die in den „Silos“ enthaltenen Daten in Form von sogenannten Tripeln (Subjekt, Prädikat, Objekt) beschrieben. Beispielsweise bedeutet ein Tripel („Datenquelle: ERP-System“, „besitzt“, „Datenqualität: inkonsistent“), dass ein konkretes ERP-System im konkreten Unternehmen inkonsistente Daten beinhaltet. Dabei wird jedes Element (Subjekt, Prädikat oder Objekt) als Ressource bezeichnet und diese werden mit einer eindeutigen Bezeichnung identifiziert. Auf diese Weise können alle vorhandene Datenquellen, Datenformate und andere datenbasierte Systeme samt ihren Kommunikationsschnittstellen in einer semantischen Informationsschicht beschrieben werden. Dadurch wird die nicht direkt bei Vernetzung nutzbare Information aus Datensilos und isolierten Systemen auf einer neuen Metaebene unternehmensweit zur Verfügung gestellt.

Vielfältige Vorteile

Zusätzlich zu dem bestehenden Chatbot mit allgemeinen Fähigkeiten zur Datenanalyse (sogenannten Skills) können weitere anwendungsspezifische Skills hinzugefügt werden. Dies eröffnet Raum für zahlreiche Einsatzmöglichkeiten. Bereits heute findet der Sherlock Bot Anwendung bei der Analyse von Wirkzusammenhängen in medizinischen Studien.
In der Logistik lässt sich beispielsweise zur Einhaltung von bestimmten Servicelevels eine Sammlung von unternehmensinternen Regeln zur Quantifizierung der Datenqualität definieren, die dem Chatbot als Skills beigebracht werden können. Dadurch können die Daten mit mangelnder Qualität identifiziert und die komplette Daten-Supply-Chain bis hin zur Datenquelle sukzessiv untersucht werden. Insbesondere ist das Paradigma der Zusammenarbeit mit dem Chatbot nicht nur auf die sukzessive Untersuchung von Daten (Exploration) beschränkt, sondern vielmehr können konkrete und proaktive Aufgaben definiert werden, wie die Prädiktion von Über- oder Unterproduktion mit entsprechender Benachrichtigung. Dazu wird ein Skill zur Prädiktion - basierend auf Verfahren aus dem Bereich des Maschinellen Lernens - trainiert. Schließlich, wie im Bild 2 zu sehen ist, wird in natürlicher Sprache der Service zur Prädiktion mit einer E-Mail-Benachrichtigung gestartet.

Bild 2 Veranschaulichung der Interaktion zwischen dem Sherlock Bot und IT-Systemen über die semantische Informationsschicht.

Bild 2
Veranschaulichung der Interaktion zwischen dem Sherlock Bot und IT-Systemen über die semantische Informationsschicht.

Im Hintergrund können mithilfe der semantischen Informationsschicht die notwendigen Daten automatisch aus bestehenden IT-Systemen extrahiert und mit dem trainierten Modell analysiert werden. Dadurch wird die Prädiktion der Überproduktion und Unterproduktion für ein konkretes Produkt auf Anfrage in menschlicher Sprache möglich. Ebenso ist die Berechnung weiterer Leistungskennzahlen - wie die Termintreue über mehrere Prozessstufen mit ihren jeweiligen ERP-Systemen, LVS oder TMS und die Allokation deren Kosten - möglich. Bestände gleicher, aber möglicherweise unterschiedlich gekennzeichneter Artikel an mehreren Standorten, würde sich dieser einheitlich erfassen lassen. Vor allem aber erlaubt die Vernetzung von Datenquellen Big-Data-Analysen auf der neuen Dimension an verfügbaren Datenmengen, die heute unmögliche Abfragen erlaubt. Mithilfe von Musterkennung lassen sich heute nicht erkennbare Wirkzusammenhänge und Korrelationen beispielsweise bei Prozessfehlern oder Qualitätsmängeln herstellen.

Seite des Artikels
Autoren

Dr. Jan Cirullies

Fraunhofer-Institut für Software- und Systemtechnik ISST

 Yevgen  Pikus

Fraunhofer-Institut für Software- und Systemtechnik ISST

Chatbot

Chatterbots, Chatbots oder kurz Bots sind textbasierte Dialogsysteme. Sie bestehen aus einer Textein- und -ausgabemaske, über die sich in natürlicher Sprache mit dem dahinterstehenden System kommunizieren lässt. Sie können, müssen aber nicht in Verbindung mit einem Avatar benutzt werden. Technisch sind Bots näher mit einer Volltextsuchmaschine verwandt als mit künstlicher oder gar natürlicher Intelligenz. Mit der steigenden Computerleistung können Chatbot-Systeme allerdings immer schneller auf immer umfangreichere Datenbestände zugreifen und daher auch intelligente Dialoge für den Nutzer bieten. Solche Systeme werden auch als virtuelle persönliche Assistenten bezeichnet.
Es gibt auch Chatbots, die gar nicht erst versuchen, wie ein menschlicher Chatter zu wirken (daher keine Chatterbots), sondern ähnlich wie IRC-Dienste nur auf spezielle Befehle reagieren. Sie können als Schnittstelle zu Diensten außerhalb des Chats dienen, oder auch Funktionen nur innerhalb ihres Chatraums anbieten, z. B. neu hinzugekommene Chatter mit dem Witz des Tages begrüßen. Die meisten Chatbots greifen auf eine vorgefertigte Datenbank, die sog. Wissensbasen mit Antworten und Erkennungsmustern, zurück. Das Programm zerlegt die eingegebene Frage zuerst in Einzelteile und verarbeitet diese nach vorgefertigten Regeln.
Dabei können Schreibweisen harmonisiert (Groß- und Kleinschreibung, Umlaute etc.), Satzzeichen interpretiert und Tippfehler ausgeglichen werden (Preprocessing). Im zweiten Schritt erfolgt dann die eigentliche Erkennung der Frage. Diese wird üblicherweise über Erkennungsmuster gelöst, manche Chatbots erlauben darüber hinaus die Verschachtelung verschiedener Mustererkennungen  über  sogenannte  Makros.  Wird  eine  zur  Frage  passende  Antwort  erkannt, kann diese noch angepasst werden (beispielsweise können skriptgesteuert berechnete Daten eingefügt werden – „In Ulm sind es heute 37 °C.“). Diesen Vorgang nennt man Postprocessing. Die daraus entstandene Antwort wird dann ausgegeben. Moderne kommerzielle Chatbot-Programme erlauben darüber hinaus den direkten Zugriff auf die gesamte Verarbeitung über eingebaute Skriptsprachen und Programmierschnittstellen.
(Quelle: Wikipedia)

Verwandte Artikel

In nur drei Tagen einsatzbereit

Mobile Devices und Datenwolken prägen die Lagerverwaltung der Zukunft

Einkaufen 4.0

Logistik in der Cloud

Dem Lagerbestand auf den Zahn gefühlt