Im Interview erläutert Britta Hilt, Co- Gründerin und Geschäftsfüherin von IS Predict, die Herausforderungen beim Einsatz der Verfahren der Künstlichen Intelligenz in den Unternehmen.

  • Frau Hilt, was genau macht IS Predict? 

IS Predict realisiert Künstliche Intelligenz-Lösungen für Produktion und Logisitk. Kunden sind bspw. Opel, ZF, Bosch, BASF, Deutsche Bahn.

Es geht immer darum, aus vorhandenen Daten einen Mehrwert zu ziehen. Hier geht es um die wichtigen Themen wie Ausschussreduzierung, Energie-/CO2-Einsparungen, verlässliche Maschineneffizienz, Logistikoptimierung, …

Das Besondere ist, dass unsere KI-Lösungen mitlernen, also wie wir Menschen auch Veränderungen verstehen und darauf reagieren. Dies stellt sicher, dass die KI-Lösung nicht nur jetzt einen Mehrwert bringt, sondern auch nach Jahren, wenn sich die Prozesse verändert haben. Dadurch sind nicht immer wieder Anpassungsarbeiten von Data Scientists notwendig.

Außerdem „verrät“ die KI, warum sie wie entscheidet. Das Stichwort ist hier „erklärende KI“. Also keine Black Box, der der Mensch einfach vertrauen muss.

Für das Mitlernen, also die Adaptivität, und für die Erklärbarkeit haben wir viele Innovationspreise gewonnen.

  • Aus welchen Branchen kommen Ihre Kunden – handelt es sich dabei eher um große Unternehmen oder zählen dazu auch KMUs?

Unsere Kunden kommen aus den unterschiedlichsten Produktionsbereichen und auch Logistik sowie Energiewirtschaft. Es sind jedoch immer die größeren Firmen. Für diese rechnen sich KI-Lösungen besser, da wir hier den Skalierungseffekt haben. Sie müssen die gleiche Infrastruktur aufbauen, also Datensammlung und –übertragung, mathematische Algorithmik, Schnittstellen, …, unabhängig davon, ob Sie die Qualität eines Roboters überwachen oder von hunderten von Robotern.

  • Welche Anforderungen von Kundenseite begegnen Ihnen derzeit besonders häufig? 

Wenn wir die ersten Gespräche mit Kunden führen, hören wir oft, dass sie bereits KI-Aktivitäten durchgeführt haben. Aber es gibt wohl hauptsächlich zwei Probleme. Einerseits ist die KI-Lösung am Anfang gut, aber dann zu starr, weil sich die Prozesse des Kunden ändern. Hier muss er dann wieder Hand anlegen, bzw. den Geldbeutel aufmachen, damit Data Scientists die Lösung auf die Veränderungen anpassen. Wenn die Prozesse sich jedoch immer wieder ändern, ist das leider eine Endlosschleife.

Das andere Problem ist, dass die Kunden auch verstehen wollen, was die Gründe sind, dass plötzlich Minderqualität entsteht, dass die Maschinen nicht mehr „rund“ laufen, dass die Energie- / Betriebskosten manchmal höher sind. Hier geht es um die Ursachenfindung in großen Datenmengen. Bei einem Kunden haben wir die Gründe für – manchmal auftretende – Minderqualität in den Daten von knapp 1.000 Fertigungsmaschinen gefunden.

Die vielfach genutzten Neuronalen Netze bieten leider nur selten diese Transparenz. Daher haben wir Bücher aus der Gehirnforschung durchforstet und haben neue mathematische Netzstrukturen abgeleitet: Statt Neuronaler Netze nutzen wir Semantische Netze, die wir im Deep Learning „hintereinander“ schalten.

  • Wo sehen Sie die Grenzen beim Einsatz Neuronaler Netze in Kombination mit Deep Learning?

Deep Learning bedeutet, einfach gesagt, dass das Ergebnis von Analysen wiederum als Input für die nächsten Analysen sind. Die Analysen sind also mehrfach hintereinander geschaltet.

Oft wird Deep Learning mit Neuronalen Netzen verwendet: Also das Ergebnis eines Netzes wird Input für das 2. Netz, usw.

Wir nutzen auch Deep Learning, schalten also hintereinander, jedoch nutzen wir keine Neuronalen Netze. Der Nachteil bei Neuronalen Netzen ist ja, dass sie in komplexen Datenstrukturen nur sehr, sehr schwer auch Transparenz erlauben. Daher haben wir Semantische Netze entwickelt, abgeleitet von der Gehirnforschung.

  • Können Sie uns ein Beispiel aus der Praxis geben?

Ja, natürlich. Fangen wir mit dem allseits bekannten Thema der vorausschauenden Wartung an: Ein internationales Logistikunternehmen hat ca. 4.000 Lokomotiven. Jede Lokomotive hat 4 Motoren. Leider kommt es immer mal wieder vor, dass eine zentrale Komponente des Motors den Belastungen nicht stand hält und während der Fahrt bricht. Dies zerstört den gesamten Motorblock, was ca. 200.000€ Schaden bedeutet.

Danke adaptiver Mustererkennungsalgorithmik konnten aus den knapp 900 Datenpunkten die 8 herauskristallisiert werden, die eine signifikante Rolle spielen. Der zu erwartende Schaden kann bis zu 3 Wochen im Voraus erkannt werden. Das Ausphasen der Lokomotive und das anschließende Austauschen der zentralen Komponente kostet zwar immer noch 20.000€. Aber trotzdem  lassen sich so 90% der Kosten und viel Ärger einsparen, denn die Kunden brauchen nun mal ihre Ware. Wir alle bekommen seit Monaten mit, was es bedeutet, wenn Lieferketten Verzögerungen haben.

Ein anderes Beispiel ist die Ausschussminimierung. Ein internationaler Getriebehersteller produziert ca. 11.000 Getriebe pro Tag. Jedes einzelne Getriebe wird am Ende der Produktion auf dem Prüfstand auf Herz und Niere geprüft. In der Vergangenheit stellte sich raus, dass – plötzlich – die Ausschusszahlen größer wurden. Man ging auf die Suche, wo in der Produktion die Ursache liegt. Aber manchmal suchte man 1 Woche, alle Maßnahmen reduzierten den Ausschuss nicht. Und dann war – wiederum plötzlich – das Problem von alleine weg. Ist zwar gut, wenn es weg ist, aber solange Sie nicht wissen, woran es gelegen hat, können Sie nichts gegen das Problem machen, auch wenn es wieder auftritt.

Die KI analysiert innerhalb von weniger Minuten viele Terabyte an Daten und zeigt sozusagen mit dem Finger an die Stelle, an der das Problem verursacht wurde. So ein Grund kann bspw. sein, wenn eine bestimmte Charge eines Lieferanten zwar noch in Spezifikation ist, aber eher am oberen Rand der definierten Qualitätsmerkmale. Wenn diese Charge dann, wie beim Kunden, für einen Zahnrad-Bearbeitungsschritt auf einer der 50 zur Verfügung stehenden Maschinen bearbeitet wird und nur eine dieser 50 Maschinen schon etwas Werkzeugverschleiß aufzeigt, dann kann es zu ganz geringen Abweichungen kommen, die sich erst später, wenn alles zusammengebaut ist, bemerkbar machen. Das ist wirklich wie das Suchen der berühmten Nadel im Heuhaufen!

  • Welche Voraussetzungen müssen auf Kundenseite gegeben sein, damit sich der Einsatz von Deep Learning und Semantischer Netze lohnt?

Den größten Nutzen kann man mit KI-Lösungen erzielen, wenn man den Skaliereffekt nutzen kann. Wenn Sie eine KI-Lösung realisieren, müssen Sie bestimmte Sachen aufbauen, egal ob Sie einen Roboter oder hunderte oder tausende von Robotern analysieren. Ein großer japanischer Kunde (Rechenzentrumsbetreiber) hat Tausende von Klimaanlagen für vorausschauende Wartung angebunden. Ein KMU, das vielleicht ein oder zwei Räume klimatisiert hat, würde verhältnismäßig großen Aufwand betreiben, um die gleichen vorausschauenden Analysen zu erhalten.Aber es muss nicht gleich in die Tausende gehen. Ein Werk hat ca. 100 Roboter angebunden an unsere KI.

  • Wenn ich Sie richtig verstehe, dann erfüllen kleine und mittlere Unternehmen die Voraussetzungen auf absehbare Zeit nicht? 

Bei den kleinen und mittleren Unternehmen wird es wohl meist auf KI-Lösungen hinauslaufen, die die Hersteller der Maschinen bereits eingebaut haben. Die Hersteller haben wiederum die Skalierungseffekte. So kann das KMU, das vielleicht ein oder zwei Anlagen dieser Art hat, die Erfahrungen des Herstellers nutzen.

  • Könnten Low Code oder No Code-Applikationen eine Alternative sein?

Low Code bzw. No Code ist natürlich stark im Trend. Bei unseren KI-Lösungen werden bereits Arbeiten, wofür Data Scientists viel Zeit investieren müssen, automatisiert. Diese Teilautomatisierung sehr zeitintensiver Arbeiten, wie bspw. Feature-Building, Modellerstellung, …, reduziert die Kosten deutlich. Ich glaube, dass der Weg weiter zur Data Science-Automatisierung gehen wird, wobei jedoch aufgrund der Komplexität der Datenstrukturen und Prozesse einer Automatisierung auch Grenzen gesetzt sind.

  • Wo sehen in den nächsten Jahren auf dem Gebiet der KI für die Industrie die größten Herausforderungen und Chancen – und wie will IS Predict daran partizipieren bzw. darauf reagieren? 

Die größte Herausforderung sehe ich – immer noch – in der ausreichenden Datenlage: Es gibt viele alte Anlagen, die wunderbar ihre Produktionsaufgaben erfüllen, aber eben nicht die Daten zur Verfügung stellen, die eine KI-Analyse benötigen würden. Daher wird oft viel Zeit und Geld in Retrofiting investiert, im nachträglichen Anschließen von Sensorik. Dann noch das Thema Datenübertragung und auch Datenqualität nicht zu vergessen.

Die Großkonzerne bauen schon seit Jahren Data Lakes auf. Doch was sehr oft nicht beachtet wird, ist das sog. semantische Mapping. Sie haben unzählige Daten in diesem „See“, jedoch wurde der Datenpunkt in Produktionslinie 1 mit dem Namen „X“ benannt. Für die Produktionslinie 2 ist jemand anderes zuständig. Dieser benennt den gleichen fachlichen Sachverhalt nach bestem Wissen und Gewissen nun aber „Y“.

Wenn Sie nun Linien-übergreifend Analysen durchführen und Zusammenhänge erkennen wollen, dann müssen Sie erst die Voraufgabe erfüllen: Sie müssen verstehen, dass X in Linie 1 dem Y in Linie 2 entspricht.

Dieses semantische Mapping ist auch ein Arbeitsschritt, der zeitaufwändig ist und auch nur von den Fachbereichen durchgeführt werden kann.

Das Thema Datenqualität ist auch nicht „nur“ relevant, wenn Sie eine KI-Lösung bauen. Im operativen Betrieb bleibt das Thema wichtig. Denn schlechte Daten führen nun mal zu schlechten Analyseergebnissen.

Daher haben wir unsere KI-Lösung um einen sog. Live Quality Guard erweitert, also ein „Wächter“, der die reinlaufenden Daten 24/7 prüft, und zwar nicht nur auf „da“ oder „nicht da“. Er arbeitet nicht mit Regeln (also wenn Wert > 10, dann Problem), denn abhängig von der Prozessbelastung muss ein Grenzwert dynamisch sein; und das in Regeln zu fassen wäre eine Mamutaufgabe…

Der Live Quality Guard analysiert also den Wert dynamisch-semantisch: Ist der Wert in dem Kontext realistisch? Die entsprechend Verantwortlichen werden zeitnah informiert und ggf. macht der Live Quality Guard auch schon eine Empfehlung zur Fehlerbehebung.

  • Frau Hilt, besten Dank für das Gespräch!
2 Gedanken zu „“Die größte Herausforderung ist immer noch die unzureichende Datenlage”“
  1. […] Im Prinzip geht es darum, die Datenstrategien der Banken auf die der Unternehmen abzustimmen. Aktuelle Studien zeigen indes, dass aufseiten der Unternehmen diesbezüglich z.T. erhebliche Defizite bestehen[1]Datenlos durch die Nacht. Nach wie vor, so Britta Hilt von IS Predict, ist die Datenlage in den meisten Unternehmen unzureichend – nicht nur bei den KMUs[2]“Die größte Herausforderung ist immer noch die unzureichende Datenlage”. […]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert