Image: Worauf man bei KI-Projekten achten mussFERCHAUFERCHAUarchy13
TechnikFallstricke bei Künstlicher Intelligenz

Worauf man bei KI-Projekten achten muss

Lesezeit ca.: 3 Minuten
Jürgen Mauerer

Jürgen Mauerer

freier Journalist

Bei der Implemen­tie­rung einer KI-Lösung drohen zahlreiche Fallstricke – von der Auswahl der Daten über Sicherheit bis hin zur unzureichenden Analyse der Prozesse.

18. September 2018

Die Vorteile von Künstlicher Intelligenz in der Produktion liegen auf der Hand: Firmen können durch die Analyse von Echtzeit­daten und Algorithmen ihre Produktion automatisch optimieren, Ausfälle von Maschinen proaktiv verhindern (Predictive Maintenance) oder smarte Roboter schaffen, die eng mit den Menschen zusammen­ar­beiten. Doch auf dem Weg zu höherer Produkti­vität lauern einige Herausfor­de­rungen und Fallstricke.

Fallstrick 1: Passendes Einsatzsze­nario

Der Erfolg eines KI-Projekts in der Produktion steht und fällt mit dem zugrunde liegenden Anwendungs­fall oder Business Case. „Viele Unternehmen konzentrieren sich mehr auf die Technik als auf den konkreten Mehrwert, den sie mit KI erreichen wollen. Es geht darum, die bestehende Situation genau zu analysieren und die Probleme herauszu­fin­den“, erklärt Prof. Dr.-Ing. Martin Ruskowski, Inhaber des Lehrstuhls für Werkzeug­ma­schinen und Steuerungen an der TU Kaiserslau­tern und Forschungs­be­reichs­leiter Innovative Fabriksys­teme am Deutschen Forschungs­zen­trum für Künstliche Intelligenz (DFKI).

Er empfiehlt der Industrie, rückwärts vom Menschen her zu denken und am besten den Arbeiter am Fließband zu fragen, wo Bottlenecks entstehen und herauszu­finden, wo sie mit KI ansetzen können. Anhand von individu­ellen Kennzahlen lassen sich dann konkrete Ziele festlegen.

Fallstrick 2: Qualität und Auswahl der Daten

Zentral für den Erfolg von KI-Projekten ist die Datenbasis. „Um die Trefferge­nau­ig­keit zu erhöhen, müssen genügend Datensätze in hoher Qualität vorhanden sein. Wenn die eingespeisten Informationen inkonsis­tent, unvollständig oder uneinheit­lich sind, bedarf es viel Fleißarbeit für die Datengene­rie­rung und -aufberei­tung, etwa in Form von Simulati­ons­mo­dellen oder Data Augmenta­tion“, sagt Dr.-Ing. Werner Kraus, Gruppenleiter Industrie­ro­botik: Handhabung und Intralogistik, und Stellver­tre­tender Abteilungs­leiter Roboter- und Assistenz­sys­teme beim Fraunhofer-Institut für Produkti­ons­technik und Automati­sie­rung IPA. Unternehmen müssen daher ihre Daten im Vorfeld aufbereiten, mit semantischen Informationen versehen, bereinigen und Redundanzen vermeiden.

Aufschluss­reich ist dazu die Studie „Turning Possibility into Productivity“ von Accenture zur Umsetzung von KI-Anwendungen in der industri­ellen Produktion. Das Beratungs­haus hat dazu 500 Fertigungs­un­ter­nehmen aus sechs verschie­denen Branchen in Europa, Nordamerika und Asien befragt. Etwas mehr als die Hälfte nannte hier die schlechte Datenqua­lität als größtes Hindernis (51 Prozent), gefolgt von Bedenken bei der Daten- und IT-Sicherheit (45 Prozent).

Fallstrick 3: Sicherheit

Eines ist klar: Die Daten, mit der ein KI-System trainiert wird, dürfen nicht in fremde Hände geraten. „Firmen müssen genau darauf achten, was mit ihren Daten in der Cloud passiert, und sollten ihre Netzwerke gut vor Cyberangriffen schützen. Beim Thema Safety geht es beispiels­weise im Kontext Robotik darum, die Gesundheit der Menschen zu schützen, die am Fließband mit Robotern zusammen­ar­bei­ten“, so Werner Kraus. Er rät Firmen zudem, eigenes Prozess- und KI-Know-how aufzubauen, um beim Steuern der Produktion nicht von externem Datenwissen abhängig zu sein.

Fallstrick 4: Richtiger Methoden-Mix beim KI-Training

Durch Künstliche Intelligenz lernen wir aus (historischen) Daten und nutzen das Gelernte dazu, automati­siert Entschei­dungen bezüglich konkreter Ereignisse zu treffen. Allerdings gibt es viele unterschied­liche Methoden und Vorhersa­ge­mo­delle, um Algorithmen zu trainieren oder aus Daten Prognosen abzuleiten. Welche Methode und welcher Algorithmus am besten funktionieren, hängt vom individu­ellen Ziel und der Fragestel­lung ab. Um den Ergebnissen vertrauen zu können, ist es notwendig, das Modell und die Parameter stetig anzupassen, zu trainieren und in einem immerwäh­renden Prozess neu zu kalibrieren.

Beispiel Predictive Maintenance: Hier werden historische Maschinen­daten analysiert, um Vorhersagen über den zu erwartenden Ausfall einer Maschine zu treffen. Die Datenmengen, meist mehrere hundert Gigabytes, erfordern spezielle Algorithmen und Berechnungs­soft­ware. Mit ihnen wird das Modell auf Basis der Daten auf den Anwendungs­fall hin trainiert, sprich die Vorhersage zum möglichen Ausfall einer Maschine.

Ausgabe 2018/02

Ausgabe 2018/02

Dieser Artikel erscheint auch in unserem IT-Magazin <atFERCHAU>. Möchten Sie weitere spannende Artikel lesen?

Download pdf