Image: Industrie 4.0 lernt hörenFERCHAUFERCHAUBeschädigte Maschinen machen eindeutige Geräusche | Trodler
TechnikAkustische Ereigniserkennung

Indus­trie 4.0 lernt hören

Lesezeit ca.: 4 Minuten
Hans-Jörg Munke

Hans-Jörg Munke

freier Journalist

Wenn Bauteile versagen, kündigt sich das häufig durch auffällige Geräusche an. Könnten IT-Systeme hören, ließen sich Ausfallzeiten und Wartungs­kosten reduzieren. Wissenschaftler des Fraunhofer Instituts für Digitale Audio Technologie (IDMT) und des Oldenburger Informatik­in­sti­tuts Offis entwickeln praxistaug­liche Lösungen.

05. Dezember 2017

Die Anwendungs­fälle, die die Experten des Projekts ACME 4.0 (Akustische Zustands­über­wa­chung für Industrie 4.0) untersuchen, könnten unterschied­li­cher nicht sein.

Da ist zum Beispiel die Problemstel­lung aus der hochauto­ma­ti­sierten Produktion des Chip-Herstellers Infineon: Während der Fertigung werden die mikrometer­dünnen Verbindungs­stücke einzelner Chips mit Hilfe eines Nadelkis­sens aus 200 sogenannten Cantilever-Nadeln mechanisch getestet. Dabei kann es zu Rissen in der Silizium­oxi­dschicht der Chips kommen, was ihre Leistungs­fä­hig­keit stark einschränkt. Die Risse machen sich im Frequenz­be­reich zwischen 700 Kilohertz und 1,2 Megahertz bemerkbar.

„Der Mensch kann das nicht mehr wahrnehmen, wir haben allerdings einen Sensor entwickelt, der in diesem Frequenz­be­reich noch hört. Mit der entsprechenden Sensorik können wir die Daten weiterver­ar­bei­ten“, erklärt Danilo Hollosi, Medientech­no­loge von der Projektgruppe Hör-, Sprach- und Audiotech­no­logie des Fraunhofer IDMT.

Diese Erkennung kann Infineon viel Geld sparen, denn bisher durchlaufen auch defekte Chips alle Prozessschritte.

Praxisfall Axialkol­ben­pumpe

Im zweiten Anwendungs­fall stehen Axialkol­ben­pumpen der Firma Bosch Rexroth im Fokus. Die rein mechanischen Bauteile kommen in Bau- und Landmaschinen sowie in der Fördertechnik zum Einsatz. Dabei wollen die Forscher untersuchen, wie weit akustische Ereignis­er­ken­nung unter dreckigen und lauten störgeräusch­be­haf­teten Bedingungen möglich ist.

„In der Praxis tragen hier gleich mehrere Bauteile zu einem Klanggemisch im Bereich unterhalb von 20 Hertz bei“, sagt Jens-E. Appell, Leiter des IDMT-Standorts Oldenburg. Anteile können von den Getrieben, der Pumpe oder dem Motor stammen. Konkret bedeutet das für die Oldenburger Akustik-Forscher, die Geräusche aufzuzeichnen und zunächst die für die betrachtete Pumpe verantwort­li­chen Signalan­teile herauszu­fil­tern - zum Beispiel über eine Analyse der für die Pumpe charakte­ris­ti­schen Frequenzen. Hat eine der Kugeln in der Pumpe eine Unwucht, entstehen Oberwellen. „Man hört, wenn etwas mit der Maschine nicht korrekt läuft und kann das in einem sehr hoch aufgelösten Frequenz­spek­trum quasi fast sehen“, sagt Appell.

Und Computer können das lernen. Wichtigste Vorausset­zung sind ausreichend Klangbei­spiele. Damit könne man auch komplexe Signalstruk­turen erkennen, ähnlich wie in der Spracher­ken­nung, erklärt Audiotech­niker und Psychoakus­tiker Appell. Das Knacksen auf der Wafer-Platte bei Infineon hat beispiels­weise einen Anfang, ein Ende und in der Zeit dazwischen eine gewisse Struktur.

Software-Training durch neuronale Netze

Um funktions­fä­hige Erkennungs-Algorithmen zu erhalten, setzen die Forscher auf neuronale Netze. Die zu trainieren, erfordert zahlreiche Beispiele für gute und schlechte Signale. „Man kann automati­siert Geräusche erkennen, die dort nicht hingehören. Eine umfassende Datenbasis an Audiodaten vorausge­setzt, wird auch der normale Alterungs­pro­zess berücksich­tigt“, sagt Appell. Das System soll vom Menschen lernen, weil der in der Regel weiß, welches akustische Signal überhaupt beachtens­wert ist.

Um, wie im Fall der Pumpe, Fehler zuverlässig zu unterscheiden, muss mit klassischer Audiosignal-Vorverar­bei­tung zunächst eine Robustheit des Signals entstehen. Die Sensoren sind so angebracht, dass sie gegen Störgeräu­sche möglichst abgeschirmt sind.

Einfacher haben es die Akustik-Experten bei Infineon. „In der Fabrik im Reinraum haben wir perfekt kontrollierte Bedingungen - beispiels­weise immer die gleiche Temperatur und Luftfeuch­tig­keit. Die Variabilität kommt nur aus dem Messvorgang“, erklärt Danilo Hollosi. Bis die akustische Ereignis­er­ken­nung zuverlässig arbeitet, sind in beiden Fällen noch rechenin­ten­sive Lernverfahren nötig.

Praxistaug­lich­keit im Blick

Teil des Projekts ACME 4.0 ist auch die Entwicklung praxistaug­li­cher Sensoren für das Erkennen und Analysieren der Daten am Ort des Geschehens. „Das muss auf einer Plattform passieren, die mit möglichst wenig Energie oder energieautark funktioniert, weil wir das Gerät direkt auf die betreffenden Maschinen bauen wollen - ohne extra Verkabelung und ohne zusätzli­chen Netzwerk­an­schluss“, sagt Frank Oppenheimer, Bereichs­leiter für Industrie 4.0 im Oldenburger Informatik­in­stitut OFFIS. Die Elektronik sollte leistungs­fähig genug sein, um die Algorithmen ausführen zu können, und zudem ein intelligentes Power-Management-System besitzen, das prüft, wieviel Energie noch vorhanden ist und wieviel angesammelt werden muss, um einen Messzyklus durchführen zu können.

Neben der Arbeit mit neuronalen Netzen gibt es ein ganzes Portfolio weiterer maschineller Lernverfahren und Algorithmen, die die Qualität der Audiosignale verbessern, mit Vor- und Nachteilen. „Unsere Aufgabe wird es zukünftig sein, für jedes Anwendungs­sze­nario die passenden Methoden zu finden“, so Projektleiter Appell.

Dass für das Verfahren großer Bedarf besteht, zeigen die aktuellen Anfragen. Die Überwachung von Maschinen und insbeson­dere das Thema Predictive Maintenance (Vorausschau­ende Wartung) interessiert aktuell viele Unternehmen, besonders aus dem Automotive-Bereich.

„Ein guter erster Indikator, ob ein Erkennungs­pro­blem lösbar ist, ist das menschliche Gehör: kann man ein nahendes Maschinen­pro­blem hören, so gelingt es uns heute in der Regel auch, dies mit IT und Verfahren des maschinellen Lernens zu erkennen“, sagt Appell.

Haben Sie Interesse an Industrie 4.0? Auf unserer Themenseite Produktion der Zukunft finden Sie regelmäßig neue Videos zu Feldern wie Embedded Systems, Big Data oder auch Mensch-Maschine-Interaktionen.