Industrie 4.0 lernt hörenBeschädigte Maschinen machen eindeutige Geräusche | Trodler
TechnikAkustische Ereigniserkennung

Industrie 4.0 lernt hören

Lesezeit ca.: 4 Minuten
Hans-Jörg Munke

Hans-Jörg Munke

freier Journalist

Wenn Bauteile versagen, kündigt sich das häufig durch auffällige Geräusche an. Könnten IT-Systeme hören, ließen sich Ausfallzeiten und Wartungskosten reduzieren. Wissenschaftler des Fraunhofer Instituts für Digitale Audio Technologie (IDMT) und des Oldenburger Informatikinstituts Offis entwickeln praxistaugliche Lösungen.

05. Dezember 2017

Die Anwendungsfälle, die die Experten des Projekts ACME 4.0 (Akustische Zustandsüberwachung für Industrie 4.0) untersuchen, könnten unterschiedlicher nicht sein.

Da ist zum Beispiel die Problemstellung aus der hochautomatisierten Produktion des Chip-Herstellers Infineon: Während der Fertigung werden die mikrometerdünnen Verbindungsstücke einzelner Chips mit Hilfe eines Nadelkissens aus 200 sogenannten Cantilever-Nadeln mechanisch getestet. Dabei kann es zu Rissen in der Siliziumoxidschicht der Chips kommen, was ihre Leistungsfähigkeit stark einschränkt. Die Risse machen sich im Frequenzbereich zwischen 700 Kilohertz und 1,2 Megahertz bemerkbar.

„Der Mensch kann das nicht mehr wahrnehmen, wir haben allerdings einen Sensor entwickelt, der in diesem Frequenzbereich noch hört. Mit der entsprechenden Sensorik können wir die Daten weiterverarbeiten“, erklärt Danilo Hollosi, Medientechnologe von der Projektgruppe Hör-, Sprach- und Audiotechnologie des Fraunhofer IDMT.

Diese Erkennung kann Infineon viel Geld sparen, denn bisher durchlaufen auch defekte Chips alle Prozessschritte.

Praxisfall Axialkolbenpumpe

Im zweiten Anwendungsfall stehen Axialkolbenpumpen der Firma Bosch Rexroth im Fokus. Die rein mechanischen Bauteile kommen in Bau- und Landmaschinen sowie in der Fördertechnik zum Einsatz. Dabei wollen die Forscher untersuchen, wie weit akustische Ereigniserkennung unter dreckigen und lauten störgeräuschbehafteten Bedingungen möglich ist.

„In der Praxis tragen hier gleich mehrere Bauteile zu einem Klanggemisch im Bereich unterhalb von 20 Hertz bei“, sagt Jens-E. Appell, Leiter des IDMT-Standorts Oldenburg. Anteile können von den Getrieben, der Pumpe oder dem Motor stammen. Konkret bedeutet das für die Oldenburger Akustik-Forscher, die Geräusche aufzuzeichnen und zunächst die für die betrachtete Pumpe verantwortlichen Signalanteile herauszufiltern - zum Beispiel über eine Analyse der für die Pumpe charakteristischen Frequenzen. Hat eine der Kugeln in der Pumpe eine Unwucht, entstehen Oberwellen. „Man hört, wenn etwas mit der Maschine nicht korrekt läuft und kann das in einem sehr hoch aufgelösten Frequenzspektrum quasi fast sehen“, sagt Appell.

Und Computer können das lernen. Wichtigste Voraussetzung sind ausreichend Klangbeispiele. Damit könne man auch komplexe Signalstrukturen erkennen, ähnlich wie in der Spracherkennung, erklärt Audiotechniker und Psychoakustiker Appell. Das Knacksen auf der Wafer-Platte bei Infineon hat beispielsweise einen Anfang, ein Ende und in der Zeit dazwischen eine gewisse Struktur.

Software-Training durch neuronale Netze

Um funktionsfähige Erkennungs-Algorithmen zu erhalten, setzen die Forscher auf neuronale Netze. Die zu trainieren, erfordert zahlreiche Beispiele für gute und schlechte Signale. „Man kann automatisiert Geräusche erkennen, die dort nicht hingehören. Eine umfassende Datenbasis an Audiodaten vorausgesetzt, wird auch der normale Alterungsprozess berücksichtigt“, sagt Appell. Das System soll vom Menschen lernen, weil der in der Regel weiß, welches akustische Signal überhaupt beachtenswert ist.

Um, wie im Fall der Pumpe, Fehler zuverlässig zu unterscheiden, muss mit klassischer Audiosignal-Vorverarbeitung zunächst eine Robustheit des Signals entstehen. Die Sensoren sind so angebracht, dass sie gegen Störgeräusche möglichst abgeschirmt sind.

Einfacher haben es die Akustik-Experten bei Infineon. „In der Fabrik im Reinraum haben wir perfekt kontrollierte Bedingungen - beispielsweise immer die gleiche Temperatur und Luftfeuchtigkeit. Die Variabilität kommt nur aus dem Messvorgang“, erklärt Danilo Hollosi. Bis die akustische Ereigniserkennung zuverlässig arbeitet, sind in beiden Fällen noch rechenintensive Lernverfahren nötig.

Praxistauglichkeit im Blick

Teil des Projekts ACME 4.0 ist auch die Entwicklung praxistauglicher Sensoren für das Erkennen und Analysieren der Daten am Ort des Geschehens. „Das muss auf einer Plattform passieren, die mit möglichst wenig Energie oder energieautark funktioniert, weil wir das Gerät direkt auf die betreffenden Maschinen bauen wollen - ohne extra Verkabelung und ohne zusätzlichen Netzwerkanschluss“, sagt Frank Oppenheimer, Bereichsleiter für Industrie 4.0 im Oldenburger Informatikinstitut OFFIS. Die Elektronik sollte leistungsfähig genug sein, um die Algorithmen ausführen zu können, und zudem ein intelligentes Power-Management-System besitzen, das prüft, wieviel Energie noch vorhanden ist und wieviel angesammelt werden muss, um einen Messzyklus durchführen zu können.

Neben der Arbeit mit neuronalen Netzen gibt es ein ganzes Portfolio weiterer maschineller Lernverfahren und Algorithmen, die die Qualität der Audiosignale verbessern, mit Vor- und Nachteilen. „Unsere Aufgabe wird es zukünftig sein, für jedes Anwendungsszenario die passenden Methoden zu finden“, so Projektleiter Appell.

Dass für das Verfahren großer Bedarf besteht, zeigen die aktuellen Anfragen. Die Überwachung von Maschinen und insbesondere das Thema Predictive Maintenance (Vorausschauende Wartung) interessiert aktuell viele Unternehmen, besonders aus dem Automotive-Bereich.

„Ein guter erster Indikator, ob ein Erkennungsproblem lösbar ist, ist das menschliche Gehör: kann man ein nahendes Maschinenproblem hören, so gelingt es uns heute in der Regel auch, dies mit IT und Verfahren des maschinellen Lernens zu erkennen“, sagt Appell.