Image: Die nächste Stufe der KIFERCHAUFERCHAUCognitive Computing – effektiver als klassische Machine-Learning-Technologien | Just_Super
TechnikCognitive Computing

Die nächste Stufe der KI

Lesezeit ca.: 4 Minuten
Sven Hansel

Sven Hansel

Freier Journalist

Wenn die momentanen Automati­sie­rungs-Phantasien tatsächlich einmal wahr werden sollen, müssen alle Beteiligten die nächste Stufe der Künstlichen Intelligenz (KI) zünden: Cognitive Computing. Eine evolutio­näre Weiterent­wick­lung von klassischen Machine-Learning-Technolo­gien.

15. Mai 2018

Der vollkommen autonom agierende Servicero­boter. Computer­sys­teme, die Sachbear­beiter überflüssig machen und sogar deren Schriftver­kehr übernehmen. Oder der Algorithmus, der ohne menschli­ches Zutun Häuserkre­dite genehmigt – kein Szenario ist derzeit zu absurd. In Sachen Artificial Intelligence überbieten sich Experten und Zukunfts­for­scher gegenseitig mit ihren Prognosen – schöne neue Welt.

Indes sind deren Bilder oft schief. Sie leugnen die Tatsache, dass die meisten aktuellen Technolo­gien in Wirklich­keit dafür gar nicht geeignet sind. Denn hier finden Denkprozesse, die diesen Namen auch wirklich verdient haben, gar nicht statt. Dazu reicht ein Blick in den Maschinen­raum.

Was ist Cognitive Computing?

Künstliche Intelligenz nach heutiger Lesart wird allzu oft mit Machine Learning gleichge­setzt. Allerdings ist diese Methode regelbasiert. Die Weiterent­wick­lung, das Cognitive Computing ist jedoch deutlich vielfältiger als Machine Learning oder gar die pure Text-Analyse. Dabei dient dieser Überbegriff für kognitive, selbstler­nende Systeme dazu, gleich mehrere kombinierte Technolo­gien zu bezeichnen, oft sogar parallel. Es kommen etwa NLP (Natural language processing, die Verarbei­tung natürlich­sprach­li­cher Informationen mit Hilfe eines Computers), klassisches Data-Mining oder semantische Analysen zum Einsatz. Oder die in den sozialen Medien sehr gängige Sentimen­t­ana­lyse (englisch für „Stimmungs­er­ken­nung“). Sie selbst filtert aus gigantischen Textmengen automatisch aus, um daraufhin eine geäußerte Haltung als positiv oder negativ zu erkennen.

Diese Fähigkeiten des Cognitive Computing sind es, die in den zu Beginn beschrie­benen, zukünftigen Geschäfts­pro­zessen den großen Unterschied ausmachen. Um das Prinzip in die Praxis zu überführen: Regelbasierte Systeme ähneln einem Welpen, der über keinerlei Erfahrung verfügt. Diesem kann sein Besitzer Kommandos antrainieren. Wenn der Hund ein neues Kommando beigebracht bekommen soll, muss sein Halter auch die bereits bekannten erneut trainieren, weil jedes neue Kommando ein bereits erlerntes wieder negativ beeinflussen könnte. Entschei­dend ist: Der Hund versteht nicht, dass „Sitz!“ tatsächlich „setz dich hin“ heißt. Sondern er hat nur gelernt, dass dieser Sound dies so meint. Sprich, das ist antrainiertes und nicht verstandenes Verhalten.

Wenn der Computer analysiert

Cognitive Computing hingegen geht weiter. Vergleichbar beispiels­weise mit einem Medizinstu­denten im ersten Semester, der sukzessive Diagnosen verstehen soll. Zwar wird er sich dafür ebenfalls Schulungs-Dokumente aneignen. Aber er trainiert dabei auch, wie deren Inhalt zu interpre­tieren ist. Kurzum: er versteht nach und eine Diagnose, er lernt, worum es geht. Er studiert die richtige Interpre­ta­tion ein und ob beispiels­weise zwei Diagnosen widersprüch­lich sind.

IBM hat es griffig auf den Punkt gebracht, indem es die Technologie mit Fähigkeiten bezeichnet, „die über das eigentliche Rechnen hinausgehen: Daten verstehen, denken, lernen, mit Menschen interagie­ren“.

Das bringt auch Mehrwert, etwa im Risikoma­nage­ment. Bereits heute beschäftigen sich global agierende Logistiker damit, ihre Supply Chain zu optimieren. Naturkata­stro­phen, weltweite Währungs­schwan­kungen, Streiks, politische Strömungen, journalis­ti­sche Texte, Informationen aus sozialen Medien – all das fließt in entsprechende Computer­sys­teme ein. Dort werden diese Informationen verstanden, entsprechend gewichtet und anschlie­ßend ausgewertet.

Assistenz im Alltag

Ein anderes Beispiel ist das Roboterpro­jekt (ASARob, Aufmerksam­keits-Sensitiver Assistenz­Ro­boter), ein Projekt mehrerer Firmen und Institute.

Hintergrund: Was für uns Menschen zu den natürlichsten, einfachsten Handlungen gehört, weil unser Gehirn darauf trainiert ist, ist für Roboter eine schwierige Angelegen­heit. Zum Beispiel einen Gegenstand entgegen­zu­nehmen oder ihn einer anderen Person zu reichen. Denn dabei ist nicht nur in Bezug auf die physische Interaktion eine gewisse Feinfühlig­keit nötig. Menschen nehmen Signale, welche die Aufmerksam­keit ihres Gegenübers reflektieren, unterbewusst wahr und verhalten sich entsprechend. Wohin schaut der andere, ist er ansprechbar? Dieselbe Sensibilität auch Robotern beizubringen, ist das Ziel des ASARob.

Das auf drei Jahre angelegte Projekt wird vom Bundesmi­nis­te­rium für Bildung und Forschung mit rund zwei Millionen Euro gefördert. Die Steuerungs­soft­ware mobiler Roboter soll hierbei so erweitert werden, dass diese den Aufmerksam­keits­zu­stand des Gegenübers erfassen und bei Bedarf durch entsprechende Aktionen auch beeinflussen können. Derlei Aufmerksam­keit und Sensibilität soll funktionieren, indem der Roboter Bewusstseins­res­sourcen bestimmten Umweltwahr­neh­mungen zuweist. Der Roboter reagiert also auf mentale Zustände. Er deutet die visuellen Informationen einer Person, wie Blickrich­tung, Kopfdrehung und Körperhal­tung. Sprachliche Äußerungen können zusätzliche Kontexthin­weise geben. Basierend auf diesen Informationen soll die künstliche Intelligenz künftig den Aufmerksam­keits­zu­stand einschätzen können.

Am Ende soll der Roboter in der Lage sein, intuitiv mit Menschen zu interagieren, und insbeson­dere auch auf ältere Menschen zugehen und diese im Alltag unterstützen können. Dazu gehört neben Gesten auch die sprachliche Kommunika­tion in Form von Dialogen. Tatsächlich eine schöne neue Welt – dank Cognitive Computing.