TrendAugmented Reality (AR)

AR-Anwendungen erobern Business und Freizeit

Lesezeit ca.: 6 Minuten
Bernd Seidel

Bernd Seidel

freier Journalist

Augmented Reality (AR) bedeutet die computergestützte Erweiterung der Realitätswahrnehmung. Diese Information kann zwar alle menschlichen Sinne ansprechen, häufig wird darunter jedoch nur die visuelle Darstellung von Informationen verstanden, also die Ergänzung von Bildern oder Videos mit computergenerierten Zusatzinformationen. FERCHAU-Online hat nachgeforscht, wo AR momentan zum Einsatz kommt und wer daran forscht.

22. Januar 2014

Die ersten Versuche, dem Menschen visuelle Informationen einzublenden, machte Ivan Sutherland bereits im Jahr 1968. Er entwickelte eine Datenbrille, die an einem schrankgroßen Computer angeschlossen war. Diese Brille ermöglichte es dem Träger, einfache Muster in digitaler Form vor das Auge zu legen. Anfang der 90er Jahre entwickelten Tom Caudell und David Mizell eine der ersten Augmented-Reality-Anwendungen für die Firma Boeing. Es handelte sich dabei um eine Brille, die den Technikern wichtige Informationen, z.B. zu Bauteilen, einblendete.

AR ist also nicht mehr ganz taufrisch, doch erst das Internet und mobile Zugangsgeräte wie Smartphones und Tablets machen AR für jedermann nutzbar. Die vielfältigen Anwendungsmöglichkeiten umspannen heute praktisch alle Bereiche unseres täglichen Lebens wie Ausbildung, Architektur, Medizin, Konstruktion, Wartung, industrielle Produktion, Navigation, Katastrophenmanagement, Simulation oder Unterhaltung.

Obwohl Smartphones beim AR-Einsatz auf dem Vormarsch sind, wird heute von mehreren Firmen weiterhin an verbesserten Datenbrillen gearbeitet. Die „SpaceGlasses“ vom US-Start-up Meta ermöglichen nach eigenen Angaben eine natürliche Interaktion. Der Nutzer bekommt in der Brille Daten angezeigt, die über ein System aus Spiegeln und Prismen in sein Gesichtsfeld eingeblendet werden. Jedes Brillenglas hat eine Auflösung von 960 x 540 Bildpunkten, bei der der Nutzer mit seinem Gegenüber Augenkontakt halten kann. Die virtuellen Inhalte und Gegenstände sind zudem durchscheinend, so dass sie eine andere Person und die Umwelt nicht verdecken.

Ein Beschleunigungsmesser, ein Kompass und ein Gyroskop erkennen die Ausrichtung der Brille. Eine Infrarot-Tiefenkamera mit einer Auflösung von 320 x 240 Pixeln sowie eine 720p-RGB-Kamera erfassen die Position der Hände, damit der Nutzer mit virtuellen Gegenständen interagieren kann. Die Brille lässt die Fingerspitzen leuchten, was es dem Nutzer erleichtert, die Position der Hände im dreidimensionalen Raum besser abzuschätzen. Ziel sei es laut Hersteller Meta, den Computer zu ersetzen. Die Brille soll künftig dort eingesetzt werden, wo heute ein Desktop oder ein Laptop genutzt werden.

AR in der Hochschule

Für die Kommunikation zwischen Studenten und Dozenten haben Forscher an der Madrider Universität Carlos III (UC3M) das „Augmented Lecture Feedback System“ (ALFS) entwickelt. Der Dozent oder Lehrer trägt dabei eine Brille ähnlich wie Google Glass. Hierauf kann er sich Notizen anzeigen lassen, die er selbst vorformuliert hat. Interessant ist die Interaktion mit den Schülern oder Studenten: Sie können mit Hilfe eines Smartphones direkt ein Feedback geben, etwa kommentieren oder anzeigen, wenn sie etwas nicht verstanden oder eine Frage haben. Der Lehrer sieht dann über seine Brille – mit Hilfe von Augmented Reality – ein entsprechendes Zeichen über dem Gesicht des Schülers. Gedacht ist das System vor allem für größere Lerngruppen, also vor allem Hochschulvorlesungen. Die Idee ist, dass der Dozent auf das Feedback eingehen und ein Detail noch etwas genauer erklären kann, das die Studenten nicht verstehen.

Die Brille, die weiß, was man sieht

Die Wissenschaftler des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) haben das auf Geodaten aufbauende Assistenzsystem „Talking Places“ entwickelt. Es liefert über die Datenbrille selektiv ortsbezogene Informationen zu Gebäuden und Sehenswürdigkeiten und zeigt so, wie Besucher in Zukunft eine Stadt interaktiv erleben und entdecken können. An die Stelle des Abrufens von Informationen über ein konventionelles Eingabegerät, beispielsweise ein Smartphone, rückt die Auswertung von Augenbewegung und Szenenbild. Das System identifiziert Objekte visuell oder anhand ihrer Geokoordinaten und gibt dazu passende Informationen über einen Lautsprecher aus.

Der Einsatz einer Kombination aus Eye-Tracker und Head-up-Display in diesem Szenario ist Gegenstand der aktuellen Forschungen des DFKI. Dabei sollen neben den akustischen Informationen auch grafische Elemente der Realität in das Sichtfeld eingeblendet werden, beispielsweise historische Fotos von Sehenswürdigkeiten und Gebäuden, Wetterdaten, persönliche Kontakte, Wegbeschreibungen oder Angebote von Geschäften.

Orientierung in großen Gebäuden

Ein System zur „Navigation in geschlossenen Räumen“ (NAVVIS) haben Forscher der Technischen Universität München (TUM) entwickelt. Gedacht ist es für die Anwendung auf mobilen Geräten: Mit Hilfe einer App kann sich der Nutzer in einem Gebäude orientieren. Um zu navigieren, wird das Innere eines Gebäudes fotografiert und die Fotos in einer Datenbank gespeichert. Der Nutzer kann sich im Gebäude orten, indem er dort, wo er sich gerade befindet, ein Foto mit der Kamera des Smartphones macht. Das Bild wird mit der Datenbank abgeglichen und so der Standort bestimmt. Die App blendet dann Pfeile ein, die den Weg zum Ziel weisen. Daneben lassen sich aber auch weitere Inhalte einblenden, etwa Erklärungen zu Exponaten in einem Museum. Für die Positionsbestimmung nutzt NAVVIS überwiegend visuelle Informationen. Die Wissenschaftler haben dafür ein besonderes Wiedererkennungsverfahren entwickelt.

Bedienung erleichtern

Metaio stellt eine AR-Anwendung für Smartphones vor, mit der Bedienungsanleitungen in Videos eingeblendet werden, die der Anwender mit seinem Smartphone aufnimmt. Die Anwendung blendet in Echtzeit in das Videobild des Smartphones an den passenden Stellen Hinweise ein, wo der Anwender zum Beispiel seinen Drucker öffnen muss, um dessen Patronen zu wechseln. Das passiert in Echtzeit und ohne spezielle Markierungen auf dem Drucker. Da dem Drucker Hilfspunkte fehlen, die dem Smartphone die Orientierung am gefilmten Gegenstand erleichtern könnten, muss eine Mustererkennung durchgeführt werden. Nachdem das Druckermodell erkannt wurde, kann dann zum Beispiel der Pfeil, der zur Tintenpatrone zeigt, in der richtigen Perspektive und Größe ins Videobild eingeblendet werden. Künftig sind auch andere Anwendungen vorstellbar. So könnte der Nutzer von seinem Handy erklärt bekommen, wie er einfache Wartungsarbeiten an seiner Computerhardware oder an seinem Pkw durchführen kann.

Auch bei Spielen bietet Augmented Reality neuartige Möglichkeiten. Im Gegensatz zu traditionellen Computerspielen sind solche Spiele nicht an den Bildschirm gefesselt, sondern können in Kontakt mit der echten Welt treten. Sie beziehen reale Orte und Objekte mit ein. In einem solchen Spiel sprengt Google die Grenzen zwischen realer und virtueller Welt. "Enlightened" und "Resistance" sind die beiden Parteien, die im Augmented-Reality-Game „Ingress“ gegeneinander kämpfen. Die Story des Spiels: Eine neuartige Energieform ermöglicht die Kontrolle des menschlichen Gehirns. Die Erleuchteten stehen dieser Technologie aufgeschlossen gegenüber, während der Widerstand deren Nutzung zu verhindern versucht. Wer die Guten und wer die Bösen sind ist eine Frage des persönlichen Standpunkts. In Ingress laufen die Teilnehmer selbst durch die Straßen ihrer Stadt. Auf ihren Smartphones sehen sie ihre aktuelle Umgebung, versehen mit den Elementen des Spiels: Portale, Resonatoren und Mind Units.

Mit der für iOS verfügbaren App „Minecraft Reality“ von 13th Lab ist es möglich, Objekte aus Minecraft in Fotos der echten Welt einzublenden. Das Besondere ist, dass sich Klötzchengegenstände wie Schlösser, teure Autos oder sonstige Sehenswürdigkeiten mit etwas Feinarbeit halbwegs perspektivisch korrekt in den Szenen der echten Welt platzieren lassen. So ist es beispielsweise möglich, mit Blick auf das Display, etwa einer iPhone-Kamera, um den virtuellen Gegenstand herumzulaufen.

Die Liste der Beispiele ließe sich beliebig verlängern und sie zeigt: Die Zukunft der erweiterten Realität hat begonnen und niemand kann heute schon sagen, wo die Entwicklung einmal enden wird.