Image: Was ist Edge-Computing?Die Cloud wird in absehbarer Zeit an ihre Grenzen gelangen. Ist Edge die neue Cloud? | MF3d
TechnikRaus aus den Rechenzentren, rein in die Geräte

Was ist Edge-Compu­ting?

Lesezeit ca.: 4 Minuten
Annette Link

Annette Link

Freie Journalistin

Analysten prognosti­zieren: Bis 2020 soll das Internet der Dinge weltweit über 20 Milliarden Objekte umfassen – und permanent gigantische Mengen an Daten generieren. Das bringt die Cloud an ihre Grenzen. Ist Edge-Computing die Lösung?

30. Dezember 2019

Das Internet der Dinge (IoT) ist derzeit der Business-Treiber schlechthin. Als das Thema erstmals ins Blickfeld der Analysten rückte, gingen sie von bis zu 50 Milliarden vernetzter Geräte bis 2020 aus. Und auch wenn die Realität hinter diesen Prognosen zurückbleibt, derzeit sprechen Experten von 15 bis 20 Milliarden aktiver IoT-Objekte. Die gigantischen Datenmengen, die sie generieren, bringen die Cloud in absehbarer Zeit an ihre Grenzen. Dabei ist weniger die Speicher­ka­pa­zität in den großen Rechenzen­tren, als die zeitversetzte Datenver­ar­bei­tung das Problem. Beim automati­sierten Fahren etwa oder beim Ansteuern einer Maschine in der Produktion sind Rechenzeiten von wenigen Millisekunden nicht mehr hinnehmbar. Mit dem so genannten Edge-Computing soll dieses Problem gelöst werden.

Was ist Edge-Computing?

Die einen nennen es Edge, die anderen Fog, die dritten sprechen von Mist oder Embedded Cloud Computing, Private oder Hybrid Cloud. Gemeint ist das Konzept einer IT-Architektur, die die Datenana­lyse wieder näher an das IoT-Gerät heranrückt. Anders gesagt: Daten für Echtzeit­an­wen­dungen werden ohne Latenzzeiten vor Ort errechnet und nicht in der Cloud.

Im Detail unterschieden sich die Konzepte und Geschäfts­mo­delle hinter den Begrifflich­keiten. Einige Hardware-Anbieter versehen ihre intelligenten Sensoren und Geräte aus Marketing­gründen mit dem Label „Edge“: Edge-Controller, Edge-Server, Edge-Router oder Edge-Rechenzen­trum sind nur einige Beispiele. Edge steht hierbei für die Rechen- und Speicher­leis­tung, die vor Ort oder ortsnah bereitge­stellt wird – meist mit Anbindung ans Internet.

Andere definieren „Edge“ in der ursprüng­li­chen Bedeutung: als Schnittstelle zwischen digitaler und realer Welt. Eine Online-Anbindung schließt diese per se erst einmal nicht ein, was einige Unternehmen aufatmen lässt. Denn mit Blick auf Industrie 4.0 gelten IT-Sicherheit und Datenschutz nach wie vor als Schwachstelle, insbeson­dere bei Cloud-Servern außerhalb der EU. Bleiben die Daten dagegen on-premises, also im eigenen Firmennetz­werk, sinkt nicht nur das Risiko von zentralen Cyberangriffen. Auch der staatliche Zugriff, etwa im Rahmen des US-Gesetzes Cloud Act, ist ausgeschlossen.

Dezentrale Architektur, wie früher?

Also einfach zurück zu den Anfängen mit eigenen Servern? Nur auf den ersten Blick. Schließlich gilt es, KI-Anwendungen als Service in die Prozesse zu integrieren. Programmier­bare Steuerungen (SPS) müssen so leistungs­fähig sein, dass sie komplexe Algorithmen vor Ort selbst ausführen können – oder sie ziehen sich die KI-Logik von firmeneignen Miniservern. Anstelle hierarchi­scher Server-Client-Strukturen treten zudem Geräte, die direkt miteinander – also Machine-to-Machine (M2M) – kommunizieren.

Instant Data contra Big Data quasi: Die Cloud spielt bei diesem Ansatz eine eher untergeord­nete Rolle, was Google und Co. nicht gefallen dürfte. Schließlich basiert ihr Geschäfts­mo­dell auf dem Sammeln möglichst großer Datenmengen, um die eigenen Algorithmen laufend zu verbessern. Demnach ist es wenig überraschend, dass die so genannten Hyperscaler unter Edge-Computing ein Konzept verstehen, dass ihre Cloud-Technologie noch näher zu den Echtzeit­daten bringt.

Von der Edge in die Cloud

Auch bei diesem Konzept werden die erhobenen Daten nah bei den Endgeräten analysiert. Die wertvollen Analyse-Ergebnisse werden aber zudem zusammen­ge­fasst und in die Cloud übertragen. So kann die Industrie mithilfe von Big Data weiterhin Markterkennt­nisse für strategi­sche Entschei­dungen gewinnen. Dazu bringen IT-Konzerne zum Beispiel Edge-Gateways oder spezielle IoT-Datenspei­cher auf den Markt. Beispiele sind Amazons IoT Greengrass oder die Azure Databox Edge von Microsoft. Sie bringen die KI leistungs­fähig in die Nähe der Endgeräte, haben gleichzeitig aber auch performante Übertragungs­funk­tionen. Einige sprechen in diesem Zusammen­hang auch von Hybrid Cloud, da das Konzept eigene kleine Data Center vor Ort mit der Public Cloud kombiniert.

Der Router-Spezialist Cisco, der ebenfalls Gateways für das Konzept anbietet, spricht in diesem Zusammen­hang von Fog Computing, da eine Wolke aus nächster Nähe betrachtet zum Nebel wird.  Durchgesetzt hat sich der Begriff allerdings nicht – genauso wenig wie „Mist Computing“, das die Datenver­ar­bei­tung direkt in den Geräten meint.

Lokale, kleine Rechenzen­tren

Stattdessen Edge-Computing auf allen Kanälen – etwa bei deutschen Betreibern von lokalen Rechenzen­tren oder von Mobilfunk­sta­tionen, die ebenfalls als ortsnahe Data Center fungieren können. Letztere Lösung wird Mobile Edge-Computing genannt und ist vor allem im Consumer-Bereich, wie etwa für Echtzeit-Smartphone-Apps oder Streaming­dienste interessant – oder nach der flächende­ckenden Einführung von 5G auch fürs automati­sierte Fahren.

Ob über Wellen oder Glasfaser, Serverbe­treiber definieren ihren Service als Edge-Computing, da die Datenver­ar­bei­tung nur wenige Hops vom IoT-Gerät, meist mit maximal zwei Sprüngen, erfolgt. Wobei mit „Sprung“ der Weg von einem Netzwerk­knoten zum anderen gemeint ist. In diesem Konzept ist eine KI bzw. größere Rechenleis­tung direkt beim Anwender nicht vorgesehen.

Keine einheitli­chen Standards

Einheitliche Standards gibt es für keinen der Edge-Computing-Ansätze. Unternehmen kommen derzeit nicht um proprietäre, also hersteller­ab­hän­gige Systeme herum. Das industrie­ge­trie­bene Edge-Computing Consortium Europe (EECC) will das ändern. Ende Oktober 2019 hat es sich zum dritten Mal getroffen. Ergebnisse liegen aber noch nicht vor.