iX 3/2018
S. 106
Wissen
Rechenzentren
Aufmacherbild

Kurz erklärt: Edge Computing

Nur am Rande

Bei Anwendungen für das Internet der Dinge reichen Datenvolumen und Latenzzeiten klassischer Cloud-Dienste nicht mehr aus. Dezentrale Netzarchitekturen können Abhilfe schaffen.

Zentralistische und dezentrale Konzepte wechseln sich in der IT in langen Zyklen ab: vom Mainframe über verteilte Client-Server-Architekturen zurück zu großen Rechenzentren für Cloud-Dienste und zur Sammlung großer Datenmengen (Big Data). Zeit für einen weiteren Paradigmenwechsel? In der Tat propagiert die Industrie inzwischen Edge Computing: das Verarbeiten der Daten näher an ihrem Entstehungsort. Edge bezeichnet den Rand des Netzes, an den sich eine Verteilerebene (Access Layer) mit Verbindung zu Endgeräten und Sensoren anschließt.

Geräte werden smart

Neue Netzarchitekturen sind insbesondere deshalb erforderlich, weil immer mehr Maschinen und Geräte mit Funkchips ausgerüstet sind und viele neue Sensoren verbaut werden. Sie erzeugen inzwischen so viele Daten, dass weder die vollständige Übertragung noch die längerfristige Speicherung sinnvoll ist. Wenn etwa ein Flugzeugtriebwerk während eines Langstreckenfluges ein halbes Terabyte Daten generiert, so wird deutlich, dass eine orts- und zeitnahe Bewertung stattfinden muss, was davon übertragen und gespeichert werden soll.

Die Anwendungsfälle für Edge Computing entstammen meist dem IoT-Umfeld, denn die neuen Funktechniken wie LoRaWAN oder Sigfox sind schmalbandig und bedürfen keiner permanenten Internetverbindung. Eine Vorverarbeitung direkt am Sensor kann die übertragene Datenmenge deutlich reduzieren. Es stellt sich allerdings die Frage, ob man bestimmte Daten überhaupt noch in ein Rechenzentrum übertragen oder nicht gleich komplett vor Ort speichern und verarbeiten will. Dies kann in räumlicher Nähe zu den Endgeräten erfolgen, etwa in Mobilfunkbasisstationen, Straßenlaternen oder Fahrzeugen. Damit skaliert eine Edge-Architektur gut, was in Bezug auf die Vernetzung von Millionen IoT-Devices und Sensoren von besonderer Bedeutung ist. Allerdings wächst auch die Komplexität, wenn man definieren muss, welche Daten wo zu verarbeiten sind.

Verarbeitung in Echtzeit

Wer die Spracherkennungssoftware seines Smartphones nutzt, ist sich kaum der Tatsache bewusst, dass die Verarbeitung nicht im Gerät selbst, sondern in einem weit entfernten Server stattfindet. Moderne Mobilfunkprozessoren könnten das mittlerweile selbst ausführen.

Das läuft aber den Geschäftsmodellen vieler Cloud-Provider zuwider, die im Sammeln und Auswerten möglichst großer Datenmengen bestehen. Hierin liegt jedoch die Chance, durch Vorverarbeitung weniger kritische Daten in die Cloud zu schicken. Hinzu kommt, dass Echtzeitanwendungen ein deterministisches Zeitverhalten erfordern, das die Kommunikation mit Cloud-Rechenzentren nicht bieten kann. So wird beim autonomen Fahren der Großteil der Informationen direkt zwischen den Fahrzeugen (Car-to-Car) oder mit Kommunikationspunkten an der Strecke ausgetauscht. Durch die Verlagerung von Intelligenz und Rechenleistung in Geräte, Maschinen und Fahrzeuge erreicht man eine höhere Autonomie. Deshalb wird Echtzeitfähigkeit als ein zentraler Treiber für Edge-Architekturen angesehen.

Sowohl als auch

Wie schon bei Cloud-Services bringt Edge Computing keine grundsätzlich neuen Hardwarearchitekturen hervor. Vielmehr werden unter dieser Bezeichnung kleine, multifunktionale Server in kompakten Gehäusen angeboten, die häufig für den Einsatz außerhalb klimatisierter Rechenzentren ausgelegt sind. Drahtlose Schnittstellen wie ZigBee oder 6LoWPAN schlagen Brücken in die IoT-Welt und Feldbussysteme erlauben direkten Anschluss an Steuerungen und Automatisierungslösungen. Auch die umgekehrte Entwicklung findet statt: Klassische programmierbare Steuerungen (SPS) werden durch den Einsatz von Multicore-Prozessoren so leistungsfähig, dass sie mehr Daten verarbeiten können – dadurch entwickeln sie sich zu einem Edge-Controller. Einen zweiten Trend bilden kleine, dezentrale Rechenzentren. Neben Co-Locations bieten sich hierfür die vorhandenen Mobilfunk- und Festnetzstandorte der Serviceprovider an.

Edge Computing ist als Erweiterung bestehender Netzarchitekturen zu verstehen, nicht als deren Ablösung. Vielmehr stellt sich die Aufgabe, Daten stets möglichst nah am Ort ihrer Entstehung vorzuverarbeiten. In vielen Fällen wird es in Zukunft eine Kombination aus beidem geben: Am Sensor oder Endgerät werden Daten aggregiert und gefiltert, um dann im Rechenzentrum dauerhaft aufbewahrt, visualisiert und analysiert zu werden (Data Mining, Analytics). Neben dieser hierarchischen Architektur kommunizieren zunehmend Endgeräte direkt miteinander (Machine-to-Machine Communication, Ad-hoc Networking).

Dabei erfordert Edge Computing neue Sicherheitskonzepte, weil die Daten nicht mehr in den Hochsicherheitstrakten der Rechenzentren liegen. Auf der anderen Seite trägt es aber auch zu mehr Datensicherheit bei, wenn ein Großteil der Daten vor Ort verbleibt. (tiw@ix.de)

Kommentieren