Cloud Computing vs. Edge Computing

Das Internet der Dinge (Internet of Things, kurz: IoT) ist unbestritten einer der Megatrends der nächsten Jahre. Gartner schätzte im letzten Jahr, dass bis zum Jahr 2020 weltweit bereits 20,4 Milliarden Geräte mit dem Internet verbunden sein werden[1]. Jedes dieser Geräte wird dabei kontinuierlich Daten erzeugen. Doch wie werden wir zukünftig solche Datenmengen beherrschen können?   Große IoT-Plattformen wie AWS IoT von Amazon, PTC Thingworx oder Siemens MindSphere setzen aktuell darauf, verschiedenste Sensoren und IoT-Devices auf den eigenen Cloud-Servern integrieren zu können, um darauf aufbauend Datenanalysen und -visualisierungen vornehmen zu können. Je mehr Daten jedoch in einem bestimmten Zeitintervall an eine solche IoT-Plattform übertragen werden müssen, desto performanter muss die jeweilige Internet-Anbindung, über die diese Daten versendet werden sollen, sein. Die hierfür benötigte Bandbreite sollen zukünftig die bereits angekündigten 5G-Netze bereitstellen. Ein Termin, ab wann 5G-Netze aber tatsächlich flächendeckend im Einsatz sein werden, lässt sich derzeit nur schwer abschätzen. Selbst wenn genügend Bandbreite zur Verfügung steht, so gibt es immer noch zahlreiche Szenarien in denen die Latenzen, welche beim Versenden von Daten an einen Cloud-Server und das Warten auf die entsprechende Antwort(en) entstehen, zu groß sind, um den jeweiligen Use Case zielgerichtet ausführen zu können (Stichwort Echtzeitanforderung). Hinzu kommt, dass möglicherweise sensible Daten nicht an im Ausland stehende Cloud-Server übertragen werden sollen bzw. dürfen. Einen Ausweg zur Überwindung der genannten Herausforderungen stellt das sogenannte Edge Computing dar, welches von Gartner als eines der Top 10 strategischen Technologietrends für das Jahr 2018 genannt wird[2]. Die Idee hierzu stammt vom Netzwerkausrüster Cisco, welcher im Jahr 2014 den Begriff „Fog Computing“ geprägt hat (durchgesetzt hat sich jedoch die von IBM, Microsoft und Weiteren verwendete Bezeichnung „Edge Computing“). Ziel einer Edge Computing Infrastruktur ist es dabei, bestimmte Daten bereits am Ort ihrer Entstehung (der „Edge“) verarbeiten zu lassen, dadurch schneller die benötigten Ergebnisse zu erhalten und obendrein den Internet-Traffic zu reduzieren, da somit weniger Daten an Cloud-Server übertragen werden müssen. Mögliche Anwendungsfelder für Edge Computing sind laut dem 2015 als non-profit Organisation gegründeten Open Fog Consortium unter anderem[3]:  

  • Bildgebende Verfahren zur Untergrundbeschaffenheit bei der Exploration von Öl- und Gasvorkommen
  • Intelligente Gebäudeinfrastrukturen
  • Autonomes Fahren
  • Patienten-Überwachung oder auch der
  • gleichzeitige Einsatz beliebig vieler Drohnen für die Paketlieferung in einem begrenzten Gebiet

[1] Gartner. n.d. Prognose zur Anzahl der vernetzten Geräte im Internet der Dinge (IoT) weltweit in den Jahren 2016 bis 2020 (in Millionen Einheiten). Statista. Zugriff am 3. Mai 2018. Verfügbar unter https://de.statista.com/statistik/daten/studie/537093/umfrage/anzahl-der-vernetzten-geraete-im-internet-der-dinge-iot-weltweit/. [2] Gartner. 2017. Gartner Top 10 Strategic Technology Trends for 2018. Zugriff am 3. Mai 2018. Verfügbar unter https://www.gartner.com/smarterwithgartner/gartner-top-10-strategic-technology-trends-for-2018/ [3] Open Fog Consortium. 2018. Architectural Fog Computing Resources. Zugriff am 3. Mai 2018. Verfügbar unter https://www.openfogconsortium.org/resources/