El Dorado? Mit 5G lassen sich Datenströme „at the Edge“ zuverlässig orchestrieren.

    Um allerdings einen verlässlichen Datenaustausch in Echtzeit sicherzustellen, sollten Unternehmen sich jetzt verstärkt um Edge Computing kümmern.

     

     

    Autor – Aleksandar Kovačević, Sales Engineer bei InterSystems

     

    “Ein Netzstandard wie 5G beschleunigt die Informationsbearbeitung – 5G und Edge Computing ergänzen sich.”

     

    Seit Mitte 2019 sind die Frequenzen des neuen vielfach diskutierten Mobilfunknetzes 5G versteigert, doch noch immer gibt es viele offene Fragen – und das betrifft nicht nur den stockenden Ausbau. Die Bundesnetzagentur hat diesbezüglich festgelegt, dass bis Ende 2022 rund 98 Prozent der deutschen Haushalte über schnelle Datenverbindungen verfügen sollen. Während die einen 5G als Heilbringer für Digitalisierung und Innovationsstärke sehen, fürchten andere Hackerattacken und Sicherheitslücken. Auch Unternehmen und Entwickler stellt 5G vor große Herausforderungen. Eine zentrale Technologie, um mit den riesigen Datenmengen einhergehend mit 5G, IoT und anderen Trends Herr zu werden, ist Edge Computing – eine Thematik, die in der Anwendungsentwicklung zunehmend Berücksichtigung finden muss, um den schnellen und verlässlichen Austausch von Daten zu gewährleisten.

    Vielen Unternehmen ist das enorme Datenwachstum, das von Entwicklungen wie 5G oder Internet of Things forciert wird, zwar bewusst. Ihnen mangelt es aber noch an Strategien, Architekturen und Technologien, um den Datenschatz strategisch zu heben, das Beste aus den ihnen nun zur Verfügung stehenden Informationen zu machen. Ein gutes Beispiel ist in diesem Zusammenhang autonomes Fahren, beziehungsweise die immer vernetztere und smartere Generation moderner Fahrzeuge und Fahrerassistenzsysteme. Aufgrund vieler Sensoren lassen sich mittlerweile Gefahren oder Hindernisse im Vorfeld erkennen oder die Verkehrslage analysieren. Auch die Vernetzung mit anderen Fahrzeugen ist möglich.

    Edge Computing – Schrittmacher für die Datenanalyse

    Alle diese Möglichkeiten gehen jedoch einher mit einer Datenzunahme, die es zu orchestrieren, auszuwerten und bestmöglich zu nutzen gilt. Pro Tag sammelt ein modern ausgestattetes Auto rund vier Terabyte an Daten. Diese Informationen müssen in die Cloud gebracht, hier gespeichert, zusammengeführt, ausgewertet und beispielsweise für KI-Analysen genutzt werden. Das Problem: Dieses Vorgehen dauert viel zu lange.

    Im Zusammenhang mit dem 5G-Netz und um beim Fahrzeugbeispiel zu bleiben: Es geht wertvolle Zeit verloren, um etwa so schnell wie möglich auf Gefahren hinzuweisen und Unfälle zu verhindern. Cloud-Services allein sind nicht länger ausreichend. Die Bearbeitung der durch 5G noch weiter forcierten Datenflut in Echtzeit erfordert Edge Computing, das quasi als „Mini-Cloud“ zwischen datensammelndem Gerät, Maschine oder Fahrzeug dazwischengeschaltet wird. ML-Algorithmen sorgen bereits auf Maschinenebene – „at the Edge“ – dafür, dass Daten gespeichert werden und beschleunigen so die Informationsbearbeitung.

    Was genau macht Edge Computing?

    Zunächst einmal ermöglicht es Edge Computing, Daten lokal zu sammeln. Hinzukommt die Bereitstellung von Rechenleistung. Zugleich bietet Edge Computing die Möglichkeit für KI-Analysen und sucht die Daten heraus, die wirklich in der Cloud gespeichert werden müssen, irrelevante Informationen werden bereits im Vorfeld ausgesondert.

    “Edge Computing ist schneller, sicherer, direkter und verlässlicher als andere Datenarchitektur-Technologien.

    Beispiel Industrie 4.0: Auch hier wird Edge Computing auf Maschinenlevel vermehrt eingesetzt, um etwa Predictive Maintenance, also vorausschauende Wartung, zu unterstützen. Gerade sensible Daten sollen hierbei oftmals nicht sofort oder gar nicht in die Cloud gelangen. Hierbei übernimmt die Edge-Technologie im Corporate Date Center eine wichtige Gatekeeper-Funktion.

    Schnelle Wege für relevante Informationen

    Edge Computing ist daher schneller, sicherer, direkter und verlässlicher als andere Datenarchitektur-Technologien. Da Daten jedoch nicht unbegrenzt auf Maschinenebene gespeichert werden können, beschleunigt ein Netzstandard wie 5G die Informationsbearbeitung – 5G und Edge Computing ergänzen sich. So lassen sich beispielsweise aktuelle und künftige Geschäftsanforderungen, etwa der Ruf nach Losgröße 1 – Sonderanfertigungen zu den Kosten und dem Aufwand einer Serienanfertigung – in der Industrie strategischer und effizienter adressieren.

    Auch die mehr als 200 Sensoren in einem Auto oder in anderen Geräten fungieren in diesem Zusammenhang als Edge-Devices. Via WiFi, 5G und Co. kommunizieren sie miteinander und mit ihrem Umfeld, beispielsweise Geräten im Straßenverkehr, und leiten ausgewählte Daten an die Cloud weiter.

    Einheitliche und flexible Datenplattformen sind erforderlich

    Benötigt wird nun ein flexibles und leistungsstarkes Tool, das die Datenströme „at the Edge“ verlässlich orchestrieren kann. Gesucht wird eine einheitliche Datenplattform, die 5G-, Wireless- und andere Technologien ebenso unterstützt wie Machine-to-Machine-Sprachen, um Daten zu sammeln. Gleichzeitig muss eine derartige Lösung Daten effizient verarbeiten und umwandeln, dabei Geschäfts- und Sicherheitsvorgaben anwenden und den Datenfluss koordinieren können. Damit nicht genug: Ratsam ist darüber hinaus, wenn Machine Learning-Algorithmen nativ unterstützt und Konformität zu wichtigen Edge-Standards wie etwa den Vorgaben des OpenFog Consortium automatisch gewährleistet sind.

     „Gesucht wird eine einheitliche Datenplattform, die 5G-, Wireless- und andere Technologien ebenso unterstützt wie Machine-to-Machine-Sprachen, um Daten zu sammeln.“

    Schützenhilfe durch IoT

    Das Losgröße-1-Beispiel aus dem Produktionsumfeld eignet sich gut, um die Bedeutung datenplattformgesteuerten Edge Computings im Spannungsfeld von 5G und anderen Netzwerktechnologien sowie wachsenden Geschäftsanforderungen zu untermauern. Verbraucher und Partner stellen immer höhere Anforderungen an individualisierte Produkte, schnellere Lieferungen, Flexibilität und Qualität. Es gilt, Gesamtanlageneffektivität (OEE), Maschinenauslastung und Verfügbarkeit zu maximieren, Energie- und Lagerhaltungskosten aber zu minimieren.

    IoT, beziehungsweise KI-gestützte smarte Devices, leisten hierbei Schützenhilfe, denn sie ermöglichen intelligente Prozessleitsysteme und automatische (Re-)Konfigurationen. Zugleich lassen sich mithilfe von ML-Algorithmen Objekte und Anomalien erkennen sowie Roboter adaptiv steuern. Ideen und Technologien sind demnach in großem Maße vorhanden. Worauf Unternehmen und Entwickler jetzt allerdings vermehrt achten müssen, ist die Gewährleistung von Datenverfügbarkeit. Unterschiedlichste Datenquellen und Standards, Maschinen, Sensoren, Protokolle, Interfaces und mehr müssen verbunden und in Einklang gebracht werden. Es gilt, anpassbare Lösungen zu entwickeln und zu integrieren.

    Technologie setzt neue Standards

    Um veränderten Markt- und Kundenanforderungen zu entsprechen und Zukunftsfähigkeit zu forcieren, sind Services at the Edge gefordert, die moderne Standards wie 5G/pLTE unterstützen. Essenziell sind außerdem eine hohe Bandbreite und Client-Anzahl. Darüber hinaus müssen derartige Dienste verlässlich, robust und sicher sein. Dies alles setzt eine leistungsstarke Datenplattform voraus, die 5G-tauglich ist, sichere Datenverarbeitung in Echtzeit bietet – dabei Hochverfügbarkeit und ACID-Compliance beinhaltet, verschiedenste Datentypen unterstützt und sich zugleich problemlos erweitern lässt. Ein konkretes Beispiel: Die Plattform sollte in der Lage sein, unvollständige Datentransaktionen herauszufiltern, wie beispielsweise Bilder, die von einer Autokamera nicht vollständig aufgezeichnet wurden und daher nur in Teilen vorliegen.

    Eine innovative Datenplattform, die sich für den Einsatz mit Edge-Technologien eignet, sollte außerdem multi-modell-fähig sein, Multi-Workloads ermöglichen, sich durch Interoperabilität und Analyse-Funktionalitäten auszeichnen. Ein derartiges Tool unterstützt verschiedene Protokolle, Programmiersprachen, Machine Learning-Ansätze und Konnektoren zu BI-Anwendungen. Darüber hinaus ist eine Architektur vonnöten, die Interoperabilität unterstützt, einen geringen Design-Aufwand hat und sich problemlos orchestrieren lässt. Agilität, Skalierbarkeit und Hochverfügbarkeit sind essenziell. Eine stets verlässliche und in Echtzeit verfügbare Datenbasis ist das A und O jeder Edge-Anwendung. Nur dann lässt sich auch das Potenzial des IoT im 5G-Netz optimal und durchdacht nutzen.

    Résumé

    Viele Unternehmen, egal ob im Produktionsumfeld oder in anderen Branchen, stehen heute vor der Herausforderung, dass ihre Datenbanken in die Jahre gekommen sind, und dass die vielen verschiedenen Geräte, Systeme und Lösungen der unterschiedlichsten Anwender nicht nahtlos miteinander kommunizieren können. Sie sind nun aufgefordert, eine neue und vor allem zukunftsorientierte Datenstrategie zu entwickeln, die Entwicklungen wie 5G oder Edge Computing abdeckt. Kleinere Projekte schaffen die meisten mit ihren vorhandenen Systemen zumeist noch recht problemlos. Doch wer mehr will, kommt ins Straucheln und benötigt einen erfahrenen Partner.

    Das Bundesministerium für Verkehr und digitale Infrastruktur (BMVi) schreibt im aktuellen Bericht zur 5G-Strategie, dass Deutschland Leitmarkt für 5G-Anwendungen werden soll [1]. Zahlreiche Testfelder für diverse Industriezweige würden bereits heute eine Erprobung 5G-naher Anwendungen in Realumgebung ermöglichen. Das BMVi weiter: „Damit bestehen für die deutsche Wirtschaft gute Voraussetzungen, frühzeitig den Einsatz von 5G-Technik zum Beispiel in den Bereichen automatisiertes und vernetztes Fahren, Produktion, Logistik und Dienstleistung zu testen, um sie mit Start der kommerziellen Verfügbarkeit in die Arbeitsprozesse zu implementieren.“ Damit dies gelingen kann, müssen nun die nötigen Stellschrauben bei Datenspeicherung, -bearbeitung und -analyse gestellt werden, da ansonsten wertvolles Potenzial vergeben wird und deutsche Unternehmen hinter dem starken internationalen Wettbewerb hinterherhinken.

    www.intersystems.com/de

    InterSystems ist die treibende Kraft hinter den wichtigsten IT-Anwendungen der Welt. Im Gesundheitswesen, im Finanzsektor, in der öffentlichen Verwaltung und in vielen anderen Bereichen, in denen viel auf dem Spiel steht, ist InterSystems the power behind what mattersTM. Das 1978 gegründete, privat gehaltene Unternehmen mit Niederlassungen rund um den Globus hat seinen Sitz in Cambridge, Massachusetts (USA). Die Softwareprodukte von InterSystems werden tagtäglich von Millionen Menschen in über 80 Ländern genutzt.

    Referenzen

    [1]              https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/098-dobrindt-5g-strategie.pdf?__blob=publicationFile