"Smart Data": Gesundheitscheck für digitale Fabrik und digitale Gesellschaft

Das Bundeswirtschaftsministerium fördert 13 Leuchtturmprojekte für smarte Datenlösungen mit 30 Millionen Euro. Es geht um die vorausschauende Wartung von Maschinen genauso wie ums Crowdsourcing von Verkehrsinfos oder den vernetzten OP.

Lesezeit: 5 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen
"Smart Data": Gesundheitscheck für digitale Fabrik und digitale Gesellschaft
Von
  • Stefan Krempl

Es ist der Traum aller Daten-Alchemisten, aus Bits und Bytes Gold zu machen. Wege dazu möchte das Bundeswirtschaftsministerium mit einem Technologiewettbewerb rund um Innovationen aus "Smart Data" aufzeigen.

13 Leuchtturmprojekte fördert das Ressort dabei bis 2018 mit rund 30 Millionen Euro. Die beteiligten Unternehmen und Organisationen bringen weitere 25 Millionen Euro ein. Der Schwerpunkt des Programms, dessen Teilnehmer ihre Vorhaben auf einer Konferenz in Berlin vorstellten, liegt auf den Anwendungsbereichen Industrie, Mobilität und Verkehr, Energie sowie Gesundheit.

Gemeinsam hätten die Projekte das Ziel, den sich ständig vermehrenden Rohstoff Daten "zu veredeln", erklärte die parlamentarische Wirtschaftsstaatssekretärin Brigitte Zypries (SPD) zum Auftakt des Kongresses. Wie dies gehen könnte, veranschaulichte Oliver Riedel von Audi am Beispiel der geförderten Initiative "Pro-Opt" zum "Optimieren von Big Data" in der Produktion. "Wir wollen in der Lage sein, permanent eine 'Gesundheitskarte' unserer Anlagen zu erstellen", führte der Vertreter des Autobauers aus. Zu jedem Zeitpunkt solle erkennbar sein, in welchem Zustand sich eine Fabrik beziehungsweise deren Einzelteile befänden.

Brigitte Zypries (SPD), parlamentarische Staatssekretärin im Wirtschaftsministerium, stellte die Projekte zur "Veredelung" des Rohstoffs Daten vor.

(Bild: Stefan Krempl / heise online)

Bei Pro-Opt greifen die Analytiker Riedel zufolge aus allen möglichen Quellen Rohdaten ab, konsolidieren sie, bereiten sie auf, schürfen darin und bringen sie in Darstellungsformen wie Baumstrukturen, um sie dann auszuwerten. Datenlieferanten seien etwa Zulieferer, Produktion sowie Werk- und Prüfstätten, die natürlich auch einen Rücklauf in angereicherter Form erhielten. Zusätzlich werde das Controlling integriert.

"Schieres Big Data hilft uns nicht weiter", betonte der Experte. Daten würden bereits seit Längerem in Echtzeit erhoben, wobei Audi "bald im Petabyte-Bereich" lande. Auch das "Umherschicken von Milliarden von Bits" sei kein Thema mehr. Wichtig sei dabei aber die "Rechtzeitigkeit" der Datenverarbeitung. Diese könne beim autonomen Fahren bei Millisekunden liegen, bei einem Schweißroboter dagegen eher im Minutenbereich.

Der Autohersteller arbeite derzeit an einem einschlägigen Patentverfahren, verriet Riedel. Maschinen könnten damit signalisieren: "Wartung bevor kaputt." Über die anfallenden riesigen Datenmengen "lassen wir dabei die ganzen neuen Algorithmen drüberlaufen", erläuterte der Praktiker. So habe man bereits "interessante Ausreißer" gefunden und hunderttausende Euro gespart. Auch beim Auswerten von Frachtkostendaten seien nach dem Zusammenführen mit geographischen Angaben "zwei, drei schwarze Schafe" aufgeflogen. Dass Klimafaktoren sich auf die Produktqualität beim Kleben von Autoteilen auswirkten, habe sich ebenfalls mit der Methode ausfindig machen lassen.

Erst mit einer umfangreichen Datenanalyse sei auch beim Flughafen Stuttgart aufgefallen, dass sich das angeschlossene, völlig automatisiert laufende Blockheizkraftwerk in den frühen Morgenstunden regelmäßig einfach abgeschaltet habe, berichtete Albrecht Reuter von der Firma Fichtner IT Consulting, die das Projekt "SmartEnergyHub" betreut. In diesem Zeitraum werde keine Wärme gebraucht, der Speicher sei voll. Ans Einspeisen überschüssiger Energie ins Netz habe zunächst keiner gedacht. Generell soll über das Vorhaben der Prozessablauf an Infrastrukturbetrieben wie Flughäfen oder Bahnhöfen verbessert werden, wobei auch externe Quellen wie Wetterinformationen oder Tweets Reisender einbezogen werden.

Hauptsächlich aus Nutzerinformationen aus sozialen Netzwerken möchten die Partner von "iTesa" ("intelligent Traveller Early Situation Awareness") "Rechtzeitwarnungen vor Reiserisiken" aussprechen, wie Eyk Pfeiffer vom Softwarehaus travel - BA.Sys darlegte. Wichtig sei es dabei vor allem, Manipulationen und Falschmeldungen herauszufiltern.

Eine Echtzeitanalyse des Verkehrs durchführen und dabei Crowdsourcing nutzen möchten die "ExCell"-Beteiligten. Zusammen etwa mit der Stadt und den Verkehrsbetrieben experimentiere man in Dresden damit, vielfältige vorhandene Daten zusammenzubringen über eine gemeinsame Plattform und darauf bestimmte Apps aufzubauen, sagte Helmut Krcmar von der TU München. Anwendungsszenarien seien etwa die Parkplatzsuche für Handwerker und Zusteller oder das Vermitteln von "Mittransportgelegenheiten". Den eigenen Kiez besser durchleuchten und Vorlieben beispielsweise für oder gegen Laubbläser oder Solaranlagen verdeutlichen möchte das Projekt "SmartRegio", wobei die sozialen Medien ebenfalls eine entscheidende Rolle spielen sollen.

Operationssäle und ganze Krankenhäuser zu vernetzen steht im Vordergrund von "InnOPlan". Als wichtigste Bestandteile des seit Januar laufenden Projekts beschrieb Klaus Irion vom Medizintechniker Karl Storz ein "Bus-System zum Anschluss von etwa hundert Geräten derzeit", eine Video- und Bilderfassungseinheit und ein Verteilsystems für die Streams mit bis zu 10 GBit/s. Der Techniker geht davon aus, dass sich damit der Ablauf einer OP "signifikant verbessern" und es zu weniger Fehlzeiten oder Falschbesetzungen der "teuersten Einrichtungen in Klinken" komme.

Den Auftrag für die Begleitforschung haben das FZI Forschungszentrum Informatik und die Gesellschaft für Informatik (GI) erhalten. Schwerpunkte bildeten der Rechtsrahmen, wirtschaftliche Potenziale und gesellschaftliche Akzeptanz sowie Sicherheit und Datenschutz, kündigte Christof Weinhardt vom FZI an. Es brauche klare Regeln mit Opt-in, welche Daten für wie lange für welche Zwecke genutzt werden dürften, ergänzte GI-Präsident Peter Liggesmeyer.

Eine technische Infrastruktur müsse kontrollieren, ob diese Vorgaben eingehalten werden. Wolf-Dieter Lukas vom Bundesforschungsministerium hielt es für nötig, für Big und Smart Data ein "neues Prinzip" anstelle des bisherigen der Datensparsamkeit zu finden. Der EU-Rat hat hier bereits Nägel mit Köpfen gemacht, wogegen Bürgerrechtler Sturm laufen. (jk)