Big Data auf kleinen Chips

Die Datenflut ihrer Experimente droht Forschern über den Kopf zu wachsen. Nun hat das Karlsruher Institut für Technologie (KIT) zusammen mit dem Big-Data-Spezialisten Blue Yonder einen Chip entwickelt, der schon einmal aussortieren soll.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen
Von

Die Datenflut ihrer Experimente droht Forschern über den Kopf zu wachsen. Nun hat das Karlsruher Institut für Technologie (KIT) zusammen mit dem Big-Data-Spezialisten Blue Yonder einen Chip entwickelt, der schon einmal aussortieren soll.

Bei den Experimenten an aktuellen Teilchenbeschleunigern, zum Beispiel am CERN in Genf, suchen Wissenschaftler nach kleinsten Strukturen in der Materie. Während eines Experiments nehmen Sensoren riesige Mengen an Informationen auf. Damit diese überhaupt zu bewältigen sind, nutzen die Forscher Algorithmen, die entscheiden, bei welchen Messungen die Wahrscheinlichkeit hoch genug ist, dass ein interessantes Teilchen vorhanden ist. Nur diese Messungen der Detektoren werden dann weiter analysiert, andere nicht. "Bei den aktuellen Experimenten werden zuerst alle Daten ausgelesen und anschließend in riesigen Rechnerfarmen, in denen 30.000 Prozesse parallel rechnen, ausgewertet", erklärte Michael Feindt, Nuklearphysiker am Karlsruher Institut für Technologie (KIT) und Gründer von Blue Yonder, auf dem Technology Review Innovationskongress 2015. "Diese haben dann ein bisschen Zeit, um festzustellen: Ist das Ereignis für uns interessant oder nicht?"

Michael Feindt

Für eine neue, noch im Bau befindliche Anlage genügt die Verarbeitungsgeschwindigkeit der Computer jedoch nicht mehr. Im Belle-II-Experiment am japanischen Forschungszentrum KEK lösen hochauflösende 3D-Kameras 40 Millionen mal pro Sekunde aus. Es müssen zwei Milliarden Entscheidungen pro Sekunde getroffen werden. Die Menge der erzeugten Daten ist selbst für aktuelle Parallelrechencluster zu hoch. Zudem stoßen die an ihre Kapazitätsgrenzen. Die Forscher um Feindt verlegten die Algorithmen daher auf den Chip, der die Sensoren steuert. Der Chip entscheidet, was wichtig ist, und nur die interessanten Aufnahmen gelangen zur Auswertung. Die zu Grunde liegende Technologie ist zwar etabliert. "Allerdings hat bisher noch niemand einen komplexen Big Data-Algorithmus darauf gebaut", berichtet Feindt. "Das Design für solch eine Steuerung ist sehr kompliziert. Physiker aus unterschiedlichen Fachrichtungen haben dafür zusammengearbeitet."

Geht es nach ihm, würde die Nutzung des Chips über die Grundlagenforschung hinausgehen. "Unsere Vision ist, dass man einerseits lokale Intelligenz hat, andererseits aber auch Informationen austauschen kann, um sie in der Cloud oder in einer Zentrale weiter zu verwerten", erklärt Feindt. "Diese Intelligenz möchten wir wieder zurück an die dezentralen Intelligenzen schicken, so dass die Entscheidungen dort besser gefällt werden können."

Ein Beispiel wäre die Notbremsung bei einem intelligenten Auto. Sie muss sehr schnell und damit lokal gesteuert passieren. Gleichzeitig entstehen dabei aber auch Daten, die wertvolle Zusatzinformationen enthalten: Wie lange war der Bremsweg? Wie war der Straßenzustand? Kommen Informationen aus tausenden intelligenten Fahrzeugen zusammen, ließen sich Notsituationen zuverlässiger berechnen. Hier käme nun der Big-Data-Chip ins Spiel: Sein Hierarchiesystem würde entscheiden, welche Ereignisse wichtig genug sind, um sie aufzuheben – und gegebenenfalls an einen Großrechner weiterzuleiten. "So können komplexe Statistiken erstellt werden, aus denen etwas gelernt werden kann", hofft Feindt.

Wenn es zur Notbremsung kommt oder bei massiven Beschleunigungen, sichert er – ähnlich wie ein Flugschreiber – alles, was von den vorhergehenden Ereignissen noch im Speicher ist und sendet es an eine Zentrale. Andere Chips können dann von dieser Erfahrung lernen, die Notfallsteuerung ließe sich so ständig optimieren. Noch ist das allerdings eine Vision. Erst "in fünf bis zehn Jahren" könnte es so weit sein, gibt Feindt zu. Zunächst muss der Big-Data-Chip seine Fähigkeiten in der Grundlagenforschung beweisen. (bsc)