Die Innovationsspirale aus High Performance Computing und KI

Kaum ein Tag vergeht, ohne dass Berater oder Blogs von neuen KI-Anwendungen berichten: Bots, maschinelles Lernen, Deep Learning und mehr verändern unser Leben auf eine Art und Weise, die wir uns kaum vorstellen können. Doch was steckt dahinter, was sind die Treiber – die „Möglichmacher“ der künstlichen Intelligenz?

Es scheint bald so, dass, egal wohin man schaut, überall künstliche Intelligenz (KI) in Produkte oder Services integriert wird. Es gibt eine Menge Beispiele dafür: Bremsassistenten, Servicebots, Kalender-Apps, Inspektoren in Industrieanlagen, Bildinterpretation in der Radiologie. Bots werden das Personalmanagement übernehmen. Algorithmen entscheiden über Kreditvergabe und Anlagestrategie. Keine Innovation kommt zurzeit ohne maschinelles Lernen, Deep Learning oder andere KI aus. Es sei jetzt mal dahingestellt, wie leistungsfähig – wie stark (Stichwort: Weak AI vs. Strong AI) – die KI tatsächlich ist. Fakt ist: Das schnelle Aufkommen und die Einführung von Techniken der künstlichen Intelligenz sind erst der Anfang.

Möglichmacher und Herausforderer

KI wird in den nächsten zehn Jahren die Technologielandschaft verändern und fast alle Branchen berühren. Keine Domäne des Computings oder des gesellschaftlichen Lebens wird sich der Transformation entziehen können. Dies gilt auch für das Hochleistungsrechnen (HPC). High Performance Computing wird derzeit transformiert und ist gleichzeitig Schrittmacher der Transformation. HPC und KI ergänzen sich gegenseitig. Was bedeutet das? Einerseits haben die Early Adopters der KI sich etablierter Methoden aus der HPC-Community bedient. Für die HPC-Community ist KI wiederum ein (neues) Tool, das mehr Mehrwert, also einen größeren Nutzen, aus allen gesammelten Daten erzielen kann. KI ist der Türöffner – der Möglichmacher für Innovationen. KI bedingt selbst aber auch starke und umfassende Ressourcen.

HPC rechnet auf einem „Supercomputer“, also auf einem Computer, der an der Spitze der „jeweils heutigen“ Rechenleistung steht – insbesondere Rechengeschwindigkeit und verfügbarer Arbeitsspeicher sind hierbei essenziell. Es ist zu erkennen, dass sich Hochleistungscomputing und künstliche Intelligenz zunehmend verflechten. Dieses Zusammenspiel wird sich nochmals verstärken, wenn sich weitere neue Computer-, Speicher- und Kommunikationstechnologien sowie neuromorphe und Quanten-Computerchips durchsetzen.

Was bedeutet das in der Praxis?

Es bedeutet, dass die Entwickler, die Data-Science-Spezialisten – aber auch die Nutzer – in der Zukunft mit Modellen programmieren bzw. agieren werden, die sich gegenseitig beeinflussen und über den Speicher interagieren. Konkret auf die Praxis und Intel bezogen: Intel arbeitet unter anderem an Exascale-Systemen (das sind Systeme mit 1 Trillion Rechenschritten pro Sekunde), die hochgradig konfigurierbar und zukunftssicher sind. Durch ihre Upgrade-Fähigkeit auf grundlegend neue Technologien, darunter neuronale Netzwerkprozessoren, neuromorphe Chips, FPGAs (Field Programmable Gate Arrays, also wiederprogrammierbare Logikchips), Intel Persistent Memory und 3D NAND können diese Systeme einen gemeinsamen Nenner für HPC, KI und Datenanalyse auf Basis von Software und Hardware bilden. Also: Durch die Kombination von konsistenter Software mit unterschiedlichen Hardware-Backends lassen sich KI-Workloads durch und mit HPC bewältigen.

Anders erklärt: Performance ist alles

Wer eine starke KI will, wer wirkliche Mehrwerte erzielen will, der braucht Performance. Für künstliche Intelligenz ist Performance alles. Besonders wichtig: Bandbreite, Compute-Power, Memory und Storage sowie Konzepte für Software Optimization. Diese Performance-Treiber stehen immer in einem direkten Zusammenhang: über die Kosten. Wie Performance-Steigerung im Zusammenhang mit Kostenoptimierung geht, hat Intel mit den Innovationen für nichtflüchtigen Speicher (NVM) bewiesen. Intel-NVM bietet flexible und skalierbare Lösungen zu einem Bruchteil der Kosten für Dynamic Random Access Memory (DRAM).

Was bleibt, ist der Vorsprung

HPC wird die KI beschleunigen, verbessern und auf ein neues Niveau heben. Dies erfolgt nicht mehr nur in der klassischen HPC-Community. Die Chancen werden in immer mehr Unternehmen genutzt. HPC und KI ermöglichen es, Daten in Minuten oder Stunden und nicht mehr in Tagen oder Wochen zu analysieren. Intel wiederum ermöglicht HPC und KI. Das reicht von geeigneten Schnittstellen und Infrastrukturen wie Software-defined Memory (SDM) mit Intel-NVM über Lösungen für Software-defined Visualization oder die Intel Omni-Path-Fabric-Architektur, die derzeit durch 100-GBit/s-Verbindungen Deep-Learning-Anwendungen ermöglicht und beschleunigt, bis hin zu Application Acceleration auf Basis von Intel FPGA. Und, wie gesagt, da kommt noch mehr.

Weiterführende Informationen rund um das Thema HPC finden Sie hier.