zurück zum Artikel

Maschinenlernen im Quantencomputer

Infotech
Maschinenlernen im Quantencomputer

Italienische Forscher haben ein altes Konzept auf die modernste Art von Computern übertragen. Wie sie zeigten, funktionieren neuronale Netze auch auf einem Quantencomputer.

Im Jahr 1958, in der Frühzeit der Computer-Revolution, organisierte das US Office of Naval Research eine Pressekonferenz, um eine von Frank Rosenblatt am Cornell Aeronautical Laboratory entwickelte Maschine zu präsentieren. Er bezeichnete sie als „Perzeptron“, und die New York Times berichtete, es handele sich um „den Embryo eines elektronischen Computers, der nach den Erwartungen der Navy gehen, sprechen, sehen, schreiben, sich reproduzieren und sich seiner Existenz bewusst sein wird.“

Diese Erwartungen erwiesen sich als etwas überzogen. Doch das Gerät brachte ein Forschungsfeld in Gang, das noch heute enormes Potenzial hat.

Lesen Sie dazu auch:

Quantencomputer: Er fährt hoch [1]

Alles nur simuliert? [2]

Post aus Japan: Der imitierte Quantencomputer [3]

Verdammt seltsam [4]

Ein Perzeptron ist ein einlagiges neuronales Netz. Die Deep-Learning-Netze, die in den letzten Jahren viel Interesse verzeichnet haben, sind direkte Abkommen davon. Zwar hat Rosenblatts Gerät sein übertriebenes Versprechen nie erfüllt, doch es gibt große Hoffnungen, dass es eines Tages doch noch dazu kommen wird.

Perzeptron im Quantenrechner

Heute steckt in der Informationsverarbeitung eine weitere Revolution in den Kinderschuhen: Quantencomputer. Und das wirft eine interessante Frage auf: Ist es möglich, ein Perzeptron in einem Quantencomputer zu implementieren, und wenn ja, wie leistungsfähig kann es sein?

An einer Antwort [5] darauf haben sich jetzt Francesco Tacchino und Kollegen an der Universität Pavia in Italien versucht: Sie haben das weltweit erste Perzeptron in einem Quantencomputer implementiert und dann mit einfachen Aufgaben zur Bildverarbeitung getestet.

In seiner einfachsten Form nimmt ein Perzeptron einen Vektor-Input – eine Reihe von Zahlen – und multipliziert ihn mit einem Gewichtungsvektor; das Ergebnis ist eine Zahl. Wenn diese über einer bestimmten Schwelle liegt, ist sein Output 1, ansonsten 0.

Sehen wir eine Katze?

Das hat einige nützliche Anwendungen. Nehmen wir eine Pixel-Ansammlung, die bei einem bestimmten Muster eine Reihe von unterschiedlichen Licht-Intensitäten – eine pro Pixel – produziert. Wenn diese Zahlen in ein Perzeptron eingegeben werden, produziert es als Output 0 oder 1. Das Ziel ist, Gewichtungsvektor und Schwellenwert so anzupassen, dass der Output 1 ist, wenn das Pezeptron zum Beispiel eine Katze sieht, und 0 in allen anderen Fällen.

Tacchino und Kollegen haben die frühe Arbeit von Rosenblatt mit einem Quantencomputer wiederholt. Möglich wurde das mit dem supraleitenden Quantencomputer Q-5 „Tenerife“ von IBM. Der arbeitet mit fünf Qubits und ist für jeden über das Web programmierbar [6], der einen Quantenalgorithmus schreiben kann.

Tacchino und sein Team erstellten einen Algorithmus, der einen klassischen Vektor (wie etwa ein Bild) als Input aufnimmt, ihn mit einem Quanten-Gewichtungsvektor multipliziert und dann 0 oder 1 ausgibt.

Erhöhung der Dimensionen

Der große Vorteil von Quantencomputern ist, dass sie eine exponentielle Erhöhung der Zahl der verarbeiteten Dimensionen ermöglichen. Wenn ein klassisches Perzeptron einen Input von N Dimensionen verarbeiten kann, schafft ein Quanten-Perzeptron 2 hoch N Dimensionen.

Das haben Tacchino und Co auf dem Q-5 Prozessor von IBM demonstriert. Wegen der niedrigen Zahl an Qubits ist N bei ihm gleich 2, was einem schwarz-weiß-Bild mit 2 mal 2 Pixeln entspricht. Dann fragten die Forscher: Enthält dieses Bild horizontale oder vertikale Linien oder ein Schachbrett-Muster?

Wie sich zeigte, konnte das Quanten-Perzeptron problemlos die Muster in diesen einfachen Bildern klassifizieren. „Wir zeigen, dass dieses Quanten-Modell eines Perzeptrons als elementarer nichtlinearer Klassifizierer für einfache Muster eingesetzt werden kann“, schreiben die Forscher.

Erhebliches Potenzial

Anschließend zeigen sie, wie sich das Perzeptron auch für komplexere Muster nutzen ließe. Die Leistung wäre dann aber weiter durch die Zahl der Qubits im Quantenprozessor beschränkt. Die Arbeit hat erhebliches Potenzial. Rosenblatt und andere Forscher entdeckten bald, dass ein einzelnes Perzeptron nur sehr einfache Muster erkennen kann, zum Beispiel gerade Linien. Andere Wissenschaftler jedoch fanden heraus, dass die Kombination von Perzeptrons in Schichten deutlich mehr Potenzial hat. Verschiedene andere Fortschritte und Tricks haben zu Maschinen geführt, die Objekte und Gesichter so gut erkennen können wie Menschen und selbst die besten menschlichen Go- und Schach-Spieler besiegen.

Das Quanten-Perzeptron von Tacchino und Co. befindet sich in einer frühen Phase seiner Evolution. In Zukunft wird es darum gehen, das Äquivalent von Bildern in Graustufen zu kodieren und Quanten-Perzeptrons zu mehrlagigen Netzen zu kombinieren. Immerhin ist das schon angelegt: „Unser Verfahren ist vollkommen allgemein und könnte auf jeder Plattform laufen, die universelles Quantencomputing ermöglicht.“

Eine Begrenzung ist natürlich die Verfügbarkeit von leistungsfähigen Quantenprozessoren, die mit mehr Qubits zurechtkommen. Doch die meisten Forscher in diesem Bereich sind sich einig, dass die bald gegeben sein wird. Tatsächlich hat IBM mittlerweile einen Quantenprozessor mit 16 Qubits über das Web zur Verfügung gestellt. Bis Quanten-Perzeptronnetze leistungsfähiger werden, ist es nur eine Frage der Zeit.


URL dieses Artikels:
http://www.heise.de/-4236498

Links in diesem Artikel:
[1] https://www.heise.de/tr/artikel/Quantencomputer-Er-faehrt-hoch-4132785.html
[2] https://www.heise.de/tr/artikel/Alles-nur-simuliert-4093902.html
[3] https://www.heise.de/tr/artikel/Post-aus-Japan-Der-imitierte-Quantencomputer-4055525.html
[4] https://www.heise.de/tr/artikel/Verdammt-seltsam-3997689.html
[5] https://arxiv.org/abs/1811.02266
[6] https://www.research.ibm.com/ibm-q/