Prozessorgeflüster

Von fleißigen Bibern und faulen Enten

Trends & News | Prozessorgeflüster

Turing-Maschinen und Clipper-Prozessoren, okay, die sind schon etwas betagt, aber dennoch gibt es hierzu Neuigkeiten, ebenso wie zu den Opteron-6386-Oldies, zu AMDs Fidschi-Inseln und zu AMD selber.

Unglaublich, was den Leuten so einfällt, etwa Programme, die nur aus MOV-Befehlen bestehen. Ja mehr noch, man kann beweisen, dass jedes „normale“ Programm vom Prinzip her allein mit MOV-Befehlen kodiert werden kann. Auch Bedingungen kann man nur mit MOV-Befehlen konstruieren. „MOV is Turing-complete“ so der Titel des Beweises, den Stephen Dolan von der University of Cambridge vor zwei Jahren veröffentlich hat. Der Computerwissenschaftler arbeitet just an der Universität, an der auch Alan Turing in den dreißiger Jahren studiert hatte – am zur Uni gehörenden King’s College. Nun hat der fleißige Programmier-Biber Dolan auch noch einen Compiler dazu gebastelt, den M/o/Vfuscator, und ihn auf GitHub gestellt.

Die Version 1.0 ist für Brainfuck ausgelegt, aber Dolan hat bereits M/o/Vfuscator 2.0 als C-Compiler angekündigt.

Langzeitrekorde

Apropos Turing-Maschinen und fleißige Biber: Turing-Maschinen sind ja die einfachst denkbaren Computer, die aber dennoch jedes „berechenbare“ Programm prinzipiell ausführen können. 1962 hat der ungarische Mathematiker Tibor Radó einen Wettbewerb namens Busy Beaver ins Leben gerufen, bei dem es darum geht, eine Turing-Maschine mit n Zuständen zu finden, die möglichst viele Einsen ausgibt und dann terminiert. Vor nunmehr über 25 Jahren haben die deutschen Informatiker beziehungsweise Mathematiker Heiner Marxen und Jürgen Buntrock in „Attacking the Busy Beaver 5“ den Rekord für eine Turing-Maschine mit 5 Zuständen und 2 Symbolen erzielt, und zwar sowohl in der Anzahl der geschriebenen Einsen (4098) als auch in der Zahl der ausgeführten Befehle (47 176 870). Das in C und ML kodierte Programm lief dabei 10 Tage auf einer Clipper-C100-CPU mit 33 MHz. Diese Clipper-CPU, ein 32-Bit-RISC-Prozessor von Fairchild, übernahm später der Grafikspezialist Intergraph, der ihn ein paar Jahre weiterentwickelte und dann einstellte. Für einige seiner Patente musste aber Intel lange Zeit später nach mehreren Rechtsstreits insgesamt 650 Millionen Dollar berappen. Nun, nach über 25 Jahren, hat man trotz vieltausendfacher Rechenleistung die auf dem Clipper-Prozessor erzielten Busy-Beaver-Rekorde immer noch nicht brechen können – das ist ja wie der noch unübertroffene Diskuswurf von Jürgen Schult aus dem Jahre 1986 …

Vielleicht sind obige Zahlen aber auch die tatsächlichen Maxima – der Beweis dafür steht aber noch aus, obwohl nur noch 0,01 Prozent der möglichen Turing-Programme untersucht werden müssen. Die Busy-Beaver-Zahlen steigen bei mehr Zuständen übrigens schneller als alle möglichen berechenbaren Zahlen. Für 6 Zustände erwartet man beim Busy-Beaver-Wettbewerb schon über 3 · 101730 Operationen.

Da können die Rechenzentren noch so sehr aufrüsten, das werden sie wohl kaum erreichen, auch der erweiterte SuperMUC des Leibniz-Rechenzentrums in München-Garching nicht. Ende Juni wird nun seine Phase 2 offiziell eingeweiht. Er dürfte in der Performance mit einem Spitzenwert von etwa 6,2 PFlops weltweit den zweiten Platz bei den „Allzweckrechnern“ hinter dem japanischen K-Computer belegen. Allzweckrechner, das sind jene Supercomputer, die ohne Spezialprozessoren wie BlueGene/Q und ohne Rechenbeschleuniger à la Nvidia Tesla oder Intel Xeon Phi arbeiten. Zwei Wochen später kommt auf der ISC15 in Frankfurt die neue Top500-Liste der Supercomputer heraus, da wird man dann sehen, wer weltweit noch mit neuen Systemen auftrumpft und den SuperMUC vielleicht noch verdrängt.

ARM64-Systeme stehen hier noch nicht zu erwarten, für High Performance Computing sind diese derzeit auch nicht wirklich ausgelegt. Kleinere Erfolge gibts bei Webservern (siehe S. 37), allerdings in sehr überschaubarem Rahmen.

Cavium will allerdings mit starken Partnern wie Cray und Lenovo in der zweiten Jahreshälfte in den HPC-Markt eingreifen. Auch Applied Micro will mithilfe von Gigabyte, Cirrascale und Nvidia mitmischen. Beide Firmen werden entsprechend auf der ISC mit ihren Prototypen auftrumpfen. Nebenbei hört man vom neuen chinesischen Start-up Phytium Technology, das auf der Hotchips-Konferenz im August seinen für HPC optimierten ARM64-Prozessor vorstellen will.

Von AMDs Opteron Seattle mit 8 ARM-Cortex-57-Kernen ist weiterhin nichts zu sehen. Stattdessen machte das Gerücht die Runde, AMD wolle sich irgendwie aufspalten. Reuters berichtete von möglichen Szenarios, die eine beauftragte Beratungsfirma ausarbeiten solle, darunter als Option eine Abspaltung der Serverchip-Sparte. Oder man splittet sich auf in eine CPU- und eine GPU-Firma. Letztere könnte man ja vielleicht ATI taufen …

Spaltereien

Aber AMDs Communications-Managerin Sarah Youngbauer dementierte umgehend, derzeit habe man kein solches Teilungsprojekt in Arbeit. „We can confirm that we have no such project in the works at this time.“ Na gut, den Passus „at this time“ kann man natürlich kurz oder weit auslegen.

Immerhin gibts auch positive AMD-News im Serverbereich. Das zur letzten Supercomputer SC14 gemeinsam mit Numascale vorgestellte größte Shared-Memory-System der Welt, zusammengestellt aus einem 6×6×3-Torus mit 108 Supermicro-Servern zu je 3 Opteron-6386-Prozessoren (Piledriver) mit Numascale-Technologie hat vor Kurzem den drei Jahre alten absoluten Stream-Weltrekord von SGIs Ultraviolett (UV 200 mit 256 Sandy-Bridge-Prozessoren) überboten. Im Stream-Triad (bei 4 Threads pro Prozessor) brillierte es mit 8,8 gegenüber 7,1 TByte/s. Ja, das sind schon recht ordentliche Bandbreiten, da können auch die schnellsten Grafikkarten nicht mithalten.

Die neuen Radeon-Grafikkarten mit den Fiji-XT-Inseln haben jedenfalls unseren Tester nicht vom Hocker gerissen (S 22). Spieleperformance mit High Bandwidth Memory – ja schon, aber kein HDMI 2.0, kein HDCP 2.2, kein Direct3D 12_1 … das ist schon etwas traurig. Und die HPC-Szene trauert noch mehr, denn die Leistung für doppeltgenaue Berechnungen wird, anders als früher, nun auch bei AMD heftig reduziert. Da folgt man offenbar Nvidias schlechtem Beispiel. (as@ct.de)

Artikel kostenlos herunterladen

Anzeige
Anzeige