8. Januar 2013 22:43

Re: Und trotzdem nur die Rechenleistung eines Pentium III

Exxtreme2 schrieb am 8. Januar 2013 22:33

> Und wenn sie im Idle-Modus sind dann brauchen sie auch nicht viel
> Strom.

relativ. Die Abwärme eines Xeons ist immer größer wie die von Cortex
Kernen, außerdem ist das mit Strom immer sone Sache. Momentan ist ein
vergleichbares Cortex System wesentlich unter dem eines Xeons im Idle
versteht sich.

> Das mag ja sein. Nur bleibt es dabei, es ist geschickter weniger
> Kerne zu haben, die dafür leistungsfähiger sind als umgekehrt. Das
> ist z.B. auch der Grund warum AMDs Vishera in den meisten Anwendungen
> schlecht aussieht gegen die Gegenstücke von Intel. Intel hat weniger
> Kerne, dafür ist ein Kern aber leistungsfähiger.

Kerne kannst du aber abschalten. Ergo ist das egal. Die Frage wäre
eher, was für Anwendungen hast du. Welche die dauerhaft immer wieder
aufgeweckt werden müssen oder welche die immer ein bissl verbraten.

> Dann gäbe es schon immer einen Trend zu leistungsarmen aber sparsamen
> CPUs. Und diesen Trend kann ich beim besten Willen nicht erkennen.

Dann Vergleich doch mal bitte i3 - i7 von der 1. zur 3. Generation.
Da gings Intel nur um eines und das war Leistungsarm und Sparsam. In
"normalen" Rechenzentren gibts den Trend nicht. Aber im Exascale
machen sich die Firmen schon um solche Sachen Gedanken. Nicht umsonst
versucht man immer mehr Techniken in die Rechenzentren zu stecken die
ganze Bereiche automatisch aus und wieder einschalten können je nach
Nutzungsverhalten.

> Und "Cloud" ist uralte Technik mit neuen Namen. Und sie verringert
> auch die Idle-Zeiten nicht.

Die Cloud so wie Sie es gibt ist keine alte Technik, im Gegenteil,
Sie wurde erst ermöglicht durch neuere Technologien. Die Idee
dahinter ist vielleicht Alt, aber das wars auch schon. Und die Idle
Zeit verringert sich. 
Firmen verkaufen Cloud angebote nicht weil Sie Geld machen wollen,
sondern Sie versuchen freie CPU Zeit an Kunden zu verkaufen.
Zumindest ist so das Prinzip von einigen Firmen.

> Es geht nicht um Konfiguration sondern um damit arbeiten. Ein
> langsamer Server drückt immer die Produktivität ggü. einem schnellen.

Nein drückt er nicht. Du denkst einfach zu Klein. Auf einem DC mag
das ja noch sein oder vielleicht speziellen Fileserver, jedoch
bewegen wir uns hier im Bereich von Exascale also Exabytes die
berechnet werden. Das ist eine Stufe über Petabyte dementsprechend
viele Serverinstanzen hast du auch und dementsprechend werden die
Server auch genutzt. Letztendlich machen da auch Mitarbeiter nicht
mehr viel an den Kisten. An Rollout Days werden die neuen Binarys auf
die Verteilsysteme geschoben und nach und nach wird die Software im
graceful Shutdown nach und nach erneuert. Da ist nicht mehr viel mit
Blocking I/O oder Mitarbeiter muss mal 2 Sekunden auf etwas warten.
Da geht alles Ruckzuck und vollautomatisch.

Anzeige

heise online Themen