Menü
Avatar von r00tine
  • r00tine

816 Beiträge seit 16.02.2014

Re: NewSI? Es waren die selben,die uns den Quatsch mit den Kibibyte eingebrockt

compyfreak schrieb am 26. November 2014 11:38

> Jetzt mal ernsthaft betrachtet: Wo ist das Problem mit
> "10er"-Einheiten in der IT? Eigentlich doch nur, wenn man die
> Kapazität eines Mediums beschreiben möchte, dessen Größe durch
> fortlaufende Verdoppelung entsteht. Also z.B. bei RAM. Dass ein
> RAM-Riegel streng genommen 4GiB hat und nicht 4GB ist vermutlich
> jedem halbwegs IT-Vertrauten klar, selbst wenn die Einheit "falsch"
> (also als GB) angegeben wird.

Nunja, das Problem ist, dass wir das Dezimalsystem gewohnt sind und
unsere Computer im viel natürlicheren Binärsystem rechnen. Ständig
wird Code ausgeführt, um eigentlich binäre Zahlen dezimal anzuzeigen,
damit wir Menschen es "einfach" lesen können. Würde man wenigstens
Hexadezimal benutzen, wäre die Konvertierung wesentlich einfacher, da
man nicht so krumme Zahlen benutzen muss. Für jede Dezimalstelle
braucht man rund 3.32 bits. Und da es nur "ganze" Bits gibt,
verschwendet man so über 2/3 Bits pro Stelle. (Jaja, ich weiss, bei
den heutigen Speicherpreisen fällt das kaum auf...)

> Dateien sind auch höchst selten exakt x MiB oder KiB groß, so dass es
> egal ist, ob sie nun als 153,11KiB oder 156,79kB angegeben werden.
> Die dezimale Einheit kB hat hier den Vorteil, dass ein Nutzer damit
> besser und intuitiv rechnen kann (~156.790 Byte).

Nur weil du dezimal gewohnt bist. Einen technischen Vorteil hat
dezimal nicht. Würden Zahlen üblicherweise in Hex angegeben, fändest
du binäre Einheiten viel einfacher als dezimale.

> Auch sonst fällt mir eigentlich kein Fall ein, wo es ein Problem
> wäre, auf diese althergebrachten 2er-Potenzen zu verzichten.

Und mir fällt kein Fall ein, wo es ein Problem wäre, auf diese noch
viel althergebrachteren Zehnerpotenzen zu verzichten.

> Jedenfalls ist "die EDV rechnet binär!" für mich irgendwie kein
> Argument. Nur weil die ALU in meiner CPU binär rechnet, muss ich doch
> nicht sämtliche Größen mit binär-basierten Einheiten angeben. Die
> kann auch genau so gut 1000*15 ausrechnen statt 1024*15. Man sollte
> sich danach richten, was für den Menschen einfacher ist. Und das ist
> eben fast immer die 1000er-Einheit. Nur wenn ich dem Kollege sage,
> dass er den Buffer bitte auf 2KB vergrößen soll, meine ich vermutlich
> KiB. Aber selbst wenn er dann 2000 Byte daraus macht… wäre es wohl in
> der Regel auch kein großes Problem, oder?

Kommt darauf an, ob die letzten 48 Byte gebraucht werden, oder nicht.
Ich hoffe, du hast nie etwas mit Softwareentwicklung zu tun.

> Wozu also die "1KB = 1024Byte!!!1"-Aufregung? Ich finde es gut, dass
> Ubuntu in der GUI überall mit 10er-Potenzen rechnet.

Und andere finden genau das schlecht. 

Bewerten
- +
Anzeige