Technikärgernis Maßeinheiten: Warum Festplatten plötzlich schrumpfen (Spiegel Online, 9.2.2009)
Technikärgernis Maßeinheiten
Warum Festplatten plötzlich schrumpfen
Wie groß ist ein Gigabyte? Programmierer, Software-Konzerne und Festplattenhersteller haben da ganz unterschiedliche Definitionen. Weil Apple und Microsoft Standards ignorieren, schockt Anwender immer wieder plötzlicher Speicherschwund: Die Festplatte war im Laden doch größer!
Spiegel Online, 9.2.2009
Jede Woche wieder entdeckt irgendwo in Deutschland ein Computernutzer, dass ihm Unbekannte eine Menge Gigabytes gestohlen haben. Die Web-Foren sind voller Berichte über solche Speicherplatz-Diebstähle. Da kauft sich jemand eine "Festplatte mit 320 GB" und stellt fest: "Nun an XP angestöpselt – siehe da: 298 GB! Kann ich da was ändern, oder ist das normal, oder soll ich das Teil zurückbringen?"
Ein anderes Opfer vermisst "auf der 250-GB-Platte 18 GB und auf der 400-GB-Disk etwa 28 GB" und vermutet einen Defekt. Bei der Partitionierung habe die Software ja "die Festplatte mit 400 GB angezeigt, beim nächsten Programmstart auf einmal nur noch 372 GB". Der Hilferuf: "Die verlorenen 28 GB kann ich nicht finden!"
Es gibt viele wilde Theorien, mit denen
Forenautoren diesen Speicherschwund
erklären. Die Hersteller runden angeblich "großzügig auf", die
Formatierung "koste viel Speicherplatz", und: "Jede Platte braucht
einiges an Speicher für sich selbst!"
Das klingt alles ganz süß, stimmt aber nicht wirklich: Die großen
Abweichungen bei den Angaben zum Speicherplatz rühren daher, dass
Festplattenhersteller und Betriebsysteme mit zwei unterschiedlichen
Standards rechnen und einige Programmierer sich nicht entscheiden
können. Wenn auf einem DVD-Rohling "4,7 Gigabyte" Kapazität stehen und
Mac OS X nur "4,38 GB" Speicherplatz entdeckt, ist das beides irgendwie
richtig.
Zweier- oder Zehnerpotenzen?
Für Nicht-Informatiker ist es nicht ganz so einfach, das zu verstehen.
Computer arbeiten mit einem anderen Zahlensystem als wir im Alltag:
Alle Einheiten des in der Informatik genutzten Binärsystems sind
Potenzen von Zwei ( siehe Binärsystem bei SPIEGEL WISSEN).
Nur solche Zweier-Zahlen können die Transistoren in Computerchips
nachbilden – sie lassen entweder Strom fließen oder nicht, an oder aus,
eins oder null.
Weil Informatiker so sehr ans Dualsystem gewöhnt sind, beziffern
sie seit Jahrzehnten Datenmengen mit einem ähnlich aufgebauten
Maßsystem – in Zweierpotenzen. Ein Bit ist die Basis, null oder eins.
Acht solcher Bits sind ein Byte. Und zwei hoch zehn solcher Bytes, also
1024, sind ein Kilobyte. Und so rechnen die Informatiker dann weiter:
Zwei hoch 20 Bytes sind ein Mega-, zwei hoch 30 Bytes ein Gigabyte.
Der Rest der Welt rechnet aber etwas anders. Ein Kilometer hat ja
nicht 1024, sondern 1000 Meter, und eine Tonne entspricht auch nicht
zwei hoch 20 Gramm, sondern zehn hoch sechs, also einer Million Gramm.
Gewichte und Entfernungen geben zumindest Europäer mit Maßeinheiten an,
die sich in Zehnerpotenzen steigern.
Microsoft und Apple ignorieren Standards
Die Einheiten reguliert das Internationale Büro für Maße und
Gewichte. Es hat vor Jahrzehnten festgelegt, dass ein Kilo immer dem
1000-fachen des Ursprungswerts entspricht. Wenn Informatiker also von
einem Kilobyte sprechen und damit 1024 Bytes meinen, weichen sie von
einem internationalen Standard ab – um 2,4 Prozent. Dieses Kuddelmuddel
wollte das Normungsgremium für Elektrotechnik IEC im Jahr 2000 ein für
allemal beenden.
Seit November 2000 gilt, dass 1000 Bytes einem Kilobyte entsprechen
und 1000 Kilobytes einem Megabyte und so weiter. Wer das alte
Binärsystem benutzt, soll doch bitte fortan von Mebi- und Gibibytes
sprechen und als Abkürzung auch GiB statt GB verwenden, damit die
Verwirrung aufhört.
Die IEC-Normer warnten damals, die Probleme dieses
Standard-Kuddelmuddels würden mit der Zeit immer größer werden: "In
einigen Jahren wird der Speicherplatz auf herkömmlichen PC und Laptops
in Terabytes gemessen werden. Hier weichen Angaben in der
Binärmaßeinheit schon um fast zehn Prozent von der im Zehnersystem ab.
Bei Exa-Einheiten wird die Abweichung schon bei fast 20 Prozent
liegen." (siehe Tabelle unten). Je größer Festplatten werden, desto
deutlicher tritt die Verwirrung bei den Maßeinheiten zutage.
Im Jahr 2000
warnten die IEC-Normer:
"Die Probleme für Ingenieure, Kunden und Marketing-Verantwortliche
werden immer größer, deshalb haben wir einen Standard erarbeitet." Nur
leider ignorieren die beiden großen Anwender-Betriebssysteme Windows
und MacOS diesen Standard komplett und beziffern Datenmengen im guten
alten Binärformat, ohne das kenntlich zu machen. Wenn Windows und Mac
OS X behaupten, "GB" zu messen, meinen sie eigentlich "GiB". Die
Hersteller von Festplatten, Speicherkarten und USB-Sticks hingegen
nutzen ausschließlich den Zehnerstandard.
Das führt zu absurden Ergebnissen: Dass auf der Verpackung eines
DVD-Rohling 4,8 GB steht, Mac OS X und Windows aber nur 4,38 GB
entdecken, ist man inzwischen gewöhnt. Dass Apple aber in der eigenen
Werbung von 80 GB spricht, das Apple-Betriebssystem aber nur 74,21
Gigabyte ausmacht, ist schon absurd.
Apple-Sprecher Georg Albrecht argumentiert, das habe sich so
eingespielt: "Wir bauen ja die Festplatten nicht selbst und verwenden,
wie alle Hersteller, die SI-konforme Bedeutung ein GB für eine
Milliarde Byte. Ebenso verwenden alle mir bekannten Betriebssysteme die
gleiche Abkürzung GB im Binärsystem."
Warum man nicht einfach das Betriebssystem dem neuen Standard
anpassen kann, erklärt Microsoft-Sprecher Thomas Baumgärtner so: "Das
ist eine riesige Aufgabe." Alle Vorgänger-Systeme und alle Programme
nutzen ja das bei der Programmierung von Anfang an verwendete
Binärsystem. Eine Umstellung könnte zu enormen Problemen führen, deren
Ausmaß kaum abzusehen ist. "Alte Laufzeitbibliotheken könnten plötzlich
ungültig sein, Programme würden womöglich abstürzen." Baumgärtner:
"Gott hat die Welt ja nur in sieben Tagen erschaffen können, weil es
keine installierte Basis gab."
Binärsystem verwirrt Telekom
Immerhin sind die Rollen hier klar verteilt: Die großen
Anwender-Betriebssysteme halten sich nicht an den Standard, die
Hardware-Hersteller schon. In welchen Einheiten aber nun zum Beispiel
T-Online, Telekom und T-Mobile ihre Datenübertragungsraten und
Inklusiv-Volumen berechnen, ist nicht wirklich ersichtlich. Die Telekom
berechnet mal auf ihrer Web-Seite in Binärlogik, ein "Megabit habe 1024 Kilobit", T-Mobile wiederum gibt in
Zehnersystematik an, ein Megabit habe "eine Million Bit".
Eine Anfrage von SPIEGEL ONLINE vom Donnerstag, nach welchem
Standard man nun rechne, hat die Telekom bis heute nicht beantwortet.