Zum Inhalt springen

Schwungvoll, ohne Taktgefühl (Die Welt, 26.11.2002)

Konrad Lischka
Konrad Lischka
3 minuten gelesen

Schwungvoll, ohne Taktgefühl

Der Chiphersteller Intel geht mit seinem jüngsten Prozessor Pentium 4 HT neue Wege. Gleichzeitig stellt sich die Frage: Wann sind die physikalischen Grenzen der Rechenkraft erreicht? Experten sehen diesen Zeitpunkt fast gekommen

Die Welt, 26.11.2002

Diesmal ist es nicht so spannend, dass Intels neuer Prozessor schneller geworden ist – sondern wie. Der Chipriese stellte bei der Präsentation nicht die Rekordtaktfrequenz des neuen Pentium-Prozessors in den Mittelpunkt, sondern das Kürzel „HT“ hinter der Gigahertzzahl. Es steht für Hyper-Threading. Diese Technologie, und vor allem ihre offensive Vermarktung, ist tatsächlich eine kleine Revolution im Prozessorengeschäft. Bislang betonten die Chipbauer die rohe Rechenkraft der Prozessoren, bewarben Taktfrequenz und Anzahl von Transistoren als ihre wesentlichen Eigenschaften.

Vergleichen lässt sich das mit einem Koch, der in immer aberwitzigerer Geschwindigkeit die Gerichte für seine Gäste kocht – eines nach dem anderen. Einfach gesagt, lässt Hyper-Threading nun den Koch nicht nur schneller, sondern vor allem an mehreren Teilaufgaben gleichzeitig arbeiten: Mit einem Arm kann er die Soße anrühren und mit dem anderen das Fleisch wenden. Die Arme sind beim neuen Pentium 4 HT die so genannten logischen Prozessoren. Sie teilen sich viel der vorhandenen Infrastruktur, deshalb verändern sich beim Pentium 4 mit Hyper-Threading gegenüber der normalen Version nicht mal fünf Prozent der Chipoberfläche. So bleiben die Produktionskosten gleich. Solche intelligenten Innovationen werden beim Chipbau immer wichtiger, um die Geschwindigkeit konstant weiter zu erhöhen. Denn bei den bisherigen Methoden sind die Grenzen der Physik heute zumindest schon in der Ferne zu erkennen – zum Beispiel bei der Taktfrequenz.

Die gibt an, wie viele Male je Sekunde Elektronen durch die Transistoren und Schaltkreise des Prozessors fließen. Drei Gigahertz Taktfrequenz bedeutet gut drei Milliarden Durchläufe je Sekunde. Einer dieser Durchläufe dauert dabei weniger als eine Nanosekunde. In dieser Zeit legt Strom eine Strecke von vielleicht sechs Zentimetern zurück. Diese beschränkte Geschwindigkeit ist die natürliche obere Grenze für Taktfrequenzen; zumindest, wenn man am heutigen Designprinzip festhält, nach dem ein Elektron auch den längsten Weg im Prozessor innerhalb eines Taktes zurücklegen können muss. Auch bei der Steigerung der Transistorenanzahl steht man vor einem physikalischen Problem. Transistoren sind so etwas wie Schalter, die je nach Zustand entweder Strom leiten oder nicht. Diese Eigenschaft ist die Basis des binären Systems von Nullen und Einsen. Das Problem dabei: Transistoren isolieren nicht vollkommen. Der Reststrom produziert Hitze, Energie geht verloren.

Das Mooresche Gesetz, das Intel-Mitgründer Gordon Moore 1965 in einem Artikel aufstellte, besagt nun aber, dass sich alle 18 Monate die Anzahl der Transistoren auf einem Chip verdoppelt und dadurch die Leistung. Gehen aber die Chipentwickler das Energieproblem nicht an, setzt die Physik zumindest einen Teil des Mooreschen Gesetzes außer Kraft. Vielleicht wird sich die Prozessorleistung weiter verdoppeln, nicht aber die Transistorenmenge. Denn ginge es so weiter wie bisher, müssten Prozessoren in gut fünf Jahren gar die Wärmedichte eines Nuklearreaktors erreichen. IBM und Intel experimentieren heute bereits erfolgreich mit neuen, reineren Isolierschichten.

Mit diesen Materialien soll es möglich sein, in naher Zukunft eine Milliarde Transistoren auf einen Chip zu packen, 20 Mal so viel wie derzeit. Im Moment aber scheint eine bessere Auslastung der bisherigen Infrastruktur der vielversprechendste Weg zu sein. Doch Intel kann ihn nicht allein gehen. Hyper-Threading baut darauf, dass die Programmierer eine Software in mehreren logischen Einzelteilen ablaufen lassen – eben in Threads. Hier wird deutlich, dass die Geschwindigkeit von Computern nicht allein vom Geschickt der Chipdesigner abhängt. Hyper-Threading bringt nur mit abgestimmter Software Leistungsvorteile. Als Betriebssystem empfiehlt Intel Windows XP oder Linux mit einer Kernel-Version über 2.4. In Tests arbeiteten Programme wie Photoshop oder After Effects mit Hyper-Threading bis zu einem Viertel schneller. Spiele hingegen arbeiten kaum in Threads, von Leistungssteigerung daher keine Spur. Die Programmierer könnten den heutigen Prozessoren noch viel Geschwindigkeit entlocken. Ähnlich sieht es auf der Hardwareseite aus.

Die engsten Nadelöhre in heutigen Systemen liegen außerhalb der Chips: Oft muss der Prozessor etliche Nanosekunden lang auf Daten aus dem Arbeitsspeicher warten, eine kleine Ewigkeit. Wegen solcher Probleme schätzen Intel-Entwickler die durchschnittliche Auslastung eines Pentium-4-Prozessors auf 40 Prozent. Es ist also noch einiges machbar – auch diesseits der physikalischen Grenzen.

Konrad Lischka

Projektmanagement, Kommunikations- und Politikberatung für gemeinnützige Organisationen und öffentliche Verwaltung. Privat: Bloggen über Software und Gesellschaft. Studien, Vorträge + Ehrenamt.
Immer gut: Newsletter abonnieren


auch interessant

Wer investiert in die Zukunft, wenn alle sparen?

Der common senf aktueller Debatten um Staatsausgaben, Tarifverhandlungen und Zinspolitik scheint mir gerade ein gefährlicher: Alle sollen sparen. Der Staat soll weniger ausgeben und damit der Gesamtwirtschaft Geld entziehen. Arbeitnehmer sollen Reallohnverluste akzeptieren, sparen und damit der Gesamtwirtschaft Geld entziehen. Und Unternehmen sollen sparen, bloß keine Kredite aufnehmen für Investitionen

Wer investiert in die Zukunft, wenn alle sparen?

Paradox der Gegenwart

Einerseits sehen so viele Menschen ihre individuellen (Konsum)Bedürfnisse als das wichtigste Gut, als absolut schützenswert. Überspitzte Maxime: Was ich will, ist heilig – alles geht vom Individuum aus. Andererseits erscheint genauso viele Menschen das Individuum ganz klein, wenn es darum geht, etwas zu verändern in der Welt. Überspitzte Maxime: Ich

Paradox der Gegenwart

Wie Schmecken funktioniert

Gelernt: Geschmack und Aroma sind zwei ganz unterschiedliche Wahrnehmungen. Für jede ist ein anderer Teil im Gehirn verantwortlich. Und jede basiert auf unterschiedlichen Daten: Für den Geschmack kommen Eindrücke von der Zunge, fürs Aroma von Rezeptoren in der Nase. Beides vermischt das Gehirn zum Gesamteindruck Schmecken. Sehr lesenswerter Aufsatz darüber

Wie Schmecken funktioniert