Dem Fotorealismus auf den Fersen

Nvidias ‘Chief Scientist’ David Kirk äußert sich zu Eigenarten der GeForce4-Chips und AGP8

Trends & News | News

Nvidias Chefentwickler David Kirk weilte kurz vor Redaktionsschluss in München. Wir nutzten die Gelegenheit, einige Statements zu den Besonderheiten der ab Seite 130 ausführlich getesteten GeForce4-Karten einzuholen. Außerdem interessierte uns seine Einschätzung zum Nutzen des kürzlich spezifizierten AGP8-Modus.

c't: Das Spiel Giants, das DirectX-8-Funktionen wie Vertex und Pixel Shader benutzen soll, bietet auf einer GeForce4-MX-Karte fast dieselbe visuelle Qualität wie auf einer GeForce4-TI-Grafikkarte, obwohl die MX-Chips keine Vertex- und Pixel-Shader enthalten. Wie setzen die Chips diese Funktionen um?

David Kirk ist bei Nvidia ‘Vice President for Architecture’ und seit 1997 für die Entwicklung von Algorithmen und Grafikfunktionen verantwortlich.

DK: Vertex Shader werden auch vom GeForce4 MX beschleunigt und müssen nicht vollständig in Software laufen. Eine vollständige Vertex-Shader-Einheit ist sehr aufwendig. Für die MX-Chips fanden wir eine Lösung, die mit weniger Aufwand auskommt, aber trotzdem einige Vorteile einer Vertex-Shader-Einheit besitzt. Bestimmte Befehle der Vertex Shader kann der Treiber an den MX-Chip weitergeben, was die Leistung gegenüber einer reinen Softwareemulation erhöht. Pixel Shader sind mit einer MX-Karte allerdings nicht ausführbar, offenbar verwendet Giants sie nur spärlich.

c't: Nvidia sieht für den GeForce4 Ti gigantisch anmutende 128 MByte lokalen Speicher vor. Ist dies etwa aufgrund des Platzbedarfs für Vertex- und Pixel-Shader sowie Geometriedaten erforderlich?

DK: Vertex- und Pixel-Shader sind sehr kleine Programme, die kaum nennenswerten Speicher belegen. Ein Spiel benötigt zudem nur fünf oder zehn Vertex Shader, die die Game Engine allerdings zur Laufzeit nach Bedarf variieren kann, sodass man letztendlich auf einige Hundert oder Tausend Kombinationen kommt. Vertex Buffer für Geometriedaten belegen selten mehr als ein oder zwei Megabyte. Soweit nicht von Frame- und Z-Buffer belegt, steht der Speicher größtenteils für Texturen zur Verfügung.

c't: Welchen Spielraum haben Kartenhersteller bei der Festlegung der Taktfrequenzen?

DK: Nvidia macht keine strikten Vorgaben, sondern gibt nur Empfehlungen. Wenn Kartenhersteller in der Lage sind, ein Ti4600-Board mit 310 MHz statt 300 MHz stabil und zuverlässig zu takten, dann können Sie das tun.

c't: Die 2D-Bildqualität von Karten mit Nvidia-Chips mussten wir schon öfter bemängeln. Bei den GeForce4-Ti-Karten fällt der deutliche Schärferückgang bei 1600er-Desktopauflösungen auf. Woran liegt das?

DK: Ich denke nicht, dass unsere GPUs das Problem sind. In der Vergangenheit hatten wir wenig Einfluss auf die Qualität der Filterelektronik für die Ausgangssignale, die unsere Board-Partner einsetzen. Wir betreiben ein Zertifizierungsprogramm mit einigen unserer Partner, um bestimmte Standards zu sichern. Wir werden mit diesen Partnern in diesem Punkt enger zusammenarbeiten. Wenn unsere Partner von den Bedingungen abweichen, verlieren sie ihre Zertifizierung.

c't: Der TV-Ausgang von Grafikarten mit Nvidia-Chips war noch nie sonderlich nützlich, da er ein zu kleines Bild erzeugt. Videos und Spiele sind auf einem Fernseher von einem störenden schwarzen Rahmen umgeben. Warum haben Nvidias Treiber keinen Overscan-Button?

DK: Mir ist das Problem nicht bekannt. Die Hardware ist höchstwahrscheinlich in der Lage, ein größeres Bild zu erzeugen, vermutlich muss die Software den Overscan-Modus nur freischalten. Ich werde mich dafür einsetzen, dass die Treiber in der nächsten oder übernächsten Release den Overscan-Button enthalten.

c't: Das AGP-Forum hat gerade die Spezifikation für AGP8x festgelegt, womit sich die maximale Übertragungsleistung zur Grafikkarte auf rund 2 GByte/s verdoppeln soll. Bisher ist aber kaum ein Vorteil von AGP4x gegenüber AGP2x nachweisbar. Worin liegt der Sinn von AGP8x?

DK: Der Einfluss der AGP-Leistung wird weniger bei Spielen als bei einigen professionellen Anwendungen sichtbar, bei denen bestimmte Abläufe von AGP4x profitieren können. Für mich ist vor allem die Final Fantasy Demo, die wir auf der letzten SIGGRAPH auf einer GeForce3-Karte mit 15 bis 20 Bildern/s zeigten, ein wichtiges Argument für AGP8x. Die Demo läuft auf einem GeForce4 Ti4600 mit 30 bis 40 fps und ist durch AGP4x limitiert. Auf einem AGP8x-System wäre die Bildrate höher. Wir ermutigen Spieleentwickler bereits, die Szenenkomplexität auf eine Million Polygone zu erhöhen. Für die Übertragung solch großer Mengen von Geometriedaten ist AGP8x von Vorteil.

c't: Vielen Dank für das Gespräch.

Kommentare

Anzeige