PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Zum Launch des nVidia G80-Chips


Leonidas
2006-11-08, 21:46:19
Link:
http://www.3dcenter.org/artikel/2006/11-08_a.php

Leonidas
2006-11-08, 21:47:50
andere relevante 8800er Threads:

GeForce 8800 GTX und GTS-Version Review-Thread
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=331603

8800er gelistet!!!!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=330583

Gast
2006-11-08, 22:37:52
ihr habt eindeutig einen fehler in eurem datenblatt:

die 8800GTX hat 64 bi-TMUs (bei 32 adresseinheiten) und die 8800GTS dann eben 48TMUs (24 adresseinheiten), also genau doppelt so viel wie in eurer tabelle.

dass es nur halb so viele adresseinheiten gibt spielt nur bei rein bilinearem filter eine rolle, der wohl nicht mehr zeitgemäß ist ;)
kommt mindestens 2:1 bi-AF oder rein trilineare filterung zum einsatz können alle TMUs vollständig ausgelastet werden.


in wie weit man die bezeichnung Vec16-ALUs gelten lassen kann bin ich mir auch nicht ganz sicher, aber bisherige artikel und die papers von nvidia deuten eher wirklich auf 128 unabhängige skalar-ALUs hin, wo sich jeweils ein 16er-block lediglich teile des caches teilen.

Vec16-ALUs wären gegenüber bisherigen Vec4(Vec3+1) ALUs ja auch effizienzmäßig ein nachteil, und da der G80 ja eigentlich nur eine relativ geringe anzahl an ALUs hat (in bisher übliche Vec4-ALUs "umgerechnet" ja nur 32) muss er diesen nachteil eigentlich durch hohe effizienz (und natürlich den hohen takt) ausgleichen.

beim AF würde ich auch das "wieder" herausnehmen, der G80-tunneltest ist wesentlich näher an einem kreis als es jemals eine GPU bis jetzt war, die abweichungen sind wirklich nur mehr minimalst, im gegensatz zum quadrat bei alten NV-GPUs bzw. auch aktuellen ATI-GPUs.

Mailwurm
2006-11-08, 22:40:06
http://hardtecs4u.com/reviews/2006/nvidia_g80/

Kann noch nachgetragen werden.

aths
2006-11-08, 22:44:48
ihr habt eindeutig einen fehler in eurem datenblatt:

die 8800GTX hat 64 bi-TMUs (bei 32 adresseinheiten) und die 8800GTS dann eben 48TMUs (24 adresseinheiten), also genau doppelt so viel wie in eurer tabelle.

dass es nur halb so viele adresseinheiten gibt spielt nur bei rein bilinearem filter eine rolle, der wohl nicht mehr zeitgemäß ist ;)
kommt mindestens 2:1 bi-AF oder rein trilineare filterung zum einsatz können alle TMUs vollständig ausgelastet werden.Zu einer TMU gehört die Fähigkeit, Samples zu adressieren. Der G80 hat keine 64 TMUs. Das mit den Adresseinheiten ist so eine vereinfachte Darstellung von Nvidia, die der Realität nicht gerecht wird.

in wie weit man die bezeichnung Vec16-ALUs gelten lassen kann bin ich mir auch nicht ganz sicher, aber bisherige artikel und die papers von nvidia deuten eher wirklich auf 128 unabhängige skalar-ALUs hin, wo sich jeweils ein 16er-block lediglich teile des caches teilen.Worauf die Paper nicht alles hindeuten ... genau deshalb werden sie gemacht: Um einen auf die falsche Fährte zu führen.


beim AF würde ich auch das "wieder" herausnehmen, der G80-tunneltest ist wesentlich näher an einem kreis als es jemals eine GPU bis jetzt war, die abweichungen sind wirklich nur mehr minimalst, im gegensatz zum quadrat bei alten NV-GPUs bzw. auch aktuellen ATI-GPUs.In Klammern ist das "wieder" einigermaßen gerechtfertigt. Das Quadrat bei älteren GPUs bezieht sich nur auf die erste MIP.

Gast
2006-11-08, 22:52:28
Zu einer TMU gehört die Fähigkeit, Samples zu adressieren. Der G80 hat keine 64 TMUs. Das mit den Adresseinheiten ist so eine vereinfachte Darstellung von Nvidia, die der Realität nicht gerecht wird.


was aber auf die leistung keinen einfluss hat, mit AF und/oder tri-filterung verhält sich das ganze wie 64TMUs.

aths
2006-11-08, 22:53:06
was aber auf die leistung keinen einfluss hat, mit AF und/oder tri-filterung verhält sich das ganze wie 64TMUs.Wie 32 TMUs die jeweils zwei Bi-Samples pro Takt erzeugen, solange die Bi-Samples aus derselben Textur stammen.

Gast
2006-11-08, 23:04:05
Wie 32 TMUs die jeweils zwei Bi-Samples pro Takt erzeugen, solange die Bi-Samples aus derselben Textur stammen.

das ganze funktioniert auch aus 2 verschiedenen MIPs (also trilinear)

und wenn man es so sieht, dass es 32 TMUs sind die jeweils 2 bi-samples/takt erzeugen können, sollte man es wenigstens in der tabelle dazuschreiben.

wenn man sich das ganze aktuell durchließt geht man davon aus dass der G80 "nur" 32 bi-samples/takt verarbeiten kann, was aber außer in besonderen außnahmefällen nicht der fall ist.

aths
2006-11-08, 23:10:20
das ganze funktioniert auch aus 2 verschiedenen MIPs (also trilinear)Es bleibt ja dieselbe Textur.

und wenn man es so sieht, dass es 32 TMUs sind die jeweils 2 bi-samples/takt erzeugen können, sollte man es wenigstens in der tabelle dazuschreiben.

wenn man sich das ganze aktuell durchließt geht man davon aus dass der G80 "nur" 32 bi-samples/takt verarbeiten kann, was aber außer in besonderen außnahmefällen nicht der fall ist.Dass es Bi-TMUs sind, steht da nicht. Der G80-Technologie-Artikel kommt erst noch. Deshalb bin ich hier auch so wortkarg; "when it's done" wird man meine Ausführungen in aller Ausführlichkeit lesen – und kritisieren können.

Leos sehr kurze Abhandlung der Technik liegt auch darin begründet, dass es von mir noch was zu lesen geben wird. Ohne dass 3DCenter eine Karte hat – wir also bisher auch keine Filter- und AA-Tests machen konnten – also rein auf Marketing-Material basierend, werde ich jedoch nichts mehr veröffentlichen. Aus dem Parhelia-Launch habe ich gelernt.

Gast
2006-11-08, 23:13:32
Die 8800GTS ist fast schon eine Provokation...
Deutlich schneller als eine X1950XTX, die bessere BQ in jeder Hinsicht und die Verlustleistung unter Last liegt unter einer X1900XT 256 MB. Dass die 8800GTS dabei noch sehr leise ist, setzt dem ganzen die Krone auf. Allerdings muss man 50 Euro mehr bezahlen als für eine X1950XT... wobei man dafür wiederum auch D3D10-Support erhält.

Gast
2006-11-08, 23:28:59
Und da es die Speicherbausteine dann selber nur in dezimalen Größen gibt, also üblicherweise mit 16, 32 oder 64 MB, ergeben 12 solcher 64-MB-Speicherbausteine dann eben die 768 MB Grafikspeicher einer GeForce 7800 GTX (bei einer GTS sind es aufgrund des dort nur 320 Bit breiten Speicherinterface 10 Speicherbausteine und damit die dort genannten 640 MB Grafikspeicher).



Müsste das hier nicht Geforce 8800 GTX heissen?

Armaq
2006-11-08, 23:58:00
Und da es die Speicherbausteine dann selber nur in dezimalen Größen gibt, also üblicherweise mit 16, 32 oder 64 MB, ergeben 12 solcher 64-MB-Speicherbausteine dann eben die 768 MB Grafikspeicher einer GeForce 7800 GTX (bei einer GTS sind es aufgrund des dort nur 320 Bit breiten Speicherinterface 10 Speicherbausteine und damit die dort genannten 640 MB Grafikspeicher). Varianten mit den üblichen 256 und 512 MB Grafikspeicher dürfte es bei der GeForce 8800 GTS & GTX also eher nicht geben, technisch möglich wäre allerdings eine Variante der GTX mit 384 MB Speicher (bei der GTS dann 320 MB), wenn man anstatt der 64-MB-Speicherbausteine schlicht 32-MB-Typen benutzt.

Xmas
2006-11-09, 00:06:40
Was soll hier eigentlich "dezimale Größen" bedeuten?
Es heißt zudem "sparse" ohne d.

Omnicron
2006-11-09, 01:09:23
Wieso hat 3DC keine Testsamples bekommen? Gilt es jetzt auch für NV als zu kritisch? :confused:

Gast
2006-11-09, 01:23:27
Einerseits finde ich es komisch, daß HT4U eine Karte hat, 3dc aber nicht... Sind doch beide von unserem Leo, oder?
Andererseits wäre ein 3dc-Test ohne ALLE irgendwie möglichen FSAA-Modi kein 3dc-Test. Bevor also nicht raus ist, wie man den Rest aktiviert, macht es schlicht keinen Sinn ein "halb 3dc, halb Mainstream"-Review zu schreiben. Ist ja schließlich auch nicht schlimm, daß man auf ein von Sterneköchen zubereitetes Menü länger warten muss als auf Fastfood, welches einem an jeder Ecke hinterhergeworfen wird ;)

Leonidas
2006-11-09, 06:33:16
Und da es die Speicherbausteine dann selber nur in dezimalen Größen gibt, also üblicherweise mit 16, 32 oder 64 MB, ergeben 12 solcher 64-MB-Speicherbausteine dann eben die 768 MB Grafikspeicher einer GeForce 7800 GTX (bei einer GTS sind es aufgrund des dort nur 320 Bit breiten Speicherinterface 10 Speicherbausteine und damit die dort genannten 640 MB Grafikspeicher).



Müsste das hier nicht Geforce 8800 GTX heissen?




Es heißt zudem "sparse" ohne d.


Gefixt.


Zudem wurden die 2 bilinearen Samples noch erwähnt, eigentlich ist dies aber Sache von aths Artikel.

Leonidas
2006-11-09, 06:34:00
Einerseits finde ich es komisch, daß HT4U eine Karte hat, 3dc aber nicht... Sind doch beide von unserem Leo, oder?



Seit Anfang 2006 nicht mehr.

Dunkeltier
2006-11-09, 06:46:38
Seit Anfang 2006 nicht mehr.

Darf man fragen, wie es dazu gekommen ist? Wurde dir für diese Seite ein lukratives Angebot unterbreitet? Oder schweigt der Herr lieber und genießt? Ich mein, gegönnt sei es dir.

aths
2006-11-09, 10:16:36
Wieso hat 3DC keine Testsamples bekommen? Gilt es jetzt auch für NV als zu kritisch? :confused:Angesichts des Hardlaunches finde ich es verwunderlich, dass für uns keine Karte rechtzeitig da war.

Einerseits finde ich es komisch, daß HT4U eine Karte hat, 3dc aber nicht... Sind doch beide von unserem Leo, oder?
Andererseits wäre ein 3dc-Test ohne ALLE irgendwie möglichen FSAA-Modi kein 3dc-Test. Bevor also nicht raus ist, wie man den Rest aktiviert, macht es schlicht keinen Sinn ein "halb 3dc, halb Mainstream"-Review zu schreiben. Ist ja schließlich auch nicht schlimm, daß man auf ein von Sterneköchen zubereitetes Menü länger warten muss als auf Fastfood, welches einem an jeder Ecke hinterhergeworfen wird ;)Sobald ich einiges selbst testen kann, kommt der Artikel raus – in dem ohnehin schon zwei neue angedeutet werden, einer zum AF, einer zu den neuen HDR-Formaten. Beim Antialiasing ist mir einiges noch nicht in letzter Konsequenz klar, das CSAA funktioniert anders als ich erst dachte. Wie von mir von Anfang an gedacht scheint der 8x-sparse-Modus der eigentliche Fortschritt zu sein – der geht zwar zulasten der Geschwindigkeit, aber bringt eben auch volle 8x-Glättung in jeder Situation.

Der G80-Technikartikel den ich in der Pipeline habe, soll einen ersten Überblick geben und wird noch nicht überall thematische Vertiefungen beinhalten. Ziel ist es, dem Leser die nötigen Informationen zu geben, den G80 erst mal einordnen zu können. Da Bildqualität (völlig zurecht) ein wichtiges Thema für unsere Leser ist, wäre der Technik-Artikel ohne BQ-Betrachtungen unvollständig, weshalb ich auch die anderen Teile erst mal zurückhalte.

aths
2006-11-09, 10:22:48
Darf man fragen, wie es dazu gekommen ist? Wurde dir für diese Seite ein lukratives Angebot unterbreitet? Oder schweigt der Herr lieber und genießt? Ich mein, gegönnt sei es dir.Freuen wir uns, dass Leo seine ganze Aufmerksamkeit dem 3DC widmet =)

Gast
2006-11-09, 10:46:44
Is dat nischt herrlich? Diese Ruhe?!

Kein lautes Geschrei mehr über "miese" BQ, die ärgsten nVidia-Kritiker sind verstumm.

Gast
2006-11-09, 10:52:56
Beim Antialiasing ist mir einiges noch nicht in letzter Konsequenz klar, das CSAA funktioniert anders als ich erst dachte.Als Anregung:
Wenn 4xCSAA-Samples pro Multisample drin sind und 8xMSAA maximal möglich sollte doch eigentlich auch 32x auf 8xMSAA-Basis gehen. Funzt TSSAA mit den CSAA-gepimptem MSAA-Modi noch?
Wie von mir von Anfang an gedacht scheint der 8x-sparse-Modus der eigentliche Fortschritt zu sein - der geht zwar zulasten der Geschwindigkeit, aber bringt eben auch volle 8x-Glättung in jeder Situation.Jetzt noch 8xSGSSAA (gerne mit zusätzlichen CSAA-Samples) und ich überlege ernsthaft, wie viele G80 ich haben will :O
Da Bildqualität (völlig zurecht) ein wichtiges Thema für unsere Leser ist, wäre der Technik-Artikel ohne BQ-Betrachtungen unvollständig, weshalb ich auch die anderen Teile erst mal zurückhalte.(y)

aths
2006-11-09, 11:25:03
Ich halte die CSAA-Technik eher für eine Spielerei und würde lieber richtiges "Voll-Multisampling" nutzen. Mit SLI dürfte ein 16x sparse "Voll-Modus" möglich sein.

Gast
2006-11-09, 11:34:11
Vielleicht auch 24x sparse, wenn denn auch SLI mit 3 Karten ginge. Das dann mit SSAA... :eek:

Gast
2006-11-09, 12:10:27
Ich halte die CSAA-Technik eher für eine Spielerei und würde lieber richtiges "Voll-Multisampling" nutzen. Mit SLI dürfte ein 16x sparse "Voll-Modus" möglich sein.

welche (qualitätsmäßigen) nachteile hat denn CSAA gegenüger "echtenm" MSAA, und wann treten diese auf?

ezzemm
2006-11-09, 12:49:13
Is dat nischt herrlich? Diese Ruhe?!

Kein lautes Geschrei mehr über "miese" BQ, die ärgsten nVidia-Kritiker sind verstumm.

Man könnte postulieren daß sich nVidia die harsche Kritik an der Bildqualität des G70 zu Herzen genommen hat. In diesem Falle müssten die nV-Fans den nV-Kritikern dankbar sein ;)

Mailwurm
2006-11-09, 13:41:39
Einerseits finde ich es komisch, daß HT4U eine Karte hat, 3dc aber nicht... Sind doch beide von unserem Leo, oder?
Andererseits wäre ein 3dc-Test ohne ALLE irgendwie möglichen FSAA-Modi kein 3dc-Test. Bevor also nicht raus ist, wie man den Rest aktiviert, macht es schlicht keinen Sinn ein "halb 3dc, halb Mainstream"-Review zu schreiben. Ist ja schließlich auch nicht schlimm, daß man auf ein von Sterneköchen zubereitetes Menü länger warten muss als auf Fastfood, welches einem an jeder Ecke hinterhergeworfen wird ;)

Selbst wenn Leonidas noch Chefredakteur bei HT4U gewesen wäre, hätte es keinen 3DCenter-Test geben können. Dafür ist das Testsample einfach zu kurzfristig hier eingetroffen.

Um mal einen Eindruck davon zu geben, wir konnten mit dem eigentlichen Artikel schreiben erst gestern um 15.00 beginnen. Ich glaub das sagt alles.

aths
2006-11-09, 14:05:06
welche (qualitätsmäßigen) nachteile hat denn CSAA gegenüger "echtenm" MSAA, und wann treten diese auf?Dazu werde ich mich "when it's done" in einem Artikel äußern.

Mr. Lolman
2006-11-09, 14:22:54
Selbst wenn Leonidas noch Chefredakteur bei HT4U gewesen wäre, hätte es keinen 3DCenter-Test geben können. Dafür ist das Testsample einfach zu kurzfristig hier eingetroffen.

Um mal einen Eindruck davon zu geben, wir konnten mit dem eigentlichen Artikel schreiben erst gestern um 15.00 beginnen. Ich glaub das sagt alles.

Wurde vll. deswegen das NDA auf 20Uhr verlängert?

Die 8800GTS ist fast schon eine Provokation...
Deutlich schneller als eine X1950XTX

aber auch nicht überall:


http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018407.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13531.png http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13530.png http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl604_thumb.jpg

Gast
2006-11-09, 14:43:23
Wurde vll. deswegen das NDA auf 20Uhr verlängert?



aber auch nicht überall:


http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018407.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13531.png http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13530.png http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl604_thumb.jpg


du weißt aber schon dass der großteil der tests bei der ATI WA-AF+AI-standard verwendet?

ich glaub 15% im schnitt können wir da ruhig abrechnen um die ati auf eine vergleichbare BQ zu bringen.

Sindri
2006-11-09, 17:17:13
http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13530.png


Das ist doch was im Busch wenn eine einzelne 8800GTX schneller ist als im SLI oder?
Bei der 7900GTX scheint SLI ja zu gehen...

Botcruscher
2006-11-09, 18:20:32
Wann giebts das Teil eigentlich in 80nm?

aths
2006-11-09, 18:40:11
Wann giebts das Teil eigentlich in 80nm?Hätte NV das angekündigt, hätten wir es schon gesagt. Da NV nicht angekündigte Produkte nicht kommentiert, wissen wir das auch nicht. ("Gibts" bitte mit einfachem i schreiben.)

aths
2006-11-09, 18:41:58
du weißt aber schon dass der großteil der tests bei der ATI WA-AF+AI-standard verwendet?Übrigens beherrscht der G80 noch G70-mäßiges AF. Im Treiber ist das derzeit nicht aktivierbar (zum Glück) – in UT wird es allerdings zwangsaktiviert.

Gast
2006-11-09, 19:04:21
Im Treiber ist das derzeit nicht aktivierbar (zum Glück) – in UT wird es allerdings zwangsaktiviert.

gut zu wissen, weniger gut dass man es einfach ungefragt aktiviert und es möglicherweise auch keine möglichkeit gibt das zu verhindern.

finde ich allerdings doch etwas lächerlich, mit 64 TMUs sollte man eigentlich genug power für ein doch etwas in die jahre gekommenes spiel haben.

aths
2006-11-09, 19:10:58
Vielleicht haben sie bisher einfach übersehen, diese "Optimierung" für den G80 zu deaktivieren.

Gast
2006-11-09, 19:42:00
wäre natürlich denkbar, allerdings hat es für UT ja eigentlich immer "nur" zwangsbrilinear gegeben.

Mr. Lolman
2006-11-09, 20:29:17
Übrigens beherrscht der G80 noch G70-mäßiges AF. Im Treiber ist das derzeit nicht aktivierbar (zum Glück) – in UT wird es allerdings zwangsaktiviert.

inkl. Winkelabhängigkeit? UT2004 ist sicher eins der wenigen Spiele die fast ausschliesslich die TMUs belasten. Da passts gut, wenn man schnelles AF anbieten kann ;)

Gast
2006-11-09, 21:10:59
inkl. Winkelabhängigkeit? UT2004 ist sicher eins der wenigen Spiele die fast ausschliesslich die TMUs belasten. Da passts gut, wenn man schnelles AF anbieten kann ;)

auch bei heutigen high-end-karten?

ich glaube da limitiert eher die cpu, außer evtl im flyby.

RavenTS
2006-11-10, 01:31:11
Das Bild vom Chip (Package) hat mich echt umgehauen, das Teil ist wirklich ein Riesending. Erinnert mich an diverse Montecito-CPUs von INTeL mit nochsovielundmehr Cache... :biggrin:

Monger
2006-11-10, 09:07:19
du weißt aber schon dass der großteil der tests bei der ATI WA-AF+AI-standard verwendet?

ich glaub 15% im schnitt können wir da ruhig abrechnen um die ati auf eine vergleichbare BQ zu bringen.

Mit AI ist das halt so eine Sache. Man KANN es einfach nicht abschalten. Kein Mensch würde das in der Praxis machen. AI off bremst ja nicht nur gewaltig, sondern verhindert auch alle spielrelevanten Fixes, also wird die Bildqualität insgesamt davon garantiert nicht besser.

Deshalb: im Endeffekt muss man nicht Einstellungen gegeneinander vergleichen, sondern die Bildqualität. Aber auch da scheint ja nVidia jetzt ein kleines bißchen die Nase vorn zu haben...

aths
2006-11-10, 11:00:20
Mit AI ist das halt so eine Sache. Man KANN es einfach nicht abschalten. Kein Mensch würde das in der Praxis machen. AI off bremst ja nicht nur gewaltig, sondern verhindert auch alle spielrelevanten Fixes, also wird die Bildqualität insgesamt davon garantiert nicht besser.Das hängt davon ab. Dort, wo A. I. unterfiltert, wird es mit A. I. off natürlich besser.

Mr. Lolman
2006-11-10, 11:22:54
auch bei heutigen high-end-karten?

ich glaube da limitiert eher die cpu, außer evtl im flyby.

Eben und im Flyby wär der Einbruch dann auch dementsprechend höher als bei heutigen Shaderglanzspielen. Ist aber nur eine Überlegung ;)

Gast
2006-11-13, 10:12:16
Man KANN es einfach nicht abschalten. Kein Mensch würde das in der Praxis machen. AI off bremst ja nicht nur gewaltig, sondern verhindert auch alle spielrelevanten Fixes, also wird die Bildqualität insgesamt davon garantiert nicht besser.


was für spielrelevante fixes? es verhindert dass man FSAA anschalten kann wenn es mit einem spiel zu problemen kommt, das ist aber nicht zwingend notwendig ich bin durchaus fähig FSAA selbst zu deaktivieren. dann gibt es den fix für die OGL-versionserkennung von riddick, was zumindest mal relevant war, heute allerdings auch nicht mehr da riddick ja gepatcht wurde.

was gibt es sonst noch für wirklich unabdingbare fixes? mir ist keiner wirklich bekannt.

Gast
2006-11-13, 10:13:27
Eben und im Flyby wär der Einbruch dann auch dementsprechend höher als bei heutigen Shaderglanzspielen. Ist aber nur eine Überlegung ;)

selbst dort wäre man mit 64 vs 24 (bzw. 16) TMUs auch mit richtiger filterung haushoch überlegen, wahrscheinlich noch mehr als bei modernen spielen (wenn man nicht doch vorher ans cpu-limit stoßt)

Mr. Lolman
2006-11-13, 10:19:19
selbst dort wäre man mit 64 vs 24 (bzw. 16) TMUs auch mit richtiger filterung haushoch überlegen, wahrscheinlich noch mehr als bei modernen spielen (wenn man nicht doch vorher ans cpu-limit stoßt)

Das schon, aber es würde sich gleichzeitig zeigen, dass HQ doch nicht gratis ist, bzw der Einbruch von wuAF höher ist, als mit wa AF (von der Vorgängergeneration)

aths
2006-11-13, 15:17:58
Das schon, aber es würde sich gleichzeitig zeigen, dass HQ doch nicht gratis ist, bzw der Einbruch von wuAF höher ist, als mit wa AF (von der Vorgängergeneration)Das ist insofern egal da die G80-Filterleistung deutlich höher ist als die G70-Filterleistung.

Omnicron
2006-11-13, 17:41:35
Es gibt einen toten Link bei dem Nachtrag
http://www.3dcenter.org/artikel/2006/11-08_b.php
Rechts unten auf Weiter klicken.