Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread
Seiten :
1
[
2]
3
4
5
6
7
8
9
10
11
12
13
14
http://www.computerbase.de/artikel/hardware/grafikkarten/nvidia_geforce_6800_ultra/4/#technische_daten
oder schau hier bei der Pipeline und der Pixelfüllrate
ist evtl deutlicher
Original geschrieben von Gast
also schau mal:
6800U 16x1 mal 400 MHz
5950U 4x2 mal 475 MHz
so was ist nun schneller
rechne mal selber
Mir gehts nur um den Takt,der Chip könnte doch locker die 475 Mhz vertragen und trotzdem noch Reserven für den NV45 haben oder nicht.
Original geschrieben von Gast
Ich möchte mal wissen warum die Ultra nur 400 Mhz hat ,warum haben sie nicht etwas mehr gegeben ?
Ich mein die aktuellste Karte hat doch schon 475,wenn sie diesen Takt genommen hätten würde man doch noch besser dastehn.Soll der NV45 nicht schon im Juni vorgestellt werden also sehr kurz nach dem NV40 ?
Werden dann auf 450 oder sogar 500 gehn,die ATI XT soll ja 600 Mhz haben,NV sollte da nicht sparen.
wegen den fast 75% (rechnen war nie meine staerke :D ) mehr transistoren :) ... da laesst sich der chip halt nicht soeinfach so hoch takten...
und ja die werden auf dieser basis dann vermutlich noch refreshchips mit hoeherem takt anbieten
Benedikt
2004-04-14, 23:31:48
Original geschrieben von zeckensack
Es kann dir dann passieren, dass dir (am Y-Verteiler, nicht an den Anschlüssen an der Karte) die Kontakte abbrennen ;(
Hängt alles davon ab, wie gut die Stecker in Schuss sind. Molex-"Weibchen" sind recht anfällig für Verbiegen, wodurch der Kontakt schlechter wird, bzw die Stromstärke dann eben über eine kleinere Kontaktfläche muss.
Aber trotzdem seltsam. Ich möchte da noch mal nachhaken:
--> NV hat sich ja sicher dabei was gedacht, 2 Molexe vorzusehen. Wenn ich die jetzt per Y-Verteiler an ein und dieselbe Leitung hänge, ist das wirklich empfehlenswert - ich meine: über 2 echte Leitungen kann man halt die doppelte Leistung transportieren...
MFG,
BW
Original geschrieben von Benedikt
Aber trotzdem seltsam. Ich möchte da noch mal nachhaken:
--> NV hat sich ja sicher dabei was gedacht, 2 Molexe vorzusehen. Wenn ich die jetzt per Y-Verteiler an ein und dieselbe Leitung hänge, ist das wirklich empfehlenswert - ich meine: über 2 echte Leitungen kann man halt die doppelte Leistung transportieren...
MFG,
BW
naja empfehlenswert is das bestimmt nicht...
aber dann quelmt die leitung halt nich direkt an der teuren karte :D
ironMonkey
2004-04-14, 23:37:43
Original geschrieben von Benedikt
Aber trotzdem seltsam. Ich möchte da noch mal nachhaken:
--> NV hat sich ja sicher dabei was gedacht, 2 Molexe vorzusehen. Wenn ich die jetzt per Y-Verteiler an ein und dieselbe Leitung hänge, ist das wirklich empfehlenswert - ich meine: über 2 echte Leitungen kann man halt die doppelte Leistung transportieren...
MFG,
BW
Die 6800Ultra braucht ja nicht viel mehr als eine 5950 und deswegen sollte das mit dem Y Stück auch ohne Probelme gehen.
Problem könnte nur sein das die Kabel etwas wärmer werden da ja über die Leitung etwas mehr Strom fließt.
2xMolex muss genommen werden wegen der Sicherheit/Norm.
Gruß
SKYNET
2004-04-14, 23:49:24
Original geschrieben von dildo4u
http://www.nordichardware.com/reviews/graphiccard/2004/nv40/index.php?ez=13 test mit anderen games als immmer nur UT2004
Max Payne 2
1280x1024, 4xAA/8xAF
GeForce 6800 Ultra
122.6
Radeon 9800 XT
105.9
GeForce 5950 Ultra
79.6
Tomb Raider
1280x1024
GeForce 6800 Ultra
58.9
Radeon 9800 XT
54
GeForce 5950 Ultra
33.9
Battlefield 1942
1280x1024, 4xAA/8xAF
GeForce 6800 Ultra
94.7
Radeon 9800 XT
90.1
GeForce 5950 Ultra
58.4
Guck euch das mal an schon nicht mher soo krass der unterschied wenn man mal ein paar nicht treiber optemierte games testet
falsch, das kommt daher weil die CPU limitiert.
bei 1600*1200 wird die 6800U kaum einbrechen die anderen beiden 50% und emhr einbüßen.
Karlsson
2004-04-14, 23:52:42
Original geschrieben von Benedikt
Aber trotzdem seltsam. Ich möchte da noch mal nachhaken:
--> NV hat sich ja sicher dabei was gedacht, 2 Molexe vorzusehen. Wenn ich die jetzt per Y-Verteiler an ein und dieselbe Leitung hänge, ist das wirklich empfehlenswert - ich meine: über 2 echte Leitungen kann man halt die doppelte Leistung transportieren...
MFG,
BW
Hm, die Frage wird interessanter. Was liegt eigentlich für ne Spannung an sonner Graka an? 3,3V? 5V?
Bei 3,3V und 100Watt Leistung würden immerhin ca. 30A anliegen. Das klappt mit Sicherheit nicht allein über ein oder zwei von diesen 0,75qmm Käbelchen.
Was ist mit´dem Agp? Was geht darüber?
Riptor
2004-04-14, 23:53:29
Original geschrieben von Gast
Die Karte verbrät bis zu 95 Watt.....stimmt ein geiles Stück hahahaa
Nv ist mir solchem Verbauch und der abartigen Lautstärke wohl eher technologisch im Rückstand
Putzig, wie manche wieder versuchen einem die Suppe nach allen Regeln der Kunst zu versalzen. :naughty: Tja, wird wohl Zeit für die allgemeine Wasserkühlung. :)
ironMonkey
2004-04-14, 23:59:03
Original geschrieben von Karlsquell
Hm, die Frage wird interessanter. Was liegt eigentlich für ne Spannung an sonner Graka an? 3,3V? 5V?
Bei 3,3V und 100Watt Leistung würden immerhin ca. 30A anliegen. Das klappt mit Sicherheit nicht allein über ein oder zwei von diesen 0,75qmm Käbelchen.
Was ist mit´dem Agp? Was geht darüber?
Wie kommst du auf 30A?????da bräuchte man schon langsam 5qmm²´Kabel......
Gruß
Das wundert mich auch,seid wann macht man mit dem Takt Rückschritte ?
Der NV45 soll doch diesmal extrem kurz nach dem NV40 kommen richtig ?
Vielleicht hauen sie mit dem NV45 die Taktschraube auf 500 und mehr.
Irgendwo muss das Gerücht mit den 600 Mhz ja herkommen hm ?
zeckensack
2004-04-15, 00:11:51
Original geschrieben von Benedikt
Aber trotzdem seltsam. Ich möchte da noch mal nachhaken:
--> NV hat sich ja sicher dabei was gedacht, 2 Molexe vorzusehen. Wenn ich die jetzt per Y-Verteiler an ein und dieselbe Leitung hänge, ist das wirklich empfehlenswert - ich meine: über 2 echte Leitungen kann man halt die doppelte Leistung transportieren...
MFG,
BW NVIDIA muss sich an die Spezifikation dieser Stecker halten, weil man die Dinger nicht einfach nach Wunsch verbessern kann. Welche Stecker auf dem Board drauf sind, kann NV mehr oder weniger steuern, aber die Stecker die der Kunde im Rechner rumbaumeln hat eben nicht. Und da gilt: 5A pro Pin ist zulässig, für mehr garantiert dir niemand. Es könnte natürlich trotzdem gehen, aber darauf kann und darf man sich einfach nicht verlassen, wenn man nicht verklagt werden möchte.
Diese Spezifikationen sind aber dennoch ernstzunehmen. Frag mal bei 2CPU.com nach abgebrannten Tyan-Dual-AMD-Boards, da wird man dir viele interessante Geschichten zutragen :D
Bei den meisten betroffenen ist der ATX-Stecker abgebrannt ...
Es ist übrigens keine große Leistung das der NV40 jetzt nur knapp vorn liegt.
NV braucht 16 Pipes um eine ATI mit ihren 8 Pipes knapp zu schlagen.
ATI kommt in diesem Monat mit Karte die 12 Pipes hat und dazu noch einen hohen Takt. Kurze Zeit später sogar noch die XT mit 16 Pipes.
Der R420 hat sehr gute Karten
Karlsson
2004-04-15, 00:15:29
Original geschrieben von ironMonkey
Wie kommst du auf 30A?????da bräuchte man schon langsam 5qmm²´Kabel......
Gruß
Bei 3,3V= 3,3V x 30A = 100Watt
Bei 5V= 5V x 20A = 100Watt
Klar, über (2x)0,75qmm geht das nicht.
Muss wohl einiges über den AGP gehen, deshalb fragte ich danach.
Der R420 hat gute Karten, und ich denke letztendlich wird es auf PS3 gegen PS2 hinauslaufen. Ich orakel jetzt einfach mal dass ATI bei PS2 noch etwas schneller sein wird als der NV40, aber ob das reicht um das fehlende Feature wettzumachen ist die große Frage. Ausserdem wird sich das nV Marketing (zu Recht) auf PS3.0 stürzen und eine große Offensive starten.
Was die Rohleistung angeht denke ich werden sich beide sehr ähnlich sein.
Quasar
2004-04-15, 00:17:40
Original geschrieben von Demirug
Farcry ist auch stark Bandbreiten limitiert. Hört sich merkwürdig an ist aber so.
Das muss aber auf einem hohen niveau sein. Auf meiner FX5800U konnte ich den Speicher um 2/5 runtertakten und es hatte nur einen marginalen Effekt.
zeckensack
2004-04-15, 00:18:05
Original geschrieben von Karlsquell
Hm, die Frage wird interessanter. Was liegt eigentlich für ne Spannung an sonner Graka an? 3,3V? 5V?
Bei 3,3V und 100Watt Leistung würden immerhin ca. 30A anliegen. Das klappt mit Sicherheit nicht allein über ein oder zwei von diesen 0,75qmm Käbelchen.Der allseits beliebte "Festplatten"-Molex liefert 12 V und 5 V, mit jeweils eigener Masseleitung. 5A auf allen Pins.
Macht 60W aus der 12V-Schiene und 25W aus der 5V-Schiene. Ob das NV40-Board beide Spannungsschienen nutzt, müsste noch geklärt werden. Ich würde mal tippen dass das nicht der Fall ist, und eine reine 12V-Speisung erfolgt (das vereinfacht die Reglerschaltung).
Was ist mit´dem Agp? Was geht darüber? Kurz: 42 Watt
Lang:
3,3 V bei 6 A
5 V bei 2 A
12 V bei 1 A
Den AGP-Stecker zur Energieversorgung zu nutzen, lohnt sich hier IMO nicht.
Godmode
2004-04-15, 00:25:10
Original geschrieben von Gast
Es ist übrigens keine große Leistung das der NV40 jetzt nur knapp vorn liegt.
NV braucht 16 Pipes um eine ATI mit ihren 8 Pipes knapp zu schlagen.
ATI kommt in diesem Monat mit Karte die 12 Pipes hat und dazu noch einen hohen Takt. Kurze Zeit später sogar noch die XT mit 16 Pipes.
Der R420 hat sehr gute Karten
Ich will ja nicht motzen, aber wenn ich mir die Benchmarks ansehe ist da nicht die Rede von knapp geschlagen, eher vernichtend geschlagen, natürlich nicht überall, aber für nicht finale Treiber finde ich persölich das Ergebnis sehr gut.
Und solange es keinen R420 gibt braucht hier keiner über den NV40 blöd motzen, da es wirklich ein ordentlicher Chip geworden ist. Bis auf das langsame 8X AA und ATI AA.
Wenn der R420 dann da ist, und er wirklich so schnell wird wie einige vermuten, dann könnt ihr ihn von mir aus schlecht machen, aber nicht jetzt
cRaZy78
2004-04-15, 00:37:56
Hab mal ne Frage...
Kann man die Karte schon irgendwo vorbestellen...
Weil der Artikel hat mich sowas von HEISS auf die Karte gemacht das glaubt man gar nicht :)
VooDoo7mx
2004-04-15, 00:39:31
Original geschrieben von Ulukay
*vorbestell*
WO? WO? WO?
Hellfire-Torrod
2004-04-15, 00:45:00
Sind wir nicht alle ein bischen....K R A N K ?:chainsaw: :kotz:
Und asu diesem grund schließe ich mich dem an : Wo? Wo? Wo?
Also wer sich die NV40 jetzt schon vorbestellt ist wirklich dumm. Erstmal würde ich abwarten was der R420 macht, kostet und aussieht.
Karlsson
2004-04-15, 00:47:36
Original geschrieben von zeckensack
Der allseits beliebte "Festplatten"-Molex liefert 12 V und 5 V, mit jeweils eigener Masseleitung. 5A auf allen Pins.
Macht 60W aus der 12V-Schiene und 25W aus der 5V-Schiene. Ob das NV40-Board beide Spannungsschienen nutzt, müsste noch geklärt werden. Ich würde mal tippen dass das nicht der Fall ist, und eine reine 12V-Speisung erfolgt (das vereinfacht die Reglerschaltung).
Kurz: 42 Watt
Lang:
3,3 V bei 6 A
5 V bei 2 A
12 V bei 1 A
Den AGP-Stecker zur Energieversorgung zu nutzen, lohnt sich hier IMO nicht.
Stimme dir bezüglich 12V zu, da für die 5V Umsetzung zusätzliche Spannungswandler gebraucht würden und die Pmax von 2x60Watt ja ausreicht, die FX6800 zu speisen.
Was meinst du mit AGP "lang" bzw. "kurz" ? Und wieso max 42 Watt auf´m AGP? Das reichte ja nichtmal für meine FX5200, oder lieg ich da falsch? :)
cRaZy78
2004-04-15, 00:47:55
Original geschrieben von thop
Also wer sich die NV40 jetzt schon vorbestellt ist wirklich dumm. Erstmal würde ich abwarten was der R420 macht, kostet und aussieht.
Einmal nVidia immer nVidia... Das ist meine Meinung...
Godmode
2004-04-15, 00:48:29
Original geschrieben von Gast
Das ist doch schon krankhaft
Ich kaufe meistens die Refreshversionen, da später sicher noch einige schlechte Dinge beim NV40 ans Tageslicht kommen, die man jetzt nicht kennt. Und ich würde auch noch warten bis ATI ihren R420 rausbringt und mal schauen was uns der so alles bringt.
@Gast: dein Post ist genau so sinnlos wie dass was du gequotet hast.
cRaZy78
2004-04-15, 00:52:15
Hat man jetzt eigendlich genau gesagt wann die 6800U in den Regalen steht???
Original geschrieben von cRaZy78
Hat man jetzt eigendlich genau gesagt wann die 6800U in den Regalen steht???
frühestens Ende Mai
Original geschrieben von cRaZy78
Einmal nVidia immer nVidia... Das ist meine Meinung...
Das kannste ja so machen, aber falls der R420 besser wird als erwartet dann wird nV auch etwas unter Druck gesetzt und der Preis geht evtl. etwas nach unten - gut für dich! Wenn du jetzt schon vorbestellst zahlste sowieso den Premiumpreis.
Wie gesagt FALLS, aber vor dem 26. weiß man es nicht.
ironMonkey
2004-04-15, 00:54:12
Original geschrieben von thop
Also wer sich die NV40 jetzt schon vorbestellt ist wirklich dumm. Erstmal würde ich abwarten was der R420 macht, kostet und aussieht.
Du glaubst doch nicht im ernst das ATI 30% oder so schneller sein wird????????
AA und AF sind jetzt auch gleich, Leistung hat die 6800Ultra mehr als genug.........
Gruß
Was ich glaube ist total egal, und wie kommst du darauf dass ATI 30% schneller sein soll? Ich sage nur dass man nichts weiß vor dem 26ten, es kann alles passieren: Die R420 ist rasend schnell oder saulahm. Aber bevor ich das nicht weiß würde ich keinen einzigen Pfennig ausgeben!
Godmode
2004-04-15, 00:56:31
Original geschrieben von Gast
Genau,der intelligente Mensch schaut sich die beiden Karten genau an und wählt dann nach Preis und Leistung.
Aber es soll ja immer wieder Deppen geben,die alles kaufen wo NV drauf steht,egal wie teuer und wie langsam ;D;D;D
Ich wollte sie eigentlich noch gar nicht kaufen, hab sie geschenkt bekommen, ich darf dir leider nicht sagen von wo.
@gast: bist du nagus :) ?
das schreibt einer auf www.atinews.net
"ich hoffe das die karten von nvidia und ati gelich gut sind und damit die preise auch dann gut werden.
ich werd dann bestimmt zu einer nvidia rüberlaufen, weil sie ja nen bridge chip hat und somit auf agp und pci express funzt.
ich glaub das ist nen großer vorteil dieser bridge chip.";D ;D ;D
cRaZy78
2004-04-15, 00:59:45
Original geschrieben von thop
Das kannste ja so machen, aber falls der R420 besser wird als erwartet dann wird nV auch etwas unter Druck gesetzt und der Preis geht evtl. etwas nach unten - gut für dich! Wenn du jetzt schon vorbestellst zahlste sowieso den Premiumpreis.
Wie gesagt FALLS, aber vor dem 26. weiß man es nicht.
Ach das Geld soll nicht das Problem sein... Ich benutze nVidia Karten schon seit Jahren und hatte NIE Probleme mit der Karte bzw mit einem Spiel... Deshalb werd ich auch diesmal wieder zur GeForce greifen.
Original geschrieben von bans3i
dann guck mal auf www.atinews.de :)
loel ja ich kenn das forum..allerdings hat ichs nicht als so "rot" in erinnerung
Steel
2004-04-15, 01:02:40
Original geschrieben von ironMonkey
Du glaubst doch nicht im ernst das ATI 30% oder so schneller sein wird????????
AA und AF sind jetzt auch gleich, Leistung hat die 6800Ultra mehr als genug.........
ATI hatte diesmal alle Zeit der Welt um einen Nachfolger für die R3** Chips zu entwickeln.
Ich würde mich jetzt nicht wirklich wundern, wenn dieser dann die NV40 genauso smoken würden, wie damals der R300 die GF4600...
ROFL
Godmode
2004-04-15, 01:03:10
Was man eigentlich ob der Ansiotropische Filter nur in SW oder auch in HW so implementiert ist?
DrumDub
2004-04-15, 01:04:38
Original geschrieben von bans3i
Was man eigentlich ob der Ansiotropische Filter nur in SW oder auch in HW so implementiert ist?
nein. bisher noch nicht. aths wollte sich drum kümmmern bzw. nachfragen.
zeckensack
2004-04-15, 01:04:51
Original geschrieben von Karlsquell
Was meinst du mit AGP "lang" bzw. "kurz" ?Kurze Antwort und lange Antwort ;)
Und wieso max 42 Watt auf´m AGP? Das reichte ja nichtmal für meine FX5200, oder lieg ich da falsch? :) Doooch, das reicht. Was für die Geforce4 Ti4600 reichte, reicht für die FX5200 ganz sicher auch :)
Die erste Serienkarte die mehr Energie brauchte war die Radeon 9700Pro mit ~55Watt (andere R300-Varianten zT auch, die kamen aber später auf den Markt).
Godmode
2004-04-15, 01:05:28
Original geschrieben von Steel
ATI hatte diesmal alle Zeit der Welt um einen Nachfolger für die R3** Chips zu entwickeln.
Ich würde mich jetzt nicht wirklich wundern, wenn dieser dann die NV40 genauso terminieren würden, wie damals die GF4600...
ROFL
Naja soviel Zeit hatten die nicht, da sie ja vorher am R400 gearbeitet haben, den sie dann eingestampft haben, da die Ziele zu hoch gesteckt waren. IIRC haben sie 1 Jahr daran gearbeitet, bin mir aber nicht ganz sicher, aber 1 Jahr ist nicht viel inder Graka Entwicklung.
NV40 wird glaube ich seit 2k2 entwickelt
DrumDub
2004-04-15, 01:08:08
Original geschrieben von bans3i
ich werd dann bestimmt zu einer nvidia rüberlaufen, weil sie ja nen bridge chip hat und somit auf agp und pci express funzt.
ich glaub das ist nen großer vorteil dieser bridge chip.";D ;D ;D
häh? wie willste denn ne agp-karte in nen pci-e slot stecken oder umgekehrt? der bridgechip hat einzig und allein den vorteil, dass man nur einen chip produzieren muss und nicht zwei, wie beim r420 (agp) und r423 (pci-e).
DrumDub
2004-04-15, 01:09:07
Original geschrieben von zeckensack
Die erste Serienkarte die mehr Energie brauchte war die Radeon 9700Pro mit ~55Watt (andere R300-Varianten zT auch, die kamen aber später auf den Markt).
und wieso hatte dann die v5 5500 den extra-stromanschluss?
Karlsson
2004-04-15, 01:09:17
Original geschrieben von zeckensack
Kurze Antwort und lange Antwort ;)
Doooch, das reicht. Was für die Geforce4 Ti4600 reichte, reicht für die FX5200 ganz sicher auch :)
Die erste Serienkarte die mehr Energie brauchte war die Radeon 9700Pro mit ~55Watt (andere R300-Varianten zT auch, die kamen aber später auf den Markt).
Hui, danke für die schnellen und kompetenten Antworten! =)
Iceman346
2004-04-15, 01:09:20
Original geschrieben von thop
Also wer sich die NV40 jetzt schon vorbestellt ist wirklich dumm. Erstmal würde ich abwarten was der R420 macht, kostet und aussieht.
Sehe ich genauso.
Der NV40 ist aber auf jeden Fall die erste Nvidiakarte seit einiger Zeit die ich mir freiwillig in den PC stecken würde :)
Godmode
2004-04-15, 01:09:44
Original geschrieben von DrumDub
häh? wie willste denn ne agp-karte in nen pci-e slot stecken oder umgekehrt? der bridgechip hat einzig und allein den vorteil, dass man nur einen chip produzieren muss und nicht zwei, wie beim r420 (agp) und r423 (pci-e).
Dashalb hab ich das ja gequotet, weil es so lustig ist, das hat einer in nem Forum von sich gelassen.
DrumDub
2004-04-15, 01:10:53
Original geschrieben von bans3i
Dashalb hab ich das ja gequotet, weil es so lustig ist, das hat einer in nem Forum von sich gelassen.
ah so. sorry, habs nicht gerafft. :)
Tigershark
2004-04-15, 01:13:53
Original geschrieben von DrumDub
häh? wie willste denn ne agp-karte in nen pci-e slot stecken oder umgekehrt? der bridgechip hat einzig und allein den vorteil, dass man nur einen chip produzieren muss und nicht zwei, wie beim r420 (agp) und r423 (pci-e).
Daher wohl auch die
;D ;D ;D
;D
*EDIT*
2little 2late ;)
zeckensack
2004-04-15, 01:38:38
Original geschrieben von DrumDub
und wieso hatte dann die v5 5500 den extra-stromanschluss? Üüüüps. Hab'sch verdrängt :D
AlfredENeumann
2004-04-15, 01:44:04
Original geschrieben von Iceman346
Sehe ich genauso.
Der NV40 ist aber auf jeden Fall die erste Nvidiakarte seit einiger Zeit die ich mir freiwillig in den PC stecken würde :)
Ich müßte mir dafür erst noch einen neuen Monitor besorgen. Fahre 1024x768, und in dieser Auflösung ist der nv40 ja nicht wesentlich scheller als eine 9800XT.
StefanV
2004-04-15, 01:51:32
Original geschrieben von zeckensack
Doooch, das reicht. Was für die Geforce4 Ti4600 reichte, reicht für die FX5200 ganz sicher auch :)
Die erste Serienkarte die mehr Energie brauchte war die Radeon 9700Pro mit ~55Watt (andere R300-Varianten zT auch, die kamen aber später auf den Markt).
Was mich aber schwer wundert ist, daß mein toller AMD Rechner mit 11,5x166MHz auf meinem KT4 ULTRA (letztes KT4A ULTRA BIOS) mit der FX5200 nicht booten mag, wohl aber mit der TI4600 und Radeon 9800 PRO :gruebel:
(wers nicht glaubt, der möge doch bitte vorbeikommen und es sich selbt anschauen).
BTW: du hast die V5 vergessen, bei der 3DFX aus irgendwelchen Gründen meinte einen Stecker zu brauchen...
Wobei das auch an der billigen Spannungsversorgung gelegen haben könnte...
Original geschrieben von Stefan Payne
Was mich aber schwer wundert ist, daß mein toller AMD Rechner mit 11,5x166MHz auf meinem KT4 ULTRA (letztes KT4A ULTRA BIOS) mit der FX5200 nicht booten mag, wohl aber mit der TI4600 und Radeon 9800 PRO :gruebel:
(wers nicht glaubt, der möge doch bitte vorbeikommen und es sich selbt anschauen).
was 100 tausend gruende haben kann jedoch bestimmt nicht an der stromaufnahme liegt :D
Karlsson
2004-04-15, 02:56:14
Original geschrieben von AlfredENeumann
Ich müßte mir dafür erst noch einen neuen Monitor besorgen. Fahre 1024x768, und in dieser Auflösung ist der nv40 ja nicht wesentlich scheller als eine 9800XT.
N´neuer Moni wird bei max. 1024x768 ja wohl eh fällig. ;)
Was mich aber schwer wundert ist, daß mein toller AMD Rechner mit 11,5x166MHz auf meinem KT4 ULTRA (letztes KT4A ULTRA BIOS) mit der FX5200 nicht booten mag, wohl aber mit der TI4600 und Radeon 9800 PRO
Ja, TI4600 und R9800pro sind echte Kostverächter. Eine FX5200 dagegen stellt nicht nur Pixelgrafiken hervorragend dar sondern braucht auch sehr viel mehr Strom als ne Highend Graka. Wahrscheinlich Aufgrund ihres hohen Wirkungsgrades. :smash:
;)
Gast-ist-König
2004-04-15, 03:37:30
Hallo,
gibt es irgendwo Benchies mit dem FS2004 ?
Ist ja immerhin ein reinrassiges DX9 Game.
MadManniMan
2004-04-15, 03:53:27
Errm, bin leider nicht wirklich überzeugt vom 68U :(
Effektiv käme ein simples Speedupdate* für mich dabei heraus. Kein besseres AF, schlechteres AA sogar - einzig die Tech-Demos fetzen sicherlich, aber darum gehts im Endeffekt nicht...
Ich verspreche mir vom R420 ehrlich gesagt mehr und im Allgmeinen bin ich recht pessimistisch veranlagt.
OMG
...warum nur winkeladaptives AF... ;(
* mit ordentlichem Ausmaß - aber nicht so überzeugend, wie dereinst von der V1 zur V3 zur K2 zur Ti200 zur 95Pro...
VooDoo7mx
2004-04-15, 05:03:37
Original geschrieben von MadManniMan
Errm, bin leider nicht wirklich überzeugt vom 68U :(
Effektiv käme ein simples Speedupdate* für mich dabei heraus. Kein besseres AF, schlechteres AA sogar - einzig die Tech-Demos fetzen sicherlich, aber darum gehts im Endeffekt nicht...
Ich verspreche mir vom R420 ehrlich gesagt mehr und im Allgmeinen bin ich recht pessimistisch veranlagt.
OMG
...warum nur winkeladaptives AF... ;(
* mit ordentlichem Ausmaß - aber nicht so überzeugend, wie dereinst von der V1 zur V3 zur K2 zur Ti200 zur 95Pro...
Hast du nur die letzte Seite vom Thread gelesen?
Im ersten offiziellen Treiber, gibts dann die möglichkeit, die Winkelabhängigkeit auszuschalten, nennt sich dann "High Quality".
Und wenn für dich PS/VS 3.0 und der Videoprocesser nur ein Speedupgrade sind, dann tust du mir echt leid. ;)
FeuerHoden
2004-04-15, 06:46:33
@Stefan Payne
Die damaligen Mainboards waren dem Stromhunger wohl nicht gewachsen. Es ist ja auch mehr oder weniger bekannt dass schon V3 Karten auf LX Boards Probleme machten.
Zur Not würde ich mir das alte AT Netzteil von nem Freund holen, wie schon ein paar mal erwähnt läuft das Netzteil seit geraumer Zeit ohne funktionierenden Lüfter. Ein Netzteil das keinen Lärm macht, mich nichts kostet und nur für die Versorgung der Graka zuständig ist scheint mir vernünftig ;)
Ich hätte vom NV40 schon mehr erwartet.Sooooviel schneller wie meine 9800pro ist der nun auch wieder nicht.
Ich trau dem R420 auch mehr zu.Komisch das so viele glauben, der R420 hätte Mühe mit dem NV40 mitzuhalten.
Power
2004-04-15, 07:43:50
Original geschrieben von AlfredENeumann
Ich müßte mir dafür erst noch einen neuen Monitor besorgen. Fahre 1024x768, und in dieser Auflösung ist der nv40 ja nicht wesentlich scheller als eine 9800XT.
Dort ist er ja nur unwesentlich schneller wenn man einen verstaubten 2.53 P4 als Testsystem nimmt mit mehr CPU Power steigt auch der unterschied.
Iceman346
2004-04-15, 08:04:21
Original geschrieben von VooDoo7mx
Hast du nur die letzte Seite vom Thread gelesen?
Im ersten offiziellen Treiber, gibts dann die möglichkeit, die Winkelabhängigkeit auszuschalten, nennt sich dann "High Quality".
Das ist doch bisher nur ein Gerücht soweit ich das verstanden habe. Eine offizielle Stellungnahme von Nvidia zum Thema gibts doch bisher nicht, oder?
Ausserdem wurde diese Funktion bestimmt nicht ohne Grund abgestellt.
(del676)
2004-04-15, 08:11:54
Original geschrieben von thop
Ausserdem wurde diese Funktion bestimmt nicht ohne Grund abgestellt.
ja damit gleichwertiges gegen gleichwertiges verglichen wird.
Vorbestellen ist echt dämlich, vor allem da die Chancen sehr gut für ATI stehen. Laut xbitlabs soll der XT 16 Pipes und 600MHz haben (und dabei nur 160Mio Transis). Das wäre sogar bei 4pp der R300 Klasse schon wesentlich mehr als der NV40 mit seinen 400MHz leisten kann; die Shaderperformance des Pixelshader sollte dann auch ungefähr auf gleichem Niveau liegen.
Schon bei 12 Pipes mit 500MHz schrumpft der Abstand gewaltig. Also lieber abwarten und Tee trinken. Wenn der R420 durchgebencht wurde, werde auch ich meine Entscheidung treffen. Ne NV Karte wär auch mal wieder was Reizvolles für meinen Rechner :D
GillianSeed
2004-04-15, 08:38:06
Mich würd interessieren obs das wirklich war mit AGP Karten.
Der Refresh ist ja als PCI Express only angekündigt.
Besteht die möglichkeit, wenn überhaupst dass ASUS, MSI etc.
doch die Karten auf AGP ausliefern, umbauen können?
Wird zeit das meine 4200 ihre Ruhe findet und das letzte AGP Monster gekauft wird.
Der sprung auf NV40 wär schon enorm, aber ich wart erst mal was ATI bringen wird
und bin hald der Meinung das der Refresh einfach "Runder" sein wird.
Metzger
2004-04-15, 08:40:51
Ich hab dann auch mal ne Frage bezüglich des NV40 oder gleich allen zukünftigen Grafikkarten.
Im Review von Leonidas steht, dass die Lautstärke sehr leise für eine solche HighEnd Karte ist. Da drängt sich bei mir aber die Frage auf, wie diese Temperatursteuerung funktioniert. Die 6800 hat dann doch eine interne Temperatur-Diode, die entsprechend den Temperaturen die Lüftergeschwindigkeit regelt?
Was ich aber nicht verstehe ist, warum es kein Hersteller hingebkommt, eine Art Speedstep in die Grafikkarte zu integrieren. Ich meine, die Kühlkörper sind doch extrem groß geworden. Wenn man jetzt im Windowsbetrieb den Grafik-Chip auf 1/3 der Leistung einbremst könnte man doch auch ne HighEnd Karte passiv kühlen. Die Leistung reicht doch für's surfen und DVD schauen locker aus. Man kann doch den Chip entsprechend der Anwendung takten? Was gibt es denn da für ein Problem, warum dies kein Grafikkartenhersteller anbietet? Gerade in der heutigen Zeit, wo HighEnd Rechner auch leise sein sollen, wäre das doch der nächste logische Schritt?!
Original geschrieben von Ulukay
ja damit gleichwertiges gegen gleichwertiges verglichen wird.
Naja der NV ist ja eine Generation weiter ... da sollte man schon denken dass der ordentliches AF hinkriegt. Bin mal gespannt wie das beim R420 ausschaut.
Original geschrieben von Metzger
Die 6800 hat dann doch eine interne Temperatur-Diode, die entsprechend den Temperaturen die Lüftergeschwindigkeit regelt?
Was ich aber nicht verstehe ist, warum es kein Hersteller hingebkommt, eine Art Speedstep in die Grafikkarte zu integrieren. Ich meine, die Kühlkörper sind doch extrem groß geworden. Wenn man jetzt im Windowsbetrieb den Grafik-Chip auf 1/3 der Leistung einbremst könnte man doch auch ne HighEnd Karte passiv kühlen.
loel? das geht doch schon seid den FXen... es gibt 2 Taktraten fuer den chip..einmal 2D betrieb und einmal 3D betrieb..(und das schon seid dem legendaeren NV30 :D )
was meinst du wohl warum eine 6800u im 2D betrieb weniger verbraucht als eine 9800xt (laut tests die ich gestern las)
der luefter hat eine steuerung und laeuft im 2D betrieb recht langsam..(ob ganz passiv weiss ich nicht aufgrund des mangels an einer testkarte :D )
MagicMat
2004-04-15, 09:22:21
Original geschrieben von thop
Naja der NV ist ja eine Generation weiter ... da sollte man schon denken dass der ordentliches AF hinkriegt. Bin mal gespannt wie das beim R420 ausschaut.
Bekomme Sie ja, nur hat Nvidia es halt abgeschaltet bzw. winkelabhängigkeit angeschaltet. Kann ich aber auch nachvollziehen, denn sonst könnten die bei den Benchmarks ja nicht mit ATI mithalten. Die haben es ja genauso gemacht.
Die Leute schreien halt immer nach Verbesserungen und da die Hardwarehersteller nunmal nicht zaubern können, wird getrickst. In wieviel Prozent eines Games bemerkt man überhaupt die Qualitätseinbußen durch winkelabhängiges AF?
Zu der Konstruktion der Karte. Ich finde es schade das die Abwärme nicht mehr direkt nach außen geführt wird. Das System hat sich ja auch beim VGA Silencer für ettliche ATI-Karten bewährt und in meinem Fall die Gehäusetemperatur gesenkt und somit andere interne Lüfter langsamer laufen lassen.
Original geschrieben von MadManniMan
Errm, bin leider nicht wirklich überzeugt vom 68U :(
Effektiv käme ein simples Speedupdate* für mich dabei heraus. Kein besseres AF, schlechteres AA sogar - einzig die Tech-Demos fetzen sicherlich, aber darum gehts im Endeffekt nicht...
Ich verspreche mir vom R420 ehrlich gesagt mehr und im Allgmeinen bin ich recht pessimistisch veranlagt.
OMG
...warum nur winkeladaptives AF... ;(
* mit ordentlichem Ausmaß - aber nicht so überzeugend, wie dereinst von der V1 zur V3 zur K2 zur Ti200 zur 95Pro...
- ps 3.0 vs 3.0
- gleichwertiges AA zu R3xx (immer noch etwas besseres AF)
- endlich PS2.0 mal wirklich nutzbar (siehe shadermark usw.)
- fuer dich vernuenftige linux einsatzmoeglichkeit (im vergleich zu deinem R3xx)
- Stefan Paynes Totschlagargument :D kuehler
nun wo soll der R420 der extrem auf dem R3xx basiert nun dagegen mehr sein als ein "simples" speedupgrade?
Also Odal muss den gesamten Vorrat an Kristallkugeln in Deutschland aufgekauft haben! ;D
Wo gibs eigentlich Shadermark Benches?
Original geschrieben von MagicMat
In wieviel Prozent eines Games bemerkt man überhaupt die Qualitätseinbußen durch winkelabhängiges AF?
oehm kommt auf die betreffende person an ;)
frag mal aths...der wirds wohl in jedem games bemerken :D
...ich wuerds wohl auch recht haeufig bemerken...
Original geschrieben von MagicMat
Zu der Konstruktion der Karte. Ich finde es schade das die Abwärme nicht mehr direkt nach außen geführt wird. Das System hat sich ja auch beim VGA Silencer für ettliche ATI-Karten bewährt und in meinem Fall die Gehäusetemperatur gesenkt und somit andere interne Lüfter langsamer laufen lassen.
schon richtig...nur sie wollten wohl nichts was an den "staubsauger" erinnert :D
ironMonkey
2004-04-15, 09:33:35
Wenn ich mir ne 6800Ultra hole dann bestimmt nicht wegen PS 3.0, wenn AF noch besser wird dann sieths auf jeden Fall gut aus für NV.
Gruß
seahawk
2004-04-15, 09:34:56
Original geschrieben von Odal
- ps 3.0 vs 3.0
- gleichwertiges AA zu R3xx (immer noch etwas besseres AF)
- endlich PS2.0 mal wirklich nutzbar (siehe shadermark usw.)
- fuer dich vernuenftige linux einsatzmoeglichkeit (im vergleich zu deinem R3xx)
- Stefan Paynes Totschlagargument :D kuehler
nun wo soll der R420 der extrem auf dem R3xx basiert nun dagegen mehr sein als ein "simples" speedupgrade?
Auch der R420 enthält einige entscheidene Änderung die die Effizienz der Struktur steigern sollten. Allerdings kann man keine Steigerung wie beim Schritt von NV38 zu NV40 erwarten, da der R300 schon recht effizient ist.
Es ist durchaus denkabr, dass der NV40 taktnormiert schneller sein wird. Allerdings spart ATI durch die Beschränkung auf 2.0 Shader Transistoren und dürfte höher takten können. Die 600mhz für die XT sind allerdings höchst unwahrscheinlich, oder es wird "the mother of all dustbusters".
Auch die 500Mhz für die X800Pro dürften zu hoch geschätzt sein. Dies dürfte eher dem Werten am Ende der Chiplaufbahn (letztes Speedupdate entsprechen). Ich vermute 450-475mhz.
MagicMat
2004-04-15, 09:35:02
Original geschrieben von Odal
oehm kommt auf die betreffende person an ;)
frag mal aths...der wirds wohl in jedem games bemerken :D
...ich wuerds wohl auch recht haeufig bemerken...
Ich schrieb ja nicht ob man es bemerkt oder nicht, sondern zu wieviel Prozent (falls man das überhaupt beziffern kann). Ich möchte damit nur ausdrücken, dass mir ein winkelabhängies AF lieber ist, als gar keins!
Original geschrieben von thop
Also Odal muss den gesamten Vorrat an Kristallkugeln in Deutschland aufgekauft haben! ;D
Wo gibs eigentlich Shadermark Benches?
loel wieso das? weil ich sage was eigentlich eh schon jeder weiss? :D
zum shadermark:
http://www.techreport.com/reviews/2004q2/geforce-6800ultra/shadermark.gif
http://img.hexus.net/v2/graphics_cards/nvidia/nv40/images/shadermark.png
Original geschrieben von MagicMat
Ich schrieb ja nicht ob man es bemerkt oder nicht, sondern zu wieviel Prozent (falls man das überhaupt beziffern kann). Ich möchte damit nur ausdrücken, dass mir ein winkelabhängies AF lieber ist, als gar keins!
ja und ich schrieb das aths sagen wuerde in 100%
und ich vielleicht in 80%
und jemand der vorher nur auf einer Radeon gedaddelt hat unter umstaenden in 0% (der isses ja gewoehnt)
Original geschrieben von seahawk
Es ist durchaus denkabr, dass der NV40 taktnormiert schneller sein wird. Allerdings spart ATI durch die Beschränkung auf 2.0 Shader Transistoren und dürfte höher takten können. Die 600mhz für die XT sind allerdings höchst unwahrscheinlich, oder es wird "the mother of all dustbusters".
Auch die 500Mhz für die X800Pro dürften zu hoch geschätzt sein. Dies dürfte eher dem Werten am Ende der Chiplaufbahn (letztes Speedupdate entsprechen). Ich vermute 450-475mhz.
das ist nicht nur denkbar sondern das ist so...
der NV40 ist bei den pixelshadern 1.6 mal so effizient wie die R3xx serie...und im vergleich zur pro hat die ultra noch 25% pipes mehr...
hatte hier mal meine persoenliche spekulative rechnung gepostet und bin auf ca. 550-600mhz gekommen damit die pro mit der ultra gleichziehen kann
seahawk
2004-04-15, 09:51:53
Original geschrieben von Odal
das ist nicht nur denkbar sondern das ist so...
der NV40 ist bei den pixelshadern 1.6 mal so effizient wie die R3xx serie...und im vergleich zur pro hat die ultra noch 25% pipes mehr...
hatte hier mal meine persoenliche spekulative rechnung gepostet und bin auf ca. 550-600mhz gekommen damit die pro mit der ultra gleichziehen kann
Witzigerweise vermute ich, dass es mit neuen Genration zu einer Verdrehung der bisherigen Verhältnisse kommten könnte.
NV ist bei shaderlastigen Games vorne, während ATI bei den anderen leicht vorne liegt. Sozusagen die Umkehr der 9800XT vs. 5950 Ergebnisse. :D
Ich bin jetzt schon auf den 26/27.04.04 und die Kommentare der jeweiligen Fanboys gespannt.
LovesuckZ
2004-04-15, 09:52:29
Original geschrieben von Gast
Es ist übrigens keine große Leistung das der NV40 jetzt nur knapp vorn liegt.
NV braucht 16 Pipes um eine ATI mit ihren 8 Pipes knapp zu schlagen.
Demonstrativ muss ich einfach die HL2 Beta ergebnisse von xbitlabs.com dir zeigen: http://www.xbitlabs.com/articles/video/display/nv40_29.html
Willst du noch den Shadermark sehen?
Nvidia hat mindesten eine Effektivitaet unter DX9 erreicht, welche ATi hat. Und mit FP32!
Original geschrieben von seahawk
Ich bin jetzt schon auf den 26/27.04.04 und die Kommentare der jeweiligen Fanboys gespannt.
Also das werden wieder allerschönste Flamewars wie in alten Zeiten werden :love2: ;D
PS. LS: Ich denke die HL2 BETA Werte kannst du vergessen. In der Zwischenzeit wird Valve wieder mehr als genug auf ATI optimiert haben ;)
Original geschrieben von thop
Also das werden wieder allerschönste Flamewars wie in alten Zeiten werden :love2: ;D
PS. LS: Ich denke die HL2 BETA Werte kannst du vergessen. In der Zwischenzeit wird Valve wieder mehr als genug auf ATI optimiert haben ;)
naja das hatten sie doch schon von anfang an :D nur die nv geraete sollten in der final noch nen eigenen renderpfad bekommen...
vielleicht baut valve dort die bremse ein wenn Ati genug zahlt :D
LovesuckZ
2004-04-15, 10:05:25
Original geschrieben von thop
PS. LS: Ich denke die HL2 BETA Werte kannst du vergessen. In der Zwischenzeit wird Valve wieder mehr als genug auf ATI optimiert haben ;)
Naja, ich denke mal, dass hier ist der "Worst Case" fall für Nvidia. Und das man da in 1600*1200 2.25 fach schneller ist, sollte mit einem Betatreiber sehr beruhigend wirken.
Die Leadtek ist schonmal garnicht hübsch,auf der MSI Page steht schon was über die 6800U aber noch kein Pic.
http://www.computerbase.de/picture/news/7446/1.jpg
Die MSI wird eine Twin Flow Lösung haben,bin sehr gespannt denn sie geben 26 db angeben.
ironMonkey
2004-04-15, 10:24:04
Original geschrieben von Odal
das ist nicht nur denkbar sondern das ist so...
der NV40 ist bei den pixelshadern 1.6 mal so effizient wie die R3xx serie...und im vergleich zur pro hat die ultra noch 25% pipes mehr...
hatte hier mal meine persoenliche spekulative rechnung gepostet und bin auf ca. 550-600mhz gekommen damit die pro mit der ultra gleichziehen kann
Demirug schrieb das 1,4 fache gegen über R3XX Serie, X800Pro bräuchte bei 12 Pipes und 0 Verbesserung ca. 630MHz.
Gruß
Noise (db) Level Environment Description
90~100 Airport
80~90 Construction Site
70~80 Crowded Street
60~70 Meeting Room
50~60 Resident Area
30~50 Library
30 MSI TWIN FLOW™(26db)
Monstrous Performance Only for Gaming MSI GeForce NX6800 Ultra Series
Game with MSI, Now!
Ich liebe Werbung
LovesuckZ
2004-04-15, 10:26:13
Original geschrieben von ironMonkey
Demirug schrieb das 1,4 fache gegen über R3XX Serie, X800Pro bräuchte bei 12 Pipes und 0 Verbesserung ca. 630MHz.
Gruß
Bezieht sich nur auf dem Shadermark2. Man kann wohl davon ausgehen, dass Nvidia ca. die selbe Effektivität erreicht hat. In manchen Situationen ist man mit dem Betatreiber sogar deutlich schneller (1.5) in anderen leicht langsamer (0.75).
Original geschrieben von ironMonkey
Demirug schrieb das 1,4 fache gegen über R3XX Serie, X800Pro bräuchte bei 12 Pipes und 0 Verbesserung ca. 630MHz.
Aber die X800Pro ist nicht der R3xx, wird also noch eigene Verbesserungen mitbringen. Irgendwie klingt das so als ob die meisten die X800Pro für eine 9800XTXT halten ;)
PS. Die Leadtek Karte ist wirklich hässlich! Bei dem massiven Kupferkühler bricht doch die Karte aus dem AGP-Slot ;)
Original geschrieben von ironMonkey
Demirug schrieb das 1,4 fache gegen über R3XX Serie, X800Pro bräuchte bei 12 Pipes und 0 Verbesserung ca. 630MHz.
Gruß
hab die (von mir spekulativen verbesserungen) schon mit eingerechnet gehabt :)
aber 1,4 fache? mir war so als ob es das 1,6 fache war..finde die stelle nur vor lauter threads nimmer :D
ps: das kommt urspruenglich ja nich von demi sondern hat einer im beyond3d forum ausgerechnet
MadMan2k
2004-04-15, 10:31:50
Original geschrieben von thop
PS. LS: Ich denke die HL2 BETA Werte kannst du vergessen. In der Zwischenzeit wird Valve wieder mehr als genug auf ATI optimiert haben ;)
so dumm wird ist kein Developer - sie nehmen zwar Geld von einem Hersteller und machen etwas Werbung für sein Produkt, optimieren aber für alle Hersteller gleich gut, denn schließlich ist ihr Interesse ihre Games, und nicht die Hardware des Herstellers zu verkaufen.
Daher denke ich dass die Performance des NV40 bzw der Performanceunterschied NV40/R360 auch im finalen Spiel gleich sein wird.
Der NV3x war unter PS20 scheisse, der NV40 ist deutlich besser - aber wie gut er ist wissen wir erst beim Release des R420 ;)
Original geschrieben von thop
Aber die X800Pro ist nicht der R3xx, wird also noch eigene Verbesserungen mitbringen. Irgendwie klingt das so als ob die meisten die X800Pro für eine 9800XTXT halten ;)
PS. Die Leadtek Karte ist wirklich hässlich! Bei dem massiven Kupferkühler bricht doch die Karte aus dem AGP-Slot ;)
es ist im grossen und ganzen auch "nur" eine 9800XTXT + zugestrickte 2.b shadersachen....
es ist ja der "notchip" und dieses manko koennen sie nur ueber taktrate wegmachen...
da wird nicht allzuviel redesignt
Chip.de
Referenzkarte im Testlabor: Stromhunger und laut
Gleich über zwei Molexstecker muss eine GeForce-6800-Ultra-Grafikarte mit Strom versorgt werden. Dabei empfielt Nvidia ausdrücklich ein 480-Watt-Netzteil - darunter läuft nichts!
Trotz dieser Vorsichtsmaßnahmen erwies sich die Laufstabilität im Test allerdings als uneinheitlich: Sogar mit einem 550-Watt-Netzteil gab’s Probleme; das 350-Watt-Netzteil eines anderen Herstellers lief dagegen gut. Was für die Karte weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone respektive 54,8 dB(A) ergab. Diese Werte sind im deutlich hörbaren Bereich. Board-Hersteller sollten deshalb das Nvidia-Design verwerfen und ein leiseres Kühldesign für die Grafikkarte entwickeln.
ironMonkey
2004-04-15, 10:47:10
Original geschrieben von Odal
es ist im grossen und ganzen auch "nur" eine 9800XTXT + zugestrickte 2.b shadersachen....
es ist ja der "notchip" und dieses manko koennen sie nur ueber taktrate wegmachen...
da wird nicht allzuviel redesignt
Bei der Sache mit dem Notchip währe ich an deiner Stelle nicht so laut, weil man kann viel Gerüchte in die Welt setzen wenn der Tag lang ist.
Gruß
seahawk
2004-04-15, 10:47:54
Original geschrieben von thop
PS. LS: Ich denke die HL2 BETA Werte kannst du vergessen. In der Zwischenzeit wird Valve wieder mehr als genug auf ATI optimiert haben ;)
Das könnte nicht mehr funktionieren. Bisher brauchten ja die alten FX Karten eine Art von Optimierung um mit den Radeons mitzuhalten.
Durch den Änderungen am NV40 ist die FP32 Schwäche weg und FP16 bringt nur noch geringe Vorteile. Die BEschränkungen in den Tempregistern usw, sind auch weg.
Es ist wahrscheinlich, dass alles was auf den Radeons gut läuft auch auf der NV40 gut laufen sollte. Die Frage ist, ob es immer auch umgekehrt sein wird. (Passreduktion durch 3.0 Shader)
Der X800 ist eine Evolution des R300, da muss man sich nichts vormachen. Die Möglichkeiten zur Effizienssteigerung dürften dadurch begrenzter sein.
Original geschrieben von seahawk
Die BEschränkungen in den Tempregistern usw, sind auch weg. Nein, aber dank der neuen Pipe sind kleine Files jetzt nicht mehr das große Problem.
Original geschrieben von seahawk
Auch der R420 enthält einige entscheidene Änderung die die Effizienz der Struktur steigern sollten. Was für Änderungen sind das beispielsweise?
LovesuckZ
2004-04-15, 10:55:26
Original geschrieben von seahawk
Durch den Änderungen am NV40 ist die FP32 Schwäche weg und FP16 bringt nur noch geringe Vorteile. Die BEschränkungen in den Tempregistern usw, sind auch weg.
Das ist so nicht richtig. FP16 bringt Vorteile zwischen 0 - 100%. Desweiteren ist das Tempregisterproblem nicht vollständig gelöst wurden.
deekey777
2004-04-15, 11:00:33
Original geschrieben von cRaZy78
Einmal nVidia immer nVidia... Das ist meine Meinung...
Einmal SIS 630, immer SIS 630...
(Änderungen vorbehalten!)
Zu der Lieferbarkeiten - das wird noch richtig lange dauern, zuerst sollen die Quadros kommen (Ende April), die 6800 Ultra kommt erst Ende Mai (wenn man Giga Helpies Glauben schenken darf). Da sieht es bei der X800 Pro besser aus, da sie in etwa gleich nach der Präsentaion lieferbar sein soll.
Original geschrieben von Gast
Chip.de
....
jupp chip.de artikel liest sich ja auch wie die bild zeitung :D
du solltest lieber im 3dcenter lesen...den leuten trau ich mehr zu als chip.de :D
DrumDub
2004-04-15, 11:03:31
Original geschrieben von aths
Nein, aber dank der neuen Pipe sind kleine Files jetzt nicht mehr das große Problem.
das verhältnis quads <-> tempreg beim nv40 macht also keinen unterschied? schließlich kann der nv40 schon an viemal mehr shadern gleichzeitg arbeiten als der nv3x, oder?
DrumDub
2004-04-15, 11:05:22
Original geschrieben von Odal
jupp chip.de artikel liest sich ja auch wie die bild zeitung :D
du solltest lieber im 3dcenter lesen...den leuten trau ich mehr zu als chip.de :D
absolut. :D
wobei mir der techreport-artikel am besten gefällt, was bq-vergleich und benchmarks angeht. die technik ist auf 3dcenter am besten erklärt und die benschmarks auf 3dcenter heben sich positiv ab, weil sie eben nicht mit nem 3,2 oder 3,4ghz prozessor gemacht wurden.
seahawk
2004-04-15, 11:10:22
Gerüchteweise haben sie folgendes geändert :
- zusätzlicher Pixelprozessor
- leicht erweiterte Shaderfähigkeiten
- verbesserte CC
- und noch 2 Dinge
Original geschrieben von DrumDub
das verhältnis quads <-> tempreg beim nv40 macht also keinen unterschied? schließlich kann der nv40 schon an viemal mehr shadern gleichzeitg arbeiten als der nv3x, oder? Die Details habe ich jetzt nicht griffbereit, zudem gibt NV bestimmte Zahlen nicht raus. Das Problem ist nicht unbedingt, wie viele Temps gehalten werden können, eher wie die Pipeline arbeitet. Wenn sie so bestückt wird, dass man mit wenigen Temps auskommt, ist es kein Problem, nur wenige vorhalten zu können.
Neue Quads kommen beim NV40 in die am wenigsten ausgelastete Quad-Pipe (hm, das sollte ich vielleicht noch irgendwo im Artikel erwähnen.) Da es mehr Pipes gibt, ist die Gesamtperformance auf jeden Fall besser.
Original geschrieben von Coda
Unser Versagen war es wohl nicht, aber die der "großen" Hardwarseiten und Magazine :/
Ich hab ja noch ne kleine Hoffnung, das sich das abschalten lässt - bezweifle es aber ziemlich stark
nein auch unser Versagen oder kannst du mir erklären, wieso die überwältigende Mehrheit dies bei ATI einfach nicht kritisieren wollte?
Brauchtest dich nur im Forum hier umschauen.
Diesen Schuh müssen sich ganz klar
die User -> Kunden,
Reviewer und Zeitschriften
und natürlich Cheat-Verein ATI anziehen.
Ich sage nicht dass Nvidia nicht auch cheatet. Ich sage nur, dass ich derartiges AF als Cheat ansehe und immer angesehen habe. Das wurde im Zuge der Massenhysterie in keinster Weise mit der entsprechenden und notwendigen Härte berücksichtigt und deshalb brauch jetzt auch keiner ankommen und weinen.
Da kann sich jeder an seine eigene Nase fassen.
Lieber Gast, dir muss der 3DC Artikel "ATI-Filtertricks" entgangen sein.
StefanV
2004-04-15, 11:17:23
Original geschrieben von Gast
nein auch unser Versagen oder kannst du mir erklären, wieso die überwältigende Mehrheit dies bei ATI einfach nicht kritisieren wollte?
Der Hauptgrund ist wohl, daß ATI sich bei der Filterung nicht drastisch verschlechtert hat, im Gegensatz zu nV...
Ansonsten siehe thop...
AYAlf
2004-04-15, 11:18:12
also ich bin von der 6800 ehrlich gesagt nicht so entaeuscht. mehr konnte man von nvidia einfach nicht erwarten. die tugenden der letzten kartengeneration hat nvidia "gott sei dank" beibehalten. die waeren ...
- viel krach machen
- fetter luefter der mindestens 2 pci slots mit belegt
- schlechtes abschneiden in hohen qualitaetsstufen (aa af)
aber immerhin konnte die karte in einigen benches (in niedrigen detailstufen) schneller abschneiden wie die ALTE ati. das haette ich so nicht erwartet.
go nvidia go ;D
ein wenig ironie koennte man hier vermuten. http://home.t-online.de/home/bullitt667/smilies/data/uglyhammer.gif
LovesuckZ
2004-04-15, 11:24:07
Original geschrieben von Stefan Payne
Der Hauptgrund ist wohl, daß ATI sich bei der Filterung nicht drastisch verschlechtert hat, im Gegensatz zu nV...
Du solltest richtig lesen.
Ursache für die verschlechterung des Filterung bei nvidia ist das nicht kritisieren von ATi's Filtercheats. Das was 3Dcenter.de getan hat, war einmalig und dafür haben sie unberechtigte Kritik abbekommen.
DrumDub
2004-04-15, 11:30:13
Original geschrieben von aths
Die Details habe ich jetzt nicht griffbereit, zudem gibt NV bestimmte Zahlen nicht raus. Das Problem ist nicht unbedingt, wie viele Temps gehalten werden können, eher wie die Pipeline arbeitet. Wenn sie so bestückt wird, dass man mit wenigen Temps auskommt, ist es kein Problem, nur wenige vorhalten zu können.
Neue Quads kommen beim NV40 in die am wenigsten ausgelastete Quad-Pipe (hm, das sollte ich vielleicht noch irgendwo im Artikel erwähnen.) Da es mehr Pipes gibt, ist die Gesamtperformance auf jeden Fall besser.
also ist die feinere granularität, auf grund der architektur des nv40, ein hauptvorteil bei der verarbeitung der quads?
deekey777
2004-04-15, 11:31:12
Original geschrieben von LovesuckZ
Du solltest richtig lesen.
Ursache für die verschlechterung des Filterung bei nvidia ist das nicht kritisieren von ATi's Filtercheats. Das was 3Dcenter.de getan hat, war einmalig und dafür haben sie unberechtigte Kritik abbekommen.
Das ist kein Cheat, sondern ein HW Feature. Und in dem Artikel wird das Wort Cheat gar nicht erwähnt, sondern "Filtertricks". Aber lustig wäre es schon, wenn der R420 eine bessere AF Qualität aufweisen kann, aber eine schlechtere AA Quali - wie bei dem NV30.
Zu dem Gerücht, dass im finalen Treiber die Winkelabhängigkeit abgeschaltet werden kann - diese Möglichkeit kann aber ganz in die Hose gehen.
Original geschrieben von AYAlf
also ich bin von der 6800 ehrlich gesagt nicht so entaeuscht. mehr konnte man von nvidia einfach nicht erwarten. die tugenden der letzten kartengeneration hat nvidia "gott sei dank" beibehalten. die waeren ...
- viel krach machen
- fetter luefter der mindestens 2 pci slots mit belegt
- schlechtes abschneiden in hohen qualitaetsstufen (aa af)
aber immerhin konnte die karte in einigen benches (in niedrigen detailstufen) schneller abschneiden wie die ALTE ati. das haette ich so nicht erwartet.
go nvidia go ;D
ein wenig ironie koennte man hier vermuten. http://home.t-online.de/home/bullitt667/smilies/data/uglyhammer.gif
zu 1. da hat wohl wieder einer den 3dcenter artikel nicht gelesen sonder sachen wo die lueftersteuerung nicht fuktionierte etc. :D
zu 2. sicher, die leute wollen mehr leistung bei nicht turbinenartiger lautstaerke => grosser kuehlkoerper + grosser luefter
zu 3. bitte? eine fast durch die bank verdoppelte leistung (manchmal gar verdreifachte) bei 1600x1200 nennst du schlechtes abschneiden?
nun troll dich davon....
DrumDub
2004-04-15, 11:36:14
Original geschrieben von LovesuckZ
Du solltest richtig lesen.
Ursache für die verschlechterung des Filterung bei nvidia ist das nicht kritisieren von ATi's Filtercheats. Das was 3Dcenter.de getan hat, war einmalig und dafür haben sie unberechtigte Kritik abbekommen.
da haste payne aber missverstanden. er meinte den übergang von r200 -> r300, der eine verbesserung in der af-qualität gewesen ist.
LovesuckZ
2004-04-15, 11:37:17
Original geschrieben von DrumDub
da haste payne aber missverstanden. er meinte den übergang von r200 -> r300, der eine verbesserung in der af-qualität war.
Dann ist es doch jetzt bei nvidia genauso: brilinear -> trilinear...
DrumDub
2004-04-15, 11:39:02
Original geschrieben von LovesuckZ
Dann ist es doch jetzt bei nvidia genauso: brilinear -> trilinear...
und was ist mit der winkelabhängigkeit (ok, die kann man vielleicht ausschalten)? brilinear ist aber keine hw-limitierung, sondern ne treibersache.
Godmode
2004-04-15, 11:39:48
Original geschrieben von Gast
Chip.de
Referenzkarte im Testlabor: Stromhunger und laut
Gleich über zwei Molexstecker muss eine GeForce-6800-Ultra-Grafikarte mit Strom versorgt werden. Dabei empfielt Nvidia ausdrücklich ein 480-Watt-Netzteil - darunter läuft nichts!
Trotz dieser Vorsichtsmaßnahmen erwies sich die Laufstabilität im Test allerdings als uneinheitlich: Sogar mit einem 550-Watt-Netzteil gab’s Probleme; das 350-Watt-Netzteil eines anderen Herstellers lief dagegen gut. Was für die Karte weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone respektive 54,8 dB(A) ergab. Diese Werte sind im deutlich hörbaren Bereich. Board-Hersteller sollten deshalb das Nvidia-Design verwerfen und ein leiseres Kühldesign für die Grafikkarte entwickeln.
Kann das sein dass Chip ein anderes Sample als 3DC hatten? Ich glaub da gibts noch Probleme mit der Lüftersteuerung, aber leut Leo ist die Karte recht leise, also von daher habe ich keine bedenken
Original geschrieben von seahawk
Gerüchteweise haben sie folgendes geändert :
- zusätzlicher Pixelprozessor
- leicht erweiterte Shaderfähigkeiten
- verbesserte CC
- und noch 2 Dinge
Ich würde mal gerne wissen, wo solche Gerüchte kursieren.
Vielleicht irgend eine Quelle?!
Original geschrieben von Stefan Payne
Der Hauptgrund ist wohl, daß ATI sich bei der Filterung nicht drastisch verschlechtert hat, im Gegensatz zu nV...
Ansonsten siehe thop...
Achso, Nvs AF muss man jetzt also kritisieren aber ATis noch schlechteres AF nicht? :rofl::rofl:
Original geschrieben von AYAlf
also ich bin von der 6800 ehrlich gesagt nicht so entaeuscht. mehr konnte man von nvidia einfach nicht erwarten. die tugenden der letzten kartengeneration hat nvidia "gott sei dank" beibehalten. die waeren ...
- viel krach machen
- fetter luefter der mindestens 2 pci slots mit belegt
- schlechtes abschneiden in hohen qualitaetsstufen (aa af)
aber immerhin konnte die karte in einigen benches (in niedrigen detailstufen) schneller abschneiden wie die ALTE ati. das haette ich so nicht erwartet.
go nvidia go ;D
ein wenig ironie koennte man hier vermuten. http://home.t-online.de/home/bullitt667/smilies/data/uglyhammer.gif
Noe, sieht fuer mich nur nach Flame aus.
1 Strafpunkt.
Original geschrieben von ow
Achso, Nvs AF muss man jetzt also kritisieren aber ATis noch schlechteres AF nicht? :rofl::rofl:
Und ob man ATIs AF kritisieren kann. Allerdings ist das AF des NV40 momentan! ein Rückschritt!. Dies bedeutet Nvidia verschlechtert ein wichtiges Feature. Ich glaube das sollte man sehr scharf kritisieren. In etwa damit zu vergleichen, wenn ATI das AA des R4xx gegenüber dem R3xx verschlechtern würde (wie auch immer).
AYAlf
2004-04-15, 12:13:39
Original geschrieben von Gast
Und ob man ATIs AF kritisieren kann. Allerdings ist das AF des NV40 momentan! ein Rückschritt!. Dies bedeutet Nvidia verschlechtert ein wichtiges Feature. Ich glaube das sollte man sehr scharf kritisieren. In etwa damit zu vergleichen, wenn ATI das AA des R4xx gegenüber dem R3xx verschlechtern würde (wie auch immer).
pflichte dem 100% bei!!!!
Original geschrieben von Gast
Und ob man ATIs AF kritisieren kann. Allerdings ist das AF des NV40 momentan! ein Rückschritt!. Dies bedeutet Nvidia verschlechtert ein wichtiges Feature. Ich glaube das sollte man sehr scharf kritisieren. In etwa damit zu vergleichen, wenn ATI das AA des R4xx gegenüber dem R3xx verschlechtern würde (wie auch immer).
Das wurde doch nur zum Benchen implementiert (wegen der Unfaehigkeit der meisten Tester,/ Vergleichbarkeit zu ATi).
Ich bin mir sicher, dass auch ein GF6800 genauso gut filtern kann wie jede GFFX oder Gf4 und das spaetere Treiber das auch ermoeglichen werden.
AYAlf
2004-04-15, 12:19:42
Original geschrieben von ow
Noe, sieht fuer mich nur nach Flame aus.
1 Strafpunkt.
:-(
in diesem thread sind ca. 30% flame wenn du mich fragst. ich bin nicht der einzige der seinen unmut hier zum ausdruck bringt. ich habe es wenigstens auf die humorige art gemacht. aber wenn du meinst. du bist der mod.
ok ich werde mich bessern und nur noch pro nvidia schreiben. :bäh:
nvidia ist ganz toll und deren produkte auch .. kauft nvidia. es lebe nvidia.
so besser? =)
Original geschrieben von ow
Das wurde doch nur zum Benchen implementiert (wegen der Unfaehigkeit der meisten Tester,/ Vergleichbarkeit zu ATi).
Ich bin mir sicher, dass auch ein GF6800 genauso gut filtern kann wie jede GFFX oder Gf4 und das spaetere Treiber das auch ermoeglichen werden.
Aber bis es soweit ist, muss Nvidia Kritik einstecken (falls an dem Gerücht was dran ist). Ich hätte mir zumindest ein paar Benchs mit nicht winkelabhängigen AF gewünscht, um in etwa einschätzen zu können wie sich der (eventuelle) Leistungsverlust darstellt.
Immerhin bin ich erwachsen und brauche keinen Vormund der mir sagt was ich brauche und was nicht.
reunion
2004-04-15, 12:22:27
Original geschrieben von aths
Was für Änderungen sind das beispielsweise?
Vielleicht auch eine zweite Shadereinheit pro Pipe wie bei NV40?
seahawk
2004-04-15, 12:23:49
Original geschrieben von reunion
Vielleicht auch eine zweite Shadereinheit pro Pipe wie bei NV40?
Davon kann man ausgehen
DrumDub
2004-04-15, 12:24:36
ow
sicher sein und wissen, sind aber zwei unterschiedliche sachen. ich würde mich jetzt noch nicht soweit aus dem fenster lehnen.
was ich persönlich viel beeindruckender finde, ist die sache mit dem stromverbrauch:
immerhin verbraucht 6800u im 3d-betrieb nur unwesentlich mehr als ne 5950u (6 watt) genau wie im 2d-betrieb (3 watt): http://www.hardware.fr/articles/491/page11.html
dafür bietet sie aber in hohen auflösungen mit aa/af und bei ps 2.0 häufig mehr als die doppelte leistung der 5950u. das sollte man nicht vergessen. die effizienz hat sich also gegenüber der 5950u verdoppelt.
seahawk
2004-04-15, 12:26:19
Original geschrieben von Gast
Aber bis es soweit ist, muss Nvidia Kritik einstecken (falls an dem Gerücht was dran ist). Ich hätte mir zumindest ein paar Benchs mit nicht winkelabhängigen AF gewünscht, um in etwa einschätzen zu können wie sich der (eventuelle) Leistungsverlust darstellt.
Immerhin bin ich erwachsen und brauche keinen Vormund der mir sagt was ich brauche und was nicht.
Sag das ATI
Original geschrieben von AYAlf
:-(
in diesem thread sind ca. 30% flame wenn du mich fragst. ich bin nicht der einzige der seinen unmut hier zum ausdruck bringt. ich habe es wenigstens auf die humorige art gemacht. aber wenn du meinst. du bist der mod.
ok ich werde mich bessern und nur noch pro nvidia schreiben. :bäh:
nvidia ist ganz toll und deren produkte auch .. kauft nvidia. es lebe nvidia.
so besser? =)
nee du kannst ja sagen das du enttaeuscht bist..aber auf eine andere art...und etwas mehr objektivitaet an den tag legen...
z.b. das dir aufgefallen ist das der nv40 auf 8x AA im gegensatz zu 4x AA so schlecht aussieht..waer ein punkt...
das haette/habe (es sind beitraege verschwunden :D ) ich dir dann erklaert warum es so ist
Ich bin mal auf den Refresh Chip gespannt. Mehr Taktrate mit Sicherheit und dann auch schnellerer Speicher. Sollte gut werden :)
Wuenschenswerte Verbesserungen waeren: 6x oder 8xRGMSAA oder SGMSAA, AF>4x in vernuenftiger Qualitaet. Das die Treiber vielleicht noch so 10% oder sogar mehr zulegen sehe ich mal als gegeben an. Nur sollte MS dann auch mal so langsam mit DX9.0c rausruecken :/
Inwieweit die Leistungsaufnahme bei Vollastbetrieb noch eventuell gesenkt werden kann, darueber kann man wohl nur spekulieren und IBM/nVidia Glueck wuenschen.
Omnicron
2004-04-15, 12:27:28
Original geschrieben von ow
Das wurde doch nur zum Benchen implementiert (wegen der Unfaehigkeit der meisten Tester,/ Vergleichbarkeit zu ATi).
Ist auch meine Vermutung bzgl. der deaktivierten Einstellung.
Jeder kann einen FPS Balken lesen, aber welcher Otto-Normal User kümmert sich schon um eine AF Blume?
Wenn der Reviewer überhaupt nach sowas geschaut hat, und nicht wild drauflos gebencht hat.
Ich denke sie wollten diesen Nachteil beim wichtigen Launch ihres neuen Babys einfach von vornherein ausschalten.
Original geschrieben von AYAlf
:-(
in diesem thread sind ca. 30% flame wenn du mich fragst. ich bin nicht der einzige der seinen unmut hier zum ausdruck bringt. ich habe es wenigstens auf die humorige art gemacht. aber wenn du meinst. du bist der mod.
ok ich werde mich bessern und nur noch pro nvidia schreiben. :bäh:
nvidia ist ganz toll und deren produkte auch .. kauft nvidia. es lebe nvidia.
so besser? =)
Nein, nicht besser.
btw. hat das Forum eine Funktion zum Melden von Postings.
ALso dann mal her damit wenn du hier 30% Flame siehst.
Original geschrieben von Gast
Aber bis es soweit ist, muss Nvidia Kritik einstecken (falls an dem Gerücht was dran ist). Ich hätte mir zumindest ein paar Benchs mit nicht winkelabhängigen AF gewünscht, um in etwa einschätzen zu können wie sich der (eventuelle) Leistungsverlust darstellt.
Immerhin bin ich erwachsen und brauche keinen Vormund der mir sagt was ich brauche und was nicht.
Wie der Leistungsverlust bei korrektem AF ist siehst du, wenn R3xx gegen FX59xx gebencht werden.
Und wie ich schon sagte hat NV diese Winkelabhaengigkeit nicht wegen dir implementiert sondern wegen ATi und den unfaehigen Reviewern.
Original geschrieben von Omnicron
Ist auch meine Vermutung bzgl. der deaktivierten Einstellung.
Jeder kann einen FPS Balken lesen, aber welcher Otto-Normal User kümmert sich schon um eine AF Blume?
Wenn der Reviewer überhaupt nach sowas geschaut hat, und nicht wild drauflos gebencht hat.
Ich denke sie wollten diesen Nachteil beim wichtigen Launch ihres neuen Babys einfach von vornherein ausschalten.
Genau das ist der Punkt. Warum mehr Bildqualitaet bieten als die Konkurrenz wenn dies eh nicht honoriert wird?
Das neue AF bei NV ist zum Benchen gegen ATi HW gedacht.
Original geschrieben von DrumDub
ow
sicher sein und wissen, sind aber zwei unterschiedliche sachen. ich würde mich jetzt noch nicht soweit aus dem fenster lehnen.
Gegenfrage:
welchen Sinn wuerde es machen eine seit Jahren in den TMUs vorhanden Faehigkeit zu entfernen?
DrumDub
2004-04-15, 12:41:09
Original geschrieben von ow
Gegenfrage:
welchen Sinn wuerde es machen eine seit Jahren in den TMUs vorhanden Faehigkeit zu entfernen?
transistoren sparen, welches ja auch der grund für atis af-implementierung ist.
Ob das AF von NVidia nun ein Rückschritt war oder nicht, ist doch wohl vollkommen egal. Ob der Einbruch bei 8xAA 90% beträgt oder nicht, ist doch ebenfalls egal. Für mich ist immer das einzigst entscheidende Moment, was die Karte in der von mir genutzen Auflösung zu leisten vermag.
Z.B. war es mir immer egal, das NVidia ein beschissenes AA hatte. Ich nutze eine Auflösung von 1280x1024 (TFT) und da ist sowohl meine Radeon9700PRO, als auch ein theoretische GFFX5950 nicht in der Lage gewesen 4xAA zu nutzen. Es hat mich in den Vergleichen also nie gestört, das NVidia Ihr 4xAA nicht hinbekommen haben.
Ähnlich ist die Situation jetzt. Mit 4xAA und vollem (winkelabhängen/optimierten) AF ist die GF6800U an Ihrem absolutem Leistungslimit. Die Erhöhung der Auflösung oder die Erhöhung der AA-Stufe oder ein hochqualitatives AF haben in dieser Situation eine sofortige und sürbare Auswirkung auf die Frameraten.
Alles unterhalb von 60fps ist vielleicht für den externen Betrachter nicht mit blossem Auge zu sehen, hat aber einen (meiner Meinung nach starken) Einfluss auf den Spielspass. Nehmt euch z.B. SplinterCellPT: Das Spiel ist bei mir mit einem P4 3,0GHZ und einer Radeon9700PRO auch schon ohne AA nahe der Unspielbarkeit! Dieses Spiel mit 60fps würde ERHEBLICH mehr Spass machen. Auch FarCry ist auf einer Radeon9700PRO schon nicht mehr flüssig in 1280x1024 zu spielen (ebenfalls OHNE AA).
Also: Regt eich bitte nicht darüber auf, das das 8xAA zu lahm ist, oder das das AF qualitätsmäßig zu schlecht ist. Für besseres AA und AF fehlt es der GF6800 GANZ KLAR an Leistung. Das ordentliche 4xAA und das schlechte AF sind meiner Meinung nach der beste Kompromiss, den NVidia eingehen konnte. Ich denke denen ist mit der Karte aus technischer Sicht ein ganz großer Wurf gelungen (ob das mit 222 Mio Transistoren auch ein wirtschaftlicher Erfolg werden kann, müssen wir wohl abwarten).
Original geschrieben von DrumDub
transistoren sparen, welches ja auch der grund für atis af-implementierung ist.
Hat NV es jemals noetig gehabt, Transistoren zu sparen?
Steel
2004-04-15, 12:48:24
Original geschrieben von ow
Genau das ist der Punkt. Warum mehr Bildqualitaet bieten als die Konkurrenz wenn dies eh nicht honoriert wird?
Das neue AF bei NV ist zum Benchen gegen ATi HW gedacht.
Was gewaltig nach hinten losgehen könnte, falls ATI in den neueren Karten tatsächlich bessere Filterung verwenden würde.
Vielleicht hat man ja auch nur erkannt, dass die wenigsten Hardcorezocker (Zielgruppe) mit der Lupe vorm Monitor hocken und nach marginalen Filterunschärfen bei 12 Grad zu suchen - oder noch besser, mit Delta Snapshots, weil man sonst ja eh nix feststellen würde.
LovesuckZ
2004-04-15, 12:50:25
Original geschrieben von Gast
Also: Regt eich bitte nicht darüber auf, das das 8xAA zu lahm ist, oder das das AF qualitätsmäßig zu schlecht ist. Für besseres AA und AF fehlt es der GF6800 GANZ KLAR an Leistung. Das ordentliche 4xAA und das schlechte AF sind meiner Meinung nach der beste Kompromiss, den NVidia eingehen konnte. Ich denke denen ist mit der Karte aus technischer Sicht ein ganz großer Wurf gelungen (ob das mit 222 Mio Transistoren auch ein wirtschaftlicher Erfolg werden kann, müssen wir wohl abwarten).
Das ist falsch. Die Karte verliert mit 4MSAA nur unwesentlich viel Leistung (um die 10-20%). Bei 8AA gibt es einen Supersamplinganteil, der die effektive Füllrate um das doppelte sinken laesst. Das heißt, die Karte ist mit den 400MHz nicht mehr schneller als eine Radeon 9600pro.
Hätte Nvidia einen 6MSAA Modus und die dazugehörige Colorcompression eingebaut, waere die karte mit der geringeren bandbreite in der Lage in jedem heutigen Spiel 6MSAA flüssig darstellen zu können.
Zum AF: Die Nvidiakarte hat die fast doppelte Texel/Pixel (i hoff so richtig) Füllrate einer 9800pro. Ihr hätte ein "normales" AF Muster kaum was ausgemacht. Diese "Winkelabhaengigkeit" ist nur lächerlich, weil Leistung reichlich vorhanden ist.
AYAlf
2004-04-15, 12:50:35
test auf gamestar.de
in welchem universum ist das bitte doppelt so schnell?
Doppelt so schnell wie Radeon 9800 XT
Geforce FX 6800 Ultra (NV40)
Benchmarks
Far Cry v1.1
1024x768 1280x1024 1600x1200
Geforce 6800 Ultra 45,5 36,4 28,1
Geforce 6800 Ultra (Quality) 33,4 23,8 15,5
Geforce FX 5950 Ultra 33,5 23,1 16,8
Geforce FX 5950 Ultra (Quality) 24,2 16,4 11,6
Radeon 9800 XT 40,2 31,9 23,3
Radeon 9800 XT (Quality) 32,7 22,2 16,2
Simon Moon
2004-04-15, 12:51:14
Original geschrieben von ow
Wie der Leistungsverlust bei korrektem AF ist siehst du, wenn R3xx gegen FX59xx gebencht werden.
Und wie ich schon sagte hat NV diese Winkelabhaengigkeit nicht wegen dir implementiert sondern wegen ATi und den unfaehigen Reviewern.
Und das ist doch zu kritisieren - unabhägig davon was ATi macht oder nicht macht. Ist doch dasselbe wie mit Brilinear, Quicunx oder eben ATi's AF Winkelabhängigkeit. Ausser, dass der schlechtere Modus eben erst recht spät eingeführt wurde...
Ausserdem, wer sagt uns, dass NV die richtigen Filtermodi nicht irgendwo im Treiber verstecken wird?
Schlussendlich, wie du's auch drehst und wendest, imo läufts imo darauf hinaus, dass NV das weder nötig hätte noch, dass man das kritiklos durchgehen lassen sollte.
PS: Und fühl dich doch nicht immer gleich so angegriffen bzw. könntest du selber etwas weniger provokant schreiben? Ist imo etwas daneben nen flameverdächtigen Einzeiler zu verfassen und dann ein mit Ironie gekennzeichnetes Posting zu mahnen. :eyes:
Edit Tastatur ist langsam kapputt - N's nachgeliefert.
SpecialTrooper
2004-04-15, 12:51:30
Original geschrieben von Gast
Ob das AF von NVidia nun ein Rückschritt war oder nicht, ist doch wohl vollkommen egal. Ob der Einbruch bei 8xAA 90% beträgt oder nicht, ist doch ebenfalls egal. Für mich ist immer das einzigst entscheidende Moment, was die Karte in der von mir genutzen Auflösung zu leisten vermag.
Z.B. war es mir immer egal, das NVidia ein beschissenes AA hatte. Ich nutze eine Auflösung von 1280x1024 (TFT) und da ist sowohl meine Radeon9700PRO, als auch ein theoretische GFFX5950 nicht in der Lage gewesen 4xAA zu nutzen. Es hat mich in den Vergleichen also nie gestört, das NVidia Ihr 4xAA nicht hinbekommen haben.
Ähnlich ist die Situation jetzt. Mit 4xAA und vollem (winkelabhängen/optimierten) AF ist die GF6800U an Ihrem absolutem Leistungslimit. Die Erhöhung der Auflösung oder die Erhöhung der AA-Stufe oder ein hochqualitatives AF haben in dieser Situation eine sofortige und sürbare Auswirkung auf die Frameraten.
Alles unterhalb von 60fps ist vielleicht für den externen Betrachter nicht mit blossem Auge zu sehen, hat aber einen (meiner Meinung nach starken) Einfluss auf den Spielspass. Nehmt euch z.B. SplinterCellPT: Das Spiel ist bei mir mit einem P4 3,0GHZ und einer Radeon9700PRO auch schon ohne AA nahe der Unspielbarkeit! Dieses Spiel mit 60fps würde ERHEBLICH mehr Spass machen. Auch FarCry ist auf einer Radeon9700PRO schon nicht mehr flüssig in 1280x1024 zu spielen (ebenfalls OHNE AA).
Also: Regt eich bitte nicht darüber auf, das das 8xAA zu lahm ist, oder das das AF qualitätsmäßig zu schlecht ist. Für besseres AA und AF fehlt es der GF6800 GANZ KLAR an Leistung. Das ordentliche 4xAA und das schlechte AF sind meiner Meinung nach der beste Kompromiss, den NVidia eingehen konnte. Ich denke denen ist mit der Karte aus technischer Sicht ein ganz großer Wurf gelungen (ob das mit 222 Mio Transistoren auch ein wirtschaftlicher Erfolg werden kann, müssen wir wohl abwarten).
Also ich würde das unterschreiben!
ShadowXX
2004-04-15, 12:51:48
Original geschrieben von Gast
Ob das AF von NVidia nun ein Rückschritt war oder nicht, ist doch wohl vollkommen egal. Ob der Einbruch bei 8xAA 90% beträgt oder nicht, ist doch ebenfalls egal. Für mich ist immer das einzigst entscheidende Moment, was die Karte in der von mir genutzen Auflösung zu leisten vermag.
Z.B. war es mir immer egal, das NVidia ein beschissenes AA hatte. Ich nutze eine Auflösung von 1280x1024 (TFT) und da ist sowohl meine Radeon9700PRO, als auch ein theoretische GFFX5950 nicht in der Lage gewesen 4xAA zu nutzen. Es hat mich in den Vergleichen also nie gestört, das NVidia Ihr 4xAA nicht hinbekommen haben.
Hmmm...also ich könnte jetzt eine ziemlich lange liste von Games aufstellen, in der sowohl 9800Pro als auch die FX5950U in der lage sind 4xAA + (8)4xAF zu nutzen...auch bei 1280x1024...
Und eigentlich erwarte ich von den jetzigen Next-Gen Karten, das die weniger Games, bei denen das nicht möglich ist, dies nun möglich machen...
nV ist dort definitiv auf dem Richtigen weg....mal sehen was der r420 bringt, wenn er nur ähnliche Steigerungen die der nv40 bringen sollte, werde ich diesmal wohl auch auf die Refresh-Chips warten.
Denn egal wie gut der nv40 momentan ist / aussieht....für mich persöhnlich ist das nicht genug Mehrleistug im Vergleich zur 9800XT...(also für einen Wechsel)
BlueRaven
2004-04-15, 12:51:50
Hi Freunde
Ich wollte mal wissen wie ihr die GeForce 6 Series Demo Collage findet.
Ich meine es ist sehr gelungen und die haben einen sehr gut passenden musik dazu gefunden.
Wers noch nicht gesehen hat, kann sich es per Stream hier angucken --> Klick Streaming ;-) (http://www.nvidia.com/object/nzone_gf6_video_democollage.html)
bye
BlueRaven
Original geschrieben von Steel
Was gewaltig nach hinten losgehen könnte, falls ATI in den neueren Karten tatsächlich bessere Filterung verwenden würde.
Eher glaub ich an den Weihnachtsmann als daran.;)
Vielleicht hat man ja auch nur erkannt, dass die wenigsten Hardcorezocker (Zielgruppe) mit der Lupe vorm Monitor hocken und nach marginalen Filterunschärfen bei 12 Grad zu suchen - oder noch besser, mit Delta Snapshots, weil man sonst ja eh nix feststellen würde.
Da siehst du die Zielgruppe aber zu eingeschraenkt,
Zitat:
Neu ist zudem die Unterstützung des in Filmstudios üblichen 16-Bit-Gleitkommaformats OpenEXR im gesamten Rendering-Prozess, mit dem sich auch Szenen mit großen Helligkeitsunterschieden (HDR, High Dynamic Range) präzise berechnen lassen.
LovesuckZ
2004-04-15, 12:54:46
Original geschrieben von reunion
Vielleicht auch eine zweite Shadereinheit pro Pipe wie bei NV40?
Glaube ich irgendwie nicht, da man ja schon in der Lage ist max. 4 ops/pixel ausführen zu können (1t-ops + 3a-ops im besten Fall)
Ich bin beim NV40 von 16 Pipelines mit 2 Shaderunits und einer Anzahl von 32ops/takt ausgegangen. Nun mit der 2. Shaderunit hat ich recht, aber nicht, dass Nvidia beide kombinieren könnte.
Original geschrieben von El-Diablo
Und das ist doch zu kritisiere - uabhägig davo was ATi macht oder nicht macht. Ist doch dasselbe wie mit Brilinear, Quicunx oder eben ATi's AF Winkelabhängigkeit. Ausser, dass der schlechtere Modus eben erst recht spät eingeführt wurde...
Ausserdem, wer sagt uns, dass NV die richtigen Filtermodi nicht irgendwo im Treiber verstecken wird?
Schlussendlich, wie du's auch drehst und wendest, imo läufts imo darauf hinaus, dass NV das weder nötig hätte noch, dass man das kritiklos durchgehen lassen sollte.
Wieso haette NV das nicht noetig?
Die Vergangenheit hat doch ganz klar gezeigt, dass es noetig ist. Man schaue sich nur mal die GFFX gg. R3xx Benches an.
NV lernt eben auch dazu.
Radeonator
2004-04-15, 12:58:48
Original geschrieben von AYAlf
test auf gamestar.de
in welchem universum ist das bitte doppelt so schnell?
Doppelt so schnell wie Radeon 9800 XT
Geforce FX 6800 Ultra (NV40)
Benchmarks
Far Cry v1.1
1024x768 1280x1024 1600x1200
Geforce 6800 Ultra 45,5 36,4 28,1
Geforce 6800 Ultra (Quality) 33,4 23,8 15,5
Geforce FX 5950 Ultra 33,5 23,1 16,8
Geforce FX 5950 Ultra (Quality) 24,2 16,4 11,6
Radeon 9800 XT 40,2 31,9 23,3
Radeon 9800 XT (Quality) 32,7 22,2 16,2
Ja, wir suchen uns das Beste Bsp. raus... :lol: :bonk:
Schau dir mal Leo´s Fazit und das Fazit aller anderen Seiten an...komisch ne ;)
Die Karte ist Hammer, da manche ihr leben aber einer Firma geweiht haben, werden sie scheinbar auf einem Auge blind.
ATi zeigen am 26ten was Sie haben, bis dahin ist die 6800er mit Abstand das beste am Markt!
AlfredENeumann
2004-04-15, 13:04:43
Original geschrieben von Karlsquell
N´neuer Moni wird bei max. 1024x768 ja wohl eh fällig. ;)
Er kann schon mehr, nur leider sinkt dann die bildwiederholfrequenz so dermaßen ins Bodenlose das man es keine Minute anschauen könnte.
Und für einen neuen Moni bin ich derzeit zu geizig.
jagger
2004-04-15, 13:06:18
Also ich stoss mich ja auch an dem Farcry Benchmark... warum ist die denn nur ein paar Frames schneller als die XT? Ich habe hier den "Hammer" erwartet. Ist die DEmo CPU limitiert? Ich meine der 3DMarkscore ist ja schon impressive. Aber ich spiele nun mal Farcry und nicht 3DMark...
AlfredENeumann
2004-04-15, 13:06:26
Original geschrieben von Power
Dort ist er ja nur unwesentlich schneller wenn man einen verstaubten 2.53 P4 als Testsystem nimmt mit mehr CPU Power steigt auch der unterschied.
Das ist schon Klar, nur warum den halben Rechner erneuern nur um eine neuere Grafikkarte ausnutzen zu können?
Simon Moon
2004-04-15, 13:07:21
Original geschrieben von ow
Wieso haette NV das nicht noetig?
Die Vergangenheit hat doch ganz klar gezeigt, dass es noetig ist. Man schaue sich nur mal die GFFX gg. R3xx Benches an.
NV lernt eben auch dazu.
Sie könnten doch ebensogut hervorhalten, wie überlegen ihre Modi sind. Jedem Reviewer noch vorschreiben, er solle die BQ vergleichen etc. Mit der 6800 brauchen sie sich nicht mehr vor ATi zu verstecken. Bisher ging das wohl schlecht, weil sie nur mit dem AF überlegen waren - man konnte also sowieso die ganze Zeit argumentieren, ATi hätte immerhin noch das bessere AA. Jetzt wär das wohl nicht mehr so da NV überall mindestens gleichauf sein wird (glaub nicht, dass der neue R420 sinnvolle neue AA Modi kriegt, AF fänd ich zumindest lustig, glaub ich aber auch nicht).
Allerdings, wenn der alte Modus wirklich noch geliefert wird, und zwar offen, dann will ich nichts gesagt haben. Immerhin bietet sich so ein akzeptabler kompromiss für die Mainstreammodelle - aber mal abwarten in der Hinsicht.
DrumDub
2004-04-15, 13:08:41
Original geschrieben von ow
Hat NV es jemals noetig gehabt, Transistoren zu sparen?
das spielchen können wir endlos fortsetzen. warten wir einfach mal ab, ob in einem der nächsten treiber tatsächlich möglich sein wird, wieder auf volle filterung umzuschalten.
edit: die sache mit dem einsatz der gf seit gf1 von flimstudios ala pixar macht natürlich absolut sinn bezüglich der möglichkeit von vollem af. die frage ist nur, obs in den "spielertreiben" drin sein wird.
LovesuckZ
2004-04-15, 13:10:03
Original geschrieben von ow
Achso, Nvs AF muss man jetzt also kritisieren aber ATis noch schlechteres AF nicht? :rofl::rofl:
Es ist sinnvoll Nvidia jetzt zu kritisieren. Nicht, weil sie Nvidia sind, sondern weil es noch die Möglichkeit gibt sie zu "zwingen", den vernünftigen Modus freizuschalten.
/edit: Gast, geh woanders flamen.
Original geschrieben von Radeonator
ATi zeigen am 26ten was Sie haben, bis dahin ist die 6800er mit Abstand das beste am Markt!
Auf dem Markt gibt es noch keine 6800er Karten, somit ist Nvidia auch nicht das Beste auf dem Markt. Für den Kunden zählt nur, was es zu kaufen gibt. Vielleicht schafft es ATI ihre Karten früher auf den Markt zu bringen, auch wenn dies überraschend wäre. Aber kommt Zeit kommt Rat.
Aquaschaf
2004-04-15, 13:12:24
Dem NV40 mangelt es doch nicht an Füllrate, bringt eine in Software realisierte Winkelabhängigkeit da überhaupt einen Leistungszuwachs?
Original geschrieben von El-Diablo
Sie könnten doch ebensogut hervorhalten, wie überlegen ihre Modi sind.
Kapiert doch von den reviewern kaum einer. Also hat NV das betse gemacht, was sie tun konnten: sie haben selbst die Vergleichbarkeit hergestellt.
Allerdings, wenn der alte Modus wirklich noch geliefert wird, und zwar offen, dann will ich nichts gesagt haben. Immerhin bietet sich so ein akzeptabler kompromiss für die Mainstreammodelle - aber mal abwarten in der Hinsicht.
Da bin ich ueberzeugt davon.
Aber das wird evtl. erst nach den ganzen NV40 vs. R420 Vergleichtests geschehen. Ansonsten waere NV mit ihrer ueberlegenen Filterqualitaet ja wieder im Nachteil bei den Benches.
Oder aber die Reviewer haben bis dahin gerafft, das man NVs AF auf den "ATi-Modus" einstellen muss, um vergleichen zu koennen.
Steel
2004-04-15, 13:14:28
Original geschrieben von ow
Eher glaub ich an den Weihnachtsmann als daran.;)
Natürlich ist es unwarscheinlich, aber nicht ausgeschlossen. :D
Ebenso unwarscheinlich, wie die Tatsache, dass NV diesmal diesen Schritt getan hat.
Das hättest Du mir vorher auch nicht geglaubt, oder?
Da siehst du die Zielgruppe aber zu eingeschraenkt,
Ich glaube nicht. Denk mal genau nach, wer solche Karten wirklich käuft und wo die Prioritäten liegen.
LovesuckZ
2004-04-15, 13:15:12
Original geschrieben von Aquaschaf
Dem NV40 mangelt es doch nicht an Füllrate, bringt eine in Software realisierte Winkelabhängigkeit da überhaupt einen Leistungszuwachs?
Nein, die Karte skaliert mit dem Chiptakt mehr als mit der Speicherbandbreite. Sie profitiert ganz klar von diesem Modus. Sie verliert 10% leistung, wenn man von brilinear auf trilinear schaltet.
Original geschrieben von Aquaschaf
Dem NV40 mangelt es doch nicht an Füllrate, bringt eine in Software realisierte Winkelabhängigkeit da überhaupt einen Leistungszuwachs?
sicher wuerde es einen leistungszuwachs bringen...allerdings muss das im treiber implementiert sein...
die leute die eine testkarte haben koennten mal versuchen die mit einem aelteren treiber zum laufen zu bringen und das AF anschaun..dann wuesste man ob es in software oder hardware "optimiert" ist
AlfredENeumann
2004-04-15, 13:15:44
Original geschrieben von ow
Hat NV es jemals noetig gehabt, Transistoren zu sparen?
Eigentlich nicht.
Ist natürlich ne Frage von wieviel Transiostoren man hier spricht. Und bei einem 220mio Transi-Chip könnte hier und da was gespartes schon so einiges bringen.
Ist natürlich eine Reine Spekulation.
Ich glaube auch das die NV4X-Reihe es noch richtig kann.
Original geschrieben von DrumDub
also ist die feinere granularität, auf grund der architektur des nv40, ein hauptvorteil bei der verarbeitung der quads? "Nicht direkt". Die NV40-Pipe ist besser auszulasten, u. a. weil sie weniger pro Takt kann, insofern ja. Aber in der Frage 16x1 oder 8x2, da wäre 16x1 nicht so sehr im Vorteil, je länger die Shader, desto kleiner der Vorteil.
Mark3Dfx
2004-04-15, 13:17:43
@ Gast
Hast Du auch eine Quelle für Deine "Diagramme" oder magst nur ein bisschen als gekränter Fanboy hier rumtrollen?
Original geschrieben von ow
Noe, sieht fuer mich nur nach Flame aus.
1 Strafpunkt. Seit wann wird das Lustigmachen über ein Unternehmen mit Strafpunkten belegt? Imo sollen nur persönliche Angriffe geahndet werden.
Original geschrieben von Steel
Natürlich ist es unwarscheinlich, aber nicht ausgeschlossen. :D
Ebenso unwarscheinlich, wie die Tatsache, dass NV diesmal diesen Schritt getan hat.
Das hättest Du mir vorher auch nicht geglaubt, oder?
Ja, das ist richtig. :D
Ich glaube nicht. Denk mal genau nach, wer solche Karten wirklich käuft und wo die Prioritäten liegen.
Es wird mit Sicherheit wie seit GF1 Zeiten auch einen Ableger des Chips fuer professionelles Rendering geben.
Und die werden auch gekauft. Und zwar fuer viel mehr Geld als die billigen Consumer-Versionen der Karten.
Original geschrieben von aths
Seit wann wird das Lustigmachen über ein Unternehmen mit Strafpunkten belegt? Imo sollen nur persönliche Angriffe geahndet werden.
Das Flames geahndet werden weisst du aber also stell dich nicht so dumm.
Winter[Raven]
2004-04-15, 13:20:48
Original geschrieben von LovesuckZ
Es ist sinnvoll Nvidia jetzt zu kritisieren. Nicht, weil sie Nvidia sind, sondern weil es noch die Möglichkeit gibt sie zu "zwingen", den vernünftigen Modus freizuschalten.
/edit: Gast, geh woanders flamen.
Ich überlege gerade bei http://www.petitiononline.com ne Petition gegen Nvidia zustarten, die sollen gefelligst den Müll abschaltbar zumachen.
Auch wenn ich einer der größten Nvidianer bin, bin ich sehr verärgert über diesen Müll.
Aber Demirug sagt ja, die Treiber sind sehr sehr Bugich und vielleicht wird es in nächstem Treiber alles ok sein.
Original geschrieben von reunion
Vielleicht auch eine zweite Shadereinheit pro Pipe wie bei NV40? Original geschrieben von seahawk
Davon kann man ausgehen Das kann man höchstens vermuten. ATIs Shadereinheiten können alles rechnen (während die vom NV40 jeweils auf bestimmte Funktionen begrenzt sind.) Nun, 16 Pipes, mit 2x kompletten Shadereinheiten? Das man "davon ausgehen" kann, denke ich nicht.
Original geschrieben von ow
Hat NV es jemals noetig gehabt, Transistoren zu sparen? Das haben sie immer nötig, wie jeder Chipentwickler.
Original geschrieben von LovesuckZ
Das ist falsch. Die Karte verliert mit 4MSAA nur unwesentlich viel Leistung (um die 10-20%). Bei 8AA gibt es einen Supersamplinganteil, der die effektive Füllrate um das doppelte sinken laesst.Auf ein Viertel, meinst du.
Original geschrieben von Aquaschaf
Dem NV40 mangelt es doch nicht an Füllrate, bringt eine in Software realisierte Winkelabhängigkeit da überhaupt einen Leistungszuwachs? Das ist nicht "in Software" realisiert. AF macht die 3D-Hardware. Entweder sind die neuen AF-Berechnungen so fest verdrahtet, wie es die aktuellen Screenshots zeigen, oder die AF-Logik ist flexibel und kann entweder "ATI-Modus" oder "S3-Modus".
Steel
2004-04-15, 13:26:56
Original geschrieben von ow
Es wird mit Sicherheit wie seit GF1 Zeiten auch einen Ableger des Chips fuer professionelles Rendering geben.
Und die werden auch gekauft. Und zwar fuer viel mehr Geld als die billigen Consumer-Versionen der Karten.
Ich verwette meinen rechten Arm, dass die Quadros (bzw. deren Treiber) selbstredend ein vollwertiges Filtering bieten werde. *eg*
Wer bietet mehr?
Original geschrieben von ow
Kapiert doch von den reviewern kaum einer. Also hat NV das betse gemacht, was sie tun konnten: sie haben selbst die Vergleichbarkeit hergestellt.Die Reviewer vergleichen oft nicht nur stur 8x AF, sondern auch 4x AA, wo ATI bislang die deutlich überlegene Qualität hatte. Ich denke nicht, dass NV insgesamt sooo viel schlechter dastand.
Das beste wäre gewesen, einen möglicherweise vorhandenen Vollqualitätsmodus zuzulassen, und in den Guidelines zu schreiben, was Sache ist. Es kann nicht "das beste" sein, den Treiber auf sowas zu fixieren – wenn es denn überhaupt eine Treibersache ist, was noch nicht entgültig geklärt ist.
AYAlf
2004-04-15, 13:27:52
Original geschrieben von Radeonator
Ja, wir suchen uns das Beste Bsp. raus... :lol: :bonk:
Schau dir mal Leo´s Fazit und das Fazit aller anderen Seiten an...komisch ne ;)
Die Karte ist Hammer, da manche ihr leben aber einer Firma geweiht haben, werden sie scheinbar auf einem Auge blind.
ATi zeigen am 26ten was Sie haben, bis dahin ist die 6800er mit Abstand das beste am Markt!
also ich kann nur von mir sprechen... ich habe mein leben keiner firma geweiht .. zumindest keine graka firma :D
ich kaufe mir die karte die am besten abschneidet. hier ist nicht nur die fps, sondern auch die qualitaet gefragt. und die behauptung das nvidia doppelt so schnell wie die ALTE ati sein soll, habe ich nicht aufgestellt sondern gamestar.de (wer lesen kann, ist klar im vorteil). aber das sehe ich dir mal, grossherzig wie ich bin, nach.
und es ist nun mal eine tatsache, dass die 6800 in aktuellen spielen .. damit meine ich spiele die dx9 wirklich ausreizen. wie z.b. farcry. eben nicht der grosse wurf ist. fuer alle besserwisser .. hl2 und doom3 sind noch nicht draussen, also hier voellig irrelevant.
der benchmark 3dmark03 ist hier keineswegs aussagekraeftig. wie mir immer wieder ein paar nvidia fans verklickert haben (hoffe das gilt immer noch, nach dem guten abschneiden der 6800).
ja, und ich habe nie bestritten, dass die neue nvidia (zumindest in den naechsten 12 tage) die beste gamer karte auf diesem planet ist. aber sie ist halt fuer mich nicht der grosse uebeflieger, der uns allen verprochen wurde. mich hat sie eher kalt gelassen. der niedrige einstiegswert von 400 €, spricht da glaube ich fuer sich. jede ander kartengeneration hat mit mindestens 600 € gestartet. das heisst fuer mich, nvidia kennt die schwaechen ihres neuen champions wohl besser als die tester. sonst wuerden sie sich den mehrgewinn nicht entgehen lassen (meine meinung).
und es ist auch nicht wirklich wichtig, ob ati nun diese karte kalt im regen stehen laesst. wie der vorgaenger 9700/9800 den 5800/5900 chip von nvidia. fuer mich ist nur kein echter quantensprung gekommen. den ich bei dem geforce2 - geforce3 uebergang erleben durfte. vielleicht hab ich auch einfach nur viel zu viel erwartet.
ps: ich bin da flexibel, wenn nvidia ne super karte rausbringt. oder wenn die 6800 doch noch einige features durch einen neuen treiber rauskitzelt oder viel schneller wird. dann welchsel ich sofort das graka lager und komm zu euch nvidia fanatikern. versprochen! :bäh:
Simon Moon
2004-04-15, 13:28:51
Original geschrieben von ow
Kapiert doch von den reviewern kaum einer. Also hat NV das betse gemacht, was sie tun konnten: sie haben selbst die Vergleichbarkeit hergestellt.
Da bin ich ueberzeugt davon.
Aber das wird evtl. erst nach den ganzen NV40 vs. R420 Vergleichtests geschehen. Ansonsten waere NV mit ihrer ueberlegenen Filterqualitaet ja wieder im Nachteil bei den Benches.
Oder aber die Reviewer haben bis dahin gerafft, das man NVs AF auf den "ATi-Modus" einstellen muss, um vergleichen zu koennen.
Also ich glaub sehrwohl, dass genügend Reviewer es kapieren würden, wenn sowas in einem Review gefordert würde. Noch einfache, detailierte und seriöse Informationen geben. Man braucht sich im Moment ja nicht zu verstecken und da käme eine solche PR Aktion sicher nur positiv rüber.
Zudem würde sich der Druck auf ATi erhöhen, nachzuziehen. Mal angenommen, Ati hätte doch was verbessert, solang sich NV bedeckt hält, wird wohl wieder das gleiche passieren und schlussendlich sind sie in der BQ wieder da wo sie angefangen haben.
DrumDub
2004-04-15, 13:29:16
Original geschrieben von aths
"Nicht direkt". Die NV40-Pipe ist besser auszulasten, u. a. weil sie weniger pro Takt kann, insofern ja. Aber in der Frage 16x1 oder 8x2, da wäre 16x1 nicht so sehr im Vorteil, je länger die Shader, desto kleiner der Vorteil.
ja, so meinte ich es. bezogen auf den vorteil des nv40 bei kürzeren shadern, bei denen der nv3x eben viel leerlauf hat.
Original geschrieben von Steel
Was gewaltig nach hinten losgehen könnte, falls ATI in den neueren Karten tatsächlich bessere Filterung verwenden würde.
Wieso? Nehmen wir an ATI würde sich bei der AF Filterung verbessern und nehmen wir an, sie sind dadurch einen Tick langsamer als der NV40 mit winkelabhängiger Filterung.
Müssen dann nicht die ganzen ATI Fans die für diese schwachsinnige Entwicklung mitverantwortlich sind zu NV greifen?
Nur mal so als kleiner Einwurf.
Es ist absolut erbärmlich, wie Reviwer und vor allem die große Masse der User dieses Problem totgeschwiegen bzw. unter den Teppich gekehrt haben. ATI war einfach der totale Hecht. Scheiss doch auf AF. Den Unterschied zu NV konnte man eh nicht sehen und blah blub.
Das musste man sich täglich anhören.
Erst jetzt als sich NV auf Grund dieser Entwicklung dazu gezwungen sieht einen ähnlichen Weg zu gehen wird es zum Problem. Die Doppelmoral die einiger hier an den Tag legen und das dann noch mit schwachsinnigen Aussagen wie bei ATI hatte es sich ja zum R200 wenigstens etwas verbessert begründen ist einfach erbärmlich.
Ich finde diese Entwicklung zum Kotzen und ich finde es überhaupt nicht toll, dass Nvidia so einen Modus anbietet (falls die volle Quali nicht in einem zukünftigen Treiber doch noch zu bekommen ist).
Aber ich sag euch was. Für diese Entwicklung werde ich Nvidia keinen Vorwurf machen.
Das werde ich ganz klar den Usern, den Reviwern und ATI ankreiden und zwar jedes einzelne Prozent davon und von den Reviwern erwarte ich, dass dies dann auch mal so gewürdigt wird und hier deutlich die Ursachen für diese Entwicklung zur Sprache kommen.
Sollte Nvidia den vollen Modus noch anbieten na dann umso besser. Aber über die derzeitige Entwicklung brauch hier keiner jammern und schon gar nicht die üblichen Verdächtigen, die bei jedem ATI vs NV Thread mit ihren Tatsachenverdrehenden Argumenten schnell bei der Sache sind. Ich spreche bewusst keine Namen an. Jeder weiss wen ich meine.
Hier wird nicht zwischen den Generationen eines IHVs vergleichen, hier wird IHV übergreifend vergleichen und deshalb liegen die Schuldigen für diese Entwicklung im AF Bereich auch ganz klar auf der Hand. Nvidia gehört hier ganz sicher nicht dazu.
Radeonator
2004-04-15, 13:30:05
Ich möchte nur zu gerne wissen in wieweit die 6800non Ultra zurück fällt, da dort "nur" 12 Pipes arbeiten...
AFAIK wird hier zwar Winkel abhängig, jedoch im Gegensatz zu ATi s optimierung immer voll Trilinear gefiltert?
Original geschrieben von ow
Das Flames geahndet werden weisst du aber also stell dich nicht so dumm. Bitte locker bleiben und dem anderen nicht Dummheit zu unterstellen. Sehr oft bist du selbst zumindest hart an der Grenze zum Flame. Und nutzt deinen Mod-Status, um das Heruntermachen von NV zu bestrafen. Dazu sind die Mod-Regeln aber nicht da. Nur persönliche Angriffe sollen geahndet werden. Dein Posting hier ist imo mehr persönlicher Angriff als das Posting, was du vorhin mit einem Punkt belegt hast.
MadMan2k
2004-04-15, 13:30:31
Original geschrieben von aths
Seit wann wird das Lustigmachen über ein Unternehmen mit Strafpunkten belegt? Imo sollen nur persönliche Angriffe geahndet werden.
seit dem einen das Lustigmachen mitten ins grüne Herz trifft ;D
Ow, du machst es dir glaube ich zu einfach. Letztendlich hat sich ATI damals für die Winkelabhängigkeit entschieden. Aber du kannst jetzt NICHT ATI dafür verantwortlich machen, dass NV sich ebenfalls (wohlgemerkt 1 1/2 Jahre(!!) später) dafür entscheidet, den Bockmist hat einzig und allein NV zu verantworten.
Das schlimem dabei ist, dass ATI niemals besseres AF angeboten hat vor dem R300 und sie dass für einen effizienten Weg gehalten haben. NV kann man hier in der Tat vorwerfen nur auf Benchmarks optimiert zu haben und das macht die Sache doppelt schlimm für NV!!
Und ich bezweifle ernsthaft, dass es sich abstellen lässt. Bei ATI hat man es gemacht um Transistoren zu sparen, wären es mehr transistoren hätte man volles AF in voller Leistung bringen können. Aber das summiert sich eben auf bei 8 oder gar 16 Pipes und ich könnte mir durchaus vorstellen, dass auch NV hier massiv gespart hat, zumal es sich ja hier nicht nur um 8Bit normalofiltern handelt sondern um das FP Filtern, was sicher nochmal viel mehr transistoren kosten dürfte.
Zum vergleich, wieviel der DIE fläche frass Intellisample bei der Geforce4? 1/3 ode 1/4? Das ist schon reichlich IMHO. Man hat ja sogar im isotropen Filter gespart!
Und was die visuelle Qualität von dem winkelabhängiggedönse angeht: versuch mal ein Spiel, in dem es hügelige Aussenlandschaften gibt mit dem AF zu spielen; das sieht noch schlimmer aus als nur trilinear. Meine nächste Karte sollte auf jeden Fall korrekt filtern können. Ich hoffe inständig dass ATI den Mist aus dem R420 entfernt hat.
LovesuckZ
2004-04-15, 13:32:31
Original geschrieben von Radeonator
Ich möchte nur zu gerne wissen in wieweit die 6800non Ultra zurück fällt, da dort "nur" 12 Pipes arbeiten...
Gleiche Architektur -> 25%
Original geschrieben von DrumDub
ja, so meinte ich es. bezogen auf den vorteil des nv40 bei kürzeren shadern, bei denen der nv3x eben viel leerlauf hat. Vorsicht :) Gerade bei langen Shadern ist der NV40 ggü. NV35 im Vorteil. Je länger der Shader, desto höher der durchschnittliche relative Leistungsgewinn.
Original geschrieben von LovesuckZ
Gleiche Architektur -> 25%
Müsste ja ungefähr hinhauen, da ja auch die Speicherbandbreite entsprechend gekürzt wurde.
(del676)
2004-04-15, 13:35:42
also die HL2 benches:
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/dx1sixth_1600_pure.gif
und Stalker Benches:
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/dx2escape_1600_candy.gif
schaun ned sooooo übel aus :)
DrumDub
2004-04-15, 13:38:42
Original geschrieben von aths
Vorsicht :) Gerade bei langen Shadern ist der NV40 ggü. NV35 im Vorteil. Je länger der Shader, desto höher der durchschnittliche relative Leistungsgewinn.
aber eben nicht, wenn der nv40 nen 8x1 design wäre?
MadMan2k
2004-04-15, 13:41:19
Original geschrieben von Ulukay
also die HL2 benches und Stalker Benches schaun ned sooooo übel aus :)
jo, wegen den Games braucht man sich schonmal keine Next-Gen GraKa zu kaufen ;)
/edit
"ich mir" muss das heißen - bei der FX5950 ist doch schon recht knapp... *eg*
DrumDub
2004-04-15, 13:41:37
Original geschrieben von Ulukay
also die HL2 benches:
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/dx1sixth_1600_pure.gif
und Stalker Benches:
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/dx2escape_1600_candy.gif
schaun ned sooooo übel aus :)
eben. tr:aod kann man auch noch hinzuziehen, da wird die 9800xt auch übelst versägt von der 6800u. was AYAlf anhand seiner ausgewählten ausnahme zu belegen versucht, ist einafch nicht richtig. far cry ist nen sonderfall und nicht die regel bezüglich sm2-einsatz in spielen.
Original geschrieben von aths
Was für Änderungen sind das beispielsweise?
Wie wäre es mit nem optimierten Speicherinterface? Bessere Kompressionsalgorithmen? HyperZ IV z.B. :D
Vorstellbar wären auch mächtigere Shader oder bessere Filter, wobei ich an letzteres zwar net glaube aber darauf hoffe ;)
DrumDub
2004-04-15, 13:43:43
Original geschrieben von HOT
Wie wäre es mit nem optimierten Speicherinterface? Bessere Kompressionsalgorithmen? HyperZ IV z.B. :D
Vorstellbar wären auch mächtigere Shader oder bessere Filter, wobei ich an letzteres zwar net glaube aber darauf hoffe ;)
was meinste mit mächtigere shader? schneller? was die shader des r420 können ist doch längst bekannt. siehe: http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=5
Piffan
2004-04-15, 13:47:08
Ich habe nicht alle Posts gelesen. Als die Flames wieder anfingen, bin ich ausgestiegen....
Meine Meinung: WOW! Ein Riesensprung, vergleichbar mit dem Sprung vom GF4 zur Rad 9700.......Ein verdammt attraktives Stück Hardware....
Mich hat die Winkelabhängigkeit des AFs schon bei Ati nicht gejuckt, darum ist mir das bei NV völlig Latte. Dass einige traurig darüber sind, kann ich verstehen. Dass es von einigen FanATIkern mal wieder ausgeschlachtet wird zum hetzen, grenzt schon an Schizophrenie. Peinlich und unterste Schublade! Aber gut, dass die Fanboy so platt argumentieren und die Sache leicht zu durchschauen ist. @ow: keep cool! ;)
Wenn Ati nicht kontern kann, dann wendet sich zweifellos mal wieder das Blatt. Ich fände es nicht wirklich traurig, nur so ist sichergestellt, dass sich niemand auf der faulen Pelle ausruhen kann. Letztlich für den Fortschritt ideal....
seahawk
2004-04-15, 13:48:05
Original geschrieben von DrumDub
was meinste mit mächtigere shader? schneller? was die shader des r420 können ist doch längst bekannt. siehe: http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=5
Wenn dieses 2_b die neue Shaderspezifikation von ATI darstellt, dann liegen die hinter dem 2_a Stand von NV. Das riecht nach einem auf Speed optimierten 2.0
Mark3Dfx
2004-04-15, 13:48:35
Original geschrieben von Gast
Wieso? Nehmen wir an ATI würde sich bei der AF Filterung verbessern und nehmen wir an, sie sind dadurch einen Tick langsamer als der NV40 mit winkelabhängiger Filterung.
Müssen dann nicht die ganzen ATI Fans die für diese schwachsinnige Entwicklung mitverantwortlich sind zu NV greifen?
Nur mal so als kleiner Einwurf.
Es ist absolut erbärmlich, wie Reviwer und vor allem die große Masse der User dieses Problem totgeschwiegen bzw. unter den Teppich gekehrt haben. ATI war einfach der totale Hecht. Scheiss doch auf AF. Den Unterschied zu NV konnte man eh nicht sehen und blah blub.
Das musste man sich täglich anhören.
Erst jetzt als sich NV auf Grund dieser Entwicklung dazu gezwungen sieht einen ähnlichen Weg zu gehen wird es zum Problem. Die Doppelmoral die einiger hier an den Tag legen und das dann noch mit schwachsinnigen Aussagen wie bei ATI hatte es sich ja zum R200 wenigstens etwas verbessert begründen ist einfach erbärmlich.
Ich finde diese Entwicklung zum Kotzen und ich finde es überhaupt nicht toll, dass Nvidia so einen Modus anbietet (falls die volle Quali nicht in einem zukünftigen Treiber doch noch zu bekommen ist).
Aber ich sag euch was. Für diese Entwicklung werde ich Nvidia keinen Vorwurf machen.
Das werde ich ganz klar den Usern, den Reviwern und ATI ankreiden und zwar jedes einzelne Prozent davon und von den Reviwern erwarte ich, dass dies dann auch mal so gewürdigt wird und hier deutlich die Ursachen für diese Entwicklung zur Sprache kommen.
Sollte Nvidia den vollen Modus noch anbieten na dann umso besser. Aber über die derzeitige Entwicklung brauch hier keiner jammern und schon gar nicht die üblichen Verdächtigen, die bei jedem ATI vs NV Thread mit ihren Tatsachenverdrehenden Argumenten schnell bei der Sache sind. Ich spreche bewusst keine Namen an. Jeder weiss wen ich meine.
Hier wird nicht zwischen den Generationen eines IHVs vergleichen, hier wird IHV übergreifend vergleichen und deshalb liegen die Schuldigen für diese Entwicklung im AF Bereich auch ganz klar auf der Hand. Nvidia gehört hier ganz sicher nicht dazu.
das erste "Gast" Posting das ich voll unterschreiben kann!
Danke
tokugawa
2004-04-15, 13:49:48
Original geschrieben von r3DrUm
Load ist nicht 3D, wenn die karte mit einem Spiel belastet wird, wird der Verbrauch höher liegen als beim booten.
"Load" heißt "Belastung", nicht booten.
Original geschrieben von DrumDub
aber eben nicht, wenn der nv40 nen 8x1 design wäre? Mit 8x1 wäre er (shadermäßig) wohl nur halb so schnell, wie er jetzt ist. Da er meist mehr als doppelt so schnell wie ein NV35 ist, wäre auch eine 8x1-NV-Architektur schneller. Wiederum je länger die Shader, desto schneller, jedenfalls in der Tendenz.
Original geschrieben von seahawk
Wenn dieses 2_b die neue Shaderspezifikation von ATI darstellt, dann liegen die hinter dem 2_a Stand von NV. Das riecht nach einem auf Speed optimierten 2.0 ... mit einigen wenigen Erweiterungen, so dass es formal gesehen 2.X ist. Die Technik basiert natürlich eindeutig auf 2.0 vom R300.
Mark3Dfx
2004-04-15, 13:52:53
@ Piffan
Du überraschst mich positiv. :bier:
Freuen wir uns einfach auf einen engen Wettbewerb zwischen ATi und nVIDIA.
tokugawa
2004-04-15, 13:56:05
Original geschrieben von Gast
Warum erzählt 3DCenter das die Karte ruhig ist,das stimmt nicht !
PcWelt und Gamestar haben die Lautstärke gemessen und dabei kamm über 7 Sone raus. Das ist abartig laut ,Pcwelt schreib das sich die Karte wie ein Staubsauger anhört.
Und dann kommt der Stromverbrauch von 80-95 Watt dazu *vogelzeig* ,NV sollte mal ne vernünftige Karte bauen.
Gamestar schrieb auch dass bei deren Karte die Lüftersteuerung nicht funktioniert.
Bitte genauer lesen und nicht nur selektiv!
deekey777
2004-04-15, 13:57:32
Original geschrieben von Ulukay
also die HL2 benches:
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/dx1sixth_1600_pure.gif
und Stalker Benches:
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/dx2escape_1600_candy.gif
schaun ned sooooo übel aus :)
Hm, seltsam. Zum Release der 5950 Ultra wurden die HL2 Beta Ergebnisse zerriessen, da sie aus einer illegalen Beta, nicht optimiert.... waren. Das gleiche auch zu der STALKER Beta (besser gesagt Alpha), die uralt ist und DX9 nur vom Hörensagen kennen soll.
LovesuckZ
2004-04-15, 13:58:28
Original geschrieben von deekey777
Hm, seltsam. Zum Release der 5950 Ultra wurden die HL2 Beta Ergebnisse zerriessen, da sie aus einer illegalen Beta, nicht optimiert....
Umso überraschender ist das Ergebnis.
Original geschrieben von AYAlf
und es ist nun mal eine tatsache, dass die 6800 in aktuellen spielen .. damit meine ich spiele die dx9 wirklich ausreizen. wie z.b. farcry. eben nicht der grosse wurf ist.
oh man...lest doch mal bitte...das mit farcry ist ein unerklaerlicher sonderfall... es liegt aber NICHT an DX9 features da demirug die farcry 2.0 shader auf einer 6800u testen lassen hat und uebermaessig viel leistung dafuer da ist......
knallebumm
2004-04-15, 14:00:56
Ich versteh nicht so ganz, wieso manche sagen, daß es nicht der erwartete Knaller ist. Selbst wenn der Vorsprung des nv40 mal "nur" ca 30% ist (bei nicht cpu-limitierten benches), dann ist das doch ein Riesensprung. In welchen Bereichen gibts sonst noch Sprünge von 30%? Überall wird um zehntelsekunden gefeilt und um Steigerungen im einstelligen Prozentbereich. Das ist doch jetzt mal ein Riesensatz, den die 6800u hingelegt hat. (die 30% hab ich jetzt nicht nachgerechnet)
Oft ist der Vorsprung des nv 40 jedoch noch deutlicher. Ich hab auch benches gesehen wo der nv40 100% schneller ist und mehr.
deekey777
2004-04-15, 14:02:55
Original geschrieben von LovesuckZ
Umso überraschender ist das Ergebnis.
Was ist daran überraschend: Die Leistung der neuesten Grafikkarte oder, dass diese beiden "Games" zum Benchen benutzt werden, deren Aussagekraft aber mehr als zweifelhaft ist?
tokugawa
2004-04-15, 14:04:21
Original geschrieben von Nedo
jo, man kann nur hoffen, dass die Sache mti Far Cry mit neueren Treibern besser wird.
Is ja nicht umsonst eine NextGen Karte, die ein NextGen Spiel super darstellen soll :)
Kann ja auch sein dass es ein "App Problem" ist, also an Far Cry liegt. Sagt mir zumindest ein NVidia-Praktikant... aber was wissen schon Praktikanten :D
LovesuckZ
2004-04-15, 14:05:49
Original geschrieben von deekey777
Was ist daran überraschend: Die Leistung der neuesten Grafikkarte oder, dass diese beiden "Games" zum Benchen benutzt werden, deren Aussagekraft aber mehr als zweifelhaft ist?
Das der N40 in einer Betaversion, welche über keine optimierung für die FX Serie verfügte mit FP32 doppelt so schnell ist wie ATi mit FP24. Daran lässt sich schon erkennen, dass Nvidia einen riesen Schritt nach vorne getan hat!
betasilie
2004-04-15, 14:05:50
Original geschrieben von deekey777
Hm, seltsam. Zum Release der 5950 Ultra wurden die HL2 Beta Ergebnisse zerriessen, da sie aus einer illegalen Beta, nicht optimiert.... waren. Das gleiche auch zu der STALKER Beta (besser gesagt Alpha), die uralt ist und DX9 nur vom Hörensagen kennen soll.
Full Ack! ... Die Fanboys drehen sich das wie es ihenn passt.
Ich persönlich finde die Werte recht ordentlich, wobei ich aber erstmal abwarten will, ob die echt sind.
Original geschrieben von Mark3Dfx
@ Gast
Hast Du auch eine Quelle für Deine "Diagramme" oder magst nur ein bisschen als gekränter Fanboy hier rumtrollen?
Der schlaue Mensch klickt auf das Diagramm und geht auf Eigenschaften.
DrumDub
2004-04-15, 14:10:36
Original geschrieben von seahawk
Wenn dieses 2_b die neue Shaderspezifikation von ATI darstellt, dann liegen die hinter dem 2_a Stand von NV. Das riecht nach einem auf Speed optimierten 2.0
so ist es.
2_b ist das neue hlsl-compiler-profil für den r420 im dx9-sdk. demi hat das auch schon mal erwähnt. bei b3d sieht man nun mal nen guten vergleich zu den anderen versionen.
AYAlf
2004-04-15, 14:10:49
Original geschrieben von HOT
Ow, du machst es dir glaube ich zu einfach. Letztendlich hat sich ATI damals für die Winkelabhängigkeit entschieden. Aber du kannst jetzt NICHT ATI dafür verantwortlich machen, dass NV sich ebenfalls (wohlgemerkt 1 1/2 Jahre(!!) später) dafür entscheidet, den Bockmist hat einzig und allein NV zu verantworten.
Das schlimem dabei ist, dass ATI niemals besseres AF angeboten hat vor dem R300 und sie dass für einen effizienten Weg gehalten haben. NV kann man hier in der Tat vorwerfen nur auf Benchmarks optimiert zu haben und das macht die Sache doppelt schlimm für NV!!
Und ich bezweifle ernsthaft, dass es sich abstellen lässt. Bei ATI hat man es gemacht um Transistoren zu sparen, wären es mehr transistoren hätte man volles AF in voller Leistung bringen können. Aber das summiert sich eben auf bei 8 oder gar 16 Pipes und ich könnte mir durchaus vorstellen, dass auch NV hier massiv gespart hat, zumal es sich ja hier nicht nur um 8Bit normalofiltern handelt sondern um das FP Filtern, was sicher nochmal viel mehr transistoren kosten dürfte.
Zum vergleich, wieviel der DIE fläche frass Intellisample bei der Geforce4? 1/3 ode 1/4? Das ist schon reichlich IMHO. Man hat ja sogar im isotropen Filter gespart!
Und was die visuelle Qualität von dem winkelabhängiggedönse angeht: versuch mal ein Spiel, in dem es hügelige Aussenlandschaften gibt mit dem AF zu spielen; das sieht noch schlimmer aus als nur trilinear. Meine nächste Karte sollte auf jeden Fall korrekt filtern können. Ich hoffe inständig dass ATI den Mist aus dem R420 entfernt hat.
hot stimme dir voll zu!!
finde es laecherlich, das einige nvidia anhaenger, nun der konkurenz den schwarzen peter anhaengen wollen. nvidia hat so entschiden also ist nvidia auch dafuer verantwortlich.
tokugawa
2004-04-15, 14:10:51
Original geschrieben von betareverse
Full Ack! ... Die Fanboys drehen sich das wie es ihenn passt.
Das "Rumdrehen" ist allerdings beiderseitig zu beobachen. NVIDIA Fanboys legen plötzlich Wert auf Benches die beim NV3x noch irrelevant waren, und ATI Fanboys kreiden plötzlich das winkelabhängige AF an.
Meiner Ansicht nach ist beides nicht wünschenswert :D egal wie man zu welchem Hersteller steht.
knallebumm
2004-04-15, 14:11:32
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page23.asp
farcry
1024*768 4aa 42% schneller
1280*1024 4aa 58% schneller
1600*1280 4aa 67% schneller gegenüber 9800xt
getestet auf a64 3400+
Was soll daran enttäuschend sein?
seahawk
2004-04-15, 14:11:34
http://www.pcper.com/comments.php?nid=145
Daa gibt es angeblich Bilder die den Unterschied zwischen FarCry heute und mit 3.0 Shadern zeigen. :verd:
tokugawa
2004-04-15, 14:13:24
Original geschrieben von AYAlf
hot stimme dir voll zu!!
finde es laecherlich, das einige nvidia anhaenger, nun der konkurenz den schwarzen peter anhaengen wollen. nvidia hat so entschiden also ist nvidia auch dafuer verantwortlich.
Fairerweise muß man sagen dass tatsächlich sehr selten auf das ATI-AF Problem hingewiesen wurde in den Medien.
Natürlich ist NVIDIA verantwortlich dafür, dass es diese "Optimierung" eingebaut hat. Aber man kann es ihnen nicht allein ankreiden, wenn durch die Gegebenheiten der Medien ihnen der Eindruck vermittelt wurde, "Winkelabhängiges AF ist eh ok". Es hätte in den Medien stärker kritisiert gehört.
(del676)
2004-04-15, 14:15:37
Original geschrieben von seahawk
http://www.pcper.com/comments.php?nid=145
Daa gibt es angeblich Bilder die den Unterschied zwischen FarCry heute und mit 3.0 Shadern zeigen. :verd:
FC ohne 3.0 sieht aber sicher nicht aus wie auf diesen screens ;)
Godmode
2004-04-15, 14:15:57
Das möchte ich auch zu gerne wissen, was da in FarCry abläuft, naja vielleicht gibts noch Probleme mit dem Treiber.
edit:
Die Screens ohne 3.0 haben eine sehr geringe Texturschärfe, da hats mal wieder einer nicht gerafft ins Optionsmenu zu gehen und die Texturqualität auf max zu stellen :)
Was mir auffällt bei den 3.0 Shots ist die Geometrie detailierter?
Steel
2004-04-15, 14:15:59
Original geschrieben von seahawk
http://www.pcper.com/comments.php?nid=145
Daa gibt es angeblich Bilder die den Unterschied zwischen FarCry heute und mit 3.0 Shadern zeigen. :verd: ROFL? So mies, wie die linken Shots hat bei mir FC (R9800Pro) aber nicht ausgesehen.
Das ist ein schlechter Scherz.
DrumDub
2004-04-15, 14:18:14
Original geschrieben von aths
Mit 8x1 wäre er (shadermäßig) wohl nur halb so schnell, wie er jetzt ist. Da er meist mehr als doppelt so schnell wie ein NV35 ist, wäre auch eine 8x1-NV-Architektur schneller. Wiederum je länger die Shader, desto schneller, jedenfalls in der Tendenz.
ah so. versteht ich das jetzt richtig, wenn der nv40 als laie auf mich wirkt als wäre er "feiner aufgelöst", könnte also mit jedweder art von shaderlänge besser umgehen, da er sie besser auf die pipes verteilen kann? hinzu kommt natürlich noch die zweite shadereinheit. daran hatt ich auch nicht gedacht.
Original geschrieben von DrumDub
so ist es.
2_b ist das neue hlsl-compiler-profil für den r420 im dx9-sdk. demi hat das auch schon mal erwähnt. bei b3d sieht man nun mal nen guten vergleich zu den anderen versionen. Hat er aus dem NV-Pressematerial.
Original geschrieben von aths
Die Reviewer vergleichen oft nicht nur stur 8x AF, sondern auch 4x AA, wo ATI bislang die deutlich überlegene Qualität hatte. Ich denke nicht, dass NV insgesamt sooo viel schlechter dastand.
Moment mal.
Die meissten großen Seiten haben klar zur Sprache gebracht dass ATIs AA besser aussieht.
Beim AF naja... Die meissten haben gesagt man sieht keinen Unterschied oder er ist zu gering und blah. Klar wenn ich nach dem ATI Benchmark Guide teste, dann seh ich es auch nicht. Löblich waren hier einzig und allein mal xbit, welche absichtlich die Perspektive gedreht haben um das grausige AF zu sehen.
Außerdem übersiehst du eine Kleinigkeit. ATIs AF war klar und deutlich zum Speedgewinn und Sparen von Transistoren gedacht. NVs schlechtes AA hingegen hatt überhaupt keinen Sparhintergrund. Es war schlichtweg nicht aktuell. Es wurde aber nicht absichtlich OG genommen um an Speed zu kommen wie bei ATIs AF.
Omnicron
2004-04-15, 14:21:08
Original geschrieben von Ulukay
FC ohne 3.0 sieht aber sicher nicht aus wie auf diesen screens ;)
Besonders der Statuenshot sieht eher aus als wäre das FC ohne Shader und mit low details oder so ;D
betasilie
2004-04-15, 14:21:46
Original geschrieben von seahawk
http://www.pcper.com/comments.php?nid=145
Daa gibt es angeblich Bilder die den Unterschied zwischen FarCry heute und mit 3.0 Shadern zeigen. :verd:
Klar, einmal alles auf Ultralow und dagen ein Bild mit PS3.0 und alles auf ultrahigh. :lolaway:
NV weiß schon, wie man die Leute verarscht. :up:
DrumDub
2004-04-15, 14:24:34
Original geschrieben von aths
Hat er aus dem NV-Pressematerial.
hmm... ah so. aber ich denke die sache wird featuremäßig wohl richtig sein, da das profil von ms abgesegnet wird?
Original geschrieben von DrumDub
ah so. versteht ich das jetzt richtig, wenn der nv40 als laie auf mich wirkt als wäre er "feiner aufgelöst", könnte also mit jedweder art von shaderlänge besser umgehen, da er sie besser auf die pipes verteilen kann? hinzu kommt natürlich noch die zweite shadereinheit. daran hatt ich auch nicht gedacht. Der NV35 hat auch zwei Shadereinheiten. Diese sind jeweils sogar "kräftiger" als die des NV40.
Original geschrieben von El-Diablo
Also ich glaub sehrwohl, dass genügend Reviewer es kapieren würden, wenn sowas in einem Review gefordert würde. Noch einfache, detailierte und seriöse Informationen geben. Man braucht sich im Moment ja nicht zu verstecken und da käme eine solche PR Aktion sicher nur positiv rüber.
Untersachaetze da mal nicht die Reviewer! ;)
Und sobald der R420 mit seinem miesen AF daherkommt, was dann?? Erst dann die Winkelabhaengigkeit im Treiber erzwingen um in Benches nicht benachteiligt zu sein?
Ich denke, NV hat bis jetzt alles richtig gemacht. Das bessere AF wird erst dann kommen, wenn es gebraucht wird.
Zudem würde sich der Druck auf ATi erhöhen, nachzuziehen. Mal angenommen, Ati hätte doch was verbessert, solang sich NV bedeckt hält, wird wohl wieder das gleiche passieren und schlussendlich sind sie in der BQ wieder da wo sie angefangen haben.
Aber wer nimmt sowas schon an?? Es hat noch NIE einen ATi Chip gegeben, der AF in NV-Qualitaet geliefert hat. ABer die AF-Leistung der R3xx wurde immer hochgelobt (Stichwort Reviewer). Meinst du ATi kaeme aus diesem selbst eingebrockten Dilemma nochmal raus?
Wie sollten die denn ihren Usern erklaeren, warum die AF-Leistung auf einmal so absackt gegenueber vorherigen Chipgenerationen??
DrumDub
2004-04-15, 14:30:59
Original geschrieben von betareverse
Klar, einmal alles auf Ultralow und dagen ein Bild mit PS3.0 und alles auf ultrahigh. :lolaway:
NV weiß schon, wie man die Leute verarscht. :up:
hehe... nvs marketing hat nicht von seiner verarschungskraft seit 3dfx-zeiten eingebüsst. :D
Original geschrieben von ow
Wie sollten die denn ihren Usern erklaeren, warum die AF-Leistung auf einmal so absackt gegenueber vorherigen Chipgenerationen?? Wenn die Gesamtleistung deutlich steigt, würde das locker weggesteckt.
AYAlf
2004-04-15, 14:32:03
die verarsche der shader 3.0 geschicht mit fc sollte man nvidia aber nachsehen. es gibt nun mal qualitativ keinen echten unterschied (nur fuer echte experten erkennbar, schaezte ich). anders konnten sie den unterschied also dem normalen dau nicht nahe bringen. bloed ist halt nur, wenn der dau schon eine ati karte vorher besessen hat und sich nvidia durch die veranschaulichungen laecherlich macht.
Original geschrieben von tokugawa
Fairerweise muß man sagen dass tatsächlich sehr selten auf das ATI-AF Problem hingewiesen wurde in den Medien.
Natürlich ist NVIDIA verantwortlich dafür, dass es diese "Optimierung" eingebaut hat. Aber man kann es ihnen nicht allein ankreiden, wenn durch die Gegebenheiten der Medien ihnen der Eindruck vermittelt wurde, "Winkelabhängiges AF ist eh ok". Es hätte in den Medien stärker kritisiert gehört.
Nein, NV hat diese "Schwäche" eben ausgenutzt. So ist das Geschäft eben. Die Verantwortung liegt bei NV bei sonst niemandem.
LovesuckZ
2004-04-15, 14:35:26
Original geschrieben von HOT
Nein, NV hat diese "Schwäche" eben ausgenutzt. So ist das Geschäft eben. Die Verantwortung liegt bei NV bei sonst niemandem.
Falsch. Die Verantwortung haette bei den reviewern gelegen, jede Art von IQ "Optimierungen" scharf zu kritisieren (egal ob "ATi-AF", Shaderreplacement oder das Erzwingen von FP16). Dabei sollte es völlig egal sein, ob man den Unterschied sieht oder nicht!
Original geschrieben von LovesuckZ
Falsch. Die Verantwortung haette bei den reviewern gelegen, jede Art von IQ "Optimierungen" scharf zu kritisieren (egal ob "ATi-AF", Shaderreplacement oder das Erzwingen von FP16). Falsch. NV ist dafür zuständig, welches AF wir bekommen.
LovesuckZ
2004-04-15, 14:39:07
Original geschrieben von aths
Falsch. NV ist dafür zuständig, welches AF wir bekommen.
Nvidia ist zustaendig, weil sie es sich erlauben können. Wer kritisiert es schon?
Techreport hat geschrieben, dass es unfair waere mit HQ zu benchen, da Nvidia benachteiligt werde...
Hardocp.com meinte zum "brilinearen" Filter, dass dieser nicht schlimm sei, weil man die Unterschiede beim Spielen nicht sehe...
Alles das lässt Nvidia doch ermutigen weiter zu gehen. Wer hat sie den außer 3Dcenter.de richtig dafür abgestraft? Ein paar Fanboys in irgendeinen Forum, und weiter?
/edit: Die Hardwareseiten haben die Macht druck auf die hersteller auszuüben. Sie können verkaufsfördern oder verkaufshindern wirken. Deswegen sollte man auch berechtigte Kritik immer anbringen und nichts, auch wenn es für einige Kleinigkeiten darstellen, unter dem teppich kehren.
MagicMat
2004-04-15, 14:42:29
Original geschrieben von Piffan
Ich habe nicht alle Posts gelesen. Als die Flames wieder anfingen, bin ich ausgestiegen....
Meine Meinung: WOW! Ein Riesensprung, vergleichbar mit dem Sprung vom GF4 zur Rad 9700.......Ein verdammt attraktives Stück Hardware....
Mich hat die Winkelabhängigkeit des AFs schon bei Ati nicht gejuckt, darum ist mir das bei NV völlig Latte. Dass einige traurig darüber sind, kann ich verstehen. Dass es von einigen FanATIkern mal wieder ausgeschlachtet wird zum hetzen, grenzt schon an Schizophrenie. Peinlich und unterste Schublade! Aber gut, dass die Fanboy so platt argumentieren und die Sache leicht zu durchschauen ist. @ow: keep cool! ;)
Wenn Ati nicht kontern kann, dann wendet sich zweifellos mal wieder das Blatt. Ich fände es nicht wirklich traurig, nur so ist sichergestellt, dass sich niemand auf der faulen Pelle ausruhen kann. Letztlich für den Fortschritt ideal....
Genauso sehe ich das auch. Bin damals von meiner GF3 auf die 9700 gewechselt und würde, falls ATI nicht wirklich was gleichwertiges nachschiebt, auch jederzeit wieder auf die 6800 nach NVidia zurückwechseln (natürlich nicht für 500 € ;)). Die ganze flamerei gegen beide Hersteller geht einem echt auf den Nerv und unterbindet meist eine konstruktive Diskussion. Reißt euch mal am Riemen!
Rampage 2
2004-04-15, 14:43:43
Original geschrieben von LovesuckZ
Dann ist es doch jetzt bei nvidia genauso: brilinear -> trilinear...
Da fällt mir ein: Ist die 16x1 Architektur des NV40 nun bilinear oder vollständig trilinear?
DrumDub
2004-04-15, 14:44:00
Original geschrieben von aths
Der NV35 hat auch zwei Shadereinheiten. Diese sind jeweils sogar "kräftiger" als die des NV40.
ähmmm wieso "kräftiger"? das verhältnis von tops und aops ist doch nur 1:1 beim nv35 (bis auf sonderfälle mit 1:1,5). beim nv4x ist es im besten fall 1:4.
Rampage 2
2004-04-15, 14:50:59
Boah, 2.5x schneller als die 9800XT in HL2 und 2x so schnell in Stalker - das ist doch ein Riesensprung! Was wollt ihr denn mehr von NV? Wenn es keine Fehler beim AA (keine Gammakorrektur, "unangenehmes" 8xAA) und beim AF (adaptiv, schlechtere isotrope Filterung) sowie beim Vertex Shader (zu niedriger Poly-Output) gäbe, dann wäre der NV40 buchstäblich die perfekte Karte!
Schade nur, dass NV kein TruForm wie ATI bietet...UT1 und UT2003 würden nämlich verdammt geil aussehen.
Lob an NV
DrumDub
2004-04-15, 14:51:03
Original geschrieben von Rampage 2
Da fällt mir ein: Ist die 16x1 Architektur des NV40 nun bilinear oder vollständig trilinear?
bilinear. siehe aths technik-artikel zum nv40: http://www.3dcenter.org/artikel/nv40_technik/
deekey777
2004-04-15, 14:51:49
@beta&LS:
Die Ergebnisse sind beeindruckend - was noch untertrieben ist. Es ging mir eher darum, dass bestimmte Leute genau diese HL2 Beta+Ergebnisse vor etwa 6 Monaten für nichts und nichtig hielten, jetzt aber laut "Hurra" schreien.
Original geschrieben von LovesuckZ
Wer hat sie den außer 3Dcenter.de richtig dafür abgestraft?
In der c´t wurde ausdrücklich darauf aufmerksam gemacht mit Bilder vom AF-Tester. Das hat wohl mehr weh getan als alles was 3Dcenter hätte machen können ;)
edit: also damals bei ATi
Hoffe aber auch dass beim NV40 Test was kommt :)
Original geschrieben von ow
Untersachaetze da mal nicht die Reviewer! ;)
Und sobald der R420 mit seinem miesen AF daherkommt, was dann?? Erst dann die Winkelabhaengigkeit im Treiber erzwingen um in Benches nicht benachteiligt zu sein?
Ich denke, NV hat bis jetzt alles richtig gemacht. Das bessere AF wird erst dann kommen, wenn es gebraucht wird.
Aber wer nimmt sowas schon an?? Es hat noch NIE einen ATi Chip gegeben, der AF in NV-Qualitaet geliefert hat. ABer die AF-Leistung der R3xx wurde immer hochgelobt (Stichwort Reviewer). Meinst du ATi kaeme aus diesem selbst eingebrockten Dilemma nochmal raus?
Wie sollten die denn ihren Usern erklaeren, warum die AF-Leistung auf einmal so absackt gegenueber vorherigen Chipgenerationen??
a.) ob der R420 wirklich das üblich sch... AF bietet werden wir sehen...
b.) das wird ne Hardwaresache sein, jedenfalls war das bei ATI genauso und ich wüsste auch nicht wie man das per Treiber machen soll (bin aber auch kein Experte :D)
c.) Das AF hatte damals ein ganz andere Stellung als heute! Damals war es ein optionales Feature weil es bei NV einfach viel zu lahm war. Allein dadurch dass AF wegen der Optimierung auf einmal überhaupt nutzbar wurde, wurde es gelobt (zurecht) und bei 4x ist die Winkelabhängigkeit recht gering.
d.) Der R420 ist an sich viel schneller als der R300 (das ist einfaches Rechnen :D) wordurch AF nicht langsamer laufen kann. Im Endeffekt wird es in seiner vollen Form nur mehr Transistoren brauchen als vorher (das sind auch sicher net wenig).
Ausserdem muss man ATI zugute halten, dass sie so ne sch... wie den brilinearen Filter einfallen lassen hat. Überhaupt sind bei ATI kaum sichtbare Softwareoptimierungen zu finden und ich bete darum das sie so einen Müll auch nie machen werden.
Original geschrieben von Rampage 2
Boah, 2.5x schneller als die 9800XT in HL2 und 2x so schnell in Stalker - das ist doch ein Riesensprung! Was wollt ihr denn mehr von NV? Wenn es keine Fehler beim AA (keine Gammakorrektur, "unangenehmes" 8xAA) und beim AF (adaptiv, schlechtere isotrope Filterung) sowie beim Vertex Shader (zu niedriger Poly-Output) gäbe, dann wäre der NV40 buchstäblich die perfekte Karte!
Schade nur, dass NV kein TruForm wie ATI bietet...UT1 und UT2003 würden nämlich verdammt geil aussehen.
Lob an NV
Die Shaderpower ist schier unglaublich :D
Damit ist der Hauptnachteil plötzlich der Hauptvorteil bei NV. Das Chipdesign ist echt wahnsinnig effizient.
Marodeur
2004-04-15, 14:57:28
Original geschrieben von Rampage 2
Boah, 2.5x schneller als die 9800XT in HL2 und 2x so schnell in Stalker - das ist doch ein Riesensprung! Was wollt ihr denn mehr von NV?
Erstmal abwarten wie es im "echten" spiel ausschaut. Auf Benchmarks irgendwelcher inoffiziellen Demos/Games im Beta oder Pre-Betastatus kann ich verzichten. Die hypen nur, aber was am Ende rauskommt weis noch keiner... :abgel:
Ich wollte mal wissen, wie sich es mit dem Gerücht zum Transistor-Count (175 vs. 210 vs. 222 Transistoren) vor der Präsentation verhält? Absichtlich gestreut von Nvidia? Und wenn ja, wieso?
Winter[Raven]
2004-04-15, 15:00:44
ATI kaum sichtbare Softwareoptimierungen
Rofl ... *lach*. Hätte Nvidia auch den NV30 wirklich kanpp an den DX9.0 Vorgaben gebaut, brächte der NV30 auch sichelrich keine Optimierungen.
Würde ATi nicht ständig auf der Suche nach "wo kann ich Transis einsparen, damit ich höher takten kann" sein, hääten wir heute nicht so einen Mülll mit dem AF.
Kan nman Nvidia unter irgendeiner Feedback Mail anschreiben?
@ Gast
Am Anfang spach man von 150, dann irgendwann sagte man 175, INQ verbretete den Gerücht von 210 und Final waren es 222, ich denke es wurde von nVidia gestreut um ATI bissechen zu verwieren.
deekey777
2004-04-15, 15:04:08
Original geschrieben von Winter[Raven]
Rofl ... *lach*. Hätte Nvidia auch den NV30 wirklich kanpp an den DX9.0 Vorgaben gebaut, brächte der NV30 auch sichelrich keine Optimierungen.
Würde ATi nicht ständig auf der Suche nach "wo kann ich Transis einsparen, damit ich höher takten kann" sein, hääten wir heute nicht so einen Mülll mit dem AF.
...
Da siehst du: Keine Softwareoptimierungen bei ATi ;D
Quasar
2004-04-15, 15:04:19
Original geschrieben von DrumDub
transistoren sparen, welches ja auch der grund für atis af-implementierung ist.
Und dafür Floating Point Texturfilterung einbauen? Nee, ich glaube schon, daß das AF von nVidia im Gegenteil noch viel programmierbarer als beim nV30 geworden ist.
Allerdings nützt uns (mir) das nichts, wenn nV keinen Schalter rausrückte, mit dem man Full-Tri und Full-AF erzwingen kann. :down:
Original geschrieben von LovesuckZ
/edit: Die Hardwareseiten haben die Macht druck auf die hersteller auszuüben. Sie können verkaufsfördern oder verkaufshindern wirken. Deswegen sollte man auch berechtigte Kritik immer anbringen und nichts, auch wenn es für einige Kleinigkeiten darstellen, unter dem teppich kehren. Nvidia ist dafür zuständig, welches AF ihr Produkt anbietet. Da kann man lange diskutieren, warum sie es verschlechtert haben. Die Verantwortung liegt bei NV. *Ich* akzeptiere diesen Rückschritt nicht.
Winter[Raven]
2004-04-15, 15:06:49
Original geschrieben von deekey777
Da siehst du: Keine Softwareoptimierungen bei ATi ;D
Ich rede von solchen Optimierunge, die Nvidia braucht um mit NV30+NV35+NV38 irgendwie bei ATI mitzuhalten, ob Shader für die DEv's schreiben oder die Shader optimieren oder austauschen.
Den Compiler verweden wohl jetzt alle.
Original geschrieben von Rampage 2
Da fällt mir ein: Ist die 16x1 Architektur des NV40 nun bilinear oder vollständig trilinear? Die TMUs sind natürlich bilineare TMUs, die per Loop aber auch trilinear und anisotrop filtern können.
Quasar
2004-04-15, 15:06:59
Original geschrieben von HOT
Ausserdem muss man ATI zugute halten, dass sie so ne sch... wie den brilinearen Filter einfallen lassen hat. Überhaupt sind bei ATI kaum sichtbare Softwareoptimierungen zu finden und ich bete darum das sie so einen Müll auch nie machen werden.
Was macht Hardware-Cheats in deinen Augen weniger verwerflich, als Software-Cheats?
Quasar
2004-04-15, 15:08:24
Original geschrieben von aths
Nvidia ist dafür zuständig, welches AF ihr Produkt anbietet. Da kann man lange diskutieren, warum sie es verschlechtert haben. Die Verantwortung liegt bei NV. *Ich* akzeptiere diesen Rückschritt nicht.
Ack.
Aber eine Frage, hat der Treiber-Schalter für "High-Quality" bei euch eine erkennbare Wirkung gehabt?
Original geschrieben von DrumDub
ähmmm wieso "kräftiger"? das verhältnis von tops und aops ist doch nur 1:1 beim nv35 (bis auf sonderfälle mit 1:1,5). beim nv4x ist es im besten fall 1:4.
Eine NV35-Pipe kann pro Takt:
- über 2 TMUs verfügen
- jede beliebige Op ausführen (Shader Core)
- plus 1 oder 2 MADs. (FPU)
Eine NV40-Pipe kann pro Takt:
- Über 1 TMU verfügen
- Ein MUL oder eine SFU rechnen (Unit #1)
- Plus 1 MAD (Unit #2)
Betrachtung gilt jeweils für 4 Komponenten pro Vektor.
Beim "Hardware-Cheating" steht der Cheat vor Erhalt der Ware fest. Beim Software-Cheating kann ich auch nach dem Kauf das Pech haben, dass der Chip-Hersteller die Qualität zugunsten der Performance opfert.
Original geschrieben von Gast
Ich wollte mal wissen, wie sich es mit dem Gerücht zum Transistor-Count (175 vs. 210 vs. 222 Transistoren) vor der Präsentation verhält? Absichtlich gestreut von Nvidia? Und wenn ja, wieso? Gut, dass das mal jemand fragt.
Anfänglich war der NV40 mit nur 12 Pixelpipelines geplant.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.