Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread
Seiten :
1
2
3
4
5
6
7
8
9
[
10]
11
12
13
14
[dzp]Viper
2004-06-05, 15:21:14
Original geschrieben von dildo4u
für mich schwer abzuschätzen brauche genaue werte weil die karte sonst mit meiner Wakü pumpe zusammen trifft die 6800GT wird ja das selbe Board haben oder?
kann man gut abschätzen da dieses Schwarze ding oben rechts auf der 6800er ziemlich genau 1 cm im Durchmesser mißt :)
SKYNET
2004-06-05, 17:49:44
Original geschrieben von ShadowXX
Sorry...hatte sich etwas mehr ausgeweitet als geplant...hätte auch nichts dagegen, wenn das A64 zeug in einen anderen Thread in Prozessor-Forum kommt...
Zum Topic:
Laut HW-Elektronik solls die AOpen ab Kalenderwoche 24 geben...und das ist doch ab Montag, oder??? (Hab gerade keinen Kalender mit Kalenderwochenangabe)
S754:
2800+ - 1.8GHz - 512kb
3000+ - 1.8GHz - 1024kb
3000+ - 2.0GHz - 512kb
3200+ - 2.0GHz - 1024kb
3200+ - 2.2GHz - 512kb
3400+ - 2.2GHz - 1024kb
3400+ - 2.4GHz - 512kb
3700+ - 2.4GHz - 1024kb
S939:
3500+ - 2.2GHz - 512kb
3800+ - 2.4GHz - 512kb
FX53 - 2.4GHz - 1024kb
S940:
FX51 - 2.2GHz - 1024kb
FX53 - 2.4GHz - 1024kb
[ontopic]
ja ab montag, werde da glaube ich montag morgen vorm laden stehn um mir eine abzugreifen :D wenn sie scheiße rennt geb ich sie zurück ;D
LovesuckZ
2004-06-05, 18:33:35
Hm, hat HW-Elektronik auch eine sogenannte Internetpräzens?
Quasar
2004-06-05, 18:44:30
www.hw-elektronik.de
Aber die verkaufen nur direkt, bestellen is nich.
LovesuckZ
2004-06-05, 18:46:39
Wer ist von euch Haendler und kommt an die Karten? :D
Uller
2004-06-05, 18:47:44
Das heißt doch überhaupt nichts, wenn das da steht.
Alternate hat die Karten mindestens 1 Tag vorher, da die >10x soviele abnehmen, und bei denen ist sie noch nicht erhältlich.
Man kann nur hoffen dass die AOpen im Lauf der nächsten Woche auftauchen, würde ich mal sagen.
misterh
2004-06-05, 19:45:09
Was soll ich erst sagen?`
Hatte heute bei Je-Computer bei 11 verschiedene Standorte (in Berlin) angerufen wegen 6800U. Antwort kam bei allen das gleiche raus : "Nein haben wir leider nicht, kommt erst nächte woche vielleicht."
Also da könnte ich ja die Krise kriegen arghhhhhh :krank:
SKYNET
2004-06-05, 19:49:22
Original geschrieben von LovesuckZ
Wer ist von euch Haendler und kommt an die Karten? :D
bin kein händler aber wohne nur 20 minuten mit dem rad wech ;D
misterh
2004-06-05, 19:54:24
Original geschrieben von SKYNET
bin kein händler aber wohne nur 20 minuten mit dem rad wech ;D
dreirad? 20min = boahhh ist garnicht weit.
Edit: Sry war blöd von mir.
SKYNET
2004-06-05, 20:22:30
Original geschrieben von misterh
dreirad? 20min = boahhh ist garnicht weit.
Edit: Sry war blöd von mir.
einsicht... u.s.w.
ShadowXX
2004-06-05, 21:17:43
Original geschrieben von SKYNET
ja ab montag, werde da glaube ich montag morgen vorm laden stehn um mir eine abzugreifen :D wenn sie scheiße rennt geb ich sie zurück ;D
Dann können wir uns ja vor dem Laden drum prügeln;D ;D
Ne mal ernst...ich glaube auch nicht, dass HW die nächste Woche schon reinbekommt...
SKYNET
2004-06-05, 21:23:00
Original geschrieben von ShadowXX
Dann können wir uns ja vor dem Laden drum prügeln;D ;D
Ne mal ernst...ich glaube auch nicht, dass HW die nächste Woche schon reinbekommt...
wenn nicht gibbet stress :D
habe da gestern angerufen die meinten anfang der woche, naja, mo morgen mal antanzen, di das gleiche und ggf. auchnoch mittwoch wenn meine club3D bis dato nochnet dasein sollte :D
HW Elektronik MUHAHAHAHAHAHAH
Kennt ihr auch den Punkt 4 oder 5 ihrer AGB die auf Zetteln in Laden rumfliegen? Dort steht das sie von jeder Art der Garantie absehen! :D
Also wer dort wirklich etwas kauft was kaputt gehen kann dem ist nicht zu helfen :)
Am besten ist dort noch der Lagerist der die Ware an den Tresen holt....habe selten so lachen müssen in einem Laden ;)
MarcWessels
2004-06-05, 23:30:48
Original geschrieben von Fadl
Kennt ihr auch den Punkt 4 oder 5 ihrer AGB die auf Zetteln in Laden rumfliegen? Dort steht das sie von jeder Art der Garantie absehen! :D^
Null und nichtig...
Original geschrieben von MarcWessels
^
Null und nichtig...
Was meinst du damit? Soll ich so eine AGB einmal besorgen und einscannen lassen?
Das stand da Weihnachten 2003 wirklich drauf. Ich habe mich dabei sehr amüsiert im Laden :D
MarcWessels
2004-06-05, 23:56:35
Ich glaub's Dir ja. ;) Ich meinte damit nur, daß die sich im Garantiefall ihren Zettel sonstwo hinstecken könnten. *fg*
Original geschrieben von Fadl
HW Elektronik MUHAHAHAHAHAHAH
Kennt ihr auch den Punkt 4 oder 5 ihrer AGB die auf Zetteln in Laden rumfliegen? Dort steht das sie von jeder Art der Garantie absehen! :D
Ist auch richtig, Garantie, nicht Gewährleistung, ist eine freiwillige Leistung. Bei Hardware bietet die Garantie aber in der Regel der Hersteller der Ware an. Der Händler hier nutzt es aus, daß die Kunden unter Garantie und Gewährleistung oft das Gleiche verstehen und möchte wohl damit sagen, daß es bei ihm keine Kulanz gibt.
bill
Original geschrieben von bill
Ist auch richtig, Garantie, nicht Gewährleistung, ist eine freiwillige Leistung. Bei Hardware bietet die Garantie aber in der Regel der Hersteller der Ware an. Der Händler hier nutzt es aus, daß die Kunden unter Garantie und Gewährleistung oft das Gleiche verstehen und möchte wohl damit sagen, daß es bei ihm keine Kulanz gibt.
bill
So ist es. Es steht bei denen aber Garantie und nicht Gewährleistung.
Aber umgetauscht wird bei denen nichts. Wenn man ein Problem hat soll man sich an den Hersteller wenden :D
AlfredENeumann
2004-06-06, 00:41:01
Original geschrieben von Fadl
Aber umgetauscht wird bei denen nichts.
Ist auch vollkommen korrekt. Man hat keinen Anspruch auf Umtausch (wenigstens nicht sofort). Der Händler darf zuerst nachbessern.
Original geschrieben von AlfredENeumann
Ist auch vollkommen korrekt. Man hat keinen Anspruch auf Umtausch (wenigstens nicht sofort). Der Händler darf zuerst nachbessern.
Bei denen wird aber auch nichts nachgebessert :D
Man soll sich praktisch gar nicht bei ihnen melden wenn man mal ein Problem mit einer gekauften Ware hat. Ansonsten wird man ausgelacht(kein Scherz, hat mein Bruder mal in dem Laden live beobachtet) :D
ShadowXX
2004-06-06, 11:40:21
Original geschrieben von Fadl
Bei denen wird aber auch nichts nachgebessert :D
Man soll sich praktisch gar nicht bei ihnen melden wenn man mal ein Problem mit einer gekauften Ware hat. Ansonsten wird man ausgelacht(kein Scherz, hat mein Bruder mal in dem Laden live beobachtet) :D
Ich kenne die Probs, die viele mit HW haben und gebe dir insofern durchaus recht, das wenn was nicht funktioniert man bei HW etwas im Regen steht...
Aber ich weiss nicht wie lange du schon bei HW kaufst (bzw. mal was gekauft hast)...gegenüber früher (so vor 10-15 Jahren) ist es inzwischen "first-class-service"...(ja ja ich weiss, so kann man es nicht wirklich nennen).
Vor 10 Jahren wurde nicht mal auf Fragen geantwortet, ob Speicherriegel A denn in Board B passt...sowas wird ja inzwischen immerhin gemacht...(eigentlich wurde damals fast überhaupt nicht geredet ;D )
Aber man kann jedem, der nicht viel von Hardware versteht wirklich nur abraten bei HW zu kaufen....
Es kommt aber auch etwas auf den jeweiligen Verkäufer an...den einen kenne ich nun wie gesagt ca. 15 Jahre und wenn ich zu dem gehe, gewährt HW auch "ab und zu" sowas wie Kulanz...
Aber du hast schon recht, wenn du meinst, dass man bei HW sehr von oben herab behandelt wird....
Da ich inzwischen ganz gut verdiene, gehe ich auch eher zu Siegelkow oder KM, auch wenn Sie etwas teurer sind (manchmal sogar zum "Feinkostladen" BWZ, die sind zwar meist extrem Teuer, dafür haben SIe eine Kulanz wie sonst nur der MediaMarkt).
Aber bei Hardware, welche 08/15 bzw. unproblematisch ist (Speicherriegel, Router usw.) gehe ich doch immer noch ganz gerne zu HW, da meist sehr billig...
Jagdpanther
2004-06-06, 13:13:26
Nachdem da offensichtlich wenig zum Topic mehr kommt hätte ich mal eine Frage zum Thema.
Versuche verzweifelt herauszubekommen (habe schon gegoogelt) welcher Hersteller welche GDDR3-RAM auf den 6800 Ultra Boards verbaut.
Weil wenn ich mir schon ne 6800 Ultra kauf dann will ich schon eine mit dem schnellsten RAM.
Auf den Herstellerhomepages kriegt man keine Infos raus.
Sicher bin ich mir bei:
Gainward: 1.6ns
AOpen: 2.0ns
E-VGA: ? (glaub aber 1.6ns)
MSI: ?
Asus: ?
Albatron: ?
Gigabyte: ?
Leadtek: ?
PNY: ?
Club3D: ?
Inno3D: ?
Hat da wer genauere Infos bzw. weiss wo ich die herbekomme?
Danke vorab.
Uller
2004-06-06, 14:01:58
Ich habe auch schon im Netz gelesen, dass jemand bei seiner 6800 Ultra nur 2.0ns Speicher hatte.
Wo steht aber das von AOpen?
Wenn das stimmt macht es wenig bis gar keinen Sinn die Ultra zu kaufen, die GT hat den gleichen Speicher, und der Kern sollte auch mindestens auf 400 Mhz gehen.
Gerade über google bei hartware.de gefunden:
Ein weiteres interessantes Detail, welches Hartware.net von einem der Grafikkartenhersteller erfahren konnte, ist die Speicherbestückung der GeForce 6800 Ultra. Dort werden zumindest anfangs noch RAM-Chips mit 2.0ns Zugriffszeit zum Einsatz kommen. Diese sind eigentlich nur bis zu 500 MHz ausgelegt. Vermutlich kann Samsung jetzt noch keine oder nicht genug schnellere Speicherbausteine liefern.
Die 1.6ns sind ja wirklich nicht verfügbar - die gleichen sollen auf ATis X800 XT verbaut werden, daher gibt es die auch noch nicht.
Meine 2 bestellten GTs werden mir immer sympathischer ;) Fast volles Ultra Niveau und fast gleiche Übertaktmöglichkeiten für 70 Euro weniger.
SKYNET
2004-06-06, 14:44:48
Original geschrieben von ShadowXX
Ich kenne die Probs, die viele mit HW haben und gebe dir insofern durchaus recht, das wenn was nicht funktioniert man bei HW etwas im Regen steht...
Aber ich weiss nicht wie lange du schon bei HW kaufst (bzw. mal was gekauft hast)...gegenüber früher (so vor 10-15 Jahren) ist es inzwischen "first-class-service"...(ja ja ich weiss, so kann man es nicht wirklich nennen).
Vor 10 Jahren wurde nicht mal auf Fragen geantwortet, ob Speicherriegel A denn in Board B passt...sowas wird ja inzwischen immerhin gemacht...(eigentlich wurde damals fast überhaupt nicht geredet ;D )
Aber man kann jedem, der nicht viel von Hardware versteht wirklich nur abraten bei HW zu kaufen....
Es kommt aber auch etwas auf den jeweiligen Verkäufer an...den einen kenne ich nun wie gesagt ca. 15 Jahre und wenn ich zu dem gehe, gewährt HW auch "ab und zu" sowas wie Kulanz...
Aber du hast schon recht, wenn du meinst, dass man bei HW sehr von oben herab behandelt wird....
Da ich inzwischen ganz gut verdiene, gehe ich auch eher zu Siegelkow oder KM, auch wenn Sie etwas teurer sind (manchmal sogar zum "Feinkostladen" BWZ, die sind zwar meist extrem Teuer, dafür haben SIe eine Kulanz wie sonst nur der MediaMarkt).
Aber bei Hardware, welche 08/15 bzw. unproblematisch ist (Speicherriegel, Router usw.) gehe ich doch immer noch ganz gerne zu HW, da meist sehr billig...
ja siggelkow ist gut bei garantie.
VooDoo7mx
2004-06-06, 15:00:03
HardOCP hat als einzige Reviewsite ein Sample mit 2NS Speichermodulen bekommen, die von 500 auf 550Mhz übtertaktet wurden sind.
Alle anderen Hersteller haben zum Launch Karten mit 1,6NS Modulen bekommen.
Sowohl die 6800GT als auch die 6800Ultra werden mit 1,6NS Speicherchips bestückt.
Wobei ich denke, dass die GT sicher weniger Spannung auf die Rams gibt. Die Karte schreit förmlich nach einen Ultra Bios ;D ;D ;D
BodyLove
2004-06-06, 15:04:47
Original geschrieben von VooDoo7mx
Sowohl die 6800GT als auch die 6800Ultra werden mit 1,6NS Speicherchips bestückt.
Ist das Fakt, oder Speku deinerseits?
VooDoo7mx
2004-06-06, 15:13:17
Original geschrieben von BodyLove
Ist das Fakt, oder Speku deinerseits?
Ist Fakt! In irgend einen Review hatten das GT Referenz Design von NV 1,6NS Bausteine.
Im aktuellen Gainward Produktkatalog (.pdf) ist auch von 1,6NS die Rede.
Firingsquad hat mit der GT auch Speichertaktraten von 1,2Ghz (600Mhz) erreicht was auch darauf hindeutet.
BodyLove
2004-06-06, 15:21:21
Wär natürlich schön, wenn es stimmen würde. Aber bei einem Kapfbreis von 399$ glaube ich nicht daran, dass man 1,6Ns Speicher dort einbauen würde, wo eigentlich 2,0ns Speicher völlig ausreicht. Zumindest bei den Anfängen. Es wird möglicherweise Hersteller geben, die deren GTs mit 1,6ns Austatten, aber dafür mehr Geld verlangen.
SKYNET
2004-06-06, 16:10:25
Original geschrieben von VooDoo7mx
HardOCP hat als einzige Reviewsite ein Sample mit 2NS Speichermodulen bekommen, die von 500 auf 550Mhz übtertaktet wurden sind.
Alle anderen Hersteller haben zum Launch Karten mit 1,6NS Modulen bekommen.
Sowohl die 6800GT als auch die 6800Ultra werden mit 1,6NS Speicherchips bestückt.
Wobei ich denke, dass die GT sicher weniger Spannung auf die Rams gibt. Die Karte schreit förmlich nach einen Ultra Bios ;D ;D ;D
die GT hat zwar 1.6ns(wurde mir auch gesagt) aber ein anderes layout als die ultra soweit ich weiß.
daher ist die frage ob das ultra bios auf der karte rennt ?!
VooDoo7mx
2004-06-06, 16:34:04
Das Layout ist bis auf einen fehlenden Stromstecker das selbe wie bei der 6800U. Diese Aussage kom von einen Nvidida Pressemensch der bei Giga zu Besuch war.
Ob das Bios rennt...hmm da müsste ein mutiger vor..
Nach der ersten Erfolgsmeldung hab ich aber dann auch so ein Bios auf meiner Karte.
DanMan
2004-06-06, 17:20:21
Finds immer höchst amüsant wie die Leute selbst die neusten und schnellsten Geräte auch gleich immer übertakten müssen. :bonk:
VooDoo7mx
2004-06-06, 17:52:29
Original geschrieben von DanMan
Finds immer höchst amüsant wie die Leute selbst die neusten und schnellsten Geräte auch gleich immer übertakten müssen. :bonk:
Ich auch.
Das hatten wir doch sogar schon in diesen Thread durch!
Wer es machen will, der machts. Wer nicht, der lässt es eben.
Ich mach das bei Grafikkarten schon seit ich mir 2000 eine GF2 MX besorgt hab.
Und weißt du was? Die Karte rennt ohne Probs auch heute noch in einen anderen Rechner!
So gut wie jeder Enthusiast der sich so eine pfeilschnelle Karte leistet, übertaktet diese auch.
Außerdem macht es mir persönlich sehr viel Spaß, dass letzte Quentchen Leistung aus der Karte rauszuquetschen und wieso sollte man ungenutzte Leistung brach liegen lassen?
Jagdpanther
2004-06-06, 18:03:10
Original geschrieben von VooDoo7mx
Ich auch.
Das hatten wir doch sogar schon in diesen Thread durch!
Wer es machen will, der machts. Wer nicht, der lässt es eben.
Ich mach das bei Grafikkarten schon seit ich mir 2000 eine GF2 MX besorgt hab.
Und weißt du was? Die Karte rennt ohne Probs auch heute noch in einen anderen Rechner!
So gut wie jeder Enthusiast der sich so eine pfeilschnelle Karte leistet, übertaktet diese auch.
Außerdem macht es mir persönlich sehr viel Spaß, dass letzte Quentchen Leistung aus der Karte rauszuquetschen und wieso sollte man ungenutzte Leistung brach liegen lassen?
so ist es.
wenn ich soviel geld (> € 500,-) für ne grafikkarte ausgebe will ich (zumindest auf herkömmlichem wegen) das letzte aus ihr herausholen.
Jagdpanther
2004-06-06, 18:07:05
Original geschrieben von VooDoo7mx
Ist Fakt! In irgend einen Review hatten das GT Referenz Design von NV 1,6NS Bausteine.
Im aktuellen Gainward Produktkatalog (.pdf) ist auch von 1,6NS die Rede.
Firingsquad hat mit der GT auch Speichertaktraten von 1,2Ghz (600Mhz) erreicht was auch darauf hindeutet.
ist eben leider nicht fakt!!
darum frage ich ja.
2.0ns sind laut samsung mit 500MHz spezifiziert werden dann auf 550Mhz werkseitig der graka hersteller overclocked, weil es kein problem bei denen macht.
und ja.
gainward verbaut 1.6ns RAM bei der Ultra.
steht auch auf deren homepage.
bei der aopen weiss ichs auch, steht bei der werbung in der aktuellen PCG-Hardware (seite 11).
nur bei den anderen weiss ichs eben nicht.
halten sich alle bedeckt.
nehm an dass die meissten die 2.0er raufmachen.
Jagdpanther
2004-06-06, 18:12:19
Original geschrieben von VooDoo7mx
Das Layout ist bis auf einen fehlenden Stromstecker das selbe wie bei der 6800U. Diese Aussage kom von einen Nvidida Pressemensch der bei Giga zu Besuch war.
Ob das Bios rennt...hmm da müsste ein mutiger vor..
Nach der ersten Erfolgsmeldung hab ich aber dann auch so ein Bios auf meiner Karte.
hmm.
hab irgendwo gelesen dass die GT´s eben wieder die GPU´s sind, die die 400Mhz nicht schaffen.
d.h. müssten erstmal die 400Mhz mit oc schaffen dass du das bios raufmachen könntest.
das RAM das dort verbaut wird, wird vielleicht nicht mal 2.0ns RAM sein.
da sin mir die € 100,- die die Ultra mehr kostet auch egal. ;D
VooDoo7mx
2004-06-06, 18:39:08
Also die GTs sind die CPUs die bei Nvidias Tests durchfliegen.
Die Chips werden bis aufs extremste unter allerhöchsten Temperaturbedingungen und Stress getestet, damit sie auch wirklich in jeden Rechner und unter jeder Bedingung laufen!
DanMan
2004-06-06, 20:16:12
Original geschrieben von VooDoo7mx
wieso sollte man ungenutzte Leistung brach liegen lassen?
Die neusten GraKa sollten für aktuelle Spiele mehr als genügend Leistung zur Verfügung stellen. Daher hab ich meine GF4 auch erst weit nach dem Kauf übertaktet. War vorher nicht nötig. Aber jedem das seine.
K29!ll3r
2004-06-06, 20:58:10
Gibt's irgendwo ein Bild einer Gainward 6800 GT?
Resp. verwendet die dieselbe Kühllösung wie die Gainward 6800 Ultra?
SKYNET
2004-06-06, 21:58:02
http://www.nvnews.net/vbulletin/showthread.php?t=29614
K29!ll3r
2004-06-06, 22:08:05
Danke!!
Mal schauen, wann meine GT kommt...;D
Tjell
2004-06-06, 22:55:44
Wenn ich das richtig erinnere, sind die derzeitigen GDDR3-RAM-Bausteine noch allesamt von Samsung und eigentlich von der Produktion her mit 2,0 ns spezifiziert.
Auf den schnellen Karten werden diese 2,0 ns-Bausteine vorher noch auf 1,6 ns validiert.
Korrigiert mich, wenn ich falsch liege.
MarcWessels
2004-06-06, 23:58:16
Original geschrieben von DanMan
Die neusten GraKa sollten für aktuelle Spiele mehr als genügend Leistung zur Verfügung stellen.
Eben nicht. AKTUELLE Spiele mit neuer Engine laufen ja noch nichtmal auf aktuellen Maschinen inklusive Übertaktung komplett flüssig - wie sollten sie dann dazu auf unübertakteten Systemen in der Lage sein?
Und die Spiele die schon flüssig laufen, kann man dann beispielsweise eine AF-Stufe höher flüssig laufen lassen als im unübertakteten Zustand.
Tomcat70
2004-06-07, 17:08:46
Geforce 6800 nur 8 Pipes?
http://www.pcgames.de/?article_id=318281
LovesuckZ
2004-06-07, 17:12:56
Original geschrieben von Tomcat70
Geforce 6800 nur 8 Pipes?
http://www.pcgames.de/?article_id=318281
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147261
Gerade auf CB gefunden.
Neuer NV-Treiber "ohne" Optimierungen:
http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/
Gruss
Henzmoe
ShadowXX
2004-06-10, 12:39:23
Mal was zur Verfügbarkeit:
KM erwartet die AOpen GF6800Ultra für den 30.06.
Die anderen sollen eher noch etwas Später kommen...
Mit grösserer Verfügbarkeit ist also wirklich erst mitte Juli zu rechnen...
Original geschrieben von ShadowXX
Mal was zur Verfügbarkeit:
KM erwartet die AOpen GF6800Ultra für den 30.06.
Die anderen sollen eher noch etwas Später kommen...
Mit grösserer Verfügbarkeit ist also wirklich erst mitte Juli zu rechnen...
Was dann 3 Monate nach dem sogenannten "Launch" bedeuten würde. Für meinen Geschmack kommen die Karten deutlich zu spät oder der Launch zu früh.
ShadowXX
2004-06-10, 12:55:37
Original geschrieben von Fadl
Was dann 3 Monate nach dem sogenannten "Launch" bedeuten würde. Für meinen Geschmack kommen die Karten deutlich zu spät oder der Launch zu früh.
Dem stimme ich voll und ganz zu....
robbitop
2004-06-10, 12:59:05
geht beiden ihvs so
Original geschrieben von robbitop
geht beiden ihvs so
Naja, die X800 Pro wurde deutlich später gelauncht und ist schon zu bekommen.
NVidia ist da wirklich SEHR spät dran.
LovesuckZ
2004-06-10, 13:03:21
Original geschrieben von Fadl
Naja, die X800 Pro wurde deutlich später gelauncht und ist schon zu bekommen.
NVidia ist da wirklich SEHR spät dran.
Und die XT PE?
Und wo gibt es die X800Pro flaechendeckend? Über Onlineshops hat man nur ein paar Laeden, wenn man glueck hat.
Quasar
2004-06-10, 13:04:26
Es wundert mich auch ein wenig, wo denn die pipelinemäßig abgespeckten GF6800 bleiben - sollte nV da wirklich ein so großes Problem haben? ;)
Original geschrieben von LovesuckZ
Und die XT PE?
Und wo gibt es die X800Pro flaechendeckend? Über Onlineshops hat man nur ein paar Laeden, wenn man glueck hat.
Klar kann man sie nicht ganz ohne Probleme erwerben aber man kann zumindest. Die XT PE lässt auch noch auf sich warten, klar.
Aber von NVidia ist hier noch gar nichts aufgetaucht. Das meinte ich damit. Und das obwohl ihr Launch deutlich vor dem von ATI war.
So etwas finde ich einfach inakzeptabel.
Erinnert mich fast an Apple.....
robbitop
2004-06-10, 13:41:44
6800NU und U kann man bereits in Asien und USA kaufen. Gibt schon ein paar Erfahrungsberichte im Netz.
Und die paar Wochen machen den Kohl nun auch nicht mehr fett
Jagdpanther
2004-06-10, 23:59:10
Original geschrieben von robbitop
6800NU und U kann man bereits in Asien und USA kaufen. Gibt schon ein paar Erfahrungsberichte im Netz.
Und die paar Wochen machen den Kohl nun auch nicht mehr fett
haste da ein paar links von den erfahrungsberichten?
finde mit google leider nix.
robbitop
2004-06-11, 00:12:04
im nvnews Forum z.B.
ShadowXX
2004-06-11, 07:18:30
Original geschrieben von robbitop
im nvnews Forum z.B.
Konnte diejenigen den "beweisen" das sie wirklich eine 68U habne....oder haben Sie es einfach gesagt???
Bzw. weiss man das es keine nV_Mitarbeiter sind???
Im 3DC-nV-Graka-Forum hat nämlich jemand Club3D und PNY angemailt und mal wegen verfügbarkeit nachgefragt und bekam als Antwort, das die beiden noch nicht mal nv40-Chips haben!!!!!!
Club3D hofft in den nächsten 2 Wochen welche zu bekommen und PNY weiss noch gar nix genaues!!!!
Original geschrieben von Quasar
Es wundert mich auch ein wenig, wo denn die pipelinemäßig abgespeckten GF6800 bleiben - sollte nV da wirklich ein so großes Problem haben? ;) Denke ich nicht :)
ShadowXX
2004-06-11, 08:53:26
Original geschrieben von aths
Denke ich nicht :)
Und warum gibts so gut wie keine Karten zu kaufen??? (hab absichtlich nicht "keine" geschrieben)
Quasar
2004-06-11, 08:58:10
Original geschrieben von aths
Denke ich nicht :)
Hast du einen Grund, das eine oder ander anzunehmen, oder denkst du einfach nur so ins Blaue hinein? ;)
MuLuNGuS
2004-06-11, 09:34:48
ist es nicht total banane ob die jetzt 4 wochen früher oder später kommen?
die preise sind doch anfangs eh völlig inakzeptabel...
ich fand es damals schon hart an der grenze als ich mir die VooDoo2 für etwas über 500DM gekauft habe.. und das fand ich schon hart an der grenze.
und nun brennt ihr alle darauf über 400€ für eine graka auszugeben?
Quasar
2004-06-11, 09:37:16
Original geschrieben von MuLuNGuS
und nun brennt ihr alle darauf über 400€ für eine graka auszugeben?
Nein. :)
Original geschrieben von MuLuNGuS
ist es nicht total banane ob die jetzt 4 wochen früher oder später kommen?
die preise sind doch anfangs eh völlig inakzeptabel...
Da hast du Recht. Aber umso später die Karten auf den Markt kommen desto später können sie im Preis fallen ;)
ShadowXX
2004-06-11, 09:48:34
Original geschrieben von MuLuNGuS
ist es nicht total banane ob die jetzt 4 wochen früher oder später kommen?
Es geht mir mehr um nVs vollmundige Aussagen, die über die Verfügbarkeit der Chips/Karten während des "launchs" getroffen/ausgesagt wurden...
die preise sind doch anfangs eh völlig inakzeptabel...
Gebe ich dir recht...hab mich aber daran gewöhnt...(Fange jedesmal nach dem Release eine neuen Karte an für die nächste zu sparen...nenn mich ruhig verrückt ;D ...)
Original geschrieben von Quasar
Hast du einen Grund, das eine oder ander anzunehmen, oder denkst du einfach nur so ins Blaue hinein? ;) Ich habe einen Grund, wenn auch keinen sehr guten. Jedenfalls ist die 6800 bitchin' fast.
Quasar
2004-06-11, 09:52:54
Schön, daß die so schnell sind, aber was hat das mit der Verfügbarkeit zu tun?
Mr. Lolman
2004-06-11, 10:02:24
Original geschrieben von aths
Ich habe einen Grund, wenn auch keinen sehr guten. Jedenfalls ist die 6800 bitchin' fast.
Kommt ausserdem auch immer drauf an, wo, und in welcher Relation.
Obwohl, das "wo", wird ja wohl wieder zur Lebzeiten der Karten mit diversen Treibern hingebogen werden. Aber egal, das würde jetzt ohnehin wieder in einer Grundsatzdiskussion enden...
Quasar
2004-06-11, 10:05:17
Warum läßt du diese kleinen Spitzen dann nicht einfach sein?
Original geschrieben von Quasar
Schön, daß die so schnell sind, aber was hat das mit der Verfügbarkeit zu tun? Gäbe es gar keine Verfügbarkeit, wüsste ich nicht, wie bitchin' fast die 6800 ist ;(
Original geschrieben von Mr. Lolman
Kommt ausserdem auch immer drauf an, wo, und in welcher Relation.Jedenfalls ist sie wohl das bessere Produkt im Vergleich mit dem R420. R420 macht Smartshader richtig schnell. NV40 macht CineFX richtig schnell. Die 3.0-Features interessieren atm nicht. Mit CineFX sind ggü. Smartshader 2 zusätzliche bzw. qualitativ höherwertigere Effekte möglich.
CineFX kann ggü. Smartshader 2 die CPU und die Graka entlasten. NV40 hat ggü. einer sehr schnellen CineFX-Implementierung zusätzliche Features, welche CPU und Graka entlasten. R420 könnte das (fast) alles auch rendern, aber nur mit höheren Aufwand, was entsprechend langsam sein würde.
Original geschrieben von aths
Gäbe es gar keine Verfügbarkeit, wüsste ich nicht, wie bitchin' fast die 6800 ist ;(
Jedenfalls ist sie wohl das bessere Produkt im Vergleich mit dem R420. R420 macht Smartshader richtig schnell. NV40 macht CineFX richtig schnell. Die 3.0-Features interessieren atm nicht. Mit CineFX sind ggü. Smartshader 2 zusätzliche bzw. qualitativ höherwertigere Effekte möglich.
Soll das heissen das du eine 6800(U) besitzt oder aber Zugriff darauf hast? Und dabei handelt es sich dann auch noch um eine Serienkarte die in Deutschland gekauft wurde?
Original geschrieben von Fadl
Und dabei handelt es sich dann auch noch um eine Serienkarte die in Deutschland gekauft wurde? Nein ;( :sulkoff:
Original geschrieben von aths
Nein ;( :sulkoff:
Dann sieht die Sache schon wieder anders aus ;)
Ich frage mich aber langsam ernsthaft warum NVidia es nicht fertig bringt ausreichend Karten(oder überhaupt erst mal einige Karten) auf den Markt zu bringen.
Der Launch war nun vor fast genau 2 Monaten...
Die 3-4 Karten die wohl im Besitz einiger sind lasse ich mal aussen vor.
Quasar
2004-06-11, 11:33:19
Na, also?
Keine in D gekauft Serienkarte - ergo auch keine Verfügbarkeit (bei den Händlern, wenn du mal auf den Kontext schaust).
sry
;(
Original geschrieben von Quasar
Na, also?
Keine in D gekauft Serienkarte - ergo auch keine Verfügbarkeit (bei den Händlern, wenn du mal auf den Kontext schaust).
sry
;( Der Kontext war für mich 6800-er Knappheit. Sry X-D Privat sollte die FX 5900 noch ausreichen :)
DrumDub
2004-06-11, 11:41:13
sieht nicht gut aus mit verfügbarkeit der 6800us noch im juni: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1898901#post1898901
Quasar
2004-06-11, 11:43:55
Eine einzelne Karte, die dann womöglich direkt vom GPU-Hersteller kommt, macht noch keine Verfügbarkeit, sry ;(, sie verhindert vielleicht den Titel "Paperlaunch".
ATi stellte die R420 später vor als nVidia, beide haben ein 4-PP Design und wollen bei den kleineren Karten einen PP deaktivieren.
Weder ATis noch nVs Boardpartner liefern die High-End Modelle in Stückzahlen aus (von der 6800u weiß ich von einem kleineren Hersteller, daß 15% der Importbestellungen erfüllt wurden).
Das könnte bedeuten, daß man entweder nicht an genügend RAM herankommt (worauf evtl. das normale R420 XT-Modell schließen liesse, wogegen aber die Berichte sprechen, daß auf einigen R420 Pro 1,6ns-RAM verbaut sei) oder daß man Probleme mit der Ausbeute hat.
Da ATis Boardpartner allerdings schon in relativ hohen Zahlen die X800 Pro liefern, scheint hier die Produktion ordentlich anzulaufen - nur eben die Ausbeute im High-End scheint gering.
Da nVidias Boardpartner aber noch nichtmal geringe Stückzahlen der 6800nU liefern, die ja, wenn lediglich voll funktionsfähige Chips für die Ultra und GT knapp sind, eigentlich verfügbar sein müßten.
Daraus ließe sich schließen, daß es bei nV größere Probleme mit der Fertigung an sich gibt, weil ja ansonsten die niedrig getakteten und teildeaktivierten non-Ultras ja im Kommen sein müßten.
Oder aber der Prozeß läuft so gut, daß man die non-Ultra gecancelt hat und nur noch 16-Pipe Chips verkauft.
Was ist wahrscheinlicher?
DrumDub
2004-06-11, 12:01:43
Original geschrieben von Quasar
Da nVidias Boardpartner aber noch nichtmal geringe Stückzahlen der 6800nU liefern, die ja, wenn lediglich voll funktionsfähige Chips für die Ultra und GT knapp sind, eigentlich verfügbar sein müßten.
Daraus ließe sich schließen, daß es bei nV größere Probleme mit der Fertigung an sich gibt, weil ja ansonsten die niedrig getakteten und teildeaktivierten non-Ultras ja im Kommen sein müßten.
Oder aber der Prozeß läuft so gut, daß man die non-Ultra gecancelt hat und nur noch 16-Pipe Chips verkauft.
Was ist wahrscheinlicher?
letzteres macht imho keinen sinn.
zu den problemen mit der x800xt:
Yields on X800 PRO cards are strong, boards can now be found at retail, and nearly all board partners should have boards on shelves in the next few weeks if they aren’t available already. Yields on X800 XT cards however, aren’t as high as hoped, which is why boards are still so scarce. Apparently yields on the XT cores are good, so the holdup must lie somewhere else. Perhaps on the memory side, or the PCBs themselves.
http://firingsquad.com/features/computex04_part1/
pcb kann nicht sein, da es dasselbe wie bei der x800pro ist. bleibt eigentlich nur eins: speicher.
das gleiche könnte also auch für die 6800u gelten. die frage ist nur, warum dann keine normalen 6800er auftauchen, wie das bei der x800pro der fall ist.
Quasar
2004-06-11, 12:05:06
Original geschrieben von DrumDub
pcb kann nicht sein, da es dasselbe wie bei der x800pro ist. bleibt eigentlich nur eins: speicher.
das gleiche könnte also auch für die 6800u gelten. die frage ist nur, warum dann keine normalen 6800er auftauchen, wie das bei der x800pro der fall ist.
Ja, das wäre möglich.
Dann stellt sich allerdings noch die Frage, warum einige PROs offenbar mit 1,6ns RAM ausgeliefert wurden, wenn gerade dieser Speicher so knapp ist.
ShadowXX
2004-06-11, 12:37:23
Original geschrieben von Quasar
Ja, das wäre möglich.
Dann stellt sich allerdings noch die Frage, warum einige PROs offenbar mit 1,6ns RAM ausgeliefert wurden, wenn gerade dieser Speicher so knapp ist.
Ich gehe davon aus, das es ein mischmasch aus allen möglichen ist....
Speicher ist knapp und IBM hat bei der Fertigung in FishKill wohl doch mehr Probs als nV zugeben will...
Original geschrieben von ShadowXX
Ich gehe davon aus, das es ein mischmasch aus allen möglichen ist....
Speicher ist knapp und IBM hat bei der Fertigung in FishKill wohl doch mehr Probs als nV zugeben will...
IBM scheint wirklich Probleme zu haben. Siehe Apple:
Vor einem Jahr kündigte Steve Jobs stolz an das man in diesem Sommer bei 3GHz angelangt sein werde.
Jetzt wurden neue G5 PM mit max 2x 2,5GHz angekündigt. Etwas weniger als die 3GHz die ihm wohl von IBM versprochen wurden. Zudem ist der neue noch gar nicht mal lieferbar sondern erst im July. Was bei Apple soviel heisst wie eine Ankündigung seitens NVidia....
ShadowXX
2004-06-11, 12:49:20
Original geschrieben von Quasar
Ja, das wäre möglich.
Dann stellt sich allerdings noch die Frage, warum einige PROs offenbar mit 1,6ns RAM ausgeliefert wurden, wenn gerade dieser Speicher so knapp ist.
Gabs da nicht mal ein Gerücht, das ATI nen Deal mit einem grossen Speicherhersteller hat???
Das würde erklären, warum es den Speicher für ATIs gibt...und das es keine XTs gibt liegt dann wohl einfach an der Ausbeute...
Hakkerstiwwel
2004-06-11, 12:50:50
Irgendwie errinnert mich das alles an den nV30. nVidia versucht alles draufzupacken was nur moeglich ist, und die Fertiger kommen nicht nach. Bis dann der nV40 effektiv erhaeltich ist, hat Ati schon mit der x800Pro abgesahnt, und kann dann die XT(PE) nachschieben.
Technisch Top, Wirtschaftlich ein Eigentor.
So langsam frage ich mich ob das winkelabhaengige AF beim nV schlicht auch Notwendigkeit ist, um aufgrund der hier gesparten Transistoren das Teil ueberhaupt lauffaehig zu bekommen?
robbitop
2004-06-11, 13:59:00
@shaddow
nein er hat auch fotos und benches gemacht.
Ist afaik ein privater Forumuser.
Die Dinger sind eben enorm selten.
robbitop
2004-06-11, 14:00:52
LOL ATi steht auch nicht besser da.
Ich sehe jedenfalls nur sehr limitierte PROs und keine XTs.
Hakkerstiwwel
2004-06-11, 14:34:55
Original geschrieben von robbitop
LOL ATi steht auch nicht besser da.
Ich sehe jedenfalls nur sehr limitierte PROs und keine XTs.
Warum XTs verkaufen, wenn man so momentan noch mehr fuer die Pros rausschlagen kann? Die Xts gibt es wenn der nV bis erhaeltlich ist, dann faellt auch die Pro im Preis. Wetten?
DrumDub
2004-06-11, 14:37:04
Original geschrieben von Hakkerstiwwel
Warum XTs verkaufen, wenn man so momentan noch mehr fuer die Pros rausschlagen kann? Die Xts gibt es wenn der nV bis erhaeltlich ist, dann faellt auch die Pro im Preis. Wetten?
ähmm... vielleicht, vielleicht aber auch nicht. die xts kommen erst im juli und das auch in kleinen stückzahlen, wenn ich mir das so ansehe:
http://www.komplett.de/k/ki.asp?sku=300974&cks=ASS&assoc=5CC91B77-D620-418E-A01C-1E269119C879
http://www.komplett.de/k/ki.asp?sku=301009&cks=ASS&assoc=5CC91B77-D620-418E-A01C-1E269119C879
mein tipp: der speicher ist das problem bei ati wie auch nv.
LovesuckZ
2004-06-11, 14:40:50
Original geschrieben von Hakkerstiwwel
Warum XTs verkaufen, wenn man so momentan noch mehr fuer die Pros rausschlagen kann? Die Xts gibt es wenn der nV bis erhaeltlich ist, dann faellt auch die Pro im Preis. Wetten?
Der Gewinn bei einer XT ist groeßer (550 zu 450€). Der Chip ist der selbe, einziger Unterschied liegt im Speicher.
Dazu kommt noch, dass zu 95% jeder X800pro User keine XT kaufen wird.
Hakkerstiwwel
2004-06-11, 14:47:05
Original geschrieben von LovesuckZ
Der Gewinn bei einer XT ist groeßer (550 zu 450€). Der Chip ist der selbe, einziger Unterschied liegt im Speicher.
Dazu kommt noch, dass zu 95% jeder X800pro User keine XT kaufen wird.
Die XT verkauft sich spaeter immer noch zu dem Preis. Mangels Konkurrenz kann man momentan aber die Pro fuer teureres Geld verkaufen, als wenn Konkurenz da waere, und so nebenbei kann man moeglichst viele fehlerfreie XT Chips anhaeufen, um spaeter keine Lieferschwierigkeiten zu bekommen. Kappisch?
MarcWessels
2004-06-11, 14:48:38
@lovesuckz
...zumal man viele von denen modden kann.
Zu den Preisen bzw. der Anmerkung, daß 500 dM für ne Voodoo 2 anno 1998 schon viel gewesen seien-> Sowohl heute als auch damals waren die Preise für die gebotene Leistung vollkommen angemessen. Jeweils 1200 DM hab' ich damals für Voodoo 2 SLI (zuerst 8MB dann 12MB) ausgegeben und es nie bereut, denn die Leistung war gigantisch! :D
Was hätte man auch mit ner einzelnen V2 anfangen wollen - alles in 800x600 statt 1024x768 spielen??
reunion
2004-06-11, 14:55:24
Original geschrieben von DrumDub
mein tipp: der speicher ist das problem bei ati wie auch nv.
Wo bleibt dann die 6800 nonU?
Ich glaube nicht das es am Speicher liegt, die Ausbeute dürfte einfach zu beginn relativ schlecht sein und da man in Europa sowieso alles immer als letzter bekommt gibt es bei uns aktuell eben noch kaum Karten. In Japan oder den USA ist die X800XT oder die 6800U schon teilweise verfügbar...
BodyLove
2004-06-11, 15:12:20
Die scheinen die Karten auf Lager zu haben, wie ein anderer User mir mitteilte. Jedenfalls sollte man eine verbindliche Anfrage machen. Der Preis für die normale GF6800 ist imho ein wenig happig.;)
http://www.computer-cash-carry.de/ccc/index-ie.html
Hakkerstiwwel
2004-06-11, 15:24:07
Original geschrieben von BodyLove
Die scheinen die Karten auf Lager zu haben, wie ein anderer User mir mitteilte. Jedenfalls sollte man eine verbindliche Anfrage machen. Der Preis für die normale GF6800 ist imho ein wenig happig.;)
http://www.computer-cash-carry.de/ccc/index-ie.html
Alle Preise gelten bei Barzahlung und Abholung in Aachen. Für die Lieferbarkeit einzelner Artikel kann nicht garantiert werden
hummeL
2004-06-11, 15:50:57
Ich hab da grad angerufen: Die Karten sind auch nur gelistet, von Verfügbarkeit kann keine Rede sein :(.
Das ist doch kacke Leutz oder?! Wann wurde der NV40 vorgestellt?! Im April? Und jetzt haben wir fast schon mitte Juni ! Und in den USA und Asien haben wahrscheinlich auch nur ein paar hunderte ,wenn überhaupt, eine gekriegt.Ich glaube die Community sollte anfangen sich bei den IHVs zu beschweren.Lieber später Präsentieren als 3 Monate warten! :no:
Ich habe eben einmal einen Händler hier vor Ort kontaktiert und er meinte mit viel Glück kann man damit rechnen das die Karten Anfang Juli lieferbar sein werden. Vorbestellt hat er sie schon lange.
SKYNET
2004-06-11, 16:48:30
Original geschrieben von MuLuNGuS
und nun brennt ihr alle darauf über 400€ für eine graka auszugeben?
mir egal, wers hat der hats ;)
SKYNET
2004-06-11, 16:55:40
Original geschrieben von Fadl
Dann sieht die Sache schon wieder anders aus ;)
Ich frage mich aber langsam ernsthaft warum NVidia es nicht fertig bringt ausreichend Karten(oder überhaupt erst mal einige Karten) auf den Markt zu bringen.
Der Launch war nun vor fast genau 2 Monaten...
Die 3-4 Karten die wohl im Besitz einiger sind lasse ich mal aussen vor.
naja, die bekommste doch schon ausreichend.... zumindest in japan und in kleineren mengen in der USA.
das die EU wie immer als letzte kommt obwohl sie einer der umsatzstärksten märkte ist(besonders deutschland) ist mir dennoch schleierhaft.
SKYNET
2004-06-11, 16:59:25
Original geschrieben von MarcWessels
@lovesuckz
...zumal man viele von denen modden kann.
viele ?
1 von 10-20 karten nennst du viel ? :lol:
Black-Scorpion
2004-06-11, 17:08:28
Original geschrieben von SKYNET
naja, die bekommste doch schon ausreichend.... zumindest in japan und in kleineren mengen in der USA.
das die EU wie immer als letzte kommt obwohl sie einer der umsatzstärksten märkte ist(besonders deutschland) ist mir dennoch schleierhaft.
Was verstehst du unter ausreichend?
Das es selbst in den USA nur geringe Stückzahlen gibt ist alles andere als ausreichend.
SKYNET
2004-06-11, 17:30:31
Original geschrieben von Anonym_001
Was verstehst du unter ausreichend?
Das es selbst in den USA nur geringe Stückzahlen gibt ist alles andere als ausreichend.
ich sagte japan in ausrechenden mengen ;)
Uller
2004-06-11, 17:33:25
Dass man für sowas auf Beyond 3D surfen muss, also echt Quasar! ;)
Seems as if the performance gains from new driver 61.34 and the loss caused by the R300-Path (as Thomas told me, it's also using R300-instruction sorting and a different shadowing technique - so probably kind of worst-case scenario) do negate each other almost completely.
In my demo taken from shader-heavy Cooler-Level I've had the following results in 1280 with Far Cry Patch v1.1 applied:
60.72: 53,98fps
61.34: 60,83 fps
61.34 plus R300-Path: 52,31fps
12,7% Steigerung bei FarCry, Hut ab.
@Quasar: Mit was für Settings wurde diese Steigerung erreicht? Und, äh, also...wann kommt der Artikel? Ihr wartet wohl auf den offiziellen Treiber, oder?
Quasar
2004-06-11, 17:47:45
Naja, hier fragt ja keiner danach... :P
Settings* waren in-Game Very High bzw. Wasser auf Ultra High, alle bekannten Optimierungen habe ich dabei abgeschaltet.
Bevor du wieder nörgelst, die X800 XT PE erreichte bei gleichen Settings rund 62fps. :)
edit:
Dabei gilt jedoch zu bedenken, daß immer noch der eklige Erkennungs-Bug zuschlägt und sowohl die Taschenlampe als auch mind. ein Licht-Shader in meiner Demo dadurch mit einem ziemlich miesen FP16-Ersatz gerendert wurden.
Mit dem R300-Pfad natürlich nicht mehr.
edit2:
Artikel hoffentlich am WE. Nach dieser ganzen Optimierungsscheisse und dem neuen Treiber von nV sind die neuen Benches noch immer nicht fertig.
Uller
2004-06-11, 17:50:21
Holla, war doch nicht böse gemeint!
Wieviel fps erreicht denn die X800 XT PE mit Optimierungen an?
Quasar
2004-06-11, 17:53:24
Mein ":P" war auch nicht böse gemeint... :)
Mit Optmierung (ohne AF natürlich nur reduziert-trilinear und die Sample-Schwelle in der Basistextur) kommt man mit der X800 XT PE knapp über 64 fps.
Mit AA und AF sieht's dann schon anders aus, aber trotzdem führt die XT noch ziemlich deutlich in Far Cry.
Uller
2004-06-11, 17:56:13
In diesem Test sind's ja nur knapp 5%.
Das sind ja nun nicht mehr annähernd die Unterschiede die sich am Anfang aufgetan haben.
Habt ihr von Computerbase schonmal daran gedacht, Battlefield Vietnam in eure Tests aufzunehmen?
Wird meiner Meinung nach viel zu wenig getestet!
PS: wenn der Artikel am Wochenende kommt, ist der 61.34 denn dann schon der offizielle Treiber? (wenn du das sagen darfst)
Quasar
2004-06-11, 17:58:51
Original geschrieben von Uller
In diesem Test sind's ja nur knapp 5%.
Das sind ja nun nicht mehr annähernd die Unterschiede die sich am Anfang aufgetan haben.
Ja, so ist das, wenn die Shader, Speicher und CPU limitieren und nicht die Füllrate. :)
Das wurde aber auch immer gesagt.
Und wie gesagt, das ändert sich noch ein wenig, wenn AF mit ins Spiel kommt - auch in Far Cry... ;)
Original geschrieben von Uller
Habt ihr von Computerbase schonmal daran gedacht, Battlefield Vietnam in eure Tests aufzunehmen?
Wird meiner Meinung nach viel zu wenig getestet!
Ja, Christoph Becker hat das AFAIK vor, ich besitze das Game nicht.
Original geschrieben von Uller
PS: wenn der Artikel am Wochenende kommt, ist der 61.34 denn dann schon der offizielle Treiber? (wenn du das sagen darfst)
Wir stehen, was den 61.34 betrifft, nicht unter NDA, aber ich weiß es nicht... momentan ist es nur ein weiterer Review-Treiber.
LovesuckZ
2004-06-11, 21:49:27
Original geschrieben von Quasar
Wir stehen, was den 61.34 betrifft, nicht unter NDA, aber ich weiß es nicht... momentan ist es nur ein weiterer Review-Treiber.
Hm, dann steht die Reise ins WWW ja nichts im wege :D
Wenn der 61.34 nur ein "weiterer Review-Treiber", weißt du dann auch, wann der Referenztreiber kommt?
/edit: Was erreicht der NV40 mit dem "FP16 - r300 'Hack'"?
LovesuckZ
2004-06-11, 23:21:21
Chaintech Korea unveils GeForce 6800 based cards (http://www.digit-life.com/news.html?105766#105766)
Die Geforce 6800NU scheint verdammt kuehl (was bei einen Verbrauch von ca. 45(9) Watt laut der PCGH kein Problem sein sollte) zu sein:
http://www.ixbt.com/short/2k4-06/chainteh_news001.jpg
Die Karte werde auch als erstes in den laeden kommen.
Die RAMs werden aber nicht mitgekühlt...
SKYNET
2004-06-12, 01:42:22
Original geschrieben von Gast
Die RAMs werden aber nicht mitgekühlt...
wozu auch ? 2.8ns BGA DDR1.
musste auch auf der Ti4600 net gekühlt werden und lies sich dennoch auf über 700MHz ziehn ;)
Original geschrieben von LovesuckZ
Hm, dann steht die Reise ins WWW ja nichts im wege :D
Wenn der 61.34 nur ein "weiterer Review-Treiber", weißt du dann auch, wann der Referenztreiber kommt?
/edit: Was erreicht der NV40 mit dem "FP16 - r300 'Hack'"? Ich denke nicht, dass es für den NV40 "den" Wundertreiber gibt. Wenn NV so arbeitet wie bisher, wird es für den NV40 beständig in kleinen Schritten Verbesserungen geben.
Quasar
2004-06-12, 12:08:37
Original geschrieben von LovesuckZ
/edit: Was erreicht der NV40 mit dem "FP16 - r300 'Hack'"?
In etwa dasselbe (+/-1%) wie mit regulärem Patch 1.1.
Scheinen also, entgegen vielen Unkenrufen, entweder doch nicht so viele 1.1-Shader drin zu sein, oder diese bringen rein gar nix auf nV40, wenn er selbst einen R300-Pfad, der weder für ihn passend vorsortiert ist, noch die "normale" Schattentechnik per Shadow-Buffer (IIRC) für nV nutzt, genausoschnell rendert.
Original geschrieben von Quasar
In etwa dasselbe (+/-1%) wie mit regulärem Patch 1.1.
Scheinen also, entgegen vielen Unkenrufen, entweder doch nicht so viele 1.1-Shader drin zu sein, oder diese bringen rein gar nix auf nV40, wenn er selbst einen R300-Pfad, der weder für ihn passend vorsortiert ist, noch die "normale" Schattentechnik per Shadow-Buffer (IIRC) für nV nutzt, genausoschnell rendert.
"I'am getting 85-90 fps, when using the r300 path (fp16 or fp32, doesn't matter) and 90-99 with the nv30 path - geforce 6800 gt (400/550) 61.60 (can't post them....)"
also 20 % langsamer mit PS2.0 ist wohl eher nicht so gut oder ? :)
btw die x800 verwendet bei FarCry teilw. auch den "optimierten" nv30 path ( für einige Texturen , lt. Hardocp.com die grafikbugs aufgrund dieser Tatsache hatten ).
O-Ton ATI:
"The game is treating us like a GeForce card because the X800 had not been seen by the games authors when the game shipped. This causes problems since the app was trying to render depth data to a texture which we dont support. (Nvidia has a proprietary backdoor to enable depth stencil textures)"
Super Grobi
2004-06-12, 19:14:17
Hi,
ich muss euch Fachleutz mal fragen: Hat die 6800GT einen anderen Kühler als die Ultra?
THX
SG
Quasar
2004-06-12, 19:16:11
Hängt zwar vom Hersteller ab, aber das Referenzmodell hat einen Single-Slot Kühler.
Quasar
2004-06-12, 19:20:09
Original geschrieben von Gast
"I'am getting 85-90 fps, when using the r300 path (fp16 or fp32, doesn't matter) and 90-99 with the nv30 path - geforce 6800 gt (400/550) 61.60 (can't post them....)"
also 20 % langsamer mit PS2.0 ist wohl eher nicht so gut oder ? :)
Meinem Windows-Taschenrechner zufolge sind das nichtmal 10%, eher weniger. :|
Außer du rechnest natürlich MinFP32 gegen MaxFP16 :eyes:
Ich habe meine Benches vorhin fertig gemacht, in 1024x768 ohne AA und AF verliere ich zwischen FP16 und FP32 11 von 80 FPS.
Mit mehr AA und AF wird der Unterschied geringer.
fp16 or fp32 doesnt matter.
99 / 85 macht 16.4 % und die angaben sind nicht gerade genau, also hab ich einfach mal 20% angenommen :)
klingt halt besser :)
Quasar
2004-06-12, 19:24:45
Original geschrieben von Gast
fp16 or fp32 doesnt matter.
99 / 85 macht 16.4 % und die angaben sind nicht gerade genau, also hab ich einfach mal 20% angenommen :)
klingt halt besser :)
:lolaway:
Also Min1 gegen Max2.... Naja, jeder wie er will... :bonk:
Jesus
2004-06-12, 19:27:22
ich wollte nur darauf hinweisen ( was ich vor wochen schon oft gesagt habe ) dass ein signifikanter Performance einbruch auf der 6800 auftreten wird, sobald der volle PS2.0 path verwendet wird ( entgegen aller "Unkenrufen" , wie man sieht ).
Quasar
2004-06-12, 19:31:17
Original geschrieben von Jesus
ich wollte nur darauf hinweisen ( was ich vor wochen schon oft gesagt habe ) dass ein signifikanter Performance einbruch auf der 6800 auftreten wird, sobald der volle PS2.0 path verwendet wird ( entgegen aller "Unkenrufen" , wie man sieht ).
Aber belegt ist's nur mit wischi-waschi Aussagen, wie "no matter if FP16/FP32" "from 85-90 and 90-99".
Sorry, aber wenn ich nicht heute nachmittag genau diese Benchmarks selbst gemacht hätte, würde ich dir da vielleicht glauben. So kann ich höchstens eingeben, daß es möglich ist, daß sowas in einem anderen Demo als meinem vorkommen mag. Allerdings ist der Cooler-Level inkl. aktivierter Taschenlampe nicht gerade PS2.0-Shaderarm...
Original geschrieben von Quasar
Aber belegt ist's nur mit wischi-waschi Aussagen, wie "no matter if FP16/FP32" "from 85-90 and 90-99".
Sorry, aber wenn ich nicht heute nachmittag genau diese Benchmarks selbst gemacht hätte, würde ich dir da vielleicht glauben. So kann ich höchstens eingeben, daß es möglich ist, daß sowas in einem anderen Demo als meinem vorkommen mag. Allerdings ist der Cooler-Level inkl. aktivierter Taschenlampe nicht gerade PS2.0-Shaderarm...
Laber nie rum quasi!
Die 6800 wird bei PS2.0 so lahm sein wie ne einbeinige Ente aufem Teich!
Jesus
2004-06-12, 19:34:40
naja wenn man dann noch logisch denkt ist es eigentlich klar das ein PS2.0 Programm technisch aufwendiger ist ( loops, mehr Befehle ) als ein PS1.1er.
Oder wieso hat NVidia sonst den extra "optimierten" Pfad für den NV30 "einbauen" lassen wenns nicht so wäre ???
Original geschrieben von Jesus
naja wenn man dann noch logisch denkt ist es eigentlich klar das ein PS2.0 Programm technisch aufwendiger ist ( loops, mehr Befehle ) als ein PS1.1er.
Oder wieso hat NVidia sonst den extra "optimierten" Pfad für den NV30 "einbauen" lassen wenns nicht so wäre ???
Völlig RICHTIG! nv cheatet bis zum geht niet mehr rum, selbst ihre Marktzahlen sind getürk!
Quasar
2004-06-12, 19:44:41
Original geschrieben von Jesus
naja wenn man dann noch logisch denkt ist es eigentlich klar das ein PS2.0 Programm technisch aufwendiger ist ( loops, mehr Befehle ) als ein PS1.1er.
Oder wieso hat NVidia sonst den extra "optimierten" Pfad für den NV30 "einbauen" lassen wenns nicht so wäre ???
Soweit ich weiß, existiert im NV40 keine spezielle Hardware mehr, um PS1.1-1.4 Operationen auszuführen, dazu ist die Pipelines deutlich effizienter geworden, was Full-Precision PS2.0-Programme angeht.
Nochmal: Ich rede hier nicht von der GeForceFX!
SKYNET
2004-06-12, 20:02:18
NV40 pfad @ farcry:
http://www.ystart.net/upload/20040612/1087058696.jpg
http://www.ystart.net/upload/20040612/1087058872.jpg
http://www.ystart.net/upload/20040612/1087058969.jpg
Fett! Woher stammen die Pics?
Jesus
2004-06-12, 20:12:21
Original geschrieben von SKYNET
NV40 pfad @ farcry:
auch falsch, HDR pfad der mit dem patch 1.3 Verfügbar wird ( auch für R300 ! )
LovesuckZ
2004-06-12, 20:15:12
Original geschrieben von Jesus
naja wenn man dann noch logisch denkt ist es eigentlich klar das ein PS2.0 Programm technisch aufwendiger ist ( loops, mehr Befehle ) als ein PS1.1er.
Aeh, nein...
Oder wieso hat NVidia sonst den extra "optimierten" Pfad für den NV30 "einbauen" lassen wenns nicht so wäre ???
Dir ist schon bewusst, dass es auch einen ""optimierten" Pfad für den [r300]" gibt? Nein, gut, dann weißt du es jetzt!
Jesus
2004-06-12, 20:17:20
FarCry
X800: Render Mode Paradies, Bump mapping
http://3vil.extalia.com/Images/GFX/Screenies/X800Pro/FarCry-Offsetmapping_02.jpg
http://3vil.extalia.com/Images/GFX/Screenies/X800Pro/FarCry-Offsetmapping_01.jpg
http://3vil.extalia.com/Images/GFX/Screenies/X800Pro/FarCry-Offsetmapping_06.jpg
Original geschrieben von LovesuckZ
Aeh, nein...
Dir ist schon bewusst, dass es auch einen ""optimierten" Pfad für den [r300]" gibt? Nein, gut, dann weißt du es jetzt!
lol lovesux, wie immer verstehst du es den sinn einer aussage gekonnt zu ignorieren und blöde KOmmentare abzulassen.
als nächstes schreibst du dann das Spiele mit Pixelshader effekten Schneller laufen als welche ohne....
Quasar
2004-06-12, 20:30:43
Original geschrieben von Gast
als nächstes schreibst du dann das Spiele mit Pixelshader effekten Schneller laufen als welche ohne....
Max Payne II läuft schneller als Max Payne I. Ersteres hat Pixelshader-Effekte, letzteres nicht. =)
Original geschrieben von Quasar
Max Payne II läuft schneller als Max Payne I. Ersteres hat Pixelshader-Effekte, letzteres nicht. =)
hoffentlich meinst du das jetzt nicht ernst ? :/
Quasar
2004-06-12, 20:37:25
Original geschrieben von Gast
hoffentlich meinst du das jetzt nicht ernst ? :/
Doch, Max Payne ist bei mir bei ca. 95fps am Ende (bei vollen Details), Max Payne2 schafft in meiner Benchmark-Sequenz gern mal 130fps.
Was soll daran nicht mein Ernst sein?
ehm du kannst das nicht vergleichen, das sind 2 unterschiedliche Engines ( schon alleine von der verwendeten DX version her. )
ich meinte eigentlich eher sowas wie FArCRy mit PS EFfekten und FarCry ohne PS Effekte. ( Wie z.b. auf ner GF 4 mit Dx8.1 wo´s ja auch sehr gut läuft, dank no PS :) )
Quasar
2004-06-12, 20:43:02
Ach sooo, dann sag' das doch gleich. :)
Das war aus deiner Formulierung "als nächstes schreibst du dann das Spiele mit Pixelshader effekten Schneller laufen als welche ohne...." gar nicht so deutlich.
sry
;(
edit:
Momentchen, muss mal kurz den andern Rechner anwerfen...
LovesuckZ
2004-06-12, 20:45:59
Original geschrieben von Gast
ich meinte eigentlich eher sowas wie FArCRy mit PS EFfekten und FarCry ohne PS Effekte. ( Wie z.b. auf ner GF 4 mit Dx8.1 wo´s ja auch sehr gut läuft, dank no PS :) )
Nur so als Frage: Steht PS für "Pixelshader"?
Quasar
2004-06-12, 21:04:43
So habe mal eben den Aquamark v2.3 angeworfen, weil der AFAIK auf keine Effekte verzichtet, wenn man die Pixelshader abschaltet.
Mit PS: 73.5 fps
Ohne PS: 67.5 fps
In 1600x1200 mit 4xAA.
Original geschrieben von Gast
als nächstes schreibst du dann das Spiele mit Pixelshader effekten Schneller laufen als welche ohne.... Genau dazu sind Pixelshader ja auch gedacht.
Original geschrieben von Gast
Laber nie rum quasi!
Die 6800 wird bei PS2.0 so lahm sein wie ne einbeinige Ente aufem Teich! Läl.
Original geschrieben von Quasar
Soweit ich weiß, existiert im NV40 keine spezielle Hardware mehr, um PS1.1-1.4 Operationen auszuführen, dazu ist die Pipelines deutlich effizienter geworden, was Full-Precision PS2.0-Programme angeht.
Nochmal: Ich rede hier nicht von der GeForceFX! Zumindest die Umwandlungslogik für FX12 könnte man als spezielle PS1.x-Logik zählen.
Original geschrieben von Quasar
Max Payne II läuft schneller als Max Payne I. Ersteres hat Pixelshader-Effekte, letzteres nicht. =) Afaik vor allem deshalb, weil MP2 weniger CPU-lastig ist.
Jesus
2004-06-12, 21:24:54
gut jetzt brauchen wir nur noch eine Erklärung warum FarCry auf ner GF4 besser läuft als auf ner Radeon 9500.
Warum es auf ner FX mit PS1.1 wesentlich schneller läuft als mit PS2.0 ( und die Effekte natürlich bescheiden aussehen ).
Warum ein Pixelshader 1.1 Programm 8 mal kleiner ist als ein PS 2.0 Programm und keine Loops enthält.
Warum FarCry auf ner 6800 mit PS2.0 ( R300 pfad ) 10 % langsamer läuft als mit dem nv30 pfad ( PS 1.1 ) der für alle Tests verwendet wurde... ?
etc...
LovesuckZ
2004-06-12, 21:37:46
Original geschrieben von Jesus
gut jetzt brauchen wir nur noch eine Erklärung warum FarCry auf ner GF4 besser läuft als auf ner Radeon 9500.
Komplexere Shader beim r3xx.
Warum es auf ner FX mit PS1.1 wesentlich schneller läuft als mit PS2.0 ( und die Effekte natürlich bescheiden aussehen ).
Inside CinefX (http://www.3dcenter.de/artikel/cinefx/)
Warum ein Pixelshader 1.1 Programm 8 mal kleiner ist als ein PS 2.0 Programm und keine Loops enthält.
Weil man ihn so schreibt.
Warum FarCry auf ner 6800 mit PS2.0 ( R300 pfad ) 10 % langsamer läuft als mit dem nv30 pfad ( PS 1.1 ) der für alle Tests verwendet wurde... ?
Weil Nvidia mit FP32 gegenüber FP16 Leistung verliert.
Aquaschaf
2004-06-12, 21:42:48
1. Die Geforce 4 kann nicht alle Effekte darstellen und hat deswegen weniger zu rechnen als die 9500
2. Siehe den Artikel zur CineFX-Architektur :D
3. Eventuell verwendet der Shader Dinge, die bei PS1.1 noch als feste Funktionen eingebaut waren und bei PS2.0 mit anderen Rechenoperationen nachgebildet werden müssen
4. FP32 kostet auch auf dem NV40 Leistung
Demirug
2004-06-12, 21:45:41
Original geschrieben von Jesus
gut jetzt brauchen wir nur noch eine Erklärung warum FarCry auf ner GF4 besser läuft als auf ner Radeon 9500.
Warum es auf ner FX mit PS1.1 wesentlich schneller läuft als mit PS2.0 ( und die Effekte natürlich bescheiden aussehen ).
Warum ein Pixelshader 1.1 Programm 8 mal kleiner ist als ein PS 2.0 Programm und keine Loops enthält.
Warum FarCry auf ner 6800 mit PS2.0 ( R300 pfad ) 10 % langsamer läuft als mit dem nv30 pfad ( PS 1.1 ) der für alle Tests verwendet wurde... ?
etc...
Die 9500 verfügt als 4*1 Chip ja über weniger Rechenleistung und Füllrate als die GF4 als 4*2 Chip.
Das die CineFX I und II Engine mehr PS 1.1 taugliche als PS 2.0 taugliche Rechenleistung haben ist doch eigentlich allgemein bekannt, oder?
Nur weil ein 2.0 Programm länger sein darf (Loops übrigenes erst ab 2.X optional und 3.0 zwingend) bedeutet das nicht zwangsläufig das es auch länger sein muss. Man kann problemloss 2.0 Shader schreiben die schneller als 1.1 Shader sind.
Wie die 10% zustande kommen könnte eine genaue Analyse des Demolaufs aufzeigen. Ich würde mich hier aber nicht auf den unterschied 1.1 vs 2.0 festlegen. Ich habe auf einer FX mehr als einen 2.0 Shader bei Farcry im Einsatz gesehen. Deswegen kann man nicht sagen das bei den FXen nur 1.1 Shader benutzt werden.
Original geschrieben von LovesuckZ
Komplexere Shader beim r3xx.
ach auf einmal ? du hast gerade erst behauptet das es nicht so ist.
Aquaschaf
2004-06-12, 21:53:18
Original geschrieben von Gast
ach auf einmal ? du hast gerade erst behauptet das es nicht so ist.
Komplexer als die Shader, die eine Geforce 4 ausführen muss...
Original geschrieben von LovesuckZ
Weil Nvidia mit FP32 gegenüber FP16 Leistung verliert.
ist falsch, gibt keinen unterschied auf der 6800 zwischen fp16 und fp32 bei FarCry !
im übrigen sind die PS2.0 Programme bei FarCry mit sicherheit komplexer als die PS1.1 Programme die der "optimierte" NV30 pfad verwendet, denn immerhin können so gut wie keine der Effekte mit PS1.1 dargestellt werden ( bzw. mit blockmuster etc. )
MuLuNGuS
2004-06-12, 21:55:10
@SKYNET
selbst wenn man die kohle so locker hat muß man es dennoch nicht gleich mit vollen händen zum fenster rauswerfen?
oder prahlst du gern damit das du die karte vor allen anderen hast?
dann würde es natürlich sinn machen...
p.s. gerade wenn der verkauf anfänglich schlecht anläuft gehen die preise gerne mal in den keller:D:D
Original geschrieben von Aquaschaf
Komplexer als die Shader, die eine Geforce 4 ausführen muss...
Geforce 4, DX 8.1 , Pixelshader 1.4 ( max ), vermutlich PS1.1 bei FC.
Geforce FX, unter FarCry ( patch 1.1 : PS 1.1 ! )
Demirug
2004-06-12, 22:00:42
Original geschrieben von Gast
ist falsch, gibt keinen unterschied auf der 6800 zwischen fp16 und fp32 bei FarCry !
Wenn man die beiden Spezial-DLLs von tommti-systems benutzt gibt es einen Unterschied.
im übrigen sind die PS2.0 Programme bei FarCry mit sicherheit komplexer als die PS1.1 Programme die der "optimierte" NV30 pfad verwendet, denn immerhin können so gut wie keine der Effekte mit PS1.1 dargestellt werden ( bzw. mit blockmuster etc. )
Lustig dabei ist nur das die Blockmuster bei der FX von 2.0 Shadern verursacht werden.
Zu den unterschieden in der Shaderkomplexität kann ich derzeit nichts sagen da ich mir da noch keinen Überblick verschaft habe.
Demirug
2004-06-12, 22:03:03
Original geschrieben von Gast
Geforce 4, DX 8.1 , Pixelshader 1.4 ( max ), vermutlich PS1.1 bei FC.
Die GF4 kann nur PS bis 1.3. Farcry benutzt aber sowieso nur 1.1 und 2.0/2.X.
Geforce FX, unter FarCry ( patch 1.1 : PS 1.1 ! )
definitive kommen beim Patch 1.1 von Farcry auch auf einer FX immer noch 2.0 Shader zum Einsatz.
Ich wollte jetzt keinen neuen thread im spekuforum eroffnen:
Was ist mit dem 1.2 patch für farcry? Der wird andauernd verschoben. Probleme mit PS oder wie? Oder lahmt die GF doch?
Quasar
2004-06-12, 22:57:01
Original geschrieben von Gast
ist falsch, gibt keinen unterschied auf der 6800 zwischen fp16 und fp32 bei FarCry !
Doch, natürlich gibt es den. Maximal etwa 15% habe ich gemessen.
[B]definitive kommen beim Patch 1.1 von Farcry auch auf einer FX immer noch 2.0 Shader zum Einsatz.
in einem chat mit den Crytek entwicklern hab ich gelesen dass sie aufgrund der Performanceprobleme der FX Serie mit PS2.0 eben seit dem Patch 1.1 auf diese verzichten und nur noch PS 1.1 verwendet werden .
Quasar
2004-06-12, 23:09:36
Original geschrieben von Gast
du hast eine 6800 ?
Ich? Nein, eine 6800 Ultra.
Original geschrieben von Gast
in einem chat mit den Crytek entwicklern hab ich gelesen dass sie aufgrund der Performanceprobleme der FX Serie mit PS2.0 eben seit dem Patch 1.1 auf diese verzichten und nur noch PS 1.1 verwendet werden .
Man kann die Shader auslesen und wenn da im Header PS2.0 steht, braucht man kein Programmierer zu sein, um zu erkennen, daß es eben kein PS1.1 ist.
Kann ja sein, daß [i]auch[/i9 PS1.1 verwendet wurden, aber die fraglichen Licht-Shader, die die bekannten Artefakte in Cooler und Archive verursachen, sind PS2.0.
Welche hast du denn genau? Und was mich interessiert wie ist sie mit Standard ge"core"taktet?
SKYNET
2004-06-12, 23:36:28
Original geschrieben von MuLuNGuS
oder prahlst du gern damit das du die karte vor allen anderen hast?
dann würde es natürlich sinn machen...
*psst* ;)
SKYNET
2004-06-12, 23:38:10
Original geschrieben von Gast
Welche hast du denn genau? Und was mich interessiert wie ist sie mit Standard ge"core"taktet?
ultra wohl --> 400/1100
Ich verstehe das jetzt net mehr ganz ..... also die Bilder da von der x800 mit Far Cry das sieht doch genau so aus wie mit der 6800 Ultra un PS 3.0 ?? kann jetzt das au die X800 ohne PS 3.0 ???
SKYNET
2004-06-13, 01:27:57
Original geschrieben von Gast
Ich verstehe das jetzt net mehr ganz ..... also die Bilder da von der x800 mit Far Cry das sieht doch genau so aus wie mit der 6800 Ultra un PS 3.0 ?? kann jetzt das au die X800 ohne PS 3.0 ???
wenn du genau hinguckst entdeckst du unterschiede... zumindest bin ich der meinung welche zusehn, obs wirklich so ist :gruebel:
Jesus
2004-06-13, 10:29:00
Original geschrieben von Gast
Ich verstehe das jetzt net mehr ganz ..... also die Bilder da von der x800 mit Far Cry das sieht doch genau so aus wie mit der 6800 Ultra un PS 3.0 ?? kann jetzt das au die X800 ohne PS 3.0 ???
Wie gesagt es gibt keinen Speziellen PS3.0 Code der irgendwelche Effekte schafft die mit PS2.x nicht möglich wären.
Die gezeigten Screenshots der 6800 sind lediglich mit aktiviertem HDR path gemacht worden. Das wird für alle ( ab dem R300 , der FX wohl nicht ) Grafikkarten mit dem nächsten Patch möglich sein.
Die Bilder der X800 dagegen sind eine Custom map mit speziellem Bumpmapping. Das ganze läuft genauso auf einer Radeon 9800 Pro und ist genau das was nvidia da bei der Präsentation vorgekaugelt hat :)
P.S.: Wer will kann sich diese demo map ja runterladen und selber testen :)
Original geschrieben von SKYNET
wenn du genau hinguckst entdeckst du unterschiede... zumindest bin ich der meinung welche zusehn, obs wirklich so ist :gruebel:
:rofl: wo soll ich denn hingucken?
Aha cool un wo gibts die map zum runterladen ?
Jesus
2004-06-13, 14:40:26
gibts auf www.guru3d.com forum ATI Graphic Cards, X800 pictures :)
btw das bild der 6800 benutzt High Dynamic Range Rendering ( HDR ). Dazu gibts ein paar intressante Benchmarks der 6800 und er X800 XT PE:
http://tech-report.com/reviews/2004q2/radeon-x800/index.x?pg=27
Dribble Demo ( HDR allerdings lower Precision ):
9800 XT: 45.11
5950 Ultra: 24.80
X800: 131.29
6800 Ultra: 58.62
Die X800 rendert das ganz mehr als doppelt so schnell wie eine 6800 Ultra ( was auch klar ist sieht man sich die PS Specs der X800 an ).
Original geschrieben von Jesus
Die X800 rendert das ganz mehr als doppelt so schnell wie eine 6800 Ultra ( was auch klar ist sieht man sich die PS Specs der X800 an ). Hat R420 bessere Specs?
Demirug
2004-06-13, 15:17:25
Original geschrieben von aths
Hat R420 bessere Specs?
Wenn man den Zeichnungen von ATI glauben schenkt ja. ;)
Allerdings hätte man IMHO die R360 Folien doch noch etwas mehr überarbeiten sollen und die Rechtecke welche die ALUs darstellen alle auf die gleiche Grösse bringen sollen.
Quasar
2004-06-13, 15:20:42
Original geschrieben von Jesus
btw das bild der 6800 benutzt High Dynamic Range Rendering ( HDR ). Dazu gibts ein paar intressante Benchmarks der 6800 und er X800 XT PE:
Die aber auch gar nichts mit Far Cry zu tun haben, da hier eine Radeon-optimierte Demo, was Auslegung auf Rendertargets, Temp-Register (AFAIK), usw. zum Einsatz kommt.
Original geschrieben von Jesus
http://tech-report.com/reviews/2004q2/radeon-x800/index.x?pg=27
Dribble Demo ( HDR allerdings lower Precision ):
9800 XT: 45.11
5950 Ultra: 24.80
X800: 131.29
6800 Ultra: 58.62
Die X800 rendert das ganz mehr als doppelt so schnell wie eine 6800 Ultra ( was auch klar ist sieht man sich die PS Specs der X800 an ).
Ja, schön, daß die Radeon das Ganze synthetische Demo schneller rendert. Wenn sie das dann auch in Far Cry mit HDR schafft, fange ich an, beeindruckt zu sein.
Original geschrieben von Quasar
Ja, schön, daß die Radeon das Ganze synthetische Demo schneller rendert. Wenn sie das dann auch in Far Cry mit HDR schafft, fange ich an, beeindruckt zu sein. NV40 ist viel besser geeignet für solche Demos – wenn denn die NV40-Features genutzt werden :)
SKYNET
2004-06-13, 15:59:23
Original geschrieben von Gast
:rofl: wo soll ich denn hingucken?
besonders auf die ränder der wände.
Toll habe jetzt die Demo map gefuden un habe den einen Far Cry Patch druf un... es geht net, es ändert sich gar nüx ....
Hier gibts die Map -> http://www.nofeargaming.com/pafiledb/pafiledb.php?action=file&id=112
Nvidia ist besser als Ati!
BvB123
2004-06-13, 18:04:41
Original geschrieben von Gast
Nvidia ist besser als Ati!
:bier:
BodyLove
2004-06-13, 18:27:02
Original geschrieben von Gast
Nvidia ist besser als Ati...
...und meine Oma hat keine Zähne mehr im Mund.;)
SKYNET
2004-06-13, 18:32:16
Original geschrieben von BodyLove
...und meine Oma hat keine Zähne mehr im Mund.;)
er hat aber recht :P
[ontopic]
geforce 6800 review:
http://www.nvnews.net/vbulletin/showthread.php?p=339351#post339351
BvB123
2004-06-13, 18:34:57
schon geil was die mit 335 Mhz coretakt machen*und 12 Pipes*
dickes RESPEKT @ nVidia
SKYNET
2004-06-13, 18:36:10
Original geschrieben von BvB123
schon geil was die mit 335 Mhz coretakt machen
dickes RESPEKT @ nVidia
und "nur" 12 pipes
misterh
2004-06-13, 18:41:52
Wo finde ich eigentlich Patch für Far Cry, die von einem 3.Person gemacht würde? also Qualität Fix für FX karten?
deekey777
2004-06-13, 18:49:07
Original geschrieben von BodyLove
...und meine Oma hat keine Zähne mehr im Mund.;)
Don't feed a troll...
misterh
2004-06-13, 19:01:52
Weiss keiner?
Uller
2004-06-13, 19:06:11
Hier: www.tommti-systems.de
misterh
2004-06-13, 19:26:27
Original geschrieben von Uller
Hier: www.tommti-systems.de
thx
ShadowXX
2004-06-13, 20:18:23
Nett, nett, nett
With the launch of the NVIDIA ForceWare Release 60 graphics driver, NVIDIA has modified the Performance & Quality control panel to more accurately represent the driver settings. Users now have full control over image quality, trilinear optimizations, and anisotropic optimizations. NVIDIA now offers High Performance, Performance, Quality, and High Quality modes for Image Settings.
- The High Performance mode offers users the highest frame rate possible.
- Performance mode offers users an optimal blend of image quality and performance.
- Quality mode offers users the highest image quality while still delivering exceptional performance.
- High Quality mode is designed to give discriminating users images that do not take advantage of the programmable nature of the texture filtering hardware, and is overkill for everyday gaming.
und
http://www.nvnews.net/previews/geforce_6800/61.34_texture_filtering_settings.png
und auch
Turning trilinear optimization off disables trilinear optimizations and will result in the best image quality. NVIDIA understands that some users may want to disable these features, so we’ve provided controls to do this. To disable trilinear optimizations and anisotropic optimizations, click on the Show Advanced Settings checkbox and then set the Value to Off for Trilinear Optimizations and Anisotropic Optimizations. For OpenGL applications, the behavior of anisotropic optimizations is that regardless of what the Control Panel reports back; On or Off, the resulting behavior will be Off, because no Anisotropic Optimizations are implemented for OpenGL.
Das sieht doch ganz gut aus....
Der 61.34 scheint ausserdem jetzt WHQL zu sein und wohl der nächste offizielle Treiber zu werden..
Lob an nV....:up:
Jesus
2004-06-13, 20:19:36
Original geschrieben von Quasar
Die aber auch gar nichts mit Far Cry zu tun haben, da hier eine Radeon-optimierte Demo, was Auslegung auf Rendertargets, Temp-Register (AFAIK), usw. zum Einsatz kommt."
Die demo gibts schon lange, für die X800 ( PS2.0b ) ist da gar nichts ausgelegt. Wenn FC PS2.0b mit erweiterten Temp registern verwendet und dem grösseren Befehlsatz ( 64 zu 1536 Befehlen, single pass rendering ) sieht das ganz noch um einiges besser aus :) ( vorallem in FC )
[
Ja, schön, daß die Radeon das Ganze synthetische Demo schneller rendert. Wenn sie das dann auch in Far Cry mit HDR schafft, fange ich an, beeindruckt zu sein.
davon ist auszugehen, die 6800 verliert ( lt. dem Typen der die Benchmarks auf der 6800 gemacht hat ) ca. 20 % Performance dadurch bei FC. Da die 6800 fp16 HDR ca. 5- 10 fps in der Demo langsamer rendert als die X800 XT sollte sie auch in FC etwas langsamer sein, bzw mehr dadurch verlieren, hängt natürlich immer davon ab wie Crytek das HDR implementiert, sollten sie nur PS2.0 ( kein b ) für die X800 verwenden dann sieht die Sache schon etwas schlecht aus :)
Original geschrieben von ShadowXX
Das sieht doch ganz gut aus....Die Praxis stimmt mit der Tabelle nicht völlig überein.
Original geschrieben von Jesus
Die demo gibts schon lange, für die X800 ( PS2.0b ) ist da gar nichts ausgelegt. Wenn FC PS2.0b mit erweiterten Temp registern verwendet und dem grösseren Befehlsatz ( 64 zu 1536 Befehlen, single pass rendering )In DirectX kann man bei Pixelshader 2.X maximal 512 Befehle pro Shader verwenden.
Original geschrieben von aths
Die Praxis stimmt mit der Tabelle nicht völlig überein.
falls sich da nicht was gravierend vom 61.32 auf den 61.34 geändert hat dann stimmt das nicht so ganz, denn ( lt. Computerbase ):
Update:
Wie es aussieht, waren wir etwas zu voreilig. Volles, trilineares AF gibt es nur über alle Texturstages, wenn die Applikation es anfordert oder mit einem externen Tool nachgeholfen wird. Das über den Treiber erzwungene AF filtert nur auf der ersten Texturstage trilinear-AF, darüber wird nur noch bilineares AF geboten - analog dem, was im ATi-Treiber geboten wird, wenn man auf externe Tools verzichtet.
ShadowXX
2004-06-13, 20:30:55
Original geschrieben von aths
Die Praxis stimmt mit der Tabelle nicht völlig überein.
Schade...hatte gerade darüber nachgedacht ne nV zu kaufen...
Was stimmt den nicht???
Jesus
2004-06-13, 20:32:39
Original geschrieben von aths
In DirectX kann man bei Pixelshader 2.X maximal 512 Befehle pro Shader verwenden.
Direct X 9.0c unterstützt das neue PS 2.0b Shader model das bis zu 1536 bietet
LovesuckZ
2004-06-13, 20:33:33
Original geschrieben von Jesus
Direct X 9.0c unterstützt das neue PS 2.0b Shader model das bis zu 1536 bietet
PS2.x koennen nur maximal 512 Anweisungen in einen Singlepassshader haben
Siehe hier (http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=8)
Original geschrieben von Gast
falls sich da nicht was gravierend vom 61.32 auf den 61.34 geändert hat dann stimmt das nicht so ganz, denn ( lt. Computerbase ): Ich meinte den trilinearen Filter. Diesbezüglich bin ich in Kontakt mit Nvidia.
Jesus
2004-06-13, 20:36:01
In the grand scheme of things the Radeon X800 series can execute a pixel shader program that is 1,536 instructions long. If it comes across a shader that is longer then it will have to multipass, and as you will see below the X800 series does have an F-Buffer to aid shader multipassing.
ShadowXX
2004-06-13, 20:38:29
Original geschrieben von Gast
falls sich da nicht was gravierend vom 61.32 auf den 61.34 geändert hat dann stimmt das nicht so ganz, denn ( lt. Computerbase ):
Das soll eigentlich mit dem AF-Optimierungs Schalter ausgeschaltet werden können...zumindest laut Text bzw. Tabelle.
Deshalb noch mal die Frage an aths...was stimmt den nun nicht???
//Edit:
upps...hab grad dein Posting gesehen...
Dann etwas genauer...man kann das Bri also nicht ausschalten???
Aquaschaf
2004-06-13, 20:38:48
(http://www.3dcenter.de/artikel/r420_technik/index2.php)
Weil die Pixelshader 3.0-Spezifikation einen minimalen Instruction Count von 512 vorsieht, ist jeder Pixelshader 2.X auf maximal 512 Instruktionen begrenzt. (3.0 beinhaltet alle "Caps" von 2.X, das ist warum 2.X nicht die 3.0-Minimalanforderung überschreiten darf.) R420 hat mehr anzubieten: Bis 512 Textur-Operationen sowie bis zu 512 arithmetische Instruktionen. (R360 beherrscht pro Pixelshader 32 tex und 64 math.) ATI zählt nun Vektor3- und Skalar-Instruktionen einzeln und kommt mit den Textur-Operationen zu 3 * 512 = 1536 Befehlen. Wie bereits gesagt, limitiert DirectX9 dieses auf 512 Instruktionen (wobei jeder Befehl noch Modifier haben kann.)
LovesuckZ
2004-06-13, 20:39:20
Original geschrieben von Jesus
In the grand scheme of things the Radeon X800 series can execute a pixel shader program that is 1,536 instructions long. If it comes across a shader that is longer then it will have to multipass, and as you will see below the X800 series does have an F-Buffer to aid shader multipassing.
Zitat aths:
ATI zählt nun Vektor3- und Skalar-Instruktionen einzeln und kommt mit den Textur-Operationen zu 3 * 512 = 1536 Befehlen. Wie bereits gesagt, limitiert DirectX9 dieses auf 512 Instruktionen (wobei jeder Befehl noch Modifier haben kann.) (http://www.3dcenter.de/artikel/r420_technik/index2.php)
LovesuckZ
2004-06-13, 20:44:31
Original geschrieben von ShadowXX
//Edit:
upps...hab grad dein Posting gesehen...
Dann etwas genauer...man kann das Bri also nicht ausschalten???
Ich denke aths hat es geschrieben, dass der "trilinear" Button unter "Quality" kein Einfluss haette und nur unter "High Quality" arbeiten würde.
Sollte der "Button" überhaupt nicht funktionieren, waere dies, neben ATi's ,die zweite dreiste Luege in der "Next - Generation" Zeit!
Jesus
2004-06-13, 20:46:29
1536 befehle sind 1536 befehle, ich habe nicht gesagt obs float int oder sonstwas sind :)
Das ändert nichts an der Tatsache das der R420 diese "befehle" in einem Single Pass durchmachen kann, selbst wenn er drüber is kann er sie noch im F buffer zwischenlagern.
Original geschrieben von LovesuckZ
Ich denke aths hat es geschrieben, dass der "trilinear" Button unter "Quality" kein Einfluss haette und nur unter "High Quality" arbeiten würde.
Sollte der "Button" überhaupt nicht funktionieren, waere dies, neben ATi's ,die zweite dreiste Luege in der "Next - Generation" Zeit!
Ein heute neu aufgetauchter, inoffizieller ForceWare-Treiber für Windows 2000 und XP mit der Versionsnummer 61.32, den die Kollegen von Station-Drivers.com aufgetrieben haben, scheint endlich dem langerwarteten, neuen ForceWare nahezukommen.
Dieser Treiber beinhaltet wieder den zwischenzeitlich „einem Defekt erlegenen” Schalter, der es erlaubt, die volle trilineare Filterung zu erzwingen, die - ersten Betrachtungen zufolge - auch über alle Texturstufen und mit allen Leveln anisotroper Filterung zu funktionieren scheint.
Im Gegensatz zum ersten Treiber für die GeForce 6800 Ultra-Reviews funktioniert dieser Schalter nun auch endlich für die Karten der GeForce FX-Serie, deren Besitzern lange Zeit aus dem sinnlosen Grund der Benchmarkbalkenlänge dieses grundlegende Feature vorenthalten wurde. Der Link zum Download vom lokalen ComputerBase-Server für registrierte Nutzer findet sich - wie immer - am Ende der News.
Update:
Wie es aussieht, waren wir etwas zu voreilig. Volles, trilineares AF gibt es nur über alle Texturstages, wenn die Applikation es anfordert oder mit einem externen Tool nachgeholfen wird. Das über den Treiber erzwungene AF filtert nur auf der ersten Texturstage trilinear-AF, darüber wird nur noch bilineares AF geboten - analog dem, was im ATi-Treiber geboten wird, wenn man auf externe Tools verzichtet.
LovesuckZ
2004-06-13, 20:49:44
Original geschrieben von Jesus
1536 befehle sind 1536 befehle, ich habe nicht gesagt obs float int oder sonstwas sind :)
Die leider unter DX9 (SM2.x) nicht in einen Singlepassshaer verwendet werden koennen...
Das ändert nichts an der Tatsache das der R420 diese "befehle" in einem Single Pass durchmachen kann, selbst wenn er drüber is kann er sie noch im F buffer zwischenlagern.
Eventuell unter openGL, wenn man aber unter D3D programmiert, müsste man mehrere Shader verwenden und dies waere dann nicht in "einem Single Pass" zu "machen".
Original geschrieben von ShadowXX
Nett, nett, nett
Das sieht doch ganz gut aus....
Lob an nV....:up:
Du kannst Marketinggeblubber nicht für wahre Münze nehmen ;D
D-Swat
2004-06-13, 20:53:36
@Gast:
wenn du schon so schamlos von Computerbase die News hier rein kopierst, dann solltest du auch die Quelle mit angeben.
Und ausserdem mal erwähnen das die News vom 8.6. ist.
ShadowXX
2004-06-13, 20:55:41
Original geschrieben von Gast
Update:
Wie es aussieht, waren wir etwas zu voreilig. Volles, trilineares AF gibt es nur über alle Texturstages, wenn die Applikation es anfordert oder mit einem externen Tool nachgeholfen wird. Das über den Treiber erzwungene AF filtert nur auf der ersten Texturstage trilinear-AF, darüber wird nur noch bilineares AF geboten - analog dem, was im ATi-Treiber geboten wird, wenn man auf externe Tools verzichtet.
Darum gehts momentan nicht...dafür ist der AF-Optimierungs-Schalter da...der soll scheinbar funktionieren.
aths sprach vom Tri-Filtering...jetzt ist nur die Frage ob er das meinte, was Lovesuckz geschieben hatte, oder was anderes...
Original geschrieben von Jesus
Direct X 9.0c unterstützt das neue PS 2.0b Shader model das bis zu 1536 bietet 2_B ist afaik "nur" ein Profil. Woher weißt du, dass in 9.0c das Limit von 512 auf 1536 angehoben wurde?
ShadowXX
2004-06-13, 20:57:58
Original geschrieben von Gast
Du kannst Marketinggeblubber nicht für wahre Münze nehmen ;D
Das Marketinggebubbler kann man ja nachprüfen...nV würde sich ziemlich weit aus dem Fenster lehnen, wenn die Angaben (die ja sehr detailiert sind) völlig falsch sind...
ShadowXX
2004-06-13, 20:59:41
Original geschrieben von aths
2_B ist afaik "nur" ein Profil. Woher weißt du, dass in 9.0c das Limit von 512 auf 1536 angehoben wurde?
Könntest du nochmal kurz auf deinen Tri-Filtering einwurf eingehen...zumindest ich weiss noch nicht genau was du jetzt damit meintest...
Original geschrieben von Jesus
1536 befehle sind 1536 befehle, ich habe nicht gesagt obs float int oder sonstwas sind :)
Das ändert nichts an der Tatsache das der R420 diese "befehle" in einem Single Pass durchmachen kann, selbst wenn er drüber is kann er sie noch im F buffer zwischenlagern. NV40 kann pro Pass unbegrenzt viele Befehle abarbeiten (wobei Speicherplatz natürlich immer eine begrenzte Ressource ist.) Das ändert nichts an der Tatsache dass der NV40 durch DX9 auf ca. 32000 Befehle pro Shader limitiert wird.
Original geschrieben von ShadowXX
aths sprach vom Tri-Filtering...jetzt ist nur die Frage ob er das meinte, was Lovesuckz geschieben hatte, oder was anderes... Ich würde gerne NVs Reaktion abwarten, bevor ich ins Detail gehe.
Bei der X800 sind die Texture, Vector und ALU Einheiten der Shader vollständig ( im Gegensatz zur 6800 ) parallel angeordnet, wodruch sie die 1536 ( 3x512 ) "theoretisch" in einem single Pass ausführen kann.
Anandtech z.b.:
We do know that, in addition to the extra registers (32 constant and 32 temp registers up from 12) and longer length shaders (somewhere between 512 and 1536 depending on what's being done) available to developers on R420, the number of internal registers has increased and the maximum number of pixels in flight has increased. These facts are really important in understanding performance. The fundamental layout of the pixel pipelines in R420 and NV40 are not that different, but the underlying hardware is where the power comes from. In this case, the number of internal pipeline stages in each pixel pipeline, and the ability of the hardware to hide the latency of a texture fetch are of the utmost importance.
The bottom line is that R420 has the potential to execute more PS 2.0 instructions per clock than NVIDIA in the pixel pipeline because of the way it handles texturing.
ShadowXX
2004-06-13, 21:09:19
Original geschrieben von aths
Ich würde gerne NVs Reaktion abwarten, bevor ich ins Detail gehe.
ok...kann ich verstehen...dann ist es wenigstens was definitives..
Original geschrieben von Gast
Bei der X800 sind die Texture, Vector und ALU Einheiten der Shader vollständig ( im Gegensatz zur 6800 ) parallel angeordnet, wodruch sie die 1536 ( 3x512 ) "theoretisch" in einem single Pass ausführen kann.Obwohl die "Shader Subunits" beim NV40 teilweise voneinander abhängig sind, kann das Ding pro Takt sogar mehr als drei Instruktionen ausführen.
Original geschrieben von Gast
The bottom line is that R420 has the potential to execute more PS 2.0 instructions per clock than NVIDIA in the pixel pipeline because of the way it handles texturing. Da wüsste ich gerne genaueres. Im kommenden Artikel behaupte ich das Gegenteil (nämlich dass NV40 pro Takt mehr tun kann als R420.) Obwohl TEX die Shader Unit teilweise blockiert, bleiben beim NV40 bis zu 3 (bei kreativer Zählweise sogar noch mehr) arithmetische Instruktionen im gleichen Takt.
Bezüglich der R420-Pipe habe ich bei ATI heute noch ein Detail nachgefragt. Mal sehen, wann die Antwort kommt.
Man könnte Situationen konstruieren, wo R420 pro Takt mehr tun kann als NV40. Ich schätze die "mittlere Instruktionsdichte" im Praxiseinsatz beim R420 auf ca. 1,5 pro Takt, beim NV40 auf reichlich 2 pro Takt. Im jeweiligen best-case geht die Schere weiter auseinander.
Quasar
2004-06-13, 21:13:42
Original geschrieben von LovesuckZ
Ich denke aths hat es geschrieben, dass der "trilinear" Button unter "Quality" kein Einfluss haette und nur unter "High Quality" arbeiten würde.
Sollte der "Button" überhaupt nicht funktionieren, waere dies, neben ATi's ,die zweite dreiste Luege in der "Next - Generation" Zeit!
Mit dem 61.34 geht lt. AF-Tester und den Frameraten im Villagemark der Tri-Schalter auch für die GFFX.
Demirug
2004-06-13, 21:16:53
Original geschrieben von Gast
Bei der X800 sind die Texture, Vector und ALU Einheiten der Shader vollständig ( im Gegensatz zur 6800 ) parallel angeordnet, wodruch sie die 1536 ( 3x512 ) "theoretisch" in einem single Pass ausführen kann.
Anandtech z.b.:
We do know that, in addition to the extra registers (32 constant and 32 temp registers up from 12) and longer length shaders (somewhere between 512 and 1536 depending on what's being done) available to developers on R420, the number of internal registers has increased and the maximum number of pixels in flight has increased. These facts are really important in understanding performance. The fundamental layout of the pixel pipelines in R420 and NV40 are not that different, but the underlying hardware is where the power comes from. In this case, the number of internal pipeline stages in each pixel pipeline, and the ability of the hardware to hide the latency of a texture fetch are of the utmost importance.
The bottom line is that R420 has the potential to execute more PS 2.0 instructions per clock than NVIDIA in the pixel pipeline because of the way it handles texturing.
Anandtech sollte um Dingen von denen sie keine Ahnung haben besser einen Bogen machen.
Wenn das "fundamental layout" so ähnlich wäre könnte der R420 auch PS 3.0.
Und was die Anzahl der PS 2.0 Anweisungen pro Takt angeht so ist das dermassen kompliziert das man da fast immer was falsches sagt und am Ende durch nur rein theoretische Maximalwerte angeben kann oder für jeden Shader die Instructions/Clock durch Messung ermitteln muss. Wobei sich das dann von Treiber zu Treiber wieder ändern kann.
Der Maximalwert beim NV40 ist übrigens höher weil er sich stärker splitten kann.
Jesus
2004-06-13, 21:21:24
naja bisher siehts aber eher so aus als ob die X800 in Pixelshader lastingen Tests durchgehend vor der 6800 liegt, wenn man den Reviews im Web glauben schenkt.
aber viell. noch THG:
The pixel shader units of the X800, on the other hand, have been given some attention. For example, the number of temporary registers has been increased from 12 to 32. Also, the maximum number of pixel shader instructions has grown from 120 to 1536 (512 each for vectors, scalars and textures). The memory management of the F-buffer has also been improved. The F-buffer theoretically allows the use of infinitely long pixel shader programs by caching pixels as they leave the pixel pipeline and making them available to pixel shader programs for new calculations. Another improvement is that now, only the pixels actually used by a shader program are saved, and not the entire frame of a scene.
Quasar
2004-06-13, 21:23:00
Original geschrieben von Jesus
naja bisher siehts aber eher so aus als ob die X800 in Pixelshader lastingen Tests durchgehend vor der 6800 liegt, wenn man den Reviews im Web glauben schenkt.
Natürlich, aber das sollten sie mit mindestens 30% tun - und selbst dann würden die Shader nur gleichviel leisten...
LovesuckZ
2004-06-13, 21:24:07
Original geschrieben von Jesus
naja bisher siehts aber eher so aus als ob die X800 in Pixelshader lastingen Tests durchgehend vor der 6800 liegt, wenn man den Reviews im Web glauben schenkt.
Bei einem 30% Taktvorteil und einer fast aehnlichen leistungsstarken Architektur ist dies nicht verwunderlich.
Bei einem vergleich zwischen GT und PRO kommt es zu einem Unentschieden (FP24 vs FP32).
Jesus
2004-06-13, 21:26:38
Dann sind wir uns ja einig... :D
Allerings hat die XT nunmal so eine hohe Taktfrequenz, wieso sollte man dass bemängeln ???
Hätte NV auf PS3.0 verzichtet hätten sie weniger Transistoren verbraten und höher takten können, haben sie aber nicht, daher ist es so wie es jetzt ist ( ok klingt blöd :) )
Original geschrieben von LovesuckZ
Bei einem 30% Taktvorteil und einer fast aehnlichen leistungsstarken Architektur ist dies nicht verwunderlich.
Bei einem vergleich zwischen GT und PRO kommt es zu einem Unentschieden (FP24 vs FP32).
Die pro hat allerings auch nur 12 Pixel Pipelines :)
LovesuckZ
2004-06-13, 21:34:00
Original geschrieben von Gast
Die pro hat allerings auch nur 12 Pixel Pipelines :)
Dafür 125MHz Mehrtakt.
Es ist daher egal (praktisch), durch welche Faktoren die Leistung zustande kommt.
Quasar
2004-06-13, 21:34:20
Original geschrieben von Gast
Die pro hat allerings auch nur 12 Pixel Pipelines :)
Die Pro liegt ja auch nicht vor der GT. =)
reunion
2004-06-13, 21:35:47
Original geschrieben von aths
NV40 kann pro Pass unbegrenzt viele Befehle abarbeiten (wobei Speicherplatz natürlich immer eine begrenzte Ressource ist.) Das ändert nichts an der Tatsache dass der NV40 durch DX9 auf ca. 32000 Befehle pro Shader limitiert wird.
Diese limitierungen sind doch sowieso irrelavant, da selbst die nächste generation von spielen wie HL2 kaum mehr als 50 Anweisungen pro Shader verwenden wird.
Quasar
2004-06-13, 21:37:04
Original geschrieben von Jesus
Dann sind wir uns ja einig... :D
Allerings hat die XT nunmal so eine hohe Taktfrequenz, wieso sollte man dass bemängeln ???
Richtig, aber wir waren doch an dem Punkte, welche Pipeline effizienter ist, oder?
Quasar
2004-06-13, 21:37:41
Original geschrieben von reunion
Diese limitierungen sind doch sowieso irrelavant, da selbst die nächste generation von spielen wie HL2 kaum mehr als 50 Anweisungen pro Shader verwenden wird.
Selbst Spellforce nutzt schon längere Shader.
Godmode
2004-06-13, 21:37:42
Original geschrieben von reunion
Diese limitierungen sind doch sowieso irrelavant, da selbst die nächste generation von spielen wie HL2 kaum mehr als 50 Anweisungen pro Shader verwenden wird.
Aber für Offline-Rendering ist es sicher interessant!
Weiß eigentlich jemand, wann wir das SDK Summer Update bekommen, möchte endlich FC mit den neuen Effekten sehen.
Jesus
2004-06-13, 21:37:47
Original geschrieben von Quasar
Die Pro liegt ja auch nicht vor der GT. =)
lt. hardocp liegt sie gleichauf mit der ultra :)
( Spielgefühl, was immer das auch heisst :) )
btw ich könnte mir nun doch vorstellen das die NV schnellere Pixelshader berechnen kann, wenn man mit FP16 ( low precision ) rechnet.
Ob und wie das dann einfluss auf die Bildqualität hat ist ne andere Frage ( DX 9 ist so viel ich weiss auf 24 Bit spezifiziert und das liefert die x800 ständig, während die 6800 nur 16 und 32 bit beherrscht).
Godmode
2004-06-13, 21:40:24
Original geschrieben von Jesus
lt. hardocp liegt sie gleichauf mit der ultra :)
( Spielgefühl, was immer das auch heisst :) )
btw ich könnte mir nun doch vorstellen das die NV schnellere Pixelshader berechnen kann, wenn man mit FP16 ( low precision ) rechnet.
Ob und wie das dann einfluss auf die Bildqualität hat ist ne andere Frage ( DX 9 ist so viel ich weiss auf 24 Bit spezifiziert und das liefert die x800 ständig, während die 6800 nur 16 und 32 bit beherrscht).
Vergiss Hardcop, die Ultra ist so schnell wie die XT (ok vielleicht etwas langsamer (5%?)) Ich denke wenn man bei beiden Karten die Optimirungen ausschalten kann, sind sie gleich schnell!
Ranz0r
2004-06-13, 22:15:01
Werden nich in jedem Bild mehrere Shader verwendet bzw wird das ja oft, werden da nicht die einzelnen Berechnungen praktisch zusammensummiert, sodass man auf die entsprechende MAX-Zahl an Instruktionen kommt? Oder werden die generell nacheinander berechnet?
Ich frage mich imemr was die ganzen Leute haben damit das eine Karte 5% schneller ist... Ich meine im Mainstreambereich ist das ja voll in Ordnung aber im HighEndbereich hat man eh so viel Leistung, das es da doch nicht mehr wirklich interessant ist?! Dort würde ich doch echt eher auf die Features gucken, da kann mir auch kein Gabe Newell erzählen das die X800 so viel besser ist und seine Spiele darauf programmiert, spätestens nach HL2 wird er doch umsteigen auf die Hardware mit den meisten Features, um die Engine für die Zukunft bereit zu machen...
Allein aus diesem Grund würde ich mir die NVdiakarte holen... Und nein ich bin kein Fanboy oder sowas :D
Ich hol mir die Hardware die mir am meisten zusagt und das tut mir IMHO die Nvidiakarte, da die Performance getrost ausser acht gelassen werden kann in dieser Klasse... Die nächste Performancefressende Engine, womit man vielleicht nicht mehr alles auf Max. stellen kann wird warscheinlich die U3Engine sein und dann ist man mit der Nvidiakarte warscheinlich auch noch besser beraten, da diese die aktuelleren Features bietet und das Spiel imho auch auf ihr entwickelt wird.
Quasar
2004-06-13, 22:47:27
Original geschrieben von bans3i
Vergiss Hardcop, die Ultra ist so schnell wie die XT (ok vielleicht etwas langsamer (5%?)) Ich denke wenn man bei beiden Karten die Optimirungen ausschalten kann, sind sie gleich schnell!
Nein, nur wenn die Texelfüllrate limitiert, bewrikt Abschalten der Optimierung dichter zusammenliegende FPS-Raten.
Die XT PE ist schon schneller als die Ultra, im großen und ganzen. Allerdings könnte nV IMO mit einem einzigen Dreh im Treiber da so einiges korrigieren. :)
Gast2k4
2004-06-13, 22:48:24
Gibts eigentlich schon irgendwelche Spekulationen oder Informationen für die Geforce 6 Mainstreamkarten bzw. die Mobility Version?
Quasar
2004-06-13, 22:50:03
Original geschrieben von Jesus
Ob und wie das dann einfluss auf die Bildqualität hat ist ne andere Frage ( DX 9 ist so viel ich weiss auf 24 Bit spezifiziert und das liefert die x800 ständig, während die 6800 nur 16 und 32 bit beherrscht).
DX9 sagt, daß das Ergebnis einer Rechnung, soweit nicht ausdrücklich als "PP" (partial precision) gekennzeichnet, dem derselben Rechnung mit mind. FP24 Genauigkeit entsprechen muss.
FP16 ist, wie gesagt, auch erlaubt, wenn der Developer dies ausdrücklich, per pp-hint, als ausreichend ansieht.
Winter[Raven]
2004-06-13, 22:58:05
Die XT PE ist schon schneller als die Ultra, im großen und ganzen
Kein Wunder bei 120 mhz mehr an Takt :( Ist doch der R420XT nur hochgeprügelter Chip und die Fortsetzung für den Schwanzvergleich.
@ Quasar
Die Ultra EE liegt aber >= R420XT, right?
Quasar
2004-06-13, 23:02:24
Hab keine "EE" und auch nicht vor, die Ultra dauernd um 50 MHz hochzudrehen.
In einigen Fällen werden die 50MHz sicher reichen, um an der XT PE vorbeizuziehen - in anderen wird's eben nicht reichen, besonders in denen, wo nVidia's Handgriff im Treiber gefragt ist.
Original geschrieben von Jesus
btw ich könnte mir nun doch vorstellen das die NV schnellere Pixelshader berechnen kann, wenn man mit FP16 ( low precision ) rechnet.Außer NRM_PP und Fog-Blending wird mit FP16 nichts schneller berechnet.Original geschrieben von Quasar
nVidia's Nvidias :)
Quasar
2004-06-13, 23:13:03
Original geschrieben von aths
Nvidias :)
Richtig. :)
Nach 10.000+ Wörtern darf einem mal ein kleiner Lapsus passieren.
ShadowXX
2004-06-13, 23:28:26
Original geschrieben von Quasar
Nein, nur wenn die Texelfüllrate limitiert, bewrikt Abschalten der Optimierung dichter zusammenliegende FPS-Raten.
Die XT PE ist schon schneller als die Ultra, im großen und ganzen. Allerdings könnte nV IMO mit einem einzigen Dreh im Treiber da so einiges korrigieren. :)
Auf was für einen "Dreh" spielst du da an???
Original geschrieben von ShadowXX
Auf was für einen "Dreh" spielst du da an??? Ein Shader-Replacement der 'etwas' anderen Art ?
:???:
Razor
Quasar
2004-06-13, 23:34:19
Nein, Filter@Scanout bei 4xAA abschalten. ;)
Möglicherweise, wenn meine liebe Redaktion das mal langsam in Angriff nimmt, geht das Review dann morgen online, ich hab damit nichts mehr zu tun, ist alles fertig.
Original geschrieben von Quasar
Möglicherweise, wenn meine liebe Redaktion das mal langsam in Angriff nimmt, geht das Review dann morgen online, ich hab damit nichts mehr zu tun, ist alles fertig. Na dann mal: Herzlichen Glückwunsch :up:
Dann ist die Nacht nun doch noch gerettet, was ?
:D
Razor
Quasar
2004-06-13, 23:43:19
Der Nachtschlaf, ja. Mehr aber nicht.
VooDoo7mx
2004-06-14, 00:27:47
Ist vielleicht irgendjemand mal auf die Idee gekommen die neueren PowerVR Techdemos durch den NV40 zu jagen?
MarcWessels
2004-06-14, 00:55:06
Original geschrieben von Ranz0r
Die nächste Performancefressende Engine, womit man vielleicht nicht mehr alles auf Max. stellen kann wird warscheinlich die U3Engine sein und dann ist man mit der Nvidiakarte warscheinlich auch noch besser beraten, da diese die aktuelleren Features bietet und das Spiel imho auch auf ihr entwickelt wird.
Nö... nützt Dir nichts, weil man für Unreal 3 sowieso 1 Gigabyte Ram @ GraKa benötigt (für volle Details).
SKYNET
2004-06-14, 05:23:53
6800 vs. 6800U vs. 6800GT vs. x800pro
*klick* (http://www.hkepc.com/hwdb/6800nugt-4.htm)
Demirug
2004-06-14, 07:31:40
Original geschrieben von VooDoo7mx
Ist vielleicht irgendjemand mal auf die Idee gekommen die neueren PowerVR Techdemos durch den NV40 zu jagen?
Funktioniert nicht. Es gab gegenüber dem alten Refrast noch ein paar kleine Änderungen bei SM3. Der Devsupport von nvidia kümmert sich aber schon darum.
reunion
2004-06-14, 13:32:03
Original geschrieben von Winter[Raven]
Kein Wunder bei 120 mhz mehr an Takt :( Ist doch der R420XT nur hochgeprügelter Chip und die Fortsetzung für den Schwanzvergleich.
Geile Aussage, ist der NV40U denn kein hochgeprügelter Chip und die Fortsetzung für den Schwanzvergleich?
Original geschrieben von reunion
Geile Aussage, ist der NV40U denn kein hochgeprügelter Chip und die Fortsetzung für den Schwanzvergleich?
Ich denke er meint nur mehr Takt und sonst fast nichts neues!
BvB123
2004-06-14, 14:51:33
joa sozusagen nen r300 mit 16 pipes und 520 mhz core
bei nv40 gibts wenigsten was neues
da gibts noch was zu optimieren usw. bei ati gibts wohl kaum mehr bei ner 2 jahre alten gpu
(meine meinung)
mfg
[dzp]Viper
2004-06-14, 14:52:39
Original geschrieben von BvB123
joa sozusagen nen r300 mit 16 pipes und 520 mhz core
bei nv40 gibts wenigsten was neues
jaja - 3Dc immer schön unter den Tisch kehren ;)
aber sonst haste recht :)
Aber wer sagt den, dass ATI und NV immer zeitgleich mit neuen architekturen kommen müssen? ;)
deekey777
2004-06-14, 14:54:31
Original geschrieben von BvB123
joa sozusagen nen r300 mit 16 pipes und 520 mhz core
bei nv40 gibts wenigsten was neues
da gibts noch was zu optimieren usw. bei ati gibts wohl kaum mehr bei ner 2 jahre alten gpu
(meine meinung)
mfg
Eher 4 RV360... Geht das wieder los.
:abgel:
BvB123
2004-06-14, 15:16:37
4 RV360?
was meinst du damit?
Anstatt 2xR300 eben 4xRV360 (Radeon9600 XT).
Kommt sowohl von der Taktfreqenz, als auch von den evtl. wiederverwendbaren Bauteilen in 0,13µ-lowK, als auch von den TMUs hin.
;(
sry
;Q
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.