Archiv verlassen und diese Seite im Standarddesign anzeigen : X1800XT so in FEAR überlegen? check this...
tombman
2005-10-09, 02:39:20
Ich hab mir mal den Spaß gemacht und geschaut ob der Grafikkarten-Speichertakt einen großen Einfluß auf den mp demo benchmark hat ;)
In unzähligen X1800XT reviews lag die X1800XT bei fear DEUTLICH vor der 7800GTX, sodaß einige hier schon total geflashed waren und die X1800XT zum deutlichen Sieger kührten...
That was then.....
THIS IS NOW:
Hab den Speicher der 7800 GTX mal von 1380"mhz", was ja meine octe Einstellung ist um genau jene 25% zurückgedreht, die der GTX auf die X1800Xt fehlen (GTX: 1200mhz, X1800XT: 1500mhz = 25%), also runter auf ca 1100mhz. Dh von 1380mhz runter auf 1100mhz, der selbe prozentuelle Sprung wie 1500->1200.
Den core hab ich mal gleichgelassen, denn es geht ja nicht um absolute Zahlen sondern nur um relative, also um den relativen Einfluß des Speichertaktes auf die Gesamtperformance :naughty:
FEAR mp demo, 1024x768 4xAA/16xAF, MAXIMALE DETAILS (inkl Soft Shadows), HQ, 78.03 Treiber, WinXP64, Coretakt gpu: 486mhz, KEIN SLI, single card
7800 GTX 1380mhz VS 7800 GTX 1100mhz:
Minimum: 22 Minimum: 19
Average: 37 Average: 31
Maximum: 70 Maximum: 60
Tjo, das wars dann mit der FEAR X1800XT Überlegenheit :naughty:
Wie die skiller schon wußten: es liegt am Ram und sonst gar nix :D
EDIT: sorry, die Werte sind doch nur mit 1024x768 gelaufen... aber ansonsten kann man den Schluß ja lassen...
StefanV
2005-10-09, 02:40:45
Für 1100MHz bzw 1380MHz Speicher sind deine Werte aber ganz schön mau, wären ja immerhin ~70GB/sec bei 1100MHz Speicher :rolleyes:
tombman
2005-10-09, 02:45:40
Für 1100MHz bzw 1380MHz Speicher sind deine Werte aber ganz schön mau, wären ja immerhin ~70GB/sec bei 1100MHz Speicher :rolleyes:
Genau lesen ist von Vorteil.. bei der ersten Speichertaktzahl hab ich ein "" vor mhz gemacht, damit auch dem ärgsten noob klar ist, das wir hier nicht von echten mhz reden. Danach hab es mir einfach gespart die "" ständig dazuzuschreiben. Wie man sieht kann man es aber nicht deppensicher genug machen... scnr.
tombman
2005-10-09, 02:51:17
Ach ja, kleiner Tip am Rande: wenn man FEAR benched und maximale Details haben will, muß man zuerst AA abstellen im Menu, dann SS einschalten, OK DRÜCKEN und aus dem perf. Menu raus, dann wieder rein und dann erst AA aktivieren, dann wieder ok, wieder raus, dann wieder rein --> erst dann ist alles wirklich aktiviert.
Hauptsache man schaltet SS VOR AA ein und nicht umgekehrt, sonst bekommt man nämlich nur AA, aber kein SS und die scores sind viel zu hoch ;)
deekey777
2005-10-09, 02:53:22
Aber wo ist der Sinn? Sollen jetzt die vermeintlichen Käufer einer X1800XT heulen?
Nenn mir ein Beispiel, wo eine Grafikkarte nicht vom höheren Speichertakt profitiert hat. Und ja, die X1800XT ist in FEAR schneller, weil sie über den zZ schnellsten Speicher und so über mehr Bandbreite verfügt. Oder hätten die Reviewer den Speichertakt heruntersetzen sollen oder die Hälfte der Speichermenge zerstören, wie es einige verlangen, damit eine Fairness besteht?
Irgendwann wird es wirklich lächerlich. Daß die 7800GTX über mehr Shaderpower verfügt*, bestreitet doch niemand.
*Und so in Verbindung mit schnellerem Speicher noch mehr Vorteile hätte.
tombman
2005-10-09, 02:56:37
Der Sinn liegt darin den Leuten zu sagen WARUM die X1800XT in diesem Fall so schnell ist.
Denn es macht einen Unterschied, ob eine Karte wegen den chips so schnell ist, oder wegen des Speichers! Warum das wiederrum wichtig ist? Weil Nvidia nichts gegen einen schnellen chip tun könnte, aber gegen schnellen Speicher kann Nvidia sehr wohl was tun, nämlich ihn AUCH VERBAUEN.
Und wenn DAS nicht wichtig ist ;)
Sämtliche 4xAA/16xAF scores der X1800XT kann man jetzt unter einem anderen Licht sehen :naughty:
alpha-centauri
2005-10-09, 03:02:43
na, dann warten wir mal ab, wann nvidia diese chips auf ihre karten baut. und fertig.
Der Sinn liegt darin den Leuten zu sagen WARUM die X1800XT in diesem Fall so schnell ist.
Denn es macht einen Unterschied, ob eine Karte wegen den chips so schnell ist, oder wegen des Speichers! Warum das wiederrum wichtig ist? Weil Nvidia nichts gegen einen schnellen chip tun könnte, aber gegen schnellen Speicher kann Nvidia sehr wohl was tun, nämlich ihn AUCH VERBAUEN.
Und wenn DAS nicht wichtig ist ;)
Sämtliche 1600x1200 4xAA/16xAF scores der X1800XT kann man jetzt unter einem anderen Licht sehen :naughty:
letzt endlich zählt dat endresultat, wat nvidia macht oder net macht ist dabei völlig unwichtig und sind nur spekulationen.
MikBach
2005-10-09, 03:30:39
Sämtliche 1600x1200 4xAA/16xAF scores der X1800XT kann man jetzt unter einem anderen Licht sehen :naughty:
IN FEAR ist der R520 auch ohne Quallisettings überlegen.
Oder nicht? (http://www.hexus.net/content/item.php?item=3603&page=9)
tombman
2005-10-09, 03:31:02
Hier noch die Werte mit 1600x1200 4xAA/16xAF:
1380: 11, 17, 31
1100: 9, 15, 27
tombman
2005-10-09, 03:34:40
IN FEAR ist der R520 auch ohne Quallisettings überlegen.
Oder nicht? (http://www.hexus.net/content/item.php?item=3603&page=9)
Wie gesagt, wird beides sein, Speichertakt (zb bei 1024x768), aber vorallem Speichermenge (zb bei 1600x1200).
Is schon alles ok so, jedenfalls ist es nicht der Chip ;)
MikBach
2005-10-09, 03:36:03
Hier noch die Werte mit 1600x1200 4xAA/16xAF:
1380: 11, 17, 31
1100: 9, 15, 27
Ist mit den Messungen von Hexus.net vergleichbar. Schade, dass du keine X1800XT hast... :wink:
tombman
2005-10-09, 03:38:33
Ist mit den Messungen von Hexus.net vergleichbar. Schade, dass du keine X1800XT hast... :wink:
Eine 512mb 7800GTX muß her, dann kann man wirklich vergleichen...
Blaire
2005-10-09, 03:39:23
Eine 512mb 7800GTX muß her, dann kann man wirklich vergleichen...
Installier einfach den 81.84 Forceware das sollte genügen. ;)
Die ganzen Tests sind alle fürn Arsch da die 78.xx bei Fear deutlich langsamer sind.
Siehe auch da:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3554604&postcount=75
MikBach
2005-10-09, 03:40:01
Wie gesagt, wird beides sein, Speichertakt (zb bei 1024x768), aber vorallem Speichermenge (zb bei 1600x1200).
Bei 1024 wird es eher die GPU sein.
Is schon alles ok so, jedenfalls ist es nicht der Chip ;)
Da denke ich aber anders...
tombman
2005-10-09, 03:41:08
Bei 1024 wird es eher die GPU sein.
Das ist unmöglich. Die Pixelshaderleistung der 7800GTX ist höher...
Fetza
2005-10-09, 03:52:40
Also wie man von einer taktmodifizierten 7800 auf die leistung einer x1800xt schließen kann ist mir da doch eher schleierhaft. Nur weil die 7800 dementsprechend skaliert, muss das erstens nicht auf die x1800xt zutreffen, zum anderen, selbst wenn sie das tut, wäre es dennoch nicht so wirklich relevant. Denn letztlich zählt, was die grafikkarte mit ihren komponenten insgesamt zu leisten vermag.
Edit: interessant wird es dann, wenn hier jemand beide karten besitzt und dementsprechend testen kann.
Gruss
Fetza
tombman
2005-10-09, 04:11:33
Soda, hab jetzt mal das ganze durch den 3D-ANALyse geschickt :cool:
Und siehe da, das Teil frißt 320mb Videospeicher, den die 7800 GTX nicht hat :cool:
Damit isses wohl eindeutig :D
MikBach
2005-10-09, 04:12:10
Das ist unmöglich. Die Pixelshaderleistung der 7800GTX ist höher...
Die 7800 kann diese aber nicht immer zur Geltung bringen...
tombman
2005-10-09, 04:17:42
Hehe, so wie ich vermutet hatte: bei 1024x768 bleibt es mit 245mb genau im Rahmen und es zählt praktisch nur mehr der Speed des Speichers.
Gott bin ich gut ;)
tombman
2005-10-09, 04:19:46
Die 7800 kann diese aber nicht immer zur Geltung bringen...
Und jetzt willst du mir sagen, FEAR macht Gebrauch von heavy sm3.0 dynamic branching, oder was? ;D
tombman
2005-10-09, 04:34:02
Ok, weitere Analyse :
bei 1024 skaliert es auch mit dem gpu clock noch sehr gut, bei 1600 deutlich weniger...
bei 486core->430core: (-11,5%) (1380mem)
1024: 37avg->34avg (-8,1%)
1600: 17avg->16avg (-5.9%) (!)
Hier noch die anderen Ergebnisse, alles schön in einem post:
1380mem->1100mem (-20%) (486core)
1024: 37avg->31avg (-16.2%) (!!)
1600: 17avg->15avg (-11.7%)
Memverbrauch laut 3d-analyse:
1024: 245mb
1600: 322mb (!)
Oberspaten....
wäre es eventuell möglich zb.mit einer anderen Brücke beide rambänke im SLI zu nutzen?
LovesuckZ
2005-10-09, 07:54:31
IN FEAR ist der R520 auch ohne Quallisettings überlegen.
Oder nicht? (http://www.hexus.net/content/item.php?item=3603&page=9)
Nein.
Das war die unoptimierte SP Demo, mit Fraps gemessen.
Die MP (Beta) enthaelt ja ein Benchmark und dort zeigt sich sehr gut, dass die Leistung eines G70 (Vergleich GT und XL) ohne AA/AF (um die Rohperformance zu sehen) deutlich hoeher ist. Siehe dazu auch:
http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page14.asp
http://www.xbitlabs.com/articles/video/display/radeon-x1800_9.html
Tigerchen
2005-10-09, 08:51:22
Nein.
Das war die unoptimierte SP Demo, mit Fraps gemessen.
Die MP (Beta) enthaelt ja ein Benchmark und dort zeigt sich sehr gut, dass die Leistung eines G70 (Vergleich GT und XL) ohne AA/AF (um die Rohperformance zu sehen) deutlich hoeher ist. Siehe dazu auch:
http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page14.asp
http://www.xbitlabs.com/articles/video/display/radeon-x1800_9.html
Die Rohperformance ist aber kein Kriterium. Wer sich solche Boliden zulegt wird doch wohl kaum auf qualitätssteigernde Features wie AA/AF verzichten.
LovesuckZ
2005-10-09, 09:12:23
Die Rohperformance ist aber kein Kriterium. Wer sich solche Boliden zulegt wird doch wohl kaum auf qualitätssteigernde Features wie AA/AF verzichten.
Was du sagst, ist natuerlich richtig.
Ich habe aber nur Bezug auf die These von MikBach genommen.
Und das Duell XL und GT gehet mit AA/AF unentschieden aus, das heißt, beide sind mit AA/AF ungefaehr gleich effizient.
Snoopy69
2005-10-09, 09:36:07
Warum das wiederrum wichtig ist? Weil Nvidia nichts gegen einen schnellen chip tun könnte, aber gegen schnellen Speicher kann Nvidia sehr wohl was tun, nämlich ihn AUCH VERBAUEN.
Und wenn DAS nicht wichtig ist ;)
Ja, könnten sie - vielleicht...
Aber stattdessen verbauen sie billigen Ram auf ihre Karten und verkaufen sie zb dir...
Mr. Lolman
2005-10-09, 09:42:14
Daß die 7800GTX über mehr Shaderpower verfügt*,
:confused:
Sicher?
LovesuckZ
2005-10-09, 09:45:27
:confused:
Sicher?
Ja.
LolekDeluxe
2005-10-09, 09:59:27
Hier werden doch Äpfel mit Birnen Verglichen.
1. Die Treiber für ATI sind noch nicht ausgereift
2 Eine Übertaktete mit einer nicht Übertakteten zu vergleichen. :down:
Und die Beiträge von Tombman, naja wie immer sinnlos.
1. er spielt niemals mit 1024x768
2. Wer spielt bitte 1600x1200@4AA@16AF mit 11-30 FPS. :|
IppoN
2005-10-09, 10:06:56
wie kann ich diesen bench denn machen ?
dargo
2005-10-09, 10:16:45
Memverbrauch laut 3d-analyse:
1024: 245mb
1600: 322mb (!)
Das Teil frisst soviel Speicher ? :eek:
Das kann doch langsam nicht mehr wahr sein. :mad:
Das würde ja bedeuten, daß selbst für die 1280-er Auflösung 256MB Vram zu wenig sind. :|
Auch in diesem Fall würde ich erstmal die Vollversion abwarten. Das gleiche Problem gabs doch schon mit der CoD2 Demo.
Keine oder nicht funktionierende Texturkompression ???
Was soll denn soviel Vram bei Fear verbrauchen ???
So hochauflösend sind die Texturen doch gar nicht. :cool:
Snoopy69
2005-10-09, 10:21:31
Was soll denn soviel Vram bei Fear verbrauchen ???
So hochauflösend sind die Texturen doch gar nicht. :cool:
Tja, das war scheinbar mal...
Oder dachte von uns einer bis vor 1-2 Jahren, dass wir min. 2GB Ram zum spielen brauchen? Ich nicht... :wink:
Und ausserdem - das Geschäft lebt vom Verkauf von Hardware.
Die Hersteller würden sich ins eigene Fleisch schneiden, wenn die Texturen extra hoch komprimieren würden, damit man sie auf 256MB Ram quetschen könnte...
Ist der gleiche Beschiss, wie mit den "Megaperls" (Waschmittel). Die Doofen kaufen das. Dabei weiss doch fast Jeder, das Megaperls nichtgemahlene Kügelchen sind.
Der Hersteller verdient also doppelt - gesparte Mahlung, teureres Waschmittel!
So macht man Gewinn. :wink:
Igzorn
2005-10-09, 10:30:32
Finde sowas immer sinnlos.
Jetzt versuchen schon manche leute etwas schlecht zu machen weil es andere kreterien hat.
Hat sich damals einer darüber beschwerd das der nv30 soviel mehr takt hatte im vergleich zu einem R300 ?
Oder das der R420 höher getaktet war als der nv40 ??
Man muss doch das gesamt packet sehen. Und da sind 2 Hersteller verschiedene wege gegangen.
Der G70 mag ja der mit Höherer shader roh leistung sein. Aber wie im Tech artikel angedeutet ist wurde da auch schon gesagt das er deswegen nicht immer führend sein muss. (hoffe das versteht einer)
Wenn ihr ummedingt wollt das man einen R520 mit nur 256MB gegen eine GTX testet dann will ich das der G70 auch nur 16 Pips hat.
Aber damit hätten wohl einige leute ein Problem.
Es ist doch total egal wie ein chip auf seine leistung kommt. Ob über speicher oder der GPU, beides kann man "fast" beliebig ausbaun.
Edit:
Übriegens ist das aufregen über die nicht verfügbaren 256mb auf den gtx nicht wirklich nach zu vollziehen.
Wenn sie kommen werden sie auch was bringen. Zur zeit kann man halt nur das schnellste produkt mit dem andern schnellste produkt vergleichen.
Und solange nv nicht 512mb bieten haben sie halt pech genau so wie ati pech hat das sie keine 24pips haben.
derMeister
2005-10-09, 10:33:32
Dieser Trend ist das letzte, 2Gig Arbeitsspeicher, 512Mb Videospeicher. Wo soll das hinführen :confused:
Und das die nV Fanboys jetzt wieder heulen, weil die Karte mal auf Rang zwei liegt ist auch klar. Die 7800GTX hat schlechteren Ram drauff und das gefällt nicht.
Jetzt sucht man die Schuld natülich bei ATI bzw der x1800xt. Wie sollte das schlechte abschneiden sonst erklärt werden können "natürlich, ATI schummelt, die haben viel mehr und besseren Ram auf der Karte" lächerlich :tongue:
Nochwas anmerk, meine Ex 5900 hatte wesentlich besseren Ram ( 2,2n/sec, Ultra 2n/sec ) als die 9800pro, trotzdem war/ist die haushoch überlegen. Und alle haben die Schuld natürlich bei ATI gesucht, von wegen cheat hier und da.
Fakt ist, es war ganz alleine nVidia's schuld.
Hier werden doch Äpfel mit Birnen Verglichen.
1. Die Treiber für ATI sind noch nicht ausgereift
ähm du weisst aber schon das der R520 schon vor dem G70 sein tapeout hatte und schon mehr zeit für die treiberentwicklung war? soll das jetzt ne unterschwellige anspielung sein das die ati treiberprogrammierer unfähig bzw. gar 2. klasse sind?
2 Eine Übertaktete mit einer nicht Übertakteten zu vergleichen. :down:
es ging hier nicht um einen absolut vergleich sondern darum wie FEAR mit dem speicher skaliert
Und die Beiträge von Tombman, naja wie immer sinnlos.
find ich in diesem Fall ganz und garnicht, da mir der gedankengang schon kam als ich die benches das 1. mal sah und da ich leider keine GTX besitze fand ichs gut das jemand hier mal ausgiebig testet. Daher können wir tombman dankbar sein das er das mal getestet hat und versucht licht ins dunkel zu bringen.
dargo
2005-10-09, 10:41:25
Tja, das war scheinbar mal...
Oder dachte von uns einer bis vor 1-2 Jahren, dass wir min. 2GB Ram zum spielen brauchen? Ich nicht... :wink:
Also ich schon. :)
Größere Spielewelt (zb. BF2) --> mehr Speicherbedarf.
Beim Arbeitsspeicher geht es aber noch. Brauche ich 2GB Ram, kaufe ich mir zusätzlich 1GB für ~100€ und gut ist. Bei der Graka muss ich gleich ~500-600€ für 512MB Vram investieren. :|
Leider kann man den Vram nicht einfach aufrüsten. :(
Ich finde das auf jeden Fall eine Frechheit. Für 1280-er Auflösung soll also schon eine G7800GTX zu schwach sein wegen zu wenig Vram ? :|
Ich würde mir grundsätzlich kein Fear oder CoD2 kaufen wenn die Entwickler zu Blöd sind die Texturen vernünftig zu komprimieren !
Das es besser geht hat man schon bei den High-Res Texturen von UT03 (oder wars UT04 ?) gesehen. Dort hatten, glaube ich, sogar noch 128MB Vram gereicht. Im Vergleich dazu sind die Texturen von Fear matchig. :cool:
derMeister
2005-10-09, 10:43:07
zustimm, wenn es so läuft mit spielen, wir sind die, die entscheiden und nicht andersrum. Wir müssen ja nicht alles kaufen.
Snoopy69
2005-10-09, 10:43:28
Dieser Trend ist das letzte, 2Gig Arbeitsspeicher, 512Mb Videospeicher. Wo soll das hinführen :confused:
Wir sind doch selber Schuld...
Es wird immer Hirnies geben, die zuviel Geld haben und das Neueste vom Neuen haben müssen.
WÜrde man zb 1 Monat lang weltweit den hardwarekauf boykottieren, würde denen "da oben" (Hersteller) die Klammer gehen.
Aber das wird nicht klappen, weil wir doch alle irgendwie hardwaresüchtig sind...
Ich würde mir grundsätzlich kein Fear oder CoD2 kaufen wenn die Entwickler zu Blöd sind die Texturen vernünftig zu komprimieren !
Zu blöd würde ich nicht sagen - das ist Strategie! :wink:
Wie es Preisabsprachen zw. Konzernen gibt, gibt es sicher auch "enge" Zusammenarbeit zw. Soft- und Hardwarehersteller...
"Ich liefere euch hardwarehungrige Software, ihr produziert sie, dann nehmen wir mehr ein" - oder so ähnlich...
Es geht eben nur um schwarze Zahlen - das ist Wirtschaft!
MikBach
2005-10-09, 10:53:01
:confused:
Sicher?
Ja, die 7800GTX hat mehr Shaderpower, kann diese aber nicht immer ganz entfalten. Demi hat es mal erklärt, ich finde es aber leider nicht mehr.
dargo
2005-10-09, 11:09:57
Zu blöd würde ich nicht sagen - das ist Strategie! :wink:
Das sehe ich etwas anders. Ich bin mir ziemlich sicher, daß für UT07 256MB Vram für 1280-er Auflösung noch reichen. Und UT07 sieht einiges besser aus als Fear.
Snoopy69
2005-10-09, 11:14:34
Das sehe ich etwas anders. Ich bin mir ziemlich sicher, daß für UT07 256MB Vram für 1280-er Auflösung noch reichen. Und UT07 sieht einiges besser aus als Fear.
Dann sieh es so...
Fear - schlampig (billig) programmiert und trotzdem soviel Geld einnehmen, wie mit gut programmierten Games...
dargo
2005-10-09, 11:48:55
Dann sieh es so...
Fear - schlampig (billig) programmiert und trotzdem soviel Geld einnehmen, wie mit gut programmierten Games...
Ich fürchte eher, daß Fear sich schlecht verkaufen wird bei so einem Hardwarehunger.
Die meisten Zocker sind immernoch mit einer R9800Pro bis G6800GT unterwegs.
Fear und CoD2 (wie gesagt, erstmal die Vollversionen abwarten) scheinen aber wirklich sehr schlampig programmiert zu sein. Ich bin mit 512MB Vram einverstanden, aber erst bei dieser Grafik. :devil:
http://ps3media.ign.com/ps3/image/article/651/651358/vision-gt-20050916010824429.jpg
daywalker1982
2005-10-09, 12:13:27
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/1/#abschnitt_einleitung
ausführliche benches :) bleibe bei meiner gt und notfalls kommt ne 2 dazu zum sli
Spasstiger
2005-10-09, 12:19:58
Mehr Speicherbandbreite kann keiner High-End-Grafikkarte schaden, weil das Verhältnis von Füllrate zu Speicherbandbreite zur Zeit immer schlechter wird. Somit ist es auch klar, dass übertakteter Speicher auch zu mehr Performance führt.
Wenn die GeForce 7800 GTX 512 MB mit dem schnellen Speicher von Samsung kommt, den auch die ATI's haben, dann könnte Nvidia in der Tat noch einiges reißen.
StefanV
2005-10-09, 12:21:42
Ja.
Nein, nur theoretisch...
LovesuckZ
2005-10-09, 12:31:51
Nein, nur theoretisch...
Nein, siehe dazu auch die Werte von meinen Links.
Snoopy69
2005-10-09, 12:46:19
Ich bin mit 512MB Vram einverstanden, aber erst bei dieser Grafik. :devil:
Na du wirst gleich wieder unverschämt :D
SKYNET
2005-10-09, 12:46:40
Finde sowas immer sinnlos.
Jetzt versuchen schon manche leute etwas schlecht zu machen weil es andere kreterien hat.
Hat sich damals einer darüber beschwerd das der nv30 soviel mehr takt hatte im vergleich zu einem R300 ?
Oder das der R420 höher getaktet war als der nv40 ??
Man muss doch das gesamt packet sehen. Und da sind 2 Hersteller verschiedene wege gegangen.
Der G70 mag ja der mit Höherer shader roh leistung sein. Aber wie im Tech artikel angedeutet ist wurde da auch schon gesagt das er deswegen nicht immer führend sein muss. (hoffe das versteht einer)
Wenn ihr ummedingt wollt das man einen R520 mit nur 256MB gegen eine GTX testet dann will ich das der G70 auch nur 16 Pips hat.
Aber damit hätten wohl einige leute ein Problem.
Es ist doch total egal wie ein chip auf seine leistung kommt. Ob über speicher oder der GPU, beides kann man "fast" beliebig ausbaun.
Edit:
Übriegens ist das aufregen über die nicht verfügbaren 256mb auf den gtx nicht wirklich nach zu vollziehen.
Wenn sie kommen werden sie auch was bringen. Zur zeit kann man halt nur das schnellste produkt mit dem andern schnellste produkt vergleichen.
Und solange nv nicht 512mb bieten haben sie halt pech genau so wie ati pech hat das sie keine 24pips haben.
du raffst es nicht oder?
wenn der GTX dann nur 16 pipes haben soll dann darf der R520 aber auch nurnoch 430MHz haben... kapische?
speicher hat mit der GPU nada zutun!
jau diese entwicklung des hardwarehungers is schon beängstigend... zur zeit hab ich ja nur 128MB meine nächste karte sollte eine mit 256MB werden, wenn ich aber dann sehe das bald erscheinende games dann wegen "nur" 256MB extreme frameeinbrüche nachsich ziehen läuft mir schon ein kalter schauer übern rücken.
nagus
2005-10-09, 12:56:55
Ich hab mir mal den Spaß gemacht und geschaut ob der Grafikkarten-Speichertakt einen großen Einfluß auf den mp demo benchmark hat ;)
In unzähligen X1800XT reviews lag die X1800XT bei fear DEUTLICH vor der 7800GTX, sodaß einige hier schon total geflashed waren und die X1800XT zum deutlichen Sieger kührten...
That was then.....
THIS IS NOW:
Hab den Speicher der 7800 GTX mal von 1380"mhz", was ja meine octe Einstellung ist um genau jene 25% zurückgedreht, die der GTX auf die X1800Xt fehlen (GTX: 1200mhz, X1800XT: 1500mhz = 25%), also runter auf ca 1100mhz. Dh von 1380mhz runter auf 1100mhz, der selbe prozentuelle Sprung wie 1500->1200.
Den core hab ich mal gleichgelassen, denn es geht ja nicht um absolute Zahlen sondern nur um relative, also um den relativen Einfluß des Speichertaktes auf die Gesamtperformance :naughty:
FEAR mp demo, 1024x768 4xAA/16xAF, MAXIMALE DETAILS (inkl Soft Shadows), HQ, 78.03 Treiber, WinXP64, Coretakt gpu: 486mhz, KEIN SLI, single card
7800 GTX 1380mhz VS 7800 GTX 1100mhz:
Minimum: 22 Minimum: 19
Average: 37 Average: 31
Maximum: 70 Maximum: 60
Tjo, das wars dann mit der FEAR X1800XT Überlegenheit :naughty:
Wie die skiller schon wußten: es liegt am Ram und sonst gar nix :D
EDIT: sorry, die Werte sind doch nur mit 1024x768 gelaufen... aber ansonsten kann man den Schluß ja lassen...
bravo
und was hab ich jetzt davon? eine xt1800xt ist trotzdem bei fear (und nicht nur bei fear) überlegen. was nützt mir das jetzt wenn ich weiß, dass es am speicher liegt? :hammer:
Picknatari
2005-10-09, 13:05:50
Eine 512mb 7800GTX muß her, dann kann man wirklich vergleichen...
Stimmt,
Spiele wie FEAR, COD2 und BF2 sind die ersten, die von mehr als 256MB Speicher in max. Details profitieren können. Mit den Ati Tray Tools kann man sich im Spiel den gerade nicht genutzten VRAM Speicher anzeigen lassen. Man müsste die max. QSettings wählen und die Auflösung so einstellen, das bei der x1800xt nicht mehr als 256MB Speicher in einem Level benötigt wird. Dann könnte man fair vergleichen.
Black-Scorpion
2005-10-09, 13:18:49
Installier einfach den 81.84 Forceware das sollte genügen. ;)
Die ganzen Tests sind alle fürn Arsch da die 78.xx bei Fear deutlich langsamer sind.
Siehe auch da:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3554604&postcount=75
Ich verweise mal auf den Thread im nVidia Forum.
Dort wurde immer darauf hingewiesen das der Treiber Beta ist weil sich doom 1 darüber aufgeregt hat wie mies der Treiber bei ihm ist.
Und jetzt auf einmal sollte der für Benchmarks genommen werden?
Das kann ja wohl nur ein Witz sein.
dargo
2005-10-09, 13:38:04
Na du wirst gleich wieder unverschämt :D
Nö, man darf aber noch träumen. :rolleyes:
Monkey
2005-10-09, 14:08:40
bravo
und was hab ich jetzt davon? eine xt1800xt ist trotzdem bei fear (und nicht nur bei fear) überlegen. was nützt mir das jetzt wenn ich weiß, dass es am speicher liegt? :hammer:
(y)
ohne weitere worte
MarcWessels
2005-10-09, 14:12:04
jau diese entwicklung des hardwarehungers is schon beängstigend... zur zeit hab ich ja nur 128MB meine nächste karte sollte eine mit 256MB werden, wenn ich aber dann sehe das bald erscheinende games dann wegen "nur" 256MB extreme frameeinbrüche nachsich ziehen läuft mir schon ein kalter schauer übern rücken.NOCH erschreckender finde ich, wenn ich sehe, dass selbst HighEnd-Hardware zu einer minimalen Framerate von unter 30fps führt! Da kann ich nur ganz klar sagen: Daumen runter! :mad:
Da hol ich mir lieber die X-Box 360; hab' langsam die Faxen im PC-Bereich dicke...
Igzorn
2005-10-09, 14:40:21
du raffst es nicht oder?
wenn der GTX dann nur 16 pipes haben soll dann darf der R520 aber auch nurnoch 430MHz haben... kapische?
speicher hat mit der GPU nada zutun!
Okay ich weiss ja das du nicht gut im lesen und vor allem verstehen bist.
Wenn man den text richtig interpretieren könnte, würde man verstehen das ich es so meine das alles dann auf einen gleichen nenner gehen müsste.
Also Takt/Pips/Ram.
Nur wird das nie der fall sein. Der speicher hat nix mit der eigentlichen gpu zu tun. Das mag stimmt aber auf der karte sind die nun mal drauf. Und solange das nicht anderst ist wird halt so verglichen.
Das ist ja nicht Atis schuld das nv keine 512mb hat. Und ich glaube es bezweifelt ja auch keiner das der G70 mit schnellern und mehr speicher der schnellere sein wird. Aber hier geht es um karten und nicht einfach nur einzelne chips. Oder kaufst du einzelne chips ein ?
Hmm, sooo viel VRAM verbraucht Fear?
Dafür läuft es auf einer 6800GT mit max Settings (2AA, kein AF, kein SS natürlich) in der 1024er mit nur 128MB aber sehr ordentlich.
tombman, kannst Du mal mit SLI die 1024/1600er Auflösung benchen, um zu sehen was SLI macht wenn der VRAM ausgeht? Besonders ob die % Geschwindigkeitseinbussen grösser sind als mit einer Karte würde mich interessieren, beide Karten müssten ja dann gleichzeitig Texturen swapen.
Und evtl. ob es einen Geschwindigkeitsunterschied gibt zwischen einer Karte im x8 Mode und einer Karte im x16 Mode?
Horimoto
2005-10-09, 15:06:52
Ich find den fred einfach lustig...................
Wenn die GTX der XT überlegn ist, dann erklär mir mal, warum sie bei FC, perimeter und anderen Sahderintensiven Spielen so weit vorne liegt? bei tech-report sieht man die Überlegenheit......
@deine benches:
Schade nur, dass die XT ~100% schneller ist bei min. fps........ (driverheaven, und andre reviews).
Man muss benches mit der MP FINAL vergleichen, nciht beta, denn die beta ist eine für ATi karten Todversion, in der Final sind ATi karten (X850XTPE) genauso schnell wie eine 7800GT, eine X18XT dürfte dann die GTX richtig abziehen.
Natürlich liegt es am Speicher, und wayne?
Sie ist schneller, fertig. Suche keine rechtfertigung für dein Unnötiges SLi System, für das du unmengen an Kohle rausgeworfen hast, um dann zu merken, dasss eine EINZELNE X18XT an die Werte rankommt........... sorry das ist arm, einfach arm.
Wenn die GTX mit 512MB schneller ist, soll nVidia die vorstellen, verfügbar machen und gut ist. Solange ist die Xt eindeutig Marktführer, was Perf. angeht, aber auch was IQ angeht!!!!!!!!
Denn letztendlich sind mir 5% scheissegal wenn ich dafür die ebste IQ und dazu HDR+AA bekomme.
Picknatari
2005-10-09, 15:35:01
So, ich habe nachgeschaut: die 512MB sind in dem Benchmark wohl doch nicht das entscheidene Kriterium, denn bei meiner ASUS X800PRO mit 256MB läuft der Videospeicher in dem Benchmark bei max. Details und 1600x1200 erst kurz vor den Kisten aus und ich denke, der Rest sollte die Unterschiede nicht begründen.
Was ich komisch finde ist, dass in den Benchmarks meine Karte genau so schnell wie ne GTX von Tombman ist, oder mach kann ich da was falsch machen?
ASUS X800 PRO @ X850PRO
1024x768 max. Details
Min.:19 Avg.:38 Max.:101 <25:27% 25-40:33% >40:40%
1600x1200 max. Details
Min.:9 Avg.:19 Max.:44 <25:84% 25-40:15% >40:1%
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/1/#abschnitt_einleitung
ausführliche benches :) bleibe bei meiner gt und notfalls kommt ne 2 dazu zum sli
Das war´s und das Maß aller Dinge ist "SLI" schon mit Standart Taktraten rockt es alles in Grund und Boden,danke meine Herren das war´s und schüß.
dargo
2005-10-09, 15:58:39
Mit welchem Programm konnte mal nochmal überprüfen wieviel Vram im Spiel benötigt werden ?
Black-Scorpion
2005-10-09, 16:06:59
Mit welchem Programm konnte mal nochmal überprüfen wieviel Vram im Spiel benötigt werden ?
Meinst du Demirugs "Video Memory Watcher"?
Den gibt es normalerweise hier wenn die Seite wieder online ist.
http://www.nonatainment.de
dargo
2005-10-09, 16:12:04
Ja, genau. Den meine ich.
Hast vielleicht einen anderen Link ?
Blaire
2005-10-09, 16:12:53
Ich verweise mal auf den Thread im nVidia Forum.
Dort wurde immer darauf hingewiesen das der Treiber Beta ist weil sich doom 1 darüber aufgeregt hat wie mies der Treiber bei ihm ist.
Und jetzt auf einmal sollte der für Benchmarks genommen werden?
Das kann ja wohl nur ein Witz sein.
Bei ihm oder allen? :rolleyes:
Die ganzen Tests sind praktisch alle für die Tonne, da meist nur alte 78.xx Treiber benutzt worden sind.
Horimoto
2005-10-09, 16:20:03
Der neue 81.84 bringt MINMAL Laietung, mit DC und SLi mehr, aber wer hat das schon? ATi kann genauso einen DC optimierten treiber bringen, also soll man SC gucken, und ad bringen die 80.xx net sonderlich viel, 4% ungefähr........ z.B von 9 auf 10 fps in FEAR oder so, super............ Ati hat da 18 fps
A.Wesker
2005-10-09, 16:25:21
Der neue 81.84 bringt MINMAL Laietung, mit DC und SLi mehr, aber wer hat das schon? ATi kann genauso einen DC optimierten treiber bringen, also soll man SC gucken, und ad bringen die 80.xx net sonderlich viel, 4% ungefähr........ z.B von 9 auf 10 fps in FEAR oder so, super............ Ati hat da 18 fps
der bringt bei fear bei mir ca 15 % ohne SLI und Dualcore
dargo
2005-10-09, 16:27:57
z.B von 9 auf 10 fps in FEAR oder so, super............ Ati hat da 18 fps
Also ich muss immer wieder lachen wenn ich sowas lese.
Was wollt ihr eigendlich mit 9, 10 oder 18fps ??? :|
Jetzt sag mir nicht, daß du mit 18fps deine Games zockst.
Blaire
2005-10-09, 16:29:58
Der neue 81.84 bringt MINMAL Laietung, mit DC und SLi mehr, aber wer hat das schon? ATi kann genauso einen DC optimierten treiber bringen, also soll man SC gucken, und ad bringen die 80.xx net sonderlich viel, 4% ungefähr........ z.B von 9 auf 10 fps in FEAR oder so, super............ Ati hat da 18 fps
Bei FEAR ne ganze Menge, und das nicht nur bei SLI.
Horimoto
2005-10-09, 16:52:17
laut driverheaven nicht..................
sorry, mein fehler, da war es der 81.82............ nehme alles zurück :)
Kann sein dass der 81.84 was bringt, nur wie sieht es mit der IQ aus?
:confused:
Sicher?Wenn nur gerechnet wird auf jedenfall. Wenn die Textur-Samplings bei G70 Pipeline-Stalls verursachen dann eher R520.
Kann sein dass der 81.84 was bringt, nur wie sieht es mit der IQ aus?Ist gleich wie bei 78.03, also kein Flimmern.
Hmm, sooo viel VRAM verbraucht Fear?Braucht es. Auf 1600x1200 ist es ohne AA schon knapp unter 256MiB. Mit 4xAA ist es drüber, deshalb der Einbruch.
Mr. Lolman
2005-10-09, 16:57:31
Ist gleich wie bei 78.03, also kein Flimmern.
AFAIK sagt Blaire da was anderes. Und die Brilinaerität vom 78.03 find ich auch nicht ok...
AFAIK sagt Blaire da was anderes.Mein Auge sagt, dass es so aussieht wie in 78.03 - und das flimmern in anderen Treibern sticht in WoW z.B. übelst raus.
Und die Brilinaerität vom 78.03 find ich auch nicht ok...Ist mir bisher auch nicht aufgefallen. Du meinst das in SS2, oder?
Mr. Lolman
2005-10-09, 17:02:33
Mein Auge sagt, dass es so aussieht wie in 78.03 - und das flimmern in anderen Treibern sticht in WoW übelst raus.
Hm, hab mich da vertan. Auch lt. Blaire flimmert da nix. kthxsry ;)
Ist mir bisher auch nicht aufgefallen. Du meinst das in SS2, oder?
Jepp.
Jepp.Das sollte auch vorher nochmal nachgeprüft werden. Ich seh da kein brilinear.
Was mir aber grad auffiel ist, dass anscheinend mit 81.84 kein OpenGL-TSSAA in SS2 funktioniert.
Picknatari
2005-10-09, 17:52:15
Braucht es. Auf 1600x1200 ist es ohne AA schon knapp unter 256MiB. Mit 4xAA ist es drüber, deshalb der Einbruch.
Das hab ich weiter oben geschrieben:
"So, ich habe nachgeschaut: die 512MB sind in dem Benchmark wohl doch nicht das entscheidene Kriterium, denn bei meiner ASUS X800PRO mit 256MB läuft der Videospeicher in dem Benchmark bei max. Details und 1600x1200 erst kurz vor den Kisten aus und ich denke, der Rest sollte die Unterschiede nicht begründen."
Wie gesagt, ich glaub nicht, dass die letzten 3 Sekunken den Einbruch verursachen. Die Ati Tray Tools zeigen immer die aktuelle VRAM Nutzung an.
Black-Scorpion
2005-10-09, 18:09:44
Bei ihm oder allen? :rolleyes:
Die ganzen Tests sind praktisch alle für die Tonne, da meist nur alte 78.xx Treiber benutzt worden sind.
Es ist vollkommen ok das der Treiber nicht genommen wurde.
Nur weil er da schneller ist soll der genommen werden.
Aber wehe es hat damit einer Probleme, dann ist es auf einmal ein Betatreiber und nicht so schlimm.
Ihr müßt euch da mal einig werden und nicht so diskutieren wie es am besten passt.
Blaire
2005-10-09, 18:40:26
Es ist vollkommen ok das der Treiber nicht genommen wurde.
Nur weil er da schneller ist soll der genommen werden.
Aber wehe es hat damit einer Probleme, dann ist es auf einmal ein Betatreiber und nicht so schlimm.
Ihr müßt euch da mal einig werden und nicht so diskutieren wie es am besten passt.
Der Treiber ist offiziell und da interessiert mich das herzlich wenig ob der Beta ist oder nicht. Tuh mal nicht so als würde es bei Catalyst Treibern keine Probleme geben...
Das hab ich weiter oben geschrieben:
"So, ich habe nachgeschaut: die 512MB sind in dem Benchmark wohl doch nicht das entscheidene Kriterium, denn bei meiner ASUS X800PRO mit 256MB läuft der Videospeicher in dem Benchmark bei max. Details und 1600x1200 erst kurz vor den Kisten aus und ich denke, der Rest sollte die Unterschiede nicht begründen."
Wie gesagt, ich glaub nicht, dass die letzten 3 Sekunken den Einbruch verursachen. Die Ati Tray Tools zeigen immer die aktuelle VRAM Nutzung an.Sind die ATT da zuverlässig? Teste das mal mit dem VRAM Tester von nonatainment.
wo kann man das einstellen bei dem traytool?
Black-Scorpion
2005-10-09, 19:48:08
Sind die ATT da zuverlässig? Teste das mal mit dem VRAM Tester von nonatainment.
Die Seite ist zur Zeit down.
Black-Scorpion
2005-10-09, 19:52:19
wo kann man das einstellen bei dem traytool?
Hardware -> Monitoring Graphs -> Add -> Haken bei Free Video Memory
und wo ist der unterschied zwischen texture memory?
Black-Scorpion
2005-10-09, 20:59:41
und wo ist der unterschied zwischen texture memory?
Hast du eine AGP Karte?
Dann schalte es doch mal mit an. ;)
Dann wirst du sehen das der frei Ram größer wie der Ram auf der Karte ist.
Einfach gesagt ist das Karten Ram + AGP Speichergröße im Bios.
achso,
ne hab pcie.
also COD2 bei 1024x768 + 2xAA werden immer so um die 240-250MB gefressen. :rolleyes:
Black-Scorpion
2005-10-09, 21:23:47
achso,
ne hab pcie.
also COD2 bei 1024x768 + 2xAA werden immer so um die 240-250MB gefressen. :rolleyes:
Auch da kannst du es mal anschalten.
Nur wie es bei PCIe funktioniert kann ich dir nicht sagen.
Eine Einstellung wie für AGP gibt es ja dafür im Bios nicht.
Antares
2005-10-09, 21:37:31
ich zocke die COD2 Demo auf 1280*1024 4AA und alles hoch, full Z Shadows im non DX7 Modus und es läuft wunderbar flüssig, keine Slowdowns oder ähnliches
Rampage 2
2005-10-09, 21:57:28
Das sehe ich etwas anders. Ich bin mir ziemlich sicher, daß für UT07 256MB Vram für 1280-er Auflösung noch reichen. Und UT07 sieht einiges besser aus als Fear.
Ähm, soweit ich gehört habe, hat Marc Rein gesagt, dass UT2007 bei maximalen Grafikeinstellungen 1GB Grafikspeicher zum Laufen braucht...
BEEblebroXX
2005-10-09, 22:05:57
Netter Test. Und schlecht für ATi: Da wird Nvidia wohl ohne großen R&D Aufwand vorbeiziehen - und bei ATi gehts nur über Architekturverbreiterung.
Ähm, soweit ich gehört habe, hat Marc Rein gesagt, dass UT2007 bei maximalen Grafikeinstellungen 1GB Grafikspeicher zum Laufen braucht...
Na ja, Doom3 braucht(e) ja angeblich auch 512MB.
pXe
tombman
2005-10-09, 22:26:43
Für alle die denken ihre Karten sind ja soo schnell: wie schon gesagt, zuerst mal genau überprüfen ob SS nicht nur eingestellt war, sondern auch wirklich gelaufen ist. Wenn die Schatten mit SS nicht deutlich anders aussehen als ohne SS, dann war es nicht aktiv.
Das Menu ist NICHT zuverläßig in fear...
tombman
2005-10-09, 22:29:29
Könnte mal jemand einen downloadlink vom vram tester posten, nonatainement is down..
tombman
2005-10-09, 22:32:19
Ich find den fred einfach lustig...................
Wenn die GTX der XT überlegn ist, dann erklär mir mal, warum sie bei FC, perimeter und anderen Sahderintensiven Spielen so weit vorne liegt? bei tech-report sieht man die Überlegenheit......
@deine benches:
Schade nur, dass die XT ~100% schneller ist bei min. fps........ (driverheaven, und andre reviews).
Man muss benches mit der MP FINAL vergleichen, nciht beta, denn die beta ist eine für ATi karten Todversion, in der Final sind ATi karten (X850XTPE) genauso schnell wie eine 7800GT, eine X18XT dürfte dann die GTX richtig abziehen.
Natürlich liegt es am Speicher, und wayne?
Sie ist schneller, fertig. Suche keine rechtfertigung für dein Unnötiges SLi System, für das du unmengen an Kohle rausgeworfen hast, um dann zu merken, dasss eine EINZELNE X18XT an die Werte rankommt........... sorry das ist arm, einfach arm.
Wenn die GTX mit 512MB schneller ist, soll nVidia die vorstellen, verfügbar machen und gut ist. Solange ist die Xt eindeutig Marktführer, was Perf. angeht, aber auch was IQ angeht!!!!!!!!
Denn letztendlich sind mir 5% scheissegal wenn ich dafür die ebste IQ und dazu HDR+AA bekomme.
Du such mal lieber keine Vorwände um deinen offenen Neid getarnt posten zu können, weil DAS ist arm.
Wenn du denkst eine X1800Xt ist 100% schneller als eine 7800GTX in auch nur irgendeinem game bist ein Marketingopfer und sonst gar nix.
Und du willst HDR+AA mit EINER Karte flüssig spielen? Jo, sicher, aber nicht über 640x480, gelle :D
Und Marktführer sind die bestenfalls im November, weil die X1800XT vaporware ist, Tatsache.
Fetza
2005-10-09, 22:48:33
Ich versteh nicht, warum hier immer gleich alle so agro werden, das die x1800xt nunmal einfach schneller ist in fear ,als die gtx bleibt ein faktum, ob es nun direkt am chipdesign liegt, oder am höheren speichertakt ist doch vollkommen egal. Letztlich ist es wohl bei jeder graka, egal welchen herstellers so, das es ein synergie effekt zwischen den komponenten ist, der für die geschwindigkeit verantwortlich ist.
So lange wie noch niemand, der beide karten hat, entsprechende tests macht, kann auch niemand rückschlüsse drauf ziehen. Die taktspielerein mit deiner gtx spiegeln nicht die zu erwartende ergebnisse der neuen ati karte wieder. Dafür sind die architekturen zu verschieden. Ausserdem könnte man letztlich auch noch die bildqualitätsfrage mit einbeziehen, da würde die gtx dann bezüglich af wohl schlecht dastehen.
WEnn du einen porsche auf eine bestimmte ps zahl drosselst, kannst du deshalb noch nicht sagen, das zb ein ferrari gleicher ps zahl nicht schneller sein kann, als dieser porsche, viele andere faktoren haben da auch einfluss drauf, zb übersetzung etc. Genauso verhält es sich auch mit grakas.
Deine bemühung in allen ehren, aber kauf dir doch erst noch ein crossfire system mit den x1800ern und teste dann. Dann wird es von den infos her gehaltvoll.
Also seit mal nett zueinander :)
Gruss
Fetza
A.Wesker
2005-10-09, 23:07:45
crossfire.. 1600x1200 @ 60 Hz ... :D
Fetza
2005-10-09, 23:16:01
crossfire.. 1600x1200 @ 60 Hz ... :D
da haste jetzt mal ins kloh gegriffen, und zwar so tief, das es blubbert :D
60 herz ist nur noch bei der aktuellen generation, die 1800 können mehr.
alpha-centauri
2005-10-09, 23:18:17
wasn vaporware
deekey777
2005-10-09, 23:29:28
crossfire.. 1600x1200 @ 60 Hz ... :D
Und jetzt schreibst du oder verlinkst, warum es diese Limitierung gibt.
wasn vaporware
Ist das eine Frage?
Onkeltom421
2005-10-09, 23:43:07
Nein eine Tatsache ;)
papachrischi
2005-10-09, 23:55:16
Leute, Leute, wieso macht ihr euch über ungelegte Eier Gedanken?. Bis die ersten x1800XT in den Läden stehen, ist Weihnachten. Für FEAR gilt dasselbe, es ist im Moment nur ne DEMO da. Das fertige Spiel wird sicher so optimiert sein, dass es auch mit 256MB VRam ordentlich läuft, schon mangels 512MB Karten.
Der Punkt für diese Grafikkartengeneration geht eindeutig an NVidia mit dem G70. ATI kommt mit dem R520 einfach zu spät, was bei der nächsten Generation schon ganz anders aussehen mag.
deekey777
2005-10-10, 00:00:35
Nein eine Tatsache ;)
Tatsache wovon?
Frank1974
2005-10-10, 01:44:51
Hallo
Ein G70 mit 512MB ram@1,26ns,wird aber doch sicherlich einen gewaltigen Aufpreis haben oder?(ich glaube das ist ein Grund für den hoch angesetzten Preis der 1800XT :rolleyes: ...)
Oder wird nur der 1,6ns Ram verdoppelt, dann dürfte der Aufpreis nicht so hoch ausfallen.
MFG
Frank
Onkeltom421
2005-10-10, 02:06:32
Tatsache wovon?
Das die x1800XT nicht erwerblich ist :rolleyes:
MikBach
2005-10-10, 02:47:18
Der Punkt für diese Grafikkartengeneration geht eindeutig an NVidia mit dem G70.
Und warum?
Bessere BQ bei R520 und brauchbares dynamisches Branching....
ATI kommt mit dem R520 einfach zu spät
Wenn jemand sich zu Weihnachten eine Graka kaufen will, den interessiert nicht, wer vorher da war....
Mumins
2005-10-10, 08:21:03
Leute, Leute, wieso macht ihr euch über ungelegte Eier Gedanken?. Bis die ersten x1800XT in den Läden stehen, ist Weihnachten. Für FEAR gilt dasselbe, es ist im Moment nur ne DEMO da. Das fertige Spiel wird sicher so optimiert sein, dass es auch mit 256MB VRam ordentlich läuft, schon mangels 512MB Karten.
Der Punkt für diese Grafikkartengeneration geht eindeutig an NVidia mit dem G70. ATI kommt mit dem R520 einfach zu spät, was bei der nächsten Generation schon ganz anders aussehen mag.
F.E.A.R. wird soweit ich weiss nächste Woche rauskommen.
Dr.Dirt
2005-10-10, 13:14:39
F.E.A.R. wird soweit ich weiss nächste Woche rauskommen.
Ja, am 18.10. ist es soweit. =)
Picknatari
2005-10-17, 11:12:04
Leute, Leute, wieso macht ihr euch über ungelegte Eier Gedanken?. Bis die ersten x1800XT in den Läden stehen, ist Weihnachten. Für FEAR gilt dasselbe, es ist im Moment nur ne DEMO da. Das fertige Spiel wird sicher so optimiert sein, dass es auch mit 256MB VRam ordentlich läuft, schon mangels 512MB Karten.
Der Punkt für diese Grafikkartengeneration geht eindeutig an NVidia mit dem G70. ATI kommt mit dem R520 einfach zu spät, was bei der nächsten Generation schon ganz anders aussehen mag.
Jo, ist den scho Weihnachten? ;)
http://www.kmshop.de/main_site/main.php?action=ShopOverview&MARK=10555&MID=14&GID=105#10555
MartinRiggs
2005-10-17, 11:15:30
die x1800 xt soll in fünf Tagen bei denen lieferbar sein?
Kann ich kaum glauben, wenn ich das Geld hätte würde ich rein aus Neugier ne Test-Bestellung machen :biggrin:
Picknatari
2005-10-17, 11:33:55
die x1800 xt soll in fünf Tagen bei denen lieferbar sein?
Kann ich kaum glauben, wenn ich das Geld hätte würde ich rein aus Neugier ne Test-Bestellung machen :biggrin:
Die 256MB Version hatten Sie, wenn ich mich nicht total verguckt habe, schon da gehabt.
tombman
2005-10-17, 11:39:37
Auf solche Angaben kannst getrost pissen.... nur lagernd zählt ;)
Aber wo ist die Crossfire Mastercard dazu? ;)
Hakkerstiwwel
2005-10-17, 12:03:52
Was will mir der "Test" eigentlich sagen? Wie ein G70 mit dem Ramtakt nach unten skaliert. Davon abzuleiten wie er mit dem Ram nach oben, auf 750/1.500 skaliert halte ich fuer mindestens etwas gewagt. :uclap:
tombman
2005-10-17, 12:39:51
Was will mir der "Test" eigentlich sagen? Wie ein G70 mit dem Ramtakt nach unten skaliert. Davon abzuleiten wie er mit dem Ram nach oben, auf 750/1.500 skaliert halte ich fuer mindestens etwas gewagt. :uclap:
Wenn er nach unten pratisch linear skaliert, dann skaliert er nach oben genau, oder glaubst du trifft vorher ein anderes Limit? ;D
(cpu und gpu kannst vergessen)
Hakkerstiwwel
2005-10-17, 12:43:04
Wenn er nach unten pratisch linear skaliert, dann skaliert er nach oben genau, oder glaubst du trifft vorher ein anderes Limit? ;D
(cpu und gpu kannst vergessen)
1. Tolle Logik ;D
2. woher die Gewissheit (gpu kannst du vergessen) :massa:
iam.cool
2005-10-17, 14:01:40
Mit den Ati Tray Tools kann man sich im Spiel den gerade nicht genutzten VRAM Speicher anzeigen lassen.
Wie und wo geht das?
betasilie
2005-10-17, 14:04:43
Wie und wo geht das?
Unter monitoring graphs.
@tombman
Du tust mir echt leid. ;(
iam.cool
2005-10-17, 14:10:11
Unter monitoring graphs.
Cool Thx
The Cell
2005-10-17, 14:29:31
Wenn er nach unten pratisch linear skaliert, dann skaliert er nach oben genau, oder glaubst du trifft vorher ein anderes Limit? ;D
(cpu und gpu kannst vergessen)
[x] Du hast zumindest kein Studium der Elektrotechnik hinter dir.
Ein wenig mehr Zurückhaltung stünde dir wirklich gut.
Diese vollkommene Sicherheit bei absoluter Ahnungslosigkeit bekomme ich sonst nur bei Meetings zu Gesicht, bei denen Entscheider Bullshitbingo spielen.
MfG,
Q.
Picknatari
2005-10-17, 16:22:13
If a person were to try stripping the disguises from actors while they play a scene upon the stage, showing to the audience their real looks and the faces they were born with, would not such a one spoil the whole play? And would not the spectators think he deserved to be driven out of the theatre with brickbats, as a drunken disturber?
Now what else is the whole life of mortals but a sort of comedy, in which the various actors, disguised by various costumes and masks, walk on and play each one his part, until the manager waves them off the stage?
Moreover, this manager frequently bids the same actor go back in a different costume, so that he who has but lately played the king in scarlet now acts the flunkey in patched clothes.
Thus all things are presented by shadows.
Wenn zitiert wird, ist die Quelle anzugeben : Erasmus, The Praise of Folly. Sowas lernt man auch im Studium. :wink:
Wenn zitiert wird, ist die Quelle anzugeben : Erasmus, The Praise of Folly. Sowas lernt man auch im Studium. :wink:
das lernt man aber schon in der "schule"...
mfg
Picknatari
2005-10-17, 17:39:22
das lernt man aber schon in der "schule"...
mfg
Ich wollte einen Bezug zu seinem Beitrag herstellen und "Schule" wird da ja nicht benutzt. ;)
alpha-centauri
2005-10-17, 18:58:18
Wenn er nach unten pratisch linear skaliert, dann skaliert er nach oben genau, oder glaubst du trifft vorher ein anderes Limit? ;D
(cpu und gpu kannst vergessen)
weder ram noch gpu skalieren linear.
das würde bedeuten: doppelt soviel mhz, doppelt so schnell. je nach eigenschaft, haste schöne kurven. aber sich nichts lineares.
tombman
2005-10-20, 16:11:10
tja, und weil ich soviel Scheiße rede, hat sich Anandtech direkt bei mir angesteckt und geht sogar noch weiter als ich :cool:
Die GTX ist mit SS (und DAS zählt) SCHNELLER als eine XT (bei 1600x1200 sogar extrem).
Und es wurden die jeweils NEUESTEN Treiber genommen :cool:
http://images.anandtech.com/reviews/video/fear/fear1.jpg
We also tested with the absolute latest drivers from ATI (press sample 8.183.1017 which should be available in catalyst soon) and NVIDIA (81.85 available on nzone now), both of which offer increased performance in FEAR
Keine Ausreden mehr ;)
Lightning
2005-10-20, 17:04:57
Also ohne AA und AF interessieren mich Softshadows ehrlich gesagt nicht im geringsten.
Aber so wie es aussieht, dürfte sich keine der NextGen-Karten in Auflösungen > 1024x768 noch großartig AA oder AF leisten können. Ist das normal in F.E.A.R. oder ist die verwendete Demo einfach nur extrem anspruchsvoll?
Dennoch stimmt es natürlich, dass nVidia hier vorne liegt und sich das evtl. auch auf andere Spiele, bei denen die Softshadows eher nutzbar sind, übertragen lässt.
alpha-centauri
2005-10-20, 17:05:09
tja, und weil ich soviel Scheiße rede, hat sich Anandtech direkt bei mir angesteckt und geht sogar noch weiter als ich :cool:
Die GTX ist mit SS (und DAS zählt) SCHNELLER als eine XT (bei 1600x1200 sogar extrem).
Und es wurden die jeweils NEUESTEN Treiber genommen :cool:
http://images.anandtech.com/reviews/video/fear/fear1.jpg
Keine Ausreden mehr ;)
Ich mein, soviel zum Thema zur Aussage, Atis XT seien "100%" schneller.
Black-Scorpion
2005-10-20, 17:36:21
Ich mein, soviel zum Thema zur Aussage, Atis XT seien "100%" schneller.
Die Benches mit den 100% waren mit AA/AF.
Hier ist es ohne AA/AF aber mit Soft Shadows.
Wie war das noch mit den Äpfel und Birnen. ;)
Blaire
2005-10-20, 17:37:40
Es gibt dort auch Benches mit 4xAA/8xAF...und selbst dort ist der Unterschied minimal
http://www.anandtech.com/video/showdoc.aspx?i=2575&p=5
tombman
2005-10-20, 18:09:21
Es gibt dort auch Benches mit 4xAA/8xAF...und selbst dort ist der Unterschied minimal
http://www.anandtech.com/video/showdoc.aspx?i=2575&p=5
Genau ;)
Und bei SS ist die 7800 GTX nicht nur 1 oder 2fps schneller wie die X1800XT bei 4x/16x sondern bis zu fetten 40% (!). (1600x1200+ SS: 32fps vs 23fps)
Mumins
2005-10-20, 18:23:44
Genau ;)
Und bei SS ist die 7800 GTX nicht nur 1 oder 2fps schneller wie die X1800XT bei 4x/16x sondern bis zu fetten 40% (!). (1600x1200+ SS: 32fps vs 23fps)
Und? Spielbar is das so eh nicht!
tombman
2005-10-20, 18:25:11
Und? Spielbar is das so eh nicht!
Mit der 7800 GTX schon ;D;D
Und bei 1280x1024, was je den meisten hier wichtig ist, sind es bei der 7800 GTX schon 48fps während die X1800XT nur 35fps raushaut...
p.s: und du hast SLI vergessen ;) Damit wäre dann 1600x1200 auch kein Problem mehr ;)
Lightning
2005-10-20, 18:31:03
Die Frage ist nur, wieso sich die Ergebnisse von Anandtech so stark von den anderen unterscheiden. Soll das alles an den Treibern liegen?
Ich wüsste jedenfalls nicht, warum man den Ergebnissen von Anandtech da komplett blind vertrauen sollte.
Auch habe ich mir mal den Text zu den Softshadows durchgelesen und die Bilder angeschaut. Man kann imho wirklich nicht sagen, dass das besonders toll aussehen soll, vor allem da sich kein AA aktivieren lässt. Ich schätze mal, ordentliche Softshadows wird diese Grafikkartengeneration einfach noch nicht berechnen können.
Mumins
2005-10-20, 18:31:03
Mit der 7800 GTX schon ;D;D
Und bei 1280x1024, was je den meisten hier wichtig ist, sind es bei der 7800 GTX schon 48fps während die X1800XT nur 35fps raushaut...
p.s: und du hast SLI vergessen ;) Damit wäre dann 1600x1200 auch kein Problem mehr ;)
Also 32FPS im Schnitt sind genauso scheiße wie 26FPS.
Mit SLI wirds dann wohl funktionieren. Trotzdem halte ich das Spiel für krank. Eine dermaßen miese Performance ist eine Frechheit.
tombman
2005-10-21, 15:47:18
Also 32FPS im Schnitt sind genauso scheiße wie 26FPS.
Mit SLI wirds dann wohl funktionieren. Trotzdem halte ich das Spiel für krank. Eine dermaßen miese Performance ist eine Frechheit.
Lesen? Ich sehe da 23 für ATI, nicht 26.
Und zwischen 32 und 23 liegt ein Riesenunterschied der sehr wohl zwischen spielbar und nicht spielbar entscheidet.
Mumins
2005-10-21, 15:59:42
Lesen? Ich sehe da 23 für ATI, nicht 26.
Und zwischen 32 und 23 liegt ein Riesenunterschied der sehr wohl zwischen spielbar und nicht spielbar entscheidet.
32 is genauso unspielbar wie 23
Mit der 7800 GTX schon ;D;D
Und bei 1280x1024, was je den meisten hier wichtig ist, sind es bei der 7800 GTX schon 48fps während die X1800XT nur 35fps raushaut...
p.s: und du hast SLI vergessen ;) Damit wäre dann 1600x1200 auch kein Problem mehr ;)
Mit denn Average Fps ist das so ne sache was bringen dir die wenn du bei Minimum Fps meisstens nur 13 stehen hast.;)
Horimoto
2005-10-21, 17:33:01
Eben.
1) Anschiend hat NUR Anandtech solche Ergebnisse, rest behauptet was andres
2) Wenn die GTX min. 6 und max., aufrgund von opt. 200 hat, im Durchschnitt dann 50
Wenn die XT min. 20 und max. 90 hat, im Durchschnitt dann auch 40, dann würd ich sagen hat die GTX gelitten. Und die min. fps ist das was zählt, und da liegt die XT, laut diverser reviews, um bis zu 100% vorne.
Blaire
2005-10-21, 17:48:32
Der Rest hatte auch noch keine 81.85 Treiber zum testen. :rolleyes:
Was ich immer noch vermisse sind DualCore Benchmarks, dann würde die 7800GTX noch deutlich schneller sein. Gerade FEAR soll ja enorm profitieren.
alpha-centauri
2005-10-21, 19:13:47
Der Rest hatte auch noch keine 81.85 Treiber zum testen. :rolleyes:
Was ich immer noch vermisse sind DualCore Benchmarks, dann würde die 7800GTX noch deutlich schneller sein. Gerade FEAR soll ja enorm profitieren.
ich könnts ja mal mit oder ohne HT testen. wenn fear DC nutzt, sollten mit HT 10 - 30% mehr Leistung drin sein.
Der Rest hatte auch noch keine 81.85 Treiber zum testen. :rolleyes:
Was ich immer noch vermisse sind DualCore Benchmarks, dann würde die 7800GTX noch deutlich schneller sein. Gerade FEAR soll ja enorm profitieren.
Du scheinst ja von den 81++ Treibeer so angetan zusein.Guck mall hier da wurde er mitgetestet.http://www.driverheaven.net/reviews/r520reviewxvxv/index.htm
betasilie
2005-10-21, 19:16:23
tja, und weil ich soviel Scheiße rede, hat sich Anandtech direkt bei mir angesteckt und geht sogar noch weiter als ich :cool:
Die GTX ist mit SS (und DAS zählt) SCHNELLER als eine XT (bei 1600x1200 sogar extrem).
Und es wurden die jeweils NEUESTEN Treiber genommen :cool:
http://images.anandtech.com/reviews/video/fear/fear1.jpg
Keine Ausreden mehr ;)
Alle anderen Reviews sagen was anderes. Wieso versuchst Du eigentlich immer zwanghaft deine Käufe zu rechtfertigen? Bei der X800 war es das selbe. Ist dir das nicht peinlich dich immer so aufzuführen?
Horimoto
2005-10-21, 19:24:47
Ja, tombman ist was besonderes ;)
Der 81.85 wird wohl kaum 100% mehrleistung bringen, oder? Ohne die IQ zu verschlechtern KANN man nicht mher fps bekommen. Bin gespannt, was nVidia diesmal gestrichen hat...........ohne IQ Beispiele glaube ich keinen reviews. Denn die perf. kann von mir aus 300fps sein, ohne schatten oder effekte bringt dir das nix ;)
mapel110
2005-10-21, 19:50:15
http://www.firingsquad.com/hardware/fear_performance_mainstream/
Die haben auch mal durchgebencht. :)
tombman
2005-10-21, 19:53:42
32 is genauso unspielbar wie 23
Blödsinn.
tombman
2005-10-21, 19:54:05
http://www.firingsquad.com/hardware/fear_performance_mainstream/
Die haben auch mal durchgebencht. :)
Und auch da gewinnt Nvidia ;)
tombman
2005-10-21, 19:54:57
Mit denn Average Fps ist das so ne sache was bringen dir die wenn du bei Minimum Fps meisstens nur 13 stehen hast.;)
Und wenn das , und wenn dies, bla fasel. fyi, dort stehen keine 13...
Und auch da gewinnt Nvidia ;)
Meinst du die ein paar fps machen etwas aus:
http://www.firingsquad.com/hardware/fear_performance_mainstream/page7.asp
Oder zockst du ohne AA und AF? :confused:
tombman
2005-10-21, 19:57:46
Alle anderen Reviews sagen was anderes. Wieso versuchst Du eigentlich immer zwanghaft deine Käufe zu rechtfertigen? Bei der X800 war es das selbe. Ist dir das nicht peinlich dich immer so aufzuführen?
Die anderen reviews waren einfach zu unaufmerksam und haben nicht erkannt, das ein im Menu eingestelltes SS nicht unbedingt heißt, daß man es auch im Spiel zu sehen bekommt und/oder, daß die ATI benchmarks wahrscheinlich ohne SS liefen oder mit einem "halbhinigen" SS wie frühe screenshots deutlich zeigten.
Deshalb kommen dann auch so Scherze wie 100% schneller für ATI heraus, welche dann zb von manchen Leuten (wie dir?) für bare Münze genommen werden, obwohl jede Mathematik dagegen spricht.
Aber genau deshalb bin ich ja da :cool:
p,s; und rechtfertigen tu ich gar nix, bin kein Rechtfertiger, sondern ein Korrigierer :)
Horimoto
2005-10-21, 19:57:47
Ich würde sagen eine Sache ist seltsam:
Mit der MPDemo war eine X800XTPE so schnell wie eine 7800GT, jetzt soll sie um einiges lansagmer sein? Laut dem bench fred ist sie um einiges langsamer geworden. tut mir leid wenn ich jetzt jemanden verdächtige aber:
FEAR ist ein TWIMTBP produkt, nVidia Karten haben sehr schlecht abgeschnitten, und jetzt sind ATi Karten tortz selber IQ im SELBEN bench um so viel langsamer als vorher?
Stimmt da was nciht??????????????
Bin gesapnnt wie sich das ändert, weil das kann ja nciht sein, dass im SELBEN DURCHLAUF/TIMEDEMO ATi Karten an perf. verlieren................
Deshalb kommen dann auch so Schwerze wie 100% schneller für ATI heraus, welche dann zb von manchen Leuten (wie dir?) für bare Münze genommen werden, obwohl jede Mathematik dagegen spricht.
Wieso spricht das gegen die Mathematik?
tombman
2005-10-21, 20:02:40
Meinst du die ein paar fps machen etwas aus:
http://www.firingsquad.com/hardware/fear_performance_mainstream/page7.asp
Oder zockst du ohne AA und AF? :confused:
Meinst du, das war das Thema jetzt?
Zur Erinnerung: Es ging um die vermeintliche Herrschaft der X1800 Serie in FEAR...
tombman
2005-10-21, 20:04:09
Wieso spricht das gegen die Mathematik?
Weil 16 pipes @ 625core nicht 100% schneller sein können als 24pipes @ 430core? (16x625 < 24x430)
Horimoto
2005-10-21, 20:07:37
Es gibt diese Herrschaft, ob du sie nun ignorierst oder nciht................
Wenn die Karte i EINEM vom 20 reviews vorne liegt, machste gleich nen radau............
Soll ich einen Fred im nVidia Forum machen:
'Doom3 Überlegenheit von nVidia? Pustekuchen!!!!!!!!!!!'
In bezug auf das Tool, was die Xt vor die GTX bringt???
nein das mache ich nciht, weil mein gesunder Menschenverstand mir sagt, weil nur wenn ein REIVIEW sagt, es sei so, dass man das nciht verallgemeinern soll.
Ja, tombman ist was besonderes ;)
Der 81.85 wird wohl kaum 100% mehrleistung bringen, oder? Ohne die IQ zu verschlechtern KANN man nicht mher fps bekommen. Bin gespannt, was nVidia diesmal gestrichen hat...........ohne IQ Beispiele glaube ich keinen reviews. Denn die perf. kann von mir aus 300fps sein, ohne schatten oder effekte bringt dir das nix ;)
Du solltest Dir mal das Thema SLI und Dual-Core-Support zu Gemüte führen (jetzt nicht auf F.E.A.R bezogen), bevor Du solch einen hanebüchenen Unsinn von Dir gibst, der einen ganz schnell in Richtung Fanboy-Ecke bringt. Die Leistungssteigerung bei einem solchen System ist unter dem 81.85 OHNE IQ-Verlust mehr als beachtlich. Das hat auch für ATI-User Vorteile, da DC-Optmimierung für Crossfire zwangsläufig auch kommen muss, wenn ATI hier nicht zurückstecken möchte.
Zudem bewiesen die Screenshots der russischen Seite (xbitlabs oder wie die heisst) das Ati mit einer Softshadows Light Variante rendert.
Weil 16 pipes @ 625core nicht 100% schneller sein können als 24pipes @ 430core? (16x625 < 24x430)
Wieso das?
Durch das Threading kann die X1800 die Recheneinheiten besser auslasten. Die 7800 kämpft mit dem Rampage-Dilema.
tombman
2005-10-21, 20:17:35
Wieso das?
Durch das Threading kann die X1800 die Recheneinheiten besser auslasten. Die 7800 kämpft mit dem Rampage-Dilema.
Schöner Marketing-Text ;D
ATi und Nvidia kochen beide nur mit Wasser, sie bedienen sich der neuesten Fertigungstechnologien und des besten Speichers. Beide Firmen haben Top-Leute und wahrscheinlich auch die selben tools für das Design.
Also wieso zur Hölle sollte man meinen, eine Firma haut eine Wunderkarte raus, die 100% schneller in einem GAME als die der Konkurrenz ist?
(selbe Generation)
Falls das wirklich so wäre, würdem doch schon ein paar Nvidia Lead Designer mit Herzinfarkt im Krankenhaus liegen ;D
tombman
2005-10-21, 20:20:42
Es gibt diese Herrschaft, ob du sie nun ignorierst oder nciht................
Wenn die Karte i EINEM vom 20 reviews vorne liegt, machste gleich nen radau............
Soll ich einen Fred im nVidia Forum machen:
'Doom3 Überlegenheit von nVidia? Pustekuchen!!!!!!!!!!!'
In bezug auf das Tool, was die Xt vor die GTX bringt???
nein das mache ich nciht, weil mein gesunder Menschenverstand mir sagt, weil nur wenn ein REIVIEW sagt, es sei so, dass man das nciht verallgemeinern soll.
Unter Herrschaft verstehe ich nicht +- 10%, deshalb werde ich auch nie von einer Herrschaft von Nvidia in [insert game here] reden.
Es ging darum aufzuklären, daß ATI nicht 40%, oder wie auch schon vorkam, 100% schneller in FEAR ist.
Btw, die Masse hat nicht immer Recht :rolleyes:
betasilie
2005-10-21, 20:21:00
Weil 16 pipes @ 625core nicht 100% schneller sein können als 24pipes @ 430core? (16x625 < 24x430)
So ein Unsinn. Es kommt auf die Leistung der einzelnen Pipes an. Du kannst auch einen 16Pipe Chip bauen, der taktnormalisiert schneller ist als ein 24Pipe Chip.
Hast Du wirklich null Ahnung von der Materie, oder wieso stellst Du solche Milchmädchenrechnungen an?
Schöner Marketing-Text ;D
LOL, frag mal aths oder Demirug.
Marketingtext...:rolleyes:
Zum Thema Rampage-Dilemma:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3561287&postcount=161
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3561500&postcount=165
MikBach
2005-10-21, 20:34:07
Und zum Thema Threading:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3582540&postcount=33
PS der Gast war ich. :D
edit: Post 153 war allerdings nicht von mir...
Mumins
2005-10-21, 20:39:33
Blödsinn.
Wieso Blödsinn, da hast du lags auf 10FPS dabei.
MikBach
2005-10-21, 20:48:53
So ein Unsinn. Es kommt auf die Leistung der einzelnen Pipes an. Du kannst auch einen 16Pipe Chip bauen, der taktnormalisiert schneller ist als ein 24Pipe Chip.
Woran will man das festmachen?
An ALUs, ROPs oder TMUs?
Das wird immer von Spiel zu Spiel unterschiedlich sein.
tombman
2005-10-21, 21:06:14
So ein Unsinn. Es kommt auf die Leistung der einzelnen Pipes an. Du kannst auch einen 16Pipe Chip bauen, der taktnormalisiert schneller ist als ein 24Pipe Chip.
Hast Du wirklich null Ahnung von der Materie, oder wieso stellst Du solche Milchmädchenrechnungen an?
Du sagst mir nix neues, aber solange bei einer Firma nicht nur Idioten und bei der anderen nur Genies arbeiten, glaub ich nicht daran, daß eine einen Uberchip baut und die andere nur Schrott produziert...
Und ich hatte immerhin soviel Ahnung, daß ich VOR Anandtech hier einen thread aufgemacht habe wo ich die Überlegenheit in FEAR von ATI bezweifle :cool:
tombman
2005-10-21, 21:07:41
Wieso Blödsinn, da hast du lags auf 10FPS dabei.
Jo, bei der einen 5 und bei der anderen 50 ;)
MikBach
2005-10-21, 21:11:38
Du sagst mir nix neues, aber solange bei einer Firma nicht nur Idioten und bei der anderen nur Genies arbeiten, glaub ich nicht daran, daß eine einen Uberchip baut und die andere nur Schrott produziert...
Das kann passieren, wenn man an einem Projekt festhält, was keine Zukunft hat...
Und ich hatte immerhin soviel Ahnung, daß ich VOR Anandtech hier einen thread aufgemacht habe wo ich die Überlegenheit in FEAR von ATI bezweifle :cool:
Bist du dir da sicher?
Hexus hat nämlich mit Customtimedemos gebencht, wo man nicht so gut optimieren kann, wie bei Timedemos, die im Spiel eingebaut sind...
MikBach
2005-10-21, 21:13:00
Jo, bei der einen 5 und bei der anderen 50 ;)
Wie meinen?
Horimoto
2005-10-21, 22:12:18
@mbee
ich rede aber nciht von xpeziellen anpassungen an DC oder SLI, sondern NORMALE Leistungssteigerung. und auch mit SLI+DC mehrleistung sind es keine 100% ;)
http://www.hexus.net/content/item.php?item=3603&page=9
wie mikbach bereits sagte:
es ist seltsam, dass Ati karten bei dem SELBEN durchlauf der timedemo massig an perf. verlieren, nVidia Karten aber zulegen.
Ich schnek dem hexus test mehr beachtung als dem von anandtech, selbst wenn die Karte ~30% durch den 81.85 zulegt...................
tombman
2005-10-21, 23:01:37
Das kann passieren, wenn man an einem Projekt festhält, was keine Zukunft hat...
Bist du dir da sicher?
Hexus hat nämlich mit Customtimedemos gebencht, wo man nicht so gut optimieren kann, wie bei Timedemos, die im Spiel eingebaut sind...
Ja klar, Nvidia optimiert mal locker 100% Leistung nach oben ;D
Horimoto
2005-10-21, 23:22:02
Was er meinte war:
da wo die XT überlegen ist, in den review, wurden CUSTOm demos aufgenommen, und bei den timedemos liegt nVidia vor ATi ;)
Da gabs noch ein review wo beide gleichauf waren, und auch da, oh wunder, timedemo, net customdemo
Horimoto
2005-10-21, 23:27:03
Soviel zu deinem neuem TOLLEn, unglaublich perf. bringendem 81.85:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3588860&postcount=39
Das sind beachtliche 10% bei min., kommt NICHT an die von der XT ran, kannste vergessen. Wegen den 512MB und den 750MHz
Rudi1978
2005-10-21, 23:47:48
Prima auch noch bei 1024x768 und nichtmal maximale Details mit Softshadows enabled. Ganz großes Kino. :rolleyes:
Typisch Fanboys drehen sich alles wie sie es gerade brauchen.
Horimoto
2005-10-22, 00:17:56
????
sind max. Details nur ohne SS, aber mit SS ist es ja sowieso unspielbar, also kann man es auslassen ;)
Ausserdem hat der Steller selbst gesagt, dass der neue treiber 'uninteressant' sein, und nciht ich ;)
Ich tendiere z.Z zur Ati weil bessere IQ, HDR+AA und 512MB. Perf. ist zweitrangig, eine X800XTPE reicht mir übermässig, weil ich zu 90% css zocke ;)
????
sind max. Details nur ohne SS, aber mit SS ist es ja sowieso unspielbar, also kann man es auslassen ;)
Ausserdem hat der Steller selbst gesagt, dass der neue treiber 'uninteressant' sein, und nciht ich ;)
Ich tendiere z.Z zur Ati weil bessere IQ, HDR+AA und 512MB. Perf. ist zweitrangig, eine X800XTPE reicht mir übermässig, weil ich zu 90% css zocke ;)
dieser eine tester bedeutet für mch nicht die ganze welt. und warum der tester einen zuwachs von >10% als uninteressant bezeichnet weiss ich auch nicht. vielleicht sollten es für den 70% sein :|. anstatt einer x1800xt würde ich mir eher 2 78gt holen.
betasilie
2005-10-22, 05:31:24
Du sagst mir nix neues, aber solange bei einer Firma nicht nur Idioten und bei der anderen nur Genies arbeiten, glaub ich nicht daran, daß eine einen Uberchip baut und die andere nur Schrott produziert...
Und ich hatte immerhin soviel Ahnung, daß ich VOR Anandtech hier einen thread aufgemacht habe wo ich die Überlegenheit in FEAR von ATI bezweifle :cool:
Ja, mach mal ne Seite auf, und schreib Reviews. Hättest bestimmt ne Menge Leser bei deinem immensen (Sach)Verstand. X-D
Gut, dass Du wenigstens ein gutes Selbstbewusstsein hast. Sonst hätest Du ja wirklich nicht viel zu lachen.
P.S.
Kleiner Tip - Versuch mal das RL. Vielleicht findest Du da ja ein paar dumme für dein Geschwafel. :rolleyes:
anstatt einer x1800xt würde ich mir eher 2 78gt holen.
:|
ganz toller Vergleich. Vergleichen wir jetzt Äpfel mit Birnen oder wie?
Schlimmer geht es echt kaum noch...
mindfaq
2005-10-22, 14:40:42
Errm, er hat doch nur seine Meinung geschrieben.
Er würde sich halt eher zwei 7800GT anstatt einer x1800xt kaufen.
Vom Preis kommts ja auch fast hin. ;)
tombman
2005-10-22, 15:04:19
Ja, mach mal ne Seite auf, und schreib Reviews. Hättest bestimmt ne Menge Leser bei deinem immensen (Sach)Verstand. X-D
Gut, dass Du wenigstens ein gutes Selbstbewusstsein hast. Sonst hätest Du ja wirklich nicht viel zu lachen.
P.S.
Kleiner Tip - Versuch mal das RL. Vielleicht findest Du da ja ein paar dumme für dein Geschwafel. :rolleyes:
Hehe, pinkel wem anderen ans Bein, gibt noch genug andere Herrchen für dich. Dein (Sach)verstand nützt dir gar nix, wenn du ned denken kannst, aber sowas kann man eben ned lernen, des hat man von Geburt an oder nicht... und du hast es eben nicht.
p.s.: und laber ned von real life, denn mit 14000 posts weißt du doch gar ned was des ist...
[Achtung, Moderation, man beachte bitte genau, daß betareverse der ERSTE war, der direkt geflamed hat. Ich sag das nur, um das hier festzuhalten, nur damit man weiß wer Agressor ist und wer nicht...Damit es dann ned wieder heißt es "entstand" ein flamewar. Flamewars entstehen nicht einfach so, sondern es gibt immer einen Idioten der anfängt...]
9800ProZwerg
2005-10-22, 15:30:43
p.s.: und laber ned von real life, denn mit 14000 posts weißt du doch gar ned was des ist...
[Achtung, Moderation, man beachte bitte genau, daß betareverse der ERSTE war, der direkt geflamed hat. Ich sag das nur, um das hier festzuhalten, nur damit man weiß wer Agressor ist und wer nicht...Damit es dann ned wieder heißt es "entstand" ein flamewar. Flamewars entstehen nicht einfach so, sondern es gibt immer einen Idioten der anfängt...]
Hallo Leute bleibt mal locker! Befinden wir uns hier im Krieg :rolleyes:
Wieso MUSS eine 24Pipe Karte mit gleichen Taktraten schneller sein, als eine 16Pipe Karte mit den selben Taktraten :confused:
Optimierungen in der Architektur sind ebenso ein entscheidenter Faktor!
Horimoto
2005-10-22, 15:41:19
Vor allem bei 16ROPs ;) , die beide haben...........
MikBach
2005-10-22, 16:11:09
@ Beta und Tombman
Noch alles klar bei euch?
Schlimmer als einige Gäste hier.
Wenn ich Mod wäre, würdet ihr jeweils einen Punkt erhalten.
Und zwar dafür:
Ja, mach mal ne Seite auf, und schreib Reviews. Hättest bestimmt ne Menge Leser bei deinem immensen (Sach)Verstand.
Hehe, pinkel wem anderen ans Bein, gibt noch genug andere Herrchen für dich. Dein (Sach)verstand nützt dir gar nix, wenn du ned denken kannst, aber sowas kann man eben ned lernen, des hat man von Geburt an oder nicht... und du hast es eben nicht.
p.s.: und laber ned von real life, denn mit 14000 posts weißt du doch gar ned was des ist...
[Achtung, Moderation, man beachte bitte genau, daß betareverse der ERSTE war, der direkt geflamed hat. Ich sag das nur, um das hier festzuhalten, nur damit man weiß wer Agressor ist und wer nicht...Damit es dann ned wieder heißt es "entstand" ein flamewar. Flamewars entstehen nicht einfach so, sondern es gibt immer einen Idioten der anfängt...]
Tombman, beta hat zwar angefangen, aber du musst noch einen drauflegen...
*kopfschüttel*
Leute, bleibt mal locker und sachlich. Und mach euch nicht gegenseitig an. Ist ja echt peinlich.
Sorry für OT, aber das ist echt die Höhe. :mad:
PS Habe beide Postings gemeldet.
Wollte eigentlich heute nichs mehr schreiben, da ich auf einer Party bin, aber...
betasilie
2005-10-22, 16:23:19
@ Beta und Tombman
Noch alles klar bei euch?
Schlimmer als einige Gäste hier.
Wenn ich Mod wäre, würdet ihr jeweils einen Punkt erhalten.
Und zwar dafür:
Tombman, beta hat zwar angefangen, aber du musst noch einen drauflegen...
*kopfschüttel*
Leute, bleibt mal locker und sachlich. Und mach euch nicht gegenseitig an. Ist ja echt peinlich.
Sorry für OT, aber das ist echt die Höhe. :mad:
PS Habe beide Postings gemeldet.
Wollte eigentlich heute nichs mehr schreiben, da ich auf einer Party bin, aber...
Ja, sorry. Mein Posting war etwas provokant, aber es ist schon etwas befremdlich, wenn Tombmann von sich behaupten will, dass er irgendwelche Geheimnisse gelüftet hätte, weil er meint soviel Ahnung zu haben, die allen bekannten Reviewseiten entgangen sind. Von daher war mein Rat ein Wink mit dem Zaunpfahl mal einen Gang runterzuschalten. Bei Tombmanns Threads geht es nicht darum ein Thema zu besprechen, sondern darum, wie er seine ihm selber auferlegten Thesen durchboxt - egal wie.
Wenn er ne ATI macht, muss er NVidia schlecht machen, wenn er eine NVidia hat, macht er das selbe mit ATI. Dieses absehbare Verhalten nervt langsam. ;(
derMeister
2005-10-22, 16:41:46
Was den Test der x800xl vs 6800GT bei Fireringsquad angeht, da wundert es mich schon sehr. Da soll eine D3D schwache nV eine XL so deutlich versägen? Halt ich kaum für möglich, wie sollte das gehen??
Warum wurde außerdem zwei XL genommen, und nicht auch eine 850Pro alternativ zur 512Mb XL? Das die XL 512Mb keinerlei großen Leistungsunterschied zur XL 256Mb haben war auch vorher bekannt.
Was das die Streithähne betrifft, ist sowas unbedingt nötig?
Es ist doch eigentlich mehr eine Glaubensfrage was man nimmt, Leistungstechnisch sind die Unterschiede maginal richtig!?
chemistry
2005-10-22, 16:52:57
Der Sinn liegt darin den Leuten zu sagen WARUM die X1800XT in diesem Fall so schnell ist.
Denn es macht einen Unterschied, ob eine Karte wegen den chips so schnell ist, oder wegen des Speichers! Warum das wiederrum wichtig ist? Weil Nvidia nichts gegen einen schnellen chip tun könnte, aber gegen schnellen Speicher kann Nvidia sehr wohl was tun, nämlich ihn AUCH VERBAUEN.
Und wenn DAS nicht wichtig ist ;)
Sämtliche 4xAA/16xAF scores der X1800XT kann man jetzt unter einem anderen Licht sehen :naughty:
Schön langsam wird es wirklich lächerlich.
Ihr tut ja alle so, als ginge es um euer Leben und um eure Ehre.
Leute - da geht es um ein Stück Elektronik, für die in spätestens 3 Jahren ein Entsorgungsbeitrag von euch zu zahlen sein wird, wenn ihr sie in den Recyclinghof bringt!
Es wird immer so sein, dass eine Chip, eine Graka oder RAM schneller sein wird, wenn er ein halbes Jahr später kommt wie ein anderer.
Ich sage nun : " Ja und...?" So soll es doch auch sein, und dass ATI besseren RAM verbaut ist doch gut so, und das der Chip vielleicht nicht die 20% höheren Frameraten bringt, wie es sich manche erhofft haben, ist auch wurscht.
Dafür gibt es jetzt viel viel bessere Bildqualität, winkelunabhängige AF, adaptives AA und und und...... DAS SIND DIE WAHREN INNOVATIONEN. und nicht 10 fps mehr bei Fear!
Wer das nicht kapieren will, ist engstirnig und nicht offen für technologischen Fortschritt.
LG chemi
tombman
2005-10-22, 20:18:34
@
Tombman, beta hat zwar angefangen, aber du musst noch einen drauflegen...
Genau, ich hau IMMER doppelt so stark zurück...
Und wenn ich Mod wäre würden NUR Agressoren Punkte bekommen und sonst niemand. Aber weil das andere eben anders sehen, wird es weiter Agressoren geben- ist offenbar gewünscht "von ganz oben"...
tombman
2005-10-22, 20:19:57
Wenn er ne ATI macht, muss er NVidia schlecht machen, wenn er eine NVidia hat, macht er das selbe mit ATI. Dieses absehbare Verhalten nervt langsam. ;(
Und was mach ich wenn ich beide habe? :rolleyes:
p.s: und schlechtmachen tu ich gar nix, nur die total unrealistisch überzogenen Vorstellungen von 100% schneller für ATI geraderücken-- was einigen ATI fanboys offenbar ned paßt ...
Ich hab nie gesagt die X1800 Reihe ist schlechter als die 7800 Reihe, nur MICH interressiert X1800 ohne Crossfire genau NULL.
MikBach
2005-10-22, 22:02:10
Genau, ich hau IMMER doppelt so stark zurück...
Und wenn ich Mod wäre würden NUR Agressoren Punkte bekommen und sonst niemand. Aber weil das andere eben anders sehen, wird es weiter Agressoren geben- ist offenbar gewünscht "von ganz oben"...
Super, echt... :rolleyes:
In deinem Alter sollte man gepeilt haben, dass man auch manchmal nachgeben sollte um sich nicht lächerlich zu machen. Wenn du es nötig hast, dann bitte schön... :mad:
Aber nun zurück zum Topic.
rpm8200
2005-10-22, 22:10:07
... ...
Dafür gibt es jetzt viel viel bessere Bildqualität, winkelunabhängige AF, adaptives AA und und und...... DAS SIND DIE WAHREN INNOVATIONEN. und nicht 10 fps mehr bei Fear!
Wer das nicht kapieren will, ist engstirnig und nicht offen für technologischen Fortschritt.
<FULL ACK>
alpha-centauri
2005-10-22, 22:44:07
der bringt bei fear bei mir ca 15 % ohne SLI und Dualcore
du, muss ich zustimmen. 77.xx irgendwas offi auf den aktuellen und auch ca 15% mehr power. zudem noch den aktuellen patch drauf.
alpha-centauri
2005-10-22, 22:48:44
Ja klar, Nvidia optimiert mal locker 100% Leistung nach oben ;D
also bei ati sinds auch mal schnell 30 bis 40%...
bei nvidia würde man sowas auch "bugfixing" nennen..
MikBach
2005-10-22, 22:49:46
bei nvidia würde man sowas auch "bugfixing" nennen..
Eher Shaderreplacement... :wink:
betasilie
2005-10-22, 23:00:26
Eher Shaderreplacement... :wink:
Obwohl, dafür zahlt NVidia auch mal gerne, so dass es manche Studios gleich mit einbauen, ohne dass es jemand mitbekommt. Siehe DoomIII. ;)
deekey777
2005-10-22, 23:01:59
Obwohl, dafür zahlt NVidia auch mal gerne, so dass es manche Studios gleich mit einbauen, ohne dass es jemand mitbekommt. Siehe DoomIII. ;)
Wie meinen?
Obwohl, dafür zahlt NVidia auch mal gerne, so dass es manche Studios gleich mit einbauen, ohne dass es jemand mitbekommt. Siehe DoomIII. ;)Im Gegenteil. Carmack hat das "Shaderreplacement" für NV3x sogar wieder ausgebaut. Es gibt nur noch einen ARB-Pfad und der Treiber macht das Replacement jetzt.
Für ihn war diese Lösung besser weil er so die Arbeit auf nVIDIA abwälzt und nur einen generischen Pfad gebraucht hat.
MikBach
2005-10-22, 23:37:21
Im Gegenteil. Carmack hat das "Shaderreplacement" für NV3x sogar wieder ausgebaut. Es gibt nur noch einen ARB-Pfad und der Treiber macht das Replacement jetzt.
Für ihn war diese Lösung besser weil er so die Arbeit auf nVIDIA abwälzt und nur einen generischen Pfad gebraucht hat.
Nicht wirklich..
Der ARB-Pfad war so schnell, dass er gegenüber dem speziellen NV3x-Pfad keine Performancenachteile bot.
Die FX war in Sachen Shader eh so schlecht, dass sich JC gedacht hat, dass es eh nichts bingen wird... :D
betasilie
2005-10-23, 00:47:01
Im Gegenteil. Carmack hat das "Shaderreplacement" für NV3x sogar wieder ausgebaut. Es gibt nur noch einen ARB-Pfad und der Treiber macht das Replacement jetzt.
Für ihn war diese Lösung besser weil er so die Arbeit auf nVIDIA abwälzt und nur einen generischen Pfad gebraucht hat.
Nun, aber direkt zum Start waren die NV Karten massiv überlegen, ohne dass man extra einen neuen Treiber releasen musste. Das war Marketing der besten Sorte für NV. Natürlich ist es jetzt sinnvoller das ganze über die Treiber machen zu lassen - für NV, wie auch für id-Soft. :)
@deekey777
Ich hoffe deine Frage wurde so beantwortet.
Marc-
2005-10-24, 08:58:57
Genau, ich hau IMMER doppelt so stark zurück...
Und wenn ich Mod wäre würden NUR Agressoren Punkte bekommen und sonst niemand. Aber weil das andere eben anders sehen, wird es weiter Agressoren geben- ist offenbar gewünscht "von ganz oben"...
Wie man in den wald reinschreit... mehr muss man zu dir nimmer sagen. Und das du selbst deine agressionen nimmer mitbekommst is au nix neues. Insofern... im westen nix neues.
robbitop
2005-10-24, 09:29:14
Obwohl, dafür zahlt NVidia auch mal gerne, so dass es manche Studios gleich mit einbauen, ohne dass es jemand mitbekommt. Siehe DoomIII. ;)
ATI - HL2.
Machen doch beide...
robbitop
2005-10-24, 09:30:21
Nicht wirklich..
Der ARB-Pfad war so schnell, dass er gegenüber dem speziellen NV3x-Pfad keine Performancenachteile bot.
Die FX war in Sachen Shader eh so schlecht, dass sich JC gedacht hat, dass es eh nichts bingen wird... :D
In PS1.3 war das Teil gar nicht so lahm. Und ich erinnere mich, dass Doom3 auf meiner NV35 AFAIR sogar schneller lief, als auf so mancher R9800pro damals.
derMeister
2005-10-24, 20:55:52
In PS1.3 war das Teil gar nicht so lahm. Und ich erinnere mich, dass Doom3 auf meiner NV35 AFAIR sogar schneller lief, als auf so mancher R9800pro damals.
Tatsache ist, das eine NV35 in HL2 ( mit Renderpfad DX9 ) viel besser ging, als im nV-Game D3. Mich hat das letztes Jahr sehr geärgert und da war der Chipwechsel schon beschlossene Sache.
robbitop
2005-10-24, 22:41:59
Tatsache ist, das eine NV35 in HL2 ( mit Renderpfad DX9 ) viel besser ging, als im nV-Game D3. Mich hat das letztes Jahr sehr geärgert und da war der Chipwechsel schon beschlossene Sache.
Apfel-Birnen Vergleich.
Doom3 nutzt nunmal intensiv nextgen Techniken wie dynamische Beleuchtung Bumpmapping. Das kostet nunmal. HL2 ist da eher konservativ.
Und in Doom3 ist eine NV35 schneller als eine R350. Darauf wollte ich hinaus.
Mumins
2005-10-24, 22:59:46
Und in Doom3 ist eine NV35 schneller als eine R350. Darauf wollte ich hinaus.
Kommt darauf an! Nicht immer!
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/bericht_grafikkartenperformance_doom_3/4/#abschnitt_1024x768_pixel
derMeister
2005-10-25, 00:34:35
Apfel-Birnen Vergleich.
Doom3 nutzt nunmal intensiv nextgen Techniken wie dynamische Beleuchtung Bumpmapping. Das kostet nunmal. HL2 ist da eher konservativ.
Und in Doom3 ist eine NV35 schneller als eine R350. Darauf wollte ich hinaus.
Ich wollte darauf hinaus, wie "gut" eine Highendkarte 03 in einem Game lüpt, wo auf gF3 Standartmäßig laufen sollte. Im "Konkurenzspiel" HL2 war es dagegen nicht so schlimm wie vorhergesagt. ID hat ja keinerlei "Warnung" herausgegeben wie es zB von Valve vorhergesagt/gewarndt wurde. "Die 5800/5900 Modelle würden Extreme Performance Einbrüche erleben, deswegen DX8 Pfad eigentlich vorgesehen blabla..." wir erinnern uns alle.
Bei nV ist es ganz krass zu sehen, wie die ältere GraKa Generation regelrecht per Treiber abgewürgt werden, damit man schneller aufrüstet. Und Treiberupdates sind ja nunmal nötig für alle Neuerscheinungen von Titeln.
robbitop
2005-10-25, 07:20:36
Kommt darauf an! Nicht immer!
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/bericht_grafikkartenperformance_doom_3/4/#abschnitt_1024x768_pixel
Mit damaligen Treibern schon.
robbitop
2005-10-25, 07:21:52
Bei nV ist es ganz krass zu sehen, wie die ältere GraKa Generation regelrecht per Treiber abgewürgt werden, damit man schneller aufrüstet. Und Treiberupdates sind ja nunmal nötig für alle Neuerscheinungen von Titeln.
Einbildung. In den 7x.xx Treibern sind sogar Fixes für die Geforce3/4 drin und diese sind deutlich schneller als die guten 4x.xx. Raff hat das ausführlich getestet. Die 7x.xx bremsen auch einen NV35 nicht.
Der NV35 ist lediglich ungeeignet für FP Shaderspiele.
Mumins
2005-10-25, 08:55:07
Mit damaligen Treibern schon.
Ich denke nicht, dass es da nen Unterschied gibt, neuere Treiber bringen für diese Generation kaum noch Speed.
http://www.xbitlabs.com/articles/video/display/asus-en7800gtx.html
He he he ;D ;D ;D
http://www.xbitlabs.com/articles/video/display/asus-en7800gtx.html
He he he ;D ;D ;D
HEHE was die Xt ist noch immer vorne.
http://www.xbitlabs.com/articles/video/display/asus-en7800gtx.html
He he he ;D ;D ;D
Was willst du uns jetzt damit sagen?
Dass die X1800XT in den Quallisettings deutlich schneller als die 7800GTX ist?
41 zu 31 fps für die X1800XT. Das sind ca. 30%.
Lightning
2005-10-25, 14:18:26
Ich denke nicht, dass es da nen Unterschied gibt, neuere Treiber bringen für diese Generation kaum noch Speed.
Doch, gerade bei Doom 3 hat sich beim R350 (und vielleicht allen damals verfügbaren "DX9-Radeons") noch einiges in den folgenden Monaten getan, das konnte ich selber testen.
Der NV35 war in Doom 3 geringfügig überlegen, der Unterschied war aber auf jeden Fall deutlich kleiner als bei der Nachfolgergeneration der Karten.
Mumins
2005-10-25, 15:17:15
Doch, gerade bei Doom 3 hat sich beim R350 (und vielleicht allen damals verfügbaren "DX9-Radeons") noch einiges in den folgenden Monaten getan, das konnte ich selber testen.
Der NV35 war in Doom 3 geringfügig überlegen, der Unterschied war aber auf jeden Fall deutlich kleiner als bei der Nachfolgergeneration der Karten.
Aber nur mit 4AA, das is eh unspielbar. Wenn sich da für die Radeons noch was getan hat, dann ist der NV35 bestimmt nicht überlegen.
robbitop
2005-10-25, 15:23:48
HEHE was die Xt ist noch immer vorne.
Immernoch keine Dual CPU und kein FW 81.xx. Das brächte nochmal ordentlich Performance.
Nope, bringt es leider bei der Release-Version von F.E.A.R. anscheinend nicht:
Ich bin gestern mit Blaire ein paar Testszenarien (mit und ohne SLI-Profil, diverse Auflösungen, etc.) und SLI-Profile durchgegangen: Quasi null Unterschied zwischen SC und DC-Betrieb. Das war in den beiden Demos komischerweise noch ganz anders.
Eine vergurgte Installation schließe ich dabei mal aus, weil Doom3 und AM3 hier ganz ordentlich beim DC-Betrieb zulegen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3604791&postcount=62
robbitop
2005-10-25, 15:30:06
Hm die Reviews und Tests zu tausenden sagen da aber was anderes..
robbitop
2005-10-25, 15:32:20
Was willst du uns jetzt damit sagen?
Dass die X1800XT in den Quallisettings deutlich schneller als die 7800GTX ist?
41 zu 31 fps für die X1800XT. Das sind ca. 30%.
Liegt an den 512MiB RAM der X1800XT.
Müßte man wenn die 512MiB G7800GTX rauskommt mal gegentesten. FEAR frisst anscheinend massiv VRAM. Sieht man sehr schön auch daran, dass das erst mit 4xAA so ist. Da geht dann einfach der VRAM aus.
Hm die Reviews und Tests zu tausenden sagen da aber was anderes..
Ich konnte bislang noch keinen Review finden, bei dem F.E.A.R. in der finalen Version und mit dem 81.85 im Vergleich DC und SC getestet wurde (bei den Demos war auch bei mir durchaus noch ein Unterschied vorhanden).
Hast Du dazu einen Link?
Ich habe gestern ca. ne gute Stunde investiert und konnte keinen Unterschied zwischen DC und SC feststellen. Ich habe hier auch ein wenig die Physik-Engine bzw. Partikelefffekte im Verdacht, da das ganze in der Final nochmal ordentlich zugelegt hat auf Maximum (sieht man auch) und so ggf. beide Cores stärker ausgelastet sind.
Lightning
2005-10-25, 15:37:54
Aber nur mit 4AA, das is eh unspielbar. Wenn sich da für die Radeons noch was getan hat, dann ist der NV35 bestimmt nicht überlegen.
Nein, nicht nur in unspielbaren Bereichen. Ich kann mich z.B. noch an folgende Steierung erinnern:
1024x768, 2xAA, 2xAF übers CP: Von 33 auf 38 fps in der demo1. Das ist doch schon eindeutig.
robbitop
2005-10-25, 15:51:32
Ich konnte bislang noch keinen Review finden, bei dem F.E.A.R. in der finalen Version und mit dem 81.85 im Vergleich DC und SC getestet wurde (bei den Demos war auch bei mir durchaus noch ein Unterschied vorhanden).
Hast Du dazu einen Link?
Ich habe gestern ca. ne gute Stunde investiert und konnte keinen Unterschied zwischen DC und SC feststellen. Ich habe hier auch ein wenig die Physik-Engine bzw. Partikelefffekte im Verdacht, da das ganze in der Final nochmal ordentlich zugelegt hat auf Maximum (sieht man auch) und so ggf. beide Cores stärker ausgelastet sind.
Ja ok speziell bei FEAR liegts daran, dass der VRAM und die Bandbreite limitieren. Aber bei vielen anderen Spielen bringt das etwas. Die CPU limitiert hier wohl kaum. Eine 7800GTX mit 512MiB und etwas mehr RAMtakt sollte schon anders dastehen.
BvB123
2005-10-25, 15:57:22
Was willst du uns jetzt damit sagen?
Dass die X1800XT in den Quallisettings deutlich schneller als die 7800GTX ist?
41 zu 31 fps für die X1800XT. Das sind ca. 30%.
Und die deutlich wichtigeren MIN fps? 7 zu 10fps. Das sind ca. 30% für die GTX ;D. Dazu noch der 81.85 und schon herscht Gleichstand
Ja ok speziell bei FEAR liegts daran, dass der VRAM und die Bandbreite limitieren. Aber bei vielen anderen Spielen bringt das etwas. Die CPU limitiert hier wohl kaum. Eine 7800GTX mit 512MiB und etwas mehr RAMtakt sollte schon anders dastehen.
Trotzdem will mir das ganze nicht in den Kopf: Auch bei 1024x768 ohne AA ist kein Unterschied zu sehen und mit den Demos war unabhängig von der VRAM-Limitierung doch immer auch ein FPS-Gewinn mit DC da. Entweder hat Monolith hier etwas verbockt, ich doch irgendein Problem (obwohl das schwer zu finden sein dürfte, da alles andere auf DC mehr oder weniger anspricht und das ganze mit/ohne diverse SLI-Profile getestet wurde) oder beim 81.25 wurde doch etwas geändert...
Beantworten könnte das wohl nur ein vergleichbarer Test (DC-System und SLI).
Anmacher
2005-10-25, 16:27:00
Und die deutlich wichtigeren MIN fps? 7 zu 10fps. Das sind ca. 30% für die GTX ;D. Dazu noch der 81.85 und schon herscht Gleichstand
Oh da freut sich ´ja unser Kind wa?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.