PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Performancereport NFS: Carbon


Madkiller
2006-12-31, 18:44:21
Link:
http://www.3dcenter.org/artikel/2006/12-31_a.php


Ausnahmsweise habe ich die Ehre...

Gast
2006-12-31, 20:58:17
So langsam wirds peinlich fuer 3DCenter. Ich weiß ja nicht was ihr da testet, aber schon die 7950GT, welche aktuell erhältlich ist und noch produziert wird, gegen eine nicht mehr erhältliche X1900XT zu benchen, ist alles andere als professionell. Sodann ist die X1900XT das Gegenstück zur 7900GTX. Und in komischerweise rennen die NV-Karten in der PC-Games Hardware in der NFS-Reihe in den Benches den Ati-Karten davon. So langsam glaube ich wird nur noch gefakt.

Könnt den Kommentar ruhig löschen, von dieser Seite erwarte ich nichts anderes mehr, werde mich hier auch nicht mehr umsehen, so langsam ist es nämlich schon mehr als unglaubwürdig ;).

AnarchX
2006-12-31, 21:02:35
So langsam wirds peinlich fuer 3DCenter. Ich weiß ja nicht was ihr da testet, aber schon die 7950GT, welche aktuell erhältlich ist und noch produziert wird, gegen eine nicht mehr erhältliche X1900XT zu benchen, ist alles andere als professionel
:|
http://geizhals.at/deutschland/a184959.html
Oder halt eine X1950XT, welche auch die gleiche Leistung bringen sollte wie eine 512MB X19XT bzw. teilweise auch schneller ist:
http://geizhals.at/deutschland/?cat=gra16_256&sort=p&bpmax=&asuch=X1950XT&filter=+Angebote+anzeigen+

Und in komischerweise rennen die NV-Karten in der PC-Games Hardware in der NFS-Reihe in den Benches den Ati-Karten davon.
Aber halt nicht in Carbon...
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29

Dein Beitrag ist da einzig peinliche hier.

@Topic:
Wiedermal ein guter Test, wobei ein kurzer Abriss über die vom Spiel verwendeten Technologien interessant wäre, falls möglich.

Gast
2006-12-31, 21:20:04
Volle zustimmung AnarchX.:top:

Voodoo3Killer
2006-12-31, 22:40:53
Die Sinnhaftigkeit dieser "Performancereports" ist mir nicht ganz eingängig.

Außerdem finde ich ein übertaktetes System als Testsystem nicht sehr prickelnd...

AnarchX
2006-12-31, 22:53:39
Die Sinnhaftigkeit dieser "Performancereports" ist mir nicht ganz eingängig.
Wieso?
Man kann doch hierraus sehr gut die Leistung aktueller ATI/nV-Karten und die Leistung aktueller Intel/AMD-Prozessoren im betreffenden Spiel erkennen.
Daraus kann man dann mit Hilfe anderer Benchmarkübersichten die Leistung beliebiger Radeon X1/GeForce7 Karten bzw. Prozessoren abschätzen.
(z.B. eine 7600GT hat mit maximalen Details wohl schon massive Problem in 1024 sogar ohne AA, während eine X1650XT, wohl hier auch noch spielbare FPS liefern wird)

Gast
2006-12-31, 23:00:31
So langsam wirds peinlich fuer 3DCenter. Ich weiß ja nicht was ihr da testet, aber schon die 7950GT, welche aktuell erhältlich ist und noch produziert wird, gegen eine nicht mehr erhältliche X1900XT zu benchen, ist alles andere als professionell. Sodann ist die X1900XT das Gegenstück zur 7900GTX. Und in komischerweise rennen die NV-Karten in der PC-Games Hardware in der NFS-Reihe in den Benches den Ati-Karten davon. So langsam glaube ich wird nur noch gefakt.

Könnt den Kommentar ruhig löschen, von dieser Seite erwarte ich nichts anderes mehr, werde mich hier auch nicht mehr umsehen, so langsam ist es nämlich schon mehr als unglaubwürdig ;).
Nv Karten performen in dem Spiel einfach schlecht. Mit ner 7900 GX2 @600/750 und einem funzendem SLI Profil war es mir nicht möglich, das Spiel in 1024x768 bei max.Detail mit Motion Blur und 4xAA zu spielen. Am Anfang ging es noch einigermaßen, dümpelte meistens im 20 fps Bereich. Gegen Ende des Spiels (keine Ahnung wieso, vielleicht sind die späteren Stadteile anspruchsvoller)
wurde es hingegen unerträglich. Musste MB abschalten, danach konnte man es zu Ende spielen. Aber zu keiner Zeit lief es wirklich flüssig. Vor allem die Driftchallenges lassen sich mit wenig fps beschissen fahren. Keine Ahnung was da PC Games Hardware getestet hat, es spiegelt jedoch nicht die Realität wider. Außerdem sagtest du NFS Serie. Das beschissene Performen betrifft nur die Carbon Reihe.

Gast
2007-01-01, 01:00:46
Nv Karten performen in dem Spiel einfach schlecht. Mit ner 7900 GX2 @600/750 und einem funzendem SLI Profil war es mir nicht möglich, das Spiel in 1024x768 bei max.Detail mit Motion Blur und 4xAA zu spielen.

stimmt, die motion-blur-umsetzung ist für die cine-fx-architektur der tod, ohne motion-blur habe ich es allerdings auch auf einer 6800GT gut hinbekommen (nur in der full, die demo war in den gleichen settings fast unspielbar)

Botcruscher
2007-01-01, 03:22:54
Wirklich guter Test. Vorrallem gefällt mir die Art des Fazits. Damit kommt man endlich von reinen "800x600 wow ist das schnell, bringt aber unter realen Auflösungen nix Tests" weg.

Der starke Leistungsverlust von NV ist in neueren Games auch irgendwie symptomatisch.

Madkiller
2007-01-01, 03:37:42
Außerdem finde ich ein übertaktetes System als Testsystem nicht sehr prickelnd...
Dann orientier dich doch einfach an den unübertakteten CPU-Werten...
Vorrallem gefällt mir die Art des Fazits. Damit kommt man endlich von reinen "800x600 wow ist das schnell, bringt aber unter realen Auflösungen nix Tests" weg.
Dieser Artikel wurde nach dem selbem Prinzip wie die letzten Artikel ausgewertet.
Wenn ein Spiel keine großartige CPU-Leistung benötigt, haben wir kein Problem, das auch zu schreiben. Wenn eines aber mehr CPU-Leistung braucht, schreiben wir das auch.

Blutmaul
2007-01-01, 04:31:23
Ändert bitte den weissen Rahmenbalken für die x2 3800 Ergebnisse in einen Gelben, oder Orangen.
Den Weissen kann man kaum erkennen!

Gast
2007-01-01, 07:09:49
Ich hoffe alle hatten einen guten Rutsch in das neue Jahr :-)

Eine vielleicht laienhafte Nachfrage zu eurem Test hätte ich: Ihr habt geschrieben, daß ihr auf ein und derselben Hardwarekonfiguration jedes Savegame 5mal durchlaufen läßt und den Mittelwert nehmt. Mich interessiert wie groß eigentlich die Streuung der Ergebnisse bei diesen 5 Durchläufen ist. Gibt es da bei einzelnen Savegames Ausreißer?

Ansonsten finde ich die Testmethode wirklich toll! Daß das Spiel und nicht die Hardware im Zentrum steht und das ihr auch mit Sound testet. Ich persönlich bin doch recht überrascht, wie stark NfS Carbon und Anno 1701 von DualCore Prozessoren profitieren. Mir scheint es so zu sein, daß die neueren, von euch getesteten Spiele vermehrt so programmiert werden, daß mehrere Threads gleichzeitig auf mehreren Kernen abgearbeitet werden können.
Ebenfalls mal laienhaft nachgefragt: Sind die beiden Spiele rein auf Dualcore optimiert oder könnten auch Quadcore CPUs einen Vorteil daraus ziehen?

Herzliche Grüße und ein schönes neues Jahr wünscht der Gast :-)

Lawmachine79
2007-01-01, 07:13:13
"(die GeForce8-Serie ist hier wie gesagt noch nicht eingerechnet)."

Na Prima. Aber der Core 2 Duo ist eingerechnet.
Wie gewohnt, methodisch - didaktisch absolut herausragend erarbeiteter Testbericht.
Aber Ihr könnt doch nicht mit einem Core 2 Duo als Bewertungsgrundlage daher kommen und gleichzeitig die GF8 ausblenden ?!?
Jeder, der das "ganze Geschehen" nicht halbwegs mitverfolgt, kommt zu der Schlußfolgerung: "Cool. Ich brauch eine INTEL CPU und eine ATI Graka um das ganze für möglichst wenig Geld geniessen zu können".
Ihr könnt doch sowas nicht bewerten und dabei eine GF7 als Grundlage heranziehen. Das ist doch Elektronikschrott.
Ich spiele das ganze Zeug auf einer 70€ (A64 4000+@3.0 Ghz) CPU mit einer 400€ Graka (88Gts).
Ihr spielt das mit einer 200€ (E6400) CPU und einer 230€ Graka (X1900XT).
Und wisst Ihr was? Bei mir läuft das flüssiger. Jupp. Und das mit 8xQ AA.
Kostes grad mal 40€ mehr. Nimmt man noch das Board (Intel, schweineteuer wie man es halt kennt) dazu, bin ich wesentlich günstiger dabei.
Der Punkt, den Ihr halt "nicht erwähnt": die beste Leistung fürs Geld bekommt man im Moment mit einer kleineren AMD CPU + GF8. Und da gibt es nichts dran zu rütteln. Klar, wer Kohle scheißen kann, holt sich einen Core 2 Duo + GF8.
Um es auf den Punkt zu bringen:
AMD K8 + GF8 > Core + X1900.
Ihr könnt nicht einfach die aktuellste Intel CPU nehmen, aber die absolut altbackene GF7 - Serie.
Stellt doch einfach die aktuellsten Sachen gegeneinander. Und da lautet die Folgerung:
Wer Kohle hat:
Core 2 CPU + GF8
Wer nicht soviel hat:
AMD + GF8
Ihr stellt die aktuellste ATI gegen ein Auslaufmodell von NVidia. Klar, ATI hat nunmal noch keinen Pendanten zur GF8. Aber das ist nun einmal die Situation. Und die aktuelle Situation muss halt Grundlage für so einen Test sein. Und nicht irgendwas zurechtbiegen wie es Euch passt.
Wer für möglichst wenig Geld möglichst viel Spiel haben will kauft AMD + GF8. Klar ist der Core 2 Duo viel schneller in Spielen. Das Geld, was man darin mehr investieren muss, steckt man aber lieber in die GraKa. Also: am Core 2 Duo sparen und lieber in eine GF8 investieren. Wenn man jetzt was Anderes als Spiele hinzuzieht sieht die Sache total anders aus, das ist klar. Aber solange Ihr ein Spiel zur Bewertung ranzieht, nehmt doch bitte nicht nur eine aktuellel CPU sondern auch eine aktuelle GraKa.
Ansonsten: Genialer Artikel mit den richtigen Messmethoden, der aufgrund der falschen Wahl des Maßstabs aber völlig am Ziel vorbeischiesst.

Hamud
2007-01-01, 10:09:59
Ich finde den Performancereport schon sehr interressant. Was mir aber fehlt, ist der Test des G80 und einiger Mainstreamkarten.
Der Test des G80 fehlt mir, weil somit ungeklärt bleibt, ob die neuen NVidia Karten das selbe Performanceproblem besitzen. An dieser Stelle erwarte ich vom 3DC etwas mehr. Die Berichte zeugen sonst von einer etwas größeren Professionalität. Aber ich bin mir sicher, dass uns diese Werte nachgereicht werden.

=Floi=
2007-01-01, 12:29:35
der starke performanceverlust kommt wohl auch von den für ati optimierten spielen, da es ausgerechnet die größten ausreisser (oblivion, NFS) eben dort gibt, wo die spiele für die Xbox 360 programmiert worden sind

auch habe ich ich ja schon einen thread dazu aufgemacht dass der 7950GT eben die 100mhz chiptakt abgehen...

Madkiller
2007-01-01, 12:32:29
Mich interessiert wie groß eigentlich die Streuung der Ergebnisse bei diesen 5 Durchläufen ist. Gibt es da bei einzelnen Savegames Ausreißer?
Ebenfalls mal laienhaft nachgefragt: Sind die beiden Spiele rein auf Dualcore optimiert oder könnten auch Quadcore CPUs einen Vorteil daraus ziehen?
Die Streuung ist in den meisten Fällen innerhalb von 1-2%. Bei diesem Spiel sogar meist <1%.
Das wegen QC-Optimierung kann ich dir nicht sagen. :)

@warmachine79
@Hamud
Nehmt doch bitte den (und auch alle anderen) Artikel als das, was er ist, und nicht als das was er sein könnte.
Ich sehe das nicht als Negativpunkt an, wenn eine Hardware oder ein Setting fehlt, was nach mancher Meinung vorhanden sein müßte, solange der Artikel sich nicht ohne Fakten oder konkrete Ahnungen anmaßt darüber bescheid zu wissen. Es ist nicht das Ziel alles erdenkliche zu testen, sondern das Vorhandene mit einem verfünftigen Aufwand (ja, RL) und daraus einen möglichst großen Nutzen auszuwerten.



"(die GeForce8-Serie ist hier wie gesagt noch nicht eingerechnet)."

Na Prima. Aber der Core 2 Duo ist eingerechnet.
Aber Ihr könnt doch nicht mit einem Core 2 Duo als Bewertungsgrundlage daher kommen und gleichzeitig die GF8 ausblenden ?!?
Warum auch nicht? Der C2D ist deutlich billiger, länger auf dem Markt und eben auch bei uns momentan vorhanden.


Jeder, der das "ganze Geschehen" nicht halbwegs mitverfolgt, kommt zu der Schlußfolgerung: "Cool. Ich brauch eine INTEL CPU und eine ATI Graka um das ganze für möglichst wenig Geld geniessen zu können".
Da das Spiel nicht viel CPU-Leistung braucht, kann ich dir bezüglich der Intel-CPU nicht zustimmen.
Aber ja, die X1000er Karten haben hier ein deutlich besseres P/L-Verhältniss.

Ich spiele das ganze Zeug auf einer 70€ (A64 4000+@3.0 Ghz) CPU mit einer 400€ Graka (88Gts).
Ihr spielt das mit einer 200€ (E6400) CPU und einer 230€ Graka (X1900XT).
Und wisst Ihr was? Bei mir läuft das flüssiger. Jupp. Und das mit 8xQ AA.
Kostes grad mal 40€ mehr. Nimmt man noch das Board (Intel, schweineteuer wie man es halt kennt) dazu, bin ich wesentlich günstiger dabei.
Hast du dir den Artikel komplett durchgelesen?
Der Artikel sagt ja sogar, daß du deinen 4000+ nicht einmal OCen müßtest, um normal immer über ~30fps zu bleiben.
Von dem her bestätigt der Artikel ja, daß alles dafür spricht, daß es bei dir flüssig läuft.
Zum anderen kann man CPUs und GraKas nicht direkt vergleichen. Die beiden Teile decken schließlich unterschiedliche Aufgabengebiete ab.
Also wenn du hier schon die kosten aufrechnen willst, dann nimm von mir aus deinen 4000+ und paar den mit ner X1900XT und bist damit schon mal 130€ billiger. ;)


Der Punkt, den Ihr halt "nicht erwähnt": die beste Leistung fürs Geld bekommt man im Moment mit einer kleineren AMD CPU + GF8. Und da gibt es nichts dran zu rütteln. Klar, wer Kohle scheißen kann, holt sich einen Core 2 Duo + GF8.
Um es auf den Punkt zu bringen:
AMD K8 + GF8 > Core + X1900.
Hier denke ich wieder, daß du den Artikel nicht richtig gelesen hast.
Einmal "erwähnen" wir sehr wohl, daß auch äußerst günstige CPUs bei diesen Spiel reichen, zum anderen behaupten wir zu keinem Zeitpunkt (nein, seit den Timedemo-Artikel setzen wir uns sogar klar für das Gegenteil ein) daß man mit ner schnellen CPU ne langsamere GraKa kompensieren kann.


Ihr könnt nicht einfach die aktuellste Intel CPU nehmen, aber die absolut altbackene GF7 - Serie.
Stellt doch einfach die aktuellsten Sachen gegeneinander.
Ihr stellt die aktuellste ATI gegen ein Auslaufmodell von NVidia. Klar, ATI hat nunmal noch keinen Pendanten zur GF8. Aber das ist nun einmal die Situation. Und die aktuelle Situation muss halt Grundlage für so einen Test sein. Und nicht irgendwas zurechtbiegen wie es Euch passt.
Wir haben uns bewußt dazu entschieden, Hardware aus einem (möglichst) ähnlichem Preisbereich zu vergleichen.
IMHO sinnvoller.
Es liegt in der Natur der Sache, daß da nie alle mit uns einer Meinung sind.

Wer für möglichst wenig Geld möglichst viel Spiel haben will kauft AMD + GF8. Klar ist der Core 2 Duo viel schneller in Spielen. Das Geld, was man darin mehr investieren muss, steckt man aber lieber in die GraKa. Also: am Core 2 Duo sparen und lieber in eine GF8 investieren. Wenn man jetzt was Anderes als Spiele hinzuzieht sieht die Sache total anders aus, das ist klar. Aber solange Ihr ein Spiel zur Bewertung ranzieht, nehmt doch bitte nicht nur eine aktuellel CPU sondern auch eine aktuelle GraKa.
Einmal bin ich mir völlig darüber im klaren, daß die Hardwarewahl immer auch mit persönlich Vorlieben in Einklang zu bringen ist.
Aber mein Favorit ist für NFS:Carbon immer noch:
AMD + X1000er
Da kostet die GraKa eben mal nur die Hälfte ggü der GF8 und ist - wie man sehen kann - (relatives Wort hier einfügen) spielbar.

Botcruscher
2007-01-01, 12:35:32
Dieser Artikel wurde nach dem selbem Prinzip wie die letzten Artikel ausgewertet.
Wenn ein Spiel keine großartige CPU-Leistung benötigt, haben wir kein Problem, das auch zu schreiben. Wenn eines aber mehr CPU-Leistung braucht, schreiben wir das auch.

Also ich erkenne da eine Entwicklung fort von den nichtssagenden theoretischen Tests, hin zu praktischen. Möglicherweise liegt es auch einfach nur am Thema. Tests wo man fernab der üblichen Gameauflösung irgendwelche Fazits sucht wiederstreben mir einfach.

Madkiller
2007-01-01, 13:09:13
Das Problem hier war IMO nur der Kontext der Artikel.
Ich hol mal ein wenig aus.
Also wir September die neue Test-Hardware bekamen, war schon geplant, daß 3DC (oder speziell Leo und ich) sich in Zukunft auf Performancereports zu Spielen konzentrieren. Da aber aber solche Report möglichst Zeitnah zu dem Erscheinungstermin des jeweiligen Spiel erscheinen sollten (ja, ich weiß, daß wir da noch weit vom Optimalem weg sind) habe ich mich dazu entschieden zuerst alle Einzelaspekte die in den Reports vorkommen sollten für mehrere (schon erschienene, also ältere) Spiele zusammenzufassen. Und die Aspekte getrennt auszuwerten.
Deswegen kam am Anfang der "C2D vs AM2", "RAM-Skalierung zu AMD und C2D", "SingleCore vs DualCore" und zuletzt "X1900XT vs 7950GT"-Artikel raus.
Im Prinzip wurde also für jedes der darin getesteten Spiele all das getestet, was in den Reports auch behandelt wurde. Nur eben nach Themen getrennt, nicht nach Spielen.
Deswegen wurde bei dem GraKa-Artikel auch die CPU-Werte der anderen Artikel übertragen, da praktisch alles aus einem Guß ist.

Aber von Anfang an, wurden die Artikel nach dem selbem Prinzip ausgewertet.
Klar, bei den CPU-Artikeln wurde mit 800x600 getestet, und ja, es gibt mehrere Spiele, wo bei "normalen" Auflösungen/Settings die GraKa limitiert.
Aber darum ging es da einfach nicht. Hier ging es darum, was verschiedene CPUs bringen können. Nicht was sie sicher bringen werden.
Aber wie gesagt, der direkte Kontext fehlte.
Erst mit dem GraKa-Artikel konnte man dann direkter sehen, wie es bei bestimmten Settings mit GraKa- bzw CPU-Limitierung aussieht. Wenn dann aber die CPU limitiert hat, hat man auch die Werte der CPU-Artikel hernehmen können.

Dennoch, gegen eines werde ich mich immer wehren:
Auf niedriger Auflösung CPUs zu testen ist eben nicht theoretisch, und schon garnicht nichtssagend.
Man muß natürlich differenzieren und bewerten, ob eine Änderung in der CPU-Leistung einem selber - eben abhängig von der GraKa - auch was bringen mag. Wenn aber die CPU limitiert behalten die CPU-Artikel ihre volle Gültigkeit. Und mehr sollten - und haben - die nie ausgesagt.

Und daß dir das widerstrebt ist IMHO den Timedemos zuzuschreiben.
Durch diese wird schließlich mehr oder weniger ausgesagt, daß CPUs unwichtiger wären, und daß auch ne schnellere GraKa bei überwiegender CPU-Limitierung immer wenigstens ein bisschen was bringt.
Naja, CPU- und GraKa-Limitierung sind einfach strikt getrennt.
Wichtig für die Praxistauglichkeit der CPU-Werte ist schließlich nicht die Auflösung sondern ausschließlich die Spieledetails.

Mr. Lolman
2007-01-01, 13:11:05
4
Ich spiele das ganze Zeug auf einer 70€ (A64 4000+@3.0 Ghz) CPU mit einer 400€ Graka (88Gts).
Ihr spielt das mit einer 200€ (E6400) CPU und einer 230€ Graka (X1900XT).
Und wisst Ihr was? Bei mir läuft das flüssiger.

Das glaub ich nicht, Tim.

Bei gleichen Prozessoren, ist in dem Spiel die 8800GTS 'bloß' auf R580 Niveau...



Der starke Leistungsverlust von NV ist in neueren Games auch irgendwie symptomatisch.

Das war seit dem NV30 bei jeder NV Generation so, aber das darf man eigentlich garnicht erwähnen, weil man sonst ein Fanboy ist ;)

Gast
2007-01-01, 13:29:05
der starke performanceverlust kommt wohl auch von den für ati optimierten spielen, da es ausgerechnet die größten ausreisser (oblivion, NFS) eben dort gibt, wo die spiele für die Xbox 360 programmiert worden sindIn Oblivion ist eine 8800GTX mehr als doppelt so schnell wie die x1900xtx.

Bei gleichen Prozessoren, ist in dem Spiel die 8800GTS 'bloß' auf R580 Niveau...Und weiter? In anderen Spielen ist sie dafür sehr viel schneller. Wenn es nur um Spiele geht, ist ein K8 + G80 sicherlich besser als ein C2D + R580.

Mr. Lolman
2007-01-01, 13:52:20
In Oblivion ist eine 8800GTX mehr als doppelt so schnell wie die x1900xtx.

da schaltet man auf der X1900XTX einfach auf Performance AAA und hat schon fast doppelt soviel fps ;) (ja dass die Argumentation hinkt, weiss ich. Trotzdem stimmts)


Und weiter? In anderen Spielen ist sie dafür sehr viel schneller. Wenn es nur um Spiele geht, ist ein K8 + G80 sicherlich besser als ein C2D + R580.

Hab ich auch nie abgestritten. Aber es gibts auch wieder andere Spiele, bei denen sie langsamer als ne X1950XTX ist. Aber weisst du was`? Das ist egal, weils hier nur um NFS Carbon geht - was bei Warmachine eben sicher nicht flüssiger läuft...

AnarchX
2007-01-01, 14:09:31
Das ist egal, weils hier nur um NFS Carbon geht - was bei Warmachine eben sicher nicht flüssiger läuft...

Hast wohl selbst eine 8800GTS und konntest diese mit den letzten Treibern testen oder wie kommst du zu dieser Annahme? ;)

Madkiller
2007-01-01, 14:11:16
...und dabei auch bitte nicht vergessen, daß er weder Auflösung noch den Grad des ggf aktiviertem Transparenz-AA angegeben hat noch was seiner Meinung nach flüssig ist...

Gast
2007-01-01, 14:31:18
Sind die beiden Spiele rein auf Dualcore optimiert oder könnten auch Quadcore CPUs einen Vorteil daraus ziehen?

solange dual-core "nur" ~30-40% bringt kann quadcore nicht mehr viel zusätzliche leistung bringen.

Piffan
2007-01-01, 14:52:20
Die Performance- Reports sind schon recht gut gemacht.

Aber einen Wunsch hätte ich noch: Testet doch mal, welchen Vorteil Dual- Cores im Vergleich zu Single- Cores bringen.
Denn es gibt mit Sicherheit sehr viele Athlon 64- User, die liebend gerne wüssten, ob sie schon Nachteile in Kombination einer typischen Graka in Kauf nehmen müssen.
Die Pentium 4- User müssen dann halt einen Abschlag einkalkulieren....

AnarchX
2007-01-01, 14:57:54
Aber einen Wunsch hätte ich noch: Testet doch mal, welchen Vorteil Dual- Cores im Vergleich zu Single- Cores bringen.
...

Das wurde doch bis jetzt in jedem Perfomancereport gemacht... :|
z.B. :
http://www.3dcenter.org/artikel/2006/12-31_d.php (nach unten scrollen)

puntarenas
2007-01-01, 15:16:39
Puh, starker Tobak, die erste Threadseite. Mir ist eigentlich unverständlich, wie man derart massiv auf diesen Performancereport reagieren kann und das offensichtlich ohne die Reihe gelesen zu haben oder aus schierer Ignoranz.

Ich jedenfalls freue mich sehr über diese Artikel und insbesondere über die klar definierten Settings, denn damit kommt man in seiner persönlichen Einschätzung der einzelnen Hardwarekomponenten ein gutes Stück voran, wobei natürlich andere Aspekte wie Stromverbrauch, Lautstärke oder generelle Treiberunterstützung hier außen vor bleiben müssen.

Sicherlich sind die Artikel nicht perfekt, man muss sich eben in den Stil der Autoren einlesen und ihre Art der Aufbereitung erfassen. Wie gesagt sind alle relevanten Informationen aber vorhanden und da sich an der grundsätzlichen Herangehensweise und Aufbereitung im Verlauf der Serie nichts grundsätzliches ändert, ist dies ein einmaliger Denkprozess und sollte nicht zu viel verlangt sein.

Abschließend noch einmal eine kurze, konstruktive Kritik. Ein Punkt, der offensichtlich immer wieder für Verwirrung sorgt ist das Ausmessen der CPU-Limitierung bei 800x600. Die Grafiken sind überschrieben mit dem Namen des Spiels, in der Zeile darunter folgt "Core2Duo E6400 @3200 MHz (400x8)". Dann folgt die Legende mit den für meinen Geschmack immer noch zu kleinen Farbklecksen und dort taucht erneut der "C2D @800x600" auf. Der C2D @800x600" läuft natürlich auf Standardtakt und "Core2Duo E6400 @3200 MHz (400x8)" bezieht sich nur auf die Messungen der Grafikkarten, dies sollte man IMHO jedoch deutlicher voneinander abgrenzen, besonders da später im Artikel zu lesen steht, der Core 2 Duo E6400 würde sowohl auf Radeon X1900 XT als auch GeForce 7950 GT nirgendwo limitieren, da kann man unter Umständen schonmal kurz ins Stocken geraten und fragt sich, welcher C2D 6400 denn nun wo gemeint ist.

Vielen Dank für den Artikel, eine lohnenswerte und interessante Lektüre!

Gast
2007-01-01, 16:37:24
gefällt mir sehr gut, schön für derartige tests wäre vielleicht noch zu zeigen welche einstellungen man für schwächere systeme deaktivieren kann und wie sich jene auf die bildqualität und performance auswirken.

Laz-Y
2007-01-01, 18:44:03
was mich interessiere würde wäre ein test mit einer 'normaleren' karte wie einer 6800gt. solche highend karten hat doch nur ein bruchteil der leser ...

Lawmachine79
2007-01-01, 19:19:29
...und dabei auch bitte nicht vergessen, daß er weder Auflösung noch den Grad des ggf aktiviertem Transparenz-AA angegeben hat noch was seiner Meinung nach flüssig ist...

16x12. 8xQ. 16xAF. Alles was man im Spiel aktivieren kann ist an. Transparenz AA ist aus. Das kann man sich bei 8xQ auch schenken.

AnarchX
2007-01-01, 19:36:03
Transparenz AA ist aus. Das kann man sich bei 8xQ auch schenken.
MSAA glättet aber kein Alphatest-Texturen...

Lawmachine79
2007-01-01, 19:48:05
MSAA glättet aber kein Alphatest-Texturen...

Ich meine irgendwo gelesen zu haben, daß man sich TSAA schenken kann sobald man 8xQ oder 16xQ nutzt.

AnarchX
2007-01-01, 20:14:35
Ich meine irgendwo gelesen zu haben, daß man sich TSAA schenken kann sobald man 8xQ oder 16xQ nutzt.

Ist aber eben falsch... ;)

Gast
2007-01-01, 20:14:46
Ich meine irgendwo gelesen zu haben, daß man sich TSAA schenken kann sobald man 8xQ oder 16xQ nutzt.

nö, 8xQ und 16xQ nützt garnichts gegen AT-kanten, allerdings braucht man TAA bei NFS-carbon eh wirklich kaum, durch die dunkelheit sieht man die AT-kanten so gut wie nie.

Piffan
2007-01-01, 20:15:27
Das wurde doch bis jetzt in jedem Perfomancereport gemacht... :|
z.B. :
http://www.3dcenter.org/artikel/2006/12-31_d.php (nach unten scrollen)

Besten Dank. Ich habe selten die Zeit und Ruhe um die Artikel komplett zu lesen. Bisher habe ich nie weit genug geguckt. :tongue:

The_Invisible
2007-01-01, 21:09:46
interessant wäre auch noch ne x1800xt mitzubenchen, würde auch ca auf 7950gt level liegen würde ich meinen

ansonsten kann man bei carbon im gegensatz zu anno1701 viel schnickschnack abstellen wodurch es sogar realistischer aussieht (zb http://hadler.kirchbach.at/fx/n4sc.jpg), wie bei den vorigen nfs teilen halt auch

mfg

AnarchX
2007-01-01, 23:11:22
interessant wäre auch noch ne x1800xt mitzubenchen, würde auch ca auf 7950gt level liegen würde ich meinen


Wobei sich die Frage nach dem Sinn stellt, da die X1800XT fast genauso viel wie eine X1950XT/X1900XT kostet und damit wohl für niemanden mehr relevant ist.
Aber mit deiner Annahme liegst du richtig:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

Carbon giert regelrecht nach Shaderpower.

Gast
2007-01-02, 01:12:28
Die Kommentare zu nVidia Karten kann ich hier nicht nachvollziehen.

Auf einer 7900 GT wars wunderbar spielbar! Das einzige was ich ausgeschaltet habe, war Motion Blur, weil das sowieso nur nervt. Seit wann hat man bei Tempo 120 schon einen Tunneleffekt? Finde ich nicht sonderlich realistisch.

Das es dann auf einer GX2 nicht flüssig laufen soll - total unverständlich. Kann ich nicht nachvollziehen.

StefanV
2007-01-02, 01:43:51
Wobei sich die Frage nach dem Sinn stellt, da die X1800XT fast genauso viel wie eine X1950XT/X1900XT kostet und damit wohl für niemanden mehr relevant ist.
Aber mit deiner Annahme liegst du richtig:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

Carbon giert regelrecht nach Shaderpower.

Das interessiert die Besitzer der x1800, die dann (mehr oder minder) wissen, wie viel besser eine x1900 wäre.

VooDoo7mx
2007-01-02, 03:51:04
Das war seit dem NV30 bei jeder NV Generation so, aber das darf man eigentlich garnicht erwähnen, weil man sonst ein Fanboy ist ;)

Ist doch auch kein Geheimnis, dass die R5XX Familie eine deutlich höhere arithmetische Rechenleistung hat als die jeweiligen nVidia Pendants und dadurch eben in Spielen die das fordern, wie auch Oblivion, den Konkurrenten davonziehen.

Das war auch shon damals NV3X vs R3XX so.
Nur wurde besodners damals kaum viel Shaderleistung gefordert und so waren NV3X Boards durchaus konkurrenzfähig.

Beim NV4X vs R4XX hatte nVidia wieder mehr arithmetische Rechenleistung nur wurde es auch diesmal eher noch nicht gefordert und ATi konnte sich mit brachialer Rohleistung etwas absetzen.

AMC
2007-01-02, 04:26:12
Ich spiele das ganze Zeug auf einer 70€ (A64 4000+@3.0 Ghz) CPU mit einer 400€ Graka (88Gts).

Joa, macht Sinn...man nimmt einen Celeron und ne High-End Graka? :rolleyes:


Ihr spielt das mit einer 200€ (E6400) CPU und einer 230€ Graka (X1900XT).
Und wisst Ihr was? Bei mir läuft das flüssiger. Jupp. Und das mit 8xQ AA.

Belege? Beweise?


Kostes grad mal 40€ mehr. Nimmt man noch das Board (Intel, schweineteuer wie man es halt kennt) dazu, bin ich wesentlich günstiger dabei.
Der Punkt, den Ihr halt "nicht erwähnt": die beste Leistung fürs Geld bekommt man im Moment mit einer kleineren AMD CPU + GF8.

Öh nö. =) Das wohl beste, was man, wenn man schon 400 Euro für eine 8800GTS locker macht, haben kann, ist ein kleiner E6300 (schneller als Dein K8) für 150€ (http://geizhals.at/deutschland/a209544.html), einem Abit AB9 für 110€ (http://geizhals.at/deutschland/a207788.html) und die besagte GTS. Ein kleiner OC des E6300 auf 2.4 Ghz ~ E6600 und *zack* biste vorbei an jedem K8. Von weiterem OC auf, sagen wir ~3.2Ghz wie im Test, wollen wir besser gar nicht erst reden.

AMC

P.S. Wann kommt eigentlich der nächste ATI-Game Test? Ihr solltet aufpassen, dass ihr nicht irgendwann (aus Versehen) ein Spiel auswählt, dass auf nVidia Karten schneller läuft, oder besser performed. :cool:

P.P.S. Wie lächerlich ist es eigentlich bitte, die G80 wegzulassen?

StefanV
2007-01-02, 05:07:46
P.S. Wann kommt eigentlich der nächste ATI-Game Test? Ihr solltet aufpassen, dass ihr nicht irgendwann (aus Versehen) ein Spiel auswählt, dass auf nVidia Karten schneller läuft, oder besser performed. :cool:
Hm, es ist also Madkillers Schuld, wenn ein Spiel auf nV4x Chips schlechter läuft als auf vergleichbaren ATI Chips? :|

Ich würd jetzt eher vermuten, das das ganze an der Architektur der beiden liegt, das der eine besser abschneidet als der andere...

Ich muss jetzt auch nicht irgendwem die Schuld in die Schuhe schieben, das ist einfach so, sei es weil das ganze auf ATI Hardware (mit IBM CPU) entwickelt wurde oder weil der Mond im dunkeln scheint, ist eigentlich latte...

Jemanden aber was unterstellen zu wollen, ist schon unschön...
Könnt ja auch sein, das Madkiller einfach mal wissen wollte, wie sich dieses Spiel so verhält?!


P.P.S. Wie lächerlich ist es eigentlich bitte, die G80 wegzulassen?
Schenk Madkiller 'ne G80 und er testet sie!
Ganz sicher, wirklich!

Madkiller
2007-01-02, 10:47:39
P.S. Wann kommt eigentlich der nächste ATI-Game Test? Ihr solltet aufpassen, dass ihr nicht irgendwann (aus Versehen) ein Spiel auswählt, dass auf nVidia Karten schneller läuft, oder besser performed. :cool:
Brauchst nicht meinen, wie oft ich jegliche Settings und die Treiber der GT überprüft hatte, weil ich mir dachte: "Die GT kann doch garnicht so schlecht sein...."?
Aber hier wird garantiert nicht angefangen werden, die Spiele nach der Performance der Hardware zu wählen. Muß ich dich leider enttäuschen.
P.P.S. Wie lächerlich ist es eigentlich bitte, die G80 wegzulassen?
Wie lächerlich ist es zu erwarten, daß der G80 mit dabei ist, wenns im Intro schon heißt:
Nach dem Performancereports zu Anno 1701, mit welchem offenbar die Form für weitere Artikel dieser Art gefunden zu sein scheint, wollen wir natürlich weitere Teile unserer Artikel-Serie nachschieben, welche die Performance aktueller Mainstream-Hardware unter ausgewählten neuen Spielen betrachtet.
?

reunion
2007-01-02, 10:56:17
Wobei sich die Frage nach dem Sinn stellt, da die X1800XT fast genauso viel wie eine X1950XT/X1900XT kostet und damit wohl für niemanden mehr relevant ist.
Aber mit deiner Annahme liegst du richtig:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

Carbon giert regelrecht nach Shaderpower.

Dafür schlägt sich aber der zu beginn als arithmetisches Leichtgewicht angesehene R520 verdammt gut. Die theoretische Maximalleistung ist eben nicht alles, Effizienz ist gefragt.


Beim NV4X vs R4XX hatte nVidia wieder mehr arithmetische Rechenleistung nur wurde es auch diesmal eher noch nicht gefordert und ATi konnte sich mit brachialer Rohleistung etwas absetzen.

R4XX hatte ein MADD plus ein ADD pro Pipeline, nV4x ein MADD plus ein MUL. Also gleich viele FLOPs/Takt, noch dazu stallte bei ATI bei Texturzugriffen nichts, und man hatte natürlich die wesentlich höhere Taktrate. Einen Vorteil hatte NV4x natürlich durch SM3, wodurch man sich ev. etwas ersparen konnte.

Gast
2007-01-02, 11:23:45
Aber mit deiner Annahme liegst du richtig:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3


wobei die werte hier nicht unbedingt das ware sind, da (zumindest bei mir auf der 6800GT) die demo deutlich spürbar langsamer als die full läuft.

aber ich denke dass die verhältnisse trotzdem einigermaßen stimmen.

AnarchX
2007-01-02, 13:48:03
Das interessiert die Besitzer der x1800, die dann (mehr oder minder) wissen, wie viel besser eine x1900 wäre.

Naja, da könnte man aber auch gleich GF6-Karten mitaufnehmen, die doch auch recht verbreitet sind oder warum nicht auch X800er... ;)
Alles würde wohl in einem Aufwand enden der von den Testern wohl nicht so einfach bewältigt werden kann.

=Floi=
2007-01-02, 14:31:37
naja aber es wäre mal schön ein openGL spiel zu sehen
uu prey oder quake wars
und dir/dem team ist eben so viel sachverstand und kompetenz zuzutrauen dass ihr schon im voraus einschätzen könnt wie welche karte bei dem spiel abschneidet

und es gibt eben nicht nur neue spiele sondern 10mal so viele alte (Far Cry, quake4, gothic 2 für den przessor test... )
warum kein HL episode2(/3)?
etc. uu sollte man mal einen thread dazu aufmachen was man überhaupt sehen will!
performance ist in einem 3d (online) shooter 100mal wichtiger wie in NFS:C :rolleyes:

Spasstiger
2007-01-02, 14:42:49
Leider fehlt ein Test mit deaktiviertem Motionblur. Die meisten NfS-Zocker schalten in Carbon Motion-Blur aus, weil es nervt und bessere Rundenzeiten verhindert. Außerdem kostet es zumindest auf den NV-Karten mächtig viel Leistung. Ein Test mit deaktiviertem Motionblur wäre also noch sehr interessant gewesen.

Undertaker
2007-01-02, 14:58:54
Hab ich auch nie abgestritten. Aber es gibts auch wieder andere Spiele, bei denen sie langsamer als ne X1950XTX ist. Aber weisst du was`? Das ist egal, weils hier nur um NFS Carbon geht - was bei Warmachine eben sicher nicht flüssiger läuft...

wenn die launchtreiber noch nicht ganz optimal sind, kann das vorkommen - aber selbst damit ist der sprung von x1950xtx -> 8800gts größer als der von 7950gt -> x1950xtx!

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/25/#abschnitt_performancerating

Madkiller
2007-01-02, 19:16:46
naja aber es wäre mal schön ein openGL spiel zu sehen
uu prey oder quake wars
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/index7.php


und dir/dem team ist eben so viel sachverstand und kompetenz zuzutrauen dass ihr schon im voraus einschätzen könnt wie welche karte bei dem spiel abschneidet
Ich schrieb es in diesem Thread schon mal, mache es aber gerne für dich nochmal deutlicher:
Spiele nach dem Faktor auszuwählen, wie gut es bei gewisser Hardware performen würde, wäre Manipulation.
Die gibts mit mir nicht.


warum kein HL episode2(/3)?
Kann man wo kaufen?
Hey, aber ich kann dir mit Ep1 dienen:
http://www.3dcenter.org/artikel/x1900xt_vs_7950gt/index6.php


etc. uu sollte man mal einen thread dazu aufmachen was man überhaupt sehen will!
Sowas in der Richtung?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332185
Ok, sry.
Es gibt ein Spiel, das mehr Stimmen als NFS:Carbon bekommen hat, was wir noch nicht getestet haben.
Aber ich teste halt auch erstmal Spiele, auf die ich auch selber Zugriff habe.

und es gibt eben nicht nur neue spiele sondern 10mal so viele alte (Far Cry, quake4, gothic 2 für den przessor test... )

Logisch. Hier sollen aber Spiele getestet werden, die möglichst aktuell sind, und damit noch mehrere auch wirklich spielen.

performance ist in einem 3d (online) shooter 100mal wichtiger wie in NFS:C :rolleyes:
Haste evtl auch irgendwelche Fakten die das belegen?

Gast
2007-01-02, 19:40:18
und es gibt eben nicht nur neue spiele sondern 10mal so viele alte (Far Cry, quake4, gothic 2 für den przessor test... )


warum alte spiele testen, die eh von allen getesteten hardwarekombinationen mehr als schnell genug sind?

Madkiller
2007-01-03, 00:53:12
Abschließend noch einmal eine kurze, konstruktive Kritik. Ein Punkt, der offensichtlich immer wieder für Verwirrung sorgt ist das Ausmessen der CPU-Limitierung bei 800x600. Die Grafiken sind überschrieben mit dem Namen des Spiels, in der Zeile darunter folgt "Core2Duo E6400 @3200 MHz (400x8)". Dann folgt die Legende mit den für meinen Geschmack immer noch zu kleinen Farbklecksen und dort taucht erneut der "C2D @800x600" auf. Der C2D @800x600" läuft natürlich auf Standardtakt und "Core2Duo E6400 @3200 MHz (400x8)" bezieht sich nur auf die Messungen der Grafikkarten, dies sollte man IMHO jedoch deutlicher voneinander abgrenzen, besonders da später im Artikel zu lesen steht, der Core 2 Duo E6400 würde sowohl auf Radeon X1900 XT als auch GeForce 7950 GT nirgendwo limitieren, da kann man unter Umständen schonmal kurz ins Stocken geraten und fragt sich, welcher C2D 6400 denn nun wo gemeint ist.

In diesem Artikel wurde schon wegen dem Feedback der letzten Artikel vor diesen Diagrammen folgender Text eingebaut:

"Und zum besseren Verständnis der CPU-Balken: Die weiss und schwarz umrandeten Messungen stellen bewußt CPU-limitiert angesetzte Messungen mit einem Athlon 64 X2 3800+ (weiss) und einem Core 2 Duo E6400 (schwarz) dar. Diese Messungen ergeben somit, welche Performance unter Ausschaltung des Effekts der Grafikkarten erreicht wird, was uns wiederum im Quervergleich mit den Grafikkarten-Messungen die Möglichkeit an die Hand gibt, mögliche CPU-Limitierungen mit schwächeren CPUs als dem bei den Grafikkartentests eingesetzten auf 3.2 GHz übertaketeten Core 2 Duo zu erkennen."

Aber was der Mißverständlichkeit wohl auch noch vorbeugen könnte wäre, wenn man die Diagrammüberschrift von "Core2Duo E6400 @3200 MHz (400x8)" in "Allendale @3200 MHz (400x8)" abändern würde. Wäre sehr simpel, und dann steht da nirgends was von nem E6400 und die Verwechslungsgefahr würde minimiert. :)

AnarchX
2007-01-04, 16:47:29
Leider fehlt ein Test mit deaktiviertem Motionblur. Die meisten NfS-Zocker schalten in Carbon Motion-Blur aus, weil es nervt und bessere Rundenzeiten verhindert. Außerdem kostet es zumindest auf den NV-Karten mächtig viel Leistung. Ein Test mit deaktiviertem Motionblur wäre also noch sehr interessant gewesen.

ack.
Wenn es auch nur wenige Werte sind, nur so zur Orientierung.
Nicht dass jetzt noch ein Leser denkt, dass die ATi-Karte auch ohne Motion-Blur so deutlich schneller ist und deshalb vielleicht einen Wechsel vollzieht und sich dann über einen geringen Leistungszugewinn wundert.

Madkiller
2007-01-04, 16:58:38
Hm, hättet ihr mir ein paar Quellen, wieviel MB auf den beiden Karten kostet?

PCGH_Carsten ohne Keks
2007-01-04, 17:34:24
Und in komischerweise rennen die NV-Karten in der PC-Games Hardware in der NFS-Reihe in den Benches den Ati-Karten davon.

Bei Most Wanted: Ja. Bei Carbon ist's genau andersrum - wann hast du die letzte PCGH gelesen?


PCGH_Carsten

PCGH_Carsten ohne Keks
2007-01-04, 17:35:51
Keine Ahnung was da PC Games Hardware getestet hat, es spiegelt jedoch nicht die Realität wider. Außerdem sagtest du NFS Serie. Das beschissene Performen betrifft nur die Carbon Reihe.
Die PCGH hat wohl richtig getestet (nach bestem Wissen und Gewissen). Der erste Gast hat jedoch ein falsches Statement abgegeben.


PCGH_Carsten

Gast
2007-01-04, 17:38:52
Das glaub ich nicht, Tim.

Bei gleichen Prozessoren, ist in dem Spiel die 8800GTS 'bloß' auf R580 Niveau...
Nö, das glaube ich nicht, Tim:
http://www.pcgameshardware.de/?menu=browser&article_id=533982&image_id=%20564262&show=original

PCGH_Carsten ohne Keks
2007-01-04, 17:41:07
Nö, das glaube ich nicht, Tim:
http://www.pcgameshardware.de/?menu=browser&article_id=533982&image_id=%20564262&show=original

Das war ich, sorry.

PCGH_Carsten

Madkiller
2007-01-04, 17:43:48
Naja, so Unrecht hat aber auch nach diesen Werten Mr.Lolman garnicht.
Bei Carbon trennen die beiden Karten gerade mal 10%...

Spasstiger
2007-01-04, 18:22:38
Hm, hättet ihr mir ein paar Quellen, wieviel MB auf den beiden Karten kostet?
Ich würde mal drauf tippen, dass sich bei einer GeForce 7950 GT die Framerate fast halbiert, wenn man Motionblur aktiviert. Bei einer X1900 XT dürfte der Verlust bei vielleicht 10% liegen. Mit Quellen kann ich nicht dienen, das ist nur meine ungefähre Einschätzung.

[dzp]Viper
2007-01-04, 19:21:52
Naja, so Unrecht hat aber auch nach diesen Werten Mr.Lolman garnicht.
Bei Carbon trennen die beiden Karten gerade mal 10%...

Negativ. Schau dir die Werte nochmal an - du hast wohl Carbon mit dem Vorgänger verwechselt ;)

1280x1024
36fps vs 22fps

1600x1200
27fps vs 15fps

Das sind eindeutig mehr als 10% ;)

dildo4u
2007-01-04, 19:32:46
@Viper es ging um 8800GTS vs 1950XTX bei Carbon also noch mal genau gucken. ;)

[dzp]Viper
2007-01-04, 19:42:28
@Viper es ging um 8800GTS vs 1950XTX bei Carbon also noch mal genau gucken. ;)

Shit :sneak:

Madkiller
2007-01-04, 19:58:09
Ich würde mal drauf tippen, dass sich bei einer GeForce 7950 GT die Framerate fast halbiert, wenn man Motionblur aktiviert. Bei einer X1900 XT dürfte der Verlust bei vielleicht 10% liegen. Mit Quellen kann ich nicht dienen, das ist nur meine ungefähre Einschätzung.
Darauf zu tippen ist ziemlich schwammig.
Aber ok, ich werde wohl diese Woche noch die GT einbauen, dann schau ich mal. :)

Gast
2007-01-04, 20:35:14
Ich würde mal drauf tippen, dass sich bei einer GeForce 7950 GT die Framerate fast halbiert, wenn man Motionblur aktiviert. Bei einer X1900 XT dürfte der Verlust bei vielleicht 10% liegen.

nö, kostet bei beiden recht viel, ~30-40%, auf der radeon zwar etwas weniger, der relative unterschied zwischen der 7900 und dem R580 verringert sich zwar ein wenig ist aber immer noch riesig.

was bei der GF auch verdammt viel leistung kostet ist shader-detail auf maximum, die reduktion um eine detailstufe bringt schon sehr viel, wobei es immer noch recht gut aussieht, wie das ganze auf der radeon aussieht weiß ich nicht.

Gast
2007-01-05, 15:31:43
Ich würde mal drauf tippen, dass sich bei einer GeForce 7950 GT die Framerate fast halbiert, wenn man Motionblur aktiviert. Bei einer X1900 XT dürfte der Verlust bei vielleicht 10% liegen. Mit Quellen kann ich nicht dienen, das ist nur meine ungefähre Einschätzung.

Dazu kann ich nur fragen:
Was machen die größenwahnsinnigen, debilen Programmierer eigentlich heutzutage für Scheiß. Ich mein ja nur, Blur hab ich ja schon auf dem Pentium1, N64 und auf der Playstation1 gesehen.

Madkiller
2007-01-05, 17:54:07
Aber ok, ich werde wohl diese Woche noch die GT einbauen, dann schau ich mal. :)
Also ich habe jetzt mal bei der R580 sowie bei der G70 und G80 geschaut, wie sich MotionBlur bei meinen Szenen* auswirkt. MB kostet - was bei den Szenen an sich schon ein wenig komisch ist - bei allen drei Karten ziemlich genau 10%.
Sprich: Ich kann mit gutem Gewissen sagen, daß sich auch ohne MB an den Relationen der Karten nichts geändert hätte, und auch so die Performance noch halbwegs genau auf ohne MB zutrifft. :)

btw
Ich habe ja auch mal ne Weile gespielt, um zu sehen, wie Praxisnah zumindest die fps-Werte meiner Szenen wären. Bei den Fahrten waren die fps nie (deutlich) niedriger als bei dem stressigsten der Startszenen - und das obwohl MB aktiviert war. Also entweder sind die Startszenen wirklich ziemlich stressig (wie es ja auch sein sollte) oder MB zieht doch nicht ganz so stark an der Performance, wie erwartet.



*da darf man nicht vergessen, daß man sich selber dabei nicht bewegt, und deswegen auch nicht direkt MB zum Einsatz kommt.

Banshee18
2007-01-05, 17:58:43
Du hast einen G80 und es gibt keinen Artikel dazu?:eek:
Ist da was in Arbeit?

Madkiller
2007-01-05, 18:00:13
Ne, die leihen die uns einfach so. :D

Für den Fall, daß der *hint* nicht ankommen sollte... Natürlich haben wir die für nen Artikel bekommen. ;)

Spasstiger
2007-01-06, 19:35:58
Hm, ohne Motionblur bleibt der Performanceunterschied? Was haben die Programmierer denn dann angestellt, dass das Spiel so mies auf GeForce-6/7-Karten läuft?

Banshee18
2007-01-06, 19:51:36
Hm, ohne Motionblur bleibt der Performanceunterschied? Was haben die Programmierer denn dann angestellt, dass das Spiel so mies auf GeForce-6/7-Karten läuft?
Was haben die nV-Ingenieure angestellt, dass viele Spiele so schlecht auf ihren Grafikkatern laufen?
Welche Aussage stimmt jetzt?:confused:

AnarchX
2007-01-06, 19:59:47
Was haben die nV-Ingenieure angestellt, dass viele Spiele so schlecht auf ihren Grafikkatern laufen?
Welche Aussage stimmt jetzt?:confused:

Bei Carbon würde ich doch schon etwas die Schuld eher bei den Programmieren vermuten, die dieses Game eben hauptsächlich für die XBox360 mit einer ATi-GPU entwickelt haben.
Aber da man wohl einen Großteil der Entwicklungskosten über die Konsolenversion einspielt, interessiert es EA weniger das der (halbherzige) PC-Port auf einer doch recht weit verbreiteten HW-Basis relativ mies performt.

Banshee18
2007-01-06, 20:04:44
Bei Carbon würde ich doch schon etwas die Schuld eher bei den Programmieren vermuten, die dieses Game eben hauptsächlich für die XBox360 mit einer ATi-GPU entwickelt haben.
Das klingt zwar vernünftig, ist aber alles nur Spekulation. Ich denke, kluge ISVs versuchen für beide Marken das Optimum herauszuholen.

Gast
2007-02-26, 16:22:00
Also eines leuchtet mir absolut nicht ein:
Wie kommt man darauf, dass eine Begrenzung der Auflösung auf 800x600, gepaart mit der Ausschaltung von Grafikeffekten und Filtern, den Anteil der reinen Rechenleistung der CPU ergibt?

Wenn ich diese These umdrehe, dann würde das bedeuten, die CPU errechnet in jedem Fall das eigentliche Bild und die Grafikkarte steuert nur besondere Effekte und Filter zur Bildverbesserung bei. Oder begehe ich da einen Denkfehler?

Egal welche Filter und Spezialeffekte bei einer Grafikkarte ausgeschaltet werden, die GPU mit heutzutage meist mehr als 500 Mhz Takt und der Grafikspeicher mit i.d.R. mehr als 600 Mhz Takt tragen doch auch bei 800x600 noch zum Bildaufbau bei.
Der reine Performancevergleich unterschiedlich getakteter Graifkkarten bei ausgeschalteten Effekten auf dem GLEICHEN Prozessor liefert mit Sicherheit auch schon unterschiedliche Werte.
Daher erscheint mir der Rückschluß

"Auflösung 800x600 plus abgeschaltete Effekte = Rechenleistung der CPU (bzw Limitierung durch die CPU)"

mehr als fragwürdig.

Für einen reinen CPU-Vergleich würde ich eine andere Formel wählen:
"Aktuelles Spiel + uralt Grafikkarte (Geforece1 oder 2 o.ä.) + aktuelle CPU und Speicherausstattung = Rechenleistung und Perfromanceunterschiede der aktuellen CPU's"

Um den - für die Praxis so wie so wenig relevanten - Wert der CPU-Leistungsunterschiede bei Spielen zu bekommen, muss das Spiel weder flüssig spielbar sein, noch toll aussehen.

Sollte ich einen grundsätzlichen Denkfehler gemacht haben, habe ich nichts gegen ene Berichtigung und Aufklärung ein zu wenden!

BlackBirdSR
2007-02-26, 16:42:41
Für einen reinen CPU-Vergleich würde ich eine andere Formel wählen:
"Aktuelles Spiel + uralt Grafikkarte (Geforece1 oder 2 o.ä.) + aktuelle CPU und Speicherausstattung = Rechenleistung und Perfromanceunterschiede der aktuellen CPU's"


Abgesehen davon dass die Spiele auf diesen Karten nicht funktionieren hättest du dann theoretisch folgende Konstellation:

CPU 1: Leistungsindex 10 -> 10fps
CPU 2: Leistungsindex 35 -> 10fps
CPU 3: Leistungsindex 100 -> 11fps.

Die Grafikkarte würde jeglichen Vergleich blokieren, da selbst die geringsten Einstellungen ihr mehr Arbeit abverlangen als die GPU liefern kann.
Um einen CPU Vergleich darzustellen, muss man die Grafikkarte möglichst aus der Gleichung nehmen. Also entweder Null-Renderer, oder möglichst wenig Last für die schnellste GPU die man finden kann.
Der Trick dabei ist dann die Einstellungen zu finden, die wenig CPU-Last erzeugen aber viel von der Grafikkarte wollen.
Es bringt auch nicht viel, wenn man CPUs vergleicht, aber sich dabei vom Spiel entfernt.

Eine niedrige Auflösung ist immer gut. Minimale Details dagegen nicht unbedingt. Da kommt es darauf an, welche Optionen von der CPU auch wirklich was wollen, und welche nicht.

Madkiller
2007-02-26, 16:54:33
Also eines leuchtet mir absolut nicht ein:
Wie kommt man darauf, dass eine Begrenzung der Auflösung auf 800x600, gepaart mit der Ausschaltung von Grafikeffekten und Filtern, den Anteil der reinen Rechenleistung der CPU ergibt?
Die CPU bestimmt, mit wieviel fps eine Szene dargestellt werden kann. Die GraKa bestimmt nur bei welchen Grafiksettings diese fps noch erreicht werden können, bzw mit welchen Settings die Szene noch spielbar ist. Es können aber nie mehr fps erreicht werden, als die CPU zuläßt.
Bei einer niedrigen Auflösung erhöht man also die Chance, daß die GraKa auch die fps schafft, die die CPU schafft, und damit die volle CPU-Leistung sichtbar wird.
Wenn ich diese These umdrehe, dann würde das bedeuten, die CPU errechnet in jedem Fall das eigentliche Bild und die Grafikkarte steuert nur besondere Effekte und Filter zur Bildverbesserung bei. Oder begehe ich da einen Denkfehler?
Naja. Die GraKa kann erst anfangen das Bild zu errechnen, wenn sämtliche Daten (was soll dargestellt werden?) von der CPU bereit stehen.
Egal welche Filter und Spezialeffekte bei einer Grafikkarte ausgeschaltet werden, die GPU mit heutzutage meist mehr als 500 Mhz Takt und der Grafikspeicher mit i.d.R. mehr als 600 Mhz Takt tragen doch auch bei 800x600 noch zum Bildaufbau bei.
Ja, ist bei 8x6 aber (meistens) nicht mehr der limitierende Faktor. Und da dann die CPU limitiert, kann auch dessen Performance ermittelt werden.
Der reine Performancevergleich unterschiedlich getakteter Graifkkarten bei ausgeschalteten Effekten auf dem GLEICHEN Prozessor liefert mit Sicherheit auch schon unterschiedliche Werte.
Nicht wenn die CPU limitiert. :)
Probiers einfach aus.
Für einen reinen CPU-Vergleich würde ich eine andere Formel wählen:
"Aktuelles Spiel + uralt Grafikkarte (Geforece1 oder 2 o.ä.) + aktuelle CPU und Speicherausstattung = Rechenleistung und Perfromanceunterschiede der aktuellen CPU's"
Dann würde aber mit hoher wahrscheinlichkeit immer die sehr langsama GraKa limitieren, und es wäre nicht möglich ein CPU-Limit herbeizuführen und damit deren Performance zu messen.
Um den - für die Praxis so wie so wenig relevanten - Wert der CPU-Leistungsunterschiede bei Spielen zu bekommen, muss das Spiel weder flüssig spielbar sein, noch toll aussehen.
Die CPU-Leistungsunterschiede sind bei den wenigsten Spielen unwichtig.

Gast
2007-02-26, 23:26:28
Offenbar verstehe ich den Begriff "CPU-Limitiert" falsch, oder?

Ich hatte angenommen, dass damit gemeint ist heraus zu finden, welchen Anteil der reinen Rechenleistung die CPU an der Grafikdarstellung und -geschwindigkeit hat.


Zitat:
Zitat von Gast Beitrag anzeigen
Um den - für die Praxis so wie so wenig relevanten - Wert der CPU-Leistungsunterschiede bei Spielen zu bekommen, muss das Spiel weder flüssig spielbar sein, noch toll aussehen.

Die CPU-Leistungsunterschiede sind bei den wenigsten Spielen unwichtig.

Ich meinte in diesem Fall auch nicht, dass die CPU-Leistungsunterschiede bei den Spielen unwichtig sind, sondern das die reine CPU-Performance nichts über die Gesamtperformance eines Computers aussagt.

Selbst ein mehrfach übertakteter Quad-Core Prozessor bringt nicht viel, wenn er mit DDR266 Speicher auf einem Asrock Mainboard (bitte nicht als Negativaussage zu Asrock werten!!) arbeiten muss und mit einer Festplatte, die nur 2 MB Cache hat und 5400 Umdrehungen schafft.

Andererseits ist es möglich einen alten Rechner mit AthlonXP oder Pentium4 um 20 bis 30 Prozent zusätzlich zu beschleunigen, ohne auch nur ein KHZ zu übertakten, indem man 2 schnelle SATA-Platten zu einem Stripe-Set zusammenschließt. Und das ist allemal billger, als sich ein neues Mainboard, neuen Speicher, CPU und GraKa zu kaufen.

Auch beim Bau eines komplett neuen Systems ist die reine Performance einer einzelnen Komponente völlig uninteressant. Ich versuche immer bei dem, was ich mir leisten kann, ein ausgewogenes Verhältnis möglichst gleich guter Komponenten zu bekommen, denn es bringt überhaupt nichts in eine Highend-Kpmponente zu investieren, wenn ich dann bei anderen Komponenten sparen muß, um mein Limit nicht zu überschreiten.

Anders sähe es da sicher aus, wenn ich ein Hardcore-Zocker wäre, der über Papas dickes Bankkonto frei verfügen könnte, dann bräuchte ich mir um finanzielle Limits keine Gedanken zu machen - aber wieviele können das schon von sich behaupten?

deekey777
2007-02-27, 13:30:54
Offenbar verstehe ich den Begriff "CPU-Limitiert" falsch, oder?
Wie wär's damit: "Das Spiel leidet unter dem Small-Batch-Problem." Und darunter leidet das ganze System.
http://img153.imageshack.us/img153/1603/nfscfk2.png
Egal mit welchen Einstellungen: Es gibt über weit über 2.000 Drawcalls, das zwingt jeden Rechner in die Knie.
"Auflösung 800x600 plus abgeschaltete Effekte = Rechenleistung der CPU (bzw Limitierung durch die CPU)"
Das ist schon richtig, auch wenn die CPU dafür nichts kann, denn die Grafikkarte idlet bei niedrigen Einstellungen. Sonst hat die Grafikkarte immer was zu tun.

Zu Motion-Blur: Die Pixelshader bleiben auch beim deaktivierten MB gleich beansprucht, aber der Wert shader_waits_for_rop sinkt um zwei Drittel, sprich beim aktivierten MB müssen die Pixelshader 23 % der Zeit auf die ROPs "warten", bis die Daten in den Framebuffer geschrieben sind (bei MB aus nur ~ 7%). Bei Shader Detail Low sinkt die Belastung der Pixelshader, also müssen sie auf die ROPs warten (fast 37 %).
Geklaut von hier: http://www.ixbt.com/video3/tech_nfsc.shtml

PCGH_Carsten
2007-02-27, 16:31:52
Und wie schaut's mit anderen Grafikkarten aus?

Ich habe gerade ebenfalls eine kleine Testreihe hinter mir und da schien das Batch-Problem weitaus weniger ausgeprägt - im Gegenteil: NfS Carbon skalierte prima mit der verfügbaren PS-Leistung. Eine X1650 XT verhaut eine 7900 GT um fast 30%.

X1800 GTO 24
X1600 XT 23
1.024x768, alle Details, kein AA/AF, C2D


Zu MB on/off:
X1600XT 23 -> 29 (+26%)
GF7600GT 22 -> 30 (+36%)
1.024x768, alle Details, kein AA/AF, C2D

CPU-Limit lag bei einer X1950 Pro in denselben Settings bei ca. 56 Fps - bis zu dieser Grenze scheinen die Drawcalls zumindest bei Zweikern-CPUs noch kein Problem darzustellen. Auch auf der XBox360, von der NfS Carbon geportet wurde, sollte sich das kaum auswirken - besonders, wenn man eine fixe Fps-Rate kleiner als 60 anpeilt.

Der Fluch der Consolenspiele...

edit:
Drawcalls -> Cubemapping?

deekey777
2007-02-27, 17:36:35
Wie es bei anderen Grafikkarten aussieht, weiß ich nicht, der Verfasser des Artikels scheint mit seinem eigenen Rechner als Testgerät zu schreiben, früher war noch eine X1800XL dabei (zum Testen der Auswirkungen einzelner Einstellungen, gibt es bei ATi ein ähnliches Tool wie NVPerfHUD).
X1800 GTO 24
X1600 XT 23
1.024x768, alle Details, kein AA/AF, C2D
Mich würde interessieren, wie hoch shader_waits_for_texture auf einer Radeon ist. Der bzw. die Werte bei der 7800GTX sind etwas höher als bei anderen Spielen (es geht noch höher zB in Prey (http://www.ixbt.com/video2/tech_prey.shtml), deutlich niedriger ist es in SS2 (http://www.ixbt.com/video2/tech_ss2.shtml)). Es wäre bei NFSC möglich, dass es bei der 7800GTX zum Stalling kommt.
Hier Call of Juarez (http://www.ixbt.com/video2/tech_coj.shtml):
http://img337.imageshack.us/img337/1502/cojqq8.png