PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8800GT übertakten bringt fast nichts?


Nobody
2007-11-27, 19:35:27
Hallo,
ich habe eine 8800GT und habe die ein wenig (660/950) übertaktet.
Doch bei 3DMark 06 bringt das ganze nur ca. 160 Punkte.
Bringt das übertakten der 8800GT wirklich so wenig?
Als Prozessor ist ein Q6600 in verwendung.

mfg.
Nobody

AnarchX
2007-11-27, 19:36:50
Dein Q6600 limitiert die Game-Tests, also mal ein nicht so cpu-lastigen Benchmark verwenden, dann wirst du größere Steigerungen messen können.

Razor
2007-11-27, 22:15:45
Na ja... 160 Punkte sind schon ein bissel wenig.
Allerdings stört es mich (schon wieder!), dass hier immer von irgendwelchen Gesamt-Schnuller gefaselt wird!

Warum kann man sich nicht mal die GXF-Scores anschauen?
Dan nist die CPU aussen vor, die beim Übertakten der Grafikkarte sowoeso keine anderen Werte liefert, oder?
:confused:

Wie dem auch sei... habe meine 8800GT ausgehend von den Standard-Takten 600/1512/900 übertaktet auf 700/1728/975.
(die Shader-Takte - die Werte in der Mitte - ergeben sich automatisch aus den GPU-Takten, den ersten Werten)

Das ergibt + 16,67% für die GPU und + 8,33% für den Speicher.

Hier sind die zugehörigen Murks06-Werte:
3DMark2006 (110) 169.09 169.09 Diff
std OC
------------------------------------------------
3DMarks 11.699 12.630 7,96%

-SM2 Score 5.384 5.982 11,11%
-SM3 Score (HDR) 5.152 5.706 10,75%
-CPU Score 2.866 2.857 - 0,31%
-Game Score 0 0 -

Game1 (SM2) 44,00 49,17 11,75%
Game2 (SM2) 45,74 50,53 10,48%
CPU1 (Game) 0,91 0,90 - 0,38%
CPU2 (Game) 1,45 1,45 - 0,25%
Game3 (HDR) 49,22 55,39 12,54%
Game4 (HDR) 53,81 58,72 9,13%

Fillrate(Single) 4841,59 5643,24 16,56%
Fillrate(Multi) 26030,14 29682,83 14,03%
Pixel Shader 460,06 520,30 13,09%
Vertex-S. simple 1601,76 2205,81 37,71%
Vertex-S. complex 122,14 142,11 16,34%
Shader Particles 118,20 129,00 9,13%
Perlin Niose 146,23 167,43 14,50%

Triangles - 8 40,34 40,45 0,29%
Triangles - 32 72,34 74,76 3,35%
Triangles - 128 275,29 284,05 3,18%
Triangles - 512 296,44 345,41 16,52%
Triangles - 2048 299,05 348,34 16,48%
Triangles - 32768 299,61 349,05 16,50%
Man sieht hier sehr schön, dass obwohl die beiden GFX-Werte um ca. 11% zugelegt haben, sich der Gessamt-Schnuller-Wert nur um 8% erhöht hat. Liegt halt daran, dass sich der CPU-Wert hier überhaupt nicht bewegt hat (in diesem Fall sogar leicht zum Negativen hin).

Was aber erstaunlich ist, ist der brutal schnellere "simple Vertex-Shader test", der nunmehr mit satten 37% vorne liegt... DAS ist faktisch unmöglich. Keine Ahnung, wie so etwas zustande kommen soll, aber vielleicht fällt anderen ja noch etwas dazu ein...

Wie dem auch sei, Du hast Deine GPU um 10% übertaktet und den Speicher um ca. 5,5%. So sollten zumindest 5% mehr Gesamt-Schnuller heaus springen... allerdings fehlt mir der Bezugspunkt zu den von Dir angegebenen 160 Gesamt-Schnullern "mehr".

Razor

P.S.: nur um Klarheit zu schaffen... übertaktet nur für diesen Test... vorher und auch wieder danach läuft das Kärtchen natürlich im Standard-Takt. Das, was mit diesem WinzOC (tm@Razor ;-) erreicht werden kann, ist mir eindeutig zu wenig. Obwohl... die 37% bei dem simpel VS-Test finde ich scho interesting... :D

Super Grobi
2007-11-27, 22:21:03
Aber was bringt einem das im RL?

10% sind doch affig. Gehen wir mal von wackeligen 25 FPS aus. Was kommt dann BESTENFALLS (!!!) bei rum? Genau --> 27,5 FPS. :|

Das übertakten einer Graka ist (meiner Meinung nach) überbewertet.

SG

p.s.
und am ende schmiert evt. doch noch das Game ab, weil das OCing nicht 100% stabil ist. Die Erfahrung hab ich in der Vergangenheit schon machen dürfen. Ati-Tool und alle Benchmarks liefen 100% und FEAR ist hin und wieder abgekotzt. @ default war dann auf einmal alles stabil.

Razor
2007-11-27, 22:25:09
Das übertakten einer Graka ist (meiner Meinung nach) überbewertet.
In diesem Fall... ja.
Ist ja auch der Grund, warum die 8800GT hier im Standard-Takt läuft.

Bei der 7900GT war das allerdings anders:
- Standard: 450/660
- Overclocked: 685/860

Das sind + 52% für die GPU und +30% für den Speicher.
Hier nicht zu OC'en würde heißen, massiv Leistung verschenkt zu haben!

Siehst Du hoffentlich ähnlich, oder?
:confused:

Razor

P.S.: wenn bei Dir was instabil war... egal ob beim Benchen oder beim Spielen... dann hast Du es übertrieben, so einfach ist das.
Wenn ich übertakte, dann einzig und allein mit 100%'iger Stabilität!

mike49
2007-11-27, 22:27:11
@Razor:

Wenn Du deinen C2D jetzt nochmal auf den 2.4GHz des Q6600 laufen läßt wirst Du merken, daß auch die 'reinen' GPU-Tests heftigst CPU-limitiert sind.

Super Grobi
2007-11-27, 22:28:43
Na logo sehe ich das "ähnlich" ;)

Da kam ja auch ordentlich was rum. Aber bei den ganzen neuen High-End Karten loht sich das nicht mehr. Der Takt ist immer schon default so hoch, das man gewaltig Übertakten müsste, damit es etwas bringt.

Meine HD 3870 läuft auch @ default.

SG

p.s.
mein OCing "damals" war auch 100% stabil. KEIN Game hat Probs gemacht. Wenn man das abcheckt, nimmt man das was man hat und verfügbar ist. Ich kann ja schlecht mit Games aus der Zukunft testen. FEAR hat mir aber dann doch gezeigt, das es nicht stabil ist. So kann es einem immer gehen. Daher rate ich davon ab (ausser, man kann solche Ergebnisse erreichen, wie du mit der alten Karte)

Raff
2007-11-27, 22:30:55
Meine HD 3870 läuft auch @ default.

SG

Topmodelle laufen idR am Limit, das Fertigung und Kühlung bei anständiger Ausbeute erlauben. Nehmt doch mal eine 8500 GT als Beispiel, deren GPU sich meist um mehr als 50% Prozent übertakten lässt. ;)

Die HD3850 ist auch prädestiniert für OC, ob sie nun HD3870-"Abfall" ist oder nicht.

MfG,
Raff

Razor
2007-11-27, 22:32:12
das man gewaltig Übertakten müsste, damit es etwas bringt.
Jo.
:up:

Razor

dargo
2007-11-27, 22:33:12
Bringt das übertakten der 8800GT wirklich so wenig?

Was hast du denn erwartet? Du hast die GPU um 10%, den Speicher um ~5,5% übertaktet. Im besten Fall (und das gilt nur bei extremen Settings, nämlich dann wenn deine Graka zu 100% limitiert) bekommst du also ~7-9% mehr Leistung. Sowas spürt man nicht. ;)

Razor
2007-11-27, 22:34:31
...8500 GT als Beispiel, deren GPU sich meist um mehr als 50% Prozent übertakten lässt. ;)
Ich hoffe, ich deute Deinen Smilie richtig...
Schließlich ist "äusserst miese Leistung" + 50% noch immer "äusserst miese Leistung".

Willst Du etwa behaupten, dass die 7900GT zu ihrer Zeit auch so lahme Krücken waren?
:confused:

Razor

Super Grobi
2007-11-27, 22:36:16
Ich hoffe, ich deute Deinen Smilie richtig...
Schließlich ist "äusserst miese Leistung" + 50% noch immer "äusserst miese Leistung".

Willst Du etwa behaupten, dass die 7900GT zu ihrer Zeit auch so lahme Krücken waren?
:confused:

Razor

Er wollte wohl eher damit zeigen, das eine nicht High-End Karte noch ordentlich Luft nach oben hat. (HEUTE!!!)

SG

Razor
2007-11-27, 22:37:10
Was hast du denn erwartet? Du hast die GPU um 10%, den Speicher um ~5,5% übertaktet. Im besten Fall (und das gilt nur bei extremen Settings, nämlich dann wenn deine Graka zu 100% limitiert) bekommst du also ~7-9% mehr Leistung. Sowas spürt man nicht. ;)
Er will es ja auch nicht 'spüren', sondern er will es 'sehen'...
...ein kleiner, aber feiner Unterschied.

Und 'sehen' wird er bei weitem keine 7-9%... maximal 6% vielleicht... bei den Gesamt-Schnullern.
Dies habe ich ja zumindest versucht, zu verdeutlichen...

Er wollte wohl eher damit zeigen, das eine nicht High-End Karte noch ordentlich Luft nach oben hat. (HEUTE!!!)
So frei nach dem Motto:
- Highend wenig übertakten ist sinnlos
- Lowend heftig zu übertakten ist noch viel dämlicher
oder wie?
:confused:

Razor

Raff
2007-11-27, 22:37:57
Ich hoffe, ich deute Deinen Smilie richtig...
Schließlich ist "äusserst miese Leistung" + 50% noch immer "äusserst miese Leistung".

Willst Du etwa behaupten, dass die 7900GT zu ihrer Zeit auch so lahme Krücken waren?
:confused:

Razor

Wie Grobi schon sagte. Die 7900 GT steht in einem Verhältnis zur 7900 GTX wie die HD3850 zur 3870. Gleiche GPU, vermutlich nicht einmal selektiert => geschaffen für OC. ;)

MfG,
Raff

Super Grobi
2007-11-27, 22:42:25
@Razor

Nach dem Motto: High-End läuft heute schon so hoch getaktet und am limit, das OCing nicht viel bringt, da man nicht weit kommt.


Wenn meine HD 3870 1000mhz GPU Takt und 1,5ghz Ram packen würde, käm da sicherlich schon in Games was rüber. Aber so...

SG

Razor
2007-11-27, 22:45:17
Wie Grobi schon sagte. Die 7900 GT steht in einem Verhältnis zur 7900 GTX wie die HD3850 zur 3870. Gleiche GPU, vermutlich nicht einmal selektiert => geschaffen für OC.
Öhm... nein.

Bei der GPU ja, klar... 670 zu 675.
Allerdings auch nur mit gleicher Kühlung... schade, dass die 3850 eine SingleSlot-Kühlung hat.
Und der Speicher... GDDR3 zu GDDR4... nochmals: schade eigentlich.

Ergo: nix gut zu OC.

Es sei denn natürlich, ich gebe dann nochmal 40€ für 'nen Kühler aus und freue mich auch auf der 3850 über die GPU-Takte der 3870... habe dann allerdings auch schon genauso viel ausgegeben... und den schlechteren Speicher. Insofern heißt es hier noch umso mehr: sinnlos. Der "HighEnd" RV670 liegt preislich nicht wirklich weit von der Karte darunter weg... ergo lohnt sich hier OC leider überhaupt nicht!

Schlechter 'Tausch'...

Razor

AnarchX
2007-11-27, 22:47:16
Richtig bringen würde wohl bei der 8800 GT VRAM-OCing, aber der verbaute 1.0ns Speicher ist ja leider sehr bescheiden vom Potential.

Wenn man sich da anschaut, was der 1.0ns Samsung auf der 8600 GTS so schafft (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/40/#abschnitt_uebertaktbarkeit).

Aber Zotac hat ja unter anderem schon angekündigt solchen zu verbauen und teilweise sind auch Karten mit 0.83ns Speicher in Asien aufgetaucht.;)

Razor
2007-11-27, 22:48:12
Wenn meine HD 3870 1000mhz GPU Takt und 1,5ghz Ram packen würde, käm da sicherlich schon in Games was rüber. Aber so...
Jo... versuche mir grad vorzustellen, wie die 8800GT mit der OC-Quote der 7900GT abgehen würde.
Oh ha... das wären statt der 600/900 schon mal satte 912/1173...
:D

teilweise sind auch Karten mit 0.83ns Speicher in Asien aufgetaucht.;)
Und keine Aussage bisher, ob die sich nun besser übertakten lassen, als die Default.
Gibt ja schließlich noch andere Methoden, Takte zu 'beschneiden'...

Und nein, den RAM zu übertakten, halte ich nicht für sonderlich sinnvoll.
Es werden heute noch bei weitem keine 60GB Bandbreite benötigt...

Für ultra hohe Auflösungen würde ich 'eh keine Karte aus dem Performance-Segment kaufen.

Razor

Super Grobi
2007-11-27, 22:51:22
Ati hat das wohl extra mit dem Ram bei der 3850 so gemacht. Dazu natürlich noch der kleinere Kühler. Man wollte vermeiden, das sich Leute nur die kleine kaufen und diese einfach Übertakten und so Geld sparen. Aus Herstellersicht völlig verständlich.

SG

Das Auge
2007-11-27, 22:56:47
Richtig bringen würde wohl bei der 8800 GT VRAM-OCing, aber der verbaute 1.0ns Speicher ist ja leider sehr bescheiden vom Potential.

So ist es. Gerade die min fps steigen dadurch deutlich. Zumindest theoretisch, bei den schlappen 50 MHz OC-Potenzial des Speichers bei meiner GT nimmt man das eh nicht wirklich war, aber es ist gut meßbar ;)

AnarchX
2007-11-27, 22:59:43
Und keine Aussage bisher, ob die sich nun besser übertakten lassen, als die Default.
Gibt ja schließlich noch andere Methoden, Takte zu 'beschneiden'...

Nuja, die Karte kommt nunmal schon mit 1.1GHz Auslieferungstakt (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6049608&postcount=1236) beim Speicher...


Und nein, den RAM zu übertakten, halte ich nicht für sonderlich sinnvoll.
Es werden heute noch bei weitem keine 60GB Bandbreite benötigt...

Für ultra hohe Auflösungen würde ich 'eh keine Karte aus dem Performance-Segment kaufen.

Das sehe ich anders, >60GB/s sind durchaus sinnvoll bei einer heutigen Performance-Karte erst recht wenn die meisten User mittlerweile 1680x1050-Display günstig erwerben können und HDR+MSAA(-TRAA) braucht auch nicht unerheblich Bandbreite.

Ati hat das wohl extra mit dem Ram bei der 3850 so gemacht. Dazu natürlich noch der kleinere Kühler. Man wollte vermeiden, das sich Leute nur die kleine kaufen und diese einfach Übertakten und so Geld sparen. Aus Herstellersicht völlig verständlich.
Eher zu bezweifeln, man wollte eben die BOM niedrig halten, dass man eine 3870 durch OCing nicht mehr völlig erreichen kann, ist hier eben nur ein Nebeneffekt.

Majestic
2007-11-27, 23:01:22
*Falscher Thread*

Super Grobi
2007-11-27, 23:03:45
*Falscher Thread*

Evt. will man die Spannungen der 70iger nur sehr stabil halten können, damit sie halt 100% stabil läuft.

SG

Edit: Ups, beim Quoten stand noch was anderes da.

Majestic
2007-11-27, 23:07:01
Evt. will man die Spannungen der 70iger nur sehr stabil halten können, damit sie halt 100% stabil läuft.

SG

Edit: Ups, beim Quoten stand noch was anderes da.

Hab in zwei Threads gleichzeitig gelesen und beim posten den falschen erwischt... :redface:

EDIT: Wobei das Sinn machen würde. Ich hatte jetzt nur auf die Unterschiedlichen Speicherarten getippt.

Razor
2007-11-27, 23:09:51
Nuja, die Karte kommt nunmal schon mit 1.1GHz Auslieferungstakt (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6049608&postcount=1236) beim Speicher...

Das sehe ich anders, >60GB/s sind durchaus sinnvoll bei einer heutigen Performance-Karte erst recht wenn die meisten User mittlerweile 1680x1050-Display günstig erwerben können und HDR+MSAA(-TRAA) braucht auch nicht unerheblich Bandbreite.
60GB sind auch dafür genug...

Vielleicht mache ich mir ja noch mal die Mühe und schau' mal, ob 8,3% mehr Bandbreite auch nur einen einzigen Prozentpunkt bringen... was dann aber nicht heißt, dass 22,2% mehr Bandbreite dann auch gleich knappe 3% bringen werden.

Wenn Du verstehst, wie ich das meine... ;)

Abwarten, denn wir werden ja sehen... hoffentlich.

Razor

Nobody
2007-11-27, 23:18:27
Jetzt hab ich meinen Q6600 auf 2,7Ghz übertaktet,meine 8800GT auf default lassen und habe jetzt um ca.1000 Punkte mehr.
Also dürfte doch CPU limitiert sein.
Beim ersten Test hatte ich im schnitt 10Frames mehr.

mfg.
Nobody

Das Auge
2007-11-27, 23:35:34
60GB sind auch dafür genug...

Das dachte ich auch, ist aber wohl doch nicht so. Zumindest fiel mir das beim Testen mit rthdribl, das ich immer als erstes anschmeiss für einen ersten OC-Test, extrem auf, da waren die min fps selbst bei nur 50 MHz Speicher-OC eindeutig ein gutes Stück höher.
Ich hab allerdings nicht umfangreiche savegame-Tests in zwei Dutzend Spielen gemacht, kann also auch sein, daß das Phänomen nur bei rthdribl auftritt und ich scheiße gelabert hab.

Super Grobi
2007-11-27, 23:38:28
Boah was hasse ich diese Abkürzerei hier im Forum bei Spieletitel.

Was bitte ist "rthdribl"?

SG

Raff
2007-11-28, 00:17:25
Boah was hasse ich diese Abkürzerei hier im Forum bei Spieletitel.

Was bitte ist "rthdribl"?

SG

Jedenfalls kein Spiel, sondern eine Heizung: http://www.daionet.gr.jp/~masa/rthdribl/

"Real-Time High Dynamic Range Image-Based Lighting"

Schreib das mal aus. ;D

MfG,
Raff

Razor
2007-11-28, 11:06:17
Jetzt hab ich meinen Q6600 auf 2,7Ghz übertaktet,meine 8800GT auf default lassen und habe jetzt um ca.1000 Punkte mehr.
Also dürfte doch CPU limitiert sein.
Beim ersten Test hatte ich im schnitt 10Frames mehr.
Was genau hast Du nicht an meinem Post verstanden?
:confused:

Wenn Du hier nicht die GFX-Werte (extra für Dich rot umrahmt) postest, kannst Du Dir die Gesamt-Scores sonst wo...
...sorry, war vielleicht etwas unhöflich.

Bitte poste die GFX-Werte und gerne auch separat den CPU-Wert.
Ich habe so die Befürchtung, dass sich letzterer alleinig erhöht hat.

Razor

P.S.: ups... habe das Bildchen gar nicht mit angehängt... also dann jetzt:

Grindcore
2007-11-28, 11:47:25
Echt mal wieder der Knaller, was Du hier ablässt, 60Gb/s= Bandbreite im Überfluss... Warum? Weil Razor eine Karte besitzt, die nicht mehr hergibt. Zu köstlich.

Gast
2007-11-28, 13:49:09
60GB sind auch dafür genug...


mit 8xMSAA und HDRR wohl kaum.

Nobody
2007-11-28, 22:38:03
Hab jetzt noch einmal 3DMark 06 durchlaufen lassen:
Q6600@3,0
8800GT@default

3Dmarks : 13967
SM2,0 5750
HDR/SM3,0 5801
CPU 4716

Coda
2007-11-29, 00:12:41
Das dachte ich auch, ist aber wohl doch nicht so. Zumindest fiel mir das beim Testen mit rthdribl, das ich immer als erstes anschmeiss für einen ersten OC-Test, extrem auf, da waren die min fps selbst bei nur 50 MHz Speicher-OC eindeutig ein gutes Stück höher.
Ich hab allerdings nicht umfangreiche savegame-Tests in zwei Dutzend Spielen gemacht, kann also auch sein, daß das Phänomen nur bei rthdribl auftritt und ich scheiße gelabert hab.
Naja, rthdribl dürfte extrem an der Speicherbandbreite hängen, deshalb ist das da der Bottleneck. Da ist klar dass jede erhöhung der Speicherfrequenz praktisch linear ins Ergebnis einfließt.

In Spielen wird aber schon deutlich mehr gerechnet ;)

Digg
2007-11-29, 10:47:27
Ich erreiche mit OC auch nicht viel mehr beim 3DM06.

Zotac 8800GT

660/1600/900 = 124xx 3DMarks

725/1757/1000 = 126xx 3DMarks

Allerdings habe ich nur einen E2160 @3GHz. Denke, hier limitiert die CPU und vermutlich wird man grössere Unterschiede sehen, wenn man noch AA+AF aktiviert, oder eine höhere Auflösung nimmt.

Hirnverband
2007-11-29, 11:34:18
Ah, sowas wie diesen Thread hier habe ich gesucht. Ich habe irgendwie auch das Gefühl, dass das Übertakten bei meiner 8800 GT nicht wirklich was bringt. Zum Beispiel verändern sich die average-FPS beim GPU-Benchmark von Crysis kaum, wenn ich die Karte übertakte - zwischen 600 und 700 MHz Chiptakt liegen grade mal 3 FPS, das kommt mir schon recht niedrig vor. Und was noch komischer ist: Wenn ich die Karte übertakte, sinken sogar die min-FPS und das kann doch eigentlich nicht sein,oder?

Mumins
2007-11-29, 11:49:27
Hat eine 7900GT nicht 550MHz GPU Takt, 450 sind es bei der GS.
Edit, gab wohl ne 256MB Version mit nur 450 Mhz.

Spasstiger
2007-11-29, 12:02:13
Die 8800 GT ist mit hoher AA-Qualität und bei hohen Auflösungen leider sehr limitiert durch den Speicher und die Bandbreite. Da hilft dann auch Shader-OC nix mehr.

Gast
2007-11-29, 12:02:34
Ah, sowas wie diesen Thread hier habe ich gesucht. Ich habe irgendwie auch das Gefühl, dass das Übertakten bei meiner 8800 GT nicht wirklich was bringt. Zum Beispiel verändern sich die average-FPS beim GPU-Benchmark von Crysis kaum, wenn ich die Karte übertakte - zwischen 600 und 700 MHz Chiptakt liegen grade mal 3 FPS, das kommt mir schon recht niedrig vor. Und was noch komischer ist: Wenn ich die Karte übertakte, sinken sogar die min-FPS und das kann doch eigentlich nicht sein,oder?

3fps mit welcher basis? 28 statt 25 fps sind immerhin 12% bei 16% übertaktung.

die aussagekraft der min-fps geht gegen 0, deshalb einfach nicht beachten.

Hirnverband
2007-11-29, 12:05:00
Die 8800 GT ist mit hoher AA-Qualität und bei hohen Auflösungen leider sehr limitiert durch den Speicher und die Bandbreite. Da hilft dann auch Shader-OC nix mehr.
Naja, ich habe das aber bei 1024x768 und 1280x1024 getestet - und jeweils ohne AA, denn das kann ich mir bei Crysis sowieso abschminken. Zumindest die Min-FPS sollten sich doch durch übertakten steigern. Komischerweise habe ich bei Crysis auch bei geringeren Auflösungen schlechtere Min-FPS als bei höheren Auflösungen!

3fps mit welcher basis? 28 statt 25 fps sind immerhin 12% bei 16% übertaktung.

die aussagekraft der min-fps geht gegen 0, deshalb einfach nicht beachten.
Warum sollten die Min-FPS keine Aussagekraft haben? Die Avg-FPS sind von 32 auf 35 gestiegen, das ist dann eine Steigerung von 10 Prozent, was natürlich grundsätzlich ganz okay ist - es kommt einem aber eben sehr gering vor!

Gast
2007-11-29, 18:49:00
Warum sollten die Min-FPS keine Aussagekraft haben?

weil die messdauer zu kurz ist.

wenn du in 10min 18000 frames zu sehen bekommst hast und davon 17999 frames 33ms brauchen und 1 frame 200ms braucht, hast du AVG wunderbar spielbare 30fps, minimum aber schreckliche 5fps, die du real aber kaum merken wirst.

Ph0b0ss
2007-11-29, 20:43:41
Hab mal mit meiner alten 8800GTS die Bandbreite der 8800GT mit 3dmark06 simuliert.

Dabei hab ich die GPU immer auf Standard gelassen (513/1188 TMU/Shader) und den Speicher einmal auf Stadard (792Mhz) und einmal auf 8800GT GPU-Power/Speicherbanbreitenverhältnis (505Mhz:eek:).

Das Ergebnis ist, entsprechend der miesen Bandbreite, ein Desaster:

Worst-Case (=Deep Freeze Test) 3dmark06@:

1280x1024 1xAA 1xAF: 18,3% Mehrleistung für GTSalt-Bandbreitenverhältnis
1280x1024 4xAA 16xAF: 30,3% Mehrleistung für GTSalt-Bandbreitenverhältnis
1920x1200 4xAA 16xAF: 34,8% Mehrleistung für GTSalt-Bandbreitenverhältnis

Bei 972Mhz Speichertakt @1920x1200 4xAA 16xAF: 50,2%! Mehrleistung gegenüber GT-Bandbreite bzw. 11,4% Mehrleistung gegenüber GTSalt-Bandbreite.

Fazit: Die 8800GT ist regelrecht verkrüppelt und verhungert extrem an Bandbreite, bei der neuen GTS ist es dementsprechend noch schlimmer! Da die alte GTS aus 22% mehr Bandbreite als Default auch noch bis 11% Mehrleistung rausholt, müsste eine 8800GT also mindestens 1400Mhz Speichertakt (GTSalt GPU-Power/Bandbreitenverhältnis), besser 1600-1700Mhz Speichertakt (alles bei 256bit) besitzen, um die volle GPU-Power ordentlich umzusetzen! Sinnvoll wär daher also ein 384bit Interface @0,9-1,1Ghz gewesen.

PS: Sollte NV irgendein Wunder-Bandbreitenschoner in den G92 eingebaut haben, nehme ich alles zurück.:tongue:

Gast
2007-11-29, 21:07:17
je mehr allerdings gerechnet wird, desto weniger bandbreite ist pro pixel notwendig.

Razor
2007-11-30, 08:50:25
mit 8xMSAA und HDRR wohl kaum.
Mit 'meiner' Auflösung von 1280x1024?
Kein Problem...

Hab jetzt noch einmal 3DMark 06 durchlaufen lassen:
8800GT@default
SM2,0 = 5750
HDR/SM3,0 = 5801
Und jetzt nochmal OC'd bitte... danke!
;)

...3DMarks....
Schreibe ich irgendwie in kyrillisch?
:confused:

Hat eine 7900GT nicht 550MHz GPU Takt, 450 sind es bei der GS.
Edit, gab wohl ne 256MB Version mit nur 450 Mhz.
Nein.
Allerdings gab es (natürlich) OC-versionen der 7900GT.

Hab mal mit meiner alten 8800GTS die Bandbreite der 8800GT mit 3dmark06 simuliert.

Dabei hab ich die GPU immer auf Standard gelassen (513/1188 TMU/Shader) und den Speicher einmal auf Stadard (792Mhz) und einmal auf 8800GT GPU-Power/Speicherbanbreitenverhältnis (505Mhz:eek:).
Das kannst Du so leider nicht...
Offenbar geht der G92 effizienter mit der Bandbreite um, als es der G80 tat.

Auch wären absolute Zahlen in Deiner Betrachtung sehr sinnvoll gewesen, aber unter Umständen wäre Dir dann gezeigt worden, wie "verkrüppelt" Deine GTS dann eigentlich gewesen wäre ;)

Und für die Vollständigkeit:
320Bit vs. 256Bit = +25% Banbreite
900MHz vs. 800MHz = +12,5% Bandbreite
G92 Effizienz vs. G80 = +??,?% Bandbreite

Ergo: 8800GT mit 256Bit/900MHz und effizienterer Bandbreitennutzung ~ 8800GTS mit 320Bit/800MHz

Ist aber nichts Neues, denn das ist auch das, was von so ziemlich allen Seiten bestätigt wurde:
In der Bandbreite nehmen sich GT vs. GTS nichts, in der Shader-Power ist die GT der GTS allerdings deutlich überlegen.

Razor

Hirnverband
2007-11-30, 08:54:59
Ich habe noch mal ne Frage zu euren Werten im 3DMark06. Razor hat in Post 3 ja seine Werte aufgeführt, er hat mit der unübertakteten 8800 GT einen SM2-Score von 5384 Punkten und einen SM3-Score von 5152 Punkten. Ich habe mit meiner 8800 GT hier lediglich 4100 Punkte (SM2) und 4500 Punkte (SM3). Wieso sind denn meine Werte so viel niedriger? Das ist ja nicht nur eine kleine Abweichung! Die CPU hat damit ja eigentlich nix zu tun, oder?

robbitop
2007-11-30, 10:19:23
Und nein, den RAM zu übertakten, halte ich nicht für sonderlich sinnvoll.
Es werden heute noch bei weitem keine 60GB Bandbreite benötigt...
In diesem Fall liegst du daneben.

Es ist extrem, wie die 8800GT mit MSAA einbricht (wenn man dagegen die anderen Mitglieder der GF8 Familie vergleicht). Der CB-Test zeigt dies ziemlich gut.

Eine 8800 GT ist von der Rohleistnug deutlich schneller als eine 3870 (sieht man schön ohne MSAA auch bei höheren Auflösungen). Der üble Bandbreitenflaschenhals läßt die 8800GT (bsw in Cryis) allerdings mit MSAA einbrechen. Inwiefern eine VRAM Limitierung vorliegt, müßte man mal mit dem Rivatuner messen.

Auflösung hat übrigens nichts mit dem Verhältnis Bandbreite/Rohleistung zu tun. Beide Bedarfe steigen mit steigender Auflösung linear zu gleichen Teilen. Nur ist es die Bandbreite die den Flaschenhals darstellt.

Razor
2007-11-30, 11:02:28
Habe mit dem Murks06 nun auch mal ein bissel gebencht...
Dabei ist mir aufgefallen, dass nicht der "Deep Freeze" an der Bandbreite hängt, sondern vor allem der "Shader Particles (SM3)".

Zum Test habe ich separat GPU- und Speicher-Takt angehoben, um auszuschließen, dass dort Quereffekte zum Tragen kommen.

600MHz 700MHz/noAA 700MHz/4xAA
-----------------------------------------------------
DeepFreeze
-----------------------------------------------------
900MHz 53,8 57,0/ 5,9% 32,2/-43,5%

975MHz 55,4 58,8/ 6,1% 33,9/-42,3%
+8,3% +3,0% +3,2% +5,3%

990MHz 55,8 59,3/ 6,3% 34,3/-42,2%
+10,0% +3,7% +4,0% +6,5%
-----------------------------------------------------
ShadPartSM3
-----------------------------------------------------
900MHz 118,2 120,6/ 2,0% 96,8/-19,7%

975MHz 126,3 129,1/ 2,2% 102,7/-20,4%
+8,3% +6,9% +7,0% +6,1%

990MHz 128,7 131,6/ 2,3% 104,1/-20,9%
+10,0% +8,9% +9,1% +7,5%
-----------------------------------------------------
Horizontal GPU-, vertikal RAM-Takte. Die Prozente unter den Werten beziehen sich immer auf den Default-Speicher-Takt von 900MHz, die Prozente hinter den Werten hingegen auf die vorherige Spalte (700 zu 600MHz, 4xAA zu noAA bei 700MHz).

Das Ganze dann einmal für den GameTest4 (DeepFreeze) und einmal für den "Shader Particles SM3" Test...

Jeder kann dies anhand der Zahlen bei sich selber nachvollziehen, wenn er mag...
...bei den 'Werten' von phoboss geht das nicht.

Ich weiß jetzt nicht, was da bei phoboss mit seinem G80/GTS falsch gelaufen ist, aber man kann eigentlich sehr gut sehen, dass hier alles im grünnen Bereich ist. Der Partikel-Test nimmt sich etwa 90MB VRAM (bei 4xAA), der DeepFreeze etwa 285MB... die VRAM-Menge limitiert hier also auf keinen Fall.

Sehr schön auch zu sehen, dass das AntiAliasing bei DeepFreeze mit 42-43% ganz schön rein haut und auch erst mit AntiAliasing wirklich mit dem RAM-Takt skaliert... allerdings immer noch nicht so gut, wie der Partikel-Test selbst ohne AA.

Um also die Bandbreite mit dem 3DMurks06 zu 'messen', sollte man also besser den "Shader Paticles SM3" Test nutzen.
Und reine Prozentwerte ohne Bezug zu posten, bringt natürlich rein gar nichts...
...den einzigen Aussagegehalt, den ich aus den Prozenten von phoboss entnehme, ist, dass da irgendetwas bei ihm oder aber generell dem G80 mächtig schief läuft.

Razor

Razor
2007-11-30, 11:08:24
In diesem Fall liegst du daneben.
Das sehe ich anders...

Der üble Bandbreitenflaschenhals läßt die 8800GT (bsw in Cryis) allerdings mit MSAA einbrechen. Inwiefern eine VRAM Limitierung vorliegt, müßte man mal mit dem Rivatuner messen.
Also mit meiner Config (vhigh mod, shadows medium und ein paar superhigh-tweaks nebst InGame 2xAA und CP 8xHQAF) liegt die VRAM-Auslastung schon bei 100% (es wird also schon ein wenig 'ausgelagert'... im Maximum so 20MB, ohne allerdings zu 'ruckeln' ;-). Wenn man nun z.Bsp. 4xAA einstellt, wird ganz erheblich ausgelagert und das Ganze wird vollkommen unspielbar. Insofern ja, hier wirken sich eindeutig die 640MB vs. 512MB VRAM aus... anders sind diese Werte nicht zu erklären (zumal wieder andere Vergleiche dies auch stützen).

Wie immer ist Crysis generell ein schlechtes Beispiel (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/20/#abschnitt_crysis), denn auch alle anderen Karten (egal, welcher Coleur) brechen hier extrem ein... vor allem, wenn man AA dazu nimmt. Und "unspielbar bei 15fps" bzw. "unspielbar bei 18fps" unterscheiden sich nicht wirklich, auch wenn bei den 18fps ein 'Vorteil' von locker 20% liegt.

Ich hoffe, das Du zumindest das ähnlich siehst...

Und bedenke auch, dass obwohl die 8800GT der 8800GTS hinsichtlich des Speicher-Interfaces im Nachteil sein müsste, wirkt sich das RL nicht aus:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/23/#abschnitt_performancerating_qualitaet

Sie liegt IMMER vor der GTS und das, obwohl sich hier hinsichtlich der Bandbreite ein effektiver Nachteil ergeben sollte. Aber klar... der Bandbreiten-Vorteil der 320Bit ggü. der 256Bit ist ja auch 'nur' 25%... im Vergleich zu GTX/Ultra sieht das dann schon ein bissel anders aus, da hier 384Bit vs. 256Bit verglichen werden müssen... sind dann schon lockere 50% Vorteil... und das schon bei der GTX mit gleichem Takt. Die Bandbreiten-schonenden Maßnahmen werden ganz sicher keinen Vorteil von 50% ausgleichen können... den Mini-Vorteil einer GTS in Höhe von 12,5% wohl aber schon.

Mehr wollte ich damit nicht sagen...
...ausser natürlich noch, dass die Werte und überhaupt die 'Verleiche' von phoboss vollkommen unsinnig sind. ;)

Razor

Hirnverband
2007-11-30, 11:10:23
@Razor
Wie kommst du beim 3DMark06 mit der unübertakteten 8800 GT auf so hohe Werte (jeweils über 5.000 Punkte beim SM2 & 3)? Ich komme da grade mal auf 4.100 und 4.500 Punkte? Was hast du im Treiber eingestellt? Bei mir steht er auf hohe Qualität. Oder spielt mein X2 auch mit ins GFX-Ergebnis rein?

Razor
2007-11-30, 11:18:49
Ich habe noch mal ne Frage zu euren Werten im 3DMark06. Razor hat in Post 3 ja seine Werte aufgeführt, er hat mit der unübertakteten 8800 GT einen SM2-Score von 5384 Punkten und einen SM3-Score von 5152 Punkten. Ich habe mit meiner 8800 GT hier lediglich 4100 Punkte (SM2) und 4500 Punkte (SM3). Wieso sind denn meine Werte so viel niedriger? Das ist ja nicht nur eine kleine Abweichung! Die CPU hat damit ja eigentlich nix zu tun, oder?Wie kommst du beim 3DMark06 mit der unübertakteten 8800 GT auf so hohe Werte (jeweils über 5.000 Punkte beim SM2 & 3)? Ich komme da grade mal auf 4.100 und 4.500 Punkte? Was hast du im Treiber eingestellt? Bei mir steht er auf hohe Qualität. Oder spielt mein X2 auch mit ins GFX-Ergebnis rein?
Ich habe auch Deinen vorherigen Post schon gelesen... aber was soll ich dazu sagen?
Vor allem, wenn ich Dein restliches System nicht 'kenne'?
:confused:

Und was bitte ist bei Dir ein "X2", welcher hinein spielen könnte?

Razor

Hirnverband
2007-11-30, 11:25:40
Mit X2 meine ich meine CPU, ein X2 3800, der mit 2.600 MHz läuft. Das Gesamtergebnis des 06 ist ja stark von der CPU abhänging und deshalb habe ich da weniger Punkte als Leute mit einem C2D, aber den GFX-Score sollte das doch eigentlich nicht beeinflussen, oder?

Das System ist im Moment Folgendes: X2 3800 (2.600 MHz), 8800 GT (600/900), 2 GB Ram, WinXP, Forceware 169.09 (hohe Quali). Damit habe ich das Ergebnis von 4100 Punkten (SM2) und 4500 Punkten (SM3). Und das ist ja im Vergleich zu deinen Werten sehr niedrig. Und ich frage mich, woran das liegen könnte!

Grindcore
2007-11-30, 11:28:08
Ja, die CPU-Leistung hat definitiv auch Einfluss auf die SM 2.0/ SM 3.0 Ergebnisse des 3DMark 2006. Nach meinem Systemwechsel bspw. stieg der CPU-Wert lediglich um ca. 600 Punkte, der Gesamtscore aber um beinahe 2000. Bei exakt gleich getakteter Grafikkarte und dem selben Treiber.

Hirnverband
2007-11-30, 11:39:24
Ja, die CPU-Leistung hat definitiv auch Einfluss auf die SM 2.0/ SM 3.0 Ergebnisse des 3DMark 2006. Nach meinem Systemwechsel bspw. stieg der CPU-Wert lediglich um ca. 600 Punkte, der Gesamtscore aber um beinahe 2000. Bei exakt gleich getakteter Grafikkarte und dem selben Treiber.
Aber wohl nur insoweit, dass man mit einer schnelleren CPU mehr FPS in den Gametests bekommt. Aber das Ergebnis berechnet sich direkt aus den in den Tests erzielten FPS. Was habt ihr denn im Treiber eingestellt, wenn ihr den 3DMurks laufen lasst? Leistung für maximale FPS oder hohe Quali wegen der Bildqualität?

Razor
2007-11-30, 11:40:05
Wenn die CPU stark limitiert, also nicht einmal mehr genug Polygone für den Treiber/die GraKa heran geschafft werden können, dann wirkt sich natürlich auch dieser Zustand auf die reinen GFX-Ergebnisse aus.

Mit halbwegs modernen CPUs/Plattformen sollte dies aber nicht problematisch sein...

@Grindcore

Mich würde bei Dir mal interessieren, welche CPUs (samt Takt) da getauscht wurden.
Und es wären natürlich alle Werte interessant, nicht nur CPU-Wert-Erhöhung (auf welcher Basis?) und Gesamt-Scrore...
(was ich ja schon die ganze Zeit in diesem Thread 'predige' *grmpf*)

@Hirnverband

Eine massiv übertaktete A64X2-CPU also (2GHz +30%, korrekt?)...
Musstest Du hier irgendwelche Tradeoffs eingehen... z.Bsp. ungünstigere Speicherlatenzen?
Ist Dein Speicher synchron oder asynchron getaktet?
Ist bei AMD-Systemen oft ein Problem... muss aber nicht.

Ein paar weitere Infos wären also noch interessant: Multi, FSB, Speichertakt, Speicherlatenzen...
(und auch Chipsatz z.Bsp.)

Leistung für maximale FPS oder hohe Quali wegen der Bildqualität?
Das wäre ja schon fast 'Betrug'... ;)

Nein, selbstverständlich all AA-Parameter auf Default (GC on, TAA off, appAA) und die AF-Parameter auf "MaximumQuality" (i.e. LOD-Clamp, AnisoOpts off, TriOpt off, "High Quality"). VSync ist bei mir per Default immer off, sollte vom Murks aber auch selbst so eingestellt werden, wenns auf "appVSync" steht.

Razor

Hakim
2007-11-30, 11:47:47
GT@default (musste meine karte runtertakten, da ab werk etwas oc)

http://666kb.com/i/atyqovyb9b773e7m6.jpg

GT@720/1782/1026 mhz

http://666kb.com/i/atyqq1i7wuq64wkr2.jpg

GT1 10,46%
GT2 7,67%
HDR1 17,13%
HDR2 12,97%

Hirnverband
2007-11-30, 12:04:39
@Razor
Puh, die ganzen Infos habe ich jetzt nicht parat. Da muss ich nachher mal schauen. Chipsatz ist der nforce4, glaube ich. Ich habe auf jeden Fall den Speicherteiler runtergesetzt und betreibe den Speicher mit höheren Taktraten und niedrigeren Timings. Das ist aber alles stabil und getestet.

@Hakim
Ist doch ne schöne Steigerung. Was hattest du im Treiber eingestellt - Leistung oder Qualität? Du hast auch wesentlich höhere Werte als ich. Komisch, als wenn meine 8800 GT ne Bremse eingebaut hätte! Ich muss mir das am Wochenende noch mal in Ruhe ansehen.

Hakim
2007-11-30, 12:11:39
@Hakim
Ist doch ne schöne Steigerung. Was hattest du im Treiber eingestellt - Leistung oder Qualität? Du hast auch wesentlich höhere Werte als ich. Komisch, als wenn meine 8800 GT ne Bremse eingebaut hätte! Ich muss mir das am Wochenende noch mal in Ruhe ansehen.

Ich lasse immer auf Quali stehen. Vielleicht hackt es irgendwo bei dir? Welches OS und Treiberversion hast du?

Hirnverband
2007-11-30, 12:13:49
Ich lasse immer auf Quali stehen. Vielleicht hackt es irgendwo bei dir?
Echt komisch, das kommt mir auch so vor. Nur habe ich keine Ahnung, wo es haken könnte. Vielleicht sollte ich mein System mal wieder komplett neu aufsetzen, das fahre ich jetzt schon eine ganze Weile.

Gast
2007-11-30, 12:16:09
Mit 'meiner' Auflösung von 1280x1024?
Kein Problem...


das verhältnis an bandbreitenbedarf zu rechenleistung wird von der auflösung so gut wir garnicht beeinflusst.

selbst die 8800GTX/ultra hat für FP16-HDR+8xMSAA zu wenig bandbreite im verhältnis zur rechenleistung. wenn dann noch andere bandbreitenfressende techniken wie deferred-shading zum einsatz kommen sieht es noch schlimmer aus (schau mal den extremen einbruch bei stalker mit MSAA an, mit den neuen treibern funktioniert das ja).

an der effizienz der bandbreitenausnutzung kann der G92 auch nichts großartiges ändern, da die vorgänger schon sehr effizient sind. eine steigerung von "sehr effizient" auf "extrem effizient" wirkt sich eben kaum mehr aus, da schlägt das gesetz des abnehmenden grenzertrages gnadenlos zu. (abgesehen davon ist eigentlich davon auszugehen dass sich an der speicherverwaltung nicht wirklich was geändert hat)

Grindcore
2007-11-30, 12:39:48
Ich für meinen Teil habe immer hohe Qualität im Treiber eingestellt, der Unterschied ist beim G80 ohnehin zu vernachlässigen.

Ja, die Einzeltests wären sicher aussagekräftiger und wie der CPU-Wert letztlich im Gesamtscore gewichtet wird ist sicherlich auch von Bedeutung. Vielleicht teste ich das mal interessehalber.

Der Systemwechsel vollzog sich im übrigen von einem S939 X2@2,94Ghz auf einen C2D@3,2Ghz (Conroe), Letztgenannter ist bei einigen Tests (Aquamark bspw.) bis zu 50% schneller.

Naja, eigentlich wollte ich mich an der Diskussion ohnehin nicht beteiligen, weil die ~30% Übertaktung meiner 640er GTs in jedem Fall ne Menge bringt.^^

Ph0b0ss
2007-11-30, 16:30:35
Und für die Vollständigkeit:
320Bit vs. 256Bit = +25% Banbreite
900MHz vs. 800MHz = +12,5% Bandbreite
G92 Effizienz vs. G80 = +??,?% Bandbreite

Ergo: 8800GT mit 256Bit/900MHz und effizienterer Bandbreitennutzung ~ 8800GTS mit 320Bit/800MHz


GTSalt: 500Mhz * 48TMU = 24000
GTneu: 600Mhz * 56TMU = 33600

Ergibt: ~40% mehr Power für Gtneu (oder GT = 1,4x GTSalt)

GTSalt: 1200 * 96 Shader = 115200
GTneu: 1500 * 112 Shader = 168000

Ergibt: ~46% mehr Power für Gtneu (oder GT = 1,46x GTSalt)

Im Durchschnitt also ~43% (oder GT = 1,43x GTSalt)

Jetzt Speicher:

GTSalt: 800Mhz * 320bit = 256000
GTneu: 900Mhz * 256bit = 230400

Ergibt: ~11% mehr Banbreite für GTSalt (oder GT = 0,9x GTSalt)

----
Gesamt: GTneu hat im Verhältnis ~59% mehr oder 1,59x soviel Rechenleistung auf gleicher Bandbreite wie GTSalt.


Das Verhältnis TMU/Shaderpower - Speicherbandbreite ist also bei der alten GTS deutlich besser. Bei der GT kommen im Verhälnis ~59%! mehr Rechenleistung auf die gleiche Banbreite, als bei der GTSalt. Anders ausgedrückt: Die GT hat nur ~63% der Speicherbanbreite für gleiche Rechenleistung wie die GTSalt! Ich kann mir nicht vorstellen, dass dieser krasse Rückstand an Banbreite, durch irgendwelche Optimierungsmaßnahmen zur Bandbreitenschonung, wieder hereingeholt wird!


... den Mini-Vorteil einer GTS in Höhe von 12,5% wohl aber schon.


So werden aus dem, von dir falsch berechneten "Mini-Vorteil" von 12,5%, bei richtiger Rechnung gleich mal 59%!!!:rolleyes:


Und bedenke auch, dass obwohl die 8800GT der 8800GTS hinsichtlich des Speicher-Interfaces im Nachteil sein müsste, wirkt sich das RL nicht aus:
http://www.computerbase.de/artikel/h...ting_qualitaet


Und AUCH hier liegts Du total Falsch! An den Tests bei CB kann man doch sehr schön sehen, wie die GT trotz ~43% mehr GPU-Power als die GTSalt z.B. bei 1600x1200 4xAA 16AF nur 13% mehr Leistung bringt und somit total an der Bandbreite verreckt! Sobalt man AA auf der GT aktiviert, hat das Teil heftige Probleme mit der Leistungsumsetzung wegen der geringen Bandbreite, auch schon bei 1280x1024!


Um also die Bandbreite mit dem 3DMurks06 zu 'messen', sollte man also besser den "Shader Paticles SM3" Test nutzen.


Der Test hat ja nicht mal im Entferntesten was mit einem Spiel zu tun! Daher hatte ich mich auf die SM2 + SM3 Tests beschränkt.


PS: Razor, deinen Test finde ich sehr schlecht, Angaben zur Auflösung und AF fehlen, daher Wertlos! Solltest du mit niedrieger Auflösung (1280x1024 oder kleiner) getestet haben, hast du höchstwarscheinlich schon teilweise ein CPU-Limit mit drinnen. Naja immerhin lässt sich aus deinem Test das Bandbreitenproblem bei angeschaltetem 4xAA erahnen.

Insgesamt hab ich den Eindruck, dass du versuchst dir deine GT schönzureden. Sicherlich ist die Karte nicht schlecht, auch aus Preis/Leistungssicht. Aber man hätte mit angemessener Bandbreite so einiges mehr aus dem G92 holen können. Es wird einfach viel Leistung sinnlos verschenkt und das finde ich einfach schade, besonders wenn man an die Anforderungen von Crysis und Titel in naher Zukunft denkt, wo jedes verschenkte Prozent Graka-Power doppelt weh tut.

Schrotti
2007-11-30, 17:50:16
Ich hab das auch getestet und bis auf den höheren SM3 Wert ändert sich nichts.

Pentium E 2180@3,33GHz, Forceware 169.04 alles auf maximale Qualität.

Obere Teil mit 660/1600/1000

http://666kb.com/i/atyzzehhlx7ijb69j.png

Gast
2007-11-30, 18:26:40
Insgesamt hab ich den Eindruck, dass du versuchst dir deine GT schönzureden. Sicherlich ist die Karte nicht schlecht, auch aus Preis/Leistungssicht. Aber man hätte mit angemessener Bandbreite so einiges mehr aus dem G92 holen können. Es wird einfach viel Leistung sinnlos verschenkt und das finde ich einfach schade, besonders wenn man an die Anforderungen von Crysis und Titel in naher Zukunft denkt, wo jedes verschenkte Prozent Graka-Power doppelt weh tut.

Trotz nur 75% der Bandbreite der GTX erreicht die 8800GT ca. 85% der Leistung der 8800GTX.
Erst wenn der Speicher ausgeht, ist die Karte deutlich langsamer.

Ph0b0ss
2007-11-30, 18:52:47
Trotz nur 75% der Bandbreite der GTX erreicht die 8800GT ca. 85% der Leistung der 8800GTX.
Erst wenn der Speicher ausgeht, ist die Karte deutlich langsamer.

Es sind 66,7% Bandbreite der GTX und bei "Rating – 1600x1200 4xAA/16xAF" und "Rating – D3D10 4xAA/16xAF" sind es schon unter 80% der GTX-Leistung. Könnte aber sein, dass hier die nur 512MB Speicher teilweise auch schon zuwenig sind. Das wär dann der zweite Schwachpunkt, mit der die GT ausgebremst wird. Mal sehen wie es mit der 1024MB-Version aussehen wird. Gegen zu wenig Speicher, aber für zu wenig Bandbreite, spricht der erste Test der neuen GTS, die trotz 20% mehr GPU-Power und 10% mehr Bandbreite nur 10% mehr Gesamtleistung als die GT bringt (auch schon ohne AA).

Gast
2007-11-30, 19:50:50
@Razor
Puh, die ganzen Infos habe ich jetzt nicht parat. Da muss ich nachher mal schauen. Chipsatz ist der nforce4, glaube ich. Ich habe auf jeden Fall den Speicherteiler runtergesetzt und betreibe den Speicher mit höheren Taktraten und niedrigeren Timings. Das ist aber alles stabil und getestet.

@Hakim
Ist doch ne schöne Steigerung. Was hattest du im Treiber eingestellt - Leistung oder Qualität? Du hast auch wesentlich höhere Werte als ich. Komisch, als wenn meine 8800 GT ne Bremse eingebaut hätte! Ich muss mir das am Wochenende noch mal in Ruhe ansehen.

Ja deine 8800 GT hat eine Bremse im 3dmark06....




....... und das ist wie schon geschrieben wurde der Prozessor.

Razor
2007-11-30, 20:31:05
Das Verhältnis TMU/Shaderpower - Speicherbandbreite ist also bei der alten GTS deutlich besser. Bei der GT kommen im Verhälnis ~59%! mehr Rechenleistung auf die gleiche Banbreite, als bei der GTSalt. Anders ausgedrückt: Die GT hat nur ~63% der Speicherbanbreite für gleiche Rechenleistung wie die GTSalt! Ich kann mir nicht vorstellen, dass dieser krasse Rückstand an Banbreite, durch irgendwelche Optimierungsmaßnahmen zur Bandbreitenschonung, wieder hereingeholt wird!
Was ist denn das für eine Rechnung?
:confused:

Selbst wenn eine Anwendung zu 100% bandbreiten-limitiert ist (was eigentlich nie der Fall ist), dann hat die GT nur einen 'Nachteil' von 12,5% ggü. der GTS. Deiner Argumentation folgend könnte man auch sagen, dass die GTS(alt) viel zu wenig Shader-Power ggü. der ihr zur Verfügung stehenden Bandbreite hat.

Soll ich Dir jetzt also ausrechnen, wie krass dieser Nachteil der GTS ist?

So werden aus dem, von dir falsch berechneten "Mini-Vorteil" von 12,5%, bei richtiger Rechnung gleich mal 59%!!!
Nein... nach Deiner Rechnung sogar nur 11%.

Der Test hat ja nicht mal im Entferntesten was mit einem Spiel zu tun! Daher hatte ich mich auf die SM2 + SM3 Tests beschränkt.
Es ging darum, einen Test zu finden, der mal wirklich zu 90% (und mehr) auf Bandbreitenveränderungen reagiert.
Aber an realen Tests scheinst Du ja nicht interessiert...

PS: Razor, deinen Test finde ich sehr schlecht, Angaben zur Auflösung und AF fehlen, daher Wertlos!
Wenn ich nichts dazu sage, dann sind Default-Werte anzunehmen...

Und irgendwie wird mir die Diskussion mit Dir zu dumm.

Du ignorierst Fakten und ziehst Dir abstruse Zahlenbeispiele aus den Fingern, die durch NICHTS zu belegen sind, kommst mir irgendwelchen Prozentzahlen, die durch niemanden zu verifizieren sind und stellst aufgrund dessen auch noch Behauptungen auf, die dem Fass glatt den Boden ausschlagen.

Komm' mit harten, überprüfbaren Zahlen und dann 'reden' wir weiter...

Trotz nur 75% der Bandbreite der GTX erreicht die 8800GT ca. 85% der Leistung der 8800GTX.
Erst wenn der Speicher ausgeht, ist die Karte deutlich langsamer.
Klar... Du weißt das, ich weiß das, alle wissen das.
OK, fast alle...
:rolleyes:

75% dürften unter Berücksichtigung der besseren Bandbreitennutzung schon in etwa hinkommen...

Ich hab das auch getestet und bis auf den höheren SM3 Wert ändert sich nichts.
Wo ist denn Dein CPU-Score hin?
:confused:

Razor

Gast
2007-11-30, 23:56:13
Was ist denn das für eine Rechnung?
:confused:


es geht um das verhältnis rechenleistung zu speicherbandbreite. dass die 8800GTS aufgrund der deutlich geringeren rechenleistung praktisch immer mehr oder weniger deutlich langsamer als die 8800GT sein wird ist klar.

die 8800GT kann ihre deutlich überlegene rechenleistung aufgrund der geringen bandbreite in garnicht so unwahrscheinlichen fällen nur teilweise ausspielen kann.

Schrotti
2007-12-01, 00:21:43
Wo ist denn Dein CPU-Score hin?
:confused:

Razor

Wollte ich nicht denn es geht ja um die Graka.

Kann ich aber nachliefern wenn das wichtig ist.

Edit: Hatte lange Weile.

Oben default darunter @1000MHz Ramtakt.

http://666kb.com/i/atzak018jge380p5c.png

Schrotti
2007-12-01, 00:51:04
Ich erreiche mit OC auch nicht viel mehr beim 3DM06.

Zotac 8800GT

660/1600/900 = 124xx 3DMarks

725/1757/1000 = 126xx 3DMarks

Allerdings habe ich nur einen E2160 @3GHz. Denke, hier limitiert die CPU und vermutlich wird man grössere Unterschiede sehen, wenn man noch AA+AF aktiviert, oder eine höhere Auflösung nimmt.

Komm hör auf.

Die Werte kannst du vergessen (glatt gelogen).

Hakim
2007-12-01, 01:16:31
Kann ich bestätigen....nie und nimmer macht das so wenig aus.

Schrotti
2007-12-01, 02:22:24
Das meinte ich eigentlich nicht.

124xxx mit der Zotac (habe die gleiche) und nur 3GHz Prozzitakt.

Nie im Leben erreicht er 124xx Punkte.

Gast
2007-12-01, 02:43:12
Ja ja, die Speicherbandbreite, die bringts. Sieht man ja schön an einer HD2900XT - 512 Bit Speicheranbindung losed aber total ab gegen die 3870 mit 256 Bit Anbindung, und das VOR ALLEM bei hohen AA Einstellungen. Manchmal kann man wirklich nur noch den Kopf schütteln, wenn man hier so mitliest. Und Crysis ist zwar ein gutes Game, aber lange nicht das Beste was ich bis jetzt gespielt habe. Ansonsten spiele ich in 1680 x 1050 und 8x AA 8x AF. Konnte bis jetzt noch kein Spiel finden wo ich auf einen Framedrop gestoßen wäre.

Wem die neuen G92 Karten nicht gefallen, muß sich keine kaufen. Aber ständig wegen der Speicheranbindung stänkern, obwohl man auch bei Ati mit dem R670 die Rolle rückwärts gemacht hat, ist irgendwie nicht verständlich.

Digg
2007-12-01, 05:24:32
Komm hör auf.

Die Werte kannst du vergessen (glatt gelogen).

Lol, wie bist du denn unterwegs.

Verschreiben kann man sich immer mal. In meine Nethand Link hättest du gesehn, dass es 11.4k sind.

Also bitte nicht heulen.

Letztendlich sagt es genauso viel aus... es geht um die Differenz....

ps: Wunder mich, dass ich dich hier nicht auf meiner Ignore habe, im HWL biste es. :tongue:

Razor
2007-12-01, 09:03:33
es geht um das verhältnis rechenleistung zu speicherbandbreite.
Ist mir schon klar...
Nur wie kommst Du darauf, dass dies jetzt bei einem Vergleich von GT zu GTS bei einer GT als 'ungünstiger' zu werten ist?
Kann es nicht sein, dass dies eher auf die GTS zutrifft, da dort "zu wenig" Shaderleistung im vergl. zur Bandbreite vorhanden ist?

Du kannst es drehen oder wenden wie Du willst... ohne genauere Betrachtungen kommst Du hier zu keiner klaren Aussage...
...die auf Fakten beruht.

die 8800GT kann ihre deutlich überlegene rechenleistung aufgrund der geringen bandbreite in garnicht so unwahrscheinlichen fällen nur teilweise ausspielen kann.
Sie kann sie überall ausspielen, wo die Bandbreite nicht limitiert.
Also zeige mir, wo das der Fall sein soll und konstruiere bitte keine Fälle mit 1600x1200 und 8xAA, oder mehr.
Dafür ist die Karte weder ausgelegt, noch plaziert...

Und: Du willst auf ein Bandbreiten-Limit hinaus, nicht auf ein Limit durch VRAM-Menge, oder?
Zeige also bitte Beispiele, wo dies zutrifft... ich habe dies mit dem "Shader Particles SM3" Test unter Murks06 getan.

Ich hab das auch getestet und bis auf den höheren SM3 Wert ändert sich nichts.
Pentium E 2180@3,33GHz, Forceware 169.04 alles auf maximale Qualität.
Obere Teil mit 660/1600/1000
http://666kb.com/i/atyzzehhlx7ijb69j.pngWollte ich nicht denn es geht ja um die Graka.
Kann ich aber nachliefern wenn das wichtig ist.
Edit: Hatte lange Weile.
Oben default darunter @1000MHz Ramtakt.
http://666kb.com/i/atzak018jge380p5c.png
Sieht ein bissel merchwürdich aus...
Aber danke, für die Nachreichung der kompletten Werte!
:up:

Du hast also lediglich den Speichertakt beim ersten Bench um 100MHz, also um 11% angehoben und 'wunderst' Dich nun, warum sich da nichts getan hat? Oder 'wunderst' Du Dich gar nicht und wolltest nur bestätigen, dass die die 8800GT bei den Primär-Tests nicht an der Bandbreite krepiert? Hmmm...

@all

Hier mal was zur Punkteberechnung unter 3DMark06:

SM2.0-Punkte = 120 * 0.5 * (fps aus SM2 Gametest 1 + fps aus SM2 Gametest 2)
HDRR/SM3.0-Punkte = 100 * 0.5 * (fps aus SM3.0 Gametest 1 + fps auf SM3.0 Gametest 2)
CPU-Punkte = 2500 * Sqrt (fps aus CPU-Test 1 * fps aus CPU-Test 2)

(bei comuterbase.de (http://www.computerbase.de/artikel/software/2006/bericht_3dmark06_der_performance_report/7/) 'entliehen')

Das mit dem Einfließen der CPU ist schon sehr merkwürdig beim Murks06 (weswegen ich die Gesamt-Schnuller als Mekrmal ja auch ablehene ;-). Denn es wird der Mittelwert der CPU-Tests genommen und dieser dann einfach mit 2500 multipliziert. Schafft also eine CPU im Mittel genau 1 fps, dann wird der CPU ein Wert von 2500 'gut' geschrieben...

Wenn wir jetzt aber einen Gesamt-'Score' von 12500 annhemen, dann ist die CPU hier mit 20% enthalten, wenn sie 1 fps 'schafft'. Das sind immerhin ein fünftel der Gesamt-Punkte... ein fünftel eben, welches mit dem Ergebnis zur Betrachtung - ausschließlich - einer Grafikkarte rein gar nichts zu tun hat.

Wenn man also den Erfolg der Übertaktung im eigenen System 'messen' möchte, ignoriert man den Gesamt-Score wie auch den CPU-Score und addiert lediglich die GFX-Werte...

Bei mir wären das:
- 600/900 = 10.536
- 600/975 = 10.772 (+ 2,2%)
- 700/975 = 11.688 (+10,9%)

Das sind doch schon wesentlich akzeptablere Werte, oder?
Die RAM-Takt-Erhöhung mit 8,3% wirkt sich lediglich mit guten 2% auf den Murks06 aus...
...wird beides erhöht (GPU +16,7%/RAM +8,3%), dann sind es immerhin schon 11%, die im Score des Murks06 sichtbar werden!

Hier nochmal der Vergleich von mir:
[code]Core2Duo E6420 @ 3,2GHz
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-P35-DS3P Rev. 1.0 (Intel P35) Bios F7b
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 8800GT @ 600/1500/900 with with Zalman VF900-Cu @ min = silent&cool
WindowsXP Prof. SP2-fp DX9c

Benchmarks with enhanced Quality, 4xMSAA if possible and 8xAF (or higher)
@ 'High Quality' with GCAA on, TAA off, LOD-Bias clamped
- 3DMarks and STALKER with no Anti-Alialsing
- Crysis with medium Shadows, 2xAA and CP-forced 8xHQAF[code]
--------------------------------------------------------------------
3DMark2006 (110) 600/900 600/975 Diff 700/975 Diff
--------------------------------------------------------------------
3DMarks 11.699 11.877 1,52% 12.630 7,96%

-SM2 Score 5.384 5.491 1,99% 5.982 11,11%
-SM3 Score (HDR) 5.152 5.281 2,50% 5.706 10,75%
-CPU Score 2.866 2.848 - 0,63% 2.857 - 0,31%
-Game Score 0 0 - 0 -

Game1 (SM2) 44,00 44,66 1,51% 49,17 11,75%
Game2 (SM2) 45,74 46,85 2,44% 50,53 10,48%
CPU1 (Game) 0,91 0,90 - 0,79% 0,90 - 0,38%
CPU2 (Game) 1,45 1,44 - 0,53% 1,45 - 0,25%
Game3 (HDR) 49,22 50,36 2,31% 55,39 12,54%
Game4 (HDR) 53,81 55,26 2,70% 58,72 9,13%

Fillrate(Single) 4841,59 4841,59 0,00% 5643,24 16,56%
Fillrate(Multi) 26030,14 26026,23 - 0,02% 29682,83 14,03%
Pixel Shader 460,06 465,25 1,13% 520,30 13,09%
Vertex-S. simple 1601,76 1471,67 - 8,12% 2205,81 37,71%
Vertex-S. complex 122,14 122,28 0,12% 142,11 16,34%
Shader Particles 118,20 125,94 6,55% 129,00 9,13%
Perlin Niose 146,23 146,36 0,09% 167,43 14,50%

Triangles - 8 40,34 40,88 1,36% 40,45 0,29%
Triangles - 32 72,34 73,11 1,07% 74,76 3,35%
Triangles - 128 275,29 277,62 0,85% 284,05 3,18%
Triangles - 512 296,44 296,52 0,03% 345,41 16,52%
Triangles - 2048 299,05 299,13 0,02% 348,34 16,48%
Triangles - 32768 299,61 299,76 0,05% 349,05 16,50%Tjo... ich habe es mir mal geschenkt, hier noch eine Spalte für "lediglich GPU OC" einzufügen.
(man entschuldige bitte leichte Abweichungen, da der RAM-only OC mit einem 'aufgewachten' Rechner und dem IE im Hintergrund durchgeführt wurde ;-)
(und... der RT Monitor hat noch im Hintergrund mit geloggt... was auf die Bandbreite allerdings keinen Einfluss haben kann... *grmpf*)

Ein Vergleich also, der die Standard-Takte denen eines exklusiven RAM OC mit +8,33% und einem GPU/RAM OC mit +16,67%/+8,33% gegenüber stellt (wie ich es schon in ähnlicher Form auf der ersten Seite dieses Threads tat ;-). Und wie man hier schön sehen kann, sollte man den VertexShader 'simple' echt aussen vor lassen... ich weiß zwar nicht was der da 'mißt', aber das 'Ergebnis' ist hier schlicht unbrauchbar...

Wie dem auch sei, hier kann man sehr schön sehen, wie wenig sich die reine Takterhöhung des VRAMs auswirkt... bei den Game-Tests noch ein bissel (so 2-2,5%), aber viel interessanter hier doch die Feature-Tests sind.

Bei der Füllrate tut sich selbstredend rein gar nichts... was mich auch gewundert hätte, beim PixelShader-Test resultiert die >8% Speichertakt-Erhöhung immerhin in einem guten Prozentpünktchen, lediglich die "Shader Particles SM3" reagieren hier sehr akkurat auf die Anhebung des Speichertaktes (wie ja schon von mir ausgeführt)...

Interessant ist auf jeden Fall der GT4 (DeepFreeze). Bei der reinen Speichertakterhöhung reagiert er hier am stärksten, gemessen an den realen Takterhöhungen jedoch nicht stark genug, wenn hier ein 100% Bandbreiten-Limit vorliegen soll. Erhöht man jetzt zusätzlich den GPU-Takt um 17%, skaliert er nicht zu der Quote, wie das z.Bsp. beim GT3 der Fall ist... was darauf hindeuten könnte, dass die Bandbreite hier nicht mehr ausreicht... was aber sicherlich einer genaueren Betrachtung bedarf, als irgendweiche 'windigen' Prozent-Gegenüberstellungen. - Wenn dem allerdings so wäre, dann muss man beim G92 das Verhältnis von Füllrate (GPU) zu Bandbreite (RAM) schon fast als ideal bezeichnen, wenn man von Default-Takt 600/1500/900 ausgeht.

So würde ich (selbstredend unter der angegebenen Voraussetzung ;-) die Argumentation des Gastes noch immer umkehren und behaupten, dass bei der 'alten' GTS einfach Bandbreite verpufft, das Verhältnis von Shader-Power und Bandbreite dort also sehr unausgewogen ist. Kennen tut man das ja auch von der Radeon 2900... da geht das Verhältnis aber noch wesentlich krasser daneben... man könnte glatt behaupten, dass dort ein halbes Speicherinterface, sprich: ein 256Bit Speicherinterface vollkommen gereicht hätte... wie man an den neuen 38x0 ja sehr gut sehen kann.

Aber wie gesagt, ist eine rein hypothetische Betrachtung, die auf Annahmen beruht, welche erst durch wirklich intensivere Inventigationen untermauert werden müsste.

Razor

Gast
2007-12-01, 12:42:59
Ist mir schon klar...
Nur wie kommst Du darauf, dass dies jetzt bei einem Vergleich von GT zu GTS bei einer GT als 'ungünstiger' zu werten ist?
Kann es nicht sein, dass dies eher auf die GTS zutrifft, da dort "zu wenig" Shaderleistung im vergl. zur Bandbreite vorhanden ist?

welches verhältnis günstiger ist hängt immer von der situation ab.

ohne MSAA und ohne HDRR dürfte das verhältnis bei der GT praktisch immer vorteilhaft sein.
3dmark in den standardeinstellungen sollte der GT natürlich viel besser liegen, da kein MSAA zum einsatz kommt und zusätzlich noch viel gerechnet wird.

die frage ist nur welche situation öfter vorkommt, jene wo die bandbreite limitiert, oder jene wo sie nicht limitiert.

für solche betrachtungen halte irgendwelche syntetischen tests alá 3dmark oder rthribl für ziemlich sinnlos.

es ist aber durchaus nicht unwahrscheinlich dass es sehr realistische einstellungen in realen spielen gibt, in denen die 8800GT deutlich von einer höheren speicherbandbreite profitieren würde.
ich denke da nur mal an stalker mit MSAA, oder aber bioshock. dafür braucht es auch keine superhohen auflösungen, schon in 1280x1024 dürfte die bandbreite mit 4xMSAA leicht und mit 8xMSAA stark limitieren.

da ich weder die zeit noch eine 8800GT habe kann ich das natürlich nicht selbst überprüfen, aber die werte die ich bisher gesehen habe lassen durchaus den schluss zu, dass die 8800GT garnicht so selten an der bandbreite hängt.

natürlich ist die 8800GT (mit außnahme der kühlung) trotzdem praktisch immer die bessere karte als eine 8800GTS (in der urform), dazu hat letztere (zumindest ohne übertakten) einfach zu wenig rechenleistung und bei der bandbreite und speichergröße zu wenige vorteile.

trotzdem ist es schade dass NV bei der 8800GTS nicht endlich auf GDDR4 mit 1500MHz takt setzt, dann wäre die karte noch viel besser ;)

Razor
2007-12-01, 18:31:30
es ist aber durchaus nicht unwahrscheinlich dass es sehr realistische einstellungen in realen spielen gibt, in denen die 8800GT deutlich von einer höheren speicherbandbreite profitieren würde.
ich denke da nur mal an stalker mit MSAA, oder aber bioshock. dafür braucht es auch keine superhohen auflösungen, schon in 1280x1024 dürfte die bandbreite mit 4xMSAA leicht und mit 8xMSAA stark limitieren.
Beispiele?
:confused:

Solange Du nur theoretisch fabulierst, sind solche Aussagen vollkommen wertlos.
Ich kann bis dato (seit einem Monat etwa), absolut KEINE Bandbreitenlimitierung feststellen...
...und ich fahre ALLES auf max Details und immer mit 4xAA/AF.
(Ausnahme Crysis... aber da ist Bandbreite nicht das 'Problem' ;-)

aber die werte die ich bisher gesehen habe lassen durchaus den schluss zu, dass die 8800GT garnicht so selten an der bandbreite hängt.
Und wieder... keinerlei 'Beleg'.
Nenne doch einfach mal Beispiele, in denen Du gesehen hast, dass die GT bei 1280 an der Bandbreite 'hängt'.

Wenn nicht: schönen Tag noch!

Razor

4711
2007-12-01, 21:59:01
Immer das was man sehen möchte.....
Spiel doch mal mit 8xS...oder so...oder nur Oblivion mit Quarls Texturpack...jaja ich weiß jetzt kommt bestimmt das ist nicht offiziell,oder einfach nur 16xQ mit SSAA.....
Die Karte ist ein Lückenfüller und bringt Kohle in die NV Kasse sonst nix..ach so ich vergaß die gibt es ja garnicht zu kaufen...und die neue GTS ist genau so ein Schrott...und über so Kommentare wie "meine neue superduber Kleine" ist das beste was es gibt,lachen die sich bei NV kaputt und zählen die Kohle weil genug Leute bei solchen Kommentaren darauf reinfallen.

Das Auge
2007-12-01, 22:23:28
Immer das was man sehen möchte.....
Spiel doch mal mit 8xS...oder so...oder nur Oblivion mit Quarls Texturpack...jaja ich weiß jetzt kommt bestimmt das ist nicht offiziell,oder einfach nur 16xQ mit SSAA.....
Die Karte ist ein Lückenfüller und bringt Kohle in die NV Kasse sonst nix..ach so ich vergaß die gibt es ja garnicht zu kaufen...und die neue GTS ist genau so ein Schrott...und über so Kommentare wie "meine neue superduber Kleine" ist das beste was es gibt,lachen die sich bei NV kaputt und zählen die Kohle weil genug Leute bei solchen Kommentaren darauf reinfallen.

:crazy2:

Spricht da der Neid, oder meinst du das wirklich ernst?

4711
2007-12-01, 22:34:19
muhhhaaa Neid na klar.....Neid auf was?
Versuchs mal zu erklären....ne laß es lieber....sonst wirds noch lächerlicher mit der neuen Kleinen.

Majestic
2007-12-01, 22:38:55
Für den vorgesehenden Preis von 200-220€ ist die Leistung die die GT bietet jeden Euro wert. Vorallem wenn man überlegt was die GTS,GTX und Ultra jetzt noch
kosten. Das man die Karte nur schwer für diesen Preis bekommt ist eine andere Sache. Doch wenn man sich überlegt was man vorher nur für eine Leistung für um die 200€ bekommen hat ist Karte (genauso wie die HD3870) ein Knaller.

4711
2007-12-01, 22:46:10
Ich kanns nimmer hören!
Darum geht es nicht...hier wird das Ding von einigen als ÜberKarte verkauft und das ist lächerlich.
Was das Ding kostet und was sie leistet steht auf einem ganz anderen Blatt und das Verhältniß streitet auch kein Mensch ab.

Gast
2007-12-01, 22:54:51
Tja dank deiner 600€ Karte bist du in der Lage Mainstream Performance Karten schlecht zu machen.

Ein paar Tage Auszeit würden dir gut tuen.
Du spammst in sämtlichen Freds über die 8800GT und machst sie nieder vergleichst sie mit deiner Ultra, super.

Diese karte IST nun mal die ÜberKarte. Die erste anständige GF8 Mittelklassekarte.
Da kannsts du schlechtreden was du willst.
Hör auf!

Gast
2007-12-01, 22:57:16
Ich könnte auch lauchen über deinen Dominator RAM, ... mein RAM kann das selbe dank gleichen Chips, dafür für einen Bruchteil des Preises.


Aber ich tue es nicht! Ok jetzt schon, weil du einfach nur in diesem Fred STÖRTS!

Das Auge
2007-12-01, 23:10:30
Vmtl. ist es doch der Neid, weil es nun eine Karte gibt, die zu einem 1/3 des Preises seiner Ultra 4/5 der Leistung bringt. Tja, wer absolutes High-End kauft muß eben auch mit exorbitantem Wertverlust leben. Und jetzt hören wir alle wieder auf zu spammen und besinnen uns auf das Topic ;)

3d
2007-12-01, 23:52:56
was ist das hier eigentlich für ein oc tool?
(wenn ich meine gt habe, will ich auch etwas ocen.

http://metku.net/index.html?path=reviews/xfx-8800gt-alpha-dog-xxx-edition/index_eng4

Das Auge
2007-12-02, 01:10:03
Das ist der Rivatuner ;)

4711
2007-12-02, 08:21:16
Tja dank deiner 600€ Karte bist du in der Lage Mainstream Performance Karten schlecht zu machen.

Ein paar Tage Auszeit würden dir gut tuen.
Du spammst in sämtlichen Freds über die 8800GT und machst sie nieder vergleichst sie mit deiner Ultra, super.

Diese karte IST nun mal die ÜberKarte. Die erste anständige GF8 Mittelklassekarte.
Da kannsts du schlechtreden was du willst.
Hör auf!

ich spamme nicht und wenn du lesen könntest würdest du lesen können was ich schreibe...



"Vmtl. ist es doch der Neid, weil es nun eine Karte gibt, die zu einem 1/3 des Preises seiner Ultra 4/5 der Leistung bringt. Tja, wer absolutes High-End kauft muß eben auch mit exorbitantem Wertverlust leben. Und jetzt hören wir alle wieder auf zu spammen und besinnen uns auf das Topic
2007-12-01 22:57:16 "
Für dich gilt das gleiche! Lesen lernen!
PS die Ultra hat mich 300€ gekostet.....ich glaub die GTs im ebay kosten mehr...

"Ich könnte auch lauchen über deinen Dominator RAM, ... mein RAM kann das selbe dank gleichen Chips, dafür für einen Bruchteil des Preises."
Geschenktem Gaul schaut man nicht ins Maul...ich selbst würde mir sowas nie kaufen.
Und ich bezweifle das deine Ram 2000mhz schaffen...aber das gehört hier nicht her.

Gast
2007-12-02, 09:21:19
Und ich bezweifle das deine Ram 2000mhz schaffen...aber das gehört hier nicht her.
Das zeigt mir deine Glaubwürdigkeit.

Du willst mir erzählen dein RAM läuft mit 1000Mhz? Als DDR2 2000?
Mit CL30 und 3V oder was?



PS die Ultra hat mich 300€ gekostet.....ich glaub die GTs im ebay kosten mehr...
Der ebay Preis ist WAYNE!
Hat der Fred Ersteller 300€ bezahlt? NEIN!
Wer zahlt die 300€? Ist doch wurst, hier sicher niemand. Du nimmst also denn teuersten GT Preis und vergleichst ihn mit dem billigsten Ultra vom Laster gefallen Preis.
Ich weiß ja nicht WAS du getan hast, aber NIEMAND sonst hat eine 300€ Ultra!

btw hast du auch die Bugs verglichen? Dein so tolle Ultra hat keinen Videoprozessor! Da ist selbst eine 6200TC besser! LOL!
Die GT hat hingegen den modernsten nv Videoprozessor.
Deine Ultra leistet eine doppelte Abwärme --- toll.
Deine Ultra verbraucht 2 Slots ---toll
Deine Ultra zerstört durch ihre Länge den Luftstrom im Case ....

Und jetzt hören wir alle wieder auf zu spammen und besinnen uns auf das Topic
Wer hat denn hier in diesem friedlichen Fred angefangen zu stänkern?


ich spamme nicht
Ja du flamst.
Lachst über die zufrieden 200€ Käufer, die endlich eine GF8 Mittelklasse haben.
Niemand bezweifelt, dass 600€ Karten schneller sind, aber dadurch sind die 600€ Karten noch lang nicht besser.


PS. Du vergleichst mit ebay Preisen, deshalb die 600€. also das doppelte
Normal bei Geizhals sind es nur 540€. :)

4711
2007-12-02, 09:56:36
1. kannst Du immer noch nicht lesen!
2.Melde dich an dein LOL verrät dich.
Zertört den Luftstrom....oha
Verbrauch 2 Slots..zum Glück
Abwärme...;D
Natürlich gehe ich von meinen Kaufpreisen aus...und ich würde mir auch keine in den Rechner stecken wenn ich sie geschenkt bekäme.>da sie meinen Ansprüchen nicht genügt.
3.Rede ich keinem das Ding aus oder mach sie schlecht>>>da sind wir wieder beim Lesen lernen.
4.Vergleiche ich nicht mit einer Ultra oder GTX..das wäre Äpfel mit Birnen
5.Dein so tolle Ultra hat keinen Videoprozessor>>>>was soll ich damit? Brauch ich das für COD4 zb.?
Wenn ich einen 1080er abspiele hab ich eine Last von 8% und die Karte rennt mit 234/625/333 RUCKELFREI oder was meinst Du? DVD vom PC zum TV..aus dem Alter bin ich schon lange raus..ich aktiviere :D meine Festplatte unterm TV des DvDRecoders und lege mich aufs Sofa
Mit CL30 und 3V oder was?>>nochmal oha...
und nun ist gut...wenn Du lesen gelernt hast reden wir weiter.

4711
2007-12-02, 10:19:06
falscher Knopp...

Das Auge
2007-12-02, 11:33:12
Du könntest dich wirklich raushalten, wenn du nichts zum Thema beizutragen hast...
Ja, du spamst und flamest. Laß das bitte und tob dich woanders aus. Danke.

Goldeneye007
2007-12-02, 11:34:50
Hallo,
ich habe eine 8800GT und habe die ein wenig (660/950) übertaktet.
Doch bei 3DMark 06 bringt das ganze nur ca. 160 Punkte.
Bringt das übertakten der 8800GT wirklich so wenig?
Als Prozessor ist ein Q6600 in verwendung.

mfg.
Nobody

genau das hab ich auch festgestellt!

4711
2007-12-02, 12:39:27
Du könntest dich wirklich raushalten, wenn du nichts zum Thema beizutragen hast...
Ja, du spamst und flamest. Laß das bitte und tob dich woanders aus. Danke.

Dabei wollte ich eigendlich nur schreiben das ,das Ocen der Ultra in Games auch nix spürbares bringt ;D

Das Auge
2007-12-02, 15:01:02
Naja, das ist bei der Karte auch zu erwarten, die läuft schließlich schon ziemlich am Limit. Bei der GT kann man dagegen mit OC gute 10% Leistungssteigerung rausholen. Das Problem ist, daß sich das in den meisten Games auch nicht wirklich bemerkbar macht, mit Ausnahme von Crysis vielleicht.
Aber es geht hier nicht um die Ultra, sondern um die GT. Also bitte beim Topic bleiben ;)

Razor
2007-12-02, 18:45:20
Hey cool, 2 Seiten Müll!
Suuuper...

Aber nein, gespammt wird hier nicht.
Klar.

Besinnen wir uns dann noch mal auf den Thread-Titel... wie war der noch gleich?
Ach ja: "8800GT übertakten bringt fast nichts?"

Ich denke, dass diese These wiederlegt sein dürfte, oder?
Wenn nicht, dann bitte da ansetzen...
...danke.

Razor

Raff
2007-12-02, 19:00:15
Mei ...
Die 8800 GT taktet, zumindest wenn es nach Nvidia geht, ab Werk mit 600 MHz GPU-Takt. Übertaktet man das Teil nun auf 720 MHz, erhält man bestenfalls 20% mehr Dampf. Die Shader-ALUs werden nur mit Glück 1836 MHz mitmachen, was für unter 20% sorgt. Ebenso der Speicher, welcher kaum mit 1080 MHz laufen wird. Real kann man also sagen, dass die durchschnittliche 8800 GT nach einer Übertaktung 10-15 Prozent schneller ist. Lohnt das? Es ist unerheblich, aber warum Potenzial brachliegen lassen?

MfG,
Raff

betasilie
2007-12-02, 21:29:35
Mei ...
Die 8800 GT taktet, zumindest wenn es nach Nvidia geht, ab Werk mit 600 MHz GPU-Takt. Übertaktet man das Teil nun auf 720 MHz, erhält man bestenfalls 20% mehr Dampf. Die Shader-ALUs werden nur mit Glück 1836 MHz mitmachen, was für unter 20% sorgt. Ebenso der Speicher, welcher kaum mit 1080 MHz laufen wird. Real kann man also sagen, dass die durchschnittliche 8800 GT nach einer Übertaktung 10-15 Prozent schneller ist. Lohnt das? Es ist unerheblich, aber warum Potenzial brachliegen lassen?

MfG,
Raff
Voll meine Meinung Raff. Ich kapier die Leute nicht, die uns erzählen wollen, dass man bei 10-20% Mehrleistung ja garnicht erst übertakten braucht. Das ist doch Unsinn. 10-20% können genau das Zünglein an der Waage sein, ob ein Spiel flüssig läuft oder nicht.

Gerade im niedrigen FPS-Bereich ist es ein gewaltiger Unterschied, ob man 25fps hat oder 30fps! Oder ob man unter die 30fps fällt mit VSync an, oder ob man über den 30fps bleibt.

Und mal abgesehen davon, dass 10%-20% durchaus spürbar sein können, bleibt die Frage, wieso man Leistung liegen lassen soll.

Manch ein User sollte das Overclocken lieber sein lassen, wenn sie erst ab 50% Takt-Plus sowas in Betracht ziehen. Und dann ist es ihnen wahrscheinlich zu "gefährlich", weil so eine hohe Takterhöhung ja nicht gesund sein kann. :D

Gast
2007-12-02, 22:22:36
bleibt die Frage, wieso man Leistung liegen lassen soll.
Genau. :)

Das wirft auch eine weitere Frage auf:
Warum nicht die billigere Karte mit 10% weniger Leistung? Oder eine noch langsamere?

Gast
2007-12-03, 09:03:23
25fps hat oder 30fps<>völlig wurst...das was Dir hilft sind die minnimum FPS und die erhöhen sich bei der % OC um etwas 1nen...

Razor
2007-12-03, 10:40:25
Voll meine Meinung Raff. Ich kapier die Leute nicht, die uns erzählen wollen, dass man bei 10-20% Mehrleistung ja garnicht erst übertakten braucht. Das ist doch Unsinn. 10-20% können genau das Zünglein an der Waage sein, ob ein Spiel flüssig läuft oder nicht.
Ausgehend von was?
:confused:

10% Mehrleistung bei einer 8600GT, bei einer 2600XT, bei einer 8800Ultra?
Wo willst Du die Grenze ziehen?

Gerade in kritischen Situationen bringen die 10% (gerne auch 20%) überhaupt nichts... wenn's vorher unspielbar war ists auch mit +20% unspielbar... OK, ein Ruckler, einer ganzen Folge von Rucklern ist dann vielleicht weg... toll.

Sehr viel effektiver ist es, die Karte über die Engine-Einstellungen auszufahren... und Crysis ist dafür ein hervorragendes Beispiel, weil es einfach JEDE Hardware gegen die Wand fahren lassen kann... wenn man denn will. Und Crysis ist auch das einzige Game, welches eine 8800GT mit 1280x1024 Bildpünktchen an die Wand fahren kann... ansonsten brauchts einfach keine Mehrleistung... nirgendwo.

Klar, wer Spitzenleistung bei Auflösungen von 1920x1200 haben will, der hat mit dem Kauf einer Performance-Karte einen Fehgler gemacht... aber auch da helfen 10% Mehrleistung nichts. Und wer einen 1680x1050 Bildschirm gekauft hat, machte schon mit diesem Kauf einen Fehler... eine Auflösung, die wirklich niemand bracht, aber chöööön billig ist... im wahrsten Sinne des Wortes. Aber das steht auf einem anderen Blatt...

Ergo: übertakten einer 8800GT ist tatsächlich vollkommen überflüssig!

Und hier geht es nicht um das generelle Übertakten von Hardware, sondern um ein spezifisches Modell, die 8800GT.

20% Mehrleistung sind schon reichlich unrealistisch, einigen wir uns also auf ein Mittel von etwa 15%, die bei einer maximalen Übertaktung von ca. 25% erreicht werden kann... und dabei läuft die Karte dann schon am absoluten Limit. Ich habe schon immer dafür plädiert, gerade im Bereich OC Verhältnismäßigkeit walten zu lassen... wenn die Hardware meinetwegen maximal 25% schafft, gehe ich mindestens 5% zurück, um diese nicht am Limit zu betrieben. Tue ich das in dem obigen Beispiel, erreiche ich vermutlich nicht einmal die 15% Mehrleistung... und dafür dann Gefummel mit den Treibern, noch schlimmer irgendwelches Bios-Gefriggel? Nö...

Ich habe doch oben gezeigt, was bei 16,7% Mehrtakt der GPU und 8,3% Mehrtakt des VRAMs rüber kommt... und das in absolut synthetischen Scenarien, die RealWorld ganz sicher nicht erreicht werden.

Ich wiederhole: übertakten einer 8800GT ist unnötig!

Es gibt eben Hardware, die läßt sich hervorragend Übertakten... so wie mein C2D 6420, der statt der 2,13GHz Default-Takt nun mit 3,2GHz taktet... und dabei bei weitem noch nicht am Limit läuft. Oder meine 7900GT, die mit effektiverer Kühlung und Voltmod von 1,2Vc auf 1,4Vc locker 50% Mehrtakt mitmachte... und ebenfalls noch Luft hatte.

DAS lohnt sich!
DAS brach liegen zu lassen, wäre fahrlässig !
DAS ist korrekt!

Aber 20-25% Mehrtakt, die Hardware damit am absoluten Limit betriebend und einer Mehrleistung von gerade mal 15%... wenn überhaupt. Nein, das ist purer Unsinn und einfach nur Spaß an der Freud'. Wirklich viel Sinn macht das nicht und das sind dann auch meist die Leutz, die dann von irgendwelchen Ausfallquoten faseln und gaaaaaanz sicher nicht übertaktet haben... nein, gaaaaanz sicher nicht.

:rolleyes:

Razor

betasilie
2007-12-03, 11:20:10
Nun ja, man kann da geteilter Meinung sein. Ich sehe 15% Mehrleistung für Nüsse als Pflicht an, für Leute die OC-Routine haben. Und wenn die Karte stabil läuft, und insbesondere ohne Voltmod, dann läuft sie unterm Limit. Wieso also nicht? Und insbesondere im unteren fps-Bereich merkt man jedes Frame und nicht im Bereich von 70fps und mehr, wo man 5fps mehr oder weniger vergessen kann.

Du willst mir dann am ende noch witziger Weise was von Ausfallquoten und am Limit overclocken erzählen. Finde ich ja sehr lustig, dass Du mit dann von deinem Voltmod erzählst. Nicht dass mich das stört, wo ich doch selber wasserkühle und gerne am Vcore rumspiele, aber es ist schon ein wenig paradox, gelle?

Das Auge
2007-12-03, 17:37:30
Einigen wir uns doch darauf, daß jeder selber entscheiden muß, ob es was bringt oder nicht bzw. ob jemand OCen will oder nicht.
Ich bin der Meinung OC bei der GT bringt wirklich kaum etwas, mache es aber trotzdem ;)
Rein aus Prinzip, brachliegende Leistung ist mir zuwieder. Solange die Kühlung stimmt und man nicht bis zum letzten Megahertzchen geht schadet man damit meiner Erfahrung nach den Komponenten auch rein gar nicht.

Gast
2007-12-03, 17:58:16
Du willst mir dann am ende noch witziger Weise was von Ausfallquoten und am Limit overclocken erzählen. Finde ich ja sehr lustig, dass Du mit dann von deinem Voltmod erzählst.
Ja.

Die 8800GT OC Gegner sollen mir mal sagen:

Warum untertakten sie Karte nicht, damit sie nicht ausfällt?
Warum haben sie eine 8800GT? Warum keine 3870? Warum keine 3850? Warum keine 8500?

Dr.Snuggles
2007-12-03, 18:02:54
Also ich weiß echt net,was ihr alle habt.
Ich habe meine MSI 8800GT OC jetzt stabil mit 712\1998 Mhz laufen,und wird unter Last net Wärmer als 56°C mit Zalman VF900 Cu.

Ich bin mit der Leistung der Karte voll zufrieden.

Vor allem läuft Crysis mit alles auf Hoch und 1280 x 1024 und mit dem DX10-Hack Butterweich

Ein anderes Thema ist natürlich, warum es in SLI kleine Ruckler gibt,trotz hohen FPS,aber das ist ja wohl ein anderes Thema....