Archiv verlassen und diese Seite im Standarddesign anzeigen : 30% mehr Takt = 40% mehr Leistung
Ja, die Überschrift mag paradox klingen, liebe Forengemeinde, aber genau das ist mir mehrfach passiert.
Schauen wir uns doch mal diese 3DMark2000-Werte an:
1600x1200x16 @ 143/143:
http://img40.imageshack.us/img40/3218/33na.jpg (http://www.imageshack.us)
1600x1200x16 @ 190/190:
http://img40.imageshack.us/img40/3220/18zg.jpg (http://www.imageshack.us)
(Stammen von hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3228585#post3228585)
Es geht mal wieder um eine Voodoo-Grafikkarte, hier meine Voodoo3 2000 PCI. Mit 190 MHz rennt sie etwas über 30% übertaktet ... aber der Taktvorteil bringt mehr Leistung als theoretisch und praktisch zu erwarten wäre. Das Gleiche passierte mir auch schon im 3DMark2001SE und noch woanders ...
Wie kommt das? Was für interne Limitierungen werden durch das Tuning überwunden? :| Oder kann ich einfach nur nicht rechnen? ;)
MfG,
Raff
reunion
2005-07-06, 19:12:27
Es ist absolut unmöglich, dass sich der Leistungszuwachs überproportional zu den Taktraten verhält. Ich würde auf Messfehler, Messungenauigkeiten, oder sonstigen Dingen tippen.
Quasar
2005-07-06, 19:18:35
Probier doch mal RAM und Kern separat hochzutakten. Dort könnte des Rätsels Lösung liegen.
reunion
2005-07-06, 19:19:48
Probier doch mal RAM und Kern separat hochzutakten. Dort könnte des Rätsels Lösung liegen.
Das ist bei Voodoo-Karten AFAIK nicht möglich.
Es ist absolut unmöglich, dass sich der Leistungszuwachs überproportional zu den Taktraten verhält. Ich würde auf Messfehler, Messungenauigkeiten, oder sonstigen Dingen tippen.
Wenn es sich hier nicht um extrem grafiklimitierte Settings handeln würde, würde ich auch auf die Ungenauigkeit aller 3DMarks nach mehreren Durchgängen tippen. Die Punkte weichen aber nur um +/- 30 3DMarks ab.
Probier doch mal RAM und Kern separat hochzutakten. Dort könnte des Rätsels Lösung liegen.
Das war bei Voodoos noch nie möglich, leider.
MfG,
Raff
Quasar
2005-07-06, 19:21:26
Hm, schade.
Vielleicht, und gerade bei so alten Dingern könnte das hinhauen, bist du, Raff, sowohl durch Kern als auch durch Speicher limitiert. Dann müsstest du dein OC quasi "addieren" :)
Ich bin beschränkt? Oh. X-D ;)
Übrigens glaube ich hier eher an einen VRAM-Mangel. 1600x1200x16 ist für 16 MiB schon heftig. Und 1280x1024 läuft teils mehr als deutlich besser ...
Kann es sein, dass irgendwie durch den deutlich höheren Takt da besser "gewirtschaftet" wird? Vielleicht gelingt es, die Leerläufe besser zu überbrücken. Denn dieses Phänomen trat nur in so extremen Settings auf.
Ich probiere jetzt noch mal Max Payne, da ich meine, das da auch gehabt zu haben ...
MfG,
Raff
Madkiller
2005-07-06, 19:38:26
Hm, schade.
Vielleicht, und gerade bei so alten Dingern könnte das hinhauen, bist du, Raff, sowohl durch Kern als auch durch Speicher limitiert. Dann müsstest du dein OC quasi "addieren" :)
Das schätze ich auch mal ganz stark...
Ist ja bei CPUs ähnlich.
Wenn man die Speicherbandbreite gleich läßt und die CPU um sagen wir mal 30% übertaktet, kann das auch in knapp 30% mehr Leistung resultieren...
Wenn man jetzt allerdings den RAM synchron auch mit übertaktet kann auch noch mehr Leistung herausgeholt werden. :)
FeuerHoden
2005-07-06, 19:41:33
Mit welcher CPU läuft das System?
Ich würde darauf tippen dass die Grafikkarte den Prozessor ausbremst. Wenn du nun die Grafikkarte übertaktest und sie schneller läuft (schneller neue Daten anfordert bzw. abliefert), dann liefert automatisch auch die CPU bzw. der Speicher mehr Daten.
Mir erscheint das logisch.
MfG FeuerHoden
reunion
2005-07-06, 19:41:40
Das schätze ich auch mal ganz stark...
Ist ja bei CPUs ähnlich.
Wenn man die Speicherbandbreite gleich läßt und die CPU um sagen wir mal 30% übertaktet, kann das auch in knapp 30% mehr Leistung resultieren...
Wenn man jetzt allerdings den RAM synchron auch mit übertaktet kann auch noch mehr Leistung herausgeholt werden. :)
Sorry, aber ich kann der Logik bei besten Willen nicht folgen.
Wenn ich eine CPU um 30% übertakte, wodurch eine leistungssteigerung von 30% eintritt, bedeutet dies zwangsläufig, dass ausschließlich die CPU limitiert, wodurch ein höheren RAM-Takt nutzlos wäre.
Genau das gleiche gilt für die Voodoo3, selbst, wenn sowohl Füllraten, als auch Bandbreite gleichermaßen limitieren, kann nach meinen Verständnis keine Leistungssteigerung über 30% eintreten. Da nichts um mehr als 30% beschleunigt wurde.
Madkiller
2005-07-06, 19:46:13
Sorry, aber ich kann der Logik bei besten Willen nicht folgen.
Wenn ich eine CPU um 30% übertakte, wodurch eine leistungssteigerung von 30% eintritt, bedeutet dies zwangsläufig, dass ausschließlich die CPU limitiert, wodurch ein höheren RAM-Takt nutzlos wäre.
Nope.
Siehe hier:
http://www.3dcenter.org/artikel/average_fps/index12.php
Hier skaliert die CPU fast 1:1 mit steigendem Takt und gleichem RAM-Takt.
Und daß ein A64 auch überhalb von 200MHz RAM-Takt skaliert sollte bekannt sein, und das kannst du auch ohne Probleme im Benchmarkforum überprüfen (sry, habe jetzt nicht die Muße es rauszusuchen.) :)
Genau das gleiche gilt für die Voodoo3, selbst, wenn sowohl Füllraten, als auch Bandbreite gleichermaßen limitieren, kann nach meinen Verständnis keine Leistungssteigerung über 30% eintreten.
Aber das würde bedeutet, daß Raffs Ergebnisse unmöglich stimmen könnten.
reunion
2005-07-06, 19:53:04
[...]
Hier skaliert die CPU fast 1:1 mit steigendem Takt und gleichem RAM-Takt.
Und daß ein A64 auch überhalb von 200MHz RAM-Takt skaliert sollte bekannt sein,[...]
Nicht, wenn die CPU annähernd linear skaliert.
Dies bedeutet, dass die CPU durch nichts anderes ausbremst wird, wodurch mehr RAM-Takt nutzlos wäre.
Aber das würde bedeutet, daß Raffs Ergebnisse unmöglich stimmen könnten.
Das würde bedeuten, dass es an irgendwelchen anderen, zurzeit noch nicht genannten Gründen liegt. :)
//EDIT: Man möge mich korrigieren, falls ich mich auf dem Holzweg befinden. :D
Madkiller
2005-07-06, 20:18:59
Nicht, wenn die CPU annähernd linear skaliert.
Dies bedeutet, dass die CPU durch nichts anderes ausbremst wird, wodurch mehr RAM-Takt nutzlos wäre.
Ok, ich habe mal schnell was gebencht.
Ich habe einmal UT2004 auf 2480MHz@207MHz RAM auf 1024x768 gebencht mit 56,047fps und dann noch auf 2000MHz@166MHz RAM mit 45,576fps.
Also habe ich durch eine Erhöhung von 24% bei RAM und CPU 23% mehr average FPS erhalten, womit die avg FPS mit 96% skalieren..
Ok, bevor du dir jetzt das offensichtliche denkst (:D) bitte ich dich das hier anzusehen (bei dem Artikel war das System und die Randbedingungen die selben.)
http://www.3dcenter.org/artikel/average_fps/index10.php
Wie man hier sehen kann, skaliert UT2004 mit diesen Settings normal nur um 79% bei steigendem CPU-Takt mit solange der RAM-Takt gleich bleibt.
Falls es dir nicht eindeutig genug ist, kann ich dir morgen natürlich noch einen stichhaltigeren Beweis anhand der minimum FPS liefern.
Habe jetzt nur leider keine Zeit mehr. :)
Ok, ich habe mal schnell was gebencht.
Ich habe einmal UT2004 auf 2480MHz@207MHz RAM auf 1024x768 gebencht mit 56,047fps und dann noch auf 2000MHz@166MHz RAM mit 45,576fps.
Also habe ich durch eine Erhöhung von 24% bei RAM und CPU 23% mehr average FPS erhalten, womit die avg FPS mit 96% skalieren..
Ok, bevor du dir jetzt das offensichtliche denkst (:D) bitte ich dich das hier anzusehen (bei dem Artikel war das System und die Randbedingungen die selben.)
http://www.3dcenter.org/artikel/average_fps/index10.php
Wie man hier sehen kann, skaliert UT2004 mit diesen Settings normal nur um 79% bei steigendem CPU-Takt mit solange der RAM-Takt gleich bleibt.
Falls es dir nicht eindeutig genug ist, kann ich dir morgen natürlich noch einen stichhaltigeren Beweis anhand der minimum FPS liefern.
Habe jetzt nur leider keine Zeit mehr. :)
ähm 56 vs. 45,6fps sind ca. 23% mehrleistung, also genau das was man bei reiner speicherbandbreiten- oder cpu-limitierung erwarten würde.
Ich krieg's leider auch mit Max Payne und dem 3DMark2001SE momentan nicht auf die Reihe, ähnliche Werte zu produzieren. Das Einzige, was den Takt mindestens 1:1 wiedergibt, ist das hier
23,0 fps vs. 31,2 fps
3DM01, Lobby Low @ 1280x1024x16. ~ 35% mehr FPS bei ~ 33% mehr Takt. Nein, ok, das ist Messtoleranz + Rundung. X-D
Dennoch: Die Skalierung ist mehr als beachtlich linear.
MfG,
Raff
Piffan
2005-07-06, 20:34:14
Es ist schlichter Unfug! Eine Skalierung über die Anhebung der Taktzahlen hinaus kann niemals sein. Ende.
Ich würde mal den 3d- Mark darauf hin untersuchen, ob die Berechnung des Scores diesen paradoxen Effekt verursacht. Kann ja sein, dass einige Benches limitiert werden von der GPU, andere vom Speichtakt. Und nun noch ne dubiose, vielleicht nichtlineare Berechnung und schon klappt der Zaubertrick. ;)
Wenn man es seriöser machen will: Eine statische Szene aus einem Spiel, evtl. einem Leveleinstieg. Dann dort nicht bewegen und die FPS messen. Sollte die Szene bandbreitenlimitiert sein, dann steigt die Leistung ziemlich linear mit dem Speichertakt. Ist sie GPU- limitiert, dann steigt.....muss ich jetzt nicht bis zum Abwinken durchkauen. Bei Limitierung durch GPU UND Speicher, steigt die Leistung linear bei gemeinsamer Erhöhung von GPU und Speicher........
edit: Könnte höchstens noch ein verschobenes Load- Balancing zwischen Prozessor und GPU und Frage kommen, was imho aber recht konstruiert aussieht....
Piffan
2005-07-06, 20:42:47
Was mir eben so einfiel: Ein Bench, der mit Average arbeitet, kann natürlich überporpotional reagieren. Des Rätsels Lösung: Im Bench wechseln sich die Speicherlimitierungen mit den CPU- Limitierungen ab, im Mix kann dann der Mittelwert selbstredent stärker wachsen als man beim synchroner Takterhöhung ausrechnen würde.
Aber bei statischen Situationen natürlich nicht. Wie denn auch?
ou man!! wirklich nap mässig, 30% mehr takt=40% mehr leistung, das ist falsch weil die 40% nicht âlleine durch die taktsteigerung kommt sondern dank wahrscheinlich einer guten schnellen cpu.
Ja? Wenn allein die Grafikkarte limitiert - was da oben eindeutig ist, da ich in 640x480x16 auf knapp 6000 komme und damit CPU-limitiert bin X-D - dann kann der Sprung auch nur von der Übertaktung der Grafikkarte kommen. :|
Die CPU lief stets @ 215x11 (2370 MHz) und stellt damit nur sicher, dass Steigerungen auf Seiten der GraKa auch vollständig umgesetzt werden!
MfG,
Raff
Piffan
2005-07-06, 21:12:41
Dieses Beispiel zeigt deutlich, dass man bei Benches eher nicht auf den Mittelwert setzen sollte. Wichtiger ist die zuverlässige Ermittlung der Maxima und noch wichtiger die Ermittlung der Minima. Also Werte, die ein recht kleines Zeitfenster aufweisen. Große Zeitfenster haben dummerweise zur Folge, dass sich die Steigerungen von Bandbreite und GPU- Takt addieren können, was aber für den Spielalltag null Aussagekraft hat.
Für mich ist damit das Rätsel gelöst: Pseudo- Addition zweier Effekte durch ein schlechtes Rechenmodell.
Edit: Ein guter Bench sollte die Minima aufführen. Weil aufgrund des kleinen Zeitfensters natürlich Mist rauskommen kann, muss man das Fenster entweder größer machen und damit wieder beim Mittelwert landen, oder man wendet statistische Verfahren zu Eliminierung irregulärer Werte an. Ein echter Teufelskreis, würde Kaiser sagen. ;)
Aber als Zocker bin ich völlig unbelastet von so schweren mathematischen und filosofischen Problemchen.
Was mir eben so einfiel: Ein Bench, der mit Average arbeitet, kann natürlich überporpotional reagieren. Des Rätsels Lösung: Im Bench wechseln sich die Speicherlimitierungen mit den CPU- Limitierungen ab, im Mix kann dann der Mittelwert selbstredent stärker wachsen als man beim synchroner Takterhöhung ausrechnen würde.
Aber bei statischen Situationen natürlich nicht. Wie denn auch?
auch das wäre eigentlich nicht möglich.
die szenen mit (reiner) cpu-limitierung reagieren linear mit dem cpu-takt, welche mit bandbreitenlimitierung linear mit dem speichertakt.
der mittelwert kann daraus niemal überproportional reagieren.
Piffan
2005-07-06, 21:33:25
Hallo? Keiner mehr da oder habe ich jemanden beleidigt? Kann ich mir gar nicht vorstellen bei meiner charmanten Art. :devil:
Piffan
2005-07-06, 21:40:11
auch das wäre eigentlich nicht möglich.
die szenen mit (reiner) cpu-limitierung reagieren linear mit dem cpu-takt, welche mit bandbreitenlimitierung linear mit dem speichertakt.
der mittelwert kann daraus niemal überproportional reagieren.
Tja, dann versagt meine Intuition völlig. Schade.....
Razor
2005-07-06, 23:42:56
Ja, die Überschrift mag paradox klingen, liebe Forengemeinde, aber genau das ist mir mehrfach passiert.
Schauen wir uns doch mal diese 3DMark2000-Werte an:
1600x1200x16 @ 143/143:
http://img40.imageshack.us/img40/3218/33na.jpg (http://www.imageshack.us)
1600x1200x16 @ 190/190:
http://img40.imageshack.us/img40/3220/18zg.jpg (http://www.imageshack.us)
(Stammen von hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3228585#post3228585)
Es geht mal wieder um eine Voodoo-Grafikkarte, hier meine Voodoo3 2000 PCI. Mit 190 MHz rennt sie etwas über 30% übertaktet ... aber der Taktvorteil bringt mehr Leistung als theoretisch und praktisch zu erwarten wäre. Das Gleiche passierte mir auch schon im 3DMark2001SE und noch woanders ...
Wie kommt das? Was für interne Limitierungen werden durch das Tuning überwunden? :| Oder kann ich einfach nur nicht rechnen? ;)
MfG,
RaffSchau Dir einfach mal den CPU-Score an und krame aus der Erinnerung, dass der Murks2000 MASSIVST CPU-limitiert ist. Höherer Takt der GraKa könnte auch einfach weniger Arbeit für die CPU bedeuten (wenn der Treiber hier z.Bsp. eine Art Load-Balancing 'treibt' ;-), was sich wiederum in CPU-limitierten Scenen bemerkbar macht.
Dass die Grafikkarte plötzlich mehr leistet, als sie physisch kann, glaubst Du doch wohl selber nicht, oder?
Da ist eine "Murks-Optimierung" doch wohl wesentlich wahrscheinlicher...
:)
Razor
P.S.: Und wie ich grad gelesen hab', hegte Piffan ähnliche Gedanken...
(zumindest kurzweilig ;-)
edit: Könnte höchstens noch ein verschobenes Load- Balancing zwischen Prozessor und GPU und Frage kommen, was imho aber recht konstruiert aussieht....
Die höhere CPU-Score kommt daher, dass selbst dieser CPU-Teil mit 143 MHz noch ein klein wenig grafiklimitiert ist. Mit 190 läuft die CPU dann fast am Maximum, ohne von der Grafikkarte ausgebremst zu werden. In 640x480 findet man da übrigens eine 280 vor (auch im verlinkten Posting zu sehen), das absolute Maximum. Scheinbar zieht die Auflösung doch etwas Power, obwohl der Test immer in einem Fenster, das 640x480 Pixel breit ist, gefahren wird. Mit einer 9800 Pro oder 6800 steht da was über 800 ... ;)
Man kennt den Spaß doch auch z.B. aus dem AquaMark3: Die CPU-Score fällt, wenn man dick FSAA/AF anmacht, wenn auch nur minimal.
Es gibt in den Gametests IMHO definitiv keine CPU-Limitierung! D.h., nicht auf einer Voodoo3 in 1600x1200. Die Karte ist selbst extrem übertaktet am Ende, wie man auch an der Punktzahl erkennen kann. Ergo ist das, was am Ende an Mehrleistung herauskommt, auch eindeutig bei der V3 zu suchen. Und das macht es schräg. Mit jeder neuen Grafikkarte ist der 3DMark2000 aber in der Tat noch CPU-limitierter als sein dafür bekannter Nachfolger ...
MfG,
Raff
Neomi
2005-07-07, 00:02:18
So doof und falsch es auch erstmal klingen mag, die nutzbare Leistung kann durchaus überproportional steigen. Die tatsächliche Leistung natürlich nicht, aber sie kann unter bestimmten Umständen effektiver umgesetzt werden.
Ein kleines Beispiel mit VSync. Wenn der Monitor mit 60 Hz betrieben wird und ein Spiel konstant (und ich meine wirklich konstant) 55 Frames/s liefern könnte (tatsächliche Leistung), dann ergibt das durch VSync und Double Buffering konstante 30 Frames/s (nutzbare Leistung). Steigert man die tatsächliche Leistung um gerade mal 10% auf konstante 60,5 Frames/s, resultiert das in einer um 100% gesteigerten nutzbaren Leistung von 60 Frames/s.
Mir ist völlig klar, daß die Situation hier nichts mit VSync zu tun hat, es ist nur ein Beispiel. Diesen Effekt gibt es nämlich auch noch an anderen Stellen. Nicht so stark, nicht annähernd so offensichtlich, aber es gibt ihn.
Einmal ist mir ein Fall untergekommen, bei dem der Einsatz einer etwas schnelleren CPU gleichen Typs bei ansonsten identischem System für eine Verringerung der Geschwindigkeit in bestimmten Situationen geführt hat. Rein theoretisch völlig unmöglich, wenn da nicht besagter Effekt wäre. Die etwas langsamere CPU hat der Grafikkarte ordentlich eingeheizt und den Pushbuffer (wer weiß, was das ist, der weiß, was das ist) ständig randvoll gehalten. Die Grafikkarte hatte genug zu tun und die CPU hat neue Anweisungen in der genau passenden Geschwindigkeit nachgeschoben. Die etwas schnellere CPU hat etwas schneller nachgeschoben und überschritt eine Schwelle, die dafür sorgte, daß die Grafikkarte nicht mehr mithalten konnte. Der Pushbuffer lief voll und die CPU mußte warten, bis wieder genug Platz für neue Anweisungen war. Damit das nicht sofort wieder passierte, hat die CPU so lange gewartet (Treiberentscheidung), bis der Pushbuffer nur noch zur Hälfte gefüllt war. Letztendlich war die neu hinzugekommene Wartezeit größer als der theoretische Geschwindigkeitsvorteil gegenüber der langsameren CPU, das System wurde langsamer.
@Raff:
Bei dir könnte es ein ähnlicher Effekt sein, schließlich ist die CPU in einer ganz anderen Liga als die Grafikkarte. Game 2 reagiert am deutlichsten, also versuch doch mal folgendes... Voodoo auf 143/143 und dann schrittweise die CPU runtertakten, bis Game 2 ein klein wenig schneller wird.
Wenn das so ein Fall wäre wie von dir geschildert, könnte es also sein, dass mein Toastbrot mit für die Karte passenden 1 GHz mehr Power entlockt als @ ~2,4 GHz? Sehr schräg, aber 'nen Test wert. ;)
Aber: Was hat das nun mit dem 30 = 40 zu tun? Dass dieser Puffer wieder schnell genug geleert wird mit 190 MHz?
MfG,
Raff
Also Neomi die Schilderung kommt mir jetzt unglaubwürdig vor, weil Grafiktreiber eh ein paar Frames buffern :|
Mit welchem Tool wurden die Taktraten eingestellt? Und mit welchem verifiziert?
Mit welchem Tool wurden die Taktraten eingestellt? Und mit welchem verifiziert?
Die der Grafikkarte? Powerstrip, verifiziert mit V.Control. Dass die eindeutig übernommen wurden, ist doch ersichtlich. :)
MfG,
Raff
Dass Änderungen übernommen wurden ist ersichtlich. Dass exakt diese Änderungen übernommen wurden, nicht. Der Takt lässt sich ja auch nicht immer in 1 MHz-Schritten verändern, selbst wenn das die Software vorgibt.
Neomi
2005-07-07, 02:02:14
Also Neomi die Schilderung kommt mir jetzt unglaubwürdig vor, weil Grafiktreiber eh ein paar Frames buffern :|
Mir käme das jetzt auch unglaubwürdig vor, wenn ich es nicht "erlebt" hätte. Normalerweise wird bis zum Erreichen des Prerenderlimits gepuffert, dann geblockt. Der Pushbuffer muß dann aber nicht zwangsweise voll sein, es ist einfach nur genug drin. Wenige große Batches lassen den Puffer nicht volllaufen, da zu wenig, das Prerenderlimit greift in dem Fall. Bei vielen kleinen Batches begrenzt eher die CPU (da Drawcalls teuer sind), während der Puffer kaum gefüllt wird, da er vom anderen Ende aus zu schnell abgearbeitet wird. Bei Unmengen an großen Batches kann der Puffer schonmal volllaufen, so daß gewartet werden muß. Wenn wieder ein wenig Platz ist, wird eben nachgeschoben, aber die Grafikkarte limitiert dann eindeutig.
Wenn man ein paar ziemlich große Batches abarbeiten und in der Zeit den Pushbuffer mit sehr kleinen Batches volllaufen läßt, bevor das Prerenderlimit greift, dann kann es passieren. Ganz kurz vor Ende des letzten großen Batches beginnt die CPU, auf die GPU zu warten. Da diese dann viele schnell zu bearbeitenden Minibatches bekommt, ist sie sehr schnell fertig. Die GPU hat dann nichts mehr zu tun, während die CPU noch immer auf die GPU wartet. Der Treiber schätzt die nötige Wartezeit (für Platz im Pushbuffer) zu hoch ein und gibt die Rechenzeit an einen anderen Prozess (kann sogar der Idleprozess sein) ab. Sobald er wieder Rechenzeit bekommt, trifft er auf eine wartende GPU statt nur auf ein wenig Platz im Pushbuffer.
Das ist natürlich extrem unwahrscheinlich, daß sowas passiert. So unwahrscheinlich, daß es bestimmt sogar auf den meisten halbwegs ausgewogenen Hardwarekonfigurationen (das "entartete" System, um das es in diesem Thread geht, würde ich mal nicht als ausgewogen bezeichnen) mit halbwegs normaler Software komplett unmöglich ist. Es können aber trotzdem Konstellationen auftreten, unter denen genau das passiert. Daß das bei dem System von Raff der Fall ist, glaube ich selbst auch nicht, aber ausschließen will ich das nicht.
littlejam
2005-07-07, 08:11:40
Ack @neomi
Bei Raffs Phänomen würde ich auf Latenzen tippen, welche diesen Unterschied machen.
Die Voodoo@143MHz ist vielleicht so ungünstig getaktet, dass der Bus ab und zu mal einen Wartezyklus einlegen muss. Dann noch diese hohe Auflösung, wo es warscheinlich ist, dass eben nicht mehr alle Texturen in den Lokalen Speicher passen.
Meine Grafikkarte ist @270/200 auch schneller als bei 275/200.
Der "Wirkungsgrad" @143MHz ist halt niedriger als bei 190MHz.
Gruß
MadManniMan
2005-07-07, 09:19:08
Raff, probier doch lieber mal, die V3 in kleinen Schritten von 143 gen 190 MHz zu tackkckcckcten (sry) - ich selbst habe sowohl bei CPUs, wie auch bei GPUs und deren Übertakten immer wieder erlebt, daß hier und da der Mist langsamer wurde, wenn ein MHz-chen dazukam. Vielleicht ist "143" wirklich ungünstig, who knows?
Also bitte: takte in vielenvielen kleinen Schritten mal hoch und poste die Murksbildchen dazu, dann könnwer gemeinsam analysieren. Das würde uns doch sehr viel Freude machen :) Immerhin macht Benchen mit einem nicht Schluß oder sucht sich nen Neuen.
Madkiller
2005-07-07, 15:04:23
Falls es dir nicht eindeutig genug ist, kann ich dir morgen natürlich noch einen stichhaltigeren Beweis anhand der minimum FPS liefern.
Habe jetzt nur leider keine Zeit mehr. :)
Ok, sry, habe mich da in etwas verrannt...
Ich habe nochmal auf 640x480 ohne Sound gebencht, und bin auf knapp 24% bei den min FPS gekommen. :redface:
Der Eindruck durch meinen alten Artikel hat ganz offensichtlich getäuscht und andererseits wäre es natürlich unlogisch gewesen, wenn es anders gewesen wäre...
Sry :)
Oblivion
2005-07-10, 10:45:47
Also vll hab ich das jetzt überlesen im Thread
aber hast du auch schon mal andere Benchmarks versucht? nicht nur 3dmark2000?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.