PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Stimmt es, daß auf den 9800 GTX+ gar keine 55nm GPUs drauf sind?


Gast
2008-11-10, 16:21:23
Moin moin,

Kumpel behauptet nVidia würde auf den 9800GTX+ gar keine 55nm GPUs verbauen sondern nur den alten G92 und nicht den G92b - weil sie den 55nm Prozess angeblich ned im Griff haben...

Frage: Stimmt das wirklich oder is des n Gerücht? :confused:

Danke für Erhellungen.

beos
2008-11-10, 16:36:28
Ich hatte neulich für eine Woche eine XFX 9800 GTX+ eingebaut - dort war es noch ein G92.

Wenn man sich die Kommentare bei Alternate durch liest scheint das bei den meisten 9800 GTX+ Karten auch noch so zu sein.

sei laut
2008-11-10, 18:05:37
Eigentlich wars so, dass die Programme nicht erkennen können, ob ein G92 Chip oder ein G92b Chip verbaut ist.
Jedenfalls war das die Erkenntnis in einem anderem Thread hier.

Gast
2008-11-10, 18:51:15
Hmmm... Und wie kann man nun definitiv erkennen was für eine GPU drauf ist (ohne den Kühler abzunehmen)?

AnarchX
2008-11-10, 19:05:50
Hmmm... Und wie kann man nun definitiv erkennen was für eine GPU drauf ist (ohne den Kühler abzunehmen)?
G92B hat eine andere Device-ID, siehe Treiber-inf.

Armaq
2008-11-10, 21:28:28
Äh nein, wird immer falsch angezeigt. Da stimmt was im BIOS nicht. Das war wohl die letzte Erkenntnis. Alle 9800GTX+ zeigen G92 an.

Gast
2008-11-10, 21:33:56
per software sidn G92 und G92b nicht unterscheidbar, wenn man sehen will welcher chip verbaut ist muss man schon den kühler abnehmen.

im grunde ist es auch egal, beide chips können exakt das gleiche, der einzige unterschied ist, dass 55nm natürlich billiger zu produzieren sind.

Armaq
2008-11-10, 22:35:04
Er ist auch kühler. Ich hab damit fast nie über 65°C ausgelesener Temperatur. Der Kühler wird zwar hörbar, aber nie zur Belästigung.

puntarenas
2008-11-11, 09:36:24
Hast du den Kühler demontiert, oder woher weißt du sicher, dass du eine G92b hast?

Gast
2008-11-11, 11:15:43
Wie ist das mit diesem Bug den die Notebookchips angeblich haben, wo sich Lötstellen oder so lösen, haben den die G92 auf den Desktopkarten auch?

Gast
2008-11-11, 12:25:43
Er ist auch kühler. Ich hab damit fast nie über 65°C ausgelesener Temperatur. Der Kühler wird zwar hörbar, aber nie zur Belästigung.


nicht wirklich, stromverbrauch ist weitgehend identisch, du kannst innerhalb der serienstreuung sogar einen 55nm-chip erwischen der mehr als einer in 65nm braucht.

Neuron
2008-12-08, 19:16:34
Auch wenn schon was älter der thread; auf meiner Gainward 9800GTX+ (http://www.gainward.de/main/vgapro.php?id=84) ist ein G92b verbaut. Aus einem Mix aus Langeweile und Neugier habe ich den Kühler abmontiert und bei der Gelegenheit auch gleich die WL-Paste auf Arctic-Silver 5 geändert...:biggrin:

http://img248.imageshack.us/img248/1186/9800gtx006bq4.th.gif (http://img248.imageshack.us/my.php?image=9800gtx006bq4.gif)

EDIT:
Wo sind denn die Anhänge hin?:uconf:
/EDIT

aths
2008-12-08, 19:37:20
Die meisten 9800 GTX+ haben inzwischen den 55-nm-Chip, weil der in der Herstellung billiger ist. Anfang gab es einige Karten die den alten 65-nm-Chip hatten.

Neuron
2008-12-08, 19:56:38
Ich habe die schon was länger, von daher war ich mir da nicht so sicher. Auffällig war allenfalls das die sich sehr gut takten lässt......also deutlich höher als diese 745Mhz default.

AnarchX
2008-12-08, 20:20:04
Interessant wäre, ob du diese Verbrauchsmessung vielleicht nachvollziehen kannst:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6956347#post6956347
... immerhin entspricht deine Gainward der dort getestenen Palit.

Allein die Spannung via nbitor bzw. Rivatuner ausgelesen wäre schon ziemlich interessant. ;)

Neuron
2008-12-08, 21:07:23
Interessant wäre, ob du diese Verbrauchsmessung vielleicht nachvollziehen kannst:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6956347#post6956347
... immerhin entspricht deine Gainward der dort getestenen Palit.

Allein die Spannung via nbitor bzw. Rivatuner ausgelesen wäre schon ziemlich interessant. ;)

Ich habe es jetzt mal mit dem Rivatuner versucht, aber da kann ich keine Spannungen auslesen, nicht mal wenn ich alle plug-ins aktiviere:redface:

guru3D.com ist für mich nicht erreichbar, hat jemand den nBitor als download parat?

EDIT:
Gefunden!
/EDIT

OKay, der niBitor funzt nicht, kennt keine GF9 Karten und mag auch nicht wirklich mit Vista 64bit arbeiten.
Ich habe mit meinem Strommessgerät aber das Gesamtsystem gemessen mit folgenden Ergebnissen:

IDLE: 206 WATT
LOAD: 311 WATT

Zum Vergleich kann ich das gleiche System mit einer 8800GT anbieten, habe ich vor einem halben Jahr gemessen:

IDLE: 196 WATT
LOAD: 283 WATT

Habe wie damals die gleiche Software benutzt, also einmal loops mit dem 3 DMark 06 und dann jeweils den ingame Bench von CoH (DX-9) und WiC (DX-10).

Bei den Load Werten handelt es sich immer um den maximal angezeigten Wert am Messgerät, so ist das je nach Spielsituation und Benchmark deutlich weniger.

aths
2008-12-08, 22:10:46
Ich habe die schon was länger, von daher war ich mir da nicht so sicher. Auffällig war allenfalls das die sich sehr gut takten lässt......also deutlich höher als diese 745Mhz default.Der Standard-Wert ist 738 MHz Core (1836 Shader, 1100 RAM.)

Neuron
2008-12-08, 22:18:51
Der Standard-Wert ist 738 MHz Core (1836 Shader, 1100 RAM.)

Ja, der Standard ist beim Referenz-Layout 738Mhz, aber Gainward/Palit hat in einem mutigen Schritt auf satte 745 Mhz aufgerundet. :cool:
Das lesen alle Tools aus, sogar Everest.

Gast
2008-12-08, 22:19:23
OKay, der niBitor funzt nicht, kennt keine GF9 Karten und mag auch nicht wirklich mit Vista 64bit arbeiten.


ließ das bios mit GPU-Z aus und öffne es mit nibitor, GF9-karten werden unterstützt.

Neuron
2008-12-08, 22:25:18
ließ das bios mit GPU-Z aus und öffne es mit nibitor, GF9-karten werden unterstützt.

Das habe ich getan und bekomme dann:

http://www.coh-zone.com/images/oO.gif

Wenn sich jemand mit niBitor besser auskennen sollte, dann ist hier das Bios zum download. (http://iog-squad.com/downloads/G92.zip)

AnarchX
2008-12-08, 22:51:10
IDLE: 206 WATT
LOAD: 311 WATT

Zum Vergleich kann ich das gleiche System mit einer 8800GT anbieten, habe ich vor einem halben Jahr gemessen:

IDLE: 196 WATT
LOAD: 283 WATT

Habe wie damals die gleiche Software benutzt, also einmal loops mit dem 3 DMark 06 und dann jeweils den ingame Bench von CoH (DX-9) und WiC (DX-10).

Da liegt schonmal deine Karte nicht auf dem Niveau einer 8800 GT, wie bei Xbit-Labs, die offenbar hier einen Fehler in der Messung hatten.

Gast
2008-12-09, 00:25:58
Nö, ich zitiere: "Ich habe die schon was länger,.."

X-Bit hatte wohl Karten mit aktuellem BIOS, bei Luxx ist auch einer der niedrige Verbräuche mit seiner (neuen) GTX+ bestätigte.

Neuron
2008-12-09, 06:53:53
Nö, ich zitiere: "Ich habe die schon was länger,.."

X-Bit hatte wohl Karten mit aktuellem BIOS, bei Luxx ist auch einer der niedrige Verbräuche mit seiner (neuen) GTX+ bestätigte.

Kann mal einer die beiden Bios Versionen vergleichen? Das wäre doch mal interessant!

Gast
2008-12-09, 15:24:15
Wenn sich jemand mit niBitor besser auskennen sollte, dann ist hier das Bios zum download. (http://iog-squad.com/downloads/G92.zip)

das dürften die interessanten seiten sein:

http://img520.imageshack.us/img520/2057/9800gtxso0.png

ich weiß zwar nicht was die standardspannung ist aber 1,15V kommt mir jedenfalls nicht sehr gering vor und ist auch die höchste spannung die sich mit deinem bios einstelle lässt.

pest
2008-12-09, 15:37:22
ich weiß zwar nicht was die standardspannung ist aber 1,15V kommt mir jedenfalls nicht sehr gering vor und ist auch die höchste spannung die sich mit deinem bios einstelle lässt.

wenn die Spannung stimmt, ist das sehr gering für ne 9800GTX+, kannst ja mal nachmessen :)

Gast
2008-12-09, 15:40:48
wenn die Spannung stimmt, ist das sehr gering für ne 9800GTX+, kannst ja mal nachmessen :)

was ist denn default auf der 9800GTX+?

pest
2008-12-09, 15:46:03
was ist denn default auf der 9800GTX+?

ich glaube 1.25V, ne 8800GT@65nm hat auf jeden Fall 1.10-1.15V

RavenTS
2008-12-20, 23:29:13
ich glaube 1.25V, ne 8800GT@65nm hat auf jeden Fall 1.10-1.15V

Aber doch nicht der G92b, der sollte och weniger haben als der G92 wegen dem kleineren Fertigungsprozess.?!

pest
2008-12-20, 23:44:16
Aber doch nicht der G92b, der sollte och weniger haben als der G92 wegen dem kleineren Fertigungsprozess.?!

jetzt komme ich selbst ganz durcheinander, es gibt doch auch 9800GTX+ in 65nm? Wenn die 1.15V Stimmen, denke ich, kann man von nem G92b ausgehen. Aber Nachmessen ist wohl die sichere Alternative.

Neuron
2008-12-21, 11:59:37
Die 9800GTX+ mit 65nm sollte doch die gleiche Spannung haben wie die 9800GTX...ohne das +?
Wenn jemand eine dieser Karten sein Eigen nennt, so könnte er hier diese Ergebnisse beisteuern!

Gast
2008-12-21, 22:11:51
Ich glaube immer noch nicht das es wirklich Retail 9800GTX+ Referenz Karten gibt die einen G92 drauf haben...

Hab hier eine 9800GTX+ aus der erst Lieferung und die hat schon einen G92b, dieses Gerücht kam doch nur auf weil es kein Programm gibt die die GPUs unterscheiden kann, da selbes Bios.

NV muss die GPUs ja auch Selektieren für den hohen Takt und da wählen sie sicher nicht zwischen G92 und G92b aus, zudem die G92 Herstellung wohl schon einzige Zeit Eingestellt wurde.

=Silence=
2008-12-22, 14:31:21
Die 9800GTX+ mit 65nm sollte doch die gleiche Spannung haben wie die 9800GTX...ohne das +?
Wenn jemand eine dieser Karten sein Eigen nennt, so könnte er hier diese Ergebnisse beisteuern!


hoi!

hab heute meine XFX 9800GTX+ eingebaut, hier mal ein screen von GPU-Z, vllt könnt ihr damit was anfangen:

http://www.abload.de/img/9800gtxhqe6.jpg

Gast
2008-12-22, 23:26:18
hoi!

hab heute meine XFX 9800GTX+ eingebaut, hier mal ein screen von GPU-Z, vllt könnt ihr damit was anfangen:

http://www.abload.de/img/9800gtxhqe6.jpg

ne damit kann man absolut nichts anfangen da null aussagekraft.....

kann ein alter chip sein,aber auch ein neuerer.

das kannst du nur durch nachschauen feststellen(kühler aufschrauben),gpu-z kann dies nicht unterscheiden