Archiv verlassen und diese Seite im Standarddesign anzeigen : Wer hat so eine? EVGA GeForce 8800GTS (G80) 112 Shader(96+) 640MB
huw11
2008-01-16, 11:44:44
Wer hat sich sich diese Karte gekauft, und wie viel Shadereinheiten funktionieren tatsächlich bei den Dingern?
Produktbeschreibung vom Händler:
Die EVGA GF8800GTS+ basiert auf dem G80 Chip und verfügt über 640 MByte GDDR3 Speicher, der über eine 320 Bit breite Schnittstelle angebunden ist. Die GPU taktet mit 511 MHz, der Speicher mit 1600 MHz. Das Besondere an der GF8800GTS+ von EVGA ist die Tatsache, das hier G80 Chips mit mehr als 96 Shadereinheiten (96+) verbaut werden, und zwar bis zu 112 je nach Chip. Diese Chips stammen aus der Produktion der GTX Serie und haben mindestens 96, meist jedoch mehr funktionierende Shadereinheiten und sind somit etwas schneller als Standard 8800GTS Modelle.
Ich habe so das Gefühl, das man hier den Kunden einen vom Pferd erzählt, um noch ein paar alte GTS los zu werden :|
labecula
2008-01-16, 12:09:09
Wer hat sich sich diese Karte gekauft, und wie viel Shadereinheiten funktionieren tatsächlich bei den Dingern?
Produktbeschreibung vom Händler:
Die EVGA GF8800GTS+ basiert auf dem G80 Chip und verfügt über 640 MByte GDDR3 Speicher, der über eine 320 Bit breite Schnittstelle angebunden ist. Die GPU taktet mit 511 MHz, der Speicher mit 1600 MHz. Das Besondere an der GF8800GTS+ von EVGA ist die Tatsache, das hier G80 Chips mit mehr als 96 Shadereinheiten (96+) verbaut werden, und zwar bis zu 112 je nach Chip. Diese Chips stammen aus der Produktion der GTX Serie und haben mindestens 96, meist jedoch mehr funktionierende Shadereinheiten und sind somit etwas schneller als Standard 8800GTS Modelle.
Ich habe so das Gefühl, das man hier den Kunden einen vom Pferd erzählt, um noch ein paar alte GTS los zu werden :|
Hilft es nicht vielleicht, einfach mal GPU-Z drüber laufenzu lassen?
AnarchX
2008-01-16, 12:12:35
GPU-Z basiert doch auch nur auf einer Datenbank, wenn dann mal eine MT-Füllratentest ausführen, Ergebnis muss 28(TMUs) * Taktrate bei der 112SP-Version entsprechen.
Arschhulio
2008-01-16, 22:43:18
Die Karte gibt es mit den genannten Daten, ein Freund von mir hat sich die gekauft, ist son "spezial" Ding von XFX wenn ich mich nicht irre. Dürfte mit entsprechendem Takt und Auflösung an der 8800GT vorbei ziehen.
FragFox
2008-01-16, 23:40:35
hmm wobei sich erst herausstellen muss wie weit sich die Dinger wirklich quälen lassen *g*
rivatuner sollte das doch anzeigen.
huw11
2008-01-17, 17:22:31
rivatuner sollte das doch anzeigen.
stimmt, der RivaTuner zeigt bei meiner G92 GTS die 128 Shadereinheiten an :up:
@Arschhulio, lass deinen Freund doch mal bei seiner Spezi G80 GTS die Shader mit dem RT auslesen, würd' mich mal interessien wieviel von den Dingern bei seiner GTS funktionieren.
Arschhulio
2008-01-18, 19:44:06
Ich habe mir die Karte persönlich angeschaut und mit rt usw getestet, er hat: GPU 520 MHz / Shader 1200 MHz / Stream Prozessoren: 112 / Ram: 1600 MHz /640 MB GDDR3 / 320 Bit
Hier nen Link: http://www.norskit.com/norskit/default.asp?PageNo=DEFAULT&DeepLink=%2CPK10000D%2C110054640%2C%2C
huw11
2008-01-18, 20:37:23
Ich habe mir die Karte persönlich angeschaut und mit rt usw getestet, er hat: GPU 520 MHz / Shader 1200 MHz / Stream Prozessoren: 112 / Ram: 1600 MHz /640 MB GDDR3 / 320 Bit
Hier nen Link: http://www.norskit.com/norskit/default.asp?PageNo=DEFAULT&DeepLink=%2CPK10000D%2C110054640%2C%2C
Das hätte ich jetzt nicht gedacht, dass das Ding wirklich 112 Shadereinheiten hat :O
Dann hat die Karte ja sicher ein gutes Potential, zumal wenn man sie noch etwas übertaktet, dann müsste sie eigentlich der GT und GTS sehr nah kommen.
Razor
2008-01-19, 06:40:13
Die Karte gibt es mit den genannten Daten, ein Freund von mir hat sich die gekauft, ist son "spezial" Ding von XFX wenn ich mich nicht irre. Dürfte mit entsprechendem Takt und Auflösung an der 8800GT vorbei ziehen.Ich habe mir die Karte persönlich angeschaut und mit rt usw getestet, er hat: GPU 520 MHz / Shader 1200 MHz / Stream Prozessoren: 112 / Ram: 1600 MHz /640 MB GDDR3 / 320 Bit
Öhm... an einer 8800GT "vorbei ziehen"?
Wie soll denn das gehen?
:confused:
Selbst bei der gleichen Anzahl an SP's gibts immer noch einen Standard-Taktunterschied von 520MHz zu 600MHz, bzw. 1200MHz zu 1500MHz. Das sind dann +15% bzw. +25% für die 88GT. Beim Speicherinterface heißts dann 800MHz@320Bit vs. 900MHz@256Bit, was dann -10% für die 88GT wären (die bessere Effizienz des G92 hier unberücksichtigt).
Wie also soll die von Dir postulierte Performance zustande kommen können?
Ganz im Gegenteil wird das Teil im Head-2-Head-Vergleich IMMER abstinken... es sei denn die 'alte' läßt sich übertakten und die 'neue' nicht.
Razor
Arschhulio
2008-01-19, 11:56:22
Öhm... an einer 8800GT "vorbei ziehen"?
Wie soll denn das gehen?
:confused:
Selbst bei der gleichen Anzahl an SP's gibts immer noch einen Standard-Taktunterschied von 520MHz zu 600MHz, bzw. 1200MHz zu 1500MHz. Das sind dann +15% bzw. +25% für die 88GT. Beim Speicherinterface heißts dann 800MHz@320Bit vs. 900MHz@256Bit, was dann -10% für die 88GT wären (die bessere Effizienz des G92 hier unberücksichtigt).
Wie also soll die von Dir postulierte Performance zustande kommen können?
Ganz im Gegenteil wird das Teil im Head-2-Head-Vergleich IMMER abstinken... es sei denn die 'alte' läßt sich übertakten und die 'neue' nicht.
Razor
Natürlich nur, wie ich auch geschrieben habe, mit dem entsprechenden Takt kann sie der 8800GT gefährlich werden, genau so bei hohen Auflösungen, wird die 320 bit 640 MB Version doch nicht viel an Boden verlieren oder?
Da meine Erfahrung gezeigt hat das sich sehr viele Karten auf die 900Mhz Ramtakt und 600Mhz GPU Takt prügeln lassen, was dann einen Shadertakt von ca. 1400 Mhz entspricht, hinkt mein Vergleich gar nicht so sehr nach :)
Im Standartakt ist klar wer vorne ist :biggrin:
Edit: Ich hoffe das ich meinen Kumpel davon überzeugen kann mir seine Karte mal für einen Tag zu überlassen, dann kann ich mal Benchmarks aufstellen. Würde mich echt interessieren wie groß der Unterschied ist und ob es möglich ist sie an der 8800GT vorbei zu takten :) Und jetzt bitte keine Kommentare aller: Die 8800GT lässt sich aber auch noch takten usw, das weis ich :)
@ Razor: So lange noch wach oder Frühschicht gehabt ;)
Razor
2008-01-19, 12:31:32
Und jetzt bitte keine Kommentare aller: Die 8800GT lässt sich aber auch noch takten usw, das weis ich :)
Und was sollen dann solche Überlegungen?
Ich meine... wenn ich die eine übertakte, muss ich auch die andere übertakten.
In unserem Fall würde das bedeuten:
600/1400 vs. 740/1890 = +23%/+35% (statt non OC'd +15%/+25%)
Ergo: der Abstand wird sogar noch größer... zugunsten der 88GT natürlich.
;)
So lange noch wach oder Frühschicht gehabt ;)
Frag' nicht...
*grmpf*
Razor
huw11
2008-01-19, 12:42:11
hier ist ein Test einer OC-Version von EVGA, in hohen Auflösungen und mit viel AA + AF macht die Karte eine sehr gute Figur.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3173-evga-8800gts-640mb-w-112sps-ssc-edition-review.html
Razor
2008-01-19, 12:50:04
Klar... weil übertaktet.
OC vs. nonOC Vergleiche sind irgendwie... für'n Popo!
Razor
Ihr dürft nicht vergessen das die GTS G80 20 Rops und der G92 nur 16 hat
huw11
2008-01-19, 12:58:46
Klar... weil übertaktet.
OC vs. nonOC Vergleiche sind irgendwie... für'n Popo!
Razor
die Frage ist, ob die GT bei hoher Auflösung und mit hohen Qualitätseinstellungen,
aufgrund der geringeren Speicheranbindung und weniger RAM, noch gut nach oben skaliert?
Razor
2008-01-19, 13:35:42
die Frage ist, ob die GT bei hoher Auflösung und mit hohen Qualitätseinstellungen,
aufgrund der geringeren Speicheranbindung und weniger RAM, noch gut nach oben skaliert?
Die Bandbreite ergibt sich aus Speicher-Interface-Breite und Takt.
Obige Rechnung dürfte gezeigt haben, dass der Vorteil dieser Karte (ohne OC!) bei gerade mal 10% liegt... zu gering, um einen Vorteil zu beiten.
Und ob die 128MB mehr VRAM tatsächlich etwas bringen?
Klar, in Grenzbereichen mag das mit der größeren VRAM-Menge stimmen (>512MB tatsächlichen Verbrauch einer einzelnen Scene und natürlich weniger als 640MB), aber sobald es darüber hinaus geht, wars das schon wieder... also auch nicht wirklich ein großer Vorteil.
@Gast
Die architekturellen Unterschiede sind hier noch gar nicht berücksichtigt... denn wenn Du hier ROPs mit ins Spiel bringen will, dann spiele ich die Karte TMUs und effizienteres Speicherinterface aus.
Razor
AnarchX
2008-01-19, 13:44:29
Sobald Bi-AF/Tri-Filterung im Einsatz ist, sind die zusätzliche TAs des G92 egal.
Und wer sagt, dass G92 ein effizienteres SI hat? Auf den ersten Blick ist es eine 4-fach Unterteilung gegen eine effizientere 5-fache bei G80GTS. ;)
Die 70-80GB/s Speicherbandbreite und die höhere Z-Fill einer G80GTS können dieser durchaus zu dem ein oder andere Sieg über eine OC-GT verhelfen, erst recht in höheren Settings, wo das eine oder andere Mal auch die 512MB knapp werden und es zu signifikanteren Unterschieden kommen kann.
Aber dann bleibt natürlich noch die Frage der P/L und da bewegt sich G92 mit den mittlerweile fallenden Preisen doch ziemlich stark nach oben.
Razor
2008-01-19, 14:02:12
Sobald Bi-AF/Tri-Filterung im Einsatz ist, sind die zusätzliche TAs des G92 egal.
Und wer sagt, dass G92 ein effizienteres SI hat? Auf den ersten Blick ist es eine 4-fach Unterteilung gegen eine effizientere 6-fache bei G80GTS. ;)
Das mit den der Ineffiktivität bei aktiviertem AF (8x/16x sollten normal sein) musst Du mir bitte nochmal erklären.
Und wenn überhaupt, sollte die GTS ein "effizienteres 5-fach" SI haben (5x64Bit)... die GTX/Ultra haben ein 6-fach SI (6x64Bit=384Bit).
Was aber daran 'effizienter' sein soll, musst Du mir bitte ebenfalls nochmal erklären...
Und warum die Bandbreite vom G92 effektiver genutzt wird?
Weil diesbezüglich Tests mit vergleichbaren Settigs dies zeigten?
:confused:
Razor
Den Mythos von der besser ausgenutzten Bandbreite hat bisher noch überhaupt kein Test bestätigt, den hast Du in die Welt gesetzt. As usual.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.