PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GT - Performance D3D10 in 65nm im Oktober?


Seiten : 1 2 [3] 4 5

seahawk
2007-10-14, 11:24:37
Wie meinst du das konkret?

Du (oder ein andere Gast) fragtest sagtest, dass ich mal auch eher nV zugeneigt war. Wärst Du kein Gast könnte ich Dir vieles per PM erklären.

dargo
2007-10-14, 11:28:03
Du hast meine Aussage wohl nicht ganz korrekt aufgenommen.

Wir hatten auch schon bessere Diskussionen.
Was sollte dann diese überflüssige Bemerkung - er hat Angst um seine alte GTX?
Es ist völlig normal, dass High-End nach einem Jahr nicht mehr High-End ist. Das war schon immer so und wird sich auch nicht ändern. Außerdem hatte er ein Jahr Spaß mit seiner GTX und wird noch weiter Spaß mit ihr haben.

Gast
2007-10-14, 11:41:02
Was sollte dann diese überflüssige Bemerkung - er hat Angst um seine alte GTX?
Das ist mir nach den Bemerkungen des Herrn LovesuckZ in den Sinn gekommen.
Der der seine GTX bis aufs Blut verteidigt.


Ich finde es auch normal das die GTX nicht ewig Highend sein kann, ich finde sie ist schon viel zu lange Highend und die Mittelklasse der GF8 ist bis jetzt zum kotzen.

LovesuckZ
2007-10-14, 11:58:10
Das ist mir nach den Bemerkungen des Herrn LovesuckZ in den Sinn gekommen.
Der der seine GTX bis aufs Blut verteidigt.


Natürlich kam dir das in Sinn. Muss ja so sein, dass ich nicht will, dass meine GTX nach einem Jahr an Wert verliert.
Gott, wie egoistisch ich nur bin. :rolleyes:

Gast
2007-10-14, 12:07:26
Der ganz fiese Flaschenhals kommt auch IMO nicht von den ROPs im R600. Die 32 Z Tester sind ein Teilproblem. Ein Loop kostet nur einen Extra-Takt. Die Berechnung eines Pixels viele viele Takte mehr.
Wenn die ROPs das AA-Resolve machen, sicherlich. :)

In irgendeiner Stelle scheint ein Bottleneck aufzutreten, der so sicher nicht geplant war (IMO zusehr ein Detailproblem um es mit einem Schlagwort "ROP" oder "Colorcompression" am GPU-Blockschaltbild zu finden). Das scheinen sie im RV670 gefixt zu haben.
Und wenn es so ein Detail war, wieso konnte man das nicht in einem der vielen Respins fixen? Die Verspätung war sicherlich groß genug, um bereits mehr als 6 Monate vor dem Release das Problem erkannt zu haben.

dargo
2007-10-14, 12:20:47
Das ist mir nach den Bemerkungen des Herrn LovesuckZ in den Sinn gekommen.
Der der seine GTX bis aufs Blut verteidigt.

Achso, du darfst die Fanboys hier im Forum nicht so ernst nehmen. ;)
Das gilt übrigens für beide IHVs.

AnarchX
2007-10-14, 14:32:56
VP 3 (oder doch 2?) im Test auf der 8800GT (http://news.expreview.com/2007-10-13/1192281262d4094.html)

Gast
2007-10-14, 16:28:35
Wenn die ROPs das AA-Resolve machen, sicherlich. :)


Und wenn es so ein Detail war, wieso konnte man das nicht in einem der vielen Respins fixen? Die Verspätung war sicherlich groß genug, um bereits mehr als 6 Monate vor dem Release das Problem erkannt zu haben.
Die ROPs kümmern sich auch jetzt bzw. von Anfang an um das Resolving.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5898538#post5898538

Gast
2007-10-14, 22:15:32
Die ROPs kümmern sich auch jetzt bzw. von Anfang an um das Resolving.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5898538#post5898538
Lies am besten nochmal genau nach, was du verlinkt hast.

dildo4u
2007-10-14, 23:43:59
http://pic.xfastest.com/sxs112/NV/8800GTB/SPEC.jpg

http://pic.xfastest.com/sxs112/NV/8800GTB/03.jpg

http://pic.xfastest.com/sxs112/NV/8800GTB/05.jpg

http://www.mobile01.com/topicdetail.php?f=298&t=417148&p=2

CPU könnte ein E6600 sein.

Adam D.
2007-10-15, 07:10:04
Sind doch ganz nette Ergebnisse ;)

StefanV
2007-10-15, 07:48:21
CPU könnte ein E6600 sein.
Meinst nicht, das der 3DMark die eigentlich soweit kennen würde??

Wäre ja nicht unmöglich, das es ein Phenom/Barcelona oder sowas in der Art sein könnte...

BigKid
2007-10-15, 10:59:43
Hmm... Sorry wenn ich jetzt irgendwen wiederhole aber das habe ich bisher noch nirgends so deutlich gesehen:

http://forums.vr-zone.com/showthread.php?t=194422

Behauptet folgendes sei offiziell:

SKUs :

GeForce 8800 GT : 112 SP, PCIe 2.0, PV3.0(VC1), 256-bit mem interface

GeForce 8800 GTS : 112 SP, PCIe 2.0, PV3.0 (VC1), 320-bit mem interface

GeForce 8800 GTX : 128 SP, PCIe 2.0, PV3.0 (VC1), 384-bit mem interface

GeForce 8800 Ultra : 128 SP, PCIe 2.0, PV3.0 (VC1), 384-bit mem interface



Damit würde die 8800GT in die Fussstapfen der 4x00GT treten - gute Performance zu gutem Preis.

GeneralHanno
2007-10-15, 11:38:35
damit wäre der "G92" vermutlich ein geshrinkter auf 65nm G80.
8 cluster/ 6ROP-part , wobei bis zu 1 cluster (vermutlich 2 bei der GS) und bis zu 2 ROP-part deaktiviert werden.

AnarchX
2007-10-15, 12:03:28
http://img90.imageshack.us/img90/8705/2007101591f48dd58e4bd3dbi2.jpg

War nicht Zotac bei NV gleich Sapphire? :|

Noch eine AIB-8800GT:
http://img90.imageshack.us/img90/8725/20071015ae0c96dff6917b2fd2.jpg

GeneralHanno
2007-10-15, 12:05:32
vll geht saphire jetzt fremd :D

vll ein fake?

€dit: der kühler hat sich jetzt wohl als refenrenz entgültig durchgesetzt.

Die gelbe Eule
2007-10-15, 12:05:38
Naja viel neues sieht man da nicht ;)

AnarchX
2007-10-15, 12:07:42
Aber es besätigt den kleinen Kühler und nicht die stärkere Ausführung bei dem schwarzen Prototypen.

Die gelbe Eule
2007-10-15, 12:11:15
Das sind halt Referenzmodelle. Du weißt schon wie mickrig die 7600GT Kühler waren, hier wird es nicht anders laufen.

Gast
2007-10-15, 12:11:44
Zumindest das Aussehen hat sich bestätigt. Wenn jetzt noch die aktuellen Informationen der Wahrheit entsprechen, sind ja alle glücklich ;)

Winter[Raven]
2007-10-15, 12:20:11
vll geht saphire jetzt fremd

Könnte man auch einiem Unternehmen nicht verdenken oder?

Gast
2007-10-15, 12:32:10
Darf ich mal anmerken, dass ich gern eine Zweislot-Version davon hätte? Zwecks besserer Gehäuseentlüftung und geringerer Lautstärke.

Die gelbe Eule
2007-10-15, 12:36:02
http://resources.vr-zone.com/newzhunter/8800GT/gpuz_88gt.jpg

Somit dürfte sich so manches bestätigen ;)

Man beachte wie hoch sich GPU und Shader prügeln lassen.

Gast
2007-10-15, 12:47:10
...
War nicht Zotac bei NV gleich Sapphire? :|

Jein, Zotac und Sapphire haben ein gemeinsames Mutterunternehmen.

Winter[Raven]
2007-10-15, 12:47:47
Wenn die Gt mit 2250 wirklich ohne Probleme läuft, sehe ich keinen Grund warum Nvidia den 1TFLOP Chip nicht bringen kann/sollte...

//EDIT:

laser114
2007-10-15, 12:48:15
;5933839']Wenn die Gt mit 2250 wirklich ohne Probleme läuft, sehe ich keinen Grund warum Nvidia den 1TFLOP Chip nicht bringen kann...

Und ich frage mich wirklich, wieso es keine 8900er-Serie gibt...

AnarchX
2007-10-15, 12:53:47
Man beachte wie hoch sich GPU und Shader prügeln lassen.

Wobei im Text nichts von OC steht und sie auch eher auf einen Auslesefehler tippen. ;)

Aber 50% wären wirklich nett, wenn aber wohl kaum mit den Default-Kühler.

Die gelbe Eule
2007-10-15, 12:55:42
950MHz waren auf der 8600GT auch kein Thema mit Voltmod, denke schon das es hier möglich wäre. Somit hat man GTX Performance für ~210€.

LovesuckZ
2007-10-15, 12:56:09
Aber 50% wären wirklich nett, wenn aber wohl kaum mit den Default-Kühler.

Die 7900GT lies sich auch auf 650mhz mit 1.4V und dem Standardkühler bringen.

AnarchX
2007-10-15, 12:59:13
Die 7900GT lies sich auch auf 650mhz mit 1.4V und dem Standardkühler bringen.

Die hat aber auch keine 110W TDP @ Default.;)

Ich würde realistisch bei der 8800GT auf einen OC von 700-750MHz und mit Glück 800MHz schätzen.

LovesuckZ
2007-10-15, 13:01:06
Die hat aber auch keine 110W TDP @ Default.;)

Das wird auch keine 8800GT haben. :)

Gast
2007-10-15, 13:07:43
Das wird auch keine 8800GT haben. :)

Na wenn du das sagst. :rolleyes:

GeneralHanno
2007-10-15, 13:09:24
anarchx sagte TDP und die wird bei 110W liegen ;)

LovesuckZ
2007-10-15, 13:09:32
Na wenn du das sagst. :rolleyes:

Ich hat mit meinem Spekulationen ja soviel Pech gehabt, gell? :P
110TDP wäre eher eine 8Cluster G92. Bei der Karte würd' ich nicht mehr als auf 80-85 schätzen.

Adam D.
2007-10-15, 13:09:44
Die hat aber auch keine 110W TDP @ Default.;)

Ich würde realistisch bei der 8800GT auf einen OC von 700-750MHz und mit Glück 800MHz schätzen.
Allein das reicht schon, um sie in Regionen zu schießen, die für diesen Preis einfach fantastisch sind :)

Ailuros
2007-10-15, 13:09:52
http://resources.vr-zone.com/newzhunter/8800GT/gpuz_88gt.jpg

Somit dürfte sich so manches bestätigen ;)

Man beachte wie hoch sich GPU und Shader prügeln lassen.

6.3 GPixels/Texels/s? Wie bitte? :confused:

deekey777
2007-10-15, 13:10:13
Jein, Zotac und Sapphire haben ein gemeinsames Mutterunternehmen.
Oder doch nicht: Zumindest lässt Sapphire seine Produkte bei PC Partner fertigen (wie auch andere Hersteller), Zotac wiederum gehört zu PC Partner.

laser114
2007-10-15, 13:10:59
6.3 GPixels/Texels/s? Wie bitte? :confused:

Die Auslesung der Hardware-Einheiten scheint nicht ganz korrekt zu sein. ;)

Takt, Speichergröße etc. deckt sich aber mit manchen Erwartungswerten.

Vertigo
2007-10-15, 13:11:36
6.3 GPixels/Texels/s? Wie bitte? :confused:
Ich glaube nicht, dass die 8800GT nur über 7 ROPs verfügen wird. Diese und andere Angaben im GPU-Z-Screenshot können nicht stimmen ...

Ailuros
2007-10-15, 13:13:00
Eben; bei 900MHz muesste in dem Dingsbums 14.4 GPixels bzw. GTexels/s stehen.

deekey777
2007-10-15, 13:14:35
6.3 GPixels/Texels/s? Wie bitte? :confused:
Das Teil ist doch im Beta-Stadium, oder?

LovesuckZ
2007-10-15, 13:17:29
Vielleicht liest das Tool auch nur die Anzahl der ROP-Partitionen aus...
Aber es sind ja nur noch 14 Tage, dann wissen wir ja mehr.

Vertigo
2007-10-15, 13:19:26
Das Teil ist doch im Beta-Stadium, oder?
Zum einen das und zum anderen ist die 8800GT ja noch nicht sooo stark verbreitet ... :biggrin:

GeneralHanno
2007-10-15, 13:23:14
er liest statt 7 cluster 7 pixelshader aus :D

Hvoralek
2007-10-15, 13:38:40
Damit würde die 8800GT in die Fussstapfen der 4x00GT treten - gute Performance zu gutem Preis.Du meinst jetzt die Ti 4200, oder?

Eben; bei 900MHz muesste in dem Dingsbums 14.4 GPixels bzw. GTexels/s stehen.Das würde bedeuten wie erwartet 4 ROP- Blöcke, aber auch nur 4 Cluster...

/edit: Und G80- Cluster. Bei vier G84- Clustern @ 900 MHz käme man auf 28,8 GTexel/s.

LovesuckZ
2007-10-15, 13:41:54
Das Tool rechnet nur mit den Informationen, die es hat. Man kann keine Rückschlüsse ziehen, ob die Angaben richtig wären.

dildo4u
2007-10-15, 13:43:08
Ebend das Tool muss wie CPU-Z für jede neue CPU/GPU geupdatet werden.

Ailuros
2007-10-15, 13:45:06
Das würde bedeuten wie erwartet 4 ROP- Blöcke, aber auch nur 4 Cluster...

Wieso 4 cluster? Du glaubst doch wohl nicht im Ernst dass die GT die angebliche Leistung im obrigen Link mit nur maximal theoretischen 288GFLOPs erreicht oder? Es sind wohl eher 504GFLOPs/s.

/edit: Und G80- Cluster. Bei vier G84- Clustern @ 900 MHz käme man auf 28,8 GTexel/s.

16 TMUs * 900MHz = 14.4 GTexels/s oder 28.8 GTexels/s bi-AF

Nakai
2007-10-15, 14:16:15
Ergo wird der G92 aka 8800GT mit 600Mhz für Core und 1,5Ghz für Shader takten.

Ebenso scheinen es nur 16 Doppel-TMUs bei 128 Shader zu sein.

D.h. es sind, wie es AnarchX gesagt hat, mehr Shader in einem Cluster drin.

Das Ding lässt sich ziemlich hochjagen, deswegen können wir einiges von dem Ding erwarten.


mfg Nakai

AnarchX
2007-10-15, 14:20:41
@Nakai
Wie kommst du darauf?

Soll dann bei der 8800 GT bei einem Cluster 2 Vec8-ALUs deaktiviert sein?

Bei 112SPs können es eigentlich nur 7 Cluster sein.

Imo ist es ganz klar doch ein "G80 @ 65nm"...

Hvoralek
2007-10-15, 14:28:49
Wer sagt denn, dass diese 112 SPs stimmen?

Nakai
2007-10-15, 14:28:56
IMO passen nach den Benches dann was nicht.

Entweder war es ein sehr niedrig getakteter Chip oder NV taktet den G92 absichtlich nicht so hoch(wie immer...).

Nach meiner Ansicht könnte dann NV 3 Versionen bringen. Eine 7 Cluster-Version, wie alle denken. Und dann noch eine 4 bzw. 5 Cluster Version.
Als krönender Abschluß ein 8 Cluster Chip mit hohen Taktraten um nahe an einem Teraflop zu kommen....


mfg Nakai

robbitop
2007-10-15, 14:29:26
Das Ding kann 16 Farbwerte + 16 Z gleichzeitig in den Framebuffer schreiben (4 Quad ROPs und 16 Blender). Und das bis 4xMSAA. Was für eine Texelfüllrate dahinter steht, ist eine andere Frage. Höchstwahrscheinlich 7 Cluster x 8 bi TMUs x 600 MHz = 33,6 GTex/sek bilinear und 16,8 GTex/sek trilinear. Jedenfalls mehr als genug Füllrate.

Wer sagt denn, dass diese 112 SPs stimmen?
NVidia. Man schaue sich die geleakte Folie an.

IMO passen nach den Benches dann was nicht.



Viel Rohleistung gefangen in mittelmäiger VRAM-Bandbreite.

Ailuros
2007-10-15, 14:40:54
Wer sagt denn, dass diese 112 SPs stimmen?

G92= 96-128SPs ;)

Hvoralek
2007-10-15, 14:45:24
NVidia. Man schaue sich die geleakte Folie an.Die Angaben ergeben sich aus dieser Folie. Ich würde aber kein Gift darauf nehmen, dass die wirklich von Nvidia stammt.

7 (G84-?) Cluster mit solchen Taktraten wären ein ganzen Stück schneller als eine alte GTS, die etwas geringere Bandbreite wäre da auch keine Katastrophe. So eine Karte für 200 - 220€ wäre zwar klasse, würde mich aber immer noch wundern.

robbitop
2007-10-15, 14:52:10
Die Angaben ergeben sich aus dieser Folie. Ich würde aber kein Gift darauf nehmen, dass die wirklich von Nvidia stammt.

Da kannst du Gift drauf nehmen. ;)


7 (G84-?) Cluster mit solchen Taktraten wären ein ganzen Stück schneller als eine alte GTS, die etwas geringere Bandbreite wäre da auch keine Katastrophe. So eine Karte für 200 - 220€ wäre zwar klasse, würde mich aber immer noch wundern.
Ich bin auch aus den Wolken gefallen, als ich es hörte.

Ailuros
2007-10-15, 14:56:21
7 (G84-?) Cluster mit solchen Taktraten wären ein ganzen Stück schneller als eine alte GTS, die etwas geringere Bandbreite wäre da auch keine Katastrophe. So eine Karte für 200 - 220€ wäre zwar klasse, würde mich aber immer noch wundern.

Das 512MB Modell wird schon etwas mehr als nur 200 kosten; bei dem Preis wuerde ich eher eine 256MB GPU erwarten.

8800GTS = 10 GPixels
8800GT = 9.6 GPixels/s

Dank der Z Fuellrate duerfte der Bandbreiten-Unterschied eigentlich scheissegal sein. Die wahre Frage ist wie viel TMUs bzw. Texel-Fuellrate.

Je nach Leistungsschwankungen durch die verschiedenen Aspekte der GT, ist sie mal in etwa gleich so schnell wie eine GTS oder liegt eventuell irgendwo zwischen dieser und einer GTX.

Lies nochmal meinen vorigen Beitrag; wenn der kommende high end Refresh um X Prozent schneller sein wird als eine heutige GTX, wuerde das dann nicht auch die kleinere Modelle der G92 Reihe beinflussen?

seahawk
2007-10-15, 15:16:16
G92= 96-128SPs ;)

Dann hat die GT also nur 96, ist ja das kleinste Modell.

robbitop
2007-10-15, 15:19:10
Laut NV hat die GT 112 SP.
Möglicherweise gibt's ja noch eine GTO oder eine 8700.

GeneralHanno
2007-10-15, 15:40:51
oder eine GS ;)

96SP + 256mb ram

AnarchX
2007-10-15, 15:54:00
8800GS vs 2950GT, würde ja passen...

dargo
2007-10-15, 16:21:46
950MHz waren auf der 8600GT auch kein Thema mit Voltmod, denke schon das es hier möglich wäre. Somit hat man GTX Performance für ~210€.
Öhm, da musst du mir noch zeigen wie du den Speicher auf 1,35Ghz bringst und die fehlenden 256MB Vram dranlötest. ;D

Laut NV hat die GT 112 SP.
Möglicherweise gibt's ja noch eine GTO oder eine 8700.
Was spricht gegen eine G8800GT 256 mit 96SPs und G8800GT 512 mit 112SPs?

reunion
2007-10-15, 16:32:34
Hmm... Sorry wenn ich jetzt irgendwen wiederhole aber das habe ich bisher noch nirgends so deutlich gesehen:

http://forums.vr-zone.com/showthread.php?t=194422

Behauptet folgendes sei offiziell:

SKUs :

GeForce 8800 GT : 112 SP, PCIe 2.0, PV3.0(VC1), 256-bit mem interface

GeForce 8800 GTS : 112 SP, PCIe 2.0, PV3.0 (VC1), 320-bit mem interface

GeForce 8800 GTX : 128 SP, PCIe 2.0, PV3.0 (VC1), 384-bit mem interface

GeForce 8800 Ultra : 128 SP, PCIe 2.0, PV3.0 (VC1), 384-bit mem interface

Damit würde die 8800GT in die Fussstapfen der 4x00GT treten - gute Performance zu gutem Preis.

So wird es wohl aussehn. Nur frage ich mich nach wie vor, was sich nV davon erhofft, die Namen beizubehalten. Zweifellos wird das für jedemenge Verwirrung sorgen. Den Verkauf wird es wohl auch nicht zuträglich sein, wenn ein Großteil der Kunden nichtmal mitbekommt, dass es jetzt neue Karte gibt, die sich ja traditionell immer besser verkaufen.

BigKid
2007-10-15, 18:15:36
Du meinst jetzt die Ti 4200, oder?


Ach Herrjeh - das Alter...
Aber genau die meinte ich...
Richtig gut fürn guten Preis...

Achja... Früher...

Da war alles besser...
Die Pixel grüner...
Die Kühler kühler...
Die Chips heisser...
Und die Mädels...

Achja... Früher...

TB1333
2007-10-15, 18:59:46
Ach Herrjeh - das Alter...
Aber genau die meinte ich...
Richtig gut fürn guten Preis...

Achja... Früher...

Da war alles besser...
Die Pixel grüner...
Die Kühler kühler...
Die Chips heisser...
Und die Mädels...

Achja... Früher...


Die Chips sind heute ja wohl heiß genug, 90°C und mehr ;D

laser114
2007-10-15, 19:53:45
Achja... Früher...

Welche Ironie das bei mir gerade das Lief 'Früher war alles besser' läuft. ;D

Jaja, 'Ich finde es zum kotzen, dass alle meckern, dass früher alles besser war. Für mich ist völlig klar: Das haben die Leute früher nicht gemacht...'
:biggrin:


G92 und RV670 dürften aber wirklich den Markt endlich mal etwas auffrischen.

AnarchX
2007-10-16, 07:55:57
http://img84.imageshack.us/img84/1558/02nvg92ef9.jpg
http://img84.imageshack.us/img84/7766/04nvg92pn3.jpg


* G92-270-A2 revision (65nm, Week 37 2007)
* 37.5mm x 37.5mm 1148-pin FCBGA package
* Core clock : 600MHz / Shader clock : 1500MHz
* VGPU = 1.05±10.5mV
* 10-layers PCB revision G92P393
* 8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V
* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)
* Coolermaster TM69 single slot cooler
* 3 heat-pipes, 1000-3200RPM, 34dB
* 110W TDP (Requires 6-pin PCIe connector)
* NVIO/HDCP
http://forums.vr-zone.com/showthread.php?t=195522

Also doch kein Heatspreader.

Vielleicht hat jemand Lust mal den Die anhand der umliegenden Bautteile in der Größe zu schätzen.;)

seahawk
2007-10-16, 07:59:26
34db, das ist laut. Damit ist die Karte wohl uninteressant und man wird auf RV670 warten müssen.

Gast
2007-10-16, 08:08:28
3200rpm ist nicht wenig, aber bei 110W TDP ist ein Single-Slot Kühler wohl schon ziemlich am Limit. Anhand der angegebenen Packagegroße und mithilfe eines Linials kommen ich auf eine Die-Größe von ca. 19.16' x 15.

reunion

Gast
2007-10-16, 08:12:21
/Edit: Ne, die Die-Größe ist falsch, habe eine ehler drinnen. Dürfte sogar größer sein, an die 1.92 x 1.9.

Die gelbe Eule
2007-10-16, 08:15:19
Ich würde sagen 210-230mm², wenn man die BGAs zu Hilfe nimmt, welche 140x110mm groß sind.

Gast
2007-10-16, 08:16:26
Vielleicht hat G92 doch mehr als acht Cluster. Wenn die Packagegröße stimmt, hat das Die ziemlich sicher über 350mm².

reunion

Gast
2007-10-16, 08:18:02
Ich würde sagen 210-230mm², wenn man die BGAs zu Hilfe nimmt, welche 140x110mm groß sind.

Am unteren Bild kannst du ohnehin nicht viel erkennen, dazu ist die Perspektive viel zu verzerrt. Das Die ist annähernd quadratisch, wie man oben sieht.

reunion

Die gelbe Eule
2007-10-16, 08:45:10
Die Perspektive für DIE und BGA ist gleich oder biegt man die Karte zwischendurch? Das die ist nicht annähernd quadratisch, es ist quadratisch.
2 BGAs passen perfekt übereinander, also sind es mindestens 220mm².

Henroldus
2007-10-16, 08:46:28
"* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)"

was is das denn?

Gast
2007-10-16, 09:02:46
34dB - Mist. Damit ist der Traum von der leisten Karte zumindest mal gestorben.

Die gelbe Eule
2007-10-16, 09:05:48
"* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)"

was is das denn?

Der Speicher läuft auf 900MHz, ist aber bei Qimonda mit 1GHz spezifiziert. Also kannst ohne Probleme 1GHz fahren und bleibst noch innerhalb der Spezifikation.
Das macht man deshalb, weil die Hersteller dann die Taktraten selbst anpassen können, mit Luft nach oben.

Gaestle
2007-10-16, 09:29:42
Hmm. NVIO immer noch separat. Doch "nur" ein G80 in 65nm? Welche Größe müsste der haben? Würde das zum Foto passen?



Und noch was: Wenn G92 irgendwo in der (oberen) Mitte der Leistungsskala liegt, und diese Mitte in etwa GTS 640 Niveau hat, würde noch ein High-End fehlen. Ich vermute nämlich, NV launcht doch eine komplette Palette. Das würde IMHO auch die vielen widersprüchlichen Infos / Gerüchte erklären.

AnarchX
2007-10-16, 09:40:55
2 BGAs passen perfekt übereinander, also sind es mindestens 220mm².

Das war ja klar, die Frage ist eher wieviel mehr es ist. ;)

/Edit: Ne, die Die-Größe ist falsch, habe eine ehler drinnen. Dürfte sogar größer sein, an die 1.92 x 1.9.

Und das für $229?:|

Aber in gewisser Weise vermute ich, dass NV vielleicht glaubt die 8800 GT auch wie die anderen 8800er positionieren zu können und somit den Preis stabil zu halten können.
Nicht wie bei anderen Karten die in diesem Preisbereich gelauncht wurden und dann auf 100€ bzw. noch darunter fielen.

Gast
2007-10-16, 09:52:43
34db, das ist laut. Damit ist die Karte wohl uninteressant und man wird auf RV670 warten müssen.

Laut? Es gibt diese tollen Dezibel-Tabellen, wie diese:

[img]http://www.ohropax.de/files/laerm.gif[/quote]
http://www.ohropax.de/52-0-tabelle.html

34db sind da vollkommen in ordnung, oder benötigst du so dringend deine Lern- und Konzentrationsfähigkeit beim Spielen?

LovesuckZ

Gast
2007-10-16, 09:53:10
Laut? Es gibt diese tollen Dezibel-Tabellen, wie diese:

http://www.ohropax.de/files/laerm.gif
http://www.ohropax.de/52-0-tabelle.html

34db sind da vollkommen in ordnung, oder benötigst du so dringend deine Lern- und Konzentrationsfähigkeit beim Spielen?

LovesuckZ

/edit: Angepasst.

Die gelbe Eule
2007-10-16, 09:56:55
Es wird doch eh noch andere Kühler geben, war bisher immer so. Und wer sagt denn, daß sich hier nichts runterregeln läßt? Wer Performance in Verbindung mit Silent erwartet, der hat noch nie eine X850XT gehabt.

Gast
2007-10-16, 10:36:38
Und das für $229?:|

Aber in gewisser Weise vermute ich, dass NV vielleicht glaubt die 8800 GT auch wie die anderen 8800er positionieren zu können und somit den Preis stabil zu halten können.
Nicht wie bei anderen Karten die in diesem Preisbereich gelauncht wurden und dann auf 100€ bzw. noch darunter fielen.

War auch ein wenig zu viel. Habe es jetzt nochmal genau nachgemessen/gerechnet und komme mit dem oberen Bild auf ~17.28 x ~ 16.98. Wobei auch das obere Bild leicht verzerrt ist, da das Package nicht ganz quadratisch ist. Wenn man das auch noch berücksichtigt, dürften es ca. 17.28 x ~17.35 sein. kann ja jeder selbst nachprüfen.

reunion

prophet
2007-10-16, 10:38:31
Laut? Es gibt diese tollen Dezibel-Tabellen, wie diese:

;D Computer: 10dB ;D Die Grafik hat wohl n Silent-Freak gemacht :rolleyes:

Ich gebe aber vollkommen Recht, dass 34 schon ein Traum sind für eine (nicht-passiv gekühlte) Grafikkarte.

VooDoo7mx
2007-10-16, 10:40:06
Die 34dB werden sicher nur bei maximaler Drehzahl, also bei 3000rpm sein.
Ich will erst mal einen Lüfter wie der auf dem G92 Board sehen, der bei 1000rpm 34dB erzeugt.

Also wird es auch wieder einen sehr leisen 2D Betrieb geben.
Vielleicht hat auch NV den Fehler beim G80 ausgebügelt und der G92 kann vernünftig runtertakten und strom sparen. ;)

AnarchX
2007-10-16, 10:41:32
Vielleicht hat auch NV den Fehler beim G80 ausgebügelt und der G92 kann vernünftig runtertakten und strom sparen. ;)
Da ist imo kein Fehler, sondern die Strategie mit der man Hybrid-SLI vermarkten will.:D

Gast
2007-10-16, 10:45:50
Da ist imo kein Fehler, sondern die Strategie mit der man Hybrid-SLI vermarkten will.:D
Und genau deshalb wird man wohl auch den G92 wieder manuell mit Hilfsmitteln steuern müssen, wenn man Ruhe haben will ;)

robbitop
2007-10-16, 10:57:29
Selbst G80 hatte aber einen deutlich leiseren 2D Mode. In 3D war er zwar nicht flüsterleise aber doch ziemlich leise für eine so dicke GPU. Mein R580 machte mit seinem Lukü deutlich mehr Radau (vom R600 ganz zu schweigen).

VooDoo7mx
2007-10-16, 11:03:27
Da ist imo kein Fehler, sondern die Strategie mit der man Hybrid-SLI vermarkten will.:D

In fast 1 Jahr G80 gab es noch kein Hybrid SLi zu vermarkten.

robbitop
2007-10-16, 11:08:01
Das Problem, dass eine Nachfrage nach einer Lösung schaffen soll, muss ja erstmal in die Köpfe der Konsumenten. X-D Das dauert schon.

GeneralHanno
2007-10-16, 11:08:30
"* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)"

was is das denn?


soll wohl heißen, dass die schaltzeit auf 1ns spezifiziert ist.

weis jmd was für speichermodule auf der ULTRA zum einsatzt kommen?

seahawk
2007-10-16, 11:12:21
Laut? Es gibt diese tollen Dezibel-Tabellen, wie diese:

[img]http://www.ohropax.de/files/laerm.gif
http://www.ohropax.de/52-0-tabelle.html

34db sind da vollkommen in ordnung, oder benötigst du so dringend deine Lern- und Konzentrationsfähigkeit beim Spielen?

LovesuckZ[/QUOTE]

Laut im Vergleich zu den Zalman VGA Kühlern z.B.

GeneralHanno
2007-10-16, 11:24:01
über max. dB angaben zu streiten ist genau so sinnvoll, wie über eine TDP zu diskutieren :tongue:

Die gelbe Eule
2007-10-16, 12:01:35
Haben wir aber bei jedem Chip, gekauft wurden sie dann trotzdem ganz heimlich und leise ^^

Gast
2007-10-16, 12:10:37
Nvidia soll gefälligst einen gescheiten 2D-Modus einbauen, der nicht fast so viel Strom verbraucht wie im 3D-Modus!

Es gibt auch Menschen, die nur einen PC für Alles haben.

Die gelbe Eule
2007-10-16, 12:23:58
Gibt es doch mit den 750i und 780i Boards, dort hast dann den IGP als 2D Modus und die Karte selbst bleibt aus. ATi hat gleiches vor.

GeneralHanno
2007-10-16, 12:33:31
ist das schon offiziell, dass man mit einer graka im 750i zwischen IGP und graka bei laufendem BS switchen kann?

Die gelbe Eule
2007-10-16, 12:39:58
Wenn es NV anbietet, dann ja. Soll für AMD CPUs noch dieses Jahr kommen.

Bl@de
2007-10-16, 12:40:10
Gibt es doch mit den 750i und 780i Boards, dort hast dann den IGP als 2D Modus und die Karte selbst bleibt aus. ATi hat gleiches vor.

will ich auch :(

AnarchX
2007-10-16, 12:53:05
Gibt es doch mit den 750i und 780i Boards, dort hast dann den IGP als 2D Modus und die Karte selbst bleibt aus. ATi hat gleiches vor.

780a und 750a, bei Intel wird es wohl erst mit dem 790i geben.

GeneralHanno
2007-10-16, 12:57:27
hmmm das ist natürlich auch ein bisschen dämlich, weil ich mir dann ein mobo von DEM hersteller holen muss, von dem auch meine graka ist ...
und ich glaube kaum, dass ATI oder nvidia Intel helfen würden (treiber ...), damit intel das in ihre mainboards integrieren kann.

Hvoralek
2007-10-16, 14:22:16
War auch ein wenig zu viel. Habe es jetzt nochmal genau nachgemessen/gerechnet und komme mit dem oberen Bild auf ~17.28 x ~ 16.98. Wobei auch das obere Bild leicht verzerrt ist, da das Package nicht ganz quadratisch ist. Wenn man das auch noch berücksichtigt, dürften es ca. 17.28 x ~17.35 sein. kann ja jeder selbst nachprüfen.Dann haben wir hier ja CJs mysteriösen 289- mm²- Chip.

robbitop
2007-10-16, 14:41:52
Soviel zu CJs Glaubwürdigkeit mit seinem 4 Cluster G92.

AnarchX
2007-10-16, 14:44:28
Soviel zu CJs Glaubwürdigkeit mit seinem 4 Cluster G92.

Aber davon sprach er nicht mehr in der nahen Vergangenheit.
Wobei, wie schon gesagt, er schreibt auch nur aus seinem niederländischen Forum ab, wo ein paar Leute mit guten Kontakten herumlaufen/posten.;)

Die gelbe Eule
2007-10-16, 14:48:01
Der Chip geht doch klar in Richtung 210m². Seit wann kann man mit dem Lineal am Monitor messen?

HOT
2007-10-16, 15:22:41
ist das schon offiziell, dass man mit einer graka im 750i zwischen IGP und graka bei laufendem BS switchen kann?
Es ist sehr wahrscheinlich. MCP72, MCP78 und die C72 (AMD) / C73 (Intel) NBs enthalten IGPs. Beim NF780i wird das noch nix, da die NB da ja ein oller C55 ist, der hat bekanntlich keine IGP Funktion.

HOT
2007-10-16, 15:25:20
Der Chip geht doch klar in Richtung 210m². Seit wann kann man mit dem Lineal am Monitor messen?
Eher weniger. Hast du dir die Grössenverhältnisse mal angeschaut? Das mit den 289mm² kommt schon ganz gut hin.
http://www.pcgameshardware.de/screenshots/medium/2007/10/04nvg92.jpg
Hier zum Vergleich ein RV670, der ja bekanntlich nur 199mm² hat:
http://www.pcgameshardware.de/?menu=browser&article_id=616111&image_id=705995

Ich frag mich echt wie NV das gemacht hat. Ein Die Shrink auf eine 40% kleinere Strukturbreite, sogar weniger Shaderprozessoren und ein kleineres Speicherinterface verbaut und trotzdem noch fast so gross wie der G80 :crazy:

AnarchX
2007-10-16, 15:27:33
Eher weniger. Hast du dir die Grössenverhältnisse mal angeschaut?
http://www.pcgameshardware.de/screenshots/medium/2007/10/04nvg92.jpg

Sicherlich nicht, G71 auf einer 7900GT:
http://pics.computerbase.de/1/3/7/7/3/56.jpg

G92 ist deutlich größer. Es werden wohl die ~290mm² sein.

edit:
Hmmm... das weniger stand wohl eher im Kontext für falsch... :redface:

Gast
2007-10-16, 15:28:51
Der Chip geht doch klar in Richtung 210m². Seit wann kann man mit dem Lineal am Monitor messen?

Sorry, aber schon mit dem Auge sehe ich anhand der Packagegroße und der RAM-Bausteine, dass der Chip größer ist als 210mm². Und was ist daran nicht legitim die Längen am Monitor abzumessen? Es geht ja nur um das Verhältnis Package zu Chip, und da man die Packagegröße kennt, ist es ein leichtes die Chiplängen zu ermitteln. Auch wenn das natürlich durch die leicht verzerrte Optik und der relativ ungenauen Messung sicher nicht 100%ig stimmt. Aber zumindest kann man schonmal sagen, dass der Chip in Richtung 300mm² geht.

reunion

Die gelbe Eule
2007-10-16, 15:30:02
Nimm einfach mal das Bild, schneide einen BGA aus, dann kannste beide übereinanderlegen und die bedecken dann den Chip. Da die Seite eines BGA 110m lang ist, kannste Dir was exakt ausrechnen, wie groß der Chip sein muss. Toleranz ist bei unter 5%.

Hvoralek
2007-10-16, 15:36:29
Ich frag mich echt wie NV das gemacht hat. Ein Die Shrink auf eine 40% kleinere Strukturbreite, sogar weniger Shaderprozessoren und ein kleineres Speicherinterface verbaut und trotzdem noch fast so gross wie der G80 :crazy:65nm ist fast ein 50%- Shrink ggü. 90nm. G92 wird wohl wirklich acht Cluster haben und durch die Umbauten wahrscheinlich noch etwas komplexer sein als G80. Außerdem würde ich 290mm² nicht als "fast so groß" bezeichnen wie 480mm² :wink:

Gast
2007-10-16, 15:36:52
Nimm einfach mal das Bild, schneide einen BGA aus, dann kannste beide übereinanderlegen und die bedecken dann den Chip. Da die Seite eines BGA 110m lang ist, kannste Dir was exakt ausrechnen, wie groß der Chip sein muss. Toleranz ist bei unter 5%.

Auch da komme ich auf kein anderes Ergebnis. ich bringe fast zwei BGAs nebeneinander hin, macht als etwas weniger als 220mm breite. Länger kann man durch die verzerrte Optik schwer abschätzen, aber auch da ist der Chip gut 30% länger als das ein BGA.

reunion

Gast
2007-10-16, 15:39:32
Fehlerkorrigiert (man sollte nicht zu viele Dinge auf einmal machen):

Auch da komme ich auf kein anderes Ergebnis. Ich bringe fast zwei BGAs nebeneinander hin, macht als etwas weniger als 22mm breite. Länge kann man durch die verzerrte Optik schwer abschätzen, aber auch da ist der Chip gut 30% länger als ein BGA.

reunion

Die gelbe Eule
2007-10-16, 15:40:40
Nebeneinander? Bei mir passt nur 1/3 und das wären demnach 140mm+40mm.

Gast
2007-10-16, 15:41:53
Nebeneinander? Bei mir passt nur 1/3 und das wären demnach 140mm+40mm.

Ja, 1/3 in der Länge, aber fast zwei in der breite.

reunion

AnarchX
2007-10-16, 15:47:46
Sind schon die ~17x17mm:
http://resources.vr-zone.com/newzhunter/8800GT-markings.gif

Das Teil in der Mitte ist doch der G92 und nicht nur ein Makierungsfeld auf dem Heatspreader, wie ich bis gestern annahm...

Die gelbe Eule
2007-10-16, 15:49:04
Ja, 1/3 in der Länge, aber fast zwei in der breite.

reunion

Das BGA ist 140mm x 110mm groß, kannst Dich gerne bei Qimonda umschauen.

HOT
2007-10-16, 16:00:27
Nimm einfach mal das Bild, schneide einen BGA aus, dann kannste beide übereinanderlegen und die bedecken dann den Chip. Da die Seite eines BGA 110m lang ist, kannste Dir was exakt ausrechnen, wie groß der Chip sein muss. Toleranz ist bei unter 5%.
Schon wenn man die PCB Grösse ins Verhältnis setzt und die Chips der Einfachheit halber als Quadrate rechnet ist der G92 sehr viel grösser als der RV670 und G70. Das mit den 289mm² kommt auf jeden fall hin.
Wenn NV von 480mm² geschrinkt hat, ist das sogar ein akzeptabler Shrink auf 289mm². Ich wusste ja net, dass der G80 so riesig ist :D.
Der G92 hat 60% der Grösse des G80, das halte ich für sehr realistisch. 210mm² wären etwas mehr als 40% der Grösse des G80, das ist unmöglich bei gleichem Transistorcount.

AnarchX
2007-10-16, 16:07:47
VP2/3 ist ja auch dazugekommen, wie man an dem Test in #1 sieht.
Mal ob sonst noch was im G92 schlummert, an manchen Stellen wurde sicherlich noch etwas verbesser (Ailuros sprach ja das Culling an).

@HOT
G70 lag bei 330mm², du meinst G71... ;)

laser114
2007-10-16, 16:14:35
Hmm, wenn ich jetzt mal nachrechne:

NVIDIA:
484 mm² (G80) * (65²/90²) = 252 mm²
Das ganze plus den Videoprozessor plus etwaige Verbesserungen könnte bei einem Shrink also ungefähr 289 mm² ergeben. Ist jedenfalls denkbar.

AMD:
420 mm² (R600) * (55²/80²) = 198 mm²
Das ganze plus den Videoprozessor plus der DX-10.1-Erweiterung soll also 194 mm². Da muss dann aber ein verdammt guter Shrink entwickelt wurden sein.

Hvoralek
2007-10-16, 16:17:04
Hmm, wenn ich jetzt mal nachrechne:

NVIDIA:
484 mm² (G80) * (65²/90²) = 252 mm²
Das ganze plus den Videoprozessor plus etwaige Verbesserungen könnte bei einem Shrink also ungefähr 289 mm² ergeben. Ist jedenfalls denkbar.

AMD:
420 mm² (R600) * (55²/80²) = 198 mm²
Das ganze plus den Videoprozessor plus der DX-10.1-Erweiterung soll also 194 mm². Da muss dann aber ein verdammt guter Shrink entwickelt wurden sein.Man weiß nicht, wie viele Massetransistoren jeweils eingespart werden können. G71 war rund 8% simpler als G70, und das war nur ein Shrink von 110 auf 90 nm. Hier könnte es durchaus um noch mehr gehen: Es ist ein größerer Schritt in der Fertigung und sowohl G80 als auch R600 sind Riesenoschis.

AnarchX
2007-10-16, 16:18:09
Nicht beim RV670: 512 -> 256Bit vergessen. ;)
Und das man immernoch Transistoren sparen kann, hat ja NV auch bei G70 auf G71 gezeigt.

Silverbuster
2007-10-16, 16:19:38
Ich bin mal so frei und Poste die ersten Benchmarkergebnisse der 8800GT (http://bbs.expreview.com/thread-9163-1-1.html) auch hier rein. :wink:

AnarchX
2007-10-16, 16:22:03
Die gibt es schon im Post #1, mit ein paar anderen Benchmarks.;)

robbitop
2007-10-16, 16:24:10
AMD:
420 mm² (R600) * (55²/80²) = 198 mm²
Das ganze plus den Videoprozessor plus der DX-10.1-Erweiterung soll also 194 mm². Da muss dann aber ein verdammt guter Shrink entwickelt wurden sein.
Das SI und damit das gesamte IO sind ja nun weniger komplex.

Silverbuster
2007-10-16, 16:28:13
Die gibt es schon im Post #1, mit ein paar anderen Benchmarks.;)

Nur das 3DMark Punkte völlig uninteressant sind in meinen Augen. Aber hast recht... hab ich übersehen da ich den Threat Anfang nicht gelesen hatte.

laser114
2007-10-16, 16:29:42
Das SI und damit das gesamte IO sind ja nun weniger komplex.

Stimmt. Vergessen. :(

Wie steht da eigentlich der G92?

Hvoralek
2007-10-16, 16:41:23
Das SI und damit das gesamte IO sind ja nun weniger komplex.Spart man dadurch nennenswerte Mengen an Transistoren (also so 10 Mio. aufwärts)? Ich dachte immer, ein breites SI würde v.a. eine aufwendige Platine erfordern.

robbitop
2007-10-16, 18:44:52
Spart man dadurch nennenswerte Mengen an Transistoren (also so 10 Mio. aufwärts)? Ich dachte immer, ein breites SI würde v.a. eine aufwendige Platine erfordern.
Naja der Ringbus wird ja kleiner dadurch, das SI auch. Keine Ahnung in welchen Bereichen das rangiert. Allerdings sind beim RV670 vermutlich auch weniger Massetransistoren und Redundanzen erforderlich. Da kommt man insgesamt bestimmt auf solche Dimensionen.

Beim G92 scheinen ja einige kleinere Verbesserungen zu existieren:

- VP
- mehr TAUs (schätze ich mal)
- besseres culling (AiL)

Vieleicht haben sie ja am GS/VS Teil ja noch etwas gemacht, oder an den Texture Caches oder den ALUs. Das weiß man bei NV vorher nie.

reunion
2007-10-16, 19:45:53
Spart man dadurch nennenswerte Mengen an Transistoren (also so 10 Mio. aufwärts)? Ich dachte immer, ein breites SI würde v.a. eine aufwendige Platine erfordern.

Ich würde das auf keinen Fall unterschätzen, man sehe sich mal das R600 Die an:

http://img137.imageshack.us/img137/623/r600dieshotsb9.jpg

Eine genaue Zahl zu nennen ist natürlich unmöglich.

robbitop
2007-10-16, 19:48:13
Das ist die Verdrahtungsebene. Was soll jemand daran zu dem Thema erkennen?

reunion
2007-10-16, 19:51:38
Das ist die Verdrahtungsebene. Was soll jemand daran zu dem Thema erkennen?

Im dem Fall natürlich nichts. Ich ging fälschlicherweise vom Die selbst aus.

PCGH_Carsten
2007-10-16, 19:53:16
Spart man dadurch nennenswerte Mengen an Transistoren (also so 10 Mio. aufwärts)? Ich dachte immer, ein breites SI würde v.a. eine aufwendige Platine erfordern.
Das kommt auch darauf an, ob AMD bei der Unterteilung des Ringbus' oder der Breite der einzelnen Kanäle gespart hat. Ersteres würde mehr Transistoren sparen denke ich.

reunion
2007-10-16, 20:00:27
Das kommt auch darauf an, ob AMD bei der Unterteilung des Ringbus' oder der Breite der einzelnen Kanäle gespart hat. Ersteres würde mehr Transistoren sparen denke ich.

Logisch, denn auf eine Gesamtbreite von 256-bit kommt man sowieso. Mit 4x64-bit erspart man sich allerdings die Hälfte der SC ggü. 8x32-bit. Nur wäre die breite wohl leichter zu ändern, da man nichts am Ringbus selbst modifizieren müsste, zudem hatte auch schon R520/R580 einen achtfach unterteilten SC.

Ailuros
2007-10-16, 22:56:27
Hmm, wenn ich jetzt mal nachrechne:

NVIDIA:
484 mm² (G80) * (65²/90²) = 252 mm²
Das ganze plus den Videoprozessor plus etwaige Verbesserungen könnte bei einem Shrink also ungefähr 289 mm² ergeben. Ist jedenfalls denkbar.

Kann so stehen bleiben.

AMD:
420 mm² (R600) * (55²/80²) = 198 mm²
Das ganze plus den Videoprozessor plus der DX-10.1-Erweiterung soll also 194 mm². Da muss dann aber ein verdammt guter Shrink entwickelt wurden sein.

Was soll sich tolles am Videoprozessor geaendert haben und was fuer eine D3D10.1 Erweiterung ueberhaupt? AMD hat mit dem Tesselations-Dingsbums wenn nicht vollstaendig aber doch bis zum einem hohen Grad nahezu D3D11 Komplianz.

Deine Rechnung stimmt zwar mehr oder weniger, aber sehr viel hat sich an dem Zeug nicht geaendert.

robbitop
2007-10-16, 23:07:52
D3D10.1 macht doch nur ein paar Dinge, die in D3D10 optional waren zur Pflicht. Keine große Sache.

laser114
2007-10-16, 23:45:52
Was soll sich tolles am Videoprozessor geaendert haben

R600 hat doch keinen UVD, RV670 aber. Der muss also auch noch rein.

und was fuer eine D3D10.1 Erweiterung ueberhaupt? AMD hat mit dem Tesselations-Dingsbums wenn nicht vollstaendig aber doch bis zum einem hohen Grad nahezu D3D11 Komplianz.

Hmm, ich weiß nicht ob man da viel hinzufügen muss, soweit kenne ich mich nicht aus. Nach Aussagen von z. B. robbitop wohl eher nein. Trotzdem kann eine oder andere Änderung durchaus deswegen noch dabei gewesen sein ... ich weiß es nicht.

MadManniMan
2007-10-17, 06:28:38
Hab ich da richtig was in meinem Kopf rumgeistern, wenn ich meine, mich an den 19. Oktember zu erinnern, was den Lornsch betrifft? Das wär ja übermorgen!

seahawk
2007-10-17, 06:51:40
Monday 29th

Gast
2007-10-17, 08:17:05
Was soll sich tolles am Videoprozessor geaendert haben und was fuer eine D3D10.1 Erweiterung ueberhaupt? AMD hat mit dem Tesselations-Dingsbums wenn nicht vollstaendig aber doch bis zum einem hohen Grad nahezu D3D11 Komplianz.

Deine Rechnung stimmt zwar mehr oder weniger, aber sehr viel hat sich an dem Zeug nicht geaendert.

Na du bist ja heute störrisch. Ein R600 hat keinen Videoprozessor, deshalb muss der mit rein. D3D10.1 hat er genau so wenig, also braucht es dafür eine Erweiterung - so schwer zu verstehen?

reunion

AnarchX
2007-10-17, 10:59:59
Noch ein paar Non-Default-3DMark06-Werte:
http://img143.imageshack.us/img143/4721/g923dmark06scoresrw2.jpg
http://www.theinquirer.net/gb/inquirer/news/2007/10/17/g92-scores

Gast
2007-10-17, 11:08:18
Ohne die CPU zu wissen, scheint es auf dem Niveau der GTX zu liegen. Nicht schlecht.

LovesuckZ

Endorphine
2007-10-17, 11:48:30
Ohne die CPU zu wissen, scheint es auf dem Niveau der GTX zu liegen. Nicht schlecht. Das aber nur für diejenigen, die eine Grafikkarte kaufen, um damit 3DMark möglichst schnell ablaufen zu lassen. ;)

Ich würde lieber Anwendungsbenchmarks (Spiele also) abwarten, in denen eine 8800Ultra sich auch wie erwartet ggü. einer GTX einordnet.

LovesuckZ
2007-10-17, 11:57:49
Ich würde lieber Anwendungsbenchmarks (Spiele also) abwarten, in denen eine 8800Ultra sich auch wie erwartet ggü. einer GTX einordnet.

Der 3DMark2006 ordnet sie Ultra sehr gut im Verhältnis zur GTX ein. Natürlich sagt er nichts für Real-World Anwendungen aus, aber innerhalb der Architektur ist er brauchbar.

Gast
2007-10-17, 12:07:30
Der 3DMark2006 ordnet sie Ultra sehr gut im Verhältnis zur GTX ein. Natürlich sagt er nichts für Real-World Anwendungen aus, aber innerhalb der Architektur ist er brauchbar.

Nicht wenn es innerhalb der Architektur zu Verbesserungen kam, was hier der Fall ist.

reunion

LovesuckZ
2007-10-17, 12:13:15
Nicht wenn es innerhalb der Architektur zu Verbesserungen kam, was hier der Fall ist.
reunion

ich habe schon dargelegt, warum eine doppelte 8600GTS diese Werte nicht erreichen kann. Wieso du dies wieterhin glaubst, ist mit schleierhaft.

Gast
2007-10-17, 12:48:55
ich habe schon dargelegt, warum eine doppelte 8600GTS diese Werte nicht erreichen kann. Wieso du dies wieterhin glaubst, ist mit schleierhaft.

Was ich glaube ist unerheblich. Im übrigen glaube ich schon lange nicht mehr an die 4C-Theorie. 112SPs/256-bit SI mit 600/1500/900 für die 8800GT ist ja mittlerweile mehrfach bestätigt. Nur ist ein Vergleich mit dem G8x im 3dmark auch innerhalb der Architektur (wie schon gesagt) trotzdem nicht zulässlig, da G92 zumindest die Verbesserungen des G84 erfahren haben wird, welche im 3dmark bekanntlich wesentlich mehr Vorteile bringen als in realen Anwendungen.

reunion

Die gelbe Eule
2007-10-17, 12:59:10
Man wird aber kaum den 3DMark pushen wollen, wenn die fps dann in echten Spielebenchmarks hinterherhängen. Jeder weiß das 3DMark von einer starken CPU abhängt und wer fährt schon 4GHz @ stock damit die Werte erreicht werden?

aths
2007-10-17, 13:17:41
Was ich glaube ist unerheblich. Im übrigen glaube ich schon lange nicht mehr an die 4C-Theorie. 112SPs/256-bit SI mit 600/1500/900 für die 8800GT ist ja mittlerweile mehrfach bestätigt. Nur ist ein Vergleich mit dem G8x im 3dmark auch innerhalb der Architektur (wie schon gesagt) trotzdem nicht zulässlig, da G92 zumindest die Verbesserungen des G84 erfahren haben wird, Woher weißt du das?

Winter[Raven]
2007-10-17, 13:20:32
Nur ist ein Vergleich mit dem G8x im 3dmark auch innerhalb der Architektur (wie schon gesagt) trotzdem nicht zulässlig, da G92 zumindest die Verbesserungen des G84 erfahren haben wird, welche im 3dmark bekanntlich wesentlich mehr Vorteile bringen als in realen Anwendungen.

Klar.... Nvidia steckt Millionen in R&D um nur beim 3DFurz punkten zu können... ne ist klar...

AnarchX
2007-10-17, 13:25:10
8800GT mal vollständig ohne Kühler:
http://img147.imageshack.us/img147/5706/2007101762368481de0e0f0ds7.th.jpg (http://img147.imageshack.us/my.php?image=2007101762368481de0e0f0ds7.jpg)

Interessanterweise ist Lötstelle für den Chip zwischen GPU und Ausgängen leer, also wohl doch kein NVIO, sondern eher ein Chip für die Displayports bei manchen Versionen.

desert
2007-10-17, 13:28:13
Wieso nicht?

Kann man doch gut mit werben, "2000 punkte mehr als vorgänger in dem 3d test überhaupt" hört sich für den normalen kunden doch sehr sehr gut aus.

der weiss doch garnicht was realwordanwendungen sind.

Glaub da zwar nicht dran, aber undenkbar ist es auch nicht.

Die gelbe Eule
2007-10-17, 13:29:42
Also der Kunde weiß nicht was er spielt, aber wie der 3DMark performen muss, das weiß er schon, aha.

Gast
2007-10-17, 13:35:48
Woher weißt du das?

Logik? nV wäre schön blöd, wenn man die Verbesserungen beim Tri-Setup nicht auch auf G92 übernommen hätte. Und das der 3dmark gut mit der Vertexleistung skaliert, ist ja nichts neues. Auf die zusätzlichen TAUs könnte man ev. verzichtet haben.

;5940897']Klar.... Nvidia steckt Millionen in R&D um nur beim 3DFurz punkten zu können... ne ist klar...

Nichts dergleichen habe ich behauptet. Die Intention von nV liegt wohl eher am Workstation-Markt, wo die FireGLs die Quadros aktuell ziemlich alt aussehen lassen.

reunion

Gast
2007-10-17, 13:53:25
Das glaubst du ja wohl selbst nicht, wo der Workstation Markt wirklich winzig ist im Vergleich zum Consumer Markt.
Die Workstation Produkte sind quasi nur "Abfall" aus der Consumer-Produktion.

Gast
2007-10-17, 14:00:54
Wieso nicht?

Kann man doch gut mit werben, "2000 punkte mehr als vorgänger in dem 3d test überhaupt" hört sich für den normalen kunden doch sehr sehr gut aus.

der weiss doch garnicht was realwordanwendungen sind.

Glaub da zwar nicht dran, aber undenkbar ist es auch nicht.
Derjenige, der sich so eine Karte käuft, weiß zu 99 %, was "Realworldanwendungen" sind. Der 3Dmark ist aber trotzdem wichtig, da er sehr sehr verbreitet ist und man leicht und ohne Aufwand benchen kann, im Gegensatz zu manchen Spielen. Sieht man doch bei jeder neuen Generation hier Forum, wenn die neuen Karten zuglegt werden. Posts wie "Habe soviel Schwanzmarks im 3Dmark06 mit einer XY, ist das in Ordnung?" sind dann an der Tagesordnung. Spiele sind da erstmal Nebensache.
Außerdem wird immer mit Zukunftssicherheit argumentiert, da Realworldanwendungen in Zukunft angeblich das gleiche Verhalten wie der 3DMark zeigen würden.

desert
2007-10-17, 14:01:43
Also der Kunde weiß nicht was er spielt, aber wie der 3DMark performen muss, das weiß er schon, aha.

verdrehe doch nicht immer alles, eule.


Du weisst doch genau wie der normale computeruser ist, für den zählt so ein
3d test wesentlich mehr, als die aussage "unsere neue grafikkarte rennt im spiel xxx jetzt mit 102 fps" dann fragt sich der geneigte käufer was fps sind und dann was für ein spiel das sein könnte weil er es nicht kennt.

Der retailmarkt ist doch verschwinded gering, geld wird doch im oem-markt verdient.

Gast
2007-10-17, 14:02:59
Das glaubst du ja wohl selbst nicht, wo der Workstation Markt wirklich winzig ist im Vergleich zum Consumer Markt.
Die Workstation Produkte sind quasi nur "Abfall" aus der Consumer-Produktion.

Dafür liegen die Margen um größenordnungen höher als im Desktopmarkt. Aber die Diskussion ist für mich völlig unintressant. NV wird wohl kaum bei G84 das Design verbessern und diese Verbesserungen beim Nachfolger wieder entfernen. Aber wenn du glaubst es besser zu wissen, bitte. Ist ja nicht mehr lange bis zum Launch.

reunion

Die gelbe Eule
2007-10-17, 14:05:58
Also wenn 1.000 Workstationkarten zu je 2.000€ verkauft werden, zieht das mehr als 200.000 zu je 500€? Die 8800GT ist eine Performancekarte, wird also gekauft wie geschnitten Brot.

Gast
2007-10-17, 14:13:17
Also wenn 1.000 Workstationkarten zu je 2.000€ verkauft werden, zieht das mehr als 200.000 zu je 500€? Die 8800GT ist eine Performancekarte, wird also gekauft wie geschnitten Brot.

Die Margen liegen höher. Was genau daran verstehst du nicht? Jedes Unternehmen ist daran interessiert, bei möglichst wenig Aufwändungen möglich viel Gewinn einzusacken. Natürlich wieger 1.000 Workstationkarten nicht Millionen Desktopkarten auf.

reunion

Die gelbe Eule
2007-10-17, 14:21:20
Und das geht hier nunmal am besten über die Masse. Szenario: 3DMark läuft toll, Spiel läuft Scheiße, Karte geht zurück, Marge = nicht vorhanden. Denk bitte nicht das der RV670 miese 3DMark Performance hat, aber dafür in Spielen 30% schneller sein wird.

Endorphine
2007-10-17, 14:23:42
8800GT mal vollständig ohne Kühler:
http://img147.imageshack.us/img147/5706/2007101762368481de0e0f0ds7.th.jpg (http://img147.imageshack.us/my.php?image=2007101762368481de0e0f0ds7.jpg)

Interessanterweise ist Lötstelle für den Chip zwischen GPU und Ausgängen leer, also wohl doch kein NVIO, sondern eher ein Chip für die Displayports bei manchen Versionen. Welchen Funktion haben eigentlich
# der Piepser
# der zweipolige Anschluss links neben dem SLI-Port -- ein Audio-Eingang für HDMI?
# und der Jumper über dem PCIe-Spannungsversorgungsstecker?

Die gelbe Eule
2007-10-17, 15:51:31
Das weiß wohl nur der Desginer. Interessanter ist doch das 2 Kondensatoren fehlen, was darauf schließen läßt, daß dieses PCB noch für mehr ausgelegt ist

Gast
2007-10-17, 16:21:22
Eine Ein-Slot-Lösung heutzutage??? :eek: Ich bin schwer beeindruckt. :smile:

tomsen
2007-10-17, 16:24:49
Wann kommen denn die Karten? Sind schon welche verfügbar? Im Ausland vielleicht??? Will haben! :rolleyes:

Die gelbe Eule
2007-10-17, 16:25:55
29. Oktober in "geringer" Stückzahl, aber sie kommen dann sicher.

Blaire
2007-10-17, 16:26:24
Ohne die CPU zu wissen, scheint es auf dem Niveau der GTX zu liegen. Nicht schlecht.

LovesuckZ

Das ist die von Nvidia versprochene massentaugliche Crysis GPU ;)

tomsen
2007-10-17, 16:27:40
29. Oktober in "geringer" Stückzahl, aber sie kommen dann sicher.

In 12 Tagen?! Ich nehm dich beim Wort! :biggrin:

GanjaBob
2007-10-17, 16:32:52
und nun doch schneller als GTS? hier widerspricht ja einem gerücht dem anderen :)

ok, bis 29. kann ich nun auch noch warten ...

ChristianTHB
2007-10-17, 16:54:17
Werd mir auch mal die Karte holen, die 2900 Pro ist bei uns mittlerweile vergriffen, neue Karten treffen scheinbar erst Anfang Nov ein.
Vor allem das P/L Verhältnis begeistert mich bei der 8800 GT, bis jetzt habn mich immer die "320MB" der billigen GTS und der Preis der 640MB Version abgeschreckt.

aths
2007-10-17, 16:57:13
Denkt mal scharf nach. Dann wird das mit der GTS auch klar.

Coda
2007-10-17, 16:59:32
Interessanterweise ist Lötstelle für den Chip zwischen GPU und Ausgängen leer, also wohl doch kein NVIO, sondern eher ein Chip für die Displayports bei manchen Versionen.
Das hätte ich euch auch gleich sagen können. NVIO ist ein BGA-Package, die Löstelle aber augenscheinlich nicht.

Welchen Funktion haben eigentlich
# der Piepser
Piepst wenn der Stromanschluss fehlt. Gibt's bei allen 8800ern.

# der zweipolige Anschluss links neben dem SLI-Port -- ein Audio-Eingang für HDMI?
Sehr wahrscheinlich ja.

# und der Jumper über dem PCIe-Spannungsversorgungsstecker?
Das kann ich dir auch nicht beantworten.

Interessant finde ich an dem Board, dass man zum ersten mal sieht (ich zumindest), dass SLI definitiv kein PCIe benützt.

seahawk
2007-10-17, 16:59:50
GTS ist nicht GTS.

dargo
2007-10-17, 17:07:23
Interessant finde ich an dem Board, dass man zum ersten mal sieht (ich zumindest), dass SLI definitiv kein PCIe benützt.
Ich kenne mich mit SLI nicht aus. Ich dachte aber, die Daten fließen alle über die SLI Bridge. Oder kommunizieren beim G80 die Karten auch über PCIe?

DrumDub
2007-10-17, 17:08:00
Ich kenne mich mit SLI nicht aus. Ich dachte aber, die Daten fließen alle über die SLI Bridge. Oder kommunizieren beim G80 die Karten auch über PCIe? auch über pcie.

dargo
2007-10-17, 17:10:51
auch über pcie.
Und welche Vorteile darf man jetzt beim G92 bei einer Kommunikation ohne PCIe erwarten? Schließlich hat man sich dabei wohl was gedacht.

Coda
2007-10-17, 17:14:32
Ich kenne mich mit SLI nicht aus. Ich dachte aber, die Daten fließen alle über die SLI Bridge. Oder kommunizieren beim G80 die Karten auch über PCIe?
Die SLI-Bridge benützt kein PCIe. Das wollte ich damit sagen.

reunion
2007-10-17, 17:14:48
Ich denke Coda ging es um das Protokoll.
/Zu spät.

Die SLI-Bridge benützt kein PCIe. Das wollte ich damit sagen.

Woran erkennst du das?

dargo
2007-10-17, 17:19:06
Die SLI-Bridge benützt kein PCIe. Das wollte ich damit sagen.
Ja, und welchen Vorteil hat das?

reunion
2007-10-17, 17:21:01
Ja, und welchen Vorteil hat das?

Warum soll das einen Vorteil haben? Ob nV jetzt PCIe, HTT, oder sonst irgendwas verwendet sollte völlig egal sein, solange der Bus schnell genug ist um nicht zu limitieren.

Coda
2007-10-17, 17:22:10
Woran erkennst du das?
PCIe braucht kein Serpentinenrouting.

Ja, und welchen Vorteil hat das?
Es war nur mal im Gespräch, dass es vielleicht so ist hier.

reunion
2007-10-17, 17:29:14
PCIe braucht kein Serpentinenrouting.


Dem Bild nach zu urteilen bedeutet das, dass nicht alle Leitungen gleich lang sein müssen, richtig?

Coda
2007-10-17, 17:31:23
Bei PCIe nur jeweils das Differentialpaar (eine Lane). Musst dir mal im Vergleich AGP-Boards anschauen.

Gast
2007-10-17, 18:18:00
Oder doch nicht: Zumindest lässt Sapphire seine Produkte bei PC Partner fertigen (wie auch andere Hersteller), Zotac wiederum gehört zu PC Partner.
Beide lassen bei PC Partner fertigen, haben sonst aber nichts gemeinsam.
http://www.channelpartner.de/archivsuche/645259/index.html

Endorphine
2007-10-17, 18:59:14
Piepst wenn der Stromanschluss fehlt. Gibt's bei allen 8800ern.


Sehr wahrscheinlich ja.


Das kann ich dir auch nicht beantworten. Danke. Interessant finde ich an dem Board, dass man zum ersten mal sieht (ich zumindest), dass SLI definitiv kein PCIe benützt. Da SLI eh' proprietär ist, kann nV ja nach Belieben SLI umgestalten und beispielsweise die Lane-Unterteilung des Links wieder wegfallen lassen. Hat vll. indirekt was mit der Umstellung auf PCIe 2.0 zu tun.

Coda
2007-10-17, 19:16:21
Ich glaub eher, dass es noch nie PCIe war.

AnarchX
2007-10-18, 12:33:19
8800 GT OCing (http://news.expreview.com/2007-10-18/1192701918d6065.html)

http://img86.imageshack.us/img86/5153/8800gtfrequency02sw9.jpg

Die gelbe Eule
2007-10-18, 12:34:48
Naja, das ist nicht besonderes. VRAM ist eh auf 1GHz spezifiziert. Und 12% Mehrtakt wäre auch etwas mager für NV Karten.

Steffko
2007-10-18, 13:12:02
Was sind denn die Standardtaktraten?

seahawk
2007-10-18, 13:13:12
600/900/1500

Gast
2007-10-18, 18:11:26
wanne komme dii nouwe card fon nvidia auffe de marck ?

seahawk
2007-10-18, 18:13:59
29th October - limited availability at launch though

Hvoralek
2007-10-18, 18:14:31
29th October - limited availability at launch thoughDie GT. Die anderen kommen im November.

Spasstiger
2007-10-18, 19:53:59
Mich juckts irgendwie, eine 8800 GT bei Verfügbarkeit zu bestellen, wenn sie tatsächlich nur knapp über 200€ kostet. Meine X1900 AIW ist bei 1680x1050 einfach zu sehr am Limit und momentan bekomme ich noch einen halbwegs ordentlichen Preis für die Karte.

Adam D.
2007-10-18, 20:09:32
Hmm, anscheinend sieht's ja nach 199-249$ Dollar aus, damit stehen Preise knapp über 200€ nicht viel im Weg. Am Anfang wird's natürlich wegen hoher Nachfrage und schlechtem Angebot teuer werden ;)

Neosix
2007-10-18, 20:49:57
kann man nun prozentual sagen wieweit die hinter gtx liegt?

Hvoralek
2007-10-18, 20:58:12
kann man nun prozentual sagen wieweit die hinter gtx liegt?Bei 7 Clustern und 4 ROP- Blöcken @ 600/1500/ 900 wären das 9% Texturleistung, 3% Arithmetikleistung, 30% Füllrate und 1/3 Bandbreite. Ich würde schätzen, ohne AA 5 - 10% langsamer ohne Beachtung von Änderungen an der Architektur, mit AA und fordernden Einstellungen 15 - 20%.

/edit: Naja, in 1 1/2 Wochen wissen wir es genau.

TB1333
2007-10-18, 21:28:30
Wie schaut das eigentlich aus, wenns ein Hardlaunch wird?!
Heist das man kann die GT ab dem 29.Oktober bei Händlern ordern oder etwa schon vorher (oder ne Art Vorbestellung)?

RoNsOn Xs
2007-10-18, 21:28:36
wie teuer wird sie?

AnarchX
2007-10-18, 21:30:44
Im Post #1 steht alles wichtige, wie auch der Preis drin. ;)

Endorphine
2007-10-18, 21:31:24
Ich vermute man kann von 200-250 EUR anfangs ausgehen.

AnarchX
2007-10-18, 21:38:54
Foxconn hat(te) die 8800GT schon auf ihrer Seite:
http://img220.imageshack.us/img220/1135/foxconngeforce8800gtpagrj1.jpg
http://www.tcmagazine.com/comments.php?id=16480&catid=2

G96 ist es nicht, aber den gibt es offensichtlich wie angenommen auch noch und nun bestätigt es Foxconn nochmal. X-D

Adam D.
2007-10-18, 21:41:45
Wenn das der G96 ist, was ist dann der G92? :D

Neosix
2007-10-18, 21:44:47
da wird mir aber wenn ich an einen möglichen g90 denke, ganz schwindelig :D

ps. danke Hvoralek

AnarchX
2007-10-18, 21:48:32
Die Seite scheint wohl doch noch online zu sein:
http://www.foxconnchannel.com/product/GraphicCards/detail_spec.aspx?ID=en-us0000048

Hvoralek
2007-10-18, 21:53:23
Schade, dass da nichts von der Anzahl der Cluster steht. Ich hätte gerne die 7 Cluster mal offiziell gehabt :(

reunion
2007-10-18, 21:54:10
FV-N8800GT-512N:
Full DirectX 10 Shader Model 4.0 Support

Damit bestätigt sich das fehlende SM4.1 von D3D10.1.

aths
2007-10-18, 21:55:44
Damit bestätigt sich das fehlende SM4.1 von D3D10.1.Komische Argumentation. Ich würde eher sagen, fehlender D3D10.1-Support.

Spasstiger
2007-10-18, 21:58:24
@aths: Du hast ja noch kürzlich gemeint, dass als neue 200€-Karte sicherlich nix mit G80-Performance kommt. Und was sagst jetzt? ;)

reunion
2007-10-18, 21:59:45
Komische Argumentation. Ich würde eher sagen, fehlender D3D10.1-Support.

Warum? SM4.1 ist das neue Shadermodell, dass die neuen Features von D3D10.1 "ansprechbar" macht.

Vertigo
2007-10-18, 22:03:26
Die Seite scheint wohl doch noch online zu sein:
http://www.foxconnchannel.com/product/GraphicCards/detail_spec.aspx?ID=en-us0000048
Ja, aber mehr Information als auf dem Screenshot gibt es dort auch (noch) nicht ...

Endorphine
2007-10-18, 22:39:05
Die Seite scheint wohl doch noch online zu sein:
http://www.foxconnchannel.com/product/GraphicCards/detail_spec.aspx?ID=en-us0000048
Die Karte hat auch den vermuteten Audio-Eingang links neben dem SLI-Port.

AnarchX
2007-10-18, 22:41:19
Tatsächlich, dann ist es wohl auch nur so eine Lösung, welche AIBs wie Zotac schon bei aktuellen GF8 anbieten und nicht wie bei ATi, wo man einen Transmitter dafür im Chip hat.

Gast
2007-10-18, 22:43:38
Der Lüfter sieht nach Krach aus.

Walkman
2007-10-18, 23:02:51
Warum? SM4.1 ist das neue Shadermodell, dass die neuen Features von D3D10.1 "ansprechbar" macht.


Laut dem Bilder hat sie weder DX10.1 noch SM4.1.

Coda
2007-10-18, 23:43:03
Warum? SM4.1 ist das neue Shadermodell, dass die neuen Features von D3D10.1 "ansprechbar" macht.
Eins gibt's aber nicht ohne das andere.

Die Aussage würde ich nicht so auf die Waagschale legen. Was und wer D3D10.1 unterstützt sehen wir wohl erst mit Vista SP1. Es würde aber ganz und gar nicht zu nVIDIA passen Features - vor allem wenn die wenn überhaupt nötigen Änderungen so gering sind - nicht zu bringen.

Ich bin mir auch immer noch nicht so ganz sicher, ob nicht sowieso schon alle G8x-Chips D3D10.1 fähig sind. Und bei R6xx übrigens auch nicht.

laser114
2007-10-19, 00:48:37
http://www.hardware-infos.com/news.php?news=1482

Nur 16 TMUs in der 8800 GT?
Würde die Namenserklärung erklären, nicht aber die Größe des G92. Ist denn da überhaupt der G92 drinne?

Hvoralek
2007-10-19, 01:01:11
16 TMUs bei 112 SPs? Was sollen das denn für Cluster sein? Das wäre nur möglich, wenn bei G80 die Textur- und Arithmetikeinheiten doch unabhängig voneinander skaliert werden könnten und das glaube ich eher nicht.

laser114
2007-10-19, 01:05:35
Hmm, zumindest das der Chip 128 SPs hat und dazu 16 TMUs, wäre wohl denkbar. Allerdings wäre das wohl etwas Overkill an Arithmetik - wobei das ATI ja auch hat.
Ob man dann nur von den Streamprozessoren einzeln was abschalten kann... mal sehen. Ansonsten bräuchte man eine TMU auf 7 SPs, ist zumindest theoretisch denkbar.

Spasstiger
2007-10-19, 01:08:46
8 Cluster mit je zwei TMUs @ 600 MHz und 14 SPs @ 1500 MHz ? Das klingt absurd, kann ich mir nicht vorstellen.

laser114
2007-10-19, 01:11:17
Der Screen scheint aber echt zu sein, oder hat da jemand eine andere Meinung?

Was könnte denn Everest da falsch auslesen?

arcanum
2007-10-19, 01:38:44
wer weiss, vielleicht kommt die GT mit 4 clustern und die GTS dann mit 5 ;)

Spasstiger
2007-10-19, 01:40:54
wer weiss, vielleicht kommt die GT mit 4 clustern und die GTS dann mit 5 ;)
4 Cluster mit 112 SPs? :|
Wenn, dann wird man was beschneiden und nicht die Cluster sogar aufblähen.

arcanum
2007-10-19, 01:45:24
4 Cluster mit 112 SPs? :|
Wenn, dann wird man was beschneiden und nicht die Cluster sogar aufblähen.

hatte mich bisher in die 7 cluster (ausgehend von 128 mit 8 clustern) verbissen und gar nicht bemerkt, dass 8 auch passen würden ;) entsprechen die ausgelesenen 16 TMUs jetzt 16 bi oder tri einheiten? mit 32 TMUs bi wäre sie doch gar nicht so weit von der GTS entfernt (19200 MTexel/s).

Coda
2007-10-19, 02:51:57
Ich halte es für unwahrscheinlich, dass die SP-Anzahl pro Cluster geändert wurde.

mirp
2007-10-19, 06:18:33
Im Post #1 steht alles wichtige, wie auch der Preis drin. ;)

Der Shop in der Schweiz hat die 8800 GT übrigens wieder herausgenommen.

Ailuros
2007-10-19, 07:40:03
Damit bestätigt sich das fehlende SM4.1 von D3D10.1.

Check 1 for me ;)

Spasstiger
2007-10-19, 07:43:31
Ich halte es für unwahrscheinlich, dass die SP-Anzahl pro Cluster geändert wurde.
Kann ich mir auch nicht vorstellen, 14 SPs wären ja etwas ineffizient in der Adressierung. Man bräuchte immer noch 4 Bitleitungen. Macht dann bei 8 Clustern 32 Leitungen, die man auch auf 28 hätte drücken können mit einer 7-Cluster-Lösung. Und man bräuchte mit 8 Clustern natürlich auch eine Adressierungseinheit mehr als bei der 7-Cluster-Lösung.
Solche offensichtlichen Ineffizienzen wird man wohl kaum in Kauf nehmen, wo es doch auch gar keine Vorteile bietet.

Gast
2007-10-19, 07:44:53
Eins gibt's aber nicht ohne das andere.

Die Aussage würde ich nicht so auf die Waagschale legen. Was und wer D3D10.1 unterstützt sehen wir wohl erst mit Vista SP1. Es würde aber ganz und gar nicht zu nVIDIA passen Features - vor allem wenn die wenn überhaupt nötigen Änderungen so gering sind - nicht zu bringen.

Ich bin mir auch immer noch nicht so ganz sicher, ob nicht sowieso schon alle G8x-Chips D3D10.1 fähig sind. Und bei R6xx übrigens auch nicht.

Auch wenn ich es schonmal in ähnlicher Form geschrieben habe:
Kein Hersteller ist sich zu Schade, den eigenen Chip mit allen Mitteln in ein möglichst gutes Licht zu rücken, um Kunden zu Kauf zu bewegen. Und sei es wie bei Intels IPG nur mit Ankündigungen ohne Treibersupport. Würde G8x oder R6xx D3D10.1 können, würden wir das spätestens seit der Vorstellung dieser Chips wissen. Warum sollten das die Hersteller verheimlichen? Das wäre doch ein geradezu geniales Marketinginstument. Nur meine Meinung.

reunion

Gast
2007-10-19, 07:45:19
Check 1 for me ;)

Ja, du hattest recht.

reunion

AnarchX
2007-10-19, 07:46:00
http://www.hardware-infos.com/news.php?news=1482

Nur 16 TMUs in der 8800 GT?
Würde die Namenserklärung erklären, nicht aber die Größe des G92. Ist denn da überhaupt der G92 drinne?

Nein, das ist nur Stupid-Everest, welches immernoch nicht mitbekommen hat, das ROPs != TMUs sein können.

Gast
2007-10-19, 07:46:52
Der Screen scheint aber echt zu sein, oder hat da jemand eine andere Meinung?

Was könnte denn Everest da falsch auslesen?

Tja, Everest hat damals auch als erste die 2 Cluster von G84 geleakt, das Programm ließt also normalerweise zuverlässig die Daten der G8x-Chips aus. Allerdings könnte es durch die ein oder andere Veränderung im Design hier zu Problemen kommen. Warten wir ab.

reunion

Ailuros
2007-10-19, 07:49:12
16 TMUs bei 112 SPs? Was sollen das denn für Cluster sein? Das wäre nur möglich, wenn bei G80 die Textur- und Arithmetikeinheiten doch unabhängig voneinander skaliert werden könnten und das glaube ich eher nicht.

Zur letzten Frage: G8x nein, G9x ja :P

16 ROPs, 16 TMUs und 7 cluster (und nein es gibt keine heile Zaehlweise mit angeblichen 32SPs/cluster, denn sonst hat das Ding 3.5 cluster ;) )

7*16*3FLOPs*1.5GHz = 504 GFLOPs (nicht absolut vergleichbar mit G8x FLOPs)

16 TMUs * 600MHz * 2 = 19,2 GTexels bi/AF
16 ROPs * 600MHz * 4 = 38,4 GPixels @4xAA

Und wer jetzt fragt fuer was der ganze GFLOP-"Ueberschuss" , heisst die Antwort GPGPU + (virtual) dual precision und natuerlich zur gleichen Zeit eine gesunde Leistungsteigerung gegenueber der G84 bei etwas hoeherem Preis.

Wer es bemerkt hat, der Codename wird als "G92GT" angegeben.

Gast
2007-10-19, 07:51:03
Zur letzten Frage: G8x nein, G9x ja :P

16 ROPs, 16 TMUs und 7 cluster (und nein es gibt keine heile Zaehlweise mit angeblichen 32SPs/cluster, denn sonst hat das Ding 3.5 cluster ;) )

7*16*3FLOPs*1.5GHz = 504 GFLOPs (nicht absolut vergleichbar mit G8x FLOPs)

16 TMUs * 600MHz * 2 = 19,2 GTexels bi/AF
16 ROPs * 600MHz * 4 = 38,4 GPixels @4xAA

Und wer jetzt fragt fuer was der ganze GFLOP-"Ueberschuss" , heisst die Antwort GPGPU + (virtual) dual precision und natuerlich zur gleichen Zeit eine gesunde Leistungsteigerung gegenueber der G84 bei etwas hoeherem Preis.

Wer es bemerkt hat, der Codename wird als "G92GT" angegeben.

Na das ist ja mal eine Überraschung. Hätte mich schon gewundert, wenn eine 8800GT derart Stark wäre. Jetzt ergibt alles einen Sinn.

reunion

Ailuros
2007-10-19, 07:54:50
Tja, Everest hat damals auch als erste die 2 Cluster von G84 geleakt, das Programm ließt also normalerweise zuverlässig die Daten der G8x-Chips aus. Allerdings könnte es durch die ein oder andere Veränderung im Design hier zu Problemen kommen. Warten wir ab.

reunion

Tja ich will zwar meine Hand jetzt nicht ins Feuer legen, aber die oben ausgerechnete Fuellrate macht schon Sinn im Vergleich zur angegebenen Fuellrate von G92-high end. Wozu genau braucht NV eigentlich theoretisch sagen wir mal 24TMUs@600MHz, wenn AMD in der gleichen Kategorie mit 16*750MHz antanzt? Die 150MHz weniger Taktrate bei der GT werden durch die Faehigkeiten der TMUs selber sowieso kompensiert.

AnarchX
2007-10-19, 07:54:59
Tja, Everest hat damals auch als erste die 2 Cluster von G84 geleakt, das Programm ließt also normalerweise zuverlässig die Daten der G8x-Chips aus.
Eben nicht. Takt, SPs, Bandbreite ja, aber bei G80 rechnet er auch noch mit 24 "Pixelpipelines" (X-D) und je einer TMU.

Zur letzten Frage: G8x nein, G9x ja :P

16 ROPs, 16 TMUs und 7 cluster (und nein es gibt keine heile Zaehlweise mit angeblichen 32SPs/cluster, denn sonst hat das Ding 3.5 cluster ;) )

Aber wozu, wenn man schon so eine fette GPU verbaut, warum soviele Einheiten deaktivieren?

Gast
2007-10-19, 07:57:01
Aber wozu, wenn man schon so eine fette GPU verbaut, warum soviele Einheiten deaktivieren?

Weil wir nicht im Schralaffenland leben, und du um 200-250€ keine High-End-Leistung erwarten kannst. Mich hat das ja ständig gewundert, dass eine 8800GT eine neue GTS schlagen sollte, das ergab nicht den geringsten Sinn. Jetzt macht auch die neue GTS wieder Sinn.

reunion

Ailuros
2007-10-19, 07:57:18
Na das ist ja mal eine Überraschung. Hätte mich schon gewundert, wenn eine 8800GT derart Stark wäre. Jetzt ergibt alles einen Sinn.

reunion

Du darfst nicht vergessen dass das Ding tatsaechlich irgendwo zwischen der heutigen GTS und GTX liegt was die Leistung betrifft.

Gast
2007-10-19, 07:59:08
Du darfst nicht vergessen dass das Ding tatsaechlich irgendwo zwischen der heutigen GTS und GTX liegt was die Leistung betrifft.

Ja ist klar, deshalb kommt ja auch die neue GTS mit 7 Cluster.

reunion

Ailuros
2007-10-19, 08:02:56
Aber wozu, wenn man schon so eine fette GPU verbaut, warum soviele Einheiten deaktivieren?

Die These mit der Deaktivierung von Einheiten wuerde Sinn machen wenn Du gleich beim Anfang zwei oder drei chip-Varianten siehst. Wer garantiert mir dass G92GT nicht gleich so gebaut wurde?

Noch mehr keiner von uns ist bis jetzt sicher ob high end single oder dual chip sein wird. Was waere im zweiten Fall?

AnarchX
2007-10-19, 08:04:22
Weil wir nicht im Schralaffenland leben, und du um 200-250€ keine High-End-Leistung erwarten kannst.
High-End-Leistung von 2006 bzw. von über einem Jahr...

Jetzt macht auch die neue GTS wieder Sinn.

Ehrlich gesagt machen 16 (Doppel-)TMUs und 112SPs eher keinen wirklichen Sinn, zudem wenn es sich um einen 289mm² Die handelt, wo erhebliche Teile so brach liegen würden.

Aber naja, das werden wir ja in 10 Tagen oder eher sehen, aber was Everest hier anzeigt ist wie schon gesagt kein Hinweis.

Gast
2007-10-19, 08:05:10
Tja ich will zwar meine Hand jetzt nicht ins Feuer legen, aber die oben ausgerechnete Fuellrate macht schon Sinn im Vergleich zur angegebenen Fuellrate von G92-high end. Wozu genau braucht NV eigentlich theoretisch sagen wir mal 24TMUs@600MHz, wenn AMD in der gleichen Kategorie mit 16*750MHz antanzt? Die 150MHz weniger Taktrate bei der GT werden durch die Faehigkeiten der TMUs selber sowieso kompensiert.

Eben. Damit könnte G92 aber auch vollkommen anders aussehn als bisher angenommen. Da schon die GT eine wesentlich höheres ALU/TEX-Verhältnis hat, könnte ein vollständiger Chip durchaus 192SPs bei 24 oder 32 TMUs haben.

reunion

Ailuros
2007-10-19, 08:07:03
Weil wir nicht im Schralaffenland leben, und du um 200-250€ keine High-End-Leistung erwarten kannst. Mich hat das ja ständig gewundert, dass eine 8800GT eine neue GTS schlagen sollte, das ergab nicht den geringsten Sinn. Jetzt macht auch die neue GTS wieder Sinn.

reunion

Eine neue GTS muss nicht unbedingt mehr TMUs haben. Ich hab damals die 800MHz (core) von einer sehr zuverlaessigen Quelle bekommen und ich warte ab ob da was dran haengt.

Bei 800MHz hast Du theoretische etwa 30% mehr Fuellrate als bei der vorigen GTS.

seahawk
2007-10-19, 08:07:23
Aber wäre der Chip nicht etwas groß, wenn da nicht "mehr" drinne wäre ?

Gast
2007-10-19, 08:09:21
Die These mit der Deaktivierung von Einheiten wuerde Sinn machen wenn Du gleich beim Anfang zwei oder drei chip-Varianten siehst. Wer garantiert mir dass G92GT nicht gleich so gebaut wurde?

Noch mehr keiner von uns ist bis jetzt sicher ob high end single oder dual chip sein wird. Was waere im zweiten Fall?

Ja, ich finde das auch seltsam. Wenn die 8800GT einen teildeaktivierten Chip hätte, würden wohl die anderen Varianten nicht erst später kommen. Das gabs ja noch nie. Deshalb auch der Hinweis auf den Codename "G92GT". Vielleicht kommt für High-End ein eigener Chip der dann eben zB "G92GTX" heißt.

Ailuros
2007-10-19, 08:10:26
Ehrlich gesagt machen 16 (Doppel-)TMUs und 112SPs eher keinen wirklichen Sinn, zudem wenn es sich um einen 289mm² Die handelt, wo erhebliche Teile so brach liegen würden.

Es kann durchaus sein dass Du recht hast, aber mich wuerde es auch kein bisschen wundern wenn NV diesmal die TMUs an die ROP-partitions und nicht an die cluster angeschnallt hat.

Ailuros
2007-10-19, 08:11:41
Aber wäre der Chip nicht etwas groß, wenn da nicht "mehr" drinne wäre ?

Was hab ich hinter der vorigen GFLOP Rechnung fuer G92GT in der Klammer genau geschrieben? Oder glaubt Ihr dass NVIDIA nicht weiss dass AMD ihre cluster noch etwas aufgebohrt hat?

Gast
2007-10-19, 08:11:44
Aber wäre der Chip nicht etwas groß, wenn da nicht "mehr" drinne wäre ?

Auch wieder wahr.

reunion

Ailuros
2007-10-19, 08:15:18
Ja, ich finde das auch seltsam. Wenn die 8800GT einen teildeaktivierten Chip hätte, würden wohl die anderen Varianten nicht erst später kommen. Das gabs ja noch nie. Deshalb auch der Hinweis auf den Codename "G92GT". Vielleicht kommt für High-End ein eigener Chip der dann eben zB "G92GTX" heißt.

So wie es aussieht hat AMD bei der R6xx Architektur minimalen Verlust was die Anzahl der cluster betrifft; kann aber dementsprechend mit der Taktrate skalieren (siehe RV670 750-825MHz nach Geruechten).

Zwei unterschiedliche chips zu entwickeln waere viel zu kompliziert; entweder hat die GT tatsaechlich de-aktivierte Einheiten oder das Ding wurde als solches von Anfang an so gebaut und man kann diesmal die gleiche Masche wie AMD benutzen, ergo nur mit der Frequenz skalieren.

AnarchX
2007-10-19, 08:15:43
Die These mit der Deaktivierung von Einheiten wuerde Sinn machen wenn Du gleich beim Anfang zwei oder drei chip-Varianten siehst. Wer garantiert mir dass G92GT nicht gleich so gebaut wurde?
Eine Die-Size von 289mm². ;)


Noch mehr keiner von uns ist bis jetzt sicher ob high end single oder dual chip sein wird. Was waere im zweiten Fall?
Von Dual sollte man sich doch langsam für Endkunden-HighEnd verabschieden, erst recht nachdem man die Die-Size von 289mm² erfahren hat und eben diese Sache, (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=380832) die NV momentan massiv pusht.

Eine neue GTS muss nicht unbedingt mehr TMUs haben. Ich hab damals die 800MHz (core) von einer sehr zuverlaessigen Quelle bekommen und ich warte ab ob da was dran haengt.

Bei 800MHz hast Du theoretische etwa 30% mehr Fuellrate als bei der vorigen GTS.
Imo sind die ~800MHz der Takt der High-End-SKU -> 8 Cluster -> ~50 GTex, die mir auch nicht nur einmal untergekommen sind.