PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF110 - GTX 5xx - 2011


Seiten : 1 [2] 3 4 5 6

Gipsel
2010-11-01, 14:35:51
Wenn man die 5870 als Grundlage nimmt dürfte die GTX 580 mit der 5970 gleich auf liegen bei CB liegt die 5970 ~45%(Schnitt 4XAA/8XAA) über 5870.
Ich denke, AMD könnte sicher eine Benchmarkfolie erstellen, die das anders sieht. Und schließlich kommen diese Werte wohl auch von nvidia. Da wirst Du die Werte sicher nicht 1:1 mit irgendeinem Rating von CB zur Deckung bringen können. ;)

Gipsel
2010-11-01, 14:41:16
Wie wahrscheinlich ist es eigentlich, dass GF110 eine Art B1 des GF100 ist? Könnte es sich auch um einen reinen Metal Spin handeln?Nein. Die Stromverbrauchseinsparungen bei gleichzeitig höherem Takt gehen nur mit einem Base-Layer-Respin, a.k.a. B1.
Eine andere Frage: inwieweit kann man das Arrangement der GPU bei einem Full Respin verändern? Es gibt ja die Gerüchte mit den Transistoreinsparungen im Bereich 300 Millionen oder so.
Das ist dann schon mehr als ein einfacher Respin, weil das komplette Layout umgekrempelt werden müßte. Neliz bei B3D wird das natürlich als Beweis deuten, daß man einfach die zusätzlichen (nicht funktionsfähigen?) 64 TMUs aus dem Design geworfen hat :lol:

Aber was will man rauswerfen? Ohne halfrate DP und ECC könnte man ungefähr auf 300 Millionen Transistoren Einsparung kommen.

AnarchX
2010-11-01, 14:47:51
Aber was will man rauswerfen? Ohne halfrate DP und ECC könnte man ungefähr auf 300 Millionen Transistoren Einsparung kommen.
Den L2-Cache auf 384KiB reduzieren? :ugly:
Vielleicht hat man die Partionen von 128 auf 96KiB reduziert, so dass GF110 halbwegs angemessene 576KiB zur Verfügung ständen.

LovesuckZ
2010-11-01, 14:52:45
Da nVidia den L2-Cache nicht bei den kleineren GPUs angerührt hat, wird man es hier auch nicht machen. Immerhin benötigen sie eine gewisse Menge davon, da sie nun alle ehemaligen nicht SM-bedingten Speicher darin lagern.
Vielleicht hauen sie auch nur 300 Mio. Transistoren raus, die vorher von den Double Vias eingenommen wurden. :lol:

AnarchX
2010-11-01, 14:59:29
Da nVidia den L2-Cache nicht bei den kleineren GPUs angerührt hat
GF108 soll doch nur 64KiB pro Partition haben. Und der positioniert sich doch entsprechend seiner restlichen Leistungsdaten zum GF100.

Wobei Caches wohl nicht soviele Transistoren Ersparnis bringen dürften:
384KiB: ~19Mio bei 6T-Zellen, ~25Mio bei 8T-Zellen.


Vielleicht hauen sie auch nur 300 Mio. Transistoren raus, die vorher von den Double Vias eingenommen wurden. :lol:
Das wäre schon beachtlich, wenn man diese entfernt und gleichzeitig den Takt steigert und den Stromverbrauch senkt.

Im Bezug auf die Leistungssteigerung im 3DMarkVantage:
Vielleicht sind nun auch Dual-Sheduler wie bei GF104 an Board, die gleichzeitig zu den ALUs auch die SFUs mit Arbeit versorgen.
Der shaderlastige Vantage reagiert wohl möglich auf diese bessere Auslastung?

Schlammsau
2010-11-01, 15:01:38
Ich schätze, die 580 wird 10-15% schneller als die 480. Mit ein klein wenig weniger Verlustleistung und auch weniger Lautstärke.

LovesuckZ
2010-11-01, 15:02:28
GF108 soll doch nur 64KiB pro Partition haben. Und der positioniert sich doch entsprechend seiner restlichen Leistungsdaten zum GF100.

GF108 soll angeblich auch nur 8 statt 16 ROPs. Trotzdem erreicht ein GF108 mit 8 ROPs die selbe Leistung wie eine GF106 mit 16 ROPs. War wohl eine Falschmitteilung von nVidia.


Das wäre schon beachtlich, wenn man diese entfernt und gleichzeitig den Takt steigert und den Stromverbrauch senkt.

Das war ein Spaß...

AnarchX
2010-11-01, 15:32:50
Hier kommen wohl die Benchmarks her:
http://www.enet.com.cn/videocard/img/2010/1101/69/5807698.jpg

Der Artikel enthält auch noch eine interessante Information:
http://www.enet.com.cn/article/2010/1101/A20101101767554.shtml
GTX 580 244W

Wenn dass eine TDP nach GTX 460 Maßstab ist, sollten das wohl die 20% gegenüber der GTX 480 sein. Diese hatte zwar auch eine TDP von 250W, aber mit GTX 460 als Basis, wären das eher 300W gewesen.

Godmode
2010-11-01, 15:49:10
Tja, dass war wohl der ursprüngliche Plan für GF100. Wäre das wirklich vor einem Jahr gekommen, hätte es viele :eek: gegeben.

boxleitnerb
2010-11-01, 15:52:39
Naja, wenn wir mal Perf/W anschauen und dabei (BQ-)Features außer Acht lassen, die die tumbe Masse eh nicht interessieren und für deren Kaufentscheidung nicht relevant ist, würde man vielleicht grad so auf 5870-Niveau kommen. Ich glaube nicht, dass es so einen riesigen Unterschied gemacht hätte.

crux2005
2010-11-01, 15:57:56
Auch laut meiner Quelle hat die GTX 580 "überarbeitete TMUs" was der Grund für die höhere Performance in Vantage sein soll.

boxleitnerb
2010-11-01, 15:59:46
Und bringen diese TMUs dann auch in Spielen was? Jetzt isoliert betrachtet abseits der anderen Steigerungen/Verbesserungen.

LovesuckZ
2010-11-01, 15:59:58
Naja, wenn wir mal Perf/W anschauen und dabei (BQ-)Features außer Acht lassen, die die tumbe Masse eh nicht interessieren und für deren Kaufentscheidung nicht relevant ist, würde man vielleicht grad so auf 5870-Niveau kommen. Ich glaube nicht, dass es so einen riesigen Unterschied gemacht hätte.

Eine GTX480 mit einem ähnlichen Perf/Watt Verhältnis zu Cypress und dann bessere BQ, mehr Features und Tessellationleistung, die AMD wohl erst in ein paar Jahren erreichen wird. Das wäre doch schon eine ziemliche Hausnummer.

boxleitnerb
2010-11-01, 16:02:05
Ich bezog mich auf bans3i's Post, der eine hypothetische Einführung eines "gefixten" bzw. gleich richtig getroffenen Fermis 2009 meinte. 95% der Käufer interessiert alles abseits reiner fps-Leistung und des Verbrauchs (Stromsparwahn) nicht wirklich. Das schrieb ich aber auch. Und ich zähle mich übrigens zu den restlichen 5%.
Also bitte genauer lesen nächstes Mal und nicht reflexartig "Antworten" klicken :)

crux2005
2010-11-01, 16:04:41
Und bringen diese TMUs dann auch in Spielen was? Jetzt isoliert betrachtet abseits der anderen Steigerungen/Verbesserungen.

Wie du in den Benchmarks siehst, nein. Oder nicht in den meisten jetzigen Spielen. Unigine soll unter anderem auch davon profitieren. Wahrscheinlich geht es eher in Richtung GF104 TMUs = FP-16 mit voller Geschwindigkeit oder mehr cache/etwas optimiert.

boxleitnerb
2010-11-01, 16:05:57
Wie du in den Benchmarks siehst - nein. Wahrscheinlich geht es eher in Richtung GF104 TMUs = FP-16 mit voller Geschwindigkeit oder mehr cache/etwas optimiert.

Äh...Sinn? Wozu führt man sie dann ein? Nur um Benchmarks zu gewinnen oder den Grundstein für irgendwas Zukünftiges legen?

crux2005
2010-11-01, 16:08:52
Ich habe auch nicht auf alles eine Antwort. :D Können ruhig auch gezielte Desinformationen von nVidia sein. Silly-Season, ehm, Halloween, ist ja in gangen...

LovesuckZ
2010-11-01, 16:09:47
Viel interessanter, crux2005, wann ist der Launch? Nächsten Montag?

y33H@
2010-11-01, 16:11:23
Paper- oder Hard-Launch? ;)

crux2005
2010-11-01, 16:11:27
Viel interessanter, crux2005, wann ist der Launch? Nächsten Montag?

Ehrlich, keine Ahnung. OBR hat aber schon vor einer Weile geschrieben, es soll der 8.11. sein: http://obrovsky.blogspot.com/2010/10/neco-se-blizi.html. Mal sehen... Wenn ich es weiss, kann ich ja PM schicken.

Gipsel
2010-11-01, 16:13:17
Den L2-Cache auf 384KiB reduzieren? :ugly:
Vielleicht hat man die Partionen von 128 auf 96KiB reduziert, so dass GF110 halbwegs angemessene 576KiB zur Verfügung ständen.Damit kommst Du nie und nimmer auf die 300 Millionen, denn hiermit hast Du vollkommen recht:
Wobei Caches wohl nicht soviele Transistoren Ersparnis bringen dürften:
384KiB: ~19Mio bei 6T-Zellen, ~25Mio bei 8T-Zellen.
Schlage noch ~12% davon für ECC darauf (+minimal was für die Tags) und Du hast sogar korrekte Zahlen ;)
Vielleicht hauen sie auch nur 300 Mio. Transistoren raus, die vorher von den Double Vias eingenommen wurden.Ähm, Vias <=> Transistoren. Siehst Du da irgendeinen Zusammenhang? Also ich nicht. Die Vias sitzen alle in den Metal-Layern, da ist kein Transistor dran beteiligt. Vias bezeichnen die Verbindungen (zu deutsch sogenannte Durchkontaktierungen) zwischen verschiedenen Layern in einem Chip.

Henroldus
2010-11-01, 16:13:21
Ich schätze, die 580 wird 10-15% schneller als die 480. Mit ein klein wenig weniger Verlustleistung und auch weniger Lautstärke.
Da wäre der Name GTX485 aber angebrachter :frown:
Features(DP) streichen und bissl am Takt drehen/Einheiten vermehren und das soll ne neue Genration suggerieren? :freak:

LovesuckZ
2010-11-01, 16:15:19
Ehrlich, keine Ahnung. Ich habe noch kein NDA. OBR hat aber schon vor einer Weile geschrieben, es soll der 8.11. sein: http://obrovsky.blogspot.com/2010/10/neco-se-blizi.html. Mal sehen... Wenn ich es weiss, kann ich ja PM schicken.

;D
Jetzt wissen wir auch, woher Charlie das Datum hat. Danke, für die Info.

Da wäre der Name GTX485 aber angebrachter :frown:
Features(DP) streichen und bissl am Takt drehen/Einheiten vermehren und das soll ne neue Genration suggerieren? :freak:

Namen sind sowieso Schall und Rauch. GF104 wurde auch als GTX460 eingeführt und nicht als GTX560, wo es doch noch deutlichere Unterschiede zwischen GF100 und GF104 gibt.

y33H@
2010-11-01, 16:16:55
@ Henroldus

AMD hat bei den HD 68x0 auch DP gestrichen und am Takt gedreht [und noch an der BQ gedreht sowie Tessellation usw.] ;)

Godmode
2010-11-01, 16:20:01
Naja, wenn wir mal Perf/W anschauen und dabei (BQ-)Features außer Acht lassen, die die tumbe Masse eh nicht interessieren und für deren Kaufentscheidung nicht relevant ist, würde man vielleicht grad so auf 5870-Niveau kommen. Ich glaube nicht, dass es so einen riesigen Unterschied gemacht hätte.

Das verstehe ich jetzt nicht?

Ich wollte nur sagen wenn die GTX 480 so gekommen wäre, wie sie geplant war, dann hätte diese Karte einen ordentlichen Vorsprung auf die 5870 gehabt. Ich kann mich noch sehr gut an Ails posts erinnern, wo er meinte die GTX 480 wird in etwa so schnell werden, wie die Dual Chip Karte der Konkurrenz. Das war allerdings lange vor dem Launch. Die Informationen die er besaß, bezogen sich also auf eine GTX 480 wie sie ursprünglich geplant war.

Gipsel
2010-11-01, 16:22:56
Namen sind sowieso Schall und Rauch.
AMD hat bei den HD 68x0 auch DP gestrichen und am Takt gedrehtAber bei AMD war es natürlich gaaanz schlimm, daß sie das gemacht haben :rolleyes:
Zweierlei Maß?

fondness
2010-11-01, 16:26:04
@ Henroldus

AMD hat bei den HD 68x0 auch DP gestrichen und am Takt gedreht [und noch an der BQ gedreht sowie Tessellation usw.] ;)

Das macht es aber auch nicht besser, höchstens im Kindergarten. ;)
Außerdem glaube ich mich erinnern zu können das du das bei AMD nicht so entspannt sahst. Und AMD hat wenigstens Cayman, der die neue Serie rechtfertigt. :D

Orbmu2k
2010-11-01, 16:30:51
Das eigentlich schlimme beim AMD Barts Naming ist doch die Kundenverwirrung über das Performancesegment wo die Karten hingehören.

Man muss auf den ersten Blick davon ausgehen dass die 6870 der Nachfolger der 5870 ist und dass diese schneller ist. Das ist aber nicht der Fall.

boxleitnerb
2010-11-01, 16:36:29
Das verstehe ich jetzt nicht?

Ich wollte nur sagen wenn die GTX 480 so gekommen wäre, wie sie geplant war, dann hätte diese Karte einen ordentlichen Vorsprung auf die 5870 gehabt. Ich kann mich noch sehr gut an Ails posts erinnern, wo er meinte die GTX 480 wird in etwa so schnell werden, wie die Dual Chip Karte der Konkurrenz. Das war allerdings lange vor dem Launch. Die Informationen die er besaß, bezogen sich also auf eine GTX 480 wie sie ursprünglich geplant war.

Ich meinte hauptsächlich den :eek: Smiley. Die Masse kann/will leider mit den Vorteilen der Geforces nichts anfangen. Die Karte wäre was den Stromverbrauch angeht nicht so vernichtend kritisiert worden, richtig. Aber ich denke nicht, dass sich an den generellen Präferenzen/Ansichten groß was geändert hätte.

y33H@
2010-11-01, 16:44:32
Außerdem glaube ich mich erinnern zu können das du das bei AMD nicht so entspannt sahst. Der Namen HD 68x0? Ging mir von eh und je am ... vorbei [denn Namen sind Schall und Rauch]. Such dir gerne entsprechende Posts raus =)

Ist aber OT.

@ Topic

OBR spricht von 08.11? Dann sollte es aber mehr Leaks geben, wenn Hard-Launch *speku*

crux2005
2010-11-01, 16:46:35
Er sprach davon am 25.10. Soll aber falsch sein.

Hugo78
2010-11-01, 16:50:44
Da wäre der Name GTX485 aber angebrachter :frown:

Damit würde Nvidia genau den selben Fehler wie beim G92 wiederholen.
Man kann halt nicht jedes Jahr 50% mehr Leistung und 10 neue Features erwarten.

Auf eine Serie mit neuem Fertigungsprozess, folgt halt eine Serie die nur das Speedupdate ist,
ebend weil man meist schon bei der Serie davor, den neuen Fertigungsprozess gut ausgelastet hatte.

Da bleibt wenig Raum.

LovesuckZ
2010-11-01, 16:52:23
Oder bei den ersten 40nm Produkten. Die waren auch mit dem 200er Schema falsch einsortiert.

mapel110
2010-11-01, 17:39:28
http://vr-zone.com/articles/report-nvidia-geforce-gtx-580-tdp-is-244w-includes-128-tmu-benchmarks-leaked/10202.html
Noch eine Zusammenfassung von VRZone. Ist wohl alles schon vor ein paar Seiten gepostet worden.

Ailuros
2010-11-01, 18:56:34
Nur gut das AIL es auch geschrieben hat. Aber er hat es bestimmt persönlich von Charlie erfahren. Denn es kann ja nicht sein was nicht sein darf.

Nur so am Rand als ich ihn zuerst ueber GF110 fragte hatte er keine Ahnung darueber kurz nach dem tape out kam aber innerhalb von nur Minuten mit einer Gegenantwort dass es tatsaechlich existiert und ein 512SP chip ist. Charlie war tatsaechlich im fernen Osten vor kurzer Zeit aber ich hab schon etliche Male gesagt dass ich selten auf etwas deute wenn ich es nicht zumindest von 2 zuverlaessigen Quellen bestaetigt bekomme.

Am Rand spinnen wohl doch nicht alle: http://www.xbitlabs.com/news/video/display/20101029232022_ATI_Still_Suffers_from_TSMC_s_40nm_Problems_Company.html

....und mich persoenlich lassen jedermans Sentimente oder Bevorzugungen ziemlich kalt. Ich verdien persoenlich keinen einzigen Pfennig an der ganzen Herumgraberei und weigere mich auch jegliche Verantwortung zu tragen fuer etwas dass ich rein als Hobby betreibe. Das letzte ist natuerlich nicht an Dich gerichtet sondern denjenigen denen einiges nicht schmeckt. Uebrigens kann man als Hobby-"Spekulant" nie zu 100% recht haben. Wem's nicht passen sollte, sollte er sein Geld zurueck verlangen LOL ;)

Hier kommen wohl die Benchmarks her:
http://www.enet.com.cn/videocard/img/2010/1101/69/5807698.jpg

Der Artikel enthält auch noch eine interessante Information:
http://www.enet.com.cn/article/2010/1101/A20101101767554.shtml
GTX 580 244W

Wenn dass eine TDP nach GTX 460 Maßstab ist, sollten das wohl die 20% gegenüber der GTX 480 sein. Diese hatte zwar auch eine TDP von 250W, aber mit GTX 460 als Basis, wären das eher 300W gewesen.

Ich leg zwar meine Hand nicht ins Feuer aber man sagte mir dass der 244W TDP echt ist. Irgendwo zwischen 230 und 250W hab ich es auch erwartet. Bleibt jetzt wohl nur noch die die area.

Dural
2010-11-01, 19:01:38
da werden aber wider "128" erwähnt, schon komisch das sich das hartnäckig hält, war ja beim GF100 nicht anders.

AwesomeSauce
2010-11-01, 19:08:22
Wie gross ist der zusätzliche Transistoraufwand von 2:1 TF:TA zu 1:1? Beim G80 hat sich diese Wahl bewährt...

Ailuros
2010-11-01, 19:19:36
Wie gross ist der zusätzliche Transistoraufwand von 2:1 TF:TA zu 1:1?

Das dumme ist dass hier: http://vr-zone.com/articles/nvidia-geforce-gtx-580-specifications-leaked/10184.html wenn ich mich nicht irre 49.4 (billions/sec) Texel fuellrate angegeben wurde am Anfang; ob die chinesichen Buchstaben diesem heute noch entsprechen kann ich nicht wissen. Bei G80 gibt auch heute noch NV offiziell 36.8 billions/sec an (36800/575= 64).

Ich hab selbst heute noch keinen Durchblick aus wie viel genau Einheiten jegliche GF100 TMU besteht; nach NV sind es angeblich 16 texture address, 4 filtering und 16 texture sampling units, aber Gipsel hat mich diesbezueglich korrigiert. Da muesste er nochmal einspringen und das Schlammasel richtig hinbiegen. Der Ueberfluss an manchen Einheiten ist eben fuer das DX11 gather4 Zeug und Faelle wo keine Texturen gefiltert werden. Wenn eine GF100 TMU filtert dann sind es wohl tatsaechlich 4TA/4TF.

Viel kosten sollte es nicht theoretisch, bleibt aber die brennendere Frage was sie genau entfernt haben und bei welcher die area sie am Ende angekommen sind.

Gipsel
2010-11-01, 19:22:34
Wie gross ist der zusätzliche Transistoraufwand von 2:1 TF:TA zu 1:1? Beim G80 hat sich diese Wahl bewährt...
Übrigens performen die Fermis unter bestimmten Umständen (4offset_gather4) eher wie mit einem 1:2 TF:TA-Verhältnis ;)

Edit:
Zu lange gelesen und damit Ailuros' Post verpaßt.
Aaaaalso, GF100 hat 4 TMUs und auch nur 4 (vollständige) Adresseinheiten (die 16 L/S-Einheiten können das nicht und sind nur für den Zugriff auf den linearen Speicher [local/global Memory, Caches] zu gebrauchen). Die Adressberechnung beim Zugriff auf Texturen ist um einiges komplizierter (bei nv wohl auch noch dadurch verkompliziert, daß die Texturen komprimiert im L1 liegen) und wird deswegen in die TAs ausgelagert. Die Fermi-TAs können aber jeweils zwei Adressen ausspucken, wenn die zweite Adresse innerhalb eines bestimmten Bereiches (+-64 in alle Richtungen, wenn ich das jetzt nicht durcheinanderbringe) der ersten liegt. Das wird aber nur für dieses 4offset_gather4 gebraucht (das sind ungefilterte Lesevorgänge), sonst verpufft das ein wenig. Also im Normalfall hat Fermi ein TF:TA Verhältnis von 1:1. Damit kann man für die Filterung Texturesamples von 4 unabhängigen Koordinaten lesen. Für bilineare Filterung ergibt das dann 16 Textursamples. Aber offensichtlich gibt es da noch ein paar Tricks (sharing der Daten zwischen den TMUs oder doch mehr als 16 Sampler), denn die GF100 TMUs können bei tri/AF effektiv mehr als diese 16 Samples/Takt verrechnen.

AwesomeSauce
2010-11-01, 19:28:17
Danke für die Antworten. Die zugrundeliegende Frage war aber eher: wie gross ist eine TFU im Vergleich zu einer TAU? Das Ganze ist jetzt nicht unbedingt konkret auf GF1XX bezogen.

Gipsel
2010-11-01, 19:43:58
Danke für die Antworten. Die zugrundeliegende Frage war aber eher: wie gross ist eine TFU im Vergleich zu einer TAU? Das Ganze ist jetzt nicht unbedingt konkret auf GF1XX bezogen.
Im Prinzip ziemlich klein, für eine bilineare Filterung (bilerp) pro Takt benötigt man nur 4 lerps, die zudem im Prinzip auch nur 8 Bit können müssen (real ist es dann doch noch ein wenig komplizierter, da sie ja auch mit anderen Texturformaten in mehreren Takten zurecht kommen müssen). Aber das müßte eigentlich trotzdem recht billig sein. Ich würde einem TF jetzt nicht wesentlich mehr Aufwand zubilligen als einer TA-Einheit.
Der größere Posten in den TMUs sollte eigentlich die Datenversorgung der Filtereinheiten darstellen, sprich die dazugehörigen L1-Caches (+ der Dekomprimierungslogik bei nv).

LovesuckZ
2010-11-01, 19:44:56
Das kann dir niemand sagen, eil G80 der einzige Chip bis heute war, der solch eine Konstellation aufwies.

Ansonsten scheint nVidia ihre Vorstellungen wohl nach dem Terminplan der PDX-Veranstaltungen auszurichten:
We promised you more at this PDXLAN, and now I can reveal almost everything. NVIDIA will be talking about something new that is NDA. We can not confirm what that is.

One interesting thing to make note of in this "debacle" of ours is this: If you look at Fudzilla here, they say "Nvidia has planed to push this card against AMD Cayman based cards" and we know that those are being released anytime, furthermore, we know that the 580 is coming soon via a web-snafu on the Nvidia Website - so putting all this together, one could reason quite simply what NVIDIA might be talking about at PDXLAN 16.5


If this were the case, it would certainly be a first for PDXLAN and certainly something you would not want to miss. One thing I can confirm is that Tom Peterson must be escorted by an Nvidia Security person at all times...

http://www.pdxlan.net/portland/

Ailuros
2010-11-01, 19:49:38
Danke für die Antworten. Die zugrundeliegende Frage war aber eher: wie gross ist eine TFU im Vergleich zu einer TAU? Das Ganze ist jetzt nicht unbedingt konkret auf GF1XX bezogen.

Das dumme ist eben dass mit dem ganzen Aufschwung der ungefilterten Texturen die diesmal auf Fermi bearbeitet werden koennen und dem ganzen DX11 gather4 Zeug die Sache um einiges komplizierter geworden ist (siehe auch Gipsel's edit oben).

Einfacher: NV hat diesmal ihre TMUs ausserhalb TFs ziemlich stark aufgepumpt aber nur fuer gewisse Faelle. Wenn ich Gipsel's Aussagen so lese koennte ich mir eventuell vorstellen dass um einiges mehr Transistoren einer TA als einer TF in einer GF100 TMU entsprechen. Stimmt es dann frage ich mich ob es wirklich reicht nur 8TFUs in neue theoretische TMUs einzubauen oder ob man auch andere Logik erweitern muesste um die gleichen Faehigkeiten zu erhalten.

AnarchX
2010-11-01, 19:54:40
GF104 zeigt doch was passiert, wenn man ein weiteres Quad in die vorhande Infrastruktur hängt: http://techreport.com/articles.x/19844/8
Der TMU-Durchsatz unter 16xAF sinkt um ~12%.

horn 12
2010-11-01, 20:07:06
Hier, erste Benchmarks Index der GTX 580 gegenüber der GTX 480 und HD5870.

http://www.hardwareluxx.de/community/attachments/f14/136770d1288634205-nvidia-geforce-gtx-580-startschuss-schon-naechste-woche-unbenannt.jpg

boxleitnerb
2010-11-01, 20:07:31
Alt ;)

LovesuckZ
2010-11-01, 20:10:12
Das nennt sich Trade-off. Man verliert Effizienz, kann aber deutlich mehr Einheiten auf der Fläche unterbringen. Immerhin benötigt ein 7/8 GF104 gegenüber 14/16 GF100 wesentlich weniger Strom bei höhrerem Takt für die selbe Texturleistung. Eine GTX470 zieht ca. 50% mehr Strom aus der Steckdose. Dann ist dies hier ein berechtigter Kompromiss.

Gipsel
2010-11-01, 20:14:24
Das nennt sich Trade-off. Man verliert Effizienz, kann aber deutlich mehr Einheiten auf der Fläche unterbringen.[..] Dann ist dies hier ein berechtigter Kompromiss.
Hey, dann haben sich also meine Predigten über die Wahl von Kompromissen letztendlich doch noch ausgezahlt. LS hat es verstanden! :D

*SCNR*

derguru
2010-11-01, 21:15:21
To launch on November 9th (http://www.fudzilla.com/graphics/item/20702-nvidias-gtx-580-detailed)

LovesuckZ
2010-11-01, 21:26:36
Ha, wir haben also: 5. November (PDX), 8. November, 9. November, 19. November und 20. November.

Mayk-Freak
2010-11-01, 21:41:12
Der 3DMark11 müßte ja auch bald erscheinen bin schon mal auf die Ergebnisse der HD6970 v.s GTX580 gespannt.

y33H@
2010-11-01, 22:03:20
http://img87.imageshack.us/img87/151/5807698.jpg

http://www.enet.com.cn/article/2010/...01767557.shtml (http://www.enet.com.cn/videocard/img/2010/1101/69/5807698.jpg) FAKE!

Orbmu2k
2010-11-01, 22:06:11
fake! wiz hat sicher noch kein release date eingepflegt^^

derguru
2010-11-01, 22:06:31
400M transis weniger.:eek:

bestimmt von y33H@,hat der schonmal fabriziert.:biggrin:

bin auf die preise gespannt,die leistung liegt in etwa auf 460gtx im sli aber ohne die multigpu-nachteile.

y33H@
2010-11-01, 22:06:58
@ Orbmu2k

Wohl eher nicht, nein. Und sind Fehler drin. Meine "480" damals ging bis zu Chiphell und Co. ;D

AwesomeSauce
2010-11-01, 22:07:02
Ich sehs schon: GF110 launcht noch vor Cayman;D Bitte nicht ernst nehmen:biggrin:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8316407#post8316407 (2010-10-08)
Krieg ich einen Keks?:ufinger:

@y33h@

G110 und B1? Entweder GF100 und B1 oder GF110 und eine A-Revision. Dass man in so kurzer Zeit einen Base-Layer-Respin durchführen kann, halte ich für unmöglich...

Hugo78
2010-11-01, 22:08:53
Also doch nächsten Monatag.... guter PS Screen. :D

AnarchX
2010-11-01, 22:48:59
Hättest wenigstens die richtige Device-ID vergeben können: NVIDIA_DEV.1080.01 = "NVIDIA GeForce GTX 580" ;)

y33H@
2010-11-01, 23:28:03
1080 statt 06C0?

Superheld
2010-11-01, 23:38:11
y33H@

oder habt ihr sie bereits ?:wave:

y33H@
2010-11-02, 00:08:37
In dem Post steht "FAKE!" ;)

MadManniMan
2010-11-02, 00:46:52
@ Orbmu2k

Wohl eher nicht, nein. Und sind Fehler drin. Meine "480" damals ging bis zu Chiphell und Co. ;D

:freak:

Link!

Cpl. Dwayne Hicks
2010-11-02, 00:59:21
Ich bin ja mal der Meinung dass nVidia die Karte GTX 512 nennen sollte... (y)

=Floi=
2010-11-02, 05:12:56
schlimm finde ich eher die unwissenheit der tester hier. wenn noch nicht einmal sampels an die tester rausgingen, dann könnte es wieder so eine 0 day aktion wie von ati geben. das finde ich nicht gerade toll.

mapel110
2010-11-02, 05:17:07
schlimm finde ich eher die unwissenheit der tester hier. wenn noch nicht einmal sampels an die tester rausgingen, dann könnte es wieder so eine 0 day aktion wie von ati geben. das finde ich nicht gerade toll.
Vielleicht gibts auch nur Zahlen direkt von nvidia, die dann alle brav abschreiben dürfen.

V2.0
2010-11-02, 07:10:49
Techday und Launch

Sascha1971
2010-11-02, 08:43:52
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/november/gtx-580-benchmarks-und-infos-zu-tdp-sowie-tmus/

Mich würde die Lautstärke mal intressieren.

y33H@
2010-11-02, 09:52:15
@ Superheld

Sind die auch Fake? Egal, mehr davon ;D

Fetter Fettsack
2010-11-02, 10:23:48
Ihr seid im falschen Thread, Jungs.:D

MiamiNice
2010-11-02, 10:25:15
Die 580er ist die Karte auf die ich schon lange gewartet habe, eigendlich ist es die Karte die statt der 480er hätte kommen sollen. Für mich die erste echte Fermi Karte und definitiv einen Kauf wert.

derguru
2010-11-02, 10:33:33
die 20% mehrleistung in normalo settings finde ich eigentlich nicht so berauschend aber wenn das mit den 128TMUs stimmt kann man sich auf ein sehr gute ssaa performance freuen.:biggrin:

igg
2010-11-02, 10:40:24
Techday und Launch
D.h. die Reviewer bekommen zum Wochenende Karten?

AnarchX
2010-11-02, 10:41:21
Bei GF104 haben die TMUs im Bezug auf die SGSSAA-Performance nichts gebracht: http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/21/#abschnitt_benchmarks_mit_ssaa

Imo werden es wohl auch nicht mehr als die 64 FP16-TMUs sein. Effektiv entsprechen diese dann ~ 72 GF104-TMUs.

boxleitnerb
2010-11-02, 10:45:41
Skaliert die SSAA-Performance hauptsächlich mit der ROP-Leistung?

derguru
2010-11-02, 10:53:24
Bei GF104 haben die TMUs im Bezug auf die SGSSAA-Performance nichts gebracht: http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/21/#abschnitt_benchmarks_mit_ssaa

Imo werden es wohl auch nicht mehr als die 64 FP16-TMUs sein. Effektiv entsprechen diese dann ~ 72 GF104-TMUs.
die 460gtx wird auch eher durch die rechenleistung gebremst.eine gesunde mischung ist erforderlich und bei der 480gtx war es die füllrate.

AnarchX
2010-11-02, 11:02:16
die 460gtx wird auch eher durch die rechenleistung gebremst.
Aber mit 512SPs hat die GTX 480 auch nur ~50% mehr Rechenleistung, die sich hier zeigt.

Hier mal etwas zum Leistungspotential von 128 TMUs:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7934212#post7934212

Würde man mit 120 TMUs das AF doppelt so schnell berechnen können wie mit 60FPS (1,35ms), ergäben sich hier wohl 41,4 FPS(24,15ms pro Frame).
Gegenüber der 60 TMU GTX 480 wohl etwa 5% mehr Leistung.

Da dürfte es lohnenswert sein eben die TMUs auf F16-Fullspeed aufzurüsten und die Sheduler auf Dual-Port umzubauen, sodass man hier eine höhere Auslastung der SMs durch die Möglichkeit eines superskalaren Betriebes erreichen kann.

LovesuckZ
2010-11-02, 12:02:23
The new card is sampling to journalists right now. It should launch on Tuesday 9th but it's unclear at what time. It looks like it will be the morning hours of Tuesday, November 9th.
http://www.fudzilla.com/graphics/item/20706-geforce-gtx580-launch-on-9th-nov-sampling-now

Orbmu2k
2010-11-02, 12:05:24
http://www.fudzilla.com/graphics/item/20706-geforce-gtx580-launch-on-9th-nov-sampling-now


Interessant jetzt sinds schon 2200Mhz Speicher Clock

LovesuckZ
2010-11-02, 12:05:58
1100Mhz. Die schwirrten auch irgendwann mal durch den Raum.

Orbmu2k
2010-11-02, 12:20:14
Na die letzte Info war bei 2004Mhz

Skinner
2010-11-02, 12:54:41
Release ist übrigens nächste Woche. Falls das hier noch nicht geschrieben wurde :)

Dural
2010-11-02, 12:58:58
meine vermutung, GF110 = GF100 "B" ohne grosse änderungen, halt einfach takt und verbrauch optimiert...

rechnerisch ca. 17,6% schneller als GTX480, das ergibt im durchschnitt ca. 15% real mehr leistung als eben GTX480.

so langweilig, was ist mit dem nachfolger... ;)

wenigstens sieht man jetzt was GF100 vor einem Jahr geleistet hätte wenn alles anch plan verlaufen wäre...

tombman
2010-11-02, 13:03:14
Vor 28nm werden keine Ouberchips kommen- und selbst wenn, wird sie keiner brauchen: Xbox360 = lead plattform :rolleyes:

AnarchX
2010-11-02, 13:08:23
wenigstens sieht man jetzt was GF100 vor einem Jahr geleistet hätte wenn alles anch plan verlaufen wäre...

Best-Case für GF100 wären wohl 800/1600/1100MHz bei ~200W TDP gewesen. ;D

Auch wenn GF110 von aussen stark nach einem GF100-Respin aussieht, hat er imo wohl ein paar GF104-Feinheiten angenommen.
Am interessantesten wird natürlich die Die-Size.

Ailuros
2010-11-02, 13:21:06
Best-Case für GF100 wären wohl 800/1600/1100MHz bei ~200W TDP gewesen. ;D

Das waere besser als best case gewesen oder anders besser als eigentlich moeglich gewesen waere. Fruehe pre-launch Simulationen schaetzten bei 725MHz ca. GT200 Stromverbrauch ein, ergo +/-240W.

Auch wenn GF110 von aussen stark nach einem GF100-Respin aussieht, hat er imo wohl ein paar GF104-Feinheiten angenommen.
Am interessantesten wird natürlich die Die-Size.

Tatsaechlich; nur glaube ich die vermittelten 430mm2 erst wenn ich sie sehe. Ich koennte durchaus wieder total falsch liegen aber mir persoenlich klingen um die 480mm2 als die bestmoegliche These.

Wenn man alles sehr stark vereinfachen wuerde, liegt Dural wohl doch nicht so stark ausserhalb der Realitaet. Haette 40G keine Probleme gehabt haette auch AMD ihre originalen RV870 Plaene nicht geaendert und es waere keine besondere Ueberraschung gewesen wenn der originale +/-400mm2 RV870 dann in etwa Cayman Leistung serviert haette. Viel haette sich in der Leistungs-Relation zwischen den beiden IHVs wieder nicht geaendert. Und haette es dann noch 32nm gegeben waeren wir heute auch noch ein Stueck weiter. Ist aber alles nur theoretischer Krampf; wir muessen genauso wie die IHVs damit leben was wirklich moeglich ist unter realistischen Bedingungen.

dildo4u
2010-11-02, 13:30:36
Da wurde sicher Einiges umgebaut wenn man den Heutigen Stand damit vergleicht.

http://www.geeks3d.com/20100810/geforce-gtx-480-512sp-power-consumption-with-furmark/

Nur ein Respin hätte wohl wenig bis gar nix gebracht.

Dural
2010-11-02, 13:32:42
ja klar 32SP ziehen 200Watt mehr... :rolleyes: das ist einfach eine sehr frühe ES karte mit wahrscheinlich A2 oder sogar A1 chip


480mm2+ was den sonst...

100mm2 einzusparen beim faktisch selben chip ist reine utopie

dargo
2010-11-02, 13:37:20
meine vermutung, GF110 = GF100 "B" ohne grosse änderungen, halt einfach takt und verbrauch optimiert...

rechnerisch ca. 17,6% schneller als GTX480, das ergibt im durchschnitt ca. 15% real mehr leistung als eben GTX480.

so langweilig, was ist mit dem nachfolger... ;)

Was mich am meisten stört ist die Namengebung. Unter einer GTX580 verstehe ich den Nachfolger. Für mich ist das nichts weiter als eine GTX485, mit GTX490 könnte ich auch noch leben.


wenigstens sieht man jetzt was GF100 vor einem Jahr geleistet hätte wenn alles anch plan verlaufen wäre...
Oh ja, was mit GTX480 nicht mehr spielbar ist flutscht nur noch so vor sich hin mit der GTX580. ;D

Vor 28nm werden keine Ouberchips kommen- und selbst wenn, wird sie keiner brauchen: Xbox360 = lead plattform :rolleyes:
Sag nicht keiner. Ich werde sie für mindestens 3360x2100 4xMSAA brauchen. ;)

Coda
2010-11-02, 13:43:53
Die inflationäre Namensgebung ist halt in Mode gekommen. AMD macht's ja jetzt nicht anders.

Ailuros
2010-11-02, 13:44:58
ja klar 32SP ziehen 200Watt mehr... :rolleyes: das ist einfach eine sehr frühe ES karte mit wahrscheinlich A2 oder sogar A1 chip

System-Verbrauchswerte traue ich so oder so nie. 200W Ueberfluss werden es garantiert nicht sein und nein es ist kein A1 oder A2 chip.


480mm2+ was den sonst...

100mm2 einzusparen beim faktisch selben chip ist reine utopie

Wer garantiert mir dass es ein "faktisch selber chip" genau ist?

LovesuckZ
2010-11-02, 13:53:18
Die Frage lautet doch, ist GF110 nur für den Gamingmarkt gedacht? Dann wird man wohl GF104 nehmen, haut die dritte Recheneinheit sowie Dispatcher raus und erhält dann bei 16 Cluster: 512SP, 128TMUs und 128SFUs. Geht man von 367mm^2 aus, sollte dies mit 6 ROP Partitionen <500mm^2 zu erreichen sein. Weniger Transistoren, leicht höhrerer Takt, generelle Optimierungen und ein Stromverbrauch von maximal 250 Watt sind locker zu erreichen.

Ailuros
2010-11-02, 13:58:36
Die Frage lautet doch, ist GF110 nur für den Gamingmarkt gedacht?

So bald von einer zu hohen die area Reduktion die Rede ist, ist wohl die Antwort selbstverstaendlich. Zumindest kann ich mir momentan nichts anderes vorstellen.

Dann wird man wohl GF104 nehmen, haut die dritte Recheneinheit sowie Dispatcher raus und erhält dann bei 16 Cluster: 512SP, 128TMUs und 128SFUs. Geht man von 367mm^2 aus, sollte dies mit 6 ROP Partitionen <500mm^2 zu erreichen sein. Weniger Transistoren, leicht höhrerer Takt, generelle Optimierungen und ein Stromverbrauch von maximal 250 Watt sind locker zu erreichen.

Das mit den 360+mm2 des 104 ist mir zu radikal vereinfacht. GF104 ist nur auf 2 GPCs begrenzt als einfacher Anfang.

LovesuckZ
2010-11-02, 14:05:59
Das mit den 360+mm2 des 104 ist mir zu radikal vereinfacht. GF104 ist nur auf 2 GPCs begrenzt als einfacher Anfang.

Seit dem ersten Respin des GF100 im Oktober 2009 hat nVidia genug Erfahrung sammeln können mit der Verdrahtung und der Kommunikation der einzelnen SM mit dem Rest des Chips. Genug Zeit um hier Optimierungen vornehmen zu können.

davidzo
2010-11-02, 14:17:40
schade, ich hatte mir einen 1,5x GF104 gewünscht. 3GPCs, 12SM, 576sp, 96tmu, 384bit @800mhz hätte ich wesentlich besser gefunden als einen marginal verbesserten GF100. Das hätte zwar minimal niedrigere geometrieperformance bedeutet, aber man sieht ja im Tess-mark wie die sich damit zuschmeißen können. Die reale Spieleleistung hätte mehr davon profitiert. Zusammen mit einem vollen Gf104 mit vergleichbaren Taktraten wäre das ein schönes Lineup geworden, wenn auch vom lastverbrauch nicht ganz auf AMD niveau, aber von der Leistung bestimmt!

Fermi wird ja im HPC markt noch gebraucht, da könnte man also 2-3 Monate noch volle bestellungen weiterfahren und den danach killen weil man die chips aus dem inventory bieten kann (sichere lieferzeiten sind ja wichtig im HPC segment, lagerhaltung also ein pluspunkt),

Laangweilig... gähn

Ailuros
2010-11-02, 14:28:36
Seit dem ersten Respin des GF100 im Oktober 2009 hat nVidia genug Erfahrung sammeln können mit der Verdrahtung und der Kommunikation der einzelnen SM mit dem Rest des Chips. Genug Zeit um hier Optimierungen vornehmen zu können.

Ist zwar Haarspalterei aber GF100 hat nur metal spins erlebt.
Wie optimiert man genau 2GPCs auf 4GPC Nivaeu?

LovesuckZ
2010-11-02, 14:33:25
Wie optimiert man genau 2GPCs auf 4GPC Nivaeu?

Durch Erfahrung. Die Probleme lagen doch laut Haung an der Tatsache, dass gedachtes sich nicht so umsetzen ließ, wie man es wollte. Jetzt hat man Erfahrungswerte, konnte diese schon bei den kleinen Chips einbringen und hat sie auf GF110 überführt. Und wie man an GF104 z.B. sah, lag man ziemlich richtig mit den Einschätzungen und den Simulationen, da man ohne einen weiteren Metal Respin auf den Markt kommen konnte.

Ailuros
2010-11-02, 14:34:35
Durch Erfahrung. Die Probleme lagen doch laut Haung an der Tatsache, dass gedachtes sich nicht so umsetzen ließ, wie man es wollte. Jetzt hat man Erfahrungswerte, konnte diese schon bei den kleinen Chips einbringen und hat sie auf GF110 überführt. Und wie man an GF104 z.B. sah, lag man ziemlich richtig mit den Einschätzungen und den Simulationen, da man ohne einen weiteren Metal Respin auf den Markt kommen konnte.

GF110 hat afaik 4 GPCs und GF104 mit Sicherheit 2. Wenn Du immer noch nicht verstehst was ich meine, kann ich nicht weiterhelfen.

Coda
2010-11-02, 15:08:16
Solang kein Dieshot von GF104 vorliegt kann man nicht sagen wo gespart wurde.

Dural
2010-11-02, 16:41:43
wurde überhaupt gespart?!? wir haben da 8SM vs 16SM und 32ROPs vs 48ROPs, die einsparung der fläche geht wohl einfach auf die umstellung und weniger einheiten drauf, das wars vom mars... ;)


System-Verbrauchswerte traue ich so oder so nie. 200W Ueberfluss werden es garantiert nicht sein und nein es ist kein A1 oder A2 chip.


du hast wohl auch immer eine andere meinung, so je nach dem oder was?

wenn es ein A3 wäre müssten sie den GPU-Z shot auch nicht bearbeiten...

also nein garantiert kein A3... und übrigens hast du mal selber gesagt das es sich um ein A1 oder A2 handelt ;)

LovesuckZ
2010-11-02, 16:45:00
As for the rumous that this is a paper launch, we can definitely tell you that people have cards as we speak, the big names are testing them now and they should get available on the November 9th, after the official launch.
http://fudzilla.com/graphics/item/20709-geforce-gtx-580-has-a-better-cooler

Wow - Sollte(!) das stimmen, hätte Huang doch liebers "Ass-Kicker" zum Refresh sagen sollen. Immerhin scheint Fuad der Meinung zu sein, dass die Karte real ist, spätesten am 9.11 öffentlicht präsentiert und gekauft werden kann. Wer hätte das vor einem Monat gedacht?!

fondness
2010-11-02, 16:53:13
http://fudzilla.com/graphics/item/20709-geforce-gtx-580-has-a-better-cooler

Wow - Sollte(!) das stimmen, hätte Huang doch liebers "Ass-Kicker" zum Refresh sagen sollen. Immerhin scheint Fuad der Meinung zu sein, dass die Karte real ist, spätesten am 9.11 öffentlicht präsentiert und gekauft werden kann. Wer hätte das vor einem Monat gedacht?!

"they should get available" = sie sollten verfügbar sein = ich weiß nichts darüber

LovesuckZ
2010-11-02, 16:56:50
Das weiß ich. Deswegen habe ich - wie Fuad - auch im Konjunktiv geschrieben.

dildo4u
2010-11-02, 17:09:07
Man hält diesmal nur den Fahrplan ein nix Außergewöhnliches nur weil GF100 zu spät kam wirkt sich das ja nicht automatisch auf die nästen Chips aus.

Hugo78
2010-11-02, 17:26:13
As for the rumous that this is a paper launch, we can definitely tell you that people have cards as we speak
Es ist ja schon selten genug das man bei Fudzilla mal das Wort "definitely" lesen kann. :D

LovesuckZ
2010-11-03, 09:58:22
Neue Bilder: http://www.xtremesystems.org/forums/showpost.php?p=4610587&postcount=572

Henroldus
2010-11-03, 10:11:19
Neue Bilder: http://www.xtremesystems.org/forums/showpost.php?p=4610587&postcount=572
Quelle war:
http://itbbs.pconline.com.cn/diy/12074471.html

sind die Leute nicht in der Lage scharfe Fotos zu machen? :frown:

Gipsel
2010-11-03, 10:50:35
sind die Leute nicht in der Lage scharfe Fotos zu machen? :frown:In Zeiten von Handy-Kameras mit 5+MP und 0,8mm durchmessenden Linsen offensichtlich nicht :lol:

igg
2010-11-03, 10:58:49
Was sind denn das für Anschlüsse? 2x DVI und 1x HDMI?

LovesuckZ
2010-11-03, 11:00:24
Wahrscheinlich wie bei GF100 - 2xDVI und 1xminiHDMI.

Dural
2010-11-03, 11:03:49
jep ist so, sah man ja schon auf älteren Fotos


Charlie lag wohl mal wider mit Paperlaunch daneben, war ja klar... das sind ganz offensichtlich Retail Karten.

fondness
2010-11-03, 11:08:36
das sind ganz offensichtlich Retail Karten.

Achja, warum denn? IMO sind das ganz offensichtlich keine Retail-Karten, denn es ist keinerlei Herstellerlogo oben, es gibt keine Verpackung, etc. Das sind ganz offensichtlich Referenzkarten direkt von NV für die Reviewer.

Und solche Karten kann man auch problemlos 3 Monate bevor erste Karten den Handel erreichen verschicken, wie man in der Vergangenheit schon oft sah.

Orbmu2k
2010-11-03, 11:12:37
Die Hersteller Logos auf dem Lüfter und dem Plastikdeckel wurden doch "Zensiert".

fondness
2010-11-03, 11:15:02
Die Hersteller Logos auf dem Lüfter und dem Plastikdeckel wurden doch "Zensiert".

Okay stimmt, das ist mir auf den ersten Blick gar nicht aufgefallen. :ugly:

Dural
2010-11-03, 11:18:39
und vorallem, jede karte (bei den High-End karten gibt es so gut wie nur Referenz Karten!!!) kommt am anfang direkt von NV, ob jetzt da ein "Hersteller" logo wie zb. EVGA oder so drauf ist tut nichts zur sache ;)

die karte ist ganz offensichtlich aus der laufenden produktion.

ich bin heilfroh hab ich mir nie eine GTX480 besorgt, wahr ja von anfang an klar das NV mit so etwas daher kommt und am ende sogar sicher billiger als der vorgänger ist.

LovesuckZ
2010-11-03, 11:26:41
Naja, dass es 7 Monate später einen Nachfolger gibt, ist es nicht wirklich überraschend. Vorallem wenn man überlegt, dass sie wohl mit A1 kommen. Aber das ändert ja nichts an der Leistungsfähigkeit einer GTX480. Und eine GTX480 aus April wird länger halten als eine gekaufte 5870 aus dem selben Monat - wie man jetzt schon an LP2 oder bald auch an HAWX 2 sehen wird.
Ich als GTX480 User habe daher noch keinen Drang zu wechseln. Da müssten die neuen Karten von nVidia und AMD wirklich ein richtig gutes neues Feature bieten.

Dural
2010-11-03, 11:33:08
hab von anfang an eine GTX470 und 5870, die GTX480 war zu keinem Zeit Punkt wirklich nötig, da warte ich lieber auf die neu auflage :wink:

Hugo78
2010-11-03, 11:59:14
http://twitter.com/PCGH_Redaktion

Carsten ist heute zu Nvidia verschwunden und bringt etwas Großes mit. (vor 2h)

Fetza
2010-11-03, 12:10:00
http://twitter.com/PCGH_Redaktion

Das heißt, der termin nächste woche montag stimmt :)

Orbmu2k
2010-11-03, 12:16:08
Carsten ist heute zu Nvidia verschwunden und bringt etwas Großes mit.


Mir bitte auch was Großes mitbringen. :)

daywalker4536
2010-11-03, 12:23:05
Möglicher Preis

http://www.kitguru.net/components/graphic-cards/faith/nvidia-gtx-580-will-be-on-sale-next-wednesday-at-429/

Da muss NVIDIA aber noch ein ganzes Stück runtergehen für einen gerechtfertigten Preis wenn das zutreffen sollte. So wird das nichts. Sie sollten sich an der GTX480 orientieren damit sie endlich ordentlich Karten loswerden und die armen Käufer nicht wieder bluten lassen. 490 Euro umgerechnet ist zu hoch meiner Meinung nach. Da sie wahrscheinlich um ein ganzes Stück langsamer sein wird als die 6970 ist es eigendlich Schwachsinn sich preislich an ATI zu orientieren. Aber schauen wir mal.

Mancko
2010-11-03, 12:27:47
Möglicher Preis

http://www.kitguru.net/components/graphic-cards/faith/nvidia-gtx-580-will-be-on-sale-next-wednesday-at-429/

Da muss NVIDIA aber noch ein ganzes Stück runtergehen für einen gerechtfertigten Preis wenn das zutreffen sollte. So wird das nichts. Sie sollten sich an der GTX480 orientieren damit sie endlich ordentlich Karten loswerden und die armen Käufer nicht wieder bluten lassen. 490 Euro umgerechnet ist zu hoch meiner Meinung nach. Da sie wahrscheinlich um ein ganzes Stück langsamer sein wird als die 6970 ist es eigendlich Schwachsinn sich preislich an ATI zu orientieren. Aber schauen wir mal.

Abwarten. UVPs sind sowieso nicht der Endpreis. Und AMD muss erstmal bei der Filterqualität massiv nachjustieren. Da reichen viele FPS nicht aus. Wenn die Qualität dort genauso miserabel wie bei Barts ist wird es Dresche geben und das vollkommen zurecht. Bei einem 400 Euro Produkt kann man als Kunde auch mehr erwarten. Bin wirklich gespannt ob sich dort was geändert hat. Hingenommen hat es m.E. die Presse ohnehin zu lange. Statt dessen wurde dann lieber auf Lastverbrauch rumgeritten. Für einen Enthusiasten vollkommen irrelevant und vielleicht an Platz 99 der Wichtigkeistskala. Da gibts tausend andere Dinge die wichtiger sind.

Ich mag zwar kitguru nicht, weil die viel Blödsinn erzählen aber es deutet in Summe immer mehr auf einen Hardlaunch hin.

mapel110
2010-11-03, 12:29:21
Erstmal hoch ansetzen und mehr Geld verdienen. Zurückrundern kann man immer noch. Die ersten Käufer wissen sowieso, dass sie Deppenaufschlag zahlen.

Mancko
2010-11-03, 12:32:02
Erstmal hoch ansetzen und mehr Geld verdienen. Zurückrundern kann man immer noch. Die ersten Käufer wissen sowieso, dass sie Deppenaufschlag zahlen.

Seh ich auch so. Es hängt ja auch davon ab, wann AMD mit den Konkurenten rauskommt und wann diese kaufbar sind. Gegenüber den aktuellen Produkten und der 5870 kann man den Preis locker rechtfertigen. Hinzu kommt, das Weihnachten vor der Tür steht. Da dürfte bei einigen das Geld auch lockerer sitzen.

daywalker4536
2010-11-03, 12:37:03
Für einen guten Preis bin ich durchaus interessiert an der gtx580 und würde durchaus aufrüsten. Aber 490 Euro für eine Mehrleistung die ich eigendlich nicht brauche und DX11 ist eindeutig zu hoch ^^. Da meine 285er noch ordentlich Leistung bringt :). Gegen ATI spricht für mich momentan die Bildqualität (Filtering).

Wenn ATI ihre schnellste Karte für diesen Preis verkauft können wir das auch egal was unsere Karte leistet ^^.

LovesuckZ
2010-11-03, 12:39:47
Mit 20% zur GTX480 wäre die GTX580 annährend doppelt so schnell wie deine GTX285. Nimmt man dann noch den Bonus von DX11 dazu, den deutlichen Mehrspeed mit PhysX und SGSSAA, dann wäre es eine lohnende Aufrüstung. Aber man sollte sowieso auf AMD abwarten, alleine wegen einer eventuellen Preisreduzierung.

daywalker4536
2010-11-03, 12:44:18
Ja 100% meiner gtx285 und DX11. Da würde sich eine Upgrade lohnen aber nicht zu diesem Preis da ich eigendlich vollkommen zufrieden bin momentan. Wenn man die gtx480 für 350 euro bekommt würde ich die 580 bei 400 bis 420 Euro anlegen.

Darlie
2010-11-03, 12:57:50
Naja, dass es 7 Monate später einen Nachfolger gibt, ist es nicht wirklich überraschend. Vorallem wenn man überlegt, dass sie wohl mit A1 kommen. Aber das ändert ja nichts an der Leistungsfähigkeit einer GTX480. Und eine GTX480 aus April wird länger halten als eine gekaufte 5870 aus dem selben Monat - wie man jetzt schon an LP2 oder bald auch an HAWX 2 sehen wird.
Ich als GTX480 User habe daher noch keinen Drang zu wechseln. Da müssten die neuen Karten von nVidia und AMD wirklich ein richtig gutes neues Feature bieten.

Du solltest vielleicht mal in Benchthread von HAWX2 schauen, ich sehe da keine großartige Schwäche bei AMD. :rolleyes:

LovesuckZ
2010-11-03, 13:04:13
Wenn du meinst, dass 110 FPS zu ca. 68 FPS keine Schwäche* ist, dann ist es verständlich. Immerhin bräuchte man schon Hemlock mit einer Skalierung von fast 90%, um da heran zu kommen.

*Immer im Hinterkopf behalten, dass der Hintergrund aus Low-Poly Berge besteht. Hier müsste noch wesentlich mehr getan werden, um ein stimmiges Bild zu erhalten.

Ailuros
2010-11-03, 13:39:00
Solang kein Dieshot von GF104 vorliegt kann man nicht sagen wo gespart wurde.

NV waere schoen bloed wenn sie im 104 4GPCs einbauen wuerden fuer 8 cluster um die 2 ueberfluessigen raster abzuschalten. Auf GPC level ist der wesentlichste Unterschied zwischen GF100 und 104 dass der erste 4 hat und der zweite 2. Die Unterschiede auf SM level sind bekannt, aber mir ging es hauptsaechlich um den GPC Unterschied. Da die TMUs jetzt in den SMs hocken betragen diese auf beiden chips mehr oder weniger die Haelfte der Flaeche; so und jetzt kommt man zur surrounding logic fuer die GPCs (denn raster units an fuer sich duerften relativ klein sein).


du hast wohl auch immer eine andere meinung, so je nach dem oder was?

wenn es ein A3 wäre müssten sie den GPU-Z shot auch nicht bearbeiten...

also nein garantiert kein A3... und übrigens hast du mal selber gesagt das es sich um ein A1 oder A2 handelt ;)

Es kann wohl nicht sein dass ich in der Zwischenzeit etwas anderes zugesteckt bekam und ich anfangs falsch lag oder?

Bleiben wir mal bei der Tatsache warum NV keine 512SP GF100 je veroeffentlicht hat:

a) Binning ist hoellisch beschissen wenn dabei nur 1 oder selten 2 solche dies pro wafer moeglich sind.
b) Der Stromverbrauch ist unakzeptabel um so ein Ding zu vermarkten.

--------------------------------------------------------------------------------------------------------------------------------------

NV hat zugegeben dass der launch um einiges vorgezogen wurde aber leider stets off the record. Momentan konnten sie genug Presse und was nicht samples zusammenkratzen und es wird am Anfang ziemlich wehmuetig vor sich gegen.

LovesuckZ
2010-11-03, 14:15:22
NV hat zugegeben dass der launch um einiges vorgezogen wurde aber leider stets off the record. Momentan konnten sie genug Presse und was nicht samples zusammenkratzen und es wird am Anfang ziemlich wehmuetig vor sich gegen.

NVIDIA called in an event in the last moment in London for a few select media where it released information on the new GF110 GPU and even send out reference cards.


[...]it is actually expecting to ship significant amounts to stores. Whether this will happen on launch day or long afterwards i unclear, the availability will be relatively good considering how fast the launch has been staged.

http://www.nordichardware.com/news/71-graphics/41592-geforce-gtx-580-launches-in-a-week.html

AnarchX
2010-11-03, 14:25:43
GTX580 ENGTX580/2DI/1536M 标准版 1536MB DDR5 772MHz
/4008MHz
/384bit 双DVI+板载HDMI+VGA 4799

http://www.asus.com.cn/ContentPage.aspx?Content_Type=staticwebpage&Content_Id=3985

~512€ für die Asus GTX 580?

tombman
2010-11-03, 14:57:42
Die machen das wie mit der 480er...zuerst Mal 500€ Deppenpreis, und in ein paar Wochen fällt der erste Hunderter :rolleyes:
Ich kann warten ;)
hoffentlich :ulol:

Dural
2010-11-03, 15:00:50
500.- können sie sobald die 6970 da ist eh nicht durch ziehen, das ding wird unter 400.- fallen, wetten? ;)

ich freu mich auf GTX580 und die 6970, das wird ein heisser winter :D

AnarchX
2010-11-03, 15:13:39
Jedenfalls scheint laut dieser Preis/Bestellliste von ASUS wohl die GTX 580 ab November für Händler bestellbar und die GTX 480 ist EOL.

Hugo78
2010-11-03, 15:25:45
Ich werd wie immer bis März / April warten.
Einmal möchte ich sehen, ob sich ein Hersteller findet der gleich "Out of the Box" eine 580 + AC Kühler anbietet,
und ich will eh einen komplett neuen Rechner aufbauen auf Basis von Sandy Bitch und bis da Mobos draussen sind die alle meine Forderungen abdecken, wird es dauern...

AnarchX
2010-11-03, 15:31:20
Vielleicht hat bis dahin der Preiskampf GTX 580 und HD 6970 auf 300€ gedrückt.
Wäre 40nm nicht so ein Fail und hätte TSMC 32nm flott bekommen, hätte man diese Leistungsklasse eigentlich bei 150€ erwarten können: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8339607#post8339607

Hugo78
2010-11-03, 15:42:25
Vielleicht hat bis dahin der Preiskampf GTX 580 und HD 6970 auf 300€ gedrückt.

Ja, ende April ist eigentlich die Saison für Schnäppchenjäger eröffnet.
Ich denke aber, die 580 und 6970 werden so schnell nicht unter 350€ fallen, wobei meine Schmerzgrenze bei max. 400 wäre.
Für meine 285 + AC kühler, hab ich vor 2 Jahren auch knapp über 400 bezahlt.

Jake Dunn
2010-11-03, 15:46:02
Ende April ist die Zock-Saison vorbei ;)

derguru
2010-11-03, 15:48:38
Ende April ist die Zock-Saison vorbei ;)

und dann kommen auch schon gerüchte über die nächsten gpu´s und man wartet weiter.;D
was ist mit dir kommt was zu weihnachten oder bleibts beim alten?:biggrin:
@Hugo78
für deus ex 3 brauchste bestimmt keine schnellere karte,was man bisher sah war nicht wirklich was für grafikfetischisten.

Hugo78
2010-11-03, 15:52:08
@Jake Dunn
Ach meine 285 gut es in BC2 immernoch ganz gut und
ich schätze erst mit Deus EX 3 (Anfang März 2011) werd ich nicht nicht mehr die Füße still halten können. ;)

@derguru
Tess hatten sie aber ganz brauchbar implementiert, was ich bisher gesehen hab, und das kann meine 285 halt nicht. ;)

Jake Dunn
2010-11-03, 16:10:22
und dann kommen auch schon gerüchte über die nächsten gpu´s und man wartet weiter.;D
was ist mit dir kommt was zu weihnachten oder bleibts beim alten?:biggrin:


Ma schaun...ich denke aber eher nicht das ich was anderes kaufe :)

Wozu? Die ganzen Konsolenports laufen doch sowieso bzw. die Games die mich interessieren und ich wollte keine 40nm Karte mehr kaufen ^^


@Jake Dunn
Ach meine 285 gut es in BC2 immernoch ganz gut und
ich schätze erst mit Deus EX 3 (Anfang März 2011) werd ich nicht nicht mehr die Füße still halten können. ;)



Für Ende März ist CRYSIS 2 ja noch geplant.

LovesuckZ
2010-11-03, 16:11:36
@derguru
Tess hatten sie aber ganz brauchbar implementiert, was ich bisher gesehen hab, und das kann meine 285 halt nicht. ;)

Was gibt es denn noch außer den Charaktermodellen, die sowieso schon aus 7k Polys bestehen? Ich hoffe ja wirklich, dass nicht Fake-Geometrie-Wände enthalten sind...

Hugo78
2010-11-03, 16:25:07
Was gibt es denn noch außer den Charaktermodellen, die sowieso schon aus 7k Polys bestehen? Ich hoffe ja wirklich, dass nicht Fake-Geometrie-Wände enthalten sind...

Naja es ist ein AMD Vorzeigespiel. ;D

Ok ernsthaft, wenn die 6970 wirklich wenigstens knapp über GTX 465 kommt (bei Tess), sollten die Entwickler nicht zu sparsam sein (müssen).
Und was ich bisher gesehen hab war auch nicht überwältigend,
aber die Figuren sahen mit Tess besser aus, als ohne.

crux2005
2010-11-03, 17:15:56
http://www.asus.com.cn/ContentPage.aspx?Content_Type=staticwebpage&Content_Id=3985

~512€ für die Asus GTX 580?

Der Preis soll niedriger sein und laut 2 Quellen soll auch die verfügbarkeit "nicht so schlecht sein" (was soll man sich darunter vorstellen?!). Launch ist wahrscheinlich der 9....

LovesuckZ
2010-11-03, 17:25:33
Naja es ist ein AMD Vorzeigespiel. ;D


Ist das nicht das Problem? Siehe auch AvP: Tolle Alien-Charaktermodelle, beschissene Umgebung.

Iruwen
2010-11-03, 17:27:52
ich freu mich auf GTX580 und die 6970, das wird ein heisser winter :D

Hoffentlich nicht wörtlich :freak:

Fetza
2010-11-03, 17:43:30
Ist das nicht das Problem? Siehe auch AvP: Tolle Alien-Charaktermodelle, beschissene Umgebung.

Erstens sieht die umgebung nicht "beschissen" aus und zweitens ist es ein multiplattformer.

LovesuckZ
2010-11-03, 17:45:04
Erstens sieht die umgebung nicht "beschissen" aus und zweitens ist es ein multiplattformer.

Ich zeig nachher ein Screen aus dem Benchmark. Dann kannst du nochmal sagen, dass dies "nicht beschissen" aussieht.

Ailuros
2010-11-03, 17:47:05
Erstens sieht die umgebung nicht "beschissen" aus und zweitens ist es ein multiplattformer.

Aus den Socken reisst die Umgebung wohl keinen. Vorsicht mit dem "multiplattformer" denn dieses ist schon per se Grund genug so viel wie moeglich zu sparen :D

Und da ich selber mich vom OT nicht zurueckhalten konnte, zurueck zum Thema bitte.

=Floi=
2010-11-03, 23:48:49
zitat:
Tombman: "Erwarten Sie von mir, dass ich schwach werde?"
Nvidia: "Nein, Mr. Tombman - wir erwarten von Ihnen, dass Sie kaufen!"

:ugly:


sicher zahlt man einen aufschlag, aber nach so langer zeit will ich endlich wieder eine richtige karte in meinen fingern haben. AC kühler montiert und leise 900-950mhz aus der karte pressen. wenn sie die leistung und den rest passen, dann kann mann auch mal 50€ mehr zahlen und hat dafür dann auch 2-3 monate länger spielspass.
hier könnte ich auch mal schwach werden.

ZÜNDELholz
2010-11-04, 00:53:09
Die machen das wie mit der 480er...zuerst Mal 500€ Deppenpreis, und in ein paar Wochen fällt der erste Hunderter :rolleyes:
Ich kann warten ;)
hoffentlich :ulol:

Wie oft willste Deinen "Letzten Pc"(original Ton) upgraden. :O

Wenn Du von den 480ern auf die 580er upgradest, dann sei bitte konsequent und upgrade auch auf den 990x, denn die 3 x 580er GTX brauchen 'ne schnellere CPU , als dein jetztigen 980x. :D

tombman
2010-11-04, 03:15:48
Wie oft willste Deinen "Letzten Pc"(original Ton) upgraden. :O

Wenn Du von den 480ern auf die 580er upgradest, dann sei bitte konsequent und upgrade auch auf den 990x, denn die 3 x 580er GTX brauchen 'ne schnellere CPU , als dein jetztigen 980x. :D
Nene, der 980er langweilt sich in 99% der Fälle...kein Konsolenport kann was mit dem anfangen, solltest du als 980X-user doch besser wissen ;)
Außerdem wird Sandy Bitch sowieso alles wegrulen, was nicht gerade 12 threads nutzen kann. Upgrade vor Sockel 2011 daher sinnlos.

Aber wann holst du dir endlich die dritte 480er? Oder machst dann gleich 3x 580? :D

LovesuckZ
2010-11-04, 03:43:51
Join us Saturday, 11/6/2010, at 7 P.M. on the main stage for a special presentation that will make your inner nerd quiver with excitement!
http://blogs.nvidia.com/ntersect/2010/11/nvidia-is-headed-to-pdx-lan-165.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+nTersect+%28The+NVIDIA+Blog%29

tombman
2010-11-04, 03:50:49
http://blogs.nvidia.com/ntersect/2010/11/nvidia-is-headed-to-pdx-lan-165.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+nTersect+%28The+NVIDIA+Blog%29
Ankündigung der Ankündigung der Ankündigung des Release-dates ;D

LovesuckZ
2010-11-04, 03:53:57
Wenn Reviewer schon Karten haben, dann wird dort die Karte vorgestellt, ein paar Demos gezeigt und auf dem Dienstag verwiesen.

Blaire
2010-11-04, 04:11:28
http://www.cybertek.fr/Composants/Carte_Graphique/NVidia/GF_GTX_580_-_1536Mo_DVI_HDMI_PCI-E-%2806687%29-15604.aspx :naughty:

tombman
2010-11-04, 04:12:04
Wenn Reviewer schon Karten haben, dann wird dort die Karte vorgestellt, ein paar Demos gezeigt und auf dem Dienstag verwiesen.
Keine Performancezahlen, wetten? Und nur die zählen...

=Floi=
2010-11-04, 04:13:49
bösartigerweise gibt nv den reviewern wohl mehr zeit und das dürfte sich auch in der qualität der reviews niederschlagen. so bad ;D
nv kämpft wieder mit allen tricks. ^^

edit
wenn am 9. die karte kommt langt es dort auch noch. Es reicht schon, wenn die technischen daten vorgestellt werden UND eine kleine verfügbarkeit ab dem 9. gewährleistet wird. mehr will ich gar nicht.


gibt es eigentlich auch spelulationen über eine weitere steigerung der tesselationsleistung? alleine schon durch den takt dürfte diese angestiegen sein, aber könnte man hier nicht auch noch eventuell ein wenig draufgeschlagen haben?

tombman
2010-11-04, 04:16:20
http://www.cybertek.fr/Composants/Carte_Graphique/NVidia/GF_GTX_580_-_1536Mo_DVI_HDMI_PCI-E-%2806687%29-15604.aspx :naughty:
500€ ??? Muahaha, ne, danke, 200€ Aufschlag beim Wechsel von GTX480 -> GTX580 :ulol:

y33H@
2010-11-04, 04:47:45
Sparsamer? ;)

Stechpalme
2010-11-04, 04:51:45
@=Floi=
Mal abgesehen von einer höheren Leistung durch eben höheren Takt und eben mehr Units in allen Bereichen, wohl kaum. Warum auch. ATI muss ja erst mal nachziehen.

AnarchX
2010-11-04, 07:44:12
http://www.cybertek.fr/Composants/Carte_Graphique/NVidia/GF_GTX_580_-_1536Mo_DVI_HDMI_PCI-E-%2806687%29-15604.aspx :naughty:

Tatsächlich A1 und von Mitte Oktober.

Fetza
2010-11-04, 08:05:09
Sparsamer? ;)

Und nur max. 20% mehr performance? ;)

MorPheuZ
2010-11-04, 08:31:20
http://www.cybertek.fr/Composants/Carte_Graphique/NVidia/GF_GTX_580_-_1536Mo_DVI_HDMI_PCI-E-%2806687%29-15604.aspx :naughty:

Was n dat für ne Website: GTX 580 booste les derniers jeux comme Call of Duty®: Black Ops... da reicht doch ne 460 :freak:

Dural
2010-11-04, 09:15:40
haha NV brignt ja nur noch A1 :freak:

schade das jetzt der komplett bescheuerte spruch "NV kann mit A1 keine vollen Chips ausliefern" nicht mehr zieht :P

igg
2010-11-04, 09:20:07
bösartigerweise gibt nv den reviewern wohl mehr zeit und das dürfte sich auch in der qualität der reviews niederschlagen. so bad ;D
nv kämpft wieder mit allen tricks. ^^
Ja, wie heimtükisch, Reviewern mehr Zeit zu geben :ucrazy3:

Mancko
2010-11-04, 09:53:40
bösartigerweise gibt nv den reviewern wohl mehr zeit und das dürfte sich auch in der qualität der reviews niederschlagen. so bad ;D
nv kämpft wieder mit allen tricks. ^^


Ich weiss nicht ob das unbedingt ein Vorteil ist. Im Endeffekt bietest Du den Reviewern mehr Zeit das Produkt genau zu analysieren.

Wenn Du dir mal auf der anderen Seite den HD6850 und HD6870 Launch anschaust. Da gab es wenig Zeit und so ließ die Qualität der Reviews zu wünschen übrig, was ja im ersten Moment nicht unbedingt schlecht für AMD war. Ich habe mir zum Beispiel mal das Review von HardOCP angeschaut und wenn man sich da alleine den Teil zum Thema Bildqualität sieht wird einem schlecht. Simple und Kommentar/Kritiklose wiedergabe des AMD PR Materials.

Unterm Strich muss man sagen, wenn Multimonitorsupport einem nicht so wichtig ist, spricht nix für die Barts Produkte.
Die Nvidia Pendants sind eigentlich in den meissten Punkten die bessere Wahl und die Bildqualität stimmt dort auch. Hätte man das genauer analysiert wäre man bei den aktuellen Preisen auf das Ergebnis
GTX 4601GB > HD6850
GTX 460 1GB OC >= HD6870
und GTX 470 > HD6870 gekommen und zwar glas klar.

Wenistens haben sich die meissten deutschen Reviewseiten hier Mühe gegeben. Im englischsprachigen Raum sind es nur sehr wenige. Aber es besteht durchaus Hoffnung, dass bei Cayman hier genauer hingesehen wird. Wenn der das gleiche Problem mit sich rumschleppt sollte man auch ordentlich draufhauen. AMD ist nur eine Company und es gibt keinen Grund diese im Vergleich zu anderen zu schonen. Ich möchte ehrlich gesagt nicht wissen, was passiert wäre wenn Nvidia an der Bildqualität im negativen Sinne zugunsten von FPS geschraubt hätte. Da muss man sich ja nur mal die G7X Reviews aus der Vergangenheit ansehen.

LovesuckZ
2010-11-04, 10:39:03
Tatsächlich A1 und von Mitte Oktober.

Erstaunlicher ist jedoch, dass es vor einem Jahr absehbar war.
Mal sehen wie es nächste Woche aussieht, aber ein A1 auf dem selben Prozeß mit über 2 Mrd Transistoren und einer Fläche von ca. 500mm² wäre ein ziemlicher Erfolg. Und da man sich nun den Respin sparen kann, hat man den zeitlichen Nachteil von Fermi ausgeglichen. AMD wohl erst mit 28nm ihre Mid-Range bis Low-End erweitern wird, kann ein GF114 Barts ziemlich den Schneid abkaufen.

Dural
2010-11-04, 10:56:47
du meinst wohl 3Mrd. ;)

svenw
2010-11-04, 11:20:15
AMD wohl erst mit 28nm ihre Mid-Range bis Low-End erweitern wird, kann ein GF114 Barts ziemlich den Schneid abkaufen.
Warum sollte er? Wenn man sich das Linup anschaut kann man sich ungefähr ausmalen was kommen wird.
6970 = 580
6950= 570
vielleicht 6930 = 5xx Resteverwertung der High End Chips oder 114
6870 = 114

Ein Chip der Barts "verbläst" macht da nicht sonderlich viel Sinn, da er einfach Performancemäßig nicht paßt. Außerdem muß man sagen das im Bereich FPS/€ sowohl Barts als auch 104 genial sind. Ich schätze mal, das weder AMD noch NV an den Chips viel verdienen aber die Masse machts. NV wird wahrscheinlich eher in die Richtung gehen die Leistung mehr oder weniger gleich zu lassen und die Kosten (aka Die -Größe) zu senken.

DweF
2010-11-04, 11:27:31
Lässt sich schon beurteilen ob mit der GTX580 auch die GTX570 vorgestellt wird?

Danke
SG

Iruwen
2010-11-04, 11:27:56
Aber nicht im Bereich BQ/€ ;) Die GTX 560 dürfte doch weitestgehend auf HD 6870 Niveau liegen, wenn jetzt schon allgemein die GTX 460 bevorzugt empfohlen wird dann die doch erst recht. Solange NV keinen Bock schießt.

S940
2010-11-04, 11:43:47
Sparsamer? ;)
Nö, das was die Karten weniger verbrauchen verpufft durch den schlechteren Wirkungsgrad des 1,5kW Netzteils dann wieder :freak:

igg
2010-11-04, 11:55:07
Lässt sich schon beurteilen ob mit der GTX580 auch die GTX570 vorgestellt wird?
Ich befürchte dass am 8. Nov. erst die 580 kommt, und dann in monatlichen Abständen die 560 und 570. 570 vermutlich als letzte. Und gerade die fände ich am interessantesten :(

DweF
2010-11-04, 12:06:02
Schade, wäre auch sehr an der 570 interessiert.
Aber bis Januar warten, dann wieder das hin&her mit der Verfügbarkeit, ärgerlich. :mad:

SG

Superheld
2010-11-04, 12:52:14
so würdes aussehes, ob das nun mit den TMUs stimmt, abwarten..
http://www.abload.de/img/15xj5.jpg (http://www.abload.de/image.php?img=15xj5.jpg)

mapel110
2010-11-04, 12:54:09
Wieso sollten es 128 TMUs sein?! Dafür wären 20% mehr Performance ja geradezu lächerlich.

Superheld
2010-11-04, 12:56:31
vllt hauts nur in alten Games durch .

Dural
2010-11-04, 13:07:36
ich glaube auch an 64tmus, aber manche benchmarks wie vantage extreme mit über 20% mehr leistung sind merkwürdig...


vieleicht detail verbesserungen / treiber

fondness
2010-11-04, 13:10:29
Tatsächlich A1 und von Mitte Oktober.

Ich würde mal abwarten ob das mehr als ein Symbolfoto ist.

Mal sehen wie es nächste Woche aussieht, aber ein A1 auf dem selben Prozeß mit über 2 Mrd Transistoren und einer Fläche von ca. 500mm² wäre ein ziemlicher Erfolg.

Kommt drauf an ob es defacto nicht bloß ein GF100 B1 ist. ;)
Denn das hätte dann doch ziemlich lange gedauert um den Bug zu fixen.

AMD wohl erst mit 28nm ihre Mid-Range bis Low-End erweitern wird, kann ein GF114 Barts ziemlich den Schneid abkaufen.

Wo denn? Ich sehe keine Architektur von NV die das leisten könnte. Barts ist mit seinen 255mm² mehr als konkurrenzfähig.

svenw
2010-11-04, 13:16:55
Ich hoffe mal, daß das hier (http://www.golem.de/1011/79140.html) eine Falschinformation ist. 599$ für den 580?

Der Preis würde auch hinten und vorne nicht zu der erwarteten Performance passen, wenn man es mit dem 104er oder Barts vergleicht.

Ailuros
2010-11-04, 13:17:28
Ich schätze mal, das weder AMD noch NV an den Chips viel verdienen aber die Masse machts.

Wieso? Rechne Dir selber aus wie viele chips Du theoretisch heute von einem 300-er wafer bekommst mit GF100 und im Gegensatz mit GF104. Dann kommen noch die Kosten dazu dass GF100 zwei metal spins benoetigte und GF104 kein einziges und natuerlich die diversen binning Probleme vom GF100 wo sie sich gezwungen sahen sogar 256SP Quadros zu verkaufen. Wenn Du alle Faktoren und Nebeneffekte mitberechnest verdient NV pro chip mehr beim GF104 als mit high end chips und es ist auch bei AMD nicht radikal unterschiedlich da je komplizierter ein chip desto hoeher die jeweiligen Komplikationen und auch Herstellungskosten.


NV wird wahrscheinlich eher in die Richtung gehen die Leistung mehr oder weniger gleich zu lassen und die Kosten (aka Die -Größe) zu senken.

Bei GF114? :rolleyes:

fondness
2010-11-04, 13:21:09
Ich hoffe mal, daß das hier (http://www.golem.de/1011/79140.html) eine Falschinformation ist. 599$ für den 580?

Der Preis würde auch hinten und vorne nicht zu der erwarteten Performance passen, wenn man es mit dem 104er oder Barts vergleicht.

Viel bedenklicher finde ich das:

Übereinstimmend sind die Grafik-Auguren inzwischen der Meinung, dass es sich dabei um einen Paper Launch, oder, vornehmer ausgedrückt, um eine Technology Preview handeln soll. Die Karte dürfte demnach zwar angekündigt und zum Testen freigegeben werden, aber noch wochenlang nicht erhältlich sein.

Derzeit deutet alles darauf hin, dass Nvidia unbedingt AMD den Marktstart der Serie Radeon 6900 alias Cayman madig machen will. Die neuen Radeons, die anders als die Serie 6800 eine stark veränderte Architektur mitbringen, sollen laut offiziellen Angaben von AMD deutlich schneller als die Serie 5800 sein. Im prestigeträchtigen Rennen um die schnellste GPU, unabhängig von Preis und Leistungsaufnahme, will Nvidia offenbar etwas früher die Daten auf den Tisch legen.

Wenn es denn wahr ist.

Dural
2010-11-04, 13:24:47
ja klar deswegen liegen schon karten rum... :freak:

Wo denn? Ich sehe keine Architektur von NV die das leisten könnte. Barts ist mit seinen 255mm² mehr als konkurrenzfähig.

GF104 / 384SP packt Barts schon in sachen Leistung/Verbrauch und in sachen Bildqualität / Software sogar deutlich überlegen... klar die DIE ist etwas grösser aber von 250mm2 auf 330mm2 ist das noch lange kein beinbruch und so gut wie egal... ich erinnere nur mal an G92 vs RV670 oder GT200 vs RV770 :rolleyes:

Skinner
2010-11-04, 13:25:53
Viel bedenklicher finde ich das:

Dann erkläre mir mal warum die Karten in der Distribution schon gelistet sind (Unter NDA bis zum 09.11). Glaube nicht das es ein Paperlauch wird.

Iruwen
2010-11-04, 13:29:06
"Übereinstimmend sind die Grafik-Auguren inzwischen der Meinung"
Alle beide? :rolleyes:

LovesuckZ
2010-11-04, 13:38:16
Ist es vielleicht möglich nicht dauernd Begriffe falsch zu verwenden? Es wird im "schlimmsten" Fall ein Soft-Launch mit unabhängigen Reviews. Das wäre tragisch, aber kein Beinbruch.


Kommt drauf an ob es defacto nicht bloß ein GF100 B1 ist. ;)
Denn das hätte dann doch ziemlich lange gedauert um den Bug zu fixen.


Es ist erstaunlich, wie Leute mit Begriffe umsichwerfen ohne sich im Klaren zu sein, was es bedeutet. Es wird kein B1 oder A4. GF100 hat(te) erhebliche Probleme mit der Kommunikation der SM. Dafür muss man an das Grundesign ran. Barts ist auch kein Cypress B1, trotz fast identischer Konfiguration.


Wo denn? Ich sehe keine Architektur von NV die das leisten könnte. Barts ist mit seinen 255mm² mehr als konkurrenzfähig.

Nö. Barts ist nicht konkurrenzfähig. AMD ist nur konkurrenzfähig, weil man an der BQ und an der Tessellationimplementierung spart. Beides Punkte, die Ende 2010 wichtig sind. Und sollte es einen angeblichen GF114 wirklich geben, so kann sich AMD gewiss sein, dass nVidia diesen auch gegen Barts stellen wird. Und ein voller GF104 mit ca. 750MHz - 800Mhz ist deutlich schneller als Barts - bei besserer BQ, mehr Features und Zukunftsfähigkeit.

fondness
2010-11-04, 13:43:27
Es ist erstaunlich, wie Leute mit Begriffe umsichwerfen ohne sich im Klaren zu sein, was es bedeutet. Es wird kein B1 oder A4. GF100 hat(te) erhebliche Probleme mit der Kommunikation der SM. Dafür muss man an das Grundesign ran. Barts ist auch kein Cypress B1, trotz fast identischer Konfiguration.

Barts ist kein Cypress da weniger SIMDs, und sonstige kleine Verbesserungen. Logisch.
GF110 ist aber aktuell wie es aussieht nicht viel mehr als ein voller GF100 mit mehr Takt plus Bugfixing. Also ein neues Metal-Layer-Design. Bx wäre da durchaus legitim.
Es wäre schon wenn du das wissen würdest. :)

Aber kann natürlich auch sein das sich mehr geändert hat, dann habe ich nichts gesagt. Werden wir ja bald wissen.


Und ein voller GF104 mit ca. 750MHz - 800Mhz ist deutlich schneller als Barts - bei besserer BQ, mehr Features und Zukunftsfähigkeit.

Das ist als würde man Cayman mit GF104 vergleichen. Ein voller "GF114" wird sich wohl eher mit Cayman LE herumschlagen müssen.

Fetter Fettsack
2010-11-04, 14:03:54
Beides Punkte, die Ende 2010 wichtig sind.

Für Enthusiasten, wobei letzterer wohl noch nicht derart wichtig ist, wie es manche gerne sehen würde. Das kommt erst. :)

aths
2010-11-04, 14:05:03
Gerade mal nachgerechnet. Im Schnitt der Angaben dort ist eine GTX580 18,3% schneller als GTX480. Das entspricht halbwegs dem Faktor:
16/15 * 775/700 = 118,1%

Edit:
Wenn man mal Vantage rausläßt, paßt es praktisch perfekt. Wer weiß, was für eine Treiberoptimierung dafür verantwortlich ist ;)Richtig, richtig, popichtig (allerdings sind es 772 MHz bei der 580, das sind rechnerisch bis zu 17,4% Mehrleistung.)

Dural
2010-11-04, 14:26:47
Ich glaube nicht das NV einen GF114 @ 384 / 800MHz gegen Cayman "SE" setzten wird, viel eher dürfte es so kommen:

Barts vs GF114

Cayman vs GF110

und die entsprechende Produkte daruf ausrichten, mit GF114 hat man die möglichkeit leistungsmässig Barts gut im griff zu halten.

BigKid
2010-11-04, 14:31:17
Hm... Wenn das kein Paperlaunch wird, sollte man nicht langsam auch bei uns vorbestellen können ?
Mal angenommen ich möchte den Deppenzuschlag zahlen :-)

Eggcake
2010-11-04, 14:34:12
Die dürften erst gelistet werden wenn die NDA fällt.

BigKid
2010-11-04, 14:39:56
Aha - um wieviel Uhr muss ich also form Rechner sitzen und bei wem muss ich den reload button quälen wenn ich richtig heiss drauf bin :-) ?

Superheld
2010-11-04, 14:41:46
ja wo wohl ?

Eggcake
2010-11-04, 14:43:03
Aha - um wieviel Uhr muss ich also form Rechner sitzen und bei wem muss ich den reload button quälen wenn ich richtig heiss drauf bin :-) ?

Man munkelt 8. oder 9. November - Uhrzeit weiss ich nicht :biggrin:

Gipsel
2010-11-04, 15:07:32
GF110 ist aber aktuell wie es aussieht nicht viel mehr als ein voller GF100 mit mehr Takt plus Bugfixing. Also ein neues Metal-Layer-Design. Bx wäre da durchaus legitim.
Bx wäre Base-Layer Respin, also der Transistoren-Layer wird geändert (der Metal-Stack dann notgedrungen wohl auch). Wahrscheinlich hat man aber noch einen Tick mehr dran gedreht, als man sonst bei einem Base-Layer-Respin machen würde.
Richtig, richtig, popichtig (allerdings sind es 772 MHz bei der 580, das sind rechnerisch bis zu 17,4% Mehrleistung.)
Die 772 würde ich nicht so ernst nehmen, wer weiß durch welche eigentümliche Rundung das zustande kommt. Auf den Präsentationsfolien zur GTX460 SE steht z.B. auch, das die Baseclock der GTX460 768MB 670 MHz beträgt und die Shaderclock 1350 MHz :rolleyes:. Dabei wissen wir doch schon, daß das eigentlich glatte 675/1350MHz sind, oder?

Außerdem würde ich Dir einen Taschenrechner empfehlen und nicht alles im Kopf rechnen. Mit 772 MHz wären es 17,6% ;)

Aber ich denke, wir sind uns einig, daß 3 MHz den Kohl dann auch nicht fett machen.

Edit:
Außerdem hätte ich bei der Gelegenheit vielleicht erwähnen sollen, daß ich natürlich nicht die Originalzahlen zur Verfügung hatte. Die von mir genannten 18,1% sollte man deswegen noch mit einer Unsicherheit von +-1% versehen, einfach durch die Unsicherheit des Ablesens aus dem Diagramm (so genau geht das aber).

ShadowXX
2010-11-04, 16:26:22
Das ist als würde man Cayman mit GF104 vergleichen. Ein voller "GF114" wird sich wohl eher mit Cayman LE herumschlagen müssen.
Glaub ich nicht.

Er wird vielleicht Leistungstechnisch tatsächlich in die Nähe einen abgespeckten Cayman (= 6930) rücken, aber Preistechnisch eher gegen den Barts antreten.
Wobei ich mir da durchaus vorstellen kann das nV verschiedene GF114-Versionen auflegen wird. Einmal eine "kleine" Version ala GF104 und dann eben ne "Vollversion" und das letztere dann Preislich etwas höher liegen wird.

Ich glaube nicht das NV einen GF114 @ 384 / 800MHz gegen Cayman "SE" setzten wird, viel eher dürfte es so kommen:

Barts vs GF114

Cayman vs GF110

und die entsprechende Produkte daruf ausrichten, mit GF114 hat man die möglichkeit leistungsmässig Barts gut im griff zu halten.
Sehe ich auch so.
Speziell da es beim GF110 sicher auch wieder genug "Abfall" für abgespeckte Versionen geben wird.

fondness
2010-11-04, 20:39:03
Update (4 Nov 2010): NVIDIA's partners are already shipping GeForce GTX 580 based cards to distributors around the globe for retail. The launch is confirmed to be November 9, and we will definitely see GeForce GTX 580 cards on store shelves. However, the initial selling price is expected to creep into the US$600+ range.

http://vr-zone.com/articles/nvidia-geforce-gtx-580-priced-at-us-599-to-be-available-november-9th/10222.html

Sieht gut aus mit der Verfügbarkeit, dann waren die Paperlaunch Gerüchte wohl nur Blödsinn.

LuXon
2010-11-04, 20:42:56
Die Yields müssten sehr gut sein. Gibt es dazu schon informationen?

Rückt nVidia nach dem erscheinen dann mit Yield-Zahlen zu GF100 raus?

fondness
2010-11-04, 20:45:47
Die Yields müssten sehr gut sein.

Warum?


Rückt nVidia nach dem erscheinen dann mit Yield-Zahlen zu GF100 raus?

Nein. :)

LuXon
2010-11-04, 20:54:59
Die GTX 580 wird im Gegensatz zu den GTX 480 viel mehr verkauft werden. Ausserdem können sie viel mehr Stück absetzten, da die Karte anscheinend besser ist. Also müssen auch viele gute Chips her und das geht nur über gute Yiels, da die zweite 40nm Fabrik iirc noch nicht eröffnet ist.

DrFreaK666
2010-11-04, 21:06:01
http://vr-zone.com/articles/nvidia-geforce-gtx-580-priced-at-us-599-to-be-available-november-9th/10222.html

Sieht gut aus mit der Verfügbarkeit, dann waren die Paperlaunch Gerüchte wohl nur Blödsinn.

Dein Gepostetes kann genauso gut ein gerücht sein :wink:

Die GTX 580 wird im Gegensatz zu den GTX 480 viel mehr verkauft werden. Ausserdem können sie viel mehr Stück absetzten, da die Karte anscheinend besser ist. Also müssen auch viele gute Chips her und das geht nur über gute Yiels, da die zweite 40nm Fabrik iirc noch nicht eröffnet ist.

Ja toll. Die AMD-Karte wird aber auch besser.

LovesuckZ
2010-11-04, 21:58:57
Neue Slides: http://www.news4it.it/gpu/425-gtx-580-informazioni-riservate

fondness
2010-11-04, 22:02:44
Neue Slides: http://www.news4it.it/gpu/425-gtx-580-informazioni-riservate

Alles wie erwartet, nur die Perf/Watt im Vergleich zur GTX480 ist nicht berauschend. Aber vermutlich nimmt man hier die TDP, hoffentlich hat man diese nach GF104-Schema deklariert und sich nicht an die GTX480 gehalten. ;)

derguru
2010-11-04, 22:03:19
wenn das mit der laustärke stimmt,owned.

Sorkalm
2010-11-04, 22:04:59
wenn das mit der laustärke stimmt,owned.

XFire auf off. Folien? Oder Vergleiche gleich mit 3 Grafikkarten?

Denke nicht, dass das die authentisch sind.

LovesuckZ
2010-11-04, 22:05:26
wenn das mit der laustärke stimmt,owned.

Naja, leise ist was anderes. Aber so deutlich kann nicht nur durch den größeren Lüfter zustande kommen.

Hugo78
2010-11-04, 22:05:27
Alles wie erwartet, nur die Perf/Watt im Vergleich zur GTX480 ist nicht berauschend.

Wo siehst du da ne Perf/Watt Angabe?!

Die Lautstärke ist ok, wenn sie unter 285er level arbeitet.

Sorkalm
2010-11-04, 22:06:35
Wo siehst du da ne Perf/Watt Angabe?!

Letzte Folie. Ist aber eigtl. auch eher ungewöhnlich, das Ding.

derguru
2010-11-04, 22:07:02
Naja, leise ist was anderes. Aber so deutlich kann nicht nur durch den größeren Lüfter zustande kommen.
für eine highend referenzkarte ist das gut aber klar ohne gewähr das ganze.:biggrin:

Screemer
2010-11-04, 22:07:24
@Sorkalm: vorletzte folie. die letzte ist die akustik.

Hugo78
2010-11-04, 22:07:48
Letzte Folie. Ist aber eigtl. auch eher ungewöhnlich, das Ding.

Die letzte Folie dreht sich um die Lautstärke in dbA...

fondness
2010-11-04, 22:08:33
Wo siehst du da ne Perf/Watt Angabe?!


Dritte Folie. Die Perf/Watt liegt kaum höher als die Leistungssteigerung in den Benchs zur GTX480 -> selbe Leistungsaufnahme wie GTX480?

LovesuckZ
2010-11-04, 22:09:04
Er meint die:
http://www.news4it.it/images/stories/Nvidia/gtx580C_copia.jpg

Screemer
2010-11-04, 22:09:27
darauf wirds nach den folien hinaus laufen. jetzt müssten die nur noch authentisch sein.

boxleitnerb
2010-11-04, 22:12:01
Wie ich diese Marketingfolien mit der künstlichen Balkenverlängerung hasse! Die Folien sollte man sowieso mit Vorbehalt betrachten, da war natürlich wieder Rosinenpickerei am Werke.

igg
2010-11-04, 22:13:20
Seltsame Folien, auch so hässliche Balken. Finde ich eher fake, wobei die dämlich nicht nullbasierten Benchmarkbalken typisch wären...

Hugo78
2010-11-04, 22:14:00
Dritte Folie. Die Perf/Watt liegt kaum höher als die Leistungssteigerung zur GTX480 -> selbe Leistungsaufnahme wie GTX480?

Oh ok, diese Folie ist echt unklar.

edit.
Ich würde es mal so interpretieren, dass die 580 max. 200-245W vernascht.
Wenn man zugrunde legt, dass die 480 real 300W aufnimmt und die 580 20% schneller rennt.

fondness
2010-11-04, 22:15:30
Oh ok, diese Folie ist echt unklar.

Eigentlich ist sie eindeutig. Die Frage ist nur ob rein nach TDP verglichen wurde, die womöglich nicht vergleichbar ist, oder ob es vergleichbare Werte waren.

Spasstiger
2010-11-04, 22:18:34
Ich sehe da 25-30% mehr Perf/Watt (außer Vantage) und in den gleichen Benchmarks 15-20% mehr Performance beim Vergleich GTX 580 vs. GTX 480. D.h. die Leistungsaufnahme sinkt wohl um 5-10%.

igg
2010-11-04, 22:21:17
Btw, wenn da 25-30 % mehr Performance pro Watt sind, der GF110 aber (angeblich) weniger Watt verbraucht, liegt die absolute Performancesteigerung schlimmstenfalls nur zwischen 10-20 %.

Spasstiger
2010-11-04, 22:32:07
Wenn der GF110 einfach ein gefixter GF100 ist und die GTX 580 512 SPs @ ~1550 MHz nutzt, dann wird die Leistungssteigerung gegenüber der GTX 480 bestenfalls 18% betragen.

SamLombardo
2010-11-04, 22:42:56
Er meint die:
http://www.news4it.it/images/stories/Nvidia/gtx580C_copia.jpg
Echt immer wieder interessant wie man auf so einer Folie 30 Prozent so aussehen lässt, als wäre es das doppelte:eek:

Hugo78
2010-11-04, 22:50:58
(werte sind Pi mal Daumen gerundet, hab grad 3h BC2 hinter mir kann grad nicht mehr klar denken *g*)

Ok, also ich hab da jetzt mal folgendendes "Worst Case Gedankenspiel" für:

Metro, laut Folie = 1.25
480 -> 100 fps bei real 300W Verbrauch = 0,333 = 1
580 -> 120 fps bei real 288W Verbrauch = 0,416 = 1,25
edit: 580 -> 114 fps bei real 274W Verbrauch = 0,416 = 1,25

Heaven, laut Folie unter 1.3
480 -> 100 fps bei real 300W Verbrauch = 0,333 = 1
580 -> 120 fps bei real 280W Verbrauch = 0,428 = 1,29

Für Vantage, laut Folie = 1.4
480 -> 100 fps bei real 300W Verbrauch = 0,333 = 1
580 -> 120 fps bei real 258W Verbrauch = 0,466 = 1,4

Bin ich jetzt auf dem völlig falschen Dampfer oder kommt das so hin?!
Das wären dann 4-16% (edit ~10% ?!) weniger Leistungaufnahme, wenn man konstant 20% mehr Leistung annimmt.

Aber sind es immer 20% ?!... also nach wie vor, die Folie ist unklar. :D

Spasstiger
2010-11-04, 22:54:14
In Metro 2033 ist die GTX 580 laut Folie rund 14% schneller als die GTX 480. In Heaven sind es rund 20%. Für Vantage fehlen Vergleichswerte, nimm lieber Stalker CoP (GTX 580 ~18% schneller als GTX 480).
Bei Metro kommt man nach deiner Rechnung auf 274 Watt. Wären rund 9% weniger als bei der GTX 480.
Bei Stalker CoP ergibt sich ein um ca. 8% reduzierter Verbrauch.
Und bei Heaven rund 7% weniger.

LovesuckZ
2010-11-04, 22:54:27
Wenn der GF110 einfach ein gefixter GF100 ist und die GTX 580 512 SPs @ ~1550 MHz nutzt, dann wird die Leistungssteigerung gegenüber der GTX 480 bestenfalls 18% betragen.

In Crysis ist die Karte laut den Folien ca. 22% schneller, in HAWX sind es 25%.
Und die Leistungsaufnahme sollte in Spielen ca. 200 Watt betragen, was genau diese 25-30% Bei Perf/Watt ausmacht. - Denkfehler.

Hugo78
2010-11-04, 23:01:23
@Spasstiger
Jo, hab ich auch grad raus.

edit.
Also, im besten Fall darf man von 40-45W weniger ausgehen. (edit 2: sagen wir im Schnitt 30W laut Metro)
Zumal wenn ich mir die Lautstärke ansehe und man sieht das der Kühlkörper etwas günstiger ausschaut als, der der 480 Version,
dann muss da eigentlich noch weniger drin sein.

Oder NV verteilt die Abwärme besser ... naja nächste Woche Montag wissen wir mehr. :D

Spasstiger
2010-11-04, 23:09:45
In Crysis ist die Karte laut den Folien ca. 22% schneller, in HAWX sind es 25%.
Crysis ist schwer abzuschätzen, weil die Balken kaum länger sind als der matschige Randbereich. Ich komme auf ~20% Vorteil in Crysis.
Bei HAWX sehe ich 23% Vorteil.
Wenn es echte NV-Folien sind (dagegen spricht die miese Qualität, die nach Vertuschung von Fakebalken aussieht), dann könnte es immer noch sein, dass die GTX 480 und die GTX 580 mit verschiedenen Treibern verglichen werden.

Jedenfalls ergibt 512/480*772/700 den Wert 1,176, was max. 18% Performancezuwachs entspricht.

Also, im besten Fall darf man von 40-45W weniger ausgehen.
7-9% weniger Leistungsaufnahme ergeben nach meiner Rechnung nie 40-45 Watt. Sind wohl eher 20-30 Watt weniger realer Verbrauch.

ZÜNDELholz
2010-11-04, 23:10:21
Nene, der 980er langweilt sich in 99% der Fälle...kein Konsolenport kann was mit dem anfangen, solltest du als 980X-user doch besser wissen ;)
Außerdem wird Sandy Bitch sowieso alles wegrulen, was nicht gerade 12 threads nutzen kann. Upgrade vor Sockel 2011 daher sinnlos.

Aber wann holst du dir endlich die dritte 480er? Oder machst dann gleich 3x 580? :D

War doch ironisch gemeint, denn der Umstieg von der 480er auf 580er ist genauso sinnlos , wie von 980x auf 990x.
Die 20% Mehrleistung des 580er kannst auch mit der 480er hinclocken.
Dritte 480er kommt nicht mehr ins Haus, für "Romley" sind 3x 6XXGTXen geplant .

LovesuckZ
2010-11-04, 23:11:14
In Metro 2033 ist die GTX 580 laut Folie rund 14% schneller als die GTX 480. In Heaven sind es rund 20%. Für Vantage fehlen Vergleichswerte, nimm lieber Stalker CoP (GTX 580 ~18% schneller als GTX 480).
Bei Metro kommt man nach deiner Rechnung auf 274 Watt. Wären rund 9% weniger als bei der GTX 480.
Bei Stalker CoP ergibt sich ein um ca. 8% reduzierter Verbrauch.
Und bei Heaven rund 7% weniger.

HT4U.de (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php) hat beim GF100 Launch Werte in Stalker und Heaven ermittelt. Nimmt man die Angaben von der Folie, dann sollte eine GTX570 auf GTX480 Niveau im Heavem ca. 188 Watt und in Stalker ca. 191 Watt erreichen. Was somit auf dem Niveau der GTX470 ist bzw. sogar noch darunter.

Hugo78
2010-11-04, 23:16:19
7-9% weniger Leistungsaufnahme ergeben nach meiner Rechnung nie 40-45 Watt. Sind wohl eher 20-30 Watt weniger realer Verbrauch.

Ja, hatte es in dem Moment selber im Hinterkopf und nochmal editiert. ;)
Aber mir erscheint das zuwenig um hier leiser als ne 285 zuwerden.

Obwohl hier auch die Frage ist, welcher Bezug hier vorliegt.
100% Lüfterdrehzahl oder nur 40% upm?! ... Fragen über Fragen. :redface:

airbag
2010-11-05, 00:22:02
Volker ist mal wieder so ne Plaudertasche :(
http://www.computerbase.de/forum/showpost.php?p=8761668&postcount=196
http://www.computerbase.de/forum/showpost.php?p=8761687&postcount=200

Nightspider
2010-11-05, 00:35:29
Volker ist mal wieder so ne Plaudertasche :(
http://www.computerbase.de/forum/showpost.php?p=8761668&postcount=196
http://www.computerbase.de/forum/showpost.php?p=8761687&postcount=200

Und btw.: alles was die Gerüchte zur GTX 580 jetzt sagen stimmt nicht. Nur mal so^^

Uh...sehr interessant. :uponder:

Superheld
2010-11-05, 00:35:36
Und btw.: alles was die Gerüchte zur GTX 580 jetzt sagen stimmt nicht. Nur mal so^^

doch kein gefixter GF100 oder wie meinen ?

vllt sagt ers nur so...

aylano
2010-11-05, 00:43:52
Die Effizienzsteigerung von GTX280 auf GTX285 würde ich auf +16% schätzen.

Auffällig, dass beim Performance/Watt Heaven & Furmark genommen worden ist.

Bei den Spielen liegt die Steigerung bei 25%.
Eigentlich eh, was man erwartet hat.
So ca. +15% Performance-Steigerung und -10% weniger Stromverbrauch.

Wobei interessant zu wissen wäre, was Volker mit Extrem Cherry-Picking gemeint hat.
Furmark & Heaven oder gar die beiden Spiele???

Edit: Die 600$ scheinen mir etwas viel, wenn es 480GTX schon ab 350 Euro gibt und 580GTX ca. 15% schneller wird.

Da es schon mal Gerüchte von nicht-unbedeutenden Personen gab, die erst eine breite Verfügbarkeit von Feb 2011 sprachen, könnte der Hohe Preis auch aufgrund begrenzter Verfügbarkeit (aufgrund der Yield oder gar der 40nm-Fertigung die im 3Q kaum im Vergleich zum Vorquartal wuchs) zustande kommen, bevor die Händler die Preise erhöhen.

Blaire
2010-11-05, 01:28:47
Nvidia spends $2 million to optimize Crysis 2 for GTX 580?
http://www.kitguru.net/components/graphic-cards/faith/crysis-2-being-re-designed-for-gtx580-expect-delays/

derguru
2010-11-05, 01:32:01
ohne worte.:lol:

ich sehs schon kommen nv-optimize bedeutet,amd suckt und dann am besten gleich mit sowas,"kein aa möglich":biggrin:

Nightspider
2010-11-05, 01:36:15
Na vor allem wird man da punkten wollen, wo AMD bisher richtig schlecht da stand: bei Tessellation.

Ich hoffe doch das man nen richtig dicken DX11 Modus bekommt.

Da dürfen sich die Konsolen schonmal warm anziehen.

Superheld
2010-11-05, 01:45:33
ist vom 8 September, wieder ausgegraben vllt

http://www.kitguru.net/components/graphic-cards/faith/nvidias-2-million-crysis/

kann man die Seite ernst nehmen btw weil das steht nur da ?

Mancko
2010-11-05, 02:10:13
ist vom 8 September, wieder ausgegraben vllt

http://www.kitguru.net/components/graphic-cards/faith/nvidias-2-million-crysis/

kann man die Seite ernst nehmen btw weil das steht nur da ?

Kurz und knapp - die Seite ist ein Witz!

Superheld
2010-11-05, 02:22:41
ups

na warten wir ebend (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8024484&postcount=330) ;)

Dural
2010-11-05, 09:19:50
ohne worte.:lol:

ich sehs schon kommen nv-optimize bedeutet,amd suckt und dann am besten gleich mit sowas,"kein aa möglich":biggrin:


NV macht wenigstens für ihre Kunden etwas nicht so wie AMD die nur ihre FPS hin werfen und sagen halt die klappe mehr gibt es nicht. Die AMD typen könnten ja mal ihre faulen ärsche bewegen und auch mal was in die richtung tun... wäre mal höchste zeit... AMD wird mit ihren billigen Marketing und ihrem nichts tun (Physx......) immer wie mehr unsympatischer.

igg
2010-11-05, 09:26:23
Und btw.: alles was die Gerüchte zur GTX 580 jetzt sagen stimmt nicht. Nur mal so^^
Das ist komisch... was meint er denn damit? Ich dachte das meiste wär in Stein gemeißelt: Speicher, Interface, Takt, Leistungssteigerung, ...

mapel110
2010-11-05, 09:28:03
Ist wohl ironisch gemeint, damit man ihm aus seinen Postings keinen Strick drehen kann.

igg
2010-11-05, 09:33:32
Auch interessant (http://www.computerbase.de/forum/showthread.php?p=8759664#post8759664)
Nvidia hat gestern bissel was über die ganze kommende Serie an neuen Karten erzählt und gleich Samples von etwas Neuem mitgegeben. Gibt wohl größere Anpassungen bei der Architektur, Nvidia hat wohl viel mit den Transistoren rumgespielt. Dies soll am Ende zu leisen, weniger stromfressenden und gleichzeitg schnelleren Karten führen. Mehr darf ich nicht sagen

mironicus
2010-11-05, 10:30:00
Da werden sich die jetzigen Besitzer der GTX4xx aber ärgern, wenn das alles stimmt. So kurz nach Release bereits eine neue Generation, von unnötigem Ballast befreiten und gefixten Karten auf den Markt zu werfen.

aths
2010-11-05, 10:32:06
War doch ironisch gemeint, denn der Umstieg von der 480er auf 580er ist genauso sinnlos , wie von 980x auf 990x.
Die 20% Mehrleistung des 580er kannst auch mit der 480er hinclocken.Viele GTX 480 laufen mit 840 MHz nicht mehr.

mapel110
2010-11-05, 10:33:54
Da werden sich die jetzigen Besitzer der GTX4xx aber ärgern, wenn das alles stimmt. So kurz nach Release bereits eine neue Generation, von unnötigem Ballast befreiten und gefixten Karten auf den Markt zu werfen.
High End Käufer wechseln gerne. Ich bin früher auch von einer 9700 pro auf eine 9800 pro gewechselt, einfach weil mein sonstiger Rechner nicht weiter aufzurüsten war. So wirds einigen 480er Besitzern auch gehen.

Mancko
2010-11-05, 10:37:00
Da werden sich die jetzigen Besitzer der GTX4xx aber ärgern, wenn das alles stimmt. So kurz nach Release bereits eine neue Generation, von unnötigem Ballast befreiten und gefixten Karten auf den Markt zu werfen.

Warum. Die GTX 480 und 470 gibts schon ne Weile und die 460 ist extrem günstig in den Markt gekommen. Wüsste nicht worüber man sich da ärgern muss. Ich habe mir beispielsweise eine 460 geholt. Hätte ich noch keine würde ich unter Umständen sogar jetzt eine 460 oder 470 kaufen. Die sind preislich sehr attraktiv. Wenn man nicht jede Grafikreihe mitgeht kann man das recht entspannt sehen.

Grundsätzlich freut es mich aber immer wenn was neues kommt. Ich gehe grundsätzlich nicht mit dem Ansatz heran, noch große Wiederverkaufspreise zu erzielen. Meine 8800 GTS hatte ich 3 Jahre. Die 460 war ein Zwischenkauf weil mir die 480 nicht so ganz zugesagt hat. vielleicht wirds ja jetzt eine 580 dafür :)