Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF110 - GTX 5xx - 2011
AnarchX
2010-10-28, 11:42:10
GTX 580 Reviews: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495338
GTX 570 Reviews: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=497091
GTX 590/595:
http://img338.imageshack.us/img338/8527/1681511.jpg
http://www.enet.com.cn/article/2010/1119/A20101119777146.shtml
GTX 570
http://i52.tinypic.com/2ic0a50.jpg
投放市場 12/8/2010
參數 690/1380/3800 MHz
http://bbs.expreview.com/thread-37829-1-1.html
http://img264.imageshack.us/img264/4770/gtx580.png (http://img264.imageshack.us/i/gtx580.png/)
http://www.nvidia.com/object/3d-vision-requirements.html
NVIDIA_DEV.1080.01 = "NVIDIA GeForce GTX 580"
NVIDIA_DEV.1081.01 = "NVIDIA D13U"
NVIDIA_DEV.1082.01 = "NVIDIA D13U "
NVIDIA_DEV.1083.01 = "NVIDIA D13U "
Frequency: 772/1002
Vantage X mode: 12700 +
GTX 480 in Vantage than the big increase, but the actual game is in 15 ~ 20%.
http://www.chiphell.com/forum.php?mod=viewthread&tid=133004&extra=page%3D1
Vantage und Heaven Ergebnisse? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8355637#post8355637)
http://img14.mediafire.com/daea9ce1d5e45a6ad5c146303e52f4e9679c36b6dcbcfc379fa9c8ccf5abe1bb5g.jpg
http://img13.mediafire.com/cfec21a2cab6a8d3bb5f34b17776ab4438a4592af490e1dcb477fdf43c0a9aa76g.jpg
http://img153.imageshack.us/img153/7603/10102817232cb9a4cbe262a.jpg
http://img139.imageshack.us/img139/8435/56850631288349168335102.jpg
http://www.chiphell.com/forum.php?mod=viewthread&tid=132917&extra=page%3D1
http://bbs.expreview.com/thread-37378-1-1.html
http://img180.imageshack.us/img180/1395/580gtx.jpg
http://www.cybertek.fr/Composants/Carte_Graphique/NVidia/GF_GTX_580_-_1536Mo_DVI_HDMI_PCI-E-%2806687%29-15604.aspx
Nvidia is preparing to launch its GF110-based GeForce GTX 580 by the end of November or early December 2010 with performance 20% faster than its current GeForce GTX 480, according to sources from graphics card makers.
http://www.digitimes.com/news/a20101020PD223.html
Pro-Watt-Leistung:
I heard GTX 580 GTX 480 performance is 120%, while power consumption is 80%, would definitely come out in November.
Then the GTX 570, the performance is basically a GTX 480.
Finally, GTX 560, I heard 3 months out, HD6800 seems a long life expectancy can not ~
Finally, under the last two competitive sigh, do not decline in value than the HD5000 compared to a year market, competitive players will be happy!
http://www.chiphell.com/forum.php?mod=viewthread&tid=132801&extra=page%3D1
GF110 in CUDA:
http://img413.imageshack.us/img413/5271/captureyut.png
260.99 GTX 580 Version - Review-Treiber?
http://img.article.pchome.net/00/48/49/88/4.png
http://translate.google.de/translate?u=http%3A%2F%2Farticle.pchome.net%2Fcontent-1218188.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
AnarchX
2010-10-28, 11:45:53
Quelle für die Bilder der GTX 580 ist übrigens PHK: http://bbs.expreview.com/thread-37378-1-1.html
Interessant wäre natürlich ein Bild der Rückseite, ohne eine Blende. ;)
edit:
http://img153.imageshack.us/img153/7603/10102817232cb9a4cbe262a.jpg
Offenbar 384-Bit: http://www.computerbase.de/bildstrecke/28941/138/
Ailuros
2010-10-28, 11:50:29
Quelle für die Bilder der GTX 580 ist übrigens PHK: http://bbs.expreview.com/thread-37378-1-1.html
Interessant wäre natürlich ein Bild der Rückseite, ohne eine Blende. ;)
edit:
http://bbs.expreview.com/attachments/month_1010/10102817232cb9a4cbe262a11c.jpg
Offenbar 384-Bit: http://www.computerbase.de/bildstrecke/28941/138/
Wollte ich gerade sagen als ich versuchte die Speicherchips zu zaehlen.
Dural
2010-10-28, 11:52:03
hübsche karte und meine 225Watt+ wurden innert wenigen minuten bestätigt lol
Dural
2010-10-28, 11:55:14
und 6-Phasen Strom Versorgung
Ailuros
2010-10-28, 11:56:17
hübsche karte und meine 225Watt+ wurden innert wenigen minuten bestätigt lol
Ich bezweifle dass jemand je etwas von 2*6pin fuer das Ding behauptet hat. 6pin+8pin war stets innerhalb der logischen Erwartungen fuer einen GF110, ergo zwischen 225 und 300W.
***edit:
Anarch,
Das dritte Bild ist verschwunden von den links. Kann es sein dass jemand dummerweise ein GTX480 Bild benutzt hat?
Dural
2010-10-28, 12:14:31
das ist keine GTX480 ;)
=Floi=
2010-10-28, 12:25:51
zumindest hat die karte auch eine schöne anordnung der anschlüsse und einen slot nur für den lüfter und nicht den ati crap.
ich hoffe nv stellt das teil so früh wie möglich vor und selbst ein paper launch wäre schon etwas.
Dural
2010-10-28, 12:57:34
...hmmm aber vielleicht doch irgend eine unbekannte GF100 karte :rolleyes:
fondness
2010-10-28, 13:22:55
zumindest hat die karte auch eine schöne anordnung der anschlüsse und einen slot nur für den lüfter und nicht den ati crap.
LOL, mehr Anschlüsse = ATI-Crap. Fanboy anyone? :rolleyes:
Das bestätigt schon mal das es NV noch immer nicht geschafft hat mehr Display-Controller zu verbauen - schwach.
y33H@
2010-10-28, 13:51:26
Ich persönlich brauche es nicht. Zwei Bildschirme per DVI ist mir zum Zocken und Arbeiten genug.
EDIT
http://www.pcmasters.de/fileadmin/news/Nvidia/Nvidia-GF100.jpg
Eine der ersten 480er, die sieht (fast?) genauso aus wie die "GTX 580".
AnarchX
2010-10-28, 14:02:32
Aber auch nur fast:
Das Plastehäuse ist von der Oberfläche völlig anders beschaffen, der Lüftereinlaß ist größer.
Und die Karte auf dem Nvidia Bild hat ein PCB mit Luftloch, wenn man im rechten Bereich des Lüfters hinschaut.
Auf jeden Fall deutet diese Karte auf eine gesunkene TDP hin, da man das Grill und die nach außen gehenden Heatpipes nicht mehr braucht.
Dural
2010-10-28, 14:02:58
die löcher auf der rückseite fehlen bei der "GTX580"
aber ich habe in erinnerung das die ersten "GTX380" diese löcher nicht hatten, finde aber keine bilder dazu...
=Floi=
2010-10-28, 14:08:06
dann sollten sie aber einfach mal HDMI und DP anschlüsse verbauen und nicht oben bei den luftschlitzen alles zubauen. das ist doch ein witz bei ~250 watt verbarauch.
edit
auf dem bild von yeeha sieht man aber durch die karte!
Hugo78
2010-10-28, 14:26:01
edit
auf dem bild von yeeha sieht man aber durch die karte!
Das ist ein Bild der ersten 480er.
AnarchX
2010-10-28, 14:47:37
http://we.pcinlife.com/data/attachment/forum/201010/28/2001136ufpz6udh45sq991.jpg.thumb.jpg http://we.pcinlife.com/data/attachment/forum/201010/28/200106hqbkgu8h1dq1688k.jpg.thumb.jpg http://we.pcinlife.com/data/attachment/forum/201010/28/2010402y2xlhyieallyaq7.jpg.thumb.jpg
http://bbs.expreview.com/thread-37388-1-1.html
Da folgen wohl bald Benchmarks aus Asien.
sp MEM 3DV P GPU PWR
GTX580 512 1.5G 772MHZ: 243xx 850MHZ:255xx 8+6
GTX570 480 ??? ???MHZ:18xxx 6+6
http://bbs.expreview.com/thread-37386-1-1.html
MorPheuZ
2010-10-28, 14:48:00
Irgendwas muss dran sein wenn die ganze Presselandschaft davon berichtet.
AnarchX
2010-10-28, 14:50:57
Man sollte wohl aber auch nicht ausschließen, dass dies von Nvidia gewolltes Säbelrasseln ist, da Cayman nächsten Monat wohl einen Hardlaunch haben wird.
dildo4u
2010-10-28, 14:58:36
24300 wären wohl so 25% über GTX 480.Mit 850mhz wär sie auf 5970 Level.
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/8/#abschnitt_3dmark_vantage
=Floi=
2010-10-28, 15:00:48
850mhz wäre ne nummer! Das wären ~20% mehr takt.
MorPheuZ
2010-10-28, 15:01:44
und 3dMurks liegt den Fermis nicht... im Vergleich zur Spielleistung.
boxleitnerb
2010-10-28, 15:01:59
Ein Refresh, der an die Performance einer MGPU-Karte der "vorigen" Generation rankommt...gabs das schonmal?
dildo4u
2010-10-28, 15:04:33
und 3dMurks liegt den Fermis nicht... im Vergleich zur Spielleistung.
Doch NV hat da noch kräftig optemiert mit dem Treiber nur hat CB die Nvidia Karten nicht mit dem neusten nachgebencht.
Ailuros
2010-10-28, 15:04:58
24300 wären wohl so 25% über GTX 480.Mit 850mhz wär sie auf 5970 Level.
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/8/#abschnitt_3dmark_vantage
Man kann ja nicht wissen was jeder genau hier angerichtet hat, aber wenn man alle Frequenzen um 10% steigert muesste auch ca. 10% mehr Leistung herauskommen. Wenn die scores ueberhaupt stimmen (welches nicht unwahrscheinlich klingt) dann hat jemand entweder nicht den Speicher uebertaktet als Beispiel oder das Ding skaliert mit steigender Frequenz nicht wie man es erwarten wuerde?
AnarchX
2010-10-28, 15:08:22
Schlag auf Schlag... ;D
Frequency: 772/1102
Vantage X mode: 12700 +
GTX 480 in Vantage than the big increase, but the actual game is in 15 ~ 20%. .
http://www.chiphell.com/forum.php?mod=viewthread&tid=133004&extra=page%3D1
211GB/s klingen schon mal nicht schlecht. ~20% mehr Bandbreite als bei der GTX 480.
Vielleicht bringen die eventuellen 128 TMUs unter HQ-Filterung noch ein paar mehr Prozente, als die 15-20%.
y33H@
2010-10-28, 15:22:38
Ein Refresh, der an die Performance einer MGPU-Karte der "vorigen" Generation rankommt...gabs das schonmal? AMD wie NV können (offiziell) halt die 300W nicht knacken.
AnarchX
2010-10-28, 15:26:02
Darum sollte man hier versuchen eine Enthusiasten-Mehrwert mit zu verkaufen: Wasserkühler und ein PCB mit 375-450W maximale Board-Power für den OCing-Betrieb.
LovesuckZ
2010-10-28, 15:31:39
Ein Refresh, der an die Performance einer MGPU-Karte der "vorigen" Generation rankommt...gabs das schonmal?
Das mGPU der "vorigen Generation" war aber auch ziemlich schwach. Wobei, eine GTX480 ist ca. so schnell wie eine GTX295. Aber ich denke, du meintest eher Refresh in Form gleicher Architektur, oder?
deekey777
2010-10-28, 15:32:26
Was für 128 TMUs? Es sind 64 TMUs und sie laufen mit Shadertakt. X-D
Iruwen
2010-10-28, 15:36:43
AMD wie NV können (offiziell) halt die 300W nicht knacken.
Warum eigentlich nicht (die Partner können ja offenbar)? Die meisten Käufer wissen ja nichtmal was ATX ist, außer vielleicht dass dadurch ihr Board ins Gehäuse passt :D
boxleitnerb
2010-10-28, 15:40:10
Das mGPU der "vorigen Generation" war aber auch ziemlich schwach. Wobei, eine GTX480 ist ca. so schnell wie eine GTX295. Aber ich denke, du meintest eher Refresh in Form gleicher Architektur, oder?
Ja. Und stimmt, die 5970 zu schlagen ist jetzt nicht so schwer. Die hat ja nichtmal annähernd die doppelte Leistung einer 5870 erbracht - eher maximal 50% mehr.
Btw erwartet ihr Versionen mit 3GB VRAM? Für SLI in Verbindung mit viel SSAA/Downsampling nicht verkehrt...
Ailuros
2010-10-28, 15:55:10
Was für 128 TMUs? Es sind 64 TMUs und sie laufen mit Shadertakt. X-D
Wenn dem so waere wuerde in dem Fall 64TMUs@1544 im Vergleich zu 128TMUs@772MHz mehr als 2x Mal so viel die area verschlingen :P
Das mGPU der "vorigen Generation" war aber auch ziemlich schwach. Wobei, eine GTX480 ist ca. so schnell wie eine GTX295. Aber ich denke, du meintest eher Refresh in Form gleicher Architektur, oder?
Ich denke er meinte wohl eher GTX580 vs. HD5970. Ist aber auch total nebensaechlich da es sich hier nur um einen ziemlich ausgelatschten synthetischen benchmark handelt.
Fetza
2010-10-28, 15:58:49
Darum sollte man hier versuchen eine Enthusiasten-Mehrwert mit zu verkaufen: Wasserkühler und ein PCB mit 375-450W maximale Board-Power für den OCing-Betrieb.
Btw erwartet ihr Versionen mit 3GB VRAM? Für SLI in Verbindung mit viel SSAA/Downsampling nicht verkehrt...
Ich hoffe nicht, zumindest nicht die standardmodelle. Ich hätte nämlich auch gerne was in der 400 euro region, nicht in der 600. ;)
boxleitnerb
2010-10-28, 16:03:28
Natürlich extra :)
Und ja, ich meinte die 5970. Vantage P ist ja schon etwas CPU-limitiert, wenn ich mich richtig erinnere. X ist interessanter.
Dural
2010-10-28, 16:07:24
512SP @ 850MHz WOW das default wäre schon krass, wird aber wohl 770MHz sein :)
LovesuckZ
2010-10-28, 16:11:28
770Mhz reichen doch. Das wären alleine schon 10% Mehrleistung. Dann noch knapp 19% mehr Bandbreite, mehr als doppelt soviel Texturleistung und 6% mehr Rechenleistung durch 16SM sollten für einen eindeutigen Leistungsgewinn sorgen. Und 20% mehr bei 30-50 Watt weniger Stromverbrauch wäre ein erheblicher Schlag in Cayman's Magen.
Ailuros
2010-10-28, 16:23:47
770Mhz reichen doch. Das wären alleine schon 10% Mehrleistung. Dann noch knapp 19% mehr Bandbreite, mehr als doppelt soviel Texturleistung sollten für einen eindeutigen Leistungsgewinn sorgen. Und 20% mehr bei 30-50 Watt weniger Stromverbrauch wäre ein erheblicher Schlag in Cayman's Magen.
AMD's Marktprozentual im high end wird dann um X Prozent purzeln, sie verkaufen nachdem die Grafiksparte an Apple und wir koennen alle zufrieden nach Hause gehen ja? :P
Der offensichtliche Sarkasmus dient lediglich dazu zu zeigen wie wichtig Konkurrenz ueberhaupt ist. Mir haengt der zu hohe Stromverbrauch genauso zum Hals raus auf GF100 wie auch die AF Nachteile auf bis zu Evergreen GPUs. Anders beide hoeren auf die Klagen der Userbase und versuchen das bestmoegliche zumindest das meiste hinzubiegen.
Ein erheblicher Schlag in den Magen NVIDIA's wird es wohl eher geben wenn die Verfuegbarkeit von GF110 zum erbrechen niedrig sein wird und es erst ab Februar richtig loslegen kann. Frisch aus Taiwan mit einem Blumenstrauss an alle fanatische Folger.
mironicus
2010-10-28, 16:33:00
20% mehr Leistung bei 20% weniger Stromverbrauch so aus dem Ärmel zu schütteln klingt fast zu gut um wahr zu sein.
Vielleicht schlägt NVidia ja auch den AMD-Weg ein und ermöglicht die versprochene Mehrperformance durch eine entsprechende "Neudefinition" der Filterung. :D
LovesuckZ
2010-10-28, 16:34:14
Der offensichtliche Sarkasmus dient lediglich dazu zu zeigen wie wichtig Konkurrenz ueberhaupt ist. Mir haengt der zu hohe Stromverbrauch genauso zum Hals raus auf GF100 wie auch die AF Nachteile auf bis zu Evergreen GPUs. Anders beide hoeren auf die Klagen der Userbase und versuchen das bestmoegliche zumindest das meiste hinzubiegen.
Was bring Konkurrenz, wenn der eine cheaten muss, weil er nicht mithalten kann? Ich scheiß auf solche konkurrenz, genauso wie mich Sport nicht interessiert, indenen es dauernd Meldungen von Dopingsündern gibt.
Und das AMD auf die USerbase hört: Entweder war das ironie, oder die hatte sich tatsächlich noch schlechtere Bildqualität gewünscht...
Ein erheblicher Schlag in den Magen NVIDIA's wird es wohl eher geben wenn die Verfuegbarkeit von GF110 zum erbrechen niedrig sein wird und es erst ab Februar richtig loslegen kann. Frisch aus Taiwan mit einem Blumenstrauss an alle fanatische Folger.
Die Karten scheinen jetzt schon in Testcenters zu sein. Wenn die Bilder keine Fakes sind, dass ist das hier schon Produktionssilizium. Ein Launch im Februar? Dann hätte man keine Karten nach draußen gegeben.
20% mehr Leistung bei 20% weniger Stromverbrauch so aus dem Ärmel zu schütteln klingt fast zu gut um wahr zu sein.
Nimmt man GF104 als Maßstab, dann ist das zu erwarten, da GF100 mehr als doppelt soviel Strom benötigt, aber im Durchschnitt wohl nur 50% schneller wäre.
boxleitnerb
2010-10-28, 16:37:25
Man kann auch mit 1000 Karten weltweit launchen ;)
Hoffe nicht, dass es so kommt, aber dass es passieren kann, haben wir ja bei Cypress gesehen.
AnarchX
2010-10-28, 16:46:52
Noch eine Nennung durch Nvidia:
NVIDIA_DEV.1080.01 = "NVIDIA GeForce GTX 580"
http://www.xtremesystems.org/forums/showpost.php?p=4602884&postcount=176
Da ist noch mehr:
NVIDIA_DEV.1080.01 = "NVIDIA GeForce GTX 580"
NVIDIA_DEV.1081.01 = "NVIDIA D13U"
NVIDIA_DEV.1082.01 = "NVIDIA D13U "
NVIDIA_DEV.1083.01 = "NVIDIA D13U "
Da kann man wohl einen simplen GF100-A4 ausschließen, der die gleiche Device-ID wie die bisherigen GF100-Karten hätte.
Kalmar
2010-10-28, 17:07:43
Ailuros was du sagst geht son bissen in die richtung was mir spontan in den kopf geschossen ist eben bei lesen hier
[auch wenn mich nen rudel grünlinge gleich zerfleischen wird]
irgendwie kennen ich das doch, ati bringt wohl was nicht ganz so schlechtes in kürze raus und schon werden bessere benchmarkwerte "geleakt" als die der von ati .. ich wette es werden noch wesentlich bessere "fakten" geliefert werden wie toll das produkt ist (anlehnung an den fermi) daher schenk ich diesen nicht wirklich viel glauben
zum topic wenn die werte stimmen wäre das natürlich auch nen schlag gegen den cayman, was interessant wäre nen tessla wert, wenn der vom amd-leak stimmt könnte die situation sich ja umkehren und ati besser sein dort sein als nv .. mal schaun was dann mit den fans los ist ...
Dural
2010-10-28, 17:41:25
ob die Benchmarks echt sind weis ich nicht, aber sind ja jetzt auch nichts Aussergewöhnliches von dem her...
aber wie so NV um als in der Welt ein Paperlaunch tätigen sollte ist mir schleierhaft, da die 500 Serie so wie es scheint nur kleine Verbesserungen gegenüber 400 hat, zum teil vieleicht auch nur Umbenennungen...
um so was zu "entwickeln" braucht man kein Jahr :rolleyes: und an TSMC dürfte es mittlerweilen auch nicht mehr scheitern, hoffe ich jetzt jedenfalls mal...
langer reden kurzer sinn: wir werden die karten ziemlich sicher bald sehen ;)
Gipsel
2010-10-28, 17:49:17
Da kann man wohl einen simplen GF100-A4 ausschließen, der die gleiche Device-ID wie die bisherigen GF100-Karten hätte.
Wesentliche Stromverbrauchsänderungen kann man wohl nur durch ein Baselayer-Respin hinbekommen. Es ist also mindestens B1 ;)
LovesuckZ
2010-10-28, 17:51:48
Es wird sowieso kein GF100 Chip sein. Denn nVidia kann es sich nicht erlauben, das die neuen Karten mit den GF104 in Bezug auf 2D und Video-Features nicht aufschließen.
AnarchX
2010-10-28, 17:57:04
Wesentliche Stromverbrauchsänderungen kann man wohl nur durch ein Baselayer-Respin hinbekommen. Es ist also mindestens B1 ;)
GT200 A2 und B3 hatten alle eine "DEV_05"-ID.
GF100-A3 "DEV_06C". "GF110" wohl nun "DEV_108".
Es wird sowieso kein GF100 Chip sein. Denn nVidia kann es sich nicht erlauben, das die neuen Karten mit den GF104 in Bezug auf 2D und Video-Features nicht aufschließen.
GT200 hatte auch keinen VP3, obwohl der schon im G98 verbaut wurde.
LovesuckZ
2010-10-28, 18:02:04
GT200 hatte auch keinen VP3, obwohl der schon im G98 verbaut wurde.
G92 verfügte über die selben Fähigkeiten wie die kleinen g8x Chips. GT200 unterscheidete sich auch nicht vom G92. War der g98 überhaupt vor dem GT200 auf dem Markt? Soweit ich weiß, war mit dem g96 Schluss gewesen.
Dazu kommt, dass nVidia 3D Stereo hypt. Sie können es sich also nicht erlauben, dass das neue High-End nicht die selben Eigenschaften besitzt wie das alte Low-End. HDMI 1.4a, ein unabhängiger Spannungscontroller für den Speicher und die verbesserten Audiofähigkeiten müssen mit an Board sein. Und wäre es nur ein einfacher Respin, wäre man schon längst auf dem Markt und wartet nicht 7 Monate.
fondness
2010-10-28, 18:07:02
Man kann auch mit 1000 Karten weltweit launchen ;)
Hoffe nicht, dass es so kommt, aber dass es passieren kann, haben wir ja bei Cypress gesehen.
Selbst bei Cypress waren es bedeutend mehr.
Ein erheblicher Schlag in den Magen NVIDIA's wird es wohl eher geben wenn die Verfuegbarkeit von GF110 zum erbrechen niedrig sein wird und es erst ab Februar richtig loslegen kann. Frisch aus Taiwan mit einem Blumenstrauss an alle fanatische Folger.
Immerhin wäre man dann nur nur gut ein Quartal hinter AMD und nicht mehr zwei.
Die Karten scheinen jetzt schon in Testcenters zu sein. Wenn die Bilder keine Fakes sind, dass ist das hier schon Produktionssilizium. Ein Launch im Februar? Dann hätte man keine Karten nach draußen gegeben.
Das nennt man Kalkül, Cayman kommt in Kürze.
AffenJack
2010-10-28, 18:19:55
Ein erheblicher Schlag in den Magen NVIDIA's wird es wohl eher geben wenn die Verfuegbarkeit von GF110 zum erbrechen niedrig sein wird und es erst ab Februar richtig loslegen kann. Frisch aus Taiwan mit einem Blumenstrauss an alle fanatische Folger.
Also A1 wird gelauncht, da aber die yield kacke ist oder was auch immer gibts erst im Februar mit A2 gute mengen?
So würd ich das ja interpretieren;)
A1 wird wieder nicht voll funktionsfähig sein.
Botcruscher
2010-10-28, 19:13:10
Das nennt man Kalkül, Cayman kommt in Kürze.
Das in Angesicht von Cayman jetzt der Marketing-BS wieder fahrt auf nimmt überrascht ja nicht. In nächster Zeit wird es da die tollsten Leaks, Bilder und Zahlen geben. Stück für Stück.
http://i41.tinypic.com/svlvtz.jpg
Immerhin wird es bestimmt wieder lustig.:freak: Edit: Aus einem Labor kommt nichts an Infos raus, außer der Hersteller will es.
nagus
2010-10-28, 19:17:17
850mhz wäre ne nummer! Das wären ~20% mehr takt.
feuchte nvidiots träume sind das. sorry. aber 850Mhz? NEVER EVER. schon gar nicht, wenn sie angeblich den stromverbrauch um 20% gesenkt haben.
Fetza
2010-10-28, 19:24:36
irgendwie kennen ich das doch, ati bringt wohl was nicht ganz so schlechtes in kürze raus und schon werden bessere benchmarkwerte "geleakt" als die der von ati .. ich wette es werden noch wesentlich bessere "fakten" geliefert werden wie toll das produkt ist (anlehnung an den fermi) daher schenk ich diesen nicht wirklich viel glauben
Stimmt schon, das wird hauptsächlich marketing sein, was hier gerade vorsätzlich "geleaked" wird. Wenn ailiuros flüsterwanzen aber recht behalten, kommt der chip erst spät, daher will nvidia vielleicht jetzt schon mal mit der leistung protzen, um potentielle käufer hinzuhalten.
Ailuros
2010-10-28, 22:47:19
Was bring Konkurrenz, wenn der eine cheaten muss, weil er nicht mithalten kann? Ich scheiß auf solche konkurrenz, genauso wie mich Sport nicht interessiert, indenen es dauernd Meldungen von Dopingsündern gibt.
NVIDIA war und ist ja stets die Mutter aller Unschuld oder?
Und das AMD auf die USerbase hört: Entweder war das ironie, oder die hatte sich tatsächlich noch schlechtere Bildqualität gewünscht...
Ueberhaupt keine Ironie. Tragische Ironie waere wenn Du den Anstand haettest AMD ueberhaupt etwas positives anzuerkennen.
Die Karten scheinen jetzt schon in Testcenters zu sein. Wenn die Bilder keine Fakes sind, dass ist das hier schon Produktionssilizium. Ein Launch im Februar? Dann hätte man keine Karten nach draußen gegeben.
Nach dem "this is fermi" stunt und endlosen paper launches fuer GF100 sollte ich genau welches Vertrauen in NV diesbezueglich legen wenn aus Taiwan graue Wolken drohen?
Ich bin zwar auch kein Sportsfan, aber falls das obrige leider stimmen sollte schick ich Dir trotzem einen Blumenkorb zum Trost :P
deekey777
2010-10-28, 22:55:59
Wenn dem so waere wuerde in dem Fall 64TMUs@1544 im Vergleich zu 128TMUs@772MHz mehr als 2x Mal so viel die area verschlingen :P
.
Vielleicht habe ich von neliz zu sehr anstecken lassen, aber warum kein Mega-Respin des GF100? Klar, 1,5 GHz sind etwas übertrieben, aber 775 MHz für 64 GF100-TMUs wären mehr als nett.
Ein Respin müsste weniger kosten als gleich ein neuer Chip. Vielleicht irgendwas in Richtung eines RV790 (bei dem wußte das gemeine Volk auch nicht, was sich dahinter versteckt).
AnarchX
2010-10-28, 23:14:22
Nur soll GF110 kleiner als GF100 sein und nicht größer wie es RV790 war, um mehr Takt über den Decap-Ring zu erreichen.
Oder war der 430-450mm² Chip bei TSMC vielleicht Cayman? :D
deekey777
2010-10-28, 23:26:26
Irgendjemand meinte doch, dass Cayman AMDs größter Chip sein wird (größer als R600). Und der R600 war schon 420 mm² groß.
Vielleicht irgendwas in Richtung eines RV790 (bei dem wußte das gemeine Volk auch nicht, was sich dahinter versteckt).
RV790 war doch exakt RV770 mit einem breiteren Anti-Kapazität-Rahmen um den Chip :freak:
deekey777
2010-10-28, 23:35:46
RV790 war doch exakt RV770 mit einem breiteren Anti-Kapazität-Rahmen um den Chip :freak:
Und war etwas höher getaktet, oder?
Kalmar
2010-10-28, 23:56:23
Nach dem "this is fermi" stunt und endlosen paper launches fuer GF100 sollte ich genau welches Vertrauen in NV diesbezueglich legen wenn aus Taiwan graue Wolken drohen?
Ich bin zwar auch kein Sportsfan, aber falls das obrige leider stimmen sollte schick ich Dir trotzem einen Blumenkorb zum Trost :P
ich glaub wenn es [wieder] so ein ewig langer voller Versprechungen und Verheißungen Papierstart wird,kostet auf Dauer mehr Sympathie als nen ggf. etwas langsameres Produkt.
kann mir kaum vorstellen das nv aufeinmal alles richtig gut hinbekommt, denke Verbesserungen werden drin sein ..
wenn die werte echt sind ist es schon mal nen schönes Ding, schneller als AMD ihre leaks .. aber des kleine Stück schneller macht mich auch wieder skeptisch nun ja, heißt wohl warten wir es ab ..
Mancko
2010-10-29, 01:10:49
Ein erheblicher Schlag in den Magen NVIDIA's wird es wohl eher geben wenn die Verfuegbarkeit von GF110 zum erbrechen niedrig sein wird und es erst ab Februar richtig loslegen kann. Frisch aus Taiwan mit einem Blumenstrauss an alle fanatische Folger.
Hier unterschätzt Du aber m.E. Nvidia. Die machen sicherlich hardwaretechnisch nicht immer alles richtig aber die sind sehr gut dahin die Konkurenz abseits des reinen Hardwarevergleichs zu behindern. Und AMD's Cypress Launch vor 1 Jahr war ja nun auch kein Ruhmesblatt was Verfügbarkeit angeht.
Die Sache ist doch die. Wenn Nvidia Daten herausgibt, und die sehen gut aus, werden viele Enthusiasten warten. Wenn AMD das umgedreht macht interessiert das kein Schwein.
Das Gehört halt mit zum Business dazu. Ich denke aber, dass die früher verfügbar sein werden als Februar. Das erinnert mich stark an die NV30/35 Geschichte. Da kam der eine auch extrem spät und war performance technisch deutlich unterlegen und laut und der andere kam kurz darauf hinterher und war deutlich besser, wenngleich es nicht ganz gereicht hat.
So einen Rückstand hatte Nvidia diesmal aber nicht. Die 480 war zwar spät drann aber klar besser als die 5870, was sich bei neueren Spielen sogar noch deutlicher abzeichnet. Insofern ist die Ausgangslage diesmal deutlich besser als zu NV30 Zeiten, zumal AMD jetzt bei DX11 unter Zugzwang ist. Bei der Cypress Reihe hat man die schwache DX11 Leistung aus Sicht der Reviewer und Käufer in Kauf genommen, weil es keinen Vergleich / keine Konkurenz gab. Die Zeiten sind jetzt aber vorbei. Insofern wird der Launch der GF1xx Reihe schon eine ordentliche Delle in die Verkäufe gedrückt haben und das Pendel schwenkt wieder zurück. Deswegen ist Nvidia's Ausgangslage gar nicht so schlecht. Barts ist kein großes Problem und Cayman wird man noch sehen. Das ihre DIEs größer sind ist zwar ein Nachteil, hat aber Nvidia in der Vergangenheit auch nicht daran gehindert mehr Geld als AMD zu verdienen. Ist ja auch kein Wunder. Die verkaufen Karten an professionelle Kunden zu Preisen von 1500 bis 4000 Euro. In Zukunft wahrscheinlich sogar noch mehr. In dem Geschäft findet AMD so gut wie gar nicht statt.
Nightspider
2010-10-29, 04:01:09
Ich brauch keine 20% Stromersparnis...ich will lieber insgesamt 40% mehr Leistung. :D
LovesuckZ
2010-10-29, 04:47:04
Neue Bilder des Kühlers und des Kühlblockes: http://www.xtremesystems.org/forums/showpost.php?p=4603628&postcount=200
=Floi=
2010-10-29, 05:08:35
AMD's Marktprozentual im high end wird dann um X Prozent purzeln, sie verkaufen nachdem die Grafiksparte an Apple und wir koennen alle zufrieden nach Hause gehen ja? :P
Ein erheblicher Schlag in den Magen NVIDIA's wird es wohl eher geben wenn die Verfuegbarkeit von GF110 zum erbrechen niedrig sein wird und es erst ab Februar richtig loslegen kann. Frisch aus Taiwan mit einem Blumenstrauss an alle fanatische Folger.
wenn apple md kaufen würde, dann würde sie eindeutig ihre produkte verschlechtern. ;) Die kombination auch intel cpu und nv gpu war bisher ganz gut und rechtfertigte auch eher den preis wie eine kompletzte platform von amd.
was soll man denn als "fanatischer folger" ;) denn noch anderes machen? Ich habe zB bis zum erbrechen gewartet und möchte auch mal wieder eine neue grafikkarte kaufen. (welche keine extremen nachteile mit sich bringt und ihr geld auch wert ist)
Eine ati gpu ist einfach keine option für mich und nv hat teilweise auch keine wirklich perfekten produkte mehr. Den rotz mit den kaputten chips können sie auch behalten. ich will perfekte volle chips.
Fetza
2010-10-29, 05:20:57
Eine ati gpu ist einfach keine option für mich und nv hat teilweise auch keine wirklich perfekten produkte mehr. Den rotz mit den kaputten chips können sie auch behalten. ich will perfekte volle chips.
Ist schon interessant, warum wir alle volle chips haben wollen. Ich finde beschnittene produkte irgendwie auch voll "unerotisch", sonst hätte ich mir schon längst einen gf104 besorgt. :D
Wo die asia-jungs schonmal den lüfter und so begutachten können, könnten sie da nicht auch was zu den shadereinheiten und die tmu-zahl verraten?
=Floi=
2010-10-29, 05:45:29
Es macht je nach grafikkarte schon extrem viel aus. das beste beispiel ist die 465er. Die 470er hat noch leichte vorteile, aber im angesicht des vollen GF100 und dem aufwand ist auch die karte schon zu stark beschnitten. Ich möchte auch übertakten und das ist mit einem vollen chip einfach am sinnvollsten und nur volle chips enfalten ihre leistung oft am besten. Gerade ROPs oder speichercontroller mit dem videospeicher sind nicht so leicht zu ersetzen. Das ganze summiert sich dann auch noch und macht unterm strich teilweise richtig große unterschiede.
Bei der 5850 war es ja auch extrem. Fast 30% weniger shaderleistung sind schon eine nummer. Bei dieser karte machte es nicht nur nicht so stark bemerkbar.
Neue Bilder des Kühlers und des Kühlblockes: http://www.xtremesystems.org/forums/showpost.php?p=4603628&postcount=200
5 Heatpipes bei der Referenzlösung - super 300W FTW.
Fetza
2010-10-29, 07:09:23
5 Heatpipes bei der Referenzlösung - super 300W FTW.
Vielleicht will nv nur endlich mal dafür sorgen, das die karten leise sind.
SamLombardo
2010-10-29, 07:14:21
Ich brauch keine 20% Stromersparnis...ich will lieber insgesamt 40% mehr Leistung. :D
Dito! Genau so ist es. Immerhin reden wie hier von einer Highend Karte.
Hugo78
2010-10-29, 07:35:35
5 Heatpipes bei der Referenzlösung - super 300W FTW.
Ich hab lieber einen Kühler der 300W packen könnte, auf einer 200W GPU, als andersrum. :freak:
Reaping_Ant
2010-10-29, 08:27:40
5 Heatpipes bei der Referenzlösung - super 300W FTW.
Naja, der Referenzkühler der HD5870 (http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/4.html) hat auch schon 4 Heatpipes und die Karte hat ja nun wirklich keine exorbitante TDP.
Wie dem auch sei, wirklich leise wird die Referenzkühlung wohl auch diesmal nicht sein, das ist bei ~ 250 W TDP und Dual-Slot DHE Design einfach nicht drin.
Dural
2010-10-29, 08:59:51
Das mit der 5870 wolte ich auch eben erwähnen... es liegt gerade eine neben mir... :)
feuchte nvidiots träume sind das. sorry. aber 850Mhz? NEVER EVER. schon gar nicht, wenn sie angeblich den stromverbrauch um 20% gesenkt haben.
es gibt bereits heute GTX480 mit bis zu 800MHz, bei der GTX580 kann ich mir da schon OC Versionen mit 850MHz vorstellen... der default takt dürfte aber schon max. 800MHz sein.
Fetza
2010-10-29, 09:26:57
es gibt bereits heute GTX480 mit bis zu 800MHz, bei der GTX580 kann ich mir da schon OC Versionen mit 850MHz vorstellen... der default takt dürfte aber schon max. 800MHz sein.
Wasserkühlung zählt nicht. ;)
AnarchX
2010-10-29, 09:29:34
Wenn der Verbrauch wirklich unter der GTX 480 liegt, sollten bei einer luftgekühlten Werks-OC-Version durchaus 850MHz möglich sein. Mit Wasserkühler vielleicht gar 900MHz.
Napoleon hat übrigens den Speichertakt nochmal revidiert:
频率:772/1002
http://www.chiphell.com/thread-133004-1-1.html
Mit 192GB/s läge man wohl aber nicht mehr weit vor einem Cayman XT mit >180GB/s. Ausserdem wäre es nur 8% gegenüber der GTX 480. :|
Dural
2010-10-29, 10:16:24
mit Wakü gehen schon heute 900MHz ;)
tja das bekannte speicher "problem"
am ende ist es dann wirklich nur ein A4 ;D
der GF100 ausverkauf hat ja schon begonnen, dürfte nicht mehr lange dauern :)
AnarchX
2010-10-29, 10:20:42
Vielleicht hat man sich nun doch für das eigentlich verbaute 512-Bit SI entschieden. ;D
Wenn die X12.700 stimmen, dürfte eine Bandbreite von 192GB/s vielleicht doch ausreichen.
Dural
2010-10-29, 10:53:19
wie meinst du das jetzt? :confused:
AnarchX
2010-10-29, 10:55:01
Das mit den 512-Bit war nur ein Scherz. Die 192GB/s (384-Bit @ 4GBps) scheinen wohl für die GPU-Leistung auszureichen, wenn man damit fast 30% schneller als die GTX 480 in Vantage Extreme ist.
Die PoV GTX 480 Beast ist im Bezug darauf vielleicht interessant:
http://www.fudzilla.com/reviews/item/20321-point-of-view-/-tgt-gtx-480-beast-is-the-fastest-fermi
+ 3% Speichertakt
+ 15% GPU-Takt
+ ~12% Spiele-Leistung
Die GTX 580 wird wohl so liegen:
+ 8% Speichertakt
+ 10% GPU-Takt
+ 6% ALUs/Tessellator/Geo-Leistung (TMUs +113% ?)
Da sind die +15-20% in Spielen von Napoleon wohl durchaus realistisch.
Was da in Vantage Extreme passiert ist, wäre natürlich ein Fragezeichen: Werte einer 900/1100MHz Version? Die TMUs schlagen hier voll durch?
Mancko
2010-10-29, 11:09:21
Ich brauch keine 20% Stromersparnis...ich will lieber insgesamt 40% mehr Leistung. :D
Endlich mal einer dem es wie mir geht :) Für mich zählen FPS, BildqualitätFeatures, Softwareunterstützung inklusive Preis. Stromverbrauch wird für ich erst interessant, wenn dort überall Gleichstand herrscht, zumal der Idle Stromverbrauch der wichtigere Teil ist und dort sind beide Hersteller schon sehr gut unterwegs. Lastverbrauch interessiert mich eigentlich nicht die Bohne, da ich nicht mehr als 3 Stunden am Tag zocke. Ich glaube kaum einer kauft sich ein High End Produkt wegen dem Stromverbrauch. Da spielen die zuerst genannten Faktoren eine viel größere Rolle.
Kalmar
2010-10-29, 11:11:50
hab mal etwas gebuddelt wegen dem kühlerbild :
ne 470 : www.abload.de/img/27072010199n1jf.png
quelle : http://www.computerbase.de/forum/showthread.php?t=771501
gtx 480 : http://images.bit-tech.net/content_images/2010/03/nvidia-geforce-gtx-480-1-5gb-review/gtx480-4l.jpg
quelle : http://www.bit-tech.net/hardware/2010/03/27/nvidia-geforce-gtx-480-1-5gb-review/2
sieht für mich wie ne abwandlung vom 470er kühler aus, denke der lärm sollte dann auch in dem bereich liegen
AnarchX
2010-10-29, 11:13:17
Endlich mal einer dem es wie mir geht :) Für mich zählen FPS, BildqualitätFeatures, Softwareunterstützung inklusive Preis. Stromverbrauch wird für ich erst interessant, wenn dort überall Gleichstand herrscht, zumal der Idle Stromverbrauch der wichtigere Teil ist und dort sind beide Hersteller schon sehr gut unterwegs. Lastverbrauch interessiert mich eigentlich nicht die Bohne, da ich nicht mehr als 3 Stunden am Tag zocke. Ich glaube kaum einer kauft sich ein High End Produkt wegen dem Stromverbrauch. Da spielen die zuerst genannten Faktoren eine viel größere Rolle.
Die GTX 480 war schon in einem Bereich der mit Luftkühlung kaum noch erträglich kühlbar war, dementsprechend versucht man bei der GTX 580 wohl wieder eine etwas leisere Karte zu bauen.
Natürlich kann es auch sein, dass wenn man genug über Cayman weiß, die Taktraten noch einmal gesteigert werden müssen.
hab mal etwas gebuddelt wegen dem kühlerbild :
ne 470 : www.abload.de/img/27072010199n1jf.png
quelle : http://www.computerbase.de/forum/showthread.php?t=771501
gtx 480 : http://images.bit-tech.net/content_images/2010/03/nvidia-geforce-gtx-480-1-5gb-review/gtx480-4l.jpg
quelle : http://www.bit-tech.net/hardware/2010/03/27/nvidia-geforce-gtx-480-1-5gb-review/2
sieht für mich wie ne abwandlung vom 470er kühler aus, denke der lärm sollte dann auch in dem bereich liegen
Wenn die 80% Verbrauch stimmen liegt die GTX 580 nahe der GTX 470, bei einem doch etwas größeren Kühler.
Dural
2010-10-29, 11:13:19
Vantage Extreme könnten 128TMUs / die steigerung in der tat was bringen!
aber ganz ehrlich, ich glaube aber nicht an die 128TMUs! Das muss ich zuerst "schwarz auf weiss" sehen :rolleyes:
MorPheuZ
2010-10-29, 11:21:32
Wobei ich die Kühllösung der 480er wesentlich besser und "angenehmer" finde als die billig Lösung der 470er. Was wohl den mächtigen Kupferblock ausmacht.
AnarchX
2010-10-29, 11:23:04
Vantage Extreme könnten 128TMUs / die steigerung in der tat was bringen!
aber ganz ehrlich, ich glaube aber nicht an die 128TMUs! Das muss ich zuerst "schwarz auf weiss" sehen :rolleyes:
Wobei man bei GTX 460 768MiB gegenüber der GTX 465 keine deutlich Steigerung sieht, trotz ~42% mehr INT8-Füllrate bzw. ~180% mehr FP16-Füllrate.
Ebenso bei der 1G-Version die dann auch noch bei Bandbreite und ROP-Füllrate überlegen ist.
Dural
2010-10-29, 11:27:13
also ich sehe eine steigerung von 465 zur 460 in Vantage Extreme, da ist die 460 fast 10% schneller als die 465!
eine 465 hab ich aber leider nicht da, nur 450/460/470 kann es also nicht richtig beurteilen
Ailuros
2010-10-29, 11:28:12
Hier unterschätzt Du aber m.E. Nvidia.
Ich unterschaetze gar nichts. Nach NV selber heisst es ein Launch noch bis zu vor Weihnachten. Eine dritte unabhaengige Quelle (von jeglichen IHVs) die momentan in Taiwan ist sagte mir dass anstaendige Quantitaeten erst im Februar moeglich sein werden.
Deshalb ist Dein eher langer Post total ueberfluessig. Ich trage lediglich das weiter was ich hoere. Ob es stimmt oder nicht werden wir mit der Zeit schon herausfinden.
Dural
2010-10-29, 11:29:35
soll das jetzt bedeuten das die Herstellung / der 40nm Prozess immer noch probleme macht?!?
AnarchX
2010-10-29, 11:33:14
Die 40nm Kapazitäten werden wohl nicht so groß sein.
Immerhin scheint AMD ja nun auch eine >400mm² GPU zu fertigen und dazu hat man nun auch noch Ontario in der Fertigung bei TSMC.
Ailuros
2010-10-29, 11:39:28
wenn apple md kaufen würde, dann würde sie eindeutig ihre produkte verschlechtern. ;)
Ich erwartete natuerlich nicht dass alle den Sarkasmus (welcher des oefteren mit verstaendlichen Uebertreibungen kommt) auf Anhieb verstehen obwohl ich es sogar im Post erwaehnte.
Worauf die obrige Schlussfolgerung basiert will ich erst gar nicht nachfragen, erstens weil es OT ist und zweitens weil mir jegliche moegliche Antwort Angst macht.
was soll man denn als "fanatischer folger" ;) denn noch anderes machen?
Sich auf seine beliebten Produkte und dessen Vorteile konzentrieren anstatt konstant zu versuchen konkurrierende Produkte in das schlechst moeglichste Licht zu stellen vielleicht?
Ich habe zB bis zum erbrechen gewartet und möchte auch mal wieder eine neue grafikkarte kaufen. (welche keine extremen nachteile mit sich bringt und ihr geld auch wert ist)
Da hast Du aber offensichtlich nichts mit dem obrigen zu tun.
Eine ati gpu ist einfach keine option für mich und nv hat teilweise auch keine wirklich perfekten produkte mehr. Den rotz mit den kaputten chips können sie auch behalten. ich will perfekte volle chips.
Ich kann zu jedermans Bevorzugungen nichts sagen, obwohl ich eigentlich stets - egal was ich mir kaufe - gegen brand-royalty bin.
soll das jetzt bedeuten das die Herstellung / der 40nm Prozess immer noch probleme macht?!?
Nach AnarchX's Post hier etwas Lektuere die vielleicht einleuchten koennte: http://www.brightsideofnews.com/news/2010/10/28/25-pflops-china-deploys-worlds-most-powerful-supercomputer.aspx
AnarchX,
AMD hat deutlich weniger Kapazitaeten als NVIDIA unter 40G.
DrumDub
2010-10-29, 11:51:38
Nach AnarchX's Post hier etwas Lektuere die vielleicht einleuchten koennte: http://www.brightsideofnews.com/news/2010/10/28/25-pflops-china-deploys-worlds-most-powerful-supercomputer.aspx
der absatz ist wohl gemeint, oder?
If you're an American and worried about this shift, you'll probably be happy when you hear that Oak Ridge is currently setting up a system based on more than 15,000 Tesla cards, targeting the 10 PFLOPS. In order to break that barrier by using Tesla M2050 cards, Oak Ridge needs at least 28,672 cards worth 71.68 million USD at list price. http://www.brightsideofnews.com/news/2010/10/28/25-pflops-china-deploys-worlds-most-powerful-supercomputer.aspx
AnarchX
2010-10-29, 12:00:52
http://www.chiphell.com/forum.php?mod=viewthread&tid=133004&extra=page%2F%3D1&page=4
GTX 580 Vantage?
http://www.chiphell.com/data/attachment/forum/201010/29/160952m4fqf901of9hzuxd.jpghttp://www.chiphell.com/data/attachment/forum/201010/29/160945am71stsc7fs4srof.jpg
Nach 128 TMUs bzw. TAs sieht das nicht aus.
mehr:
http://www.chiphell.com/data/attachment/forum/201010/29/161023ejm0mm29cxl04j2o.pnghttp://www.chiphell.com/data/attachment/forum/201010/29/1610223x4mmfussqm4d3ui.pnghttp://www.chiphell.com/data/attachment/forum/201010/29/1610223oev5p3833x76p37.png
harzer_knaller
2010-10-29, 12:01:43
Was für 128 TMUs? Es sind 64 TMUs und sie laufen mit Shadertakt. X-DWenn dem so waere wuerde in dem Fall 64TMUs@1544 im Vergleich zu 128TMUs@772MHz mehr als 2x Mal so viel die area verschlingen :P [...]Könntest du das mir Laien bitte mal kurz erklären? Werden die TMUs komplizierter im Aufbau und deswegen größer oder muss der Abstand zwischen den Leitungen größer werden um Leckströmen vorzubeugen und deswegen werden die größer? Oder ein anderer Grund?
crux2005
2010-10-29, 12:08:06
GTX 580 Vantage?
http://img.pconline.com.cn/images/upload/upc/tx/itbbs/1010/29/c1/5684540_1288345870977_1024x1024.jpg
Nach 128 TMUs bzw. TAs sieht das nicht aus.
mehr:
http://www.chiphell.com/data/attachment/forum/201010/29/160952m4fqf901of9hzuxd.jpg
Beide Werte aus Vantage sind höher als mit einer GTX 480@925/1850/1950 MHz
ist schon mal beachtlich...
mapel110
2010-10-29, 12:16:25
Und bei Unigine hat sich dagegen gar nichts getan, wenn man es mit den Werten hier aus dem Forum vergleicht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8354869&postcount=83
Kalmar
2010-10-29, 12:22:07
interessant wenn man das so vergleicht liegen alle werte vor der amd karte was geleakt wurde ...
kann ja auch von amd nen schachzug sein ein paar werte posten mal gucken was von der konkurrenz kommt und dann anpassen .. nv präsentiert nach amd oder ?
wenn der verbrauch und größe im vergleich zur 480 gesunken ist die leistung dennoch so steigt ist das nen guter job von nv ..
Dural
2010-10-29, 12:38:47
Beide Werte aus Vantage sind höher als mit einer GTX 480@925/1850/1950 MHz
ist schon mal beachtlich...
sicher? quelle?
in den "GTX580" werten ist übrigens PhysX an
crux2005
2010-10-29, 12:43:45
Ja, sicher. Die Quelle bin ich :biggrin: und PhysX hatte ich auch an.
z.B:http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8285416&postcount=757
AnarchX
2010-10-29, 12:50:02
Bis auf die Color Fillrate (Feature-Test 2) sind auch alle deine Werte höher. Insofern sollte es auch keine OC-Version sein mit >850MHz.
Im Game Test 2 ist die GTX 580 fast 5% schneller:
Graphics Test 2: New Calico
* The following features are specific to this scene:
* Almost entirely consists of moving objects
* No skinned objects
* Variance shadow mapping shadows
* Lots of instanced objects
* Local and global ray-tracing effects (Parallax Occlusion Mapping, True Impostors and volumetric fog)
http://www.futuremark.com/products/3dmarkvantage/tests/
Dural
2010-10-29, 12:53:21
hast du noch ein extreme wert?
crux2005
2010-10-29, 13:04:52
Bis auf die Color Fillrate (Feature-Test 2) sind auch alle deine Werte höher. Insofern sollte es auch keine OC-Version sein mit >850MHz.
Nach dem Perlin Noise Test sollte es eine GTX 580 mit 512 SPs und ~1550MHz shader-core => 775 MHz core sein.
Komisch finde ich aber den 2. GPU Test, wo sie mal richtig abgeht. Einen Grund dafür sehe ich aber nicht. Neuer Treiber vielleicht?!
AnarchX
2010-10-29, 13:10:28
Vielleicht darf ja GF110 einfach mehr von der Geometrie-Leistung nutzen, als GF100, der wegen der Quadros gedrosselt wird.
davidzo
2010-10-29, 13:25:10
Neue Bilder des Kühlers und des Kühlblockes: http://www.xtremesystems.org/forums/showpost.php?p=4603628&postcount=200
na das sieht aber verdächtig nach gtx470 aus.
Immerhin liefert man wieder ordentliches handwerk ab - verlötete heatpipes und eine heatpipe direct touch kontaktfläche sind schon am oberen Ende des Kühlerbaus.
Die GTX480 hatte die heatpipes noch mittig in den Fins, ich bezweifle dass sie dort verlötet waren, sowas ist anhezu unmöglich an der stelle. Jetzt liegen sie wieder alle oben wie bei der gtx470, dann ist verlöten kein problem und das verbessert den kontakt ungemein. die wäörmeverteilung bei dem gtx480 kühler war aber wohl besser und die stummelfins auf der einen Seite hat man sich jetzt auch zugunsten eines einfacheren längeren kühlkörpers gespart.
Allerdings scheint man ein bisschen am drumherum gespart worden zu sein. die Aluplatte oben auf bleibt weg (die ehrlich gesagt auch wegelassen werden sollte um mehr platz für echte kühlfins zu machen). Stattdessn eine reine Plastikhaube und ein unspannender Alu Druckgussteil für den rest unten.
Business as ususal...
crux2005
2010-10-29, 13:31:30
hast du noch ein extreme wert?
ja, GTX 480 @ 925/1850/1950 MHz und 260.99 WHQL:
http://img831.imageshack.us/img831/3438/3dmextremegtx480oc.png
crux2005
2010-10-29, 13:55:16
Vielleicht darf ja GF110 einfach mehr von der Geometrie-Leistung nutzen, als GF100, der wegen der Quadros gedrosselt wird.
Mir fällt ein, vielleicht arbeiten die GF110 TMUs doch auf einer klein wenig höheren Frequenz, wie sie schon auf dem GF100 hätten arbeiten sollen :biggrin:
http://img52.imageshack.us/img52/3123/74016787.gif
http://www.nvidia.de/attach/3626515?type=support&primitive=0
18. Seite
AnarchX
2010-10-29, 14:01:39
Nein, Feature-Test 1 deutet eindeutig auf 64 TAs @ 772MHz. Wieviele TFs es nun sind, kann man hier noch nicht sehen.
Und diese Aussage von Nvidia bezieht sich darauf, dass die TMUs auf halbem Hot-Clock laufen, der höher als der Basis-Takt ist.
crux2005
2010-10-29, 14:10:48
das ist Wahr... Ich kann mir nur nicht vorstellen, das die höhere Geo Leistung so einen unterschied machen könnte im 2. GPU Test. Naja, abwarten und Tee trinken. :)
dildo4u
2010-10-29, 14:56:03
Die GTX 580 scheint ziemlich genau 2X460 Performance zu haben kann man sich schon mal paar SLI Test's angucken um ein Eindruck von der Performance zu bekommen.
GTX460SLI Vantage Extreme 13100
http://www.tomshardware.de/geforce-gtx-460-sli-geforce-gtx-480,testberichte-240605-3.html
Orbmu2k
2010-10-29, 15:15:16
Also einen GF100 - A4 kann ich nicht glauben bei den bisher bekannten Daten und Ergebnissen.
Clock*Cores:
- GTX580@512*772: +17%
- GTX480@480*925: +31%
Clock*TMU:
- GTX580@64*772: +26%
- GTX480@56*925: +32%
Trotzdem scheint die GTX580 im Vantage nochn Zacken schneller zu sein. Obwohl die theoretische TMU Leistung etwas geringer und die theoretische Shaderlpower sogar nur halb so viel ist wie die GTX480@925.
Speichertakt kann man denk ich vernachlässigen da dieser nur sehr marginal beim Fermi auf die Gesamtleistung skaliert.
Irgendwo muss die GTX580 noch Schaderpower herzaubern.
AnarchX
2010-10-29, 15:21:01
Was rechnest du?
TMU/Shader-Leistung:
GTX 580 (512/64 @772) - 117%
GTX 480 OC (480/60 @925) - 132%
GTX 480 (480/60 @700) - 100%
Obwohl die theoretische TMU Leistung etwas geringer und die theoretische Shaderlpower sogar nur halb so viel ist wie die GTX480@925.
Feature-Test 6 verhält sich fast linear zur Shader-Leistung, also etwa ~12% mehr bei der OC GTX 480, ebenso Feature-Test 1 (Texelfüllrate).
Vielleicht hat Nvidia den mysteriösen Basis-Takt angehoben auf dem ROPs und L2-Cache laufen sollen? ;D
Orbmu2k
2010-10-29, 15:28:31
Sorry war irgendwie fest der Überzeugung die 480 hätte nur 56 TMUs ... du hast natürlich Recht mit 60.
Korrigiert!
Clock*Cores:
- GTX580@512*772: +17%
- GTX480@480*925: +31%
Clock*TMU:
- GTX580@64*772: +17%
- GTX480@60*925: +32%
Das macht die Ergebnisse umso erstaunlicher!
crux2005
2010-10-29, 15:28:39
Vielleicht hat Nvidia den mysteriösen Basis-Takt angehoben auf dem ROPs und L2-Cache laufen sollen? ;D
wäre das nicht genau das, was uns der 2. Feature Test zeigt? :biggrin:
oder es sind wirklich nur die Treiber, was die +30% in Vantage und nur +15-20% in Spielen IMHO am besten erklären würde
Orbmu2k
2010-10-29, 15:50:07
Oder der Vantage stammt von einer GTX580@~870Mhz.
Und die 15-20% Spiele Leistung von der GTX580@772Mhz.
AnarchX
2010-10-29, 15:50:59
Oder der Vantage stammt von einer GTX580@~870Mhz.
Wie schon gesagt, dazu würden wieder die Feature-Tests nicht passen oder man hat nach den Graphics Tests die Karte wieder heruntergetaktet, was etwas absurd wäre. ;)
Orbmu2k
2010-10-29, 16:19:17
Sie müssten dann wohl alle anderen Domains deutlich höher laufen lassen als die ShaderClock.
Da die anderen FeatureTests sich ja der 480@925 ganz gut annähern.
Die 925Mhz bei der 480 sind ja auch nicht grade üblich. Mein schafft mit ach und krach 800 bei ner vertretbaren Vcore von 1.075V. Daher kann man solche extremen Taktsteigerungen bei angeblicher Energieersparnis sowieso ins Reich der Fabeln verbannen.
Seltsam bleib auch dass kein Feature Test besser ausfällt als die 480@925 ausser Test 2 und dort nur sehr geringfügig, und dennoch grade Game Test 2 ganz ordentlich davon zieht.
Wiedemauchsei, wenn die Gerüchte sich bewahrheiten sollten wird meine 480 wohl den Besitzer wechseln. :-D
Vielleicht hat Nvidia den mysteriösen Basis-Takt angehoben auf dem ROPs und L2-Cache laufen sollen? ;DNur L2-Cache läuft bei GF470/480 schneller (5%). Ab 460 läuft auch die Crossbar-Domäne schneller (6%, bei GTS 450 wieder nur 5%.) Die Auswirkungen sind allerdings minimal.
Ailuros
2010-10-29, 16:24:16
der absatz ist wohl gemeint, oder?
http://www.brightsideofnews.com/news/2010/10/28/25-pflops-china-deploys-worlds-most-powerful-supercomputer.aspx
Yep. Knapp 29000 handausgesuchte chips sind alles andere als wenig.
Orbmu2k
2010-10-29, 16:24:31
Nur L2-Cache läuft bei GF470/480 schneller. Ab 460 läuft auch die Crossbar-Domäne schneller.
Gibts dazu ne Quelle? Also im BIOS kann man die höher getakteten Domains ja erkennen. Aber ich hab bisher keine Referenz zu den einzelenen Domains und deren Funktion gesehen.
Ailuros
2010-10-29, 16:33:50
Könntest du das mir Laien bitte mal kurz erklären? Werden die TMUs komplizierter im Aufbau und deswegen größer oder muss der Abstand zwischen den Leitungen größer werden um Leckströmen vorzubeugen und deswegen werden die größer? Oder ein anderer Grund?
In der Vergangenheit gab es das ewige Geruecht dass TMUs auf Fermi vielleicht auf hotclock oder bei >1GHz laufen werden. Hauptschuldiger war Arun und ich hab den armen Kerl genug mit dem albernen Witz an die Wand gedrueckt. Es hat ihm einfach jemand gesagt dass TMUs diesmal auf hoeherer Frequenz laufen werden und er war einfach zu ueberoptimistisch. Ich wagte mich dann irgendwann NV engineering direkt anzufragen und sie sagten dass sie bei jeder Architektur die unter Entwicklung liegt analysieren bei welchen Einheiten es Sinn macht (anders es zu einem sehenswertem Gewinn kommt) wenn man auf hot clocks treibt. Von G80 bis zu Fermi gab es verstaendlicherweise nur einen Gewinn bei ALUs. Und ja sie sagten schwarz auf weiss dass TMUs@hotclock ein ziemlicher Verlust gewesen waere da es mehr als 2x die area gekostet haette.
Einfaches Beispiel:
Angenommen eine TMU@700MHz kostet 2mm2 (rein erfundene Zahl). Wenn jetzt die die area bei TMU@1.4GHz hypothetisch 4.5mm2 kostet, dann haette wohl jeder IHV einen Vogel die zweite Option zu waehlen anstatt gleich von Anfang an doppelt so viel TMUs einzubauen.
Bei den ALUs kostet der hotclock zwar mehr die area, aber im Vergleich zu doppelt so vielen ALUs sind sie offensichtlich immer noch im Gewinn.
crux2005
2010-10-29, 16:44:28
Die 925Mhz bei der 480 sind ja auch nicht grade üblich. Mein schafft mit ach und krach 800 bei ner vertretbaren Vcore von 1.075V. Daher kann man solche extremen Taktsteigerungen bei angeblicher Energieersparnis sowieso ins Reich der Fabeln verbannen.
Mit einer Wasserkühlung und mehr Vcore (1,138V) lässt sich schon einiges machen. ;)
Wiedemauchsei, wenn die Gerüchte sich bewahrheiten sollten wird meine 480 wohl den Besitzer wechseln. :-D
So einen Gedanken hatte ich auch, aber der Preiss wird wohl nicht ohne sein. 500E Region nach dem Launch. Das einzig gute ist, das wahrscheinlich der GPU-Block von der GTX 480 auf die GTX 580 passen wird. :hoff:
AnarchX
2010-10-29, 16:50:34
500€ für eine 20% schnellere Karte? Mich würde überraschen, wenn es über 450€ bei entsprechender Verfügbarkeit wären. Immerhin gibt es mit Cayman XT wohl schlagkräftige Konkurrenz.
Also könnte hier die GTX 580 wohl ähnlich wie GTX 285 oder die 9800 GTX positioniert werden, zu ihren jeweiligen Vorgängern.
crux2005
2010-10-29, 17:00:52
Wenn die Aussage von Ail stimmt, und die GTX 580 erst ab Februar gut verfügbar wird, dann kann ich mir 480-500E nach dem Launch (Mitte November?) gut vorstellen. Klar, es wird auch vom SEP der HD 6970 abhängen. Dazu habe ich btw noch nichts gehört. Mal sehen. Lasse mich gerne positiv überraschen. :)
Orbmu2k
2010-10-29, 17:04:10
...und dann 1 Woche später wenn die AMD Karten kommen fällt der Preis um 100€ (siehe GTX 280)
:-D
Ailuros
2010-10-29, 17:05:59
Wenn die Aussage von Ail stimmt, und die GTX 580 erst ab Februar gut verfügbar wird, dann kann ich mir 480-500E nach dem Launch (Mitte November?) gut vorstellen. Klar, es wird auch vom ESP der HD 6970 abhängen. Mal sehen. Lasse mich gerne positiv überraschen. :)
Ich bin nicht der einzige der aehnliches gehoert hat, nur ich hab es direkt von der Herstellungsquelle diesmal.
The extent of retail availability is yet unknown, though rumours suggest very limited to no availability on release, much like the GeForce GTX 470/480 release.
http://vr-zone.com/articles/nvidia-geforce-gtx-580-specifications-leaked/10184.html
Ich glaube ich sollte uebrigens die 128TMU Theorie so langsam aufgeben und jemand die paar Herren die mich darueber versichterten einen Tritt in den Hintern zu verpassen :mad:
Nightspider
2010-10-29, 17:06:21
...und dann 1 Woche später wenn die AMD Karten kommen fällt der Preis um 100€ (siehe GTX 280)
:-D
Oder der Preis geht rauf. :biggrin:
AnarchX
2010-10-29, 17:15:05
Ich glaube ich sollte uebrigens die 128TMU Theorie so langsam aufgeben und jemand die paar Herren die mich darueber versichterten einen Tritt in den Hintern zu verpassen :mad:
Vielleicht wie schon anfangs gesagt "like 128 GF100 TMUs" (unter FP16).
Darlie
2010-10-29, 17:21:14
Wenn die Aussage von Ail stimmt, und die GTX 580 erst ab Februar gut verfügbar wird, dann kann ich mir 480-500E nach dem Launch (Mitte November?) gut vorstellen. Klar, es wird auch vom SEP der HD 6970 abhängen. Dazu habe ich btw noch nichts gehört. Mal sehen. Lasse mich gerne positiv überraschen. :)
Bei 480-500€ würde ich doch eher ein SLI GTX460 bevorzugen. Hoffenlich liegen die Preise eher ~400€ .
Bei 480-500€ würde ich doch eher ein SLI GTX460 bevorzugen.
Auch wenn SLi im Verglewich zu CF sehr gut ist, würde ich das trotzdem nie tun. Microruckler, Stromverbrauch, Lautstärke, Platz, ...
LovesuckZ
2010-10-29, 17:43:14
Die GF100 sollten auch rar sein beim Launch. Was war? Jeder konnte eine kaufen, niemand musste warten.
Diese Gerüchte kommen doch immer aus der selben Ecke. Komisch, dass diese Ecke nie was böses über AMD sagt. :freak:
Ailuros
2010-10-29, 17:49:37
Die GF100 sollten auch rar sein beim Launch. Was war? Jeder konnte eine kaufen, niemand musste warten.
Mit ueber einem Monat Verspaetung nachdem die Produktion angefangen hat. Und ja natuerlich konnte fast jeder eine kaufen da die Nachfrage wohl nicht gerade gigantisch war.
Diese Gerüchte kommen doch immer aus der selben Ecke. Komisch, dass diese Ecke nie was böses über AMD sagt. :freak:
Wir sollten eine Auktion laufen lassen um Dir einen Spiegel zu schenken.
dildo4u
2010-10-29, 17:52:12
Wo ist das Problem die Nachfrage für Karten ab 400€ können sie wohl locker decken wie beim GTX 480 Launch.
LovesuckZ
2010-10-29, 17:55:48
Mit ueber einem Monat Verspaetung nachdem die Produktion angefangen hat. Und ja natuerlich konnte fast jeder eine kaufen da die Nachfrage wohl nicht gerade gigantisch war.
Na, wie hoch war dann die Nachfrage? Und wie hoch das Angebot?
So sah es 1 1/2 Monate nach der Verfügbarkeit in unserem Forum aus: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482587
Und so 2 Monate nach Cypress: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=469276
Jedenfalls für das Forum lässt sich sagen: Jeder, der eine wollte, bekam auch eine.
Wir sollten eine Auktion laufen lassen um Dir einen Spiegel zu schenken.
Dann warten wir ab. Werden ja sehen, ob man die Karten hier noch kaufen kann im Dezember. Ich jedenfalls habe gemerkt, dass das verrücktmachen der Leute mit "Gerüchten" bestimmter Art einfach nur falsch ist.
Schlammsau
2010-10-29, 17:59:17
Wir sind gegenüber dem Gesamtmarkt auch soooo repräsentativ. :rolleyes:
Die allgemeine Nachfrage der GTX480 und auch 470 war sehr gering aus allseits bekannten Gründen.
Und warum unser Forum überdurchschnittlich viele GTX470 und 480 hat, weiss jeder der schon eine weile hier rumhängt.
Ailuros
2010-10-29, 18:03:42
Jedenfalls für das Forum lässt sich sagen: Jeder, der eine wollte, bekam auch eine.
Es waren eben nicht besonders viele.
Dann warten wir ab. Werden ja sehen, ob man die Karten hier noch kaufen kann im Dezember. Ich jedenfalls habe gemerkt, dass das verrücktmachen der Leute mit "Gerüchten" bestimmter Art einfach nur falsch ist.
Selbst wenn ich das was ich hoere nicht weitertrage, sorgen so oder so andere dafuer. Das zeigt erstmal dass es kein Zufall sein kann und eben wohl doch nicht irgend eine "orchestrierte Auktion" von z.B. der Konkurrenz wie sich manche vielleicht vorstellen moechten.
Wie dem auch sei, sorge Du lieber dass Du die jeglichen Sticheleien minimalisierst und wie Du Deine Strafpunkte genau verwalten wirst und lass mich dass tun was ich persoenlich als besser empfinde. Dank tragischer Ironie hab ich so oder so ein um weit besseres und persoenliches Verhaeltnis zu Leuten von NV als manche gern haetten.
Der Spiegel war uebrigens anders gemeint: Du hast selber auch selten bis NIE ein gutes Wort fuer die Konkurrenz uebrig. In dem Fall ist solch ein Satz:
Komisch, dass diese Ecke nie was böses über AMD sagt.
...eher einen Spiegel wert. Bevor man Finger in irgendwelche Richtung deutet, waere es wohl angebrachter zu etwas Selbstkritik faehig zu sein.
LovesuckZ
2010-10-29, 18:04:47
Wir sind gegenüber dem Gesamtmarkt auch soooo repräsentativ. :rolleyes:
Die allgemeine Nachfrage der GTX480 und auch 470 war sehr gering aus allseits bekannten Gründen.
Und warum unser Forum überdurchschnittlich viele GTX470 und 480 hat, weiss jeder der schon eine weile hier rumhängt.
Komisch, im PCGH.de Forum hatten nach ca. 2 1/2 Monaten (http://extreme.pcgameshardware.de/quickpolls/107256-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-juli-2010-a.html) genauso viele Leute eine GF100 Karte wie nach 3 Monaten (http://extreme.pcgameshardware.de/quickpolls/79916-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-dezember-2009-a.html) Cypress.
Aber die sind wahrscheinlich auch biased. Und im Forum nur nVidioten.
Es zeigt einfach, dass das Angebot in Deutschland nicht schlechter war als bei Cypress. Trotz aller Unkenrufe.
Ailuros
2010-10-29, 18:09:41
Zurueck zum Thema bitte.
Hugo78
2010-10-29, 20:46:44
Die Geschichte mit der Verfügbarkeit seh ich im Lichte dessen, dass ...
- TSMC noch keine weitere 40nm Produktionsstätten bereit hat,
- GF100 in kleiner Menge weiterläuft für Quadro und Tesla,
- AMD's Ontario noch Kapazitäten klaut, ok eher den Caymans, aber who knows...
Wenn tatsächlicher TSMC neue Fab erst Dez.10'/ Jan 11' online geht, dann wäre eine vorläufige Knappheit nicht verwunderlich.
Betrifft dann aber beide.
harzer_knaller
2010-10-29, 20:53:39
[...] Einfaches Beispiel:
Angenommen eine TMU@700MHz kostet 2mm2 (rein erfundene Zahl). Wenn jetzt die die area bei TMU@1.4GHz hypothetisch 4.5mm2 kostet, dann haette wohl jeder IHV einen Vogel die zweite Option zu waehlen anstatt gleich von Anfang an doppelt so viel TMUs einzubauen.
Bei den ALUs kostet der hotclock zwar mehr die area, aber im Vergleich zu doppelt so vielen ALUs sind sie offensichtlich immer noch im Gewinn.Vielen Dank erstmal für deine Ausführungen, aber ich habe immer noch keinen Plan, warum die TMUs, wenn sie auf Hotclock laufen sollten mehr DIE space verbräuchten als wenn sie auf Baseclock laufen sollten. Sind das spezielle Designentscheidungen oder nicht? Und wenn ja, welche? (sry, wenn ich nerve^^)
:)
AnarchX
2010-10-29, 20:57:58
Die "700MHz TMU" benötigt um auf 1400MHz zu laufen flüßigen Stickstoff und massig Spannung. Um 1400MHz unter normalen Betriebsbedingungen zu erreichen, muss man eben noch massig Transistoren (laut Nvidia Faktor 2+) investieren.
Ailuros
2010-10-29, 21:19:13
Vielen Dank erstmal für deine Ausführungen, aber ich habe immer noch keinen Plan, warum die TMUs, wenn sie auf Hotclock laufen sollten mehr DIE space verbräuchten als wenn sie auf Baseclock laufen sollten. Sind das spezielle Designentscheidungen oder nicht? Und wenn ja, welche? (sry, wenn ich nerve^^)
:)
ALLE Einheiten (ALUs inklusive) verbrauchen mehr die area bei hotclocking. Es ist eben nun mal so dass ALUs als einzige Ausnahme momentan viel weniger zusaetzliche die area verbrauchen bei hot clocks als bei doppelt so vielen ALUs. Und in dem Fall lohnt es sich auch.
Im Fall von TMUs oder anderen Einheiten eben nicht. Natuerlich sind es spezielle Design-entscheidungen und wie gesagt NV evaluiert diese Konstanten bei jeder neuen Architektur seit G80 nachdem was sie selber sagten. In der weniger vorhersehbaren Zukunft wenn mehr fixed function hw wie z.B. TMUs in das programmierbare domain verschleusst koennte sich etwas daran aendern.
Die Geschichte mit der Verfügbarkeit seh ich im Lichte dessen, dass ...
- TSMC noch keine weitere 40nm Produktionsstätten bereit hat,
- GF100 in kleiner Menge weiterläuft für Quadro und Tesla,
- AMD's Ontario noch Kapazitäten klaut, ok eher den Caymans, aber who knows...
Wenn tatsächlicher TSMC neue Fab erst Dez.10'/ Jan 11' online geht, dann wäre eine vorläufige Knappheit nicht verwunderlich.
Betrifft dann aber beide.
http://www.xbitlabs.com/news/other/display/20101028161821_TSMC_s_Revenue_for_40nm_Chips_Up_Slightly_Quarter_over_Quarter.ht ml
Man kann zwar nicht so leicht Schlussfolgerungen von der Tabelle ziehen, aber ich sehe nichts von einer moeglichen doppelten Kapazitaet hier.
AwesomeSauce
2010-10-29, 21:52:38
Wie rechtfertigt man bei Nvidia den Sprung auf die nächste Major-Generationennummer GTX500? "GF110" sieht doch mittlerweile eher nach einem GF100@Full aus, die anderen "neuen" Chips werden dem wohl Folge leisten.
Da werden die Roten etwas zu lachen haben, und ich muss sagen, dass ich auch mehr erwartet hätte, als einen gefixten GF100. 3/2xGF104 dürfte nun wirklich nicht allzu schwierig herzustellen sein und dabei noch effizienter arbeiten.
Eine Fehlerbehebung rechtfertigt auf keinen Fall den Wechsel auf eine neue Major-Generationennummer. Anscheinend sieht Nvidia das anders... Aber warten wirs ab:ucoffee:
Ailuros
2010-10-29, 22:09:08
Wir wissen noch nichts sicheres was die die area des chips betrifft und den Stromverbrauch. Wie dem auch sei (und auch ziemlich egal was die Konkurrenz macht) wenn die GTX580 wirklich ein rundum balancierteres Produkt sein sollte als die GTX480 (geringerer Stromverbrauch bei hoeherer Leistung) wuerde ich als Hersteller auch irgendwelche Relevanz zu GTX4x0 vermeiden.
Hugo78
2010-10-29, 22:11:30
@AwesomeSauce
Ja, lol und ein Barts ist nix weiter als ein HD5k.
Die Namensgebung sollte man mittlerweile als Teil der Modellpflege ansehen.
Gipsel
2010-10-29, 23:40:39
Der Spiegel war uebrigens anders gemeint: Du hast selber auch selten bis NIE ein gutes Wort fuer die Konkurrenz uebrig.
Hey, jetzt muß ich LovesuckZ aber mal verteidigen. Es ist zwar selten und mag auch unfreiwillig geschehen sein (bzw. bin ich mir sehr sicher, daß das negativ gemeint war in die Richtung: "das ist soo schwach von AMD, daß sie ihren Effizienzvorteil nicht noch weiter ausbauen konnten"), aber schau mal in meine Signatur! Tut mir ja leid, aber für den Satz aus der Feder mußtest Du leider Platz machen ;)
Ailuros
2010-10-30, 08:29:28
Eine ziemlich schwache Verteidigung, aber ich nehme sie trotz allem gutmuetig an. Die Aenderung Deiner Signatur ist aeusserst willkommen und ja es ist ehrlich gemeint :)
fondness
2010-10-30, 10:29:52
Also für mich sieht es immer mehr nach einem gefixten GF100 aus. Die Chinesen sprechen von 15-20% mehr Leistung. Das eine SIMD bringt 6% mehr, inkl. den 10% mehr Takt sind wir bei 16,6%. Die Bandbreite steigt durch den Takt um 12%. Vielleicht noch minimale Verbesserungen, mehr wird da nicht drin sein.
AnarchX
2010-10-30, 10:37:29
TMUs werden wohl GF10x-Stand gebraucht: Fullspeed-FP16
GF10x Video und Display-Feature-Stand (nett wäre natürlich Vision Surround an einer Karte)
Pro-Watt-Leistung soll über dem Niveau von GF104 liegen
Spekulationen über eine Die-Size-Reduktion, welche auf dem Niveau eines Halbnodes-Shrinks liegen soll
Insgesamt wirkt das relativ vernünftig und sollte vielleicht die Möglichkeit eines langfristigen Preises unter 300€ erlauben.
Orbmu2k
2010-10-30, 10:44:07
Der Vantage Shot sagt aber was anderes. Wer weiss welche Spiele "die Chinesen" da gestestet haben. Vielleicht Crysis? Da war die relative Steigerung ja immer etwas geringer als bei anderen Titeln. Zudem ist das Game sehr shaderlastig und der Feature Test 6 skaliert ja im Vantage eher linear zum Takt im gegensatz zu den anderen Tests.
Ich denke es wird sich eher im Bereich 25 - 30% abspielen. Wenn die Karten sich dann noch gut übertakten lassen skaliert das ganze ja auch relativ zu der 480 viel stärker.
Also eine 580 auf dem Energieniveau einer 480 könnte vielleicht +50% bedeuten. :-D
AnarchX
2010-10-30, 10:51:30
Hier sind es wohl auch etwas mehr als 20%:
Heaven: High Quality, Normal Tessellation, 16x AF, 4x AA 1920x1200
GTX 580 44,6 FPS
GTX 480 36,6 FPS
http://www.chiphell.com/data/attachment/forum/201010/29/1610223x4mmfussqm4d3ui.png
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=607&Itemid=72&limit=1&limitstart=11 (260.63 Treiber)
fondness
2010-10-30, 10:53:21
Der Vantage Shot sagt aber was anderes. Wer weiss welche Spiele "die Chinesen" da gestestet haben. Vielleicht Crysis? Da war die relative Steigerung ja immer etwas geringer als bei anderen Titeln. Zudem ist das Game sehr shaderlastig und der Feature Test 6 skaliert ja im Vantage eher linear zum Takt im gegensatz zu den anderen Tests.
Ich denke es wird sich eher im Bereich 25 - 30% abspielen. Wenn die Karten sich dann noch gut übertakten lassen skaliert das ganze ja auch relativ zu der 480 viel stärker.
Also eine 580 auf dem Energieniveau einer 480 könnte vielleicht +50% bedeuten. :-D
Okay, der Vantage-Shot ist natürlich ein Argument, auch die Aufzählungen von AnarchX. Wobei man bei Vantage immer Vorsichtig sein sollte, hier wurde nicht zum ersten mal durch den Treiber sehr viel heraus geholt.
Eine derartige Die-Size Reduktion kann man wohl nur erreichen indem man unnötigen Ballast (also GPGPU-Features) über Board wirft. Vielleicht übernimmt man auch gleich die GF104-SIMDs. Könnte auf 576SPs/96TMUs hinaus laufen.
Zusammen mit den höheren Takt würde das dann schon für 25-30% reichen.
AnarchX
2010-10-30, 10:57:48
Eine derartige Die-Size Reduktion kann man wohl nur erreichen indem man unnötigen Ballast (also GPGPU-Features) über Board wirft. Vielleicht übernimmt man auch gleich die GF104-SIMDs. Könnte auf 576SPs/96TMUs hinaus laufen.
Nein, die Featuretests 1 & 6 von Vantage zeigen eindeutig 64 TMUs (bzw. Textur-Adressierer) und 512SPs an.
Man will wohl den Tessellationsvorteil von GF100 nicht weggeben.
Wenn GF110 auch HPC-fähig wäre, würde das umso besser für Nvidia aussehen.
Da könnte man wohl ein Tesla-Upgrade mit fast 700 GFLOPs DP bringen (aktuell sind es 515 GFLOPs), denn auch mit Cayman wird wohl AMD als FireStream-Version die 700GFLOPs erreichen können. Die HD 6990 könnte mit über 1 TFLOPs DP hier neue Pro-Watt-Rekorde aufstellen.
Orbmu2k
2010-10-30, 10:59:03
Eine derartige Die-Size Reduktion kann man wohl nur erreichen indem man unnötigen Ballast (also GPGPU-Features) über Board wirft. Vielleicht übernimmt man auch gleich die GF104-SIMDs. Könnte auf 576SPs/96TMUs hinaus laufen.
576/96 sollten es nicht sein:
http://www5.pic-upload.de/29.10.10/skl89j1a8ph.png
Würde auch nicht zu der linearen Shaderskalierung im Vanatge auf Basis von 512 Shadern passen.
fondness
2010-10-30, 11:02:35
576/96 sollten es nicht sein:
http://www5.pic-upload.de/29.10.10/skl89j1a8ph.png
Würde auch nicht zu der linearen Shaderskalierung im Vanatge auf Basis von 512 Shadern passen.
Okay, dann frage ich mich wo die 25-30% mehr Leistung her kommen sollen. :)
Mal abwarten...
AnarchX
2010-10-30, 11:09:50
Okay, dann frage ich mich wo die 25-30% mehr Leistung her kommen sollen. :)
Es gibt diverse Theorien:
die FP16 TMUs
G80 artige TMUs, die mit trilinearer oder 2x bi-AF Filterung die doppelte Füllrate abrufen können (4TAs/8TFs)
nicht bekannte Taktänderungen am L2-Cache bzw. den ROPs oder anderen Chipteilen
balancierte GPCs (4 GPC mit je 4 Cluster), die vielleicht besser arbeiten als die unbalancierten auf den GF100-Karten mit deaktivierten Clustern
Nvidia hat für GF110 die Geometrie-Drossel angehoben, die man wegen den Quadro-Karten auf GF100 nutzt
eine GF110 exklusive Treiberoptimierung für Vantage die allein dazu dient sich von Cayman und GF100 besser abzusetzen
Orbmu2k
2010-10-30, 11:11:38
Das ist das grosse Rätzel momentan. Ein GF100 "A4" kann denk ich ausgeschlossen werden.
Von exorbitanten Taktunterschieden abseits der Shaderdomain ist auch nicht auszgehen wenn sie gleichzeitig Energie eingespart haben wollen.
Vielleicht hat NVIDIA noch grössere Optimierungsmöglichkeiten beim ganzen Scheduling gefunden dass die FFUs nun besser auslastet.
die FP16 TMUs
Nö.
Nvidia hat für GF110 die Geometrie-Drossel angehoben, die man wegen den Quadro-Karten auf GF100 nutzt
Die gilt nur ohne Tesselation und sonst ist sie irrelevant.
AnarchX
2010-10-30, 13:30:25
Die gilt nur ohne Tesselation und sonst ist sie irrelevant.
Auch mit Tessellation kann eine Quadro mehr Geometrie-Leistung abrufen:
http://img266.imageshack.us/img266/2/img0029676.png
http://www.behardware.com/articles/800-7/roundup-10-workstation-graphics-cards.html
Quadro 5000 (11 SMs je 0,25 Tri/Takt @513MHz): 1411 MTri/s
GTX 480 (15 SMs je 0,25 Tri/Takt @700MHz): 2625 MTri/s
GTX 460 (7 SMs je 0,25 Tri/Takt @675MHz): 1181 MTri/s
Peak Leistung vs gemessene Leistung(0% culled):
Peak Leistung gemessene Leistung
GTX 480 222% 219%
Quadro 5000 120% 175%
GTX 460 100% 100%
LovesuckZ
2010-10-31, 01:24:34
Das wäre das erste, wohl gefakte, Launch-Datum:
So far Nvidia hasn't said a lot about it's upcoming Geforce GTX 580 graphics card. The GTX 580 is confirmed to be released on the 19th of November.
http://www.gnd-tech.com/main/content/407-GTX-580-Specs-and-Pictures
Nordichardware spricht vom 20.11 und davon:
According to sources to NordicHardware it can be as many as 300 million transistors that NVIDIA has been able to cut in this way. The effect is that GF110 will be a GPU targetting only retail and will not be as efficient for GPGPU applications as the older siblings of the Fermi Tesla family.
http://www.nordichardware.com/news/71-graphics/41570-the-geforce-gtx-580-mystery-is-clearing.html
=Floi=
2010-10-31, 01:44:13
warum sollte man 1 tag VOR cayman kommen?
danach kann man viel besser werbung machen und cayman den wind aus den segeln nehmen, weil er danach einfach unter geht.
derguru
2010-10-31, 01:49:46
lol jetzt gibt es schon ein launch-datum fight,gabs schonmal und dadurch haben wir es früher zu gesicht bekommen,gut so.;D
=Floi=
2010-10-31, 03:25:01
es macht hald einfach keinen sinn, wenn die neue hardware einen tag danch schon wieder untergeht und sich die andere in die köpfe einbrennt.
sah man doch schon am fermi. es gab keine konkurrenz und über die paar häppchen wurde wild diskutiert.
warum sollte man 1 tag VOR cayman kommen?
danach kann man viel besser werbung machen und cayman den wind aus den segeln nehmen, weil er danach einfach unter geht.
Vielleicht weil man in den ersten Benches, die sich einbrennen, noch keine Cayman Ergebnisse dabei haben will, und somit unangefochten No.1 wäre - zwar nur für einen Tag, aber eventuell besser als später und dann nur zweite Geige :freak:
Fetza
2010-10-31, 05:08:35
Der Vantage Shot sagt aber was anderes. Wer weiss welche Spiele "die Chinesen" da gestestet haben. Vielleicht Crysis? Da war die relative Steigerung ja immer etwas geringer als bei anderen Titeln. Zudem ist das Game sehr shaderlastig und der Feature Test 6 skaliert ja im Vantage eher linear zum Takt im gegensatz zu den anderen Tests.
Ich denke es wird sich eher im Bereich 25 - 30% abspielen. Wenn die Karten sich dann noch gut übertakten lassen skaliert das ganze ja auch relativ zu der 480 viel stärker.
Also eine 580 auf dem Energieniveau einer 480 könnte vielleicht +50% bedeuten. :-D
Ist das nicht sehr optimistisch geschätzt? Aktuell sieht das teil doch wirklich nach nicht mehr aus wie ein voller gf100 mit mehr takt. Und der gf100 lies sich ja bereits sehr gut takten, bei entsprechender kühlung.
mapel110
2010-10-31, 05:47:20
http://www.semiaccurate.com/2010/10/30/nvidia-paper-launch-gtx580-week/
Nvidia to paper launch GTX580 in a week
No chips, no hope, just spin
:)
Hugo78
2010-10-31, 08:53:59
Ach die SA, wie immer.
AnarchX
2010-10-31, 12:09:30
Man hätte ja am 8.11. launchen können, das ist immerhin ein geschichtsträchtiges Datum.
Hugo78
2010-10-31, 13:04:10
Der 8.11 wäre was für GF100 gewesen.
Jetzt müsste es eigentlich der 3.11. sein. ;)
Schließlich könnte man ja mit dem GF110, die Parallele zum G92 ziehen, von wegen erstes Refresh der neuen Architektur im Highend Bereich.
Nur mit dem Unterschied das Nvidia diesmal so smart ist, und das Ding gleich als neue Generation vermarktet.
Damals hätte man eine 9800 GT & GTS 512 gehabt die doch recht deutlich über der 8800 GTS 640 gewesen wäre.
Und die GTX hätte man halt nach geschoben.
LovesuckZ
2010-10-31, 14:22:10
http://www.semiaccurate.com/2010/10/30/nvidia-paper-launch-gtx580-week/
Nvidia to paper launch GTX580 in a week
No chips, no hope, just spin
:)
Ist das nicht der selbe Artikel wie vor 2, 3 Wochen?
Das ist jetzt doch irgendwie erbärmlich, wenn man zweimal das selbe schreiben muss...
Evtl. ist die Realität bei Nv noch erbärmlicher. Paperlaunch, keine Chips. unbrauchbare Yields und deutlich langsamer als Cayman.
y33H@
2010-10-31, 15:07:11
Deutlich langsamer als Cayman wäre ja nur so schnell wie eine GTX 480 :ugly: Zumindest, wenn die +20% stimmen sollten.
Mancko
2010-10-31, 15:08:00
Evtl. ist die Realität bei Nv noch erbärmlicher. Paperlaunch, keine Chips. unbrauchbare Yields und deutlich langsamer als Cayman.
Eventuell aber vielleicht bei AMD. Who knows. Der letzte High End Launch war ja nun nicht gerade gekennzeichnet durch eine tolle Verfügbarkeit.
Erklär mir mal lieber warum eine von AMD bezahlte Seite nicht weiter auf der Stromverbrauchs leier herumreitet. Sollten AMD hier doch tatsächlich unschön zulegen?
Tarkin
2010-10-31, 15:42:28
Ach die SA, wie immer.
Mit seinen Behauptungen bzgl. Fermi lag er ziemlich nahe an der Realität... ob es dir gefällt oder nicht.
Es ist halt leichter in pauschal als völlig unglaubwürdig (freundlich ausgedrückt) hinzustellen :rolleyes:
Charlie der Troll, der AMD-Fanboy der sowieso nur BS über nVidia schreibt... etc, etc.
Dural
2010-10-31, 15:45:42
du verstehst es einfach nicht, charli ist nichts weiteres als ein AMD marketing mittel und genau deswegen hat er auch meistens halbwegs echte infos, die logischerweise sehr sehr AMD positiv von ihm rüber kommen.
und wenn man die aktuellen info von ihm deutet, bedeutet das für mich ganz klar das Cayman kein einfach Chip für AMD sein wird / beziehungsweise ist
LovesuckZ
2010-10-31, 15:49:16
Lass ihn. Charlie hat bei GF100 einfach seine alten Sprüche seit G80 wiederverwendet und neue Dinge hinzugedichtet. Davon war eben was richtig - Meisterleistung...
Das er bzgl. Tessellation aber mal so dermaßen daneben lag, wird hier immer vollkommen ignoriert. Denn das ist der Punkt der zeigt, ob er überhaupt Insiderinformationen hatte.
Der Rest über nVidia war einfach falsch. Apple? Updaten ihre komplette Macbook-Linie mit nVidia GPUs und iGPUs. Dell tat das selbe vor kurzem mit XPS. Der Typ schreibt nur Anti-nVidia-Stuff und hofft, dass die Menschen, die sowieso Anti-nVidia sind, dass auch glauben. Mehr nicht.
dildo4u
2010-10-31, 15:52:05
Evtl. ist die Realität bei Nv noch erbärmlicher. Paperlaunch, keine Chips. unbrauchbare Yields und deutlich langsamer als Cayman.
Cayman liegt laut AMD Folie unter der 5970 ich schätze ca 10%.Das wären ca 20% schneller als eine GTX 480 also dort wo die GTX 580 landet.Die Berichte sagen auch aus das die GTX580 20% weniger Strom als die GTX 480(TDP 250) braucht,das wären ca 200Watt also weniger als Cayman.AMD hat sich an der GTX 480 orientiert wenn man 20% schneller ist aber grad unter 250Watt bleibt wäre es ein klarer Sieg gehen diese Karte aber gegen die GTX 580(200Watt) sähe es erbärmlich aus bei gleicher Performance.
LovesuckZ
2010-10-31, 16:02:16
Und da Charlie bei einigen so hoch im Kurs steht, hier mal seine Meinung im Februar über die Möglichkeit eines bugfixing:
The chip is unworkable, unmanufacturable, and unfixable. If Nvidia management has any semblance of engineering sense, it will declare its usual victory with Fermi and focus resources on Fermi II, something it is still promising for 2010. The changes needed to fix the first Fermi are basically not doable until the chip is shrunk to 28nm, the size is just too big.
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
Und das hat er also gestern über GF110 geschrieben:
The chip is a bug fixed GTX480/GF100[...]
http://www.semiaccurate.com/2010/10/30/nvidia-paper-launch-gtx580-week/
Der Typ hat klar den Kampf gegen nVidia verloren.
fondness
2010-10-31, 16:08:07
Die Berichte sagen auch aus das die GTX580 20% weniger Strom als die GTX 480(TDP 250) braucht,das wären ca 200Watt also weniger als Cayman.
Die 200W passen ja nicht mal zu den bestätigten 6+8Pin Stromanschluss. Ich würde eher sagen 20% weniger als eine GTX480 sind ehrliche 250W TDP. ;)
Charlie der Troll, der AMD-Fanboy der sowieso nur BS über nVidia schreibt... etc, etc.
Genau.
MfG,
Raff
Iruwen
2010-10-31, 16:11:48
Da ich nur selten Furmark "spiele" würde mir das völlig reichen. NV könnte ja auch mal eine effektive(re) Drosselung für sowas einbauen => Win.
dildo4u
2010-10-31, 16:16:04
Die 200W passen ja nicht mal zu den bestätigten 6+8Pin Stromanschluss. Ich würde eher sagen 20% weniger als eine GTX480 sind ehrliche 250W TDP. ;)
OC Versionen bei Games braucht eine GTX 480 nie 250 Watt.
Tarkin
2010-10-31, 16:18:06
du verstehst es einfach nicht, charli ist nichts weiteres als ein AMD marketing mittel und genau deswegen hat er auch meistens halbwegs echte infos, die logischerweise sehr sehr AMD positiv von ihm rüber kommen.
und wenn man die aktuellen info von ihm deutet, bedeutet das für mich ganz klar das Cayman kein einfach Chip für AMD sein wird / beziehungsweise ist
Charlie ist ein AMD Marketing Mittel... und weiter? Macht das seine Artikel - beispielsweise zum Fermi-Fail - irgendwie weniger glaubwürdig? Oder gar unrichtig?
Mir ist das eigentlich relativ egal wer ihm die Infos steckt, oder welchen Hersteller er nicht leiden kann - Hauptsache seine Artikel sind (weitgehend) korrekt.
PS: Was ich nicht verstehe ist, warum Charlie hier immer als größter Depp hingestellt wird, wo sich doch seine Artikel meistens als korrekt herausstellen.
(seine Infos sind jedenfalls 10x glaubwürdiger als irgendwelche Fanboy-Träumereien von einem Fermi Nachfolger mit 700+ Cuda Cores und was weiß ich noch nicht alles für BS der hier in den letzten Wochen fabriziert wurde)
Tarkin
2010-10-31, 16:23:22
Genau.
MfG,
Raff
Aha, du implizierst also Charlie lag mit seinen Behauptungen bisher zu 100% daneben, .... ooookaaay :rolleyes:
Sein Schreibstil kann ja auch nix :freak:
fondness
2010-10-31, 16:25:15
OC Versionen bei Games braucht eine GTX 480 nie 250 Watt.
# NVIDIA SuperSonic-Demo: 262,70 Watt
# 3DMark06: 283,16 Watt
# Heaven 2: 242,6 Watt
# Stalker CoP: 239,86 Watt
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php
Selbst in ihrem eigenen Demo wird die TDP gesprengt, da gibt es wirklich nichts zu diskutieren. Im übrigen machen sie ohnehin den ungewollten Striptease mit den professionellen Karten.
y33H@
2010-10-31, 16:26:45
Stimmt, Charlie trifft meist voll ins Schwarze: HD 2900 XT wischt mit 8800 GTX den Boden, der GF100 ist nicht produzierbar ("unmanufacturable"), die Yields liegen unter 2 Prozent, es gibt nur 5k bis 8k GF100 und vor allem berechnet der Chip Tessellation nur in Software via Shader :ulol:
Haters gonna hate.
dildo4u
2010-10-31, 16:28:36
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php
Selbst in ihrem eigenen Demo wird die TDP gesprengt, da gibt es wirklich nichts zu diskutieren. Im übrigen machen sie ohnehin den ungewollten Striptease mit den professionellen Karten.
Alle GTX 480 wurden mit zu viel Spannung ausgeliefert und ließen sich undervolten,es gibt schon lange Karten wo das angepasst wurde 750mhz und 226Watt.
http://ht4u.net/reviews/2010/zotac_geforce_gtx_480_amp_limited_edition/index12.php
Undervolt Guide
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-geforce-gtx-470-und-gtx-480/
Superheld
2010-10-31, 16:30:03
übersetzt..
http://www.gamestar.de/hardware/news/grafikkarten/2318929/nvidia_geforce_gtx_580.html
fondness
2010-10-31, 16:34:52
Stimmt, Charlie trifft meist voll ins Schwarze: HD 2900 XT wischt mit 8800 GTX den Boden, der GF100 ist nicht produzierbar ("unmanufacturable"), die Yields liegen unter 2 Prozent, es gibt nur 5k bis 8k GF100 und vor allem berechnet der Chip Tessellation nur in Software via Shader :ulol:
Haters gonna hate.
Tja, und genau so gibt es zahlreiche Gegenbeispiele. Was willst du damit bezwecken?
Tatsache ist er hat gute Kontakte zu TSMC und AMD. Tatsache ist auch das er ein fanatischer NV-Hasser ist. Angaben über die Die-Size von vielen Chips hat bsw. niemand vor Charlie, auch bekommt er sehr offensichtlich Infos von AMD zugesteckt, dazu kommt noch jede Menge Bullshit. Du Kunst besteht darin das essentielle heraus zu filtern. :)
Alle GTX 480 wurden mit zu viel Spannung ausgeliefert und ließen sich undervolten,es gibt schon lange Karten wo das angepasst wurde 750mhz und 226Watt.
http://ht4u.net/reviews/2010/zotac_geforce_gtx_480_amp_limited_edition/index12.php
Undervolt Guide
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-geforce-gtx-470-und-gtx-480/
Ach hör mir doch auf mit diese klein geistigen Gehabe. Für wie blöd hältst du mich? Es ist vollkommen logisch das diese Karte dank erheblich besserer Kühlung stromsparender ist. Und der Undervolt-Guide kann wohl nur ein Scherz sein. Wenn du nicht akzeptierst das die TDP-Angabe der 480 weder zu NVs sonstiger Deklaration noch im Sinne der Defintion einer TDP-Angabe sein kann, dann kann dir niemand helfen. Ich habe keine Lust gegen eine Wand zu reden die nicht gewillt ist einfachste Schlussfolgerungen über sich ergehen zu lassen. Byebye.
y33H@
2010-10-31, 16:37:50
Die Kunst, richtig.
Charlie hat halt das Unvermögen, selbst korrekte Informationen mit derart viel Bullshit zu garnieren, dass man sehr genau lesen muss und Plan braucht.
Auch mit Tessellation kann eine Quadro mehr Geometrie-Leistung abrufen:
http://img266.imageshack.us/img266/2/img0029676.png
http://www.behardware.com/articles/800-7/roundup-10-workstation-graphics-cards.html
Quadro 5000 (11 SMs je 0,25 Tri/Takt @513MHz): 1411 MTri/s
GTX 480 (15 SMs je 0,25 Tri/Takt @700MHz): 2625 MTri/s
GTX 460 (7 SMs je 0,25 Tri/Takt @675MHz): 1181 MTri/s
Peak Leistung vs gemessene Leistung(0% culled):
Peak Leistung gemessene Leistung
GTX 480 222% 219%
Quadro 5000 120% 175%
GTX 460 100% 100%
Solang es nicht exakt die gleiche Hardware ist, ist dieser Vergleich völlig unverwertbar.
dildo4u
2010-10-31, 16:45:24
Ach hör mir doch auf mit diese klein geistigen Gehabe. Für wie blöd hältst du mich? Es ist vollkommen logisch das diese Karte dank erheblich besserer Kühlung stromsparender ist. Und der Undervolt-Guide kann wohl nur ein Scherz sein. Wenn du nicht akzeptierst das die TDP-Angabe der 480 weder zu NVs sonstiger Deklaration noch im Sinne der Defintion einer TDP-Angabe sein kann, dann kann dir niemand helfen. Ich habe keine Lust gegen eine Wand zu reden die nicht gewillt ist einfachste Schlussfolgerungen über sich ergehen zu lassen. Byebye.
Selbst deine Beispiele im Schnitt - 20% sind immer noch um 200Watt um was Anders ging es nich,AMD hat sich an der GTX 480 orientiert und das wird der Untergang sein weil sie Dachten wenn wir knapp unter 250W bleiben ist alle OK.
AnarchX
2010-10-31, 16:52:56
Solang es nicht exakt die gleiche Hardware ist, ist dieser Vergleich völlig unverwertbar.
Quadro 5000 (11 SMs je 0,25 Tri/Takt @513MHz): 1411 MTri/s
GTX 465 (11 SMs je 0,25 Tri/Takt @600MHz): 1650 MTri/s
GTX 480 (15 SMs je 0,25 Tri/Takt @700MHz): 2625 MTri/s
GTX 460 (7 SMs je 0,25 Tri/Takt @675MHz): 1181 MTri/s
Peak Leistung vs gemessene Leistung(0% culled):
Peak Leistung gemessene Leistung
GTX 480 222% 219%
Quadro 5000 120% 175%
GTX 465 139% 136%
GTX 460 100% 100%
http://www.hardware.fr/articles/795-5/dossier-nvidia-geforce-gtx-460.html
http://www.behardware.com/articles/800-7/roundup-10-workstation-graphics-cards.html
Der Unterschied in Bandbreite und Pixelfüllrate gleich die GTX 465 durch ihren höheren Takt nahezu aus.
Okay, selbst wenn es so ist ist das für Spiele trotzdem völlig irrelevant. Für AAA-Titel wird man das per Treiberprofil im Zweifelsfall ausschalten.
Schnitzl
2010-10-31, 17:35:18
übersetzt..
http://www.gamestar.de/hardware/news/grafikkarten/2318929/nvidia_geforce_gtx_580.html
scheisse :( bei PCGHW stehts auch
http://www.pcgameshardware.de/aid,796568/Geforce-GTX-580-Paper-Launch-angeblich-am-08-November/Grafikkarte/News/
Was stimmt denn nun? Wenn die Karten echt erst (frühestens) Ende Januar kommen das ist ja voll ätzend.
y33H@
2010-10-31, 17:36:56
Bei GF100 hat Charlie das auch gesagt, aber man konnte Karten kaufen. Nach einigen Tagen gar mehr als es bei Cypress der Fall war.
Also abwarten und nicht direkt Charlie auf den Leim gehen.
dildo4u
2010-10-31, 17:38:36
Der neue Chip wird kleiner als GF100 und kommt im 40nm warum sollte man nicht liefern können?
y33H@
2010-10-31, 17:39:14
Laut Charlie ist es ein voller GF100(b). Also nicht kleiner ;)
derguru
2010-10-31, 17:42:24
Bei GF100 hat Charlie das auch gesagt, aber man konnte Karten kaufen. Nach einigen Tagen gar mehr als es bei Cypress der Fall war.
Also abwarten und nicht direkt Charlie auf den Leim gehen.
aber nicht am launchtag,bin mir nicht ganz sicher aber soweit ich weiß waren die karten bei den händlern gelistet aber nicht lieferbar,das hat um die 2 wochen gedauert.
Black-Scorpion
2010-10-31, 17:44:02
Nur gut das AIL es auch geschrieben hat. Aber er hat es bestimmt persönlich von Charlie erfahren. Denn es kann ja nicht sein was nicht sein darf.
y33H@
2010-10-31, 17:44:40
@ derguru
Am Launchtag gab es iirc keine bzw. nur ein paar Stück.
btw ist auch (der vom mir geschätzte) AIL nicht absolut unfehlbar, das nur am Rande.
dildo4u
2010-10-31, 17:45:05
Laut Charlie ist es ein voller GF100(b). Also nicht kleiner ;)
"But with GF110 NVIDIA made an active choice and sacrificed the HPC functionality (High Performance Computing) that it talked so boldly about for Fermi, not only to make it smaller but also more efficient."
"According to sources to NordicHardware it can be as many as 300 million transistors that NVIDIA has been able to cut in this way"
http://www.nordichardware.com/news/71-graphics/41570-the-geforce-gtx-580-mystery-is-clearing.html
Erscheint mir Plausibel weil davon ja keine Tesla abgeleitet wird.
fondness
2010-10-31, 17:45:13
Der neue Chip wird kleiner als GF100 und kommt im 40nm warum sollte man nicht liefern können?
Die Frage ist nicht ob man liefern kann sondern wann man liefern kann. Wenn man bsw. erst vor kurzem mit der Massenproduktion begann dauert es nunmal ein Quartal bis erste Karten in den Handel kommen.
Selbst deine Beispiele im Schnitt - 20% sind immer noch um 200Watt um was Anders ging es nich,AMD hat sich an der GTX 480 orientiert und das wird der Untergang sein weil sie Dachten wenn wir knapp unter 250W bleiben ist alle OK.
Gut das du das alles schon so genau weißt dann können wir den Thread ja auch gleich zumachen. Da sind eine Menge Spekulationen drinnen und keinerlei gesicherte Informationen.
Black-Scorpion
2010-10-31, 17:51:08
btw ist auch (der vom mir geschätzte) AIL nicht absolut unfehlbar, das nur am Rande.
Er drischt aber nicht auf Charlie ein und bringt dann selbst die News ganz groß auf der eigenen Seite raus. Zum anlocken ist er wohl gut genug. Es ist wohl eher so das AIL mit seinen Hinweisen bisher deutlich besser lag wie es euch gefällt. Ihr seit es doch die sich für Unfehlbar halten. Nur ihr habt recht und andere sagen und schreiben nur BS. Wie gesagt wird der BS aber schön ausgeschlachtet wenn es genug Klicks bringt. Dann seit wenigstens so konsequent und bringt seine News nicht. Wasser predigen und Wein saufen ist wohl deine Devise.
AnarchX
2010-10-31, 17:53:34
Wenn man wirklich die HPC-Features (ECC, Half-rate-DP) entfernt hat, sollte der Die wirklich unter 450mm² liegen damit es Sinn macht.
Ansonsten hätte man ja gleich auf das GF104-Design setzen können und hier wohl 14 Cluster an 3 GPC verbauen können: + ~30% ALU-Peak, + ~75% TMU-Peak.
fondness
2010-10-31, 17:54:53
Erscheint mir Plausibel weil davon ja keine Tesla abgeleitet wird.
Auch das ist bestenfalls Spekulation. Auch der professionelle Markt würde sich über mehr Perf/Watt oder mehr Leistung durch mehr CUDA-Cores/mehr Takt sicherlich freuen. Es muss sich erst noch zeigen ob NV hier dem Customer-Markt wirklich höhere Prioritäten zuordnet, und den wesentlich gewinnträchtigeren Markt weiter mit GF100 abspeist, ich habe da noch so meine Zweifel.
Denn eins dürfte klar sein, Cayman wird die Latte hier deutlich höher legen, man kann wohl durchaus mit >700GFLOPs DP rechnen, wenn sie dazu auch noch ECC integriert haben braucht NV hier eine Antwort. Auch die aktuell angenommenen 512SP sprechen eindeutig gegen GF104 SIMDs und für GF100 SIMDs mit DP.
Und nein ich will hier nicht den Charlie an die Wand malen (;)), aber am Ende wäre ein gefixter GF100 mit kleineren Verbesserungen, mehr Takt und allen Einheiten eben auch für 20% mehr Leistung gut. Und da hätte man dann auch im wichtigen Profi-Segment etwas davon.
dildo4u
2010-10-31, 17:55:40
Paperlaunch am 8.11 und innerhalb von 2 Wochen liefern wie bei der GTX 480 wär doch perfekt viel früher kommt Cayman auch nicht.
Fermi ist alleiniger King im Profibereich und wird alle paar Monate durch Cuda Updates besser,das kann NV locker bis 28nm "aussitzen" ohne neuen Chip.
http://www.pcgameshardware.de/aid,796301/Tianhe-1A-Schnellster-Supercomputer-mit-7168-Tesla-GPUs-von-Nvidia-aus-China-Update/Grafikkarte/News/
mironicus
2010-10-31, 17:59:43
Wird es dann wohl schon Tests im Internet geben...? (8.11)
derguru
2010-10-31, 18:01:30
Paperlaunch am 8.11 und innerhalb von 2 Wochen liefern wie bei der GTX 480 wär doch perfekt viel früher kommt Cayman auch nicht.
darüber würde ich mich sehr freuen, denn sonst wird der cayman teuer bleiben.
fondness
2010-10-31, 18:02:38
Paperlaunch am 8.11 und innerhalb von 2 Wochen liefern wie bei der GTX 480 wär doch perfekt viel früher kommt Cayman auch nicht.
Wo kommen denn jetzt die zwei Wochen her? Aus deinem Kopf? Es hieß Ende Januar bzw. Februar, das wäre sicherlich nicht mehr "perfekt".
dildo4u
2010-10-31, 18:09:18
Wo kommen denn jetzt die zwei Wochen her? Aus deinem Kopf? Es hieß Ende Januar bzw. Februar, das wäre sicherlich nicht mehr "perfekt".
Ich denke schon das sie den GTX 480 Launch wiederholen können Verfügbarkeit innerhalb von 2 Wochen.Januar/Feb kommen nur von Bashseiten bisher.
Orbmu2k
2010-10-31, 18:09:49
Bei der GTX 480 hiess es auch auch ab Juni breite Verfügbarkeit so wie jetzt der Januar genannt wird. Die Verfügbarkeit vorher war aber wesentlich besser als erwartet. Warum soll man also diesmal nicht genauso optimistisch an die Sache rangehen?
Ausserdem sollte man nicht vergessen dass AMD auch erstmal liefern muss. ;-)
svenw
2010-10-31, 18:42:32
Nen Paperlaunch würde NV eh nichts bringen. jetzt kommt das Weihnachtgeschäft und wenn dann die Karten nicht im Markt sind hat man verratzt, egal ob Launch oder nicht. Wenn der GF110 kommt könnte das auch das Ende für die 470 bedeuten und den Launch eines vollen 104, denn in dem Fall mach eine Massenproduktion des GF100 nur für den Pro-Markt keinen wirklichen Sinn. Da macht man dann noch mal eine Serie und legt die Chips auf Lager aber Massenproduktion lohnt nicht.
derguru
2010-10-31, 18:47:27
Nen Paperlaunch würde NV eh nichts bringen. jetzt kommt das Weihnachtgeschäft und wenn dann die Karten nicht im Markt sind hat man verratzt, egal ob Launch oder nicht. Wenn der GF110 kommt könnte das auch das Ende für die 470 bedeuten und den Launch eines vollen 104, denn in dem Fall mach eine Massenproduktion des GF100 nur für den Pro-Markt keinen wirklichen Sinn. Da macht man dann noch mal eine Serie und legt die Chips auf Lager aber Massenproduktion lohnt nicht.
mit sicherheit,die werden nicht aus spass für "spottpreise" verkauft.
daywalker4536
2010-10-31, 21:13:35
Mal sehen was die 580GTX so leisten wird. Wird beobachtet.
dargo
2010-10-31, 21:26:57
Gibt es schon ungefähre Prognosen wieviel schneller eine GTX580 gegenüber der GTX470 sein wird?
Edit:
Irgendwo habe ich hier mal um die +30% gegenüber einer GTX480 aufgeschnappt. Stimmt das soweit? Dann müsste die GTX580 ca. 60-70% schneller als die GTX470 sein. Hmm... :uponder:
dildo4u
2010-10-31, 21:38:15
Gibt es schon ungefähre Prognosen wieviel schneller eine GTX580 gegenüber der GTX470 sein wird?
Edit:
Irgendwo habe ich hier mal um die +30% gegenüber einer GTX480 aufgeschnappt. Stimmt das soweit? Dann müsste die GTX580 ca. 60-70% schneller als die GTX470 sein. Hmm... :uponder:
20% schneller als GTX 480 bei 20% weniger Verbrauch kommt von den meisten Newsseiten
dargo
2010-10-31, 21:42:09
20% schneller als GTX 480 bei 20% weniger Verbrauch kommt von den meisten Newsseiten
Also +50-55% gegenüber der GTX470. Hmm... auf eine Verdoppelung der Leistung muss ich wohl noch länger warten. Mit 40nm wird das eh nichts mehr.
y33H@
2010-10-31, 21:42:17
Wenn's stimmt, ca. +50%.
AnarchX
2010-10-31, 21:49:53
Also +50-55% gegenüber der GTX470. Hmm... auf eine Verdoppelung der Leistung muss ich wohl noch länger warten. Mit 40nm wird das eh nichts mehr.
Höchstens eine "GTX 595" mit (2x512SPs@ ~650/1300MHz + 2x320-Bit @ ~900MHz) könnte das wohl noch unter 40nm erreichen.
y33H@
2010-10-31, 21:54:35
Bei unter 300W? :ugly:
sulak
2010-10-31, 21:56:16
Die GTX480 wird durch die GTX570 ersetzt, was die Leistung betrifft dürften beide gleichauf sein.
Die GTX470 verschwindet und wird mit der ominösen GTX560 (GF104 Full oder Refresh des GF104) ersetzt.
Eine GTX590 aus nun ausgelaufenen GF100 könnte man auch basteln. Oder eben GF110 aber teildeaktiviert.
AnarchX
2010-10-31, 22:06:31
Eine GTX590 aus nun ausgelaufenen GF100 könnte man auch basteln.
Was bei der Pro-Watt-Leistung von GF100 soviel Sinn machen würde.:|
Oder eben GF110 aber teildeaktiviert.
Um PCB-Kosten zu sparen, wäre wohl eine Teildeaktivierung am SI sinnvollsten.
Je nachdem wieviel Speicher AMD auf der HD 6990 verbaut, könnte man wohl 2x1280MiB oder 2x2560MiB verbauen.
HD 6990 VS GTX 595 könnte wohl anders als bei den vorherigen Dual-GPU-Karten ein Duell bei >600€ werden.
dargo
2010-10-31, 22:12:26
Höchstens eine "GTX 595" mit (2x512SPs@ ~650/1300MHz + 2x320-Bit @ ~900MHz) könnte das wohl noch unter 40nm erreichen.
Nee, nee... SLI kommt mir nicht in die Tüte. :)
=Floi=
2010-10-31, 23:55:55
ich bin gespannt, ob man noch gegen cayman nachzieht und 3gb vram verbaut. cayman wird 2gb haben und damit mehr wie nv mit der 580er.
ich hoffe die 580er geht noch auf 900+mhz, dann wäre ich voll zufrieden.
Fetza
2010-11-01, 00:37:39
Ich denke schon das sie den GTX 480 Launch wiederholen können Verfügbarkeit innerhalb von 2 Wochen.Januar/Feb kommen nur von Bashseiten bisher.
Also das finde ich schon interessant, das du ail des bashings bezichtigst. Er hat hier nur wiedergegeben, was er aus seriösen quellen erfahren hat. Wenn jemand mit kontakten zu ihvs infos postet, ist das sicherlich realitätsnäher, als was sich hier manch ein optimist zusammenreimt.
Nur zur klarstellung, ich hoffe auch das gf110 möglichst früh aufschlägt, aber aktuell sieht es nicht danach aus.
Iruwen
2010-11-01, 00:51:12
Mag mal einer den entsprechenden Post von Ailuros verlinken?
Kalmar
2010-11-01, 07:04:49
mit dem vorziehen ist meiner meinung nach nen geschickter schachzug .. man kann wenn man nicht schneller ist sagen wir hatten wenigsten nen kurz zeitraum gute presse, wenn man schneller ist klaut man amd die show ...
und so wie es momentan aussieht wird es woh nen kopf an kopf .. also ist die aktion alles andere als doof denk ich ..
@ Iruwen hier als zitate
Ich unterschaetze gar nichts. Nach NV selber heisst es ein Launch noch bis zu vor Weihnachten. Eine dritte unabhaengige Quelle (von jeglichen IHVs) die momentan in Taiwan ist sagte mir dass anstaendige Quantitaeten erst im Februar moeglich sein werden.
Deshalb ist Dein eher langer Post total ueberfluessig. Ich trage lediglich das weiter was ich hoere. Ob es stimmt oder nicht werden wir mit der Zeit schon herausfinden.
und dazu passen wegen den kapazitäten usw. das das auch gleich geklärt ist
http://www.xbitlabs.com/news/other/display/20101028161821_TSMC_s_Revenue_for_40nm_Chips_Up_Slightly_Quarter_over_Quarter.ht ml
Man kann zwar nicht so leicht Schlussfolgerungen von der Tabelle ziehen, aber ich sehe nichts von einer moeglichen doppelten Kapazitaet hier.
Dural
2010-11-01, 08:52:05
was man so sieht sind eh beide karten etwa gleich auf, wahrscheinlich mit den üblichen vor und nachteile der jeweiligen chips.
das wird richtig cool, am ende wird das max. OC über den schnelleren chip entscheiden, freu mich auf die beiden karten!
scheisse :( bei PCGHW stehts auch
http://www.pcgameshardware.de/aid,796568/Geforce-GTX-580-Paper-Launch-angeblich-am-08-November/Grafikkarte/News/
Was stimmt denn nun? Wenn die Karten echt erst (frühestens) Ende Januar kommen das ist ja voll ätzend.Das bei der PCGH ist dieselbe Quelle. Also keine irgendwie bessere Info als Semiaccurates Fantasie.
AnarchX
2010-11-01, 10:55:03
Bei TGT spielt man wohl schon mit einem 900MHz Biest herum? :D
MorPheuZ
2010-11-01, 11:22:28
was man so sieht sind eh beide karten etwa gleich auf, wahrscheinlich mit den üblichen vor und nachteile der jeweiligen chips.
das wird richtig cool, am ende wird das max. OC über den schnelleren chip entscheiden, freu mich auf die beiden karten!
Das wäre echt sehr enttäuschend wenn das erste mal in der GPU Chip-Geschichte NV NICHT schneller wäre am oberen Ende...
Das macht iwie kein Sinn den Paperlaunch vorzuziehen wenn man danach erkennt dass man schneller sein müsste.
INDEX75
2010-11-01, 11:27:34
Das wäre echt sehr enttäuschend wenn das erste mal in der GPU Chip-Geschichte NV NICHT schneller wäre am oberen Ende...Das erste Mal? :confused:
Z.B. noch nie von der göttlichen ATI Radeon 9700 Pro gehört. NV hatte damals NICHTS entgegenzusetzen. ATI war damals nicht nur schneller, nein, sie konnten sogar die gleichzeitig bessere Bildqualität liefern. :biggrin:
AnarchX
2010-11-01, 11:29:46
Wenn es nicht ganz reicht, legt man halt selbst noch Anfang Dezember ein GTX 585 nach bzw. schickt wieder OC-Versionen an die Reviewer.
Zudem dürfte der 3DMark11 mit Tessellationsunterstützung auch bald erscheinen (laut Gerüchten am 11.11. ;)).
MorPheuZ
2010-11-01, 11:30:44
Aber das wäre dann schon fast verarsche :freak:
Und natürlich kenn ich die 97er - das war ein Kick Ass gen nv ;)
hmm, ob die 580er doch noch 128 TMU's bekommt?
Klick (http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fwww.chiphell.com%2Fforum-viewthread-tid-133964-from-portal.html)
AnarchX
2010-11-01, 11:43:46
Wenn dann sind es wohl maximal 128 Filter-Einheiten, die hinter 64 Adressier-Einheiten arbeiten, die 3DMarkVantage wohl bestätigt. Ein Aufbau ähnlich wie bei G80.
=Floi=
2010-11-01, 11:54:09
wobei ati durch den alten prozess im nachteil ist und es bei nv nur besser werden kann!
Fermi skaliert sehr gut mit dem takt, wenn er denn mal höher takten kann. Das hauptproblem waren die defekten chips und der geringe takt der archiektur. Da könnte man sicherlich einige handbremsen lösen und mit dem refresh den fermi bringen, welchen man eigentlich geplant hatte.
Man sieht dann auch wie weit nv damals der 5870er enteilt wäre.
Neocroth
2010-11-01, 12:24:52
wobei ati durch den alten prozess im nachteil ist und es bei nv nur besser werden kann!
Hä? :confused:
nVidia wird GF110 auch in 40nm fertigen, also gleiche Vorraussetzungen für nVidia und für AMD.
Spasstiger
2010-11-01, 12:43:06
Z.B. noch nie von der göttlichen ATI Radeon 9700 Pro gehört. NV hatte damals NICHTS entgegenzusetzen. ATI war damals nicht nur schneller, nein, sie konnten sogar die gleichzeitig bessere Bildqualität liefern. :biggrin:
Das AF war bei der GeForce 4 Ti bis 8:1 AF besser. 16:1 AF gabs bei NV dafür nicht. Bei der AA-Qualität war ATI damals allerdings ungeschlagen.
AnarchX
2010-11-01, 14:01:37
Die ausgewählten Benchmark-Zahlen aus NVs Reviewer Guide?
http://img138.imageshack.us/img138/2783/57153431288611776397102.jpg
http://itbbs.pconline.com.cn/diy/12066926.html
Superheld
2010-11-01, 14:03:33
ist schneller :)
wenns dann noch weniger Strom braucht isses doch schön^^
derguru
2010-11-01, 14:05:06
für 480gtx besitzer lohnt sich ein aufrüsten imo nicht aber für mich wenn sie jetzt leiser und im idle weniger verbrauchen würde,jetzt nur noch auf cayman´s antwort warten und dann wird eingekauft.:biggrin:
Orbmu2k
2010-11-01, 14:05:46
Sieht realistisch aus. Der Vantage passt der Heaven passt. Also im Schnitt 20% stimmt auch.
Orbmu2k
2010-11-01, 14:09:54
für 480gtx besitzer lohnt sich ein aufrüsten imo nicht.
Jein. Für mich lohnt sich alles was SGPU und schneller ist. Luxusproblem beim 30" :)
Ausserdem is es eine neue Runde in der OC Lotterie. Vielleicht geht die besser als als meine 480. Wenn der spekulierte Energieverbrauch stimmt sind +40% ohne Mehrverbrauch drin.
AnarchX
2010-11-01, 14:12:13
Vielleicht bringen die Partner zeitnah 3GiB Versionen, wenn es nun bald 256MiB-Chips gibt mit denen man mit einer einseitigen Speicherbestückung auskommt.
fondness
2010-11-01, 14:13:50
Sieht realistisch aus. Der Vantage passt der Heaven passt. Also im Schnitt 20% stimmt auch.
Beim Vantage sieht es wie so oft mal wieder nach einer Treiberangelegenheit aus, denn der Wert springt völlig aus der Reihe. Ansonsten sehe ich die schon genannten 15-20%. Da alle Angaben von NV sind noch mit Vorbehalt.
Die Werte sprechen aber auch klar für einen gefixten GF100 mit 512SPs und mehr Takt, denn die Leistung skaliert bis auf Vantage sehr gleichmäßig, was auf keine wesentlichen internen Verbesserungen hindeutet.
derguru
2010-11-01, 14:20:15
Jein. Für mich lohnt sich alles was SGPU und schneller ist. Luxusproblem beim 30" :)
Ausserdem is es eine neue Runde in der OC Lotterie. Vielleicht geht die besser als als meine 480. Wenn der spekulierte Energieverbrauch stimmt sind +40% ohne Mehrverbrauch drin.
für mich lohnt sich das auch,hoffentlich leiser und weniger im idle verbrauchen.jetzt nur noch abwarten wat der cayman dazu zusagen hat und dann kommt der nikolaus.:biggrin:
Gipsel
2010-11-01, 14:20:36
Gerade mal nachgerechnet. Im Schnitt der Angaben dort ist eine GTX580 18,3% schneller als GTX480. Das entspricht halbwegs dem Faktor:
16/15 * 775/700 = 118,1%
Edit:
Wenn man mal Vantage rausläßt, paßt es praktisch perfekt. Wer weiß, was für eine Treiberoptimierung dafür verantwortlich ist ;)
dildo4u
2010-11-01, 14:23:32
Wenn man die 5870 als Grundlage nimmt dürfte die GTX 580 mit der 5970 gleich auf liegen bei CB liegt die 5970 ~45%(Schnitt 4XAA/8XAA) über 5870.
Orbmu2k
2010-11-01, 14:25:35
Wenn man mal Vantage rausläßt, paßt es praktisch perfekt. Wer weiß, was für eine Treiberoptimierung dafür verantwortlich ist ;)
vantage.exe -> AI = Advanced ;D
Gipsel
2010-11-01, 14:32:25
vantage.exe -> AI = Advanced ;D
Beim Vergleich von GTX580 gegen GTX480 sicher nicht ;)
Neocroth
2010-11-01, 14:34:15
Wenn man die 5870 als Grundlage nimmt dürfte die GTX 580 mit der 5970 gleich auf liegen bei CB liegt die 5970 ~45% über 5870.
also wenn ich nach 1920x1200 gehe und die Werte von CB nehme, sehe ich dass die 580 knapp unter der 5970 zum Liegen kommt - angenommen, die Angabe GTX580 = 120% GTX480 stimmt.
Wie wahrscheinlich ist es eigentlich, dass GF110 eine Art B1 des GF100 ist? Könnte es sich auch um einen reinen Metal Spin handeln? Ich denke zwar, dass ein A4 unwahrscheinlich ist da es ja wahrscheinlich nicht mehr die Vias sind, die einen vollen GF100 verhindern, aber ich frage mal rein aus Interesse halber.
Eine andere Frage: inwieweit kann man das Arrangement der GPU bei einem Full Respin verändern? Es gibt ja die Gerüchte mit den Transistoreinsparungen im Bereich 300 Millionen oder so.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.