Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF110 - GTX 5xx - 2011
Ronny145
2010-11-09, 00:08:55
Ich hoffe die bekommen ihre Strafe wofür ist die NDA sonst gut und ein gutes Licht wirft das nicht gerade auf die Leistung der Karte, wenn man das so darstellt...
Es wirft eigentlich eher ein besseres Licht auf die Karte wenn die GF100 Werte mit älteren Treibern erreicht wurden. Da muss man wohl erst vernünftige Tests abwarten. 5% mehr oder weniger macht in dem Bereich nunmal eine Menge aus. Gleiche Treiber sind unabdingbar.
y33H@
2010-11-09, 00:09:10
LOL, das ist nicht auf der Mainpage und offiziell gar nicht live. Sondern einfach die URL umgetippt :usad:
dildo4u
2010-11-09, 00:09:22
NVIDIA: 258.96
GTX 580: 262.99
daran liegt es hauptsächlich,wetten?
DX11 Benches
BFBC2 bringt nix langsamer
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/9/#abschnitt_battlefield_bad_company_2
Metro auch nix langsamer mit AA und AF.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/10/#abschnitt_metro_2033
Stalker wieder nix
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/11/#abschnitt_stalker__call_of_pripyat
Megamember
2010-11-09, 00:11:32
DX11 Benches
BFBC2 bringt nix langsamer
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/9/#abschnitt_battlefield_bad_company_2
Metro auch nix langsamer mit AA und AF.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/10/#abschnitt_metro_2033
Stalker wieder nix
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-nvidia-geforce-260.52/11/#abschnitt_stalker__call_of_pripyat
Ich les da nix von einem 262er Treiber.
Der wahre Zorg
2010-11-09, 00:11:45
Nimmt mich gerade Wunder, dass hier alles noch so still ist in Bezug auf GeForce GTX 580.
Woanders wird schon fleissig diskutiert, und hier noch kein "(P)Review- und Diskussionsthread - nichts ?
Der erste Test ist ja schon eine Weile draussen ?!
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/1.html
Blediator16
2010-11-09, 00:13:18
Es wirft eigentlich eher ein besseres Licht auf die Karte wenn die GF100 Werte mit älteren Treibern erreicht wurden. Da muss man wohl erst vernünftige Tests abwarten. 5% mehr oder weniger macht in dem Bereich nunmal eine Menge aus. Gleiche Treiber sind unabdingbar.
Die 580 wurde mit den 262.99 getestet also mit den schnelleren. Die Werte der 480 sind wohl noch mit alten laut der Seite und damit hätte die 480 mit dem neuen evtl. mehr FPS geschafft, was am Ende in weniger Unterschied resultieren würde und das wirft ein schlechteres Bild. Wenn ich dort etwas falsch interpretiere weist mich darauf hin^^
dildo4u
2010-11-09, 00:13:36
Ich les da nix von einem 262er Treiber.
Laut NV sollten alle Treiber ab 260 Steigerungen haben.
http://blogs.nvidia.com/ntersect/2010/09/introducing-the-release-260-family-of-drivers.html
Das meiste gilt eh für nur für SLI Profile etc und so wird auch beim 262 sein die Werte im Test passen ja zu den specs der GTX 580 nix aus der Reihe.
Gorkon
2010-11-09, 00:15:43
Gaaaaaaaanz schlechtes "Review" von w1zzard...Treiberchaos, Copy & Paste und was weiss ich nicht alles. Waiting for PCGH, HT4U und Co.
mfg
Hugo78
2010-11-09, 00:15:46
Die GTX 580 ist ziemlich genau das geworden was ich erwartet hab.
Nicht mehr und nicht weniger, für die Performance leise und der Idlewert stimmt jetzt auch,
und da ich imo eh nur BC2 zocke, find ich den BC2 Wert schon geil.
Aber ein 3. Monitor pro Karte hätte es für die Zielgruppe schon sein können, zur Not auch ohne 3D Vision Surround.
LovesuckZ
2010-11-09, 00:17:35
Aber ein 3. Monitor pro Karte hätte es für die Zielgruppe schon sein können, zur Not auch ohne 3D Vision Surround.
Wozu? Spielbar ist es doch sowieso nur mit mGPU.
y33H@
2010-11-09, 00:18:51
Das Review ist noch gar nicht offiziell online ...
JaniC
2010-11-09, 00:19:09
Haben wir bestimmt übersehen.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/november/erste-nvidia-geforce-gtx-580-verfuegbar/
dildo4u
2010-11-09, 00:19:32
CPU Limit nicht vergessen so viele "alte" Game landen im CPU Limit siehe SLI Scaling erst ab 2600 halbwegs normal.
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580_SLI/24.html
PingpiN
2010-11-09, 00:19:50
Die 5970 wird nach einen jahr noch immer nicht geschlagen haha.Schon traurig wie weit Nvidia hinterher hinkt.Damals konnte sogar ne X1950 XTX die Gx2 ohne mühe schlagen.
uweskw
2010-11-09, 00:20:12
Gerade mal 15% schneller als die 480er?
Entweder die wissen genau wie schnell der Cayman werden kann oder sie sind echt verzweifelt.
Dabei hat sich AMD mit der reduzierten Filterqualität doch selbst ein Bein gestellt.
Nightspider
2010-11-09, 00:20:23
Tja, als nv-Fanb*i muss man bescheiden sein in diesen schweren Tagen ;)
Mal sehen was Cayman XT bringt. Wenn's für nvidia ganz dumm läuft, hat ATI demnächst "the world's fastest GPU - wihtout even trying" ^^
Und ernsthaft: Vom Hocker reißt es mich nicht. q.e.e.
Die Lautstärke ist aber sehr erfreulich, idle-Verbrauch auch. Sinnvolle Weiterentwicklung, aber bisschen spät.
Glaube auch das Cayman (XT) schneller wird.
Aber war ja zu erwarten das die GTX580 nichts Neues wird.
Deshalb...lasst uns das Thema hier abhaken und über Kepler reden. :D
http://www.abload.de/img/nvidia_smlgqzb.png
dildo4u
2010-11-09, 00:21:30
Die 5970 wird nach einen jahr noch immer nicht geschlagen haha.
Doch 1 Chip schlägt zwei Chip's King aller Karten.
Alle Auflösungen
http://www.abload.de/img/gtx580wu55.jpg
1900*1200
http://www.abload.de/img/gtsgn9u.jpg
LovesuckZ
2010-11-09, 00:21:52
Gerade mal 15% schneller als die 480er?
Entweder die wissen genau wie schnell der Cayman werden kann oder sie sind echt verzweifelt.
Dabei hat sich AMD mit der reduzierten Filterqualität doch selbst ein Bein gestellt.
Hm, Barts ist sogar langsamer als der Vorgänger und die Leute beschweren sich hier, dass man nur 15% schneller wäre. :freak:
/edit: Ca. 15% schneller bei 12-13% weniger Stromverbrauch. Ist doch vollkommen in Ordnung.
AwesomeSauce
2010-11-09, 00:22:30
Also ein gefixter GF100 (der von vielen als "unfixable" abserviert wurde), wie er vor einem Jahr hätte erscheinen müssen. Die Entwicklung im Stromverbrauch und im Temperatur-/Lautstärkeverhalten sind natürlich willkommen.
Ich denke, es ist offensichtlich, dass damit für Nvidia die Fahnenstange im 40nm-Prozess erreicht ist, und dies wird meiner Meinung nach nicht für die SGPU-Krone reichen. AMD hat hier einfach viel mehr Spielraum, das muss man einfach anerkennen.
Ich bleibe dabei: diese Karten müssten GTX 485 genannt werden (ja, auch Barts wurde m.E zu Unrecht umbeannt), die Einführung des neuen Namens ist aber nachvollziehbar (Ruf der GTX400-Serie entkommen). Ich bin etwas enttäuscht, dass wir keinen 1.5xGF104 sehen. Ich kann keinen offensichtlichen Grund gegen einen solchen Chip erkennen...
LovesuckZ
2010-11-09, 00:25:58
Ich denke, es ist offensichtlich, dass damit für Nvidia die Fahnenstange im 40nm-Prozess erreicht ist, und dies wird meiner Meinung nach nicht für die SGPU-Krone reichen. AMD hat hier einfach viel mehr Spielraum, das muss man einfach anerkennen.
Und? Statt einfach abzuwarten, wird wiedermal AMD gefeiert. Barts zeigte, dass AMD eben kein Spielraum mehr hat. Ob Cayman schneller wird, steht in den Sternen. Deswegen sollte man mit lobhudelei erstmal abwarten, ob AMD überhaupt die Fähigkeiten besitzt an der Architektur vernünftige Veränderungen vorzunehmen.
airbag
2010-11-09, 00:26:47
Das kann ja was werden. War es nicht schon zum Fermilaunch so, dass W1zzard mit alten Treibern gebencht hat und von der Communitiy dermaßen viel Kritik kam (ATI User ), dass er fast den Hut gezogen und aufgehört hätte? :(
fizzo
2010-11-09, 00:27:40
Hm, Barts ist sogar langsamer als der Vorgänger und die Leute beschweren sich hier, dass man nur 15% schneller wäre. :freak:
Die Die des Barts ist halt auch um 25% kleiner als vom Cypress und dafür ist die Leistung beachtlich. Vom Preis ganz zu schweigen...
According to NVIDIA, the die size of the GF110 graphics processor is 520 mm²
Wie groß ist eingendlich der GF100?
derguru
2010-11-09, 00:28:11
die mankos sind im grunde alle beseitigt,das ist erfreulich aber sonst ist es eine langweilige karte,das hätte der erste fermi sein müssen aber so,gähn.
Screemer
2010-11-09, 00:29:55
Und? Statt einfach abzuwarten, wird wiedermal AMD gefeiert. Barts zeigte, dass AMD eben kein Spielraum mehr hat.
wie meinen? der chip ist bei wesentlich geringerer größe fast so schnell wie sein noch gut doppelt so teurer "vorgänger". vergleicht man ihn mit seinen wahren vorgänger, dem juniper, zeigt es wirklich vieviel "spielraum" da noch drin steckt. entwickelt sich der cayman im gleichen verhältniss zu evergreen, wie die 68xx-serie zum juniper, dann wirds richtig lustig. ich muss dazu sagen, dass ich das allerdings nicht erwarte.
Orbmu2k
2010-11-09, 00:30:40
+24% Perf/Watt @ 2560x1600 ist zwar weniger als spekuliert aber immerhin.
LovesuckZ
2010-11-09, 00:31:22
Die Die des Barts ist halt auch um 25% kleiner als vom Cypress und dafür ist die Leistung beachtlich.
Beachtlich? Man ist langsamer als Cypress und verbraucht genauso viel Strom wie eine gleichschnell Cypress-Karte.
Der Chip muss bis ans Limit getaktet werden, um überhaupt eine 5850 zu schlagen. Ja, kleiner und gleichschnell bei gleichviel Strom. Hier ist es gleichgroß, 15% schneller bei 13% weniger Strom.
Wenn das hier langweilig wäre, dann hätte man bei Barts sterben müssen.
Hugo78
2010-11-09, 00:32:13
Wozu? Spielbar ist es doch sowieso nur mit mGPU.
Stink normal 3x 22" (5.040*1050) bei 2-4xAA /16AF und meinetwegen ansonst mittleren Details, wären im BC2 MP sicherlich machbar, bei über 60FPS mit der GTX 580.
Wahrscheinlich so gar max. Details.
Mit mGPU haste ja wieder mehr inputlag, und ich hab mein Sys, extra auf minimal inputlag zusammen gekauft/eingestellt.
Egal ob TFT, Maus oder extra Netzwerkkarte. ;)
Nightspider
2010-11-09, 00:32:53
Ich denke, es ist offensichtlich, dass damit für Nvidia die Fahnenstange im 40nm-Prozess erreicht ist, und dies wird meiner Meinung nach nicht für die SGPU-Krone reichen. AMD hat hier einfach viel mehr Spielraum, das muss man einfach anerkennen.
Wie kommst du darauf?
Die 580 ist nichtmal ein Refresh. An der Architektur wurde nichts grundlegend geändert, was die Leistung betrifft.
Gibt noch massig Potential mit einer besseren Architektur.
Kepler könnte auch noch in 40nm erscheinen. War nicht sogar noch von einer neuen Architektur von Kepler die Rede?
Eggcake
2010-11-09, 00:33:38
Auch wenn's jetzt doch etwas weniger ist als erwartet:
Wenn Barts eine Daseinsberechtigung hat, dann die 580er erst Recht. Jedoch ist die Namensgebung ziemlich übel - imho noch übler als bei Barts, wenn man bedenkt, dass dies die Topkarte ist (Cayman hat imho durchaus eine Umbenennung verdient).
Niedrigerer Verbrauch (nach wie vor ziemlich hoch), leise und schneller.
Aber erstmal noch anständige Tests abwarten vor dem endgültigen Urteil.
Edit: Naja, wenn LovesuckZ schon jetzt auf den "noch schlechteren" Barts hinweisen muss, ist wohl offensichtlich, dass etwas mehr erwartet wurde :D
Naja wie gesagt. Ich warte mal noch ab auf PCGH und Co.
Edit2: Naja, ich geh' mal schlafen und schau' morgen nach NDA-Ende nochmals vorbei ^^
tombman
2010-11-09, 00:33:39
Na ganz toll- einen Stromlimiter hat sie jetzt drauf :hammer:
http://www.abload.de/img/580nb3g.png (http://www.abload.de/image.php?img=580nb3g.png)
Wow, ganze 15% schneller....ich flipp aus *gähn*
Die hätte im April kommen müssen, dann wäre sie ein Hammer gewesen, da sie die 5870 deutlichst gehaut hätte, und das bei annehmbarer perf/watt :)
Iruwen
2010-11-09, 00:33:44
Wenn das Ding 200 Mio. Transistoren weniger hat müssen sie ja schon was dran geschraubt haben.
/e: die GTX 580 ist wenigstens deutlich schneller als die GTX 480, im Gegensatz zu Barts vs. Cypress. Dass der Barts Die kleiner ist interessiert den Kunden wohl kaum.
airbag
2010-11-09, 00:34:53
Stink normal 3x 22" (5.040*1050) bei 2-4xAA /16AF und meinetwegen ansonst mittleren Details, wären im BC2 MP sicherlich machbar, bei über 60FPS mit der GTX 580.
Wahrscheinlich so gar max. Details
Die Auflösung ist etwa im 1/4 größer als 2560x1600 . Mit 4 MSAA wird es sicherlich nichts
Ronny145
2010-11-09, 00:37:44
/e: die GTX 580 ist wenigstens deutlich schneller als die GTX 480, im Gegensatz zu Barts vs. Cypress. Dass der Barts Die kleiner ist interessiert den Kunden wohl kaum.
Barts ist ja auch nicht der Nachfolger von Cypress. Das wird Cayman erledigen.
Blediator16
2010-11-09, 00:40:06
Barts ist ja auch nicht der Nachfolger von Cypress. Das wird Cayman erledigen.
Kapieren die meisten scheinbar immernoch nicht^^
Hugo78
2010-11-09, 00:41:40
Die Auflösung ist etwa im 1/4 größer als 2560x1600 . Mit 4 MSAA wird es sicherlich nichts
Naja in den Tests wird ja immernur der SP bei max. Details und dem leistungsfressenden HSAO = on getestet.
Allein HSAO Off bringt 40% mehr.
Das wäre schon machbar, aber egal mein Traum TFT ohne dicke, fette Seitenränder Links und Rechts,
bei 120Hz, in 1920*1200, ohne inputlag, aber mit PVA Panel, gibts ja eh noch nicht. ;D
airbag
2010-11-09, 00:41:47
Das ändert aber nichts daran, dass LZ Aussage dennoch richtig ist. Immerhin hat man die GTX480 damals für die höhere Leistungsaufnahme von einer Gen zur nächsten kritisiert. Von Juniper auf Barts war es äquivalent
edit:
Um es nochmal zu veranstaulichen.
VOn Hd5770 auf 6870 +47% bei der Leistungsaufnahme
von GTX285 auf GTx480 +48% (wenn man die GTX280 genommen hätte wäre es noch weniger !)
LovesuckZ
2010-11-09, 00:45:12
Barts ist ja auch nicht der Nachfolger von Cypress. Das wird Cayman erledigen.
Unsinn. Nicht immer auf Marketing hereinfallen. Barts ist wesentlich näher an Cypress als an Juniper. Nur weil AMD Barts billiger als eine 5850 verkauft, ersetzt Barts nochlange nicht Juniper - die ironischerweise weitergeführt wird...
Screemer
2010-11-09, 00:45:19
@airback: das ist schon richtig. wird von mir und nicht nur von mir auch kritisiert. das interessiert ati aber wohl grad nicht die bohne. die wollten nen chip der billiger ist als der cypress und performancemäßig fast auf paar liegt. das haben sie geschaft. leistungsaufnahme ist da, wie eben auch beim den g100-karten zweitrangig.
@lz: das hat nichts mit ironie zu tun. geht dir aber wohl nicht ein und deshalb spar ich mir auch die ausführungen. ich hau mich in die kiste. gn8@all
Ronny145
2010-11-09, 00:47:32
Unsinn. Nicht immer auf Marketing hereinfallen. Barts ist wesentlich näher an Cypress als an Juniper. Nur weil AMD Barts billiger als eine 5850 verkauft, ersetzt Barts nochlange nicht Juniper - die ironischerweise weitergeführt wird...
Was willst du mit Juniper? Juniper existiert weiter und Barts als Juniper Nachfolger zu bezeichnen wäre falsch. Dafür sind die Preise auch zu hoch. Der Nachfolger zu Cypress wird trotzdem Cayman.
tombman
2010-11-09, 00:49:30
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8376602&postcount=3
fizzo
2010-11-09, 00:50:23
Das änndert aber nichts daran, dass LZ Aussage dennoch richtig ist.
Barts ist gegenüber den Cypress ~25% kleiner, Verbraucht unter Last 20 Watt weniger (http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/26/#abschnitt_leistungsaufnahme) und ist dabei im Schnitt ~ 8-10% (http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/13/#abschnitt_performancerating) langsamer. Beim Preis steht es $ 240 zu $ 360.
Cpl. Dwayne Hicks
2010-11-09, 00:51:14
War wohl doch nichts mit den 128 TMUs.... naja dann werd ich wohl bei meiner GTX 480 bleiben. :smile:
Der wahre Zorg
2010-11-09, 00:51:16
Hier als SLI-Kombination
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580_SLI/1.html
Iruwen
2010-11-09, 00:52:09
Barts ist ja auch nicht der Nachfolger von Cypress. Das wird Cayman erledigen.
Gleich zwei Gründe warum die Namensgebung wesentlich "kundenunfreundlicher" ist als bei der GTX 580.
/e: die Karte tut genau das was man erwarten konnte. Jetzt Cayman abwarten und dann mal sehen. Ich glaub meine HD 5870 lebt wohl noch bis die 28nm Karten kommen :\
Ronny145
2010-11-09, 00:53:47
Gleich zwei Gründe warum die Namensgebung wesentlich "kundenunfreundlicher" ist als bei der GTX 580.
Damit kennt sich Nvidia bestens aus.
LovesuckZ
2010-11-09, 00:54:11
Was willst du mit Juniper? Juniper existiert weiter und Barts als Juniper Nachfolger zu bezeichnen wäre falsch. Dafür sind die Preise auch zu hoch. Der Nachfolger zu Cypress wird trotzdem Cayman.
Was soll Barts dann sein? Da Juniper weiterläuft, ersetzt natürlich Barts Cypress. Deswegen auch die Bezeichnung 68xx. Man hat eben diesmal eine andere Lücke, nämlich zwischen Barts XT und Cayman "Pro".
Fakt ist, dass Cypress auslaufen wird und Barts XT den Spot der 5850 übernimmt. Leistungsmäßig wird die 5870 wegfallen und von einer wohl leicht schnelleren 6950 ersetzt werden, die für ca. 300€ verkauft wird.
Deswegen finde ich es lustig, dass Leute hier meinen, dass GF110 irgendwie langweilig wäre. Natürlich ist er es in gewisserweise, da die nVidia's DX11 Architektur nunmal seit GF100 steht. Was hat man denn erwartet? :rolleyes:
Trotzdem kann man bei selber GTX480 Leistung wohl ca. 30% weniger Stromaufnahmen erreichen, was für einige dann die Karte interessanter werden lässt - leiser, kühler und stromsparender. Als Refresh vollkommen in Ordnung. Da war Barts auch nichts anderes. Oder GT200b, oder rv790 oder g92b...
Superheld
2010-11-09, 00:54:46
zum Glück haben wir dich, Zorg :)
muss noch mein Papi fragen ob er mir eine kauft...
Ronny145
2010-11-09, 00:56:06
Was soll Barts dann sein? Da Juniper weiterläuft, ersetzt natürlich Barts Cypress. Deswegen auch die Bezeichnung 68xx. Man hat eben diesmal eine andere Lücke, nämlich zwischen Barts XT und Cayman "Pro".
Fakt ist, dass Cypress auslaufen wird und Barts XT den Spot der 5850 übernimmt. Leistungsmäßig wird die 5870 wegfallen und von einer wohl leicht schnelleren 6950 ersetzt werden, die für ca. 300€ verkauft wird.
Barts kann ruhig Cypress ersetzen, das war aber nicht die Frage.
Dafür das die Vorgängerkarte erst ~ein halbes Jahr auf dem Markt ist, find ich die Verbesserungen schon beachtlich. Das Nummernschema und die damit verbundenen, anzunehmenden Leistungssteigerungen ist halt eine andere Sache.
=Floi=
2010-11-09, 00:56:26
der strom-limiter ist (vorerst) nur beim furmark und occt aktiv. Der cap ist bei 300watt.
ich hoffe es gibt bald mal brauchbare programme, welche diese sperren überlisten können.
derguru
2010-11-09, 00:56:27
löl, jetzt in sli.
tatsächlich die benchen im sli selbst in 1024*768,ohne aa.die haben doch ein dachschaden. :crazy:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580_SLI/1.html
airbag
2010-11-09, 00:58:42
@fizzo
Ob er kleiner ist spielt für den Kunden keine Rolle, wenn er eine gleich hohe Leisungsaufnahme hat.
Mit dem Preis hast du aber recht.
Hugo78
2010-11-09, 01:00:50
löl, jetzt in sli.
tatsächlich die benchen im sli selbst in 1024*768,ohne aa.die haben doch ein dachschaden. :crazy:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580_SLI/1.html
~90% Skalierung, das ist doch nett.
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580_SLI/images/heaven_2560_1600.gif
airbag
2010-11-09, 01:03:37
http://www.abload.de/thumb/unbenanntwcpy.jpg (http://www.abload.de/image.php?img=unbenanntwcpy.jpg)
Fällt euch was auf.^^
Naja auch wenn das Review noch nicht offiziell ist, scheint da noch recht viel zusammengeworfen. -.-
LovesuckZ
2010-11-09, 01:06:03
NDA fällt heute um 15 Uhr unserer Zeit. Also man muss wohl nicht die ganze Nacht wachbleiben. ;)
fizzo
2010-11-09, 01:06:22
@fizzo
Ob er kleiner ist spielt für den Kunden keine Rolle, wenn er eine gleich hohe Leisungsaufnahme hat.
Mit dem Preis hast du aber recht.
Die Leistungsaufnahme ist eben nicht gleich hoch. Die HD 6850 hat ja nicht um sonst nur mehr 1x6pin Stecker. 90% der Leistung 1/3 billger....jetzt aber wieder zum GF110.
Beim GF110 hat man ja 200Mio Transistoren eingespart aber die Die blieb gleich groß?
Blaire
2010-11-09, 01:07:56
zum Glück haben wir dich, Zorg :)
muss noch mein Papi fragen ob er mir eine kauft...
Dann kannste Crysis ja endlich mal in Bewegung sehn. :biggrin::wink:
Ronny145
2010-11-09, 01:10:19
http://www.abload.de/thumb/unbenanntwcpy.jpg (http://www.abload.de/image.php?img=unbenanntwcpy.jpg)
Fällt euch was auf.^^
Naja auch wenn das Review noch nicht offiziell ist, scheint da noch recht viel zusammengeworfen. -.-
Bei nem früheren techpowerup review vor dem launch stellten sich die Werte im Nachhinein als Platzhalter raus. Aber für Platzhalter sind die Werte eigentlich zu realistisch. Die Texte sind natürlich noch nicht fertig.
LovesuckZ
2010-11-09, 01:12:18
Die Leistungsaufnahme ist eben nicht gleich hoch. Die HD 6850 hat ja nicht um sonst nur mehr 1x6pin Stecker. 90% der Leistung 1/3 billger....jetzt aber wieder zum GF110.
Und mit welcher Karte vergleichst du die 6850? Hoffentlich nicht mit der 5830...
Bei Computerbase.de ist die 5850 14% langsamer als die 5850 in Crysis und schluckt im selben Spiel jedoch nur 11 Watt weniger, was sich beim Gesamtsystem auf eine Ersparnis von stolzen 4% auswirkt (und in echt wohl ca. 10%).
Beim GF110 hat man ja 200Mio Transistoren eingespart aber die Die blieb gleich groß?
Also dem Tester hat nVidia die Transistoren so angeordnet, dass die Kommunikationswege verkürzt wurden und man somit wohl weniger Transistoren für jene benötigt. Sollte GF110 wirklich über alle Eigenschaften von GF100 verfügen, wäre dies ein beachtenswerter erfolg. Immerhin eine Ersparnis von knapp 7% weniger Transistoren.
Tesseract
2010-11-09, 01:14:37
die 580 ist genau das, was die 480 von anfang an hätte sein sollen.
OC_Burner
2010-11-09, 01:18:26
Mehr VRAM wäre schon aber davon kann wohl nur träumen.
LovesuckZ
2010-11-09, 01:19:51
die 580 ist genau das, was die 480 von anfang an hätte sein sollen.
Ja, aber manchmal benötigt man auch praktisches Wissen, um seine Fantasie und Theorien umsetzen zu können. ;)
Fetza
2010-11-09, 01:33:49
Mehr VRAM wäre schon aber davon kann wohl nur träumen.
Wieviel leute würden sich eine karte mit 3gb ram kaufen? Das ist ein mikromarkt, der nv nicht interessiert.
Mal was ganz anderes:
Ist euch auch aufgefallen das der gpu-takt ganz im gegenteil zu den teilweise pornrösen phantasien mancher member hier, sich mehr schlecht als recht erhöhen ließ? 832 mhz ist ja nicht gerade toll, das schaffen schon manche gtx 480 karten mit luftkühlung.
Nachtrag: Und techpowerup sagt auch garnichts zu den tmus, sind die jetzt wohl single-pass fp16 fähig?
Superheld
2010-11-09, 01:41:51
Heaven extreme und so
http://forum.coolaler.com/showthread.php?t=253168
http://www.abload.de/img/1sdrl.jpg (http://www.abload.de/image.php?img=1sdrl.jpg)
Fetza
2010-11-09, 01:46:11
Wenn das Ding 200 Mio. Transistoren weniger hat müssen sie ja schon was dran geschraubt haben.
/e: die GTX 580 ist wenigstens deutlich schneller als die GTX 480, im Gegensatz zu Barts vs. Cypress. Dass der Barts Die kleiner ist interessiert den Kunden wohl kaum.
Nee, aber den kunden interessiert der preis und da steht barts xt mit 200 euro da, also deutlich billiger als cypress xt.
LovesuckZ
2010-11-09, 02:06:24
Heaven extreme und so
http://forum.coolaler.com/showthread.php?t=253168
http://www.abload.de/img/1sdrl.jpg (http://www.abload.de/image.php?img=1sdrl.jpg)
Hm, die beiden Extreme-Werte sind ein bisschen zu hoch. Scheint wohl der Treiber eine Verbesserung zu bringen.
Das erreicht meine GTX480 mit 8xAA und 16xAF:
16,2 - 27,1 - 57,5
Bzw. soviel schneller wäre eine GTX580
18% - 29% - 38%
Ohne AA und 4xAF erreiche ich:
21,4 - 34,8 - 99,1
Bzw. soviel schneller wäre eine GTX580
5% - 41% - 37%
Hm nunja. Fake, übertaktete GTX580 oder gesteigerte Geometrieleistung?
Nachtrag zu dem normal Wert:
Ohne AA und 4xAF erreiche ich:
35 - 49,7 - 103,3
Bzw. soviel schneller wäre eine GTX580
x% - 31% - 44%
Ja, okay... Kann sich jeder ja selbst ein Bild davpn machen, on diese Leistungssteigerung möglich wäre ohne einem verbesserten Treiber.
Superheld
2010-11-09, 02:32:08
na 30% soll der Vorsprung in diesen Benchmark betragen
wurde auch gesagt von Nvidia bei der Lan Party, stand bei anandtech oder so .
Der wahre Zorg
2010-11-09, 03:22:54
Hier gibt es noch ein paar vermutlich private Bildchen von unseren schmaläugigen Freunden :
http://forum.coolaler.com/showthread.php?t=253168
Menace
2010-11-09, 06:44:17
Wozu? Spielbar ist es doch sowieso nur mit mGPU.
Es gibt Leute, die auch ihren PC zum Arbeiten benutzen und da ist ein 3. Monitor einfach nur genial. :rolleyes:
boxleitnerb
2010-11-09, 06:59:14
Das mit dem Ampere-Limiter ist natürlich scheiße für Übertakter. Denke da könnte im Sommer das Throttling auch mal beim Zocken eingreifen. Außer die Karte wird mit Wasser oder einem potenteren Kühler als dem Stockkühler gekühlt, wodurch die Temps und die Leistungsaufnahme wieder sinken.
Botcruscher
2010-11-09, 07:41:43
Eine Begrenzung der TDP ist dafür für den Normalen Kunden genau richtig. Der Powervirus Furmarkt (und anderes) wird entschärft, die Karte bleibt immer im Limit. Das sorgt für Langlebigkeit und günstige Karten. Wer mehr will greift eh zu einem Herstellerdesign.
Jake Dunn
2010-11-09, 07:52:37
Bei den ersten Bloomfield MBs war das auch so mit der "Sperre" bzw. wurde beim i7 auch runtergeregelt enn die 130W (TDP) überschritten wurden.
INDEX75
2010-11-09, 08:39:47
Uh, es sieht danach aus als würde NV diesmal von AMD böse verkloppt werden. Zumindest schleicht sich das Gefühl ein. Aber warten wir mal die 6970 ab. Am Ende ist Sie evtl. auch nur 15-20% schneller.
Superheld
2010-11-09, 09:05:54
links: 5970@925/1155 , rechts: 580@stock
http://www.abload.de/img/unbenannt-1d947.jpg (http://www.abload.de/image.php?img=unbenannt-1d947.jpg)
Hugo78
2010-11-09, 09:06:05
UVP 360€ ?
http://www.hardwareboard.eu/content/849-Nvidia-stellt-GeForce-GTX-580-offiziell-vor-mit-vielen-Tests-der-Karte
Wenn das stimmt und die Lieferbarkeit entsprechend auch den UVP hergibt, ist sie mein. :D
Dural
2010-11-09, 09:07:03
Die 5970 wird nach einen jahr noch immer nicht geschlagen haha.Schon traurig wie weit Nvidia hinterher hinkt.Damals konnte sogar ne X1950 XTX die Gx2 ohne mühe schlagen.
2x kompletter blödsinn:
Die GTX580 ist min. gleich schnell wie die 5970, im durchschnitt sogar leicht schneller...
1950XTX wird von der 7950GX2 überall gebügelt und das locker:
http://www.computerbase.de/artikel/grafikkarten/2006/test-ati-radeon-x1950-xtx-und-x1950-crossfire/22/#abschnitt_performancerating_qualitaet
Der Rückstand zur GeForce 7950 GX2 liegt bei zwölf Prozent, wobei bereits von vornherein ersichtlich war, dass ATi trotz des GDDR4-Speichers gegen zwei GPUs keine Chance haben wird
Die GeForce 7950 GX2 bleibt mit einem Vorsprung von 17 Prozent dagegen unerreicht.
Mayk-Freak
2010-11-09, 09:15:36
Bei Alternate kann man die die GTX580 schon bestellen
http://www.alternate.de/html/product/Grafikkarte/Zotac/GeForce_GTX_580/755818/?tn=HARDWARE&l1=Grafikkarten&l2=PCIe-Karten+NVIDIA&l3=GeForce+GTX
tombman
2010-11-09, 09:34:59
Hier gibt es noch ein paar vermutlich private Bildchen von unseren schmaläugigen Freunden :
http://forum.coolaler.com/showthread.php?t=253168
Wie geil, in furmark 1920x1080 ohne AA:
GTX580: 27 fps (coolaler)
GTX480: 51 fps (!) (tombman)
Na toll, wer will schon ne Karte mit nem power limiter?
Screemer
2010-11-09, 09:48:52
sorry, aber wer beglotzt sich schon die fps in furmark? macht einen das neben seiner karten heiß?
Na toll, wer will schon ne Karte mit nem power limiter?
Ich, mein Core i7 macht das nämlich auch...
boxleitnerb
2010-11-09, 09:53:20
Es ist doch die Frage, ob und wie sich das auf OC auswirkt. Bei Leuten, die vielleicht keinen Wasserkühler einsetzen.
LovesuckZ
2010-11-09, 09:53:56
Bei Alternate kann man die die GTX580 schon bestellen
http://www.alternate.de/html/product/Grafikkarte/Zotac/GeForce_GTX_580/755818/?tn=HARDWARE&l1=Grafikkarten&l2=PCIe-Karten+NVIDIA&l3=GeForce+GTX
Hm, lieferbar. Ich sagte ja: Man sollte nicht jedem Mist glauben, dem man im Internet so liest.
Es ist doch die Frage, ob und wie sich das auf OC auswirkt. Bei Leuten, die vielleicht keinen Wasserkühler einsetzen.
Laut Wizzard greift zZ die Limitierung nur auf Furmark und OCCT. Es soll aber in Zukunft noch erweitert werden...
boxleitnerb
2010-11-09, 09:58:27
Genau das ist es, was mir Kopfschmerzen bereitet. Eine übertaktete Karte mit etwas erhöhter Spannung kann sicherlich auch in Furmark-Bereiche vorstoßen beim normalen Zocken.
Solange Nvidia genau dokumentiert und veröffentlich, wann und bei was gedrosselt wird, ist schonmal was gewonnen. Vielleicht gibt es auch ein OC-Bios, das den Chip abschaltet, für Leute, die eher risikofreudig sind.
Orbmu2k
2010-11-09, 09:59:54
Laut Wizzard greift zZ die Limitierung nur auf Furmark und OCCT. Es soll aber in Zukunft noch erweitert werden...
Für OCCT gibts sowas seit dem 260er Treiber jetzt schon. Siehe im Inspector das "Power Throttle" Setting. Vielleicht ist bei 262 dort noch Furmark hinzugekommen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8266006&postcount=5
Slipknot79
2010-11-09, 10:05:07
Wie geil, in furmark 1920x1080 ohne AA:
GTX580: 27 fps (coolaler)
GTX480: 51 fps (!) (tombman)
Na toll, wer will schon ne Karte mit nem power limiter?
Ist ein Garantiefall, von daher ;)
tombman
2010-11-09, 10:05:14
Und wenn man dann massiv vcore und clock erhöht bekommt man WENIGER fps :ulol:
Ich finde sowas zum Kotzen...jetzt suchen die Hersteller schon aus, wo eine Karte volle Leistung bringen darf und wo nicht...
In Zukunft werden benchmarks dann voll durchlaufen, der Chip sich bei heftigen, sehr langen Gefechten einfach runterschrauben- inkl fps-Verlust :facepalm:
Ailuros
2010-11-09, 10:12:09
Hm, lieferbar. Ich sagte ja: Man sollte nicht jedem Mist glauben, dem man im Internet so liest.
Genau das gleiche wuerdest Du auch sagen wenn es nur 1 sample weltweit gaebe. Es ist eher ein temporaeres TSMC Problem als alles andere was wohl heisst dass beide IHVs davon betroffen sein werden bis Q1 11'.
boxleitnerb
2010-11-09, 10:12:33
Vielleicht gibts ja im CP einen Schalter, wo ganz groß und fett dransteht: "Vorsicht, DAUs! Nicht das Häkchen wegmachen, sonst raucht eure Karte ab. Alle anderen...wer traut sich...?" :freak:
Warum ist die Drosselung überhaupt nötig? Die GTX480 braucht mehr und wird ja (afaik) auch nicht gedrosselt.
darkcrawler
2010-11-09, 10:58:12
Wenn das Ding 200 Mio. Transistoren weniger hat müssen sie ja schon was dran geschraubt haben.
/e: die GTX 580 ist wenigstens deutlich schneller als die GTX 480, im Gegensatz zu Barts vs. Cypress. Dass der Barts Die kleiner ist interessiert den Kunden wohl kaum.
barts is ja auch cypress nachfolger ne :rolleyes:
Ist euch auch aufgefallen das der gpu-takt ganz im gegenteil zu den teilweise pornrösen phantasien mancher member hier, sich mehr schlecht als recht erhöhen ließ? 832 mhz ist ja nicht gerade toll, das schaffen schon manche gtx 480 karten mit luftkühlung.Das schafft sogut wie keine GTX 480 mit Luftkühlung. Es schaffen deutlich mehr 580 die 830 MHz mit Luftkühlung als die 480. Selbst wenn man die 480 mit einem Arctic-Dingens ausstattet.
Die Übertaktbarkeit der GTX 480 ist nicht so gut wie einige denken. Natürlich posten Leute nur ihre Erfolgserlebnisse ins Netz.
Iruwen
2010-11-09, 11:18:02
barts is ja auch cypress nachfolger ne :rolleyes:
Deshalb heißen die Karten ja auch 6850/6870 ne :rolleyes:
Neocroth
2010-11-09, 11:26:27
Deshalb heißen die Karten ja auch 6850/6870 ne :rolleyes:
Dann war die Geforce FX 5600 der Nachfolger der Geforce 4 TI4600?
Screemer
2010-11-09, 11:28:25
genau genau und deswegen gibts in der 5-er-serie ja auch die klasse der 59xxer mit einer gpu. starke argumentation.
Dann war die Geforce FX 5600 der Nachfolger der Geforce 4 TI4600?
der ist ja noch besser :D
und wenn es von einigen so gesehen wird, dann passt dieser satz aus der vergangenheit einfach perfekt zum thema:
and while the 9600 PRO didn't outperform the 9500 PRO that it was supposed to replace, it was much more economical for ATI to produce by way of a 130 nm process (all ATI's cards since the 7500/8500 had been 150 nm) and a simplified design.
namen sind schall und rauch.
Megamember
2010-11-09, 11:29:39
Deshalb heißen die Karten ja auch 6850/6870 ne :rolleyes:
Ati macht die Namensgebung wie sie will, 6850 u 6870 sind nachfolger der 5770.
MorPheuZ
2010-11-09, 11:29:44
hier stand mist
Botcruscher
2010-11-09, 11:33:29
Und wenn man dann massiv vcore und clock erhöht bekommt man WENIGER fps :ulol:
Ich finde sowas zum Kotzen...jetzt suchen die Hersteller schon aus, wo eine Karte volle Leistung bringen darf und wo nicht...
In Zukunft werden benchmarks dann voll durchlaufen, der Chip sich bei heftigen, sehr langen Gefechten einfach runterschrauben- inkl fps-Verlust :facepalm:
Völlig falsch. Der Hersteller sucht eben nicht aus wo wie was läuft sondern die Spezifikation der MAX TDP legt dies fest. Für Otto-normalo und die ganzen OEMs ist dies der absolut vernünftige Weg. Immerhin grillt einem so nicht die Karte, NT oder das Board weg. Begrenzer sind bei jeder technischen Anlage Pflicht. Natürlich muss man diese auch abschalten können. Das ist aber dann für Leute die wissen was sie tun. Beide Hersteller wären schön blöd wenn sie für jede Eventualität genug Spielraum einplanen - das kostet richtig und bring meist nichts.
crux2005
2010-11-09, 11:48:51
wie viele hier haben eigentlich immer behauptet das der GF100 exakt 3.0 Miliarden hat
Der GF100 hat laut allen nVidia Dokumenten auch 3 Milliarden Transistoren. Wieso viele Seiten 3,2 Milliarden angegeben haben ist mir noch immer ein Rätsel.
Dural
2010-11-09, 12:05:31
NV gibt 3 Miliarden an, ja! aber wo stand schon 3,0 Miliarden???
darkcrawler
2010-11-09, 12:06:22
Deshalb heißen die Karten ja auch 6850/6870 ne :rolleyes:
das meinst du nich ernst oder :facepalm:
Dann war die Geforce FX 5600 der Nachfolger der Geforce 4 TI4600?Vorher gabs noch eine GeForce 4800 Ti (Takt wie 4600, aber mit 8x AGP.)
Ronny145
2010-11-09, 12:17:01
Ati macht die Namensgebung wie sie will, 6850 u 6870 sind nachfolger der 5770.
Sind sie nicht. Juniper bleibt erhalten und wird nicht abgelöst. Das würde auch preislich überhaupt nicht hinkommen. Barts ist höchstens der Nachfolger von HD5830. Juniper stellt sich gegen GTS450 und Barts gegen GTX460.
airbag
2010-11-09, 12:17:34
Es ist doch die Frage, ob und wie sich das auf OC auswirkt. Bei Leuten, die vielleicht keinen Wasserkühler einsetzen.
Scheinbar nicht wenn man sich die Chinabenches mit 1,183V SPannung(Maximum beim Inspector) und 950Mhz ansieht.
Vielleicht gibts ja im CP einen Schalter, wo ganz groß und fett dransteht: "Vorsicht, DAUs! Nicht das Häkchen wegmachen, sonst raucht eure Karte ab. Alle anderen...wer traut sich...?" :freak:
IM CCC gibt es so einen Schalter :ulol:
boxleitnerb
2010-11-09, 12:21:54
IM CCC gibt es so einen Schalter :ulol:
Echt jetzt? Was bewirkt der? Sorry für OT
airbag
2010-11-09, 12:23:39
Ist ein Schalter um die OC- und Lüfterregelungsoptionen freizuschalten.
Ist aber halt nur ein bisschen lieber ausgedrückt als deine Formulierung. ;)
crux2005
2010-11-09, 12:27:31
NV gibt 3 Miliarden an, ja! aber wo stand schon 3,0 Miliarden???
ja, 3.0 im Whitepaper
Popopinsel
2010-11-09, 12:33:31
Und da sind sie auch schon: GeForce GTX 580 ab ~440€ (http://geizhals.at/deutschland/?fs=gtx+580)!
boxleitnerb
2010-11-09, 12:42:17
Ab 480. Lokal abholen nur in München gilt nicht ;)
ColdColt
2010-11-09, 12:46:52
Hab mir dann mal eine Gigabyte GTX580 bei Alternate eben gerade bestellt, sch*** auf Cayman :D
MartinRiggs
2010-11-09, 12:48:11
ich bin gespannt, die Karte mit GTA inkl. Downsampling*träum*
LovesuckZ
2010-11-09, 12:49:48
Hab mir dann mal eine Gigabyte GTX580 bei Alternate eben gerade bestellt, sch*** auf Cayman :D
:up: :cool:
Ich finde die Kühlung toll. Dann könnte ich meinen Windtunnel abbauen... Mal sehen, was andere Test sagen.
Iruwen
2010-11-09, 12:57:59
das meinst du nich ernst oder :facepalm:
Es ist einfach lächerlich dass AMD und Nvidia exakt das gleiche machen aber bei AMD ist völlig ok und bei NV ist es Verarsche. Wenn man weiss wer der Böse ist hat der Tag halt Struktur.
Dural
2010-11-09, 13:03:20
ja, 3.0 im Whitepaper
wo?
mapel110
2010-11-09, 13:10:40
wo?
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/offiziell-fermi-a.k.a.-gt300/#update1
http://www.abload.de/img/17t7o.png
Neocroth
2010-11-09, 13:28:29
Vorher gabs noch eine GeForce 4800 Ti (Takt wie 4600, aber mit 8x AGP.)
Ändert sich nix an meiner Feststellung.
Anders ausgedrückt: ist die FX 5800 Ultra nun der Nachfolger der TI 4800 (die im Prinzip gleich schnell wie die 4600 war)?
Es ist einfach lächerlich dass AMD und Nvidia exakt das gleiche machen aber bei AMD ist völlig ok und bei NV ist es Verarsche. Wenn man weiss wer der Böse ist hat der Tag halt Struktur.
Es sind Namen aus dem Marketing. Fertig und aus.
Im Wesentlichen gebe ich der Fraktion um LZ und Konsorten Recht. Ich finde das Vorgehen auch nicht OK. Aber wo war dann der Aufschrei, als nVidia genauso vorging? Es gab ja nicht wenige, die das Relabelling von 8800GT auf 9800GT verteidigten mit Argumenten wie Hybrid SLI (das einzige Argument, das eine reine BIOS Geschichte und quasi dead on arrival war - wenigstens hat man mit Optimus dazugelernt). Da hats lustigerweise kaum jemanden gestört und wenn, dann war man ja ein böser roter Fanboy :freak:
Ich finde es nicht gut, aber nehme es in Kauf - sowohl bei GTX480 zu GTX580 als auch bei 5770 zu 6870. Mich stört es persönlich zwar nur mäßig (und das tut es euch ja eigentlich auch, denn wer von euch kauft sich eine Karte ohne vorher die Balkenlänge auf CB und PCGH quergecheckt zu haben?), aber ich finde es ungünstig für den Enduser, der keine Ahnung hat und nicht vergleicht.
Auf der anderen Seite: wer nicht vergleicht, ist selbst schuld oder demjenigen ist egal, wofür er sein Geld ausgibt. Nokia hat zigtausende Handys mit den vierstelligen Ziffern auf den Markt gebracht. War 3610 jetzt schlechter als 7110? Oder besser als 8210? Oder war 3510 jetzt schlechter als 3510i? :freak:
Skinner
2010-11-09, 13:30:27
Und da sind sie auch schon: GeForce GTX 580 ab ~440€ (http://geizhals.at/deutschland/?fs=gtx+580)!
Kein Versand. Nur Abholpreis, und Karte nicht lagernd :tongue:
BigKid
2010-11-09, 13:40:28
Alternate 419 Euro und LAGERND ... Gib Geizhals mal Zeit zu aktualisieren ;)
EDIT: Ich werd langsam alt und brauch ne Brille - ich hab mich verguckt !!
LovesuckZ
2010-11-09, 13:45:33
Alternate 419 Euro und LAGERND ... Gib Geizhals mal Zeit zu aktualisieren ;)
Ich seh bei Alternate keine für 419€...
Mayk-Freak
2010-11-09, 13:46:50
ich auch nicht....
BigKid
2010-11-09, 13:47:04
Ich seh bei Alternate keine für 419€...
Sorry für den Herzanfall den ich eventuell verursacht habe !
Ich hab mich verguckt... Da war der Wunsch Vater des Gedanken !
Aber es sind zumindest schonmal GTX580er GELISTET...
BigKid
2010-11-09, 13:49:48
Bin drauf reingefallen, dass bei den Herstellern in der Liste darüber, die GTX580 als ERSTES kommt und bei GB bin ich dann auf die 480er "reingefallen"...
Es gibt die GB GTX580 allerdings mit höherem Preis (479.-) - und im Moment ist sie lieferbar...
http://www.alternate.de/html/shop/productDetails.html?artno=765046&checksum=hBrt5JOq8ZiVbD6sLz3yznSzhYxwTcgvEAeRq%2F9Kh5U%3D&
EDIT: Jetzt ist sie bei allen Herstellern an letzter Stelle gelistet ? WTF ? Ich glaube ich werd wirklich alt...
http://www.alternate.de/html/shop/productDetails.html?artno=765046&checksum=hBrt5JOq8ZiVbD6sLz3yznSzhYxwTcgvEAeRq%2F9Kh5U%3D&
max. Verbrauch ca. 244 Watt (bei Volllast)
:smile:
Eggcake
2010-11-09, 13:59:49
Das ist die TDP, nicht der Verbrauch.
Und da sie gethrottlet wird muss man das auch etwas genauer betrachten.
dargo
2010-11-09, 14:03:44
Und da sind sie auch schon: GeForce GTX 580 ab ~440€ (http://geizhals.at/deutschland/?fs=gtx+580)!
Die Karte wirds definitiv unter 400€ geben nachdem die "Deppenaufschlagszeit" vorbei ist. Ich gebe ihr 3-4 Wochen. Kein schlechter Preis gemessen an der GTX480. Wenn man sich allerdings anschaut was eine GTX470 mittlerweile kostet sind ~400€ für 50% mehr Leistung etwas übertrieben. Naja, ist ja nichts neues, dass das absolute High-End verhältnismäßig teuer ist.
P/L mäßig interessiert mich auch eher die 570 oder 560...
Iruwen
2010-11-09, 14:18:03
aber ich finde es ungünstig für den Enduser, der keine Ahnung hat und nicht vergleicht
Das ist bei 480 => 580 aber wirklich kein Problem oder? Die Karte ist deutlich schneller und gleichzeitig deutlich leiser und sparsamer.
PulsarS
2010-11-09, 14:27:58
Das ist bei 480 => 580 aber wirklich kein Problem oder?
Doch.
Die 5 am Anfang suggeriert eine neue Generation.
Und so viele technische Änderungen sind nicht vorhanden, dass es eine neue Generation rechtfertigen würde.
GTX 485 wäre wohl passender gewesen.
Da ist ja schon die 6 am Anfang bei den 68x0-Karten mehr gerechtfertigt (wobei ich das auch schon kritisiert habe) als die 5 bei der GTX 580.
Aber ich habe euch ja gesagt, dass die Namanswahl in Zukunft bei beiden IHV ein wenig "kreativ" ausfallen wird.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8342622&postcount=374
Und so denke ich, können wir uns das Gerede über die Namen sparen. :freak:
Man muss sich halt informieren und fertig :tongue:
BigKid
2010-11-09, 14:37:23
Das ist bei 480 => 580 aber wirklich kein Problem oder? Die Karte ist deutlich schneller und gleichzeitig deutlich leiser und sparsamer.
Vermutlich giesse ich damit "Öl" ins Feuer aber:
Ich finde auch, dass NV mit der 580er eine Karte abliefert, die schneller und leise ist als die 480er - insofern habe ich damit WENIGER Probleme als mit der letzten Neukreation von AMD, denn die 68X0 ist LANGSAMER als die 58X0.
Aber das ist nicht unbedingt was neues und das gibts nicht nur bei Grafikkarten. Ein Nachfolgeprodukt kann auch einfach nur für den Hersteller billiger zu fertigen sein und (leicht) schlechter als der Vorgänger - das gibts gar nicht SO selten...
EDIT:
Aber mal back on topic ;) ...
Was meint ihr wie lange man auf Versionen mit Custom Cooler und PCB warten muss ? Und meint ihr, das Warten lohnt sich ?
Sind z.B. die Custom Cooler von Zotac, Gigabyte und MSI für die GTX460/480 dem NEUEN Stock Cooler für die GTX 580 eher ÜBER oder UNTERlegen ?
Iruwen
2010-11-09, 14:37:50
Das passte doch eh nicht ins Schema: GTX 480 => GTX 485, GTX 470 => GTX 475, GTX 460 => ups... mal davon ab, was interessiert den Kunden die Generation? Das sagt nur Leuten was deren Entscheidung auf Fakten und nicht auf der Höhe der Zahl im Namen basiert ;)
Slipknot79
2010-11-09, 14:52:29
Die Karte wirds definitiv unter 400€ geben nachdem die "Deppenaufschlagszeit" vorbei ist. Ich gebe ihr 3-4 Wochen. Kein schlechter Preis gemessen an der GTX480. Wenn man sich allerdings anschaut was eine GTX470 mittlerweile kostet sind ~400€ für 50% mehr Leistung etwas übertrieben. Naja, ist ja nichts neues, dass das absolute High-End verhältnismäßig teuer ist.
Wenn die 580 unter 400EUR dropt, dann eher weil AMD neue Chips rausbringt (die auch noch verfügbar sein müssen), sonst halte ich eher 20-40EUR drops für realistischer. :(
Neocroth
2010-11-09, 15:13:17
Das passte doch eh nicht ins Schema: GTX 480 => GTX 485, GTX 470 => GTX 475, GTX 460 => ups...
alles schon mal passiert - siehe 9600GSO G92/G94b
BigKid
2010-11-09, 15:16:54
Wenn die 580 unter 400EUR dropt, dann eher weil AMD neue Chips rausbringt (die auch noch verfügbar sein müssen), sonst halte ich eher 20-40EUR drops für realistischer. :(
Ich denke auch, dass der nächste Drop mit AMD/ATIs neuen Chips kommt - ich glaube dass dabei die tatsächliche Verfügbarkeit vermutlich sogar eine kleinerer Rolle spielt als die Leistungsfähigkeit der neuen AMD Chips... Sind sie stärker dürften die NVidias fallen, sind sie schwächer wird sich vermutlich so schnell nix ändern...
Was machen eigentlich die Preise für die GTX480 und 470 - die müssten innerhalb der nächsten Wochen doch auch unter Druck geraten...
Und zuletzt wiederhol ich nochmal meine Frage:
Was meint ihr wie lange es bis zu Custom Versionen dauert ?
Was meint ihr wie Leistungsfähig der neue GTX580 Stock-Cooler im Vergleich zu den aktuellen 480er CustomCoolern ist ?
Kalmar
2010-11-09, 15:22:51
sollte net um 15.00 des nda fallen oder hab ich da was falsches im kopf ?
tante edit sagte mir ich soll meine brille putzen, es gibt ja schon tests ..
http://www.pcgameshardware.de/aid,798165/Geforce-GTX-580-im-Test-Die-bessere-Geforce-GTX-480/Grafikkarte/Test/
BigKid
2010-11-09, 15:23:16
Ist es doch :-)
http://www.pcgameshardware.de/aid,798165/Geforce-GTX-580-im-Test-Die-bessere-Geforce-GTX-480/Grafikkarte/Test/
AnarchX
2010-11-09, 15:29:55
GTX 580 Reviews: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495338
harzer_knaller
2010-11-09, 16:19:19
Wenn ich das richtig interpretiere, dann hat Nvidia beim GF110 die DP Fähigkeit nicht wirklich entfernt/heruntergeschraubt, oder?
Das würde die (kolportierte) konstante Transistorenzahl erklären...
y33H@
2010-11-09, 16:43:49
Nach wie vor 1/8 der SP, bei den Teslas mehr.
mapel110
2010-11-09, 16:51:35
Die werden GF110 ja auch sicher für Tesla und Quadro nutzen wollen. GF100 parallel zu fertigen wäre wohl zu unwirtschaftlich gewesen.
AnarchX
2010-11-09, 17:21:17
Die GTX 570 sollte wohl diesmal näher an der GTX 580 liegen, als noch 470 an 480.
Mit nur 81% GPU- und 75% Speicher-Leistung wäre man wohl im Bereich der 850MHz GTX 460 und der zukünftigen 384SPs GTX 560.
Fetza
2010-11-09, 17:28:04
Die GTX 570 sollte wohl diesmal näher an der GTX 580 liegen, als noch 470 an 480.
Mit nur 81% GPU- und 75% Speicher-Leistung wäre man wohl im Bereich der 850MHz GTX 460 und der zukünftigen 384SPs GTX 560.
Eine normale gtx 470 ist doch schon so schnell wie eine gtx 460@800. Da muss die gtx 570 schon mehr bieten.
YfOrU
2010-11-09, 17:30:03
Wenn ich das richtig interpretiere, dann hat Nvidia beim GF110 die DP Fähigkeit nicht wirklich entfernt/heruntergeschraubt, oder?
Das würde die (kolportierte) konstante Transistorenzahl erklären...
So wie es aussieht ist GF110 mehr ein umfangreiches und überarbeitetes Stepping als ein komplettes Redesign. An sich auch logisch denn den GF100 separat für Tesla/Quadro neu aufzulegen wäre wohl nicht gerade wirtschaftlich.
LovesuckZ
2010-11-09, 17:39:32
So wie es aussieht ist GF110 mehr ein umfangreiches und überarbeitetes Stepping als ein komplettes Redesign. An sich auch logisch denn den GF100 separat für Tesla/Quadro neu aufzulegen wäre wohl nicht gerade wirtschaftlich.
Was heißt "Redesign"? Laut nVidia hat man den Chip komplett umgekrempelt und bei gleicher Transistorenanzahl eben ein besseres Ergebnis erreicht. Man sollte sich davon lösen, nur weil man etwas an der Oberfläche nicht unterscheiden kann, heißt es nicht, dass es unter der Oberfläche gleich aussehen muss.
YfOrU
2010-11-09, 17:51:05
Was heißt "Redesign"? Laut nVidia hat man den Chip komplett umgekrempelt und bei gleicher Transistorenanzahl eben ein besseres Ergebnis erreicht. Man sollte sich davon lösen, nur weil man etwas an der Oberfläche nicht unterscheiden kann, heißt es nicht, dass es unter der Oberfläche gleich aussehen muss.
Sagt das Marketing. Die Änderungen liegen aber eher im Bereich dessen was umfangreichere CPU Steppings mit sich bringen.
Also Leckströme beseitigen, Latenzen zwischen Einheiten reduzieren, Bug Fixing und minimale Änderungen am Funktionsumfang. Nach komplett umkrempeln sieht das für mich nicht aus. Ich mein das nicht negativ, es ist eine vernünftige Lösung. Manche haben halt mehr erwartet.
Ist es mit Sicherheit auch nicht. GF110 sieht für mich exakt nach GF100 B1 aus.
Vermutlich wollten sie die entsprechenden Assoziationen vermeiden.
AnarchX
2010-11-09, 18:02:23
Nachdem dies bei den letzten Chips schon praktisch als gesetzter Standard unterstellt werden konnte, überraschte uns die Information dann doch, dass GF110 kein HDA-Bitstreaming beherrscht.
Als Begründung hierfür erklärte NVIDIA uns gegenüber, dass man derartige Umstrukturierungen im Vergleich zum GF100 im Hinblick auf die kurze Zeitspanne vermeiden wollte.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index2.php
Für FP16-TMUs war schon mehr vorbereitet.
Für ein B oder C-Stepping sind die Änderungen aber zu groß, das waren nur optische Shrinks oder Respins.
Insofern passt GF110, da es sich ähnlich wie bei G70 zu G71 verhält.
Die Chinesen spekulieren schon über eine andere große 40nm GPU von Nvidia. Vielleicht gibt es 2011 noch einen 40nm GF120.
Kann GF110 eigentlich Half-Rate-DP wie GF100?
Für ein B oder C-Stepping sind die Änderungen aber zu groß, das waren nur optische Shrinks oder Respins.
Definitionssache. Das ist aber auch wirklich unwichtig. Jedenfalls wurde der Chip minimal überarbeitet und optimiert.
y33H@
2010-11-09, 18:26:13
Kann GF110 eigentlich Half-Rate-DP wie GF100?Können ja, bei GTX 580 aber halt auf 1/8 gelockt.
Dural
2010-11-09, 18:26:53
Ist es mit Sicherheit auch nicht. GF110 sieht für mich exakt nach GF100 B1 aus.
Vermutlich wollten sie die entsprechenden Assoziationen vermeiden.
Kann GF110 eigentlich Half-Rate-DP wie GF100?
laut deiner vermutung dürfte die antwort ja klar sein... meinst du nicht auch? ;)
Ich wollt nur sichergehen :)
LovesuckZ
2010-11-09, 18:34:05
Es ist alles enthalten, was es auch bei GF100 gab: ECC und Half-Rate DP.
Dazu gekommen sind die verbesserten ROPs bzw. Pixelleistungseigenschaften von GF104, verbessertes Z-Culling und die Möglichkeit den L1 Cache nun in 16/48 bzw. 48/16 zu partitionieren.
daywalker4536
2010-11-09, 18:34:40
Jetzt muss die Karte nur noch billiger werden und sie ist das perfekte Upgrade in die Welt von DX11 und ein voller Erfolg ^^. Das würde den Absatz ungemein steigern. Ich hoffe du liest das NVIDIA :). Für 380 Euro kauf ich sofort zwei hehe.
Was heißt "Redesign"? Laut nVidia hat man den Chip komplett umgekrempelt und bei gleicher Transistorenanzahl eben ein besseres Ergebnis erreicht. Man sollte sich davon lösen, nur weil man etwas an der Oberfläche nicht unterscheiden kann, heißt es nicht, dass es unter der Oberfläche gleich aussehen muss.Laut Nvidia sind auch diverse GPUs eine komplett neue Architektur. Schon das fehlende Bitstream-Feature zeigt, dass der GF110 nur Bugfixing bietet sowie einige minimale Verbesserungen bzw. Fehlerbehebhungen die beim GF100 bestimmte Dinge verhinderten.
Dural
2010-11-09, 18:39:15
Die Chinesen spekulieren schon über eine andere große 40nm GPU von Nvidia. Vielleicht gibt es 2011 noch einen 40nm GF120.
NV wäre wirklich verrückt jetzt noch einen schnelleren chip aufzulegen.
aber man soll ja nie sagen ;) aber ich sehe keine wirklich rentable möglichkeit für NV da noch was zu bringen.
ich frag mich aber immer noch wie so es NV auch mit dem GF110 nicht geschaft hat an das GF104 Leistung/Watt verhältnis zu kommen, was um alles in der welt benötigt am GF110 so viel strom.
OK man muss fairerweise sagen das die GTX580 satte 100MHz mehr hat, bei gleichem Takt dürften die Chips doch recht nahe zusammen liegen...
daywalker4536
2010-11-09, 18:42:20
Hoffen wir das NVIDIA ordentlich DX11 Karten unter die Leute bringt ^^. Für alle GRAFIKFETISCHISTEN.
R.I.P.
2010-11-09, 18:44:13
Kennt jemand einen genauen Termin für GTX 560 und 570, oder zumindest ob es vor oder dem 6970 Launch am 22/11 sein wird?
Danke
Hugo78
2010-11-09, 18:49:47
Die Chinesen spekulieren schon über eine andere große 40nm GPU von Nvidia. Vielleicht gibt es 2011 noch einen 40nm GF120.
Jen Hsun meinte ja auf der GTC, dass nicht mehr die Zahl der verbauten Transitoren das Limit wäre, sondern allein die Leistungsaufnahme.
@R.I.P
Die Spekulation hierzu ist, dass wohl erst noch der Abverkauf der 470er beendet wird, ehe man eine 570 bringt.
Klingt für mich wie "irgendwann nach Xmas".
Aber wer weiß, die 580 kam ja auch relativ überraschend.
deekey777
2010-11-09, 18:59:02
Was ist aus den Spekulationen geworden, nach denen GF110 deutlich kleiner werden sollte?
LovesuckZ
2010-11-09, 19:08:37
Was ist aus den Spekulationen geworden, nach denen GF110 deutlich kleiner werden sollte?
Waren falsch.
AnarchX
2010-11-09, 19:28:24
Jen Hsun meinte ja auf der GTC, dass nicht mehr die Zahl der verbauten Transitoren das Limit wäre, sondern allein die Leistungsaufnahme.
Bei TSMC gibt es schon ein Limit bei der Belichtungsgröße, die wohl bei ~600mm² liegen soll.
Was ist aus den Spekulationen geworden, nach denen GF110 deutlich kleiner werden sollte?
Bisher ist die Die-Size ja noch unbekannt, mit Cypress-Packdichte würde man ja auf ~470mm² kommen.
Oder auch nicht?
NVIDIA told us that the GF110 has roughly 3.05 Billion transistors and that the GF100 has 3.01 Billion transistors and the overall die size remains the same.
http://www.legitreviews.com/article/1461/1/
In terms of physical attributes it’s very close to GF100; the transistor count remains at 3 billion (with NVIDIA undoubtedly taking advantage of the low precision of that number), while the die size is at 520mm2. NVIDIA never did give us the die size for GF100, but commonly accepted values put it at around 530mm2, meaning GF110 is a hair smaller.
http://www.anandtech.com/print/4008
5,86 Mio.T./mm² für GF110 VS 5,68 Mio.T./mm² für GF100
Da ist Ailuros' 430mm² Chip entweder GF112 oder eben Cayman.
MadManniMan
2010-11-09, 19:28:37
Kennt jemand einen genauen Termin für GTX 560 und 570, oder zumindest ob es vor oder dem 6970 Launch am 22/11 sein wird?
Diese Frage werfe ich auch ständig in die Runde, bekomme aber ob der simplen Tatsache keine befriedigende Antwort darauf, weil es schlichtweg kein Redewilliger weiß und Wissende nicht reden wollen ;(
Aber mal im Ernst: welchen Druck hat Nvidia im Moment, diese Karten zeitnah zu bringen? Die 460 GTX läuft wunderbar und die GF100-basierenden Karten wollen auch erst abverkauft werden. Natürlich gibt es da noch das drohende Weihnachtsgeschäft, aber wenn wir vorher neue GF11X-Karten sehen werden, dann gewiss so knapp vor Weihnachten, dass man gleich wieder bis zum Frühjahr warten müsste, um wirklich günstig anschaffen zu können.
Und Du weißt ja: warten kann man immer ;)
Und jetzt straft mich Lügen! BITTE!
crux2005
2010-11-09, 19:35:07
Bisher ist die Die-Size ja noch unbekannt, mit Cypress-Packdichte würde man ja auf ~470mm² kommen.
Weinand sagte 520mm^2
Slipknot79
2010-11-09, 19:40:10
Bei DP muss ich jedes Mal an Double Penetration denken, also SLI :redface:
Dural
2010-11-09, 19:44:23
es gibt keine offiziele angabe zum Die-Size, weder beim GF100 noch beim GF110
selber nachmessen! ;)
AnarchX
2010-11-09, 19:49:58
es gibt keine offiziele angabe zum Die-Size, weder beim GF100 noch beim GF110
Die 520mm² für GF110 wurden mehreren Leuten auf dem Editors Day genannt.
Fetter Fettsack
2010-11-09, 21:34:12
Zitat von LovesuckZ
Man sollte sich davon lösen, nur weil man etwas an der Oberfläche nicht unterscheiden kann, heißt es nicht, dass es unter der Oberfläche gleich aussehen muss.
Nicht, dass mir das übermäßig wichtig wäre, aber verkneifen kann ich es mir dennoch nicht:
Barts ;D
@Topic
Hat der GF104 eigentlich schon die Optimierungen des GF110 dabei, hat er die nur teilweise oder gar nicht?
davidzo
2010-11-09, 21:35:59
Hat der GF104 eigentlich schon die Optimierungen des GF110 dabei, hat er die nur teilweise oder gar nicht?
Du meinst mehr tmus pro sm? ja hat er... teilweise
was die treiberverbesserungen angeht, so wird man sehen ob er diese auch bekommt oder ob man sich das lieber für die 560 (full gf104) aufspart...
Fetza
2010-11-09, 21:42:02
Bei DP muss ich jedes Mal an Double Penetration denken, also SLI :redface:
Lustmolch! :D
tombman
2010-11-09, 22:11:51
da würde ich mal überlegen was eine TechDemo genau ist...
Die "Metrosexuellen" kapieren das nicht- Hauptsache es sieht schön aus, Technik irrelevant ;)
Und dann sagen sie noch "sorry", als ob ich die demo geschaffen hätte und sie MEINE Gefühle schonen müßten, lol.
Ist mir doch scheißegal wie ihr "endless city" findet. Ich hab das Teil nicht programmiert, sondern wollte den AMDlern nur eine Möglichkeit geben, das Teil anständig ansehen zu können- deshalb auch der große Zeitanteil im Wireframe-Modus :)
@GTX580 aus meiner Sicht:
Positiv: 15% schneller, etwas kühler
Negativ: Powerlock (no), schlechtes OC, mind. 500€ Aufpreis für den Umstieg (3x 480 ebay, 3x 580 neu)
Fazit: NEEEEXT (also nein)
:cool:
Fetza
2010-11-09, 22:27:11
Die "Metrosexuellen" kapieren das nicht- Hauptsache es sieht schön aus, Technik irrelevant ;)
Eine techdemo muss auch schön aussehen, sonst würde sie keiner ansehen und damit würde sie nicht das produkt promoten, dazu wird sie aber letztlich gemacht. Denn experten können das schon anhand von specs und dokumentationen herauslesen. Für dieese wird daher sowas nicht gemacht.
tombman
2010-11-09, 22:31:12
Eine techdemo muss auch schön aussehen, sonst würde sie keiner ansehen und damit würde sie nicht das produkt promoten, dazu wird sie aber letztlich gemacht. Denn experten können das schon anhand von specs und dokumentationen herauslesen. Für dieese wird daher sowas nicht gemacht.
Jeder darf ne Meinung haben...ich hab ne andere. Techdemos müssen nicht schön sein, nur die Technik begreifbar machen.
Fetza
2010-11-09, 22:38:12
Jeder darf ne Meinung haben...ich hab ne andere. Techdemos müssen nicht schön sein, nur die Technik begreifbar machen.
Natürlich, ich wollte damit ja nur den wirtschaftlichen aspekt einbringen.
@GTX580 aus meiner Sicht:
Positiv: 15% schneller, etwas kühler
Negativ: Powerlock (no), schlechtes OC, mind. 500€ Aufpreis für den Umstieg (3x 480 ebay, 3x 580 neu)
Fazit: NEEEEXT (also nein)
:cool:
Dafür kann ich jetzt wohl die Notlösung 5970 ausmustern und endlich wieder was gescheites kaufen. :tongue: Ne, bis auf fehlendes PhysX war die ATI wirklich ok. Aber ohne PhysX macht Batman und Metro 2033 kein Spaß.
airbag
2010-11-09, 22:48:15
Naja AMD Karten kann man ja mit kleineren Nvdias kombienieren und so dann PhysX nutzen. Zumal Metro 2033 mit physX auch gut auf der CPU laufen soll.
tombman
2010-11-09, 22:49:51
Dafür kann ich jetzt wohl die Notlösung 5970 ausmustern und endlich wieder was gescheites kaufen. :tongue: Ne, bis auf fehlendes PhysX war die ATI wirklich ok. Aber ohne PhysX macht Batman und Metro 2033 kein Spaß.
Jo, Neukäufer oder AMD-Flüchtlinge können natürlich gerne zur GTX580 greifen ;)
Phys-X, HQAF, Profilverwaltung, Dev-Beziehungen usw sprechen eh alle für Nvidia- du wirst die Karte sicher lieben :)
Fetza
2010-11-09, 22:52:55
Dafür kann ich jetzt wohl die Notlösung 5970 ausmustern und endlich wieder was gescheites kaufen. :tongue: Ne, bis auf fehlendes PhysX war die ATI wirklich ok. Aber ohne PhysX macht Batman und Metro 2033 kein Spaß.
Dann nimm aber lieber gleich 2, der compute shader in metro haut eine einzelne karte locker um.
Slipknot79
2010-11-09, 22:56:54
Die "Metrosexuellen" kapieren das nicht- Hauptsache es sieht schön aus, Technik irrelevant ;)
Und dann sagen sie noch "sorry", als ob ich die demo geschaffen hätte und sie MEINE Gefühle schonen müßten, lol.
Ist mir doch scheißegal wie ihr "endless city" findet. Ich hab das Teil nicht programmiert, sondern wollte den AMDlern nur eine Möglichkeit geben, das Teil anständig ansehen zu können- deshalb auch der große Zeitanteil im Wireframe-Modus :)
@GTX580 aus meiner Sicht:
Positiv: 15% schneller, etwas kühler
Negativ: Powerlock (no), schlechtes OC, mind. 500€ Aufpreis für den Umstieg (3x 480 ebay, 3x 580 neu)
Fazit: NEEEEXT (also nein)
:cool:
Ich seh dich schon beim Ditech stehen :redface:
Superheld
2010-11-09, 22:58:34
für 3DMark Vantage lohnt sichs doch...
tombman
2010-11-09, 23:00:58
Ich seh dich schon beim Ditech stehen :redface:
NIEMALS :redface:
Fetter Fettsack
2010-11-09, 23:11:38
Ich seh dich schon beim Ditech stehen
NIEMALS
Er kauft nämlich bei e-tec. ;D
Spasstiger
2010-11-09, 23:14:03
Die GTX 580 wirds bestimmt auch noch ohne Leistungsdrossel geben. Einfach mal die Herstellervarianten abwarten. Außerdem erscheint mir auf Basis des GF110 eine GTX 595 nicht mehr ganz so unrealistisch wie eine GTX 495 auf Basis des GF100. ;)
Blaire
2010-11-09, 23:20:03
@GTX580 aus meiner Sicht:
Positiv: 15% schneller, etwas kühler
Negativ: Powerlock (no), schlechtes OC, mind. 500€ Aufpreis für den Umstieg (3x 480 ebay, 3x 580 neu)
Fazit: NEEEEXT (also nein)
:cool:
Seh ich genauso, so schön das alles ist, aber die Aufrüstung lohnt nicht, da hätte es schon mehr Feuer geben müssen. Ich bleib beim Original, man muss ja auch für den Winter vorsorgen, die Heizkosten sind nicht zu unterschätzen. ;D
Spasstiger
2010-11-09, 23:21:12
Seh ich genauso, so schön das alles ist, aber die Aufrüstung lohnt nicht, da hätte es schon mehr Feuer geben müssen. Ich bleib beim Original, man muss ja auch für den Winter vorsorgen, die Heizkosten sind nicht zu unterschätzen. ;D
Immer noch sinnvoller, als ein elektrischer Heizlüfter. ;)
airbag
2010-11-09, 23:28:53
NIEMALS :redface:
Ganz klar du wartest auf eine Mars 2 mit Werks OC @900Mhz und 3GB VRAM für Quad SLI .:uup:
Fetza
2010-11-09, 23:29:42
Ganz klar du wartest auf eine Mars 2 mit Werks OC @900Mhz und 3GB VRAM für Quad SLI .:uup:
Ähm, du meinst wohl quad crossfire?^^
airbag
2010-11-09, 23:32:33
Nöö Mars = Nvidia
Ares = AMD
tombman
2010-11-10, 00:12:44
Warten tu ich eh eher auf Anwendungen- mit 200fps durch Konsolenports rushen ist nicht so das Wahre :)
Fetza
2010-11-10, 00:18:06
Nöö Mars = Nvidia
Ares = AMD
Uups, tschuldigung. :)
tombman
2010-11-10, 00:32:16
Erstmal schauen, was das Krokodil macht ;) Und dann auf GTX595 @ Quad SLI warten :D
Dann nimm aber lieber gleich 2, der compute shader in metro haut eine einzelne karte locker um.
Als SLI-Nutzer seit der 7800GTX kannst Du darauf einen lassen, daß es nicht bei einer bleibt. Die 5970 kam ja nur als Notlösung, weil eine GTX 280 kaputt ging, eine neue zu teuer bzw. nicht erhältlich war, und ich noch auf Fermi gehen wollte. Aber die 480er hat mich nicht so überzeugt.
Schade, daß man kein UD9-Board von Gigabyte mehr bekommt. :frown:
=Floi=
2010-11-10, 01:03:49
sicher gibt es das UD9 noch:
http://geizhals.at/deutschland/a533195.html
ist einfach viel zu teuer für das gebotene.
tombman
2010-11-10, 01:07:24
Ich kann das EVGA 4-SLI empfehlen- voll fernsteuerbar ;)
http://geizhals.at/eu/a489586.html
Nighthawk13
2010-11-10, 15:22:09
http://www.fudzilla.net/graphics/item/20814-geforce-gtx-570-comes-soon
Kurzfassung: Noch dieses Jahr, 480 Cores.
Spasstiger
2010-11-10, 17:36:22
Ich denke mal, dass sich die GTX 570 zur GTX 480 wie die GTX 275 zur GTX 480 280 verhalten wird. In etwa gleiche Rechenpower (oder gar etwas mehr), aber Abstriche bei der Infrastruktur (Speicherbandbreite, Speichergröße, ROPs).
dildo4u
2010-11-10, 17:40:53
Hoffentlich wird nicht der GTX 470 Kühler genutzt für die Karte,mit der Vapor Chamber dürfte die Karte selbst unter Last ziehmlich leise werden ich tippe auf 190TDP.
Fetza
2010-11-10, 17:43:20
Ich denke mal, dass sich die GTX 570 zur GTX 480 wie die GTX 275 zur GTX 480 verhalten wird. In etwa gleiche Rechenpower (oder gar etwas mehr), aber Abstriche bei der Infrastruktur (Speicherbandbreite, Speichergröße, ROPs).
Du meinst bestimmt gtx 280, oder? :)
cekpu
2010-11-15, 10:12:35
"Disable GeForce GTX 580 Power Throttling using GPU-Z"
fur tombman und co :)
http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Power-Throttling-using-GPU-Z.html?cp=2
mapel110
2010-11-15, 18:43:54
http://www.semiaccurate.com/2010/11/15/nvidia-eols-gtx480/
480 EOL :ugly:
460 expensive, and selling at loss :ugly:
560 is coming :ugly:
Charlie mal wieder am Saugen seiner Finger.
y33H@
2010-11-15, 18:51:29
GTX 480 EOL und dafür GTX 570 - das zumindest passt.
Dural
2010-11-15, 18:52:26
da ist aber charlie schnell, die GTX480 ging schon am 9.11 offiziell EOL ;)
AwesomeSauce
2010-11-15, 19:19:51
That isn't a bad deal though, the new card is faster, marginally less power hungry, and costs Nvidia many times less to make.
:confused: Der Chip ist genauso gross wie GF100. Die Kühlung dürfte wohl kaum günstiger sein, und auch am PCB hat sich nicht viel getan.
Nighthawk13
2010-11-15, 19:27:41
:confused: Der Chip ist genauso gross wie GF100. Die Kühlung dürfte wohl kaum günstiger sein, und auch am PCB hat sich nicht viel getan.
GF110 Yields für 480SP sollten generell besser sein als bei GF100.
AwesomeSauce
2010-11-15, 19:35:42
Ich nehme wohl "many times" zu wörtlich.:usad:
Hugo78
2010-11-15, 19:41:28
http://www.semiaccurate.com/2010/11/15/nvidia-eols-gtx480/
480 EOL :ugly:
460 expensive, and selling at loss :ugly:
560 is coming :ugly:
Charlie mal wieder am Saugen seiner Finger.
Oh ja ...
Wow das die 480 EOL ist hat sogar schon CB berichtet. ;D
Das die 460 nicht grade sehr hohe Margen bringt sieh auch ein Blinder DAU, aber dafür Marktanteile und das zählt auch.
Und das wir bald auch mit den restlichen Ablegern der 500er Reihe rechen dürfen, hat ja schon Jen-Hsun Huang himself erzählt. :D
Aber was schreibt er da, Intel und NV haben sich aussergerichtlich geeinigt, und NV bekommt 1 Mrd. USD von Intel?
Da wird das nächste Quartalsergebniss na ja extra rosig ... vorausgesetzt es ist nicht nur wieder ein Hirngespinst.
http://www.semiaccurate.com/2010/11/12/intel-said-settle-nvidia/
Die 460 macht aber Verluste und wenn man die Entwicklungskosten der ganzen Fermi Serie sieht, dann ist NV in einer schlimmen Situation.
mapel110
2010-11-15, 19:45:44
Die 460 macht aber Verluste und wenn man die Entwicklungskosten der ganzen Fermi Serie sieht, dann ist NV in einer schlimmen Situation.
Ja, haben die aktuellen Quartalszahlen ja auch gezeigt, wie schlimm die Situation ist...
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495527
Hugo78
2010-11-15, 19:46:35
So schlimm das sie dieses Jahr in 2 von 3 Quartalen, Gewinn erwirtschaftet haben.
Wenns danach geht müsste ich schon längst insolvent sein. :D
Mancko
2010-11-15, 22:09:57
Ja, haben die aktuellen Quartalszahlen ja auch gezeigt, wie schlimm die Situation ist...
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495527
Jo die Situation ist extrem schlimm. Nvidia hat in einem Quartal mehr Gewinn gemacht als AMD im ganzen Jahr mit der GPU Sparte. Nvidia muss es echt dreckig gehen lol :)
Manchmal frag ich mich was einige wie V2 hier geraucht haben.
Btw: Hier mein Tip bzgl. der Rechtsstreitigkeiten zwischen Intel und Nvidia:
Offiziell wird man davon was im Dezember oder Januar hören und hier mein Tip zum Ergebnis:
1) Intel zahlt 1 Mrd Dollar an Nvidia
oder
2) Intel macht einen Deal mit Nvidia und stellt dafür Produktionskapazitäten zur Verfügung
3) Intel zahlt pro GPU eine Art Royalty/Lizenz an Nvidia.
Nachdem der JHH Sandy Bridge im letzten Conference Call letzte Woche extrem gelobt und gehyped hat, gehe ich davon aus, dass sie eine gute Einigung mit Intel erzielt haben. Sonst würde der für Intel da nicht so positive PR treiben.
LovesuckZ
2010-11-16, 08:28:38
http://www.semiaccurate.com/2010/11/15/nvidia-eols-gtx480/
480 EOL :ugly:
460 expensive, and selling at loss :ugly:
560 is coming :ugly:
Charlie mal wieder am Saugen seiner Finger.
Also irgendwie wird's immer schlimmer: 1 und 3 ist alt und 2 wiederholt er doch fast schon stündlich - vorallem in seiner Trollhöhle aka Forum.
Da hat wohl jemand seine Insider-Soße innerhalb nVidias erschossen. :freak:
tombman
2010-11-16, 08:42:14
Tjo, irgendwie hatte Fudo doch recht - "unmanufacturable"
Nvidia dachte sich einfach "trollface- problem?" und läßt bei allem was über 300Watt geht einfach den Limiter anspringen :ulol:
Und damit kommen sie auch nur durch bei der Masse, weil "normale games" ja eh nie so hoch kommen :rolleyes:
Ich würde als 580er Besitzer echte games solange testen, bis ich nachweisen könnte, daß der Limiter auch dort anspringt- oder bei Cuda Programmen :devil:
DeadMeat
2010-11-16, 09:16:20
Aber ansich ein guter Lösungspunkt mit der Drossel, einfach mal übers Limit produzieren und dann begrenzen, sehr Kreativ die Baugröße auszunutzen.
Dural
2010-11-16, 10:16:41
AMD lässt schon seit der 4000 serie per software in Furmark trosseln, NV war wenigstens so schlau und macht das in "Hardware"
Charlie hat immer Recht.
ja bestimmt, sieht man ja immer wider ;D
paperlaunche GTX580
10.000 Stück GF100 danach ist fertig
usw.
charlie sollte mal lotto spielen, da hätte er vieleicht mehr glück lol
LovesuckZ
2010-11-16, 16:10:34
hmm stimmt hab ich völlig vergessen, wie so wird den bei der 580er so ein theater gemacht?
Weil es nVidia ist. Es regen sich die Leute auch über den Codenamen auf - wohingegen "Barts" vollkommen in Ordung ist. :freak:
Schnitzl
2010-11-16, 18:18:57
http://www.pcgameshardware.de/aid,798626/Nvidia-Geforce-GTX-570-Nachfolger-der-GTX-470-ist-auf-dem-Weg-Update/Grafikkarte/News/
Hm, schade, ne TDP unter 200W wäre schön gewesen... mal sehn was aus der 560 wird...
Fetza
2010-11-17, 12:49:38
Ob die gtx 570 wohl auch so einen begrenzer verbaut bekommen?
AnarchX
2010-11-17, 13:35:51
http://i52.tinypic.com/2ic0a50.jpg
投放市場 12/8/2010
參數 690/1380/3800 MHz
http://bbs.expreview.com/thread-37829-1-1.html
LovesuckZ
2010-11-17, 13:39:21
http://bbs.expreview.com/thread-37829-1-1.html
Ist das Bild gestaucht? Sieht kürzer aus als eine GTX480/GTX580...
Dural
2010-11-17, 13:41:34
http://bbs.expreview.com/thread-37829-1-1.html
da haben wir wirklich fast die roh power der GTX480 minus ROP und etwas Speicher
Ist die Anzahl der SPs denn bekannt bei der GTX 570?
LovesuckZ
2010-11-17, 13:48:05
Nein, auch nicht die Speicherbestückung und somit die Interfacebreite.
AnarchX
2010-11-17, 13:54:23
Bei den Taktraten kann man wohl 480SPs und 320-Bit annehmen, um einen angemessen Abstand zu GTX 580 zu halten.
Slipknot79
2010-11-17, 14:02:43
Ist das Bild gestaucht? Sieht kürzer aus als eine GTX480/GTX580...
Zumindest der Lüfter sieht nicht nach Ellipse aus oO
BigKid
2010-11-17, 14:05:27
Ist die Anzahl der SPs denn bekannt bei der GTX 570?
http://www.pcgameshardware.de/aid,798626/Nvidia-Geforce-GTX-570-Nachfolger-der-GTX-470-ist-auf-dem-Weg-Update/Grafikkarte/News/
- basiert auf der neuen GF110-GPU
- TDP soll sich auf Höhe der Geforce GTX 470 bewegen, also um 215 Watt.
- Laut Boardpartnern noch im Dezember 2010
Quelle: vr-zone.com
Man geht davon aus, dass die GTX 570 über 480 Shader verfügt - das ist die gleiche Anzahl wie bei der GTX 480.
Quelle: fudzilla.com
Nix gesichertes aktuell...
Slipknot79
2010-11-17, 14:11:28
http://www.abload.de/img/gtx1j6ll.jpg
=Floi=
2010-11-17, 14:14:15
was ist denn das für eine kranke scheiße? da ist es ja klar, dass keine im handel sind. ^^
edit
73 karten, wenn ich richtig gezählt habe. :eek:
BigKid
2010-11-17, 14:18:42
was ist denn das für eine kranke scheiße? da ist es ja klar, dass keine im handel sind. ^^
edit
73 karten, wenn ich richtig gezählt habe. :eek:
http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=gtx580&v=l&plz=&dist=&pixonoff=on&xf=
Hm ? Man darf nicht wählerisch sein, aber geben tuts doch immernoch welche ?
BigKid
2010-11-17, 14:23:02
Aber mal eine vermessene Frage:
Nachdem der GTX580 ja offiziell raus ist - wäre es nicht an der Zeit für einen Split/Restart des Threads für den GTX570 und 560 ?
Auch den1. Post könnte man auf vielleicht auf den 570 und 560 umstellen ?
"Reboots" sind ja grade furchtbar in...
Batman, Spiderman, Hulk - alle schon (mehrfach) rebootet ;)
Wer weiss - vielleicht demnächst ein "Harry Potter - the (new) beginning" reboot...
Also warum kein GTX5xx Spekulationsthread reboot ;)
Slipknot79
2010-11-17, 16:40:34
Habe mal ein oc-BIOS für die 580GTX angehängt, zu benutzen ist nvflash 5.100.0.01.
865MHz, 2100Mhz auf VRAM und 1.082V, ROM File stammt von Mvktech. Wenn OC so for free ist, dann überlege ich es mir doch die Karte zu ocen, war ursprünglich nicht geplant :redface: Limiter muss immer noch per GPU-Z abgeschaltet werden.
Angeblich werden manche Karten mit 1.038V (meine Gigabyte) und manche mit 1.082V ausgeliefert oO
Furmark, Stock Takt und Limiter bei mir: 420W (Gesamtsystem)
Furmark, Stock Takt und ohne Limiter: 560W
Furmark mit dem EVGA BIOS und ohne Limiter: 640W :freak:
Dural
2010-11-17, 16:50:26
480SP und 320Bit
BigKid
2010-11-17, 18:57:01
480SP und 320Bit
Manchmal fühle ich mich so ignoriert ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8394705#post8394705
Fetza
2010-11-18, 00:19:14
http://bbs.expreview.com/thread-37829-1-1.html
Ist der 8.12.2010 das mutmaßliche release date?
puntarenas
2010-11-18, 09:40:34
Ich habe die Beiträge zur Hardwarebegrenzung der maximalen Leistungsaufnahme bei GTX580-Karten in den entsprechenden Diskussionsthread verschoben:
GTX580 - Hardwarebegrenzung der maximalen Leistungsaufnahme (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495963)
AnarchX
2010-11-19, 14:25:00
Nvidia's dual chip card waits for Antilles : http://www.fudzilla.com/graphics/item/20924-nvidias-dual-chip-card-waits-for-antilles
Bei Expreview gibt es schon Bilder der Karte: 384-Bit je GPU, Triple-DVI.
http://img338.imageshack.us/img338/8527/1681511.jpg
http://www.enet.com.cn/article/2010/1119/A20101119777146.shtml
Wie man am PCB sieht, ein Design von Nvidia.
LovesuckZ
2010-11-19, 14:25:42
Bei Expreview gibt es schon Bilder der Karte: 320-Bit je GPU, Triple-DVI.
Link? Danke.
Nettes Design, 375 Watt. Mal sehen, ob sie sowas wirklich veröffentlichen.
AnarchX
2010-11-19, 14:42:07
Korrektur:
Bei 6 Chips pro Seite sind entweder 192-Bit (eher unwahrscheinlich) oder 384-Bit.
Da wird man wohl 2x 1,5GiB verbauen. Mit Vollwasserkühler vielleicht eine alternative zu zwei GTX 580. :D
Hugo78
2010-11-19, 15:06:20
Mal schauen wo der Takt am ende landet.
Sind um die 600Mhz Chiptakt realistisch oder eher zu optimistisch?
Bucklew
2010-11-19, 15:23:52
Die 480X2 (Bild im Link von Anarch) ist ja mal ein Monster :eek:
Cpl. Dwayne Hicks
2010-11-19, 15:49:18
Haha, war ja klar, nVidia wuerde ja auch niemals die Performance Krone an AMD abgeben... ;D
Dural
2010-11-19, 15:54:05
sehr cool das teil, die strom stecker sind aber auch ready für 6-Pin
Fetza
2010-11-19, 15:55:19
Haha, war ja klar, nVidia wuerde ja auch niemals die Performance Krone an AMD abgeben... ;D
Das hatten sie doch schon, bis zum launch der gtx 580 war der dual-cypress die schnellste karte.
tombman
2010-11-19, 16:02:52
Nvidia's dual chip card waits for Antilles : http://www.fudzilla.com/graphics/item/20924-nvidias-dual-chip-card-waits-for-antilles
Bei Expreview gibt es schon Bilder der Karte: 384-Bit je GPU, Triple-DVI.
http://img338.imageshack.us/img338/8527/1681511.jpg
http://www.enet.com.cn/article/2010/1119/A20101119777146.shtml
Wie man am PCB sieht, ein Design von Nvidia.
Wenn die voll ausgebaut sind (512 shader pro GPU) -> :massa:
Ich hab ja auch vor GTX295 QUAD SLI nicht zurückgeschreckt, also... :naughty:
Wie Anarch sagte: 2 Stück davon im Vollflächenwasserkühler = ownage ;)
LovesuckZ
2010-11-19, 16:03:44
Die wird nicht voll ausgebaut werden.
Dann doch liebers 4xGTX580. :lol:
tombman
2010-11-19, 16:10:46
Die wird nicht voll ausgebaut werden.
Dann doch liebers 4xGTX580. :lol:
Dann hätte es nicht viel Sinn für einen 3x 480 user... nur 4x 512 shader würde was bringen...
Slipknot79
2010-11-19, 16:27:05
Wenn die voll ausgebaut sind (512 shader pro GPU) -> :massa:
Ich hab ja auch vor GTX295 QUAD SLI nicht zurückgeschreckt, also... :naughty:
Wie Anarch sagte: 2 Stück davon im Vollflächenwasserkühler = ownage ;)
Ich glaube eher, die Teile dienen nur nem kalten Krieg zwischen AMD und NV :redface:
tombman
2010-11-19, 17:23:48
Ich glaube eher, die Teile dienen nur nem kalten Krieg zwischen AMD und NV :redface:
Nun ja, "fuck yeah"- Produkte herrschen eben :)
Haters gonna hate :D
Nighthawk13
2010-11-19, 18:25:22
Wie lang würde das GTX590er PCB sein? Länger als ne GTX295?
Spasstiger
2010-11-19, 18:57:37
Wie lang würde das GTX590er PCB sein? Länger als ne GTX295?
Sieht nach Standardlänge für die High-End-Karten von Nvidia aus, also 27,x cm. Definitiv kürzer als die HD 5970.
Heizlüfter mit Grafikfunktion - cool.
Die beiden Chips können nie im Leben an GTX-580-SLI herankommen, das ist innerhalb einer festgetackerten 300-Watt-TDP unmöglich. Die Platine bietet zwar Platz für zwei 8-Pol-Stecker, aber die wird's innerhalb der PCIe-2.0-Spec nicht geben. Das wird IMO wie die HD 6990 ein äußerst fragwürdiges Produkt, das bestenfalls 30 Prozent über der GTX 580 rangiert. Abzüglich der MGPU-Nervigkeiten gefühlt weniger.
MfG,
Raff
airbag
2010-11-19, 20:48:58
ie Platine bietet zwar Platz für zwei 8-Pol-Stecker, aber die wird's innerhalb der PCIe-2.0-Spec nicht geben.
Bei dem Ruf den GF100/110 schon wegen der Leistungsaufnahme hat wohl eher egal.
Und wenn jemand sich beschwert, kommt man halt damit, dass es ja auch eine HD5970 mit 3*8Pin gibt und merh als 450W Leistungsaufnahme.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.