PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31

Duplex
2012-03-10, 11:26:51
Dafür hab ich seit GF110 Launch eine 580GTX@1Ghz & damit läuft alles gut.

Screemer
2012-03-10, 11:32:04
da sollte das warten ja kein problem darstellen :)

SamLombardo
2012-03-10, 11:53:26
Ich bin mir sicher wenn GK110 verschoben wird & GK104 mit den Tahiti´s mithalten kann, dann wird GK110 durch mehr Optimierungszeit locker 50% schneller als Tahiti XT, das warten wird sich auf jeden fall lohnen!
Dito. Ich warte auch auf GK110. Genauso werden es wahrscheinlich 90 Prozent der "Enthusiasten" machen...
Ich halte die Veröffentlichungsreihenfolge (kleiner Chip zuerst) sowieso für einen Fehler, weil man sich immer fragt was man verpasst wenn man nicht noch ein paar Monate durchhält. Umgekehert wäre das nicht der Fall, da weiß man, wie viel Prozent der Leistung man für xx Prozent der Kosten bekommt und könnte abwägen.

Skysnake
2012-03-10, 11:59:47
Die entscheidende Frage ist halt, was "ein paar Monate" genau sind. Die ach so oft ins Feld geführten Enthusiasten wollen immer das schnellste und beste, sollen jetzt aber mal locker >3 Monate auf ne neue Karte warten und zusehen, wie ihre GTX580 nur noch Midrange ist?

Und was ist, wenn GK110 erst zu Weihnachten kommt, oder spinnen wir die Sache mal weiter, erst nächstes Jahr kommt. Was machen die Enthusiasten dann? Ist dann GK104/Tahiti XT noch immer kein Blick wert? Also für ECHTE! Enthusiasten.

boxleitnerb
2012-03-10, 12:02:18
Nur die ganz verrückten Enthusiasten rüsten wegen 30% auf ;)

Skysnake
2012-03-10, 12:06:54
Was anderes bezeichne ich nicht als Enthusiast, weil der kann auch gleich ne Midrange-Karte kaufen :ugly:

Da kommt er dann auf dauer billiger UND! schneller weg.

Soul
2012-03-10, 12:32:12
Was ist wenn GTX680 langsamer ist als 7970? Werden hier alle enttäuscht sein? Was hier läuft ist reines Marketing ;)

boxleitnerb
2012-03-10, 12:34:12
Was anderes bezeichne ich nicht als Enthusiast, weil der kann auch gleich ne Midrange-Karte kaufen :ugly:

Da kommt er dann auf dauer billiger UND! schneller weg.

Ne, kann er nicht. Ein Enthusiast wie ich hat z.B. schon eine oder mehrere 580er. Ich kaufe durchaus immer im 500 Euro Segment, möchte dafür aber auch was geboten haben. Ein richtiger Enthusiast erkennt eine Mogelpackung ;)
Auch ein Enthusiast kann seine Aufrüstgrenze bei 60-70% haben - eben in einem anderen Marktsegment als der Otto-Normalverbraucher.

Raff
2012-03-10, 12:36:46
Echt lolig die ganzen deutsche Redaktionen sind wieder auf der Cebit,mal sehen ob's überhaupt anständige Reviews am Montag gibt.

Redaktionen bestehen aus mehr als einem Mann. ;)

MfG,
Raff

Blaire
2012-03-10, 12:40:23
Was ist wenn GTX680 langsamer ist als 7970? Werden hier alle enttäuscht sein? Was hier läuft ist reines Marketing ;)

Jeder erwartet das doch? :confused: :smile:

boxleitnerb
2012-03-10, 12:55:57
Jeder erwartet das doch? :confused: :smile:

Hm, inzwischen nicht mehr so ganz. Überleg mal:
Man steht besser da als gedacht. Ursprünglicher Gegner war Pitcairn, den schlägt man sicher bei reiner Performance. Weil Tahiti aber so schwach ist, kommt der in Schlagweite. Also was denken die Leute?

a) Wow, die sind ja flotter als Pitcairn bei vergleichbarer Effizienz!
b) Scheiße, die sind ja nichtmal schneller als Tahiti

Vielleicht drückt Nvidia doch aufs Gas (dafür könnte die gemunkelte TDP von 195W sprechen), um Tahiti XT knapp zu schlagen. Die Leute sind Meckerer. Die sehen lieber, dass er langsamer als A ist als schneller als B.

derguru
2012-03-10, 13:06:00
Ich bin mir sicher wenn GK110 verschoben wird & GK104 mit den Tahiti´s mithalten kann, dann wird GK110 durch mehr Optimierungszeit locker 50% schneller als Tahiti XT, das warten wird sich auf jeden fall lohnen!
wenn die überhaupt noch dieses jahr kommt,ich glaub nicht das nv aus jux den jetzigen gtx 680 nennt.

Skysnake
2012-03-10, 13:10:33
Redaktionen bestehen aus mehr als einem Mann. ;)

MfG,
Raff
Glaubt ihr wirklich noch, was ihr ne Karte bekommt, oder habt ihr etwa eine Karte bekommen? :ugly:

Kann ich mir kaum vorstellen, wenn man bedenkt, wie Ahnungslos die Boardpartner sind. Zudem müsste dir Karte ja direkt von nVidia kommen. Mit Aufklebern von den Board-Partnern wirds auf jeden Fall schwer.

Falls ihr "mehrere" Karten bekommt, will ich die aber alle gleichzeitig auf einem Bild sehen, nicht das ihr nur nen "Baukasten" mit unterschiedlichen Stickern bekommt und dann freudig tauschen dürft ;D

Adam D.
2012-03-10, 13:17:31
Sie bekommen bestimmt 'ne Karte - nur nicht für Montag.

Skysnake
2012-03-10, 13:18:04
Es ging aber um Montag ;)

Adam D.
2012-03-10, 13:19:48
Es ging aber um Montag ;)
Dieser "Launch-Termin" ist doch wieder nur auf SA zurückzuführen, wo man wahrscheinlich ein Briefing für ausgewähltes Publikum nicht von 'nem Produktlaunch unterscheiden kann :rolleyes:

derguru
2012-03-10, 13:20:25
Glaubt ihr wirklich noch, was ihr ne Karte bekommt, oder habt ihr etwa eine Karte bekommen? :ugly:

Kann ich mir kaum vorstellen, wenn man bedenkt, wie Ahnungslos die Boardpartner sind. Zudem müsste dir Karte ja direkt von nVidia kommen. Mit Aufklebern von den Board-Partnern wirds auf jeden Fall schwer.

Falls ihr "mehrere" Karten bekommt, will ich die aber alle gleichzeitig auf einem Bild sehen, nicht das ihr nur nen "Baukasten" mit unterschiedlichen Stickern bekommt und dann freudig tauschen dürft ;D

fehlt nur noch das pcgh-video von der geheimen karte.:wink:

Hugo78
2012-03-10, 13:49:43
wenn die überhaupt noch dieses jahr kommt,ich glaub nicht das nv aus jux den jetzigen gtx 680 nennt.

Nach der HD 6870 kam auch noch was.

dildo4u
2012-03-10, 14:18:00
Also es tut sich in jedem Fall was dieses Wochenende.


http://www.pcgameshardware.de/aid,872137/Hat-die-Cebit-als-Leitmesse-ausgedient-Das-meinen-die-Redakteure/PCGH-Webseite/News/bildergalerie/?iid=1536815

MartinB
2012-03-10, 14:18:22
Weiß man eigentlich ob die neue Generation endlich 3 oder mehr seperate Ausgänge haben kann? Ich überlege mir ob ich mir noch einen 3. Monitor anlegen soll, dies geht aber momentan nur mit ATI.

derguru
2012-03-10, 14:27:23
Nach der HD 6870 kam auch noch was.
690 belegt für gk104 dual und es gibt schon gerüchte von einer 7ner reihe für die gk110.;)mir ist der name wurscht aber es wird mMn noch sehr lange dauern bis die vollwertige aufgetischt wird.

hardtech
2012-03-10, 15:09:52
Also es tut sich in jedem Fall was dieses Wochenende.


http://www.pcgameshardware.de/aid,872137/Hat-die-Cebit-als-Leitmesse-ausgedient-Das-meinen-die-Redakteure/PCGH-Webseite/News/bildergalerie/?iid=1536815

inwiefern?
lese nur "private" redakteurs kommentare.

Godmode
2012-03-10, 15:31:41
inwiefern?
lese nur "private" redakteurs kommentare.


Thilo Bayer: "... Spricht für sich. Nvidia lädt parallel zum Tech-Briefing nach USA ein? Spricht für sich. Apple kündigt parallel das iPad 3 an?" ...

hardtech
2012-03-10, 16:16:47
tech briefing... jo und? heisst noch lange nicht, dass ein release termin da ist. selbst auf der cebit präsentiert nv den kepler nicht. von daher... amd rockz! :D

Hugo78
2012-03-10, 16:20:46
690 belegt für gk104 dual und es gibt schon gerüchte von einer 7ner reihe für die gk110.;)mir ist der name wurscht aber es wird mMn noch sehr lange dauern bis die vollwertige aufgetischt wird.

Die Frage ist, vorausgesetzt GK104 kann tatächlich den Speed einer GTX 590 erreichen, wieviel schneller ein GK110 überhaupt noch werden kann, wenn der sich primär um HPC kümmern muss.
Wenn also die zusätzliche Fläche auf das extra breite SI, extra Caches und möglicherweise sogar irgendwie "breitere" ALUs verbraten wird (sollte man doch eine 2:1 ratio SP/DP anstreben).

Wenn es irgendwann so kommt wie aktuell bei CPUs, wo SB-E für Spieler uninteressant wird, weil die kleinen Sandys im grunde genauso schnell sind in Spielen für einen Bruchteil der Kohle, dann kann man sich das Warten auch sparen.

dildo4u
2012-03-10, 16:51:11
Die Frage ist, vorausgesetzt GK104 kann tatächlich den Speed einer GTX 590 erreichen, wieviel schneller ein GK110 überhaupt noch werden kann, wenn der sich primär um HPC kümmern muss.
Wenn also die zusätzliche Fläche auf das extra breite SI, extra Caches und möglicherweise sogar irgendwie "breitere" ALUs verbraten wird (sollte man doch eine 2:1 ratio SP/DP anstreben).

Der Unterschied wird so gering sein wie zwischen der 7870 und 7970.

AnarchX
2012-03-10, 17:25:33
Oder größer als bei GF114 vs GF110. ;)

Da müsste wohl Nvidia schon sehr viel in HPC investiert haben, wenn der Unterschied wirklich so gering sein soll.
Auf der anderen Seite hat Ailuros Andeutungen in Richtung eines extremen Transitorcounts bei GK110 gemacht, vielleicht sind da wirklich einige Dutzend MiB Cache verbaut.

Konami
2012-03-10, 18:20:37
Die Frage ist, vorausgesetzt GK104 kann tatächlich den Speed einer GTX 590 erreichen, wieviel schneller ein GK110 überhaupt noch werden kann, wenn der sich primär um HPC kümmern muss.
Wenn also die zusätzliche Fläche auf das extra breite SI, extra Caches und möglicherweise sogar irgendwie "breitere" ALUs verbraten wird (sollte man doch eine 2:1 ratio SP/DP anstreben).

Wenn es irgendwann so kommt wie aktuell bei CPUs, wo SB-E für Spieler uninteressant wird, weil die kleinen Sandys im grunde genauso schnell sind in Spielen für einen Bruchteil der Kohle, dann kann man sich das Warten auch sparen.
Als Ziel für GK110 im Vollausbau ist 2x GTX580-Leistung angesetzt. Bzw. ca. 50% schneller als GK104. Das waren zumindest die bisherigen Infos/Gerüchte.

Screemer
2012-03-10, 19:13:06
100% leistungsanstieg vielleicht im hpc-bereich. never ever in spielen.

dildo4u
2012-03-10, 19:20:39
Das man die großen Chips nicht vernünftig mit Games auslasten kann zeigt doch AMD.Also selbst wenn der GK110 massiv größer als GK 104 ist hat man drei Nachteile,geringerer Takt,HPC Transistoren und schlechte Auslastung je breiter der Chip wird.Daher halte ich max 30% mehr Performance in Games als GK 104 für Realistisch,was von 7970 Speed aus nicht so schlecht wäre selbst als GTX 580 Nachfolger.

Coda
2012-03-10, 19:21:53
NVIDIA hat allerdings das bessere Frontend. Das sollte deutlich besser skalieren als das was AMD in GCN verbaut.

dargo
2012-03-10, 19:31:12
NVIDIA hat allerdings das bessere Frontend. Das sollte deutlich besser skalieren als das was AMD in GCN verbaut.
Eben... das Problem beim Tahiti ist nicht "nur" das HPC-Zeugs. Wobei HPC ansich auch kein Problem darstellt. Der Chip wird nur ein wenig fetter. Ohne das Zeug hätte man halt eine etwas kleinere GPU oder man könnte die Transistoren für was anderes verwenden.

HarryHirsch
2012-03-10, 20:56:23
Nach der HD 6870 kam auch noch was.


ja und am 06.09.2045 fällt ne bombe auf hiroshima.
war ja vor 100 jahren auch so.

Hugo78
2012-03-11, 00:39:03
Ich dachte da eher an die jüngere Vergangheit, als AMD ihre x800er degradiert hatte, um namentlich mehr Optionen für zusätzliche Performance Produkte zuhaben.

Aber hey, ansonst wirklich ne ...
http://www.latestlol.de/wp-content/uploads/Cool-Story-Bro.gif

HarryHirsch
2012-03-11, 00:46:55
bist du ls die 2.?
schau dir mein quote an da steht nix von x800.
wie auch immer, happy speculatius.

Hugo78
2012-03-11, 01:50:13
Gut das wir das geklärt haben, dann kanns ja Ontopic weitergehen. :ucoffee:

Also nochmal ausführlich.
Nur weil GK104 als GTX 680 erscheint und die GTX 690 als MGPU Version davon gehandelt wird,
kann es genauso gut sein, dass GK110 als GTX 690/695 kommt, so wie Cayman als HD 6900er kam.
Man hätte einfach etwas mehr Bezeichnungen für das Performancesegment über, was Nvidia gebrauchen kann,
nachdem man mit "Ti", "V2", "SE" oder auch "448" als Zusatz für GTX 460 / GTX 560 nicht eindeutig war.

Für eine reine Prestige MGPU Version kann man dann wiederum einen Zusatz ausgraben, GX2 oder so...
Die Dinger kauft eh nur die oft informierte Minderheit, bzw. beschweren kann sich hier auch keine Sau, er hätte Probleme die Leistung einzuordnen,
weil zwei GPUs ein sehr offensichtliches PCB-Layout benötigen.

Adam D.
2012-03-11, 10:51:04
Preisreduktion bei den GTX580 hat angefangen (http://www.pcgameshardware.de/preisvergleich/?phist=607363). I see dem Keplers coming ;)

kruemelmonster
2012-03-11, 11:39:32
Unwinder (http://forums.guru3d.com/showpost.php?p=4264302&postcount=140) scheint auch schon was in den Händen zu halten:

I'm currently focused on Keplers and won't waste time on AMD issues anymore.

:popcorn:

Dural
2012-03-11, 11:51:30
GK110 wird garantiert nicht als GTX6xx kommen. :rolleyes:

GK100 wurde offensichlich gestrichen oder existierte gar nie, GK110 kommt im späten sommer mit einem neuen Namen.

Raff
2012-03-11, 11:54:19
Sommer ist eigentlich ein bekloppter Termin, um eine hungrige High-End-GPU zu launchen – die werden bei mehr als 25 Grad Raumtemperatur noch etwas lauter, als sie es bei 22 Grad wären. :D

MfG,
Raff

boxleitnerb
2012-03-11, 11:56:30
Dann wird per Reviewers Guide eben im Kühlraum getestet, sonst kriegt man kein Sample ;D

Raff
2012-03-11, 12:00:18
Also wir haben ein Klimaanlage (die einige Kollegen nicht mögen, weil sie "kalte" Luft erzeugen kann :|). :biggrin:

MfG,
Raff

SamLombardo
2012-03-11, 12:13:18
Sommer ist eigentlich ein bekloppter Termin, um eine hungrige High-End-GPU zu launchen – die werden bei mehr als 25 Grad Raumtemperatur noch etwas lauter, als sie es bei 22 Grad wären. :D

MfG,
Raff
Wird bestimmt Oktober oder November...

Gunslinger
2012-03-11, 12:30:32
Definitiv eine blöde Situation. Auf GK110 warten, oder bereits bei GK104 schwach werden.

Was würde Tombman machen. ;(

Raff
2012-03-11, 12:32:53
High-End-Hopping. Wenn GK110 alles wegbratzt, dann wandert der eben zu Weihnachten in den Rechner (und solange Tahiti respektive GK104 bei anderen).

MfG,
Raff

DarknessFalls
2012-03-11, 12:35:09
...ob man GK104 kaufen "muss" entscheidet sich wohl daran, wie das gute Stück preislich liegt und vor allem wie die Leistung nun tatsächlich gegenüber Pitcairn und Tahiti ist. ;) Bei GK110 dürfte sich die Leistungsfrage wohl eher nicht stellen...

VooDoo7mx
2012-03-11, 12:44:33
Gut das wir das geklärt haben, dann kanns ja Ontopic weitergehen. :ucoffee:

Also nochmal ausführlich.
Nur weil GK104 als GTX 680 erscheint und die GTX 690 als MGPU Version davon gehandelt wird,
kann es genauso gut sein, dass GK110 als GTX 690/695 kommt, so wie Cayman als HD 6900er kam.
Man hätte einfach etwas mehr Bezeichnungen für das Performancesegment über, was Nvidia gebrauchen kann,
nachdem man mit "Ti", "V2", "SE" oder auch "448" als Zusatz für GTX 460 / GTX 560 nicht eindeutig war.

Für eine reine Prestige MGPU Version kann man dann wiederum einen Zusatz ausgraben, GX2 oder so...
Die Dinger kauft eh nur die oft informierte Minderheit, bzw. beschweren kann sich hier auch keine Sau, er hätte Probleme die Leistung einzuordnen,
weil zwei GPUs ein sehr offensichtliches PCB-Layout benötigen.

Ich glaube das GK104, 106 und 107 jetzt als 600er Serie kommen. Wenn dann im Spätsommer/Herbst der GK110 fertig ist wird dann die 700er Serie gelauncht. Da kommt dann zu erst der GK110 als GTX 780 als High End und bis zum Jahresende dann die kleineren Chips als Respin (GK 114, 116, 117).
AMD wird seine Teneriffe Karte auch sicher nicht "7980 oder 7990" nennen, da wird sicher auch gleich die 8000er Serie gelauncht.

Raff
2012-03-11, 13:01:40
Ich glaube das GK104, 106 und 107 jetzt als 600er Serie kommen. Wenn dann im Spätsommer/Herbst der GK110 fertig ist wird dann die 700er Serie gelauncht. Da kommt dann zu erst der GK110 als GTX 780 als High End und bis zum Jahresende dann die kleineren Chips als Respin (GK 114, 116, 117).
AMD wird seine Teneriffe Karte auch sicher nicht "7980 oder 7990" nennen, da wird sicher auch gleich die 8000er Serie gelauncht.

AMD sagt, dass sie gar keine Tenerife-Karte bauen http://ht4u.net/news/25227_geruechte_um_amd_tenerife-gpu_stellen_eine_falschmeldung_dar/ ;)

MfG,
Raff

boxleitnerb
2012-03-11, 13:04:00
Und das glaubst du? Was hätte er denn sagen sollen? "Ja, wir bauen sowas. Gruß an Nvidia, damit die schonmal wissen, was sie kontern müssen!"
Die Folie an sich mag falsch sein, das sagt aber nicht, dass da nicht was ganz ähnliches in der Mache ist.

Raff
2012-03-11, 13:05:10
Ich glaube nicht dran, weil die AMD-Partner auf der Cebit einige 7970-Karten mit 1,1 oder mehr Gigahertz Chiptakt zeigten. Das ist schon Tenerife-Niveau. AMD macht bestimmt etwas, aber nicht das (IMO => Spekulatius zu Vor-Ostern).

MfG,
Raff

boxleitnerb
2012-03-11, 13:06:18
Das ist zwar leicht OT, aber warum macht AMD da nicht mehr? AMD selbst verdient doch nicht mehr dadurch pro Chip, oder? Das sacken alles die AIBs ein. Ich kann mich nicht vorstellen, dass man soviel Taktspielraum für umsonst verkauft.

Raff
2012-03-11, 13:10:53
Man sagt, dass AMD einen Aufpreis (Lizenz) verlangt, wenn ein AIB den Takt besonders hochziehen will. Das kann durchaus sein, wenn man sich ansieht, wie "zufällig" viele Partner an denselben Taktgrenzen kleben bleiben. Mit Gewissheit sagen kann ich das aber nicht.

MfG,
Raff

boxleitnerb
2012-03-11, 13:14:04
Werden die Chips dann von AMD selektiert oder müssen die AIBs das selbst testen, wie hoch die Dinger jeweils gehen?

Gipsel
2012-03-11, 13:17:18
Übrigens hat Dave Bauman bei B3D angedeutet, daß man sich das Binning bei Tahiti jetzt/demnächt, also nach kleineren Verbesserungen seitens TSMC nochmal ansieht. Es kann also durchaus passieren, daß von AMD noch ein zusätzliches Top-Bin kommt. Das könnte auch ohne offizielle neue Bezeichnung einfach für höher getaktete HD7970 OC-Versionen benutzt werden.

@boxleitnerb:
Verkauft werden die (bisher) nur in den beiden offiziellen Klassen. Man hat aber für jedes Die ein paar individuelle Informationen wie z.B. das Leakage-Level, was den AIBs eine gewisse Vorauswahl ermöglicht. Die Variante mit den seitens AMD selektierten Dies, die garantiert eine bestimmte Frequenz bei gegebener Spannung (und Stromverbrauch) schaffen, spart den AIBs das.

LadyWhirlwind
2012-03-11, 14:19:35
Ist es möglich das AMD die ganz guten Chips auf die Seite gelegt hat/legt, um im Sommer nochmals nachzulegen? Um damit möglicherweise die GK104 noch zu übertrumpfen?

aylano
2012-03-11, 14:45:25
finde ich überhaupt nicht wenig. ~700 ist wohl ein ziemlicher effizienz-sweet-spot und die performancekritischen teile laufen ja am hotclock und damit potenziell ein gutes stück höher als die der 7970 - mit cores die denen der 7970 wesentlich ähnlicher sind als das bei fermi der fall war.

klar, für einen fermi-refresh wär das verdammt wenig. fermi war aber auch auf extreme taktbarkeit ausgelegt und hätte nie so viele cores untergebracht.
Achso.
Wenn die Kepler-Cores viel ähnlicher dem Thaiti-Cores sind, dann ist der 1.4 Ghz-Cuda-Cores jetzt schon recht hoch und könnte doch bei ausgereiften Fertigung einen geringeren Takt-Anstieg ermöglichen, als es dann z.B. bei Thaiti mit nur 0,925 Ghz möglich ist, was auf lange Sicht etwas weniger rosig aussehen lässt, als zuerst gedacht.

y33H@
2012-03-11, 15:05:24
Waaah, die 580er fallen ja übelst im Preis ... meine muss ergo weg und wenn es nur ein Sidegrade mit GK104 wird :usad:

boxleitnerb
2012-03-11, 15:07:06
Ich seh schon, ich kann die mit Wakü für 100 pro Stück verscherbeln wenn GK110 kommt :(

Hübie
2012-03-11, 15:11:31
Ist es möglich das AMD die ganz guten Chips auf die Seite gelegt hat/legt, um im Sommer nochmals nachzulegen? Um damit möglicherweise die GK104 noch zu übertrumpfen?

Um totes Kapital herumliegen zu lassen? Nein, ich denke nicht. Was ist wenn der Prozess sich nun noch mal deutlich verbessert. Dann wären Chips die man sich beiseite gelegt hat plötzlich nur noch Mumpitz. Genau so im Falle eines guten Konters seitens der Konkurrenz.
Natürlich schläft AMD nicht und stoppt die Entwicklung. Es folgt immer ein Schlagabtausch, jedoch mit anderen Mitteln ;)

Mir ists Wurscht ob die GF110 jetzt im Preis sinken. Wenn ich ne neue hab kommt meine halt zu Frauchen. Dann ärgere ich mich nicht über die 400 € ;D

Schönen Sonntag noch...

cR@b
2012-03-11, 15:45:27
Waaah, die 580er fallen ja übelst im Preis ... meine muss ergo weg und wenn es nur ein Sidegrade mit GK104 wird :usad:

http://fudzilla.com/home/item/26271-gtx-580-gets-substantial-price-cut

Hmm dann wird die 680er doch 400+ kosten aber war klar, dass sich nV das Quentchen Mehrleistung + schlechte Ausbeute vom Kunden zahlen lässt...

Ronny145
2012-03-11, 15:59:02
Bei dem Namensschema ist das jetzt keine Überraschung mehr, auch wenn ich mir Performance Preise erhofft habe. GTX680 wird eben als legitimierter GTX580 Nachfolger verkauft egal ob das nun eigentlich der Performance Chip ist oder nicht. GK110 wird dann als GTX 780 Neugeneration an den Mann gebracht, also wiederum als der GTX680 Nachfolger. Dann passt das alles.

boxleitnerb
2012-03-11, 16:01:13
Man muss sich dann doch fragen, was GK114, wenn es denn einen solchen gäbe, ggü. GK104 verbessern würde. GK110 wird wohl ziemlich stark auf HPC ausgerichtet sein, wie sich das in Spieleperformance überträgt, weiß man nicht. Will man die 750/760(Ti) in dieselbe Schublade stecken? Oder packt man 15% mehr Takt drauf, labelt um und gut ist?

Adam D.
2012-03-11, 16:13:16
Ich hoffe ja immer noch auf $399, aber da das soviel wie GTX580 3GB ist, wird's wohl doch eher $449 werden. Zu krass eigentlich, wenn an Ailuros spekulierten $299 wirklich mal was dran war :usad:

dargo
2012-03-11, 16:43:12
Ich hoffe ja immer noch auf $399, aber da das soviel wie GTX580 3GB ist, wird's wohl doch eher $449 werden. Zu krass eigentlich, wenn an Ailuros spekulierten $299 wirklich mal was dran war :usad:
Jetzt wartet doch mal ab. Ich frage mich wer den GK104 für 449$ überhaupt kaufen soll wenn er sagen wir mal ~20% vor der GTX580 liegt? Für einen GTX460 sicherlich ein schönes Upgrade, aber garantiert nicht in dieser Preisklasse. Für den Enthusiasten hat die Karte viel zu wenig Bums ausgehend von GTX480/580. Bleiben also nur Neukäufer übrig. Und ob es davon so viele in dieser Preisklasse gibt bezweifle ich auch.

Edit:
Das einzige was mir persönlich stinkt... jetzt habe ich meinen Cousin zwei Monate warten lassen weil ich davon ausgegangen bin GK104 gibt es in April für max. 300€. Tja... manchmal liegt man halt daneben. Immerhin kommt langsam beim GF110 etwas Bewegung rein. Die GTX560TI 448 wird denke ich bald die 200€ unterschreiten, eventuell sogar die GTX570.
http://geizhals.at/de/?cat=gra16_512&sort=p&bpmax=&asuch=&v=e&plz=&dist=&xf=1439_GTX+560+Ti+448+Cores
http://geizhals.at/de/?cat=gra16_512&sort=p&bpmax=&asuch=&v=e&plz=&dist=&xf=1439_GTX+570

Immerhin etwas. :cool:

cR@b
2012-03-11, 16:58:52
Für einen GTX460 sicherlich ein schönes Upgrade, aber garantiert nicht in dieser Preisklasse. Für den Enthusiasten hat die Karte viel zu wenig Bums ausgehend von GTX480/580.


Also gegenüber einer 480er lohnt sich der Gk104 sicherlich, gerade wenn er wie die 7970 in Skyrim z.B. mächtig was raus holt!
Werde mir das Teil sicher raus lassen, sofern eben die Gerüchte annähernd der Wahrheit entsprechen ;) Zwei Jahre 480er reicht langsam, gerade weil bei mir ne GPU noch nie so lange überlebt hat!

dargo
2012-03-11, 17:06:02
Also gegenüber einer 480er lohnt sich der Gk104 sicherlich, gerade wenn er wie die 7970 in Skyrim z.B. mächtig was raus holt!

Die GTX580 liegt ca. 15-20% vor der GTX480. Wenn wir annehmen, dass der GK104 20% vor der GTX580 liegt ist dieser 38-44% schneller als die GTX480. Was kriegst du für eine GTX480 heute nochmal? Wenns gut läuft vielleicht 150€. Wenn du gerne für ~40% mehr Leistung 300€ Aufpreis (sollten die 449$ stimmen werden zumindest am Anfang 450€ verlangt) hinblätterst... bitte, nur zu. Zudem ist das für mich persönlich kein Upgrade. Dieser muss bei mir schon ~80-100% Mehrleistung bringen. Aber das sieht jeder etwas anders.

Adam D.
2012-03-11, 17:09:55
Jetzt wartet doch mal ab. Ich frage mich wer den GK104 für 449$ überhaupt kaufen soll wenn er sagen wir mal ~20% vor der GTX580 liegt? Für einen GTX460 sicherlich ein schönes Upgrade, aber garantiert nicht in dieser Preisklasse. Für den Enthusiasten hat die Karte viel zu wenig Bums ausgehend von GTX480/580. Bleiben also nur Neukäufer übrig. Und ob es davon so viele in dieser Preisklasse gibt bezweifle ich auch.
Man könnte so auch bei Tahiti argumentieren und doch kann sich ATi diese Preise erlauben. Diese Generation ist irgendwie lächerlich: für ein paar Prozent mehr Performance bei deutlich besserem Perf/W-Verhältnis zahlt man einen unglaublich absurden Preis. Genau so hat man sich die Entwicklung vorgestellt :freak:

dargo
2012-03-11, 17:12:26
Man könnte so auch bei Tahiti argumentieren und doch kann sich ATi diese Preise erlauben.
Natürlich ist das 1:1 auf AMD übertragbar. Ein paar dumme, ähm wenig informierte User gibts immer. ;)

boxleitnerb
2012-03-11, 17:16:01
Ich frage mich, warum wir keine Umfrage aufgemacht haben. Ich wüsste wirklich gerne, wie die Erwartungen und die Realität sich vertragen. Dafür ist es jetzt aber eher zu spät. Obwohl nein...ich mach jetzt eine auf :D

Konami
2012-03-11, 17:23:10
Man muss sich dann doch fragen, was GK114, wenn es denn einen solchen gäbe, ggü. GK104 verbessern würde. GK110 wird wohl ziemlich stark auf HPC ausgerichtet sein, wie sich das in Spieleperformance überträgt, weiß man nicht. Will man die 750/760(Ti) in dieselbe Schublade stecken? Oder packt man 15% mehr Takt drauf, labelt um und gut ist?
Ein Grund für die namentliche Abgrenzung (GTX 600 -> 700) sollen ja neue CUDA-Features sein. Wahrscheinlich werden die dann auch von GK110 in die kleineren Chips übernommen. :confused:

cR@b
2012-03-11, 17:24:23
Die GTX580 liegt ca. 15-20% vor der GTX480. Wenn wir annehmen, dass der GK104 20% vor der GTX580 liegt ist dieser 38-44% schneller als die GTX480. Was kriegst du für eine GTX480 heute nochmal? Wenns gut läuft vielleicht 150€. Wenn du gerne für ~40% mehr Leistung 300€ Aufpreis (sollten die 449$ stimmen werden zumindest am Anfang 450€ verlangt) hinblätterst... bitte, nur zu. Zudem ist das für mich persönlich kein Upgrade. Dieser muss bei mir schon ~80-100% Mehrleistung bringen. Aber das sieht jeder etwas anders.

Mir hätte Tahiti (http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/10/#abschnitt_leistung_mit_aaaf) auch schon gereicht, tendiere aber seit Jahren schon zu den Grünen! Wie gesagt nimm mal Skyrim als Beispiel, da sind es schon 70% Unterschied und sicherlich deutlich zu merken! Der Unterschied von meiner 280er zur 480er war jetzt auch nicht sooo groß...
Für meine 480er hätte ich einen Abnehmer, der sogar 190.- zahlt und selbst wenn es nur 150.- sind ist das besser, als noch länger zu warten. Bin der Meinung, dass BF3, Skyrim und SWTOR mehr Leistung vertragen könnte (zumindest ohne Pussy Einstellungen -> ohne AA/AF, V-Sync) :D Hab immer alles auf Vollanschlag und dementsprechend merkt man der 480er das Alter langsam aber sicher an...

aylano
2012-03-11, 17:30:00
Ist es möglich das AMD die ganz guten Chips auf die Seite gelegt hat/legt, um im Sommer nochmals nachzulegen? Um damit möglicherweise die GK104 noch zu übertrumpfen?
Möglich ist vieles, aber es wäre unüblich die Performance-Krone unbedingt haben zu müssen.
Mit Power-Tune & Customer-Cards mit 1000-1100Mhz wäre AMD grundsätzlich gegen Nvidia im 1H 2012 gut aufgestellt , wenn GK104-GTX680 @ Standard so schnell wie Thati-XT @ Standard wäre.
So oft hat AMD auch nicht die schnellste Single-GPU geliefert, vorallem nicht, wenn die Konkurrenz auch mit einem Chips gleicher Fertigung dahertanzt.
Im 2H 2012 kommt es drauf an, wann Sea Island & GK110 daherkommt.

Heute selektierte Thaitis werden eher für die HD7990 verwendet.

Hades11
2012-03-11, 17:34:26
D... kein Upgrade. Dieser muss bei mir schon ~80-100% Mehrleistung bringen. Aber das sieht jeder etwas anders.
genau meine Meinung, deshalb warte ich auf GK110 bevor ich mich von meiner 275 verabschiede.

Glaubt ihr dass GK110 als erster Chip des Refreshs gelauncht wird? Genügend Zeit werden sie bis dahin ja hoffentlich gehabt haben.
Da sie GK104 so wie es sich hier anhört (ungeplant?) etwas mehr in richtung High-end geschoben haben, und im GK110 auch noch das ganze HPC & CO Zeug unterbringen wollen, wo sie ja so viel verbessern wollen, frage ich mich wie sie es hinkriegen werden den nötigen Performance Abstand zu bekommen. Sollten mMn ja mindestens >25% sein. Hört sich an als würde sich ein weiterer Monster-chip anbahnen, aber wo da dann noch die gute Effizienz reinsoll :uconf2:

VooDoo7mx
2012-03-11, 17:35:10
Die GTX580 liegt ca. 15-20% vor der GTX480. Wenn wir annehmen, dass der GK104 20% vor der GTX580 liegt ist dieser 38-44% schneller als die GTX480. Was kriegst du für eine GTX480 heute nochmal? Wenns gut läuft vielleicht 150€. Wenn du gerne für ~40% mehr Leistung 300€ Aufpreis (sollten die 449$ stimmen werden zumindest am Anfang 450€ verlangt) hinblätterst... bitte, nur zu. Zudem ist das für mich persönlich kein Upgrade. Dieser muss bei mir schon ~80-100% Mehrleistung bringen. Aber das sieht jeder etwas anders.
Deine Rechung ist schon von vorne herein falsch, da GTX 680 sich vor 7970 einreiht. So dürfte schon gegenüber der GTX 580 im Durchnitt mindestens 40-50% schneller sein. (7970 ca 30-40% mehr je nach Situation)

dargo
2012-03-11, 17:48:51
Wie gesagt nimm mal Skyrim als Beispiel, da sind es schon 70% Unterschied und sicherlich deutlich zu merken!
Was für 70%? Afaik legte NV mit den neuen Treibern erheblich in diesem Spiel zu. Hier ist sogar die GTX570 vor dem Tahiti XT:
http://www.pcgameshardware.de/aid,871509/Skyrim-v14-mit-High-Res-Texturen-12-Grafikkarten-und-15-Prozessoren-im-Exklusiv-Test/Rollenspiel-Adventure/Test/

Nimm die SGSSAA-Tests, bei den anderen war Vsync beim Tahiti an (warum auch immer in einem Benchmark :confused:).

PS: ok... wird im Text erklärt.

Deine Rechung ist schon von vorne herein falsch, da GTX 680 sich vor 7970 einreiht.
Das muss sich erstmal zeigen. Über die Leistung der GTX680 gibts immer noch nichts handfestes.

Thunder99
2012-03-11, 17:56:54
Also ich hab meinen Gedanken beerdigt einen GK104 für den prognostizierten Preis zu holen.

Ich meine damals der Wechsel von der GTX260-216 auf die GTX470SOC hat sich gelohnt, da im Schnitt 80% mehr Speed raus kamen. Aber der Preis wahr gehörig gesalzen... (~300€).

Für gerade sagen wir mal 60% (fiktiv) mehr Speed >400€ hinblättern? :crazy: ne, da hole ich mir lieber einen alternativ Kühler und prügle meine Karte auf über 800Mhz

dildo4u
2012-03-11, 18:00:16
Es wird nicht nur eine Karte geben,NV wird wie bei der 400 und 500 Serie eine Reste Chip Karte haben.(Wie 470/570) Das Preis/Leistung beim Top Modell schrott ist ist nix Neues.

Thunder99
2012-03-11, 18:05:24
Es wird nicht nur eine Karte geben,NV wird wie bei der 400 und 500 Serie eine Reste Chip Karte haben.(Wie 470/570) Das Preis/Leistung beim Top Modell schrott ist ist nix Neues.
Das stimmt. Nur ist der GK104 bestimmt nicht sein Preis Wert für den er bei dem Namen gehandelt wird.

Naja, wir werden ja bald sehen in wie weit das zutrifft und wo sich der Chip wirklich einordnet

VooDoo7mx
2012-03-11, 19:11:24
Das muss sich erstmal zeigen. Über die Leistung der GTX680 gibts immer noch nichts handfestes.

Tja wenn du den Thread wirklich verfolgen würdest, wüsstest du das es schon Leute gibt, die Karten haben. und die bezichtigen der GTX 680 eine bessre Spieleleistung als 7970. Nur bei HPC Anwendungen sieht G104 keinen Stich gegen Tahiti.

Selbst im Pullermark 11 der eigentlich ATi Domäne ist, liegt GTX 680 vor 7970. GTX 670Ti zwischen 7970 und 7950.

Und allein vom logischen Denken her wird sich nVidia nicht die bloße geben,dass das neue Topmodell 3 Monate nach 7970 langsamer als ebendiese ist. So ein Marketing Disaster wird sich NV nicht geben.

Auch lustig, du stellst selber Prognosen bezüglich Performance auf und ziehst jetzt schon ein Fazit, sagst aber zu meinen das man erst einmal abwarten sollte. Bischen shizo, oder?

dargo
2012-03-11, 19:17:49
Auch lustig, du stellst selber Prognosen bezüglich Performance auf und ziehst jetzt schon ein Fazit, sagst aber zu meinen das man erst einmal abwarten sollte. Bischen shizo, oder?
Du musst dir schon bissel Mühe geben zu lesen was ich schreibe. "Nehmen wir mal an" ist keine Prognose sondern reine Spekulation.

AnarchX
2012-03-11, 19:18:47
Wir wollen doch in einem freundlichen Ton bleiben. ;)

Deine Rechung ist schon von vorne herein falsch, da GTX 680 sich vor 7970 einreiht. So dürfte schon gegenüber der GTX 580 im Durchnitt mindestens 40-50% schneller sein. (7970 ca 30-40% mehr je nach Situation)
30-40% sind ein eher optimistischer Schnitt für die 7970.

Ganz klar scheint die Strategie der 680 noch nicht zu sein, es liegt durchaus im Bereich des Möglichen, dass man AMD im Schnitt nur erreicht, mit deutlichen Vorteilen unter D3D11, aber dafür mit einer niedrigen TDP und einem etwas geringeren Preis wirbt.

VooDoo7mx
2012-03-11, 19:28:02
Das stimmt. Nur ist der GK104 bestimmt nicht sein Preis Wert für den er bei dem Namen gehandelt wird.
Also du weißt schon was NV für Preise ansetzt.
Interessant...

cR@b
2012-03-11, 19:35:32
Was für 70%? Afaik legte NV mit den neuen Treibern erheblich in diesem Spiel zu. Hier ist sogar die GTX570 vor dem Tahiti XT:
http://www.pcgameshardware.de/aid,871509/Skyrim-v14-mit-High-Res-Texturen-12-Grafikkarten-und-15-Prozessoren-im-Exklusiv-Test/Rollenspiel-Adventure/Test/

Nimm die SGSSAA-Tests, bei den anderen war Vsync beim Tahiti an (warum auch immer in einem Benchmark :confused:).

PS: ok... wird im Text erklärt.


Das muss sich erstmal zeigen. Über die Leistung der GTX680 gibts immer noch nichts handfestes.

Nimm bitte den Test von CB wo beide kein V-Sync an haben! Im PCGH Test konnte man das V-Sync nicht deaktivieren! Und ohne SGSSAA... das ist nicht der Standard!

derguru
2012-03-11, 19:37:09
Wir wollen doch in einem freundlichen Ton bleiben. ;)


30-40% sind ein eher optimistischer Schnitt für die 7970.
geht so,bei cb (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7870-und-hd-7850/5/#abschnitt_leistung_mit_aaaf)sind es immerhin 33% unter 1600p/4xaa ,drunter ist kindergeburtstag.

AnarchX
2012-03-11, 19:37:39
Nimm bitte den Test von CB wo beide kein Y-Sync an haben! Im PCGH Test konnte man das V-Sync nicht deaktivieren!
Da ist aber weder das Spiel, noch der GeForce Treiber auf dem letzten Stand.

Thunder99
2012-03-11, 19:40:42
Also du weißt schon was NV für Preise ansetzt.
Interessant...
Ich spekuliere nur anhand der Angaben aus dem Thread und der Überzeugung, dass nvidia wohl kaum ihr Top-Modell für unter 300€ verramscht und damit den Namen beschädigt

cR@b
2012-03-11, 19:41:11
Da ist aber weder das Spiel, noch der GeForce Treiber auf dem letzten Stand.

Du meinst das hat sich bei 4xMSAA nun so großartig geändert? Glaub ich ehrlich gesagt erst, wenn ich einen entsprechenden Beweis dazu erhalte, bis dahin sehe ich den CB Test als maßgebend.

cR@b
2012-03-11, 19:46:33
Ich spekuliere nur anhand der Angaben aus dem Thread und der Überzeugung, dass nvidia wohl kaum ihr Top-Modell für unter 300€ verramscht und damit den Namen beschädigt

Bin mir auch ziemlich sicher, dass die Karte für 450+ rausgeht und die ersten sogar für über 500! Also über 500 wäre extrem hart aber ich bin so bereit wie die biologische Uhr einer Frau :eek:

Timbaloo
2012-03-11, 19:53:56
Ist denn überhaupt schon gesichert, dass der GK104 Vollausbau GTX680 genannt wird? Oder ist das so eine "garantiert ohne Hotclock"-Nummer? ;)

dargo
2012-03-11, 19:54:37
Nimm bitte den Test von CB wo beide kein Y-Sync an haben! Im PCGH Test konnte man das V-Sync nicht deaktivieren! Und ohne SGSSAA... das nicht der Standard!
Ich meine CB nimmt eine andere Testszene. Indoor und Outdoor sollen sich afaik stark unterscheiden was die Performance beider Karten angeht. Du meinst sicherlich diesen Test oder?
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/30/

Da wurde noch der alte FW290.36 verwendet.
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/25/

Erst mit dem FW290.53 kamen die ersten Performancezuwächse, gefolgt vom FW295.73.
http://www.geforce.com/News/articles/nvidia-geforce-295-73-whql-drivers-released

Ist mir aber letztendlich auch egal. Skyrim ist kein Spiel welches mich interessiert. :)

Thunder99
2012-03-11, 21:48:13
Ist denn überhaupt schon gesichert, dass der GK104 Vollausbau GTX680 genannt wird? Oder ist das so eine "garantiert ohne Hotclock"-Nummer? ;)
Gibt es eine Alternative? Ich sage nein, da sonst nichts mehr Sinn machen würde. Außerdem gibt es keinen "Hotclock" mehr im eigentlichen Sinne sondern ist nun was "anderes" (sofern die Gerüchte stimmen)

Adam D.
2012-03-11, 21:52:03
GK104 im Vollausbau heißt GTX 680, das hat Ailuros bereits bestätigt.

Hades11
2012-03-11, 22:33:35
apropos Ail von dem hat man jetzt auch schon einige Seiten lang nichts mehr gelesen. Ich hatte immer den Eindruck dass er noch am besten bescheid wusste.

Adam D.
2012-03-11, 22:40:46
apropos Ail von dem hat man jetzt auch schon einige Seiten lang nichts mehr gelesen. Ich hatte immer den Eindruck dass er noch am besten bescheid wusste.
:freak: Hat er auch. Aber möglicherweise hat er einfach nix zu sagen, weil er keine neuen Informationen hat oder sie nicht preis geben darf oder oder oder.

Ailuros
2012-03-12, 02:27:30
apropos Ail von dem hat man jetzt auch schon einige Seiten lang nichts mehr gelesen. Ich hatte immer den Eindruck dass er noch am besten bescheid wusste.

Erstens gibt es tatsaechlich nichts Neues und zweitens hab ich zufaelligerweise auch ein Leben wo man sich ueber's Wochenende etwas erhohlt.

boxleitnerb
2012-03-12, 06:19:26
Scheint so als wären wir bei 295mm2 (17,2x17,2). Hier sieht man auch schön das eigentliche Die im Vergleich mit G92b.

http://www10.pic-upload.de/12.03.12/7jb294c6u75l.jpg (http://www.pic-upload.de/view-13312344/nvidia-k104-core-2.jpg.html)
http://www10.pic-upload.de/12.03.12/kmozpqp3c76q.jpg (http://www.pic-upload.de/view-13312351/nvidia.jpg.html)

http://www.expreview.com/18731.html

Darlie
2012-03-12, 06:39:55
Mit welchen Speicherausbau ist beim GK104 zu rechnen, sind da 2GB drauf oder welche Speichergrößen werden verbaut?

boxleitnerb
2012-03-12, 06:43:44
2GB sicher, womöglich 4GB später?

Darlie
2012-03-12, 06:58:00
Hm, das sollte Preisreduzierend wirken wenn man den GK104 mit Tahiti und seinen 3GB vergleicht. Hoffen wir mal das NV mit dem GK104 die 7950 und GTX580 haut, ansonsten sind Preise über 350€ Wunschdenken . Ich glaub langsam nicht mehr an die Durchschlagkraft von diesem kleinen Chip, es sei denn NV hat was ähnlich grossartiges wie damals G92 gebacken.

boxleitnerb
2012-03-12, 07:08:25
Vergleiche mal mit Pitcairn. Der hat ein deutlich besseres perf/mm2 Verhältnis als Tahiti. Möglich ist es schon, die Frage ist, wieviele Kompromisse Nvidia damit eingegangen ist.
Soweit ich weiß, hat Nvidia bisher nur die großen Chips auf die Teslas gesteckt. Vielleicht trennt man hier deutlicher und hat das ganze für Spieleperformance unnötige Zeug bei GK104 fast komplett weggelassen.

Hugo78
2012-03-12, 08:07:32
Scheint so als wären wir bei 295mm2 (17,2x17,2).

Oh, na dann wirds doch knapp für die allgemeine Perf.Krone.

boxleitnerb
2012-03-12, 08:14:03
Naja nicht unbedingt. Allein der kleinere Speichercontroller dürfte gut was ausmachen. Das war laut Gipsels Aufstellung (die ich nicht mehr finde) ein beträchtlicher Teil der Die Size. Lassen wir uns überraschen :)

Odal
2012-03-12, 09:05:08
rein optisch im vergleich mit dem G92b würde ich den aber eher auf 270mm² schätzen

wie dem auch sei bei der "Größe" wird das Ding langsamer als erwartet und kann sich imho kaum (peaks wirds geben) von der GTX580 absetzen
und das bei den mondpreisen der 28nm chips weils nicht genug gibt

na dann gute nacht - die kepler/tahiti generation ist ja mal wirklich eine totgeburt

hardtech
2012-03-12, 09:08:54
Lassen wir uns überraschen :)


ja wie lange soll die vorfreude denn noch andauern? ;D

MadManniMan
2012-03-12, 09:17:54
Gibt es irgendeine Info über die Uhrzeit der Vorstellung?

V2.0
2012-03-12, 09:21:14
Ich würde auf den G92 Vergleich nicht zu viel geben.

Hugo78
2012-03-12, 09:33:35
Gibt es irgendeine Info über die Uhrzeit der Vorstellung?

Na wir sind Kalifornien 8h voraus.
Ich würd erst heute abend unserer Zeit mit Infos rechnen.
Wenn es überhaupt ohne NDA abläuft...

M4xw0lf
2012-03-12, 09:35:44
Scheint so als wären wir bei 295mm2 (17,2x17,2). Hier sieht man auch schön das eigentliche Die im Vergleich mit G92b.

http://www.expreview.com/18731.html

Das sieht so aus als wären die beiden Dies gar nicht nebeneinander fotographiert worden sondern einfach per copy&paste zusammengekommen. Da kann man dann natürlich rein gar nichts mehr über die relative Größe aussagen, wenn man nicht weiß ob überhaupt der gleiche Maßstab in beiden Bildteilen vorliegt...

boxleitnerb
2012-03-12, 09:38:02
Das sieht so aus als wären die beiden Dies gar nicht nebeneinander fotographiert worden sondern einfach per copy&paste zusammengekommen. Da kann man dann natürlich rein gar nichts mehr über die relative Größe aussagen, wenn man nicht weiß ob überhaupt der gleiche Maßstab in beiden Bildteilen vorliegt...

Das ist korrekt. Deshalb "scheint so" :)

feris
2012-03-12, 09:48:40
So richtig vorstellen will doch NV gar nichts.
Es fand in den USA das Tech Briefing statt, mehr nicht.
Oder liege ich da falsch?

Bezüglich 28nm Prozess liest man ja nichts gutes.
NV und AMD dürften diesbezüglich derzeit ziemlich angefressen sein.
Somit ist der Wunschpreis der 299,-- Dollar endgültig Geschichte.
NV kommt jetzt auch zunehmend unter Druck, wenn man sich den Preissturz der GTX 580 anschaut. 340 EUR sind da doch schon nett.
Somit müüsen die 28nm Grakas im Preis auch runter, weil der preisliche Abstand 28nm zunehmend unattraktiv macht. Dumm nur, das die Mengen dann gar nicht geliefert werden können. Also bleiben die Preise wohl oben und NV/AMD verlieren einfach deutlich Geschäft.


Derzeit sieht es so aus, als könnte man die Zeit bis zum Refresh locker aus sitzen bzw. entspannt zu einem 40nm Chip greifen, wenn man zu langsam unterwegs ist. Die Erfahrung beim 40nm Prozess hat gezeigt, wie lange es dauert, so einen Prozess in den Griff zu bekommen. Gepaart damit, das es noch mehr Kunden außer AND und NV für die ohnehin begrenzten Kapazitäten gibt, könnte durchaus ein halbes oder gar ganzes Jahr vergehen, bis 28nm für uns interessant wird.

Dural
2012-03-12, 10:34:46
der GK104 wird wohl ganz nett, spannend wird sein wie hoch NV die effizients bei 1536SP im vergleich zb. zu GF110 halten kann.

Skysnake
2012-03-12, 10:48:20
Für Gamer?

Da wird GK104 sicherlich effizienter sein.

Für GPGPU?

Da wird sicherlich GK110 effizienter sein.

Gipsel
2012-03-12, 10:59:28
Scheint so als wären wir bei 295mm2 (17,2x17,2).Das ist schon extrem heiß.
Naja nicht unbedingt. Allein der kleinere Speichercontroller dürfte gut was ausmachen. Das war laut Gipsels Aufstellung (die ich nicht mehr finde) ein beträchtlicher Teil der Die Size. Lassen wir uns überraschen :)
Meinst Du die für Tahiti (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9197796#post9197796)?

boxleitnerb
2012-03-12, 11:06:40
Das ist schon extrem heiß.

Meinst Du die für Tahiti (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9197796#post9197796)?

294? 296?
Du weißt doch was :D

Ja genau das. 17% sind schon ordentlich. Wäre das für ein 256-bit Interface in etwa linear, also statt guten 60mm2 eben 40mm2. Schon 20 gespart.

Skysnake
2012-03-12, 11:15:34
Wir für nen "Pi mal Daumen"-Wert eine gute Näherung sein.

Ronny145
2012-03-12, 11:55:01
Wenn das Die wirklich nur rund 300 mm² beträgt und im Schnitt vor Tahiti XT bei geringeren Verbrauch (<200W TDP) liegt, wäre das aller Ehren wert. Was mich nur stört ist der Preis.

Gipsel
2012-03-12, 12:04:35
294? 296?
Du weißt doch was :D
Deine +-1mm² Idee ist sehr interessant. Aber ich meinte natürlich, daß wir uns dann auf eine heiße Konkurrenz einstellen können. ;)
Ja genau das. 17% sind schon ordentlich. Wäre das für ein 256-bit Interface in etwa linear, also statt guten 60mm2 eben 40mm2. Schon 20 gespart.Sogar etwas mehr, da der eigentliche Speichercontroller da noch gar nicht mit drin ist (der ist dort zusammen mit den ROPs und dem L2 subsummiert, da habe ich mich nicht getraut, eindeutige Zuordnungen zu treffen). Irgendwo habe ich letztens übrigens gehört, daß Tahiti nur 352mm² oder so messen soll, nicht daß das entscheidend wäre (vielleicht rechnet man einfach weniger vom Verschnitt am Rand mit ein, k.A.).

PHuV
2012-03-12, 12:29:38
Hab ich das jetzt richtig gelesen, daß der GK110 nur für den Profimarkt und HighEnd-Computing verwendet werden soll?

N0Thing
2012-03-12, 12:48:43
Hab ich das jetzt richtig gelesen, daß der GK110 nur für den Profimarkt und HighEnd-Computing verwendet werden soll?

Nein, er wurde im Hinblick auf diese Märkte entwickelt und designt, er wird aber, ebenso wie seine Vorgänger, auch für den normalen Spieler mehr Leistung bringen als ein GF110 oder GK104. Das ist zumindest der Stand der Dinge.

Iruwen
2012-03-12, 13:20:12
Wenn das Die wirklich nur rund 300 mm² beträgt und im Schnitt vor Tahiti XT bei geringeren Verbrauch (<200W TDP) liegt, wäre das aller Ehren wert. Was mich nur stört ist der Preis.
Was kosten die Karten denn?

Skysnake
2012-03-12, 13:32:28
Frag mal nVidia. Wenn du Glück hast, weiß es vielleicht inzwischen auch ein Boardpartner.

Ronny145
2012-03-12, 13:33:35
Was kosten die Karten denn?


Ich befürchte mehr Richtung High-End Preislage als Richtung Performance Preis. Exakte Preise sind noch nicht bekannt.

DavidC1
2012-03-12, 13:34:02
Scheint so als wären wir bei 295mm2 (17,2x17,2). Hier sieht man auch schön das eigentliche Die im Vergleich mit G92b.

[URL=http://www.pic-upload.de/view-13312344/nvidia-k104-core-2.jpg.html]

Am I the only one that thinks GK104 is larger than G92? GK104 = Red > G92 = Yellow

It seems the die is closer to 350mm2 if G92 is 334mm2.

I don't believe in measurements as they can be often quite wrong.

dargo
2012-03-12, 13:35:07
Was kosten die Karten denn?
Ich tippe aktuell mal auf 399$ unter folgenden Vorraussetzungen:

* Probleme mit 28nm
* ca. Tahiti XT Niveau
* etwas kleinere Die-Fläche
* kleineres SI und weniger Vram

Wenn die verdammten Fertigungsprobleme nicht da wären wären sicherlich die 299$ drin gewesen. Zudem geht man mit der GTX580 langsam Richtung 300€ womit die 399$/€ ganz gut passen würden.

AnarchX
2012-03-12, 13:36:59
Am I the only one that thinks GK104 is larger than G92? GK104 = Red > G92 = Yellow

It seems the die is closer to 350mm2 if G92 is 334mm2.

I don't believe in measurements as they can be often quite wrong.
Epxreview compares with G92b (276mm²).

boxleitnerb
2012-03-12, 13:37:34
Am I the only one that thinks GK104 is larger than G92? GK104 = Red > G92 = Yellow

It seems the die is closer to 350mm2 if G92 is 334mm2.

I don't believe in measurements as they can be often quite wrong.

The die on the left is G92b, not G92. I googled and the same picture showed up in a Xbitlabs article about the GTS250 which has a G92b on board.

DavidC1
2012-03-12, 13:41:54
I see, that's interesting, thanks.

Iruwen
2012-03-12, 13:47:33
Ich tippe aktuell mal auf 399$ unter folgenden Vorraussetzungen:

* Probleme mit 28nm
* ca. Tahiti XT Niveau
* etwas kleinere Die-Fläche
* kleineres SI und weniger Vram

Wenn die verdammten Fertigungsprobleme nicht da wären wären sicherlich die 299$ drin gewesen. Zudem geht man mit der GTX580 langsam Richtung 300€ womit die 399$/€ ganz gut passen würden.

399$ wäre je nach Leistung ja noch im Rahmen wenn für Tahiti XT momentan 549$ im Raum stehen. Mit einem Straßenpreis von ~300€ kann ich leben.

Soul
2012-03-12, 13:56:44
399$ wäre je nach Leistung ja noch im Rahmen wenn für Tahiti XT momentan 549$ im Raum stehen. Mit einem Straßenpreis von ~300€ kann ich leben.

Wenn die 2GB Version 399$ kostet, dann wird die 4GB Version bei 499$ sein. Somit würde AMD eine 1,5GB Version von XT bringen, wäre die bei 449$.

M4xw0lf
2012-03-12, 14:01:36
Irgendwie hab ich das Gefühl, dass seitdem mehr oder weniger klar ist, dass GK104 als GTX680 vermarktet wird, die Erwartungen an die Leistungsfähigkeit bei vielen hier etwas explodiert sind. Ich glaube nach wie vor nicht daran, dass Tahiti XT geschlagen werden kann, die Die-Size von knapp 300mm² spricht auch nicht dafür.

Winter[Raven]
2012-03-12, 14:02:56
Was ist aus den 299$ geworden? XD

M4xw0lf
2012-03-12, 14:06:14
;9205342']Was ist aus den 299$ geworden? XD

Die sind der schlechten 28nm-Produktion und AMDs neuer Hochpreis-Politik zum Opfer gefallen.

boxleitnerb
2012-03-12, 14:17:43
Irgendwie hab ich das Gefühl, dass seitdem mehr oder weniger klar ist, dass GK104 als GTX680 vermarktet wird, die Erwartungen an die Leistungsfähigkeit bei vielen hier etwas explodiert sind. Ich glaube nach wie vor nicht daran, dass Tahiti XT geschlagen werden kann, die Die-Size von knapp 300mm² spricht auch nicht dafür.

Wieso? Schau dir Pitcairn an, der ist nur 212mm2 groß und kommt oft verdammt nah an die 7950 ran, die 7970 ist dann nur 15% schneller. Außerdem wissen wir nichts über den Takt. Wenn Nvidia etwas Energieeffizienz opfert und den Takt erhöht, steigt Perf/mm2.

dildo4u
2012-03-12, 14:21:58
Jup schon ein 200W Pitcairn reicht dicke und GK104 ist noch wesentlich größer + hat das nötige High-End TDP.

y33H@
2012-03-12, 14:28:09
Das Ding hat 2x 6P und ist damit sicher nicht High-End ;-)

dildo4u
2012-03-12, 14:30:29
Reicht um 7970 TDPs zu überbieten.

MadManniMan
2012-03-12, 14:37:13
Das Ding hat 2x 6P und ist damit sicher nicht High-End ;-)

Gehört zu Eurem NDA, nicht darüber reden zu dürfen, dass Ihr ein NDA habt und dementsprechend nix vor heute Abend kommentieren dürft, was andere Leaken und Ihr eh schon wisst ;)

Iruwen
2012-03-12, 14:37:33
Für die 7970 ist afaik eine Maximum Board Power von 250W angegeben, da sollte man mit 2x6-Pin nicht hinkommen.

dargo
2012-03-12, 14:39:36
399$ wäre je nach Leistung ja noch im Rahmen wenn für Tahiti XT momentan 549$ im Raum stehen. Mit einem Straßenpreis von ~300€ kann ich leben.
Nee, nee... so meinte ich das nicht. Ich beziehe mich hier eher auf den Straßenpreis von 455€ bei der HD7970. Bei der GTX680 würde ich dann unter den oben genannten Vorraussetzungen auf einen Straßenpreis von Anfangs 400€ tippen. Wenige Wochen nach dem Launch eventuell paar Euro weniger (also ohne Deppenaufschlag).

][immy
2012-03-12, 14:41:47
Irgendwie hab ich das Gefühl, dass seitdem mehr oder weniger klar ist, dass GK104 als GTX680 vermarktet wird, die Erwartungen an die Leistungsfähigkeit bei vielen hier etwas explodiert sind. Ich glaube nach wie vor nicht daran, dass Tahiti XT geschlagen werden kann, die Die-Size von knapp 300mm² spricht auch nicht dafür.

jep sehe ich auch so. zudem ist bisher nicht viel nach außen gedrungen außer eben gerüchte. auch bei AMDs 2900er gabs damals gerüchte der würde abgehen wie sonst noch was.

in den letzten generationen hat nvidia AMD noch nie mit einer kleineren Die Fläche schlagen können, warum sollten sie es also jetzt tun. die Architektur hat sich vielleicht ein wenig verändert, aber ein so radikaler schritt wie AMDs Architekturänderung dürfte es nun nicht gerade werden.

was diesen angeblichen Battlefield 3 Benchmark angeht, hier ist der Unterschied zwischen 7970 und 580 nicht gerade gigantisch (~10-15%). D.h. wenn die GTX 680 jetzt 10% über der 7970 liegt, heißt das nicht gerade viel. Das kann auch schnell mal über den Treiber eingefahren werden (ich gehe jetzt von diesem Test (http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index38.php) aus, da die Werte von Test zu Test stark varriieren kann es natürlich auch einfach Cherry Picking bei der Szene sein). Aber Vorabtests sind immer mit vorsicht zu genießen.

Warten wir mal bis zu den ersten hoch offiziellen zahlen.

Ich hoffe nur das (auch wenn der 28nm Prozess derzeit noch schlecht ist) wenigstens ein Preiskampf gestartet wird wenn die dinger raus sind. Aber so wie die gerüchte bisher aussehen dürfte es wohl erst mal keinen Preiskampf geben :(

Soul
2012-03-12, 14:43:52
Das Ding hat 2x 6P und ist damit sicher nicht High-End ;-)

Waren in den Boardpic's nicht 8P und 6P verlötet?

cR@b
2012-03-12, 14:45:07
Nee, nee... so meinte ich das nicht. Ich beziehe mich hier eher auf den Straßenpreis von 455€ bei der HD7970. Bei der GTX680 würde ich dann unter den oben genannten Vorraussetzungen auf einen Straßenpreis von Anfangs 400€ tippen. Wenige Wochen nach dem Launch eventuell paar Euro weniger (also ohne Deppenaufschlag).

Ich bekenne mich hier offiziell zum Depp! :D Brauch endlich ne neue Karte, los macht hinne nV!

dargo
2012-03-12, 14:51:10
[immy;9205408']
in den letzten generationen hat nvidia AMD noch nie mit einer kleineren Die Fläche schlagen können, warum sollten sie es also jetzt tun.
Weil sie jetzt einen anderen Weg einschreiten.

Schau dir die HD7870 an und vergleiche diese mit der HD7970. Letztere hat eine um 72% größere Die-Fläche. Wieviel % liegt die HD7970 nochmal vor der HD7870? Fairerweise müsste man natürlich dabei den um 8% höheren Takt der HD7870 berücksichtigen. Dennoch ist der Performanceunterschied zwischen den beiden in Games nie so hoch.

Edit:
Für eine bessere Perf/mm² in Games beim GK104 vs. Tahiti sehe ich gute Chancen. Die sehr gute Perf/mm² vom Pitcairn wird man sicherlich nicht ganz erreichen können.

Superheld
2012-03-12, 14:56:43
na ob was kommt ?:D

Blediator16
2012-03-12, 15:01:14
Weil sie jetzt einen anderen Weg einschreiten.

Schau dir die HD7870 an und vergleiche diese mit der HD7970. Letztere hat eine um 72% größere Die-Fläche. Wieviel % liegt die HD7970 nochmal vor der HD7870? Fairerweise müsste man natürlich dabei den um 8% höheren Takt der HD7870 berücksichtigen. Dennoch ist der Performanceunterschied zwischen den beiden in Games nie so hoch.

Eben da liegt auch der größte Unterschied :biggrin:

dargo
2012-03-12, 15:08:03
Eben da liegt auch der größte Unterschied :biggrin:
In welchen Games liegt eine HD7970@1000Mhz GPU 72% vor der HD7870? Link bitte...

Blediator16
2012-03-12, 15:10:24
In welchen Games liegt eine HD7970@1000Mhz GPU 72% vor der HD7870? Link bitte...

Ich habe mich nicht gut ausgedrückt. Du schriebst in Games ist der Unterschied nicht 72% und darauf sagte ich eben da liegt der Unterschied. Nimmt man GPGPU Zeug, dann sieht das wieder komplett anders aus und darin liegen dann die großen Vorteile des Tahiti.

RoNsOn Xs
2012-03-12, 15:12:34
Ich bekenne mich hier offiziell zum Depp! :D Brauch endlich ne neue Karte, los macht hinne nV!
von manchen denke i einfach nur dass sie etwas neues brauchen. groß schneller wird hier mit dem gk104 nichts, was nich auch schon heut lieferbar wäre.

dargo
2012-03-12, 15:14:21
Ich habe mich nicht gut ausgedrückt. Du schriebst in Games ist der Unterschied nicht 72% und darauf sagte ich eben da liegt der Unterschied. Nimmt man GPGPU Zeug, dann sieht das wieder komplett anders aus und darin liegen dann die großen Vorteile des Tahiti.
Ah... jetzt ich verstehen. :D

Dural
2012-03-12, 15:25:11
gibt es den heute abend wirklich infos? ich denke eher nicht.

NV typisch wäre ja immer um 15:00 UHR :rolleyes:

y33H@
2012-03-12, 15:52:19
Waren in den Boardpic's nicht 8P und 6P verlötet?Die Bilder des Boards zeigen 2x 6P - und damit weniger als eine HD 7970 und eher HD 7950. Also wird das Teil wohl kaum 250W saufen ...

Skysnake
2012-03-12, 16:22:12
Ich glaub er meint, dass dort eben Lötpunkte für 2x 6Pin und 1x 8 Pin vorhanden sind.

Dural
2012-03-12, 16:24:59
ja und?

schon die 8800GTX hatte einen 8-Pin auf dem PCB, gab es aber selbst als Ultra immer nur mit 2x 6-Pin

Die 7970 hat sogar 2x 8-Pin auf dem PCB...


Das die gezeigten GK104 Karten bis jetzt nicht in der selben Verbrauch Liga spielen wie die 7970 dürfte ja mittlerweilen klar sein.

Skysnake
2012-03-12, 16:28:01
Was am Ende verbaut wird, wissen wir nicht.

Man kann halt nur sagen, realistisch bewegt sich das Ding irgendwo zwischen 225W und 300W.

Dural
2012-03-12, 16:32:34
Nein, Realistisch sind 160-210Watt TDP.

Was anderes geht mit 2x 6-Pin auch gar nicht.

Skysnake
2012-03-12, 16:38:37
Dural liest du was ich schreibe?

Das Board bietet 2x6Pin & 1x8Pin Lötpunkte, also ist mal auf maximal 375W beschränkt. Das kann man mit 100% Sicherheit sagen.

Mit 99,99% Sicherheit weiß man, das es maximal 1x6+1x8 Pin werden. Also maximal 300W.

So und für die 2x6Pin würde ich nur noch zu 60-90% Sicherheit davon ausgehen. Ich glaube zwar auch nicht, das nVidia das Ding so hoch prügelt, das Sie die 225W knacken, aber man sollte niemals nie sagen.

GK110 dauert halt allem Anschein nach noch ziemlich lange. Ergo ist die Entscheidung bei nVidia nicht einfach, was man macht. Da rauchen die Köpfe sicherlich bei nVidia.

aufkrawall
2012-03-12, 16:39:53
Nein, Realistisch sind 160-210Watt TDP.

Was anderes geht mit 2x 6-Pin auch gar nicht.
Meine GTX 570 hat auch nur 2x 6-Pins und mit Spannungserhöhung ist der Verbrauch jenseits von Gut und Böse.

cR@b
2012-03-12, 16:41:21
von manchen denke i einfach nur dass sie etwas neues brauchen. groß schneller wird hier mit dem gk104 nichts, was nich auch schon heut lieferbar wäre.

Das seh ich etwas anders! Habe damals auch die 480er sofort gekauft und kam von der 280 GTX und muss sagen, dass mit dem Release der 580 GTX der frühzeitige Kauf der 480er perfekt war! Ok mag sein, dass der Gk110 wenn er mal kommt wesentlich schneller sein sollte aber sicher kann man nicht sein und bis dahin brauche ich etwas mehr Leistung und die bekomme ich mit Gk104 ;) Und doch, ich reize meine 480er derzeit mehr als aus...

Adam D.
2012-03-12, 16:45:45
Er hat aber dennoch recht: GK104 wird keine Performance-Rekorde aufstellen. Auch wenn er etwas schneller als Tahiti XT werden sollte, bewegt sich das im Rahmen zu dem, was wir bis jetzt hatten (=GTX580). Die ~20-30% merkt man bestimmt an der ein oder anderen Stelle, aber wirklich bahnbrechend wird's nicht sein (und es muss auch gar nicht).

cR@b
2012-03-12, 16:48:03
Er hat aber dennoch recht: GK104 wird keine Performance-Rekorde aufstellen. Auch wenn er etwas schneller als Tahiti XT werden sollte, bewegt sich das im Rahmen zu dem, was wir bis jetzt hatten (=GTX580). Die ~20-30% merkt man bestimmt an der ein oder anderen Stelle, aber wirklich bahnbrechend wird's nicht sein (und es muss auch gar nicht).

Und das ist der Punkt... 20-30% gegenüber ner 580er aber die hab ich nicht ;)

BigKid
2012-03-12, 16:49:13
Er hat aber dennoch recht: GK104 wird keine Performance-Rekorde aufstellen. Auch wenn er etwas schneller als Tahiti XT werden sollte, bewegt sich das im Rahmen zu dem, was wir bis jetzt hatten (=GTX580). Die ~20-30% merkt man bestimmt an der ein oder anderen Stelle, aber wirklich bahnbrechend wird's nicht sein (und es muss auch gar nicht).
Hmm... Also ich sag mal wenn er GTX570 x 1.5 (mehr nehm ich immer gern) schafft und dabei 25% weniger verbraucht (und sich somit leiser kühlen läßt) dann würde ich schwach werden denke ich... Aber das hatten wir schon...
Das heist aber auch, dass ich auf GUTE Custom Designs warten muss oder später nochmal Geld in die Hand nehmen schrauben muss (sobald es was gibt)...

y33H@
2012-03-12, 16:49:24
@ Skysnake

Alle Bilder zeigen 2x 6P, auf keinem ist ein 8P aufgelötet ...

Nein, Realistisch sind 160-210Watt TDP. Was anderes geht mit 2x 6-Pin auch gar nicht.Nö, du kannst da auch 300+ Watt drüber beziehen, sondern die PSU und die Platine das mitmachen. 225W bei 2x 6P ist reine Theorie.

Skysnake
2012-03-12, 17:02:51
Ich red nicht von verlötet, sondern nur von LötPUNKTEN :ugly:

Und die 225 sind halt die Specs. Gerade Systemhersteller reagieren da teils schon durchaus alergisch drauf, wenn man mehr zieht.

AnarchX
2012-03-12, 17:07:49
Laut Fudo keine 670 Ti: http://fudzilla.com/home/item/26289-nvidias-upcoming-card-is-gtx-680

Das könnte auch das Gerücht mit der gleichen SP-Zahl erklären.
Wenn das 40% 680? BIOS nun den finalen Stand bzgl. Taktraten und TDP-Einstellung darstellt, könnte die Karte wohl gute 10% vor der 7970 liegen. Was wiederrum zu den heise-Gerüchten passen würde.

y33H@
2012-03-12, 17:07:51
Deswegen gibt's ja Specs - damit man sich danach richten kann :ulol:

Hugo78
2012-03-12, 17:17:55
Laut Fudo keine 670 Ti: http://fudzilla.com/home/item/26289-nvidias-upcoming-card-is-gtx-680

Das könnte auch das Gerücht mit der gleichen SP-Zahl erklären.

Ja, auf der anderen Seite, warum soll man etwas 680 nennen das langsamer als ne 7970 ist, wenns auch nur 5% wären?!

Adam D.
2012-03-12, 17:31:36
Laut Fudo keine 670 Ti: http://fudzilla.com/home/item/26289-nvidias-upcoming-card-is-gtx-680

Das könnte auch das Gerücht mit der gleichen SP-Zahl erklären.
Wenn das 40% 680? BIOS nun den finalen Stand bzgl. Taktraten und TDP-Einstellung darstellt, könnte die Karte wohl gute 10% vor der 7970 liegen. Was wiederrum zu den heise-Gerüchten passen würde.
Das sind schlechte Nachrichten. Damit findet meine HD5850 also wieder keinen Nachfolger ;(

AnarchX
2012-03-12, 17:35:23
Vielleicht ein Faktor 2 im Durchschnitt und mit Tessellation vielleicht deutlich mehr, sind zu wenig?

Adam D.
2012-03-12, 17:36:01
Vielleicht ein Faktor 2 im Durchschnitt und mit Tessellation vielleicht deutlich mehr, sind zu wenig?
Für >400€ leider ja. Das ist einfach nicht für mich zu stemmen.

AnarchX
2012-03-12, 17:41:33
Bis Ende 2012 sollten GK104 und vielleicht auch Tahiti (@256-Bit?) in Richtung 200€ bewegen, sodass sie ein interessantes Upgrade für die Käufer der ersten D3D11-Karten darstellen.

Adam D.
2012-03-12, 17:45:17
Bis Ende 2012 sollten GK104 und vielleicht auch Tahiti (@256-Bit?) in Richtung 200€ bewegen, sodass sie ein interessantes Upgrade für die Käufer der ersten D3D11-Karten darstellen.
Jo, so werden das wahrscheinlich mit mir viele andere Käufer planen. Es ist schon irgendwie gemein, dass der wirkliche Nachteil der 2012er-GPUs bis jetzt allein der Preis ist :freak:

dildo4u
2012-03-12, 17:46:00
Bis Ende 2012 sollten GK104 und vielleicht auch Tahiti (@256-Bit?) in Richtung 200€ bewegen, sodass sie ein interessantes Upgrade für die Käufer der ersten D3D11-Karten darstellen.

Unrealistisch imo eine 7870 ist schon ein gutes Update,da ist es wesentlich realistischer das die bei 200€ landet.

Dural
2012-03-12, 17:46:21
Alle Bilder zeigen 2x 6P, auf keinem ist ein 8P aufgelötet ...

Nö, du kannst da auch 300+ Watt drüber beziehen, sondern die PSU und die Platine das mitmachen. 225W bei 2x 6P ist reine Theorie.


Ja klar KANN man, die Spezifikationen sehen aber nur 75Watt pro 6-Pin vor und kein Hersteller der Welt wäre so bescheuert und würde diese deutlich "über lasten" und im schlimmsten Fall Serien von Netzteil auf eigene Kosten umtauschen zu müssen die eben nur die 75Watt vorgesehen haben, wenn man doch auch einen 8-Pin verlöten kann der sogar vorgesehen ist. ;)

AnarchX
2012-03-12, 17:50:57
Unrealistisch imo eine 7870 ist schon ein gutes Update,da ist es wesentlich realistischer das die bei 200€ landet.
Hängt wohl ganz von der Fertigung bei TSMC ab und ob es einen echten Wettbwerb zwischen AMD und Nvidia gibt.

Ein 212mm² Chip der sich 10 Monate nach dem Launch noch über 200€ hält, wäre schon sehr traurig.

Soul
2012-03-12, 18:10:00
@y33H

Auf dem Boardlayout sieht man, dass je einmal 6P und 8P verlötet ist. Es sei denn, dies ist kein GK104 sondern ein anderer Chip.

http://www.techpowerup.com/img/12-03-09/129b.jpg

Hugo78
2012-03-12, 18:13:40
@y33H

Auf dem Boardlayout sieht man, dass je einmal 6P und 8P verlötet ist.

Ich seh da die beiden 2*6 für den DHE-Tower verlötet.

Wenn das 40% 680? BIOS nun den finalen Stand bzgl. Taktraten und TDP-Einstellung darstellt, könnte die Karte wohl gute 10% vor der 7970 liegen. Was wiederrum zu den heise-Gerüchten passen würde.

Gut wenns sowas gibt, dann wären wir anderes ausgedrückt, auf dem Level einer GTX 590.
Wobei die 40% wohl ein max.OC darstellten, aber +15-20% (vom -5% ausgehend) würde ja auch schon reichen.

Gipsel
2012-03-12, 18:14:17
Es könnte von der Version abhängen, was genau verlötet wird.

Skysnake
2012-03-12, 18:16:17
2x6 Pin sind definitiv verlötet. Ob die 2 Pins des 8er verlötet sind, kann man nicht genau sagen. Es ist auf jeden Fall Lötzinn aufgetragen, was dafür spricht, das diese zwei Pins ebenfalls angeschlossen sind. Allerdings sieht man keine eingeschlossenen Metallenden vom Stecker.

Ist schwer zu sagen, ob das jetzt 8 Pin oder 6 Pin ist. Ich würde weder das eine noch das andere ausschließen bei durch dieses Bild, wobei ich wegen dem Lötzinn doch eher Richtung 8 Pin tendiere.

@Gipsel:
Ja, das wird am wahrscheinlichsten sein. Eventuell auch GTX570 mit 2x6 und GTX680 mit 1x6 und 1x8, zumindest die OC-Versionen.

Thunder99
2012-03-12, 18:18:20
Für mich sieht das nach einem sehr flexiblen Board Design aus, damit die Partner nicht unbedingt ein eigenes Design entwickeln müssen für ihre OC-Varianten (sofern diese wirklich kommen)

Btw, mir scheint es so, dass der GK104 der G92(b) die 2. ist um die Resourcen für den neuen High-End Chip zu sparen. Dieser braucht halt länger in der Entwicklung (wie damals beim GT200?)

M4xw0lf
2012-03-12, 18:25:08
Ja, auf der anderen Seite, warum soll man etwas 680 nennen das langsamer als ne 7970 ist, wenns auch nur 5% wären?!

Einfach - weil man im Moment nichts schnelleres hat.

Hugo78
2012-03-12, 18:31:02
@M4xw0lf

Eine GTX 680 hat schneller zusein.
Das weiß man bei NV auch, ausser sie haben sich die PR Nasen eingekauft, die AMD grad entlassen hat.
Also die die damals für die Entscheidung verantwortlich waren, den Bulli als FX zuverkaufen.

Es ist auf jeden Fall Lötzinn aufgetragen,

Schaut mir einfach nur nach einer weißen Unterlage aus, die erstmal wenig Unterschied zum Lötzinn her gibt.
Wenn man das Bild aber etwas abdunkelt dann erkennt man es deutlicher.

http://www10.pic-upload.de/12.03.12/d1m2zaod971.jpg (http://www.pic-upload.de/view-13318422/129b300.jpg.html)

dildo4u
2012-03-12, 18:33:41
Einfach - weil man im Moment nichts schnelleres hat.
Unwahrscheinlich durch den frühen Launch von AMD hatte man alle Zeit die Karte optimal auf das AMD Angebot zu tunen.AMD hat beim Takt viel zu viel Luft gelassen,das Tor ist weit offen man muss nur noch versenken.

Skysnake
2012-03-12, 18:36:33
Das ist eundeutig gelärtet worden an den beiden Anschlüssen... Also ich seh absolut keinen Grund, warum du daran zweifelst. Der einzige Unterschied ist halt, dass da scheinbar keine Verbindungen eingelötet wurden. Je nach dem muss das aber auch gar nicht sein, um einen 8 Pin Stecker vor zu sehen.

Und bzgl der Leistung von GTX680. Wo steht bitte, das eine GTXx80 schneller sein muss?

Und vor allem, wo stehst, das Sie außerhalb von Cherrypicking schneller sein muss? nVidia hat auch gesagt, die GTX590 wäre die schnellste GPU der Welt, obwohl Sie im Durchschnitt nicht unbedingt schneller war als die 6990....

Und gerade der Turbo ermöglicht ungeahnte Möglichkeiten, was Cherrypicking betrifft....

Ich wäre mit solchen Aussagen also SEHR SEHR SEHR vorsichtig, zumal Sie eben das widerspigeln, was der "dumme" schlecht informierte Käufer denkt, und dementsprechend dann auch kauft...

Gipsel
2012-03-12, 18:37:40
Schaut mir einfach nur nach einer weißen Unterlage aus, die erstmal wenig Unterschied zum Lötzinn her gibt.
Wenn man das Bild aber etwas abdunkelt dann erkennt man es deutlicher.Was für eine weiße Unterlage?!? Die würde man ja wohl bei den definitiv nicht verlötetem 6 Pin-Anschluß daneben auch sehen, oder? Da ist schon Lötzinn aufgetragen, wie Skysnake sagt. Aber das ist es z.T. auch, wenn da keine Pins eingelötet sind. Ich würde auch vermuten, daß OC-Versionen dann die 8Pin-Möglichkeit nutzen werden, Standard wird es vielleicht nicht werden.

Dural
2012-03-12, 18:41:56
denk ich nicht, das PCB hat schon alle Phasen verlötet und hat trotzdem nur 2x 6-Pin und ich kann mich auch an keine OC Karte (Referenz!) erinnern wo dies so war.

y33H@
2012-03-12, 18:42:39
Ich sehe hier 2x 6P.

42223

Dural
2012-03-12, 18:45:58
jep, zudem dürfte es schwierig sein einen solchen Stecker überhaupt zu bekommen!?! schon der 2x 6-Pin dürfte eine Sonderanfertigung sein?!?

aber wenn ich das PCB so anschaue kann man davon ausgehen das NV noch sehr viel mit GK104 vor hat, ich kann mir auch eine unbennung auf GTX7xx vorstellen sobald der GK110 als GTX780 kommt!

Skysnake
2012-03-12, 18:49:39
Und, das ist kein Argument dagegen. Nimmste 2x8 Pin, wobei beim unteren nichts ausgearbeitet ist für die zusätzlichen Pins, oder aber eben leer sind.

@y33H@:

Findest du es aber nicht auch seltsam, dass da die Lötpunkte gesetzt wurden? Das ist ja dann entweder ein anderes Werkzeug, oder aber ein Arbeitsschritt mehr. Zusätzlich verbraucht man unnötig Lötzinn. Ist zwar nicht viel, aber normal wird ja auch an jedem Furz 0,1Cent Teil gespart...

Für mich sieht das schon so aus, als ob welche mit und ohne 8 Pin von der gleichen Linie laufen (könnten).

AnarchX
2012-03-12, 18:51:57
Bei der 7970 wird auch Lötzinn verschwendet.

Gipsel
2012-03-12, 18:54:19
denk ich nicht, das PCB hat schon alle Phasen verlötet und hat trotzdem nur 2x 6-Pin und ich kann mich auch an keine OC Karte (Referenz!) erinnern wo dies so war.Was hat die Anzahl der Phasen damit zu tun? Die beiden zusätzlichen Pins sind zum einen sowieso beide Masse und sind zum anderen auf dem Board mit den anderen Massepins verbunden.
Ich sehe hier 2x 6P.

42223
Wenn Du genau hinsiehst, sind dort auch die Kontakte des seitlich daneben liegenden (unbelegten) 6Pin-Anschlusses verzinnt, was bei dem Foto von der Unterseite nicht der Fall ist. Es ist also eine andere Version der Karte. ;)
jep, zudem dürfte es schwierig sein einen solchen Stecker überhaupt zu bekommen!?! schon der 2x 6-Pin dürfte eine Sonderanfertigung sein?!?Und wieso sollte man dann keinen 8+6Pin-Turm bekommen können, wenn schon der 6+6 Pin extra gefertigt wurde?

Timbaloo
2012-03-12, 18:54:45
Also wenn die Specs so klar sind, dass es nur noch um ein paar mg Lötzinn geht :freak:

Den Turm-Stecker glaub ich auch erst wenn ich ihn sehe.

Botcruscher
2012-03-12, 18:54:53
aber wenn ich das PCB so anschaue kann man davon ausgehen das NV noch sehr viel mit GK104 vor hat, ich kann mir auch eine unbennung auf GTX7xx vorstellen sobald der GK110 als GTX780 kommt!

Natürlich wird der als 7XX recycelt. Die ganze Zwischengeneration ist ein Marketingstunt bester Güte. Natürlich hat AMD unendlich viel Luft nach oben gelassen. Was an den Fertigungsproblemen dran ist wird sich ja die nächsten Wochen zeigen. Bei bedarf schmeißt AMD halt eine selektierte XTX mit 1100MHz raus. Gut für den Kunden ist es alle mal.

Ailuros
2012-03-12, 18:54:58
Meinen Mittelfinger auch fuer NVIDIA bis sich die 28nm GPU Preise endlich normalisieren.

Adam D.
2012-03-12, 19:05:23
Meinen Mittelfinger auch fuer NVIDIA bis sich die 28nm GPU Preise endlich normalisieren.
Kannst du denn schon andeuten, wie "schlimm" es bei Nvidia aussehen wird?

OgrEGT
2012-03-12, 19:08:33
Ist doch total Banane mit den Preisen. Eigentlich auch wurst was genau welche Karte, egal ob NV oder zukünftig NV kostet. Die Siuation der schlechen Ausbeute trifft hüben wie drüben, so dass beide hohe Preise ansetzen, damit die Nachfrage klein bleibt. Im anderen Fall wären die Karten zwar billig, es würde sie aber keiner kaufen können, weils zu wenige sind. Also würde man halt darüber meckern. Ergo gemeckert wird so oder so egal ob die Preise hoch oder niedrig sind, solange bis die Fertigung die Nachfrage decken kann.

Edit:
(Reine Feststellung) Worüber man noch meckern könnte, dass bei hohen Preisen, nur wenige, die sich den Spaß finainziell leisten können, privilegiert sind.

AnarchX
2012-03-12, 19:13:03
Es sind wohl eher Kapazitätsbeschränkungen, als Beschränkungen bei der Ausbeute, sonst würden AMDs 28nm SKUs etwas anders aussehen.

Ailuros
2012-03-12, 19:14:44
Kannst du denn schon andeuten, wie "schlimm" es bei Nvidia aussehen wird?

Genauso beschissen wie bei der Konkurrenz.

OgrEGT
2012-03-12, 19:14:48
Kommt aber aufs Gleiche raus. Die Verfügbarkeit ist knapp.

AwesomeSauce
2012-03-12, 19:16:54
Applaus für TSMC :uclap: Der Laden kommt echt nicht in die Gänge...

Ailuros
2012-03-12, 19:19:07
Ist doch total Banane mit den Preisen. Eigentlich auch wurst was genau welche Karte, egal ob NV oder zukünftig NV kostet. Die Siuation der schlechen Ausbeute trifft hüben wie drüben, so dass beide hohe Preise ansetzen, damit die Nachfrage klein bleibt. Im anderen Fall wären die Karten zwar billig, es würde sie aber keiner kaufen können, weils zu wenige sind. Also würde man halt darüber meckern. Ergo gemeckert wird so oder so egal ob die Preise hoch oder niedrig sind, solange bis die Fertigung die Nachfrage decken kann.

Edit:
(Reine Feststellung) Worüber man noch meckern könnte, dass bei hohen Preisen, nur wenige, die sich den Spaß finainziell leisten können, privilegiert sind.

Um es klar zu machen: ich haette finanziell kein Problem auf den Ladentisch zu legen und A oder B zu kaufen. Ich bin eben leider ein ziemlich dickkoepfiger ESEL dem es ums Prinzip geht. Ob man es jetzt verstehen kann, ob AMD oder NVIDIA ist mir total wurscht. Ich weigere mich ein jegliches Produkt zu kaufen wenn ich weiss dass es um einiges weniger wert ist. Zu teuer herzustellen? Ein zweiter Mittelfinger fuer beide. Haetten sie beide lieber ein paar Monate warten sollen, eben damit die early adopters die Treiber-lernkurse beider Seiten nicht zusaetzlich finanzieren muessen.

HarryHirsch
2012-03-12, 19:23:50
Applaus für TSMC :uclap: Der Laden kommt echt nicht in die Gänge...

ist doch nichts neues... dieses leidige spielchen gibt es doch nun schon seit jahren.

Ronny145
2012-03-12, 19:25:35
Sollte es heute nicht den paper launch geben laut Charlie? So ein Dummschwätzer der Typ.

Hugo78
2012-03-12, 19:25:36
Was für eine weiße Unterlage?!? Die würde man ja wohl bei den definitiv nicht verlötetem 6 Pin-Anschluß daneben auch sehen,

Siehst du auch an den drei Löchern über den Lötstellen.

Botcruscher
2012-03-12, 19:29:03
ist doch nichts neues... dieses leidige spielchen gibt es doch nun schon seit jahren.
Bring mich nicht dazu die Jubelmeldungen von TSMC/28nm und meine Reaktion dazu raus zu suchen. Spätestens seit der 40nm Produktion läuft es nur noch beschissen und TSMC ist so langsam der Faktor, der einem Jahr aufs Jahr den Neukauf versaut. Drecksfirma...
PS: Kann die Jubelmeldungen des Marketing zu 22nm schon nicht mehr erwarten. Alles läuft super und besser als erwartet...

Adam D.
2012-03-12, 19:30:59
Genauso beschissen wie bei der Konkurrenz.
Welch große Freude :freak: Gehen sie 1:1 oder fordern sie die Preise der Konkurrenz immerhin ein bisschen heraus?

Edit: Ich mein das im Kontext der spekulierten Preisrunde im April.

Gipsel
2012-03-12, 19:33:51
Siehst du auch an den drei Löchern über den Lötstellen.
:confused:
Schau Dir nochmal genau die (nicht verzinnten) Kontakte des neben dem Turm liegenden 6 Pin-Steckers in Deinem Bild an:
http://www10.pic-upload.de/12.03.12/d1m2zaod971.jpg

Scheint da die Unterlage weiß durch? Du vergißt die Dicke des Boards, das würde schon perspektivisch nicht passen. Am Turm sind sind eindeutig alle potentiellen Kontakte verzinnt, was aber wie erwähnt über die Belegung nichts sagen muß. Deswegen ist ein Streit eigentlich auch sinnlos. ;)

foenfrisur
2012-03-12, 19:42:39
die platinen sind wohl vorverzinnt.
teile die definitiv nicht verwendet werden, werden auch nicht verzinnt.
aber auch verzinnte müssen NICHT verwendet werden.
das bild sagt also NIX über die anschlüsse aus.
2x6p oder 1x6p + 8p...beides möglich...je nach modell ;)

btw:
so zahlreiche infos heute zum kepler......

mfg

Gipsel
2012-03-12, 19:44:31
Sag ich ja.

Ravenhearth
2012-03-12, 19:45:17
PS: Kann die Jubelmeldungen des Marketing zu 22nm schon nicht mehr erwarten. Alles läuft super und besser als erwartet...
32nm hatte man ja gestrichen und dafür 28nm eingesetzt. Ist denn schon sicher, dass es 22nm von TSMC (für GPUs) geben wird?

AnarchX
2012-03-12, 19:53:53
20nm kommt bei TSMC nach 28nm und erste ARM-SoCs @20nm sind wohl für den Jahreswechsel erwartet.

foenfrisur
2012-03-12, 19:56:18
... erste ARM-SoCs @20nm sind wohl für den Jahreswechsel erwartet.

+12monate wegen "unerwarteter" fertigungsprobleme.... :freak:

mfg

AnarchX
2012-03-12, 19:57:35
Bis 20nm für GPUs brauchbar ist, gibt es vielleicht schon Interposer, mit denen man wieder etwas unabhängiger von TSMC wird.

Godmode
2012-03-12, 20:03:32
Schade das Intel keine Auftragsfertigung anbietet.

Ailuros
2012-03-12, 20:03:53
Ich lehn mich mal aus dem Fenster und behaupte dass die Geschichte mit dem hotclock totaler Bloedsinn ist. Ja die GPU taktet im turbo-Dingsda auf 1-1.1 aber man kann auch ein bisschen herumfummeln und ziemlich imposante Resultate erreichen.

Wie dem auch sei in ein paar Monaten wenn sich die Preise hoffentlich normalisieren, schau ich mich um ob Tahiti oder GK104 der bessere deal sein wird.

Odal
2012-03-12, 20:05:24
lang lebe GT200 - im wahrsten Sinn des Wortes traurig aber wahr ;(

so wie das aussieht erfüllt sich meine Befürchtung und der performance chip GK104 kommt zu highend Preisen bis dieser vom GK110 im 3-4 Q. in form der GTX780 abgelöst wird...und dann seiner eigentlichen Bestimmung nach als GTX760 umgelabled kommt.

An den ganzen 40nm Karten ändert sich preislich auch erstmal kaum was, da der GK104 da eher auf Preisebene einer HD7970 einsteigen wird (praktisch GTX580 preis + prozentual 2xMehrleistungs Aufpreis ergo ca. 450€ rum)

tolle wurst wir stagnieren seit 2 Jahren was Leistung pro € anbelangt

Ailuros
2012-03-12, 20:05:48
Schade das Intel keine Auftragsfertigung anbietet.

Nimm ein bisschen Abstand von dem Gedanken und denk nach was es fuer Knappheiten fuer Intel's eigentliches Kerngeschaeft bedeuten koennte und ob Du wirklich so etwas haben willst.

Skysnake
2012-03-12, 20:10:57
Naja, Ailuros, ich hab nicht wirklich etwas anderes von nVidia erwartet. Warum sollten die die Preise bei den schlechten Voraussetzungen senken, wenn AMD endlich mal nicht auf Preiskampf setzt?

Die wären doch schön blöd, so lange man die Kunden nicht mit Chips tot schmeisen kann....

@6/8 Pin-Diskussion:
Sag ich doch auch, das man es eben nicht sagen kann.... Wenigstens sehen das einige noch genau so wie ich. Danke ;)

Thunder99
2012-03-12, 20:23:15
Ich meine gelesen zu haben, dass es immer schwieriger wird in den kleineren Strukturen zu fertigen. Damit eingeschlossen braucht es immer bessere Technologien die teurer werden.

Mal ehrlich, hat außer Intel einer das Geld es einigermaßen zeitnah zu entwickeln? ;)

Ich glaube die günstigen Preise sind nach der 65/55nm Generation leider endgültig vorbei...

boxleitnerb
2012-03-12, 20:28:54
As an employee of one big pc retail company i've had a chance to see evga mini presentation of GTX 680 2 days ago. According to evga rep GTX 680 will launch on march 22nd, it packs 1536 cores, 2gb DDR5, it will have two 6-pin pci power connectors and TDP of 190w, MSRP is $550. He also said that gtx 560ti /570 /580 will get price cuts up to $50. And that GTX 570 wont get replaced until late may. The guy was super excited.

http://www.overclock.net/t/1225986/tpu-geforce-gtx-680-features-speed-boost-arrives-this-month-etc-etc/400#post_16691060

Ronny145
2012-03-12, 20:35:56
$550 ;D

Aber klingt seriös und einleuchtend für mich. GTX560 wird demnach weiterhin das Performance Segment bedienen. Vielleicht rutscht die GTX570 mit dem Preisnachlass rein, das war es dann auch. Der GK104 salvage part Ende Mai ist sehr spät.

Adam D.
2012-03-12, 20:39:02
Die 550$ können sie sich echt dermaßen in den Arsch blasen :ulol:

Winter[Raven]
2012-03-12, 20:39:56
TSMC soll in der Hölle brennen.... kommt halt davon, wenn nur einer Produziert.... In solchen Momenten wünsche ich mir, wirklich Intel würde auch GPU's fertigen...

Wird wohl nix mit neuem Rechner bis Ende des Jahren... Thank you and fuck you 4 nothing !!!

Zergra
2012-03-12, 20:41:06
lang lebe GT200 - im wahrsten Sinn des Wortes traurig aber wahr ;(

so wie das aussieht erfüllt sich meine Befürchtung und der performance chip GK104 kommt zu highend Preisen bis dieser vom GK110 im 3-4 Q. in form der GTX780 abgelöst wird...und dann seiner eigentlichen Bestimmung nach als GTX760 umgelabled kommt.

An den ganzen 40nm Karten ändert sich preislich auch erstmal kaum was, da der GK104 da eher auf Preisebene einer HD7970 einsteigen wird (praktisch GTX580 preis + prozentual 2xMehrleistungs Aufpreis ergo ca. 450€ rum)

tolle wurst wir stagnieren seit 2 Jahren was Leistung pro € anbelangt
Die Preise der 580GTX sind doch schon am sinken und NV richtet sich auf den Abverkauf ein. 50-70€ sind die ja schon runter.
Ich meine gelesen zu haben, dass es immer schwieriger wird in den kleineren Strukturen zu fertigen. Damit eingeschlossen braucht es immer bessere Technologien die teurer werden.

Mal ehrlich, hat außer Intel einer das Geld es einigermaßen zeitnah zu entwickeln? ;)

Ich glaube die günstigen Preise sind nach der 65/55nm Generation leider endgültig vorbei...
Da hast du wohl leider Recht, wenn man immer mehr Leistung möchte steigt auch der Preise. Nur Intel hat nach diesem Jahr keine Probleme die Ivi-CPUs für den Sandy Preis zu Launchen. Und das in 22nm .... Die werden schon bei 18nm sein wenn AMD/NV gerade bei 22ankommen. Und voallem da AMD erst den dem BD Nachfolger Nachfolger auf 28nm Umsteigt kommen schwere Zeiten. Die Guten Preise sind vorbei...

boxleitnerb
2012-03-12, 20:41:24
Kommt jetzt natürlich drauf an, wie schnell die 680 ist. Bei 190W TDP würde ich jetzt schon etwas mehr als 7970 Performance erwarten - die Frage ist, wieviel mehr.

Blaire
2012-03-12, 20:42:04
$550 ;D

Aber klingt seriös und einleuchtend für mich. GTX560 wird demnach weiterhin das Performance Segment bedienen. Vielleicht rutscht die GTX570 mit dem Preisnachlass rein, das war es dann auch. Der GK104 salvage part Ende Mai ist sehr spät.

Also wird man schneller als Tahiti XT sein, sonst würde man den Preis sicher nicht so hoch ansetzen. ;) Vorausgesetzt der Preis entspricht der Realität.

horn 12
2012-03-12, 20:42:53
Also kommt Heute eher nix mehr...
Für ca. 500 Euro sollte wohl dennoch mind. HD7970 Performance drinnsein, außer man kann nur geringste Mengen liefern und hat deshalb so hohe Preise.
Somit muss AMD gar nicht runter mit deren Preise was mir ganz und gar nicht gefällt.

Zergra
2012-03-12, 20:44:04
$550 ;D

Aber klingt seriös und einleuchtend für mich. GTX560 wird demnach weiterhin das Performance Segment bedienen. Vielleicht rutscht die GTX570 mit dem Preisnachlass rein, das war es dann auch. Der GK104 salvage part Ende Mai ist sehr spät.
Oh man... schaffen die das nichtmal genug "Schrott" Chips zu bauen :D das kann ja Spassig werden.
Der Preis scheint mir etwas unrealistisch :eek:

Ronny145
2012-03-12, 20:45:31
Also wird man schneller als Tahiti XT sein, sonst würde man den Preis sicher nicht so hoch ansetzen. ;) Vorausgesetzt der Preis entspricht der Realität.


Bei dem Preis wäre das zu erwarten, ja.

Ailuros
2012-03-12, 20:50:27
Nebenbei da es in der Zwischenzeit um einiges bessere Bilder vom GK104 die gibt, der die ist 17,15*17,15= 294mm2 gross. Tahiti = 365 -->294/GK104<--212/Pitcairn. 365 - 212 = 153 / 2 = 76.5 + 212 = 289. Wie gesagt in Groesse irgendwo in der Mitte zwischen den beiden dies.

Der Preis stimmt. $549 MSRP um ganz genau zu sein.

Winter[Raven],

Entschuldige wieso ist TSMC schuld wenn AMD zuerst und NV so schnell wie moeglich kurz danach Feuer unter ihre Aersche legen um mir nichts Dir nichts zu veroeffentlichen? Hat TSMC sie in irgend einer Art zu einem jeglichen launch gezwungen? Nein. Gab es eine absolute Notwendigt am Ende NICHT ein paar Monate zu warten fuer beide? Nein. Ergo ist es wohl ziemlich unfair IMHO das Ganze auf TSMC herauszulassen nur weil 2 IHVs einen Vogel haben.

Es gibt auch Herstellungsprobleme mit 28LP fuer SoCs bei so manchen foundries. Warum stellt hier keiner der grossen semis mir nichts dir nichts so frueh wie moeglich etwas aufs Laufband egal ob jeglicher SoC zumindest 50% mehr kosten wuerde als er wirklich wert ist? Weil vielleicht hier die Konkurrenten in Anzahl brutal groesser sind als nur 2 IHVs im standalone GPU Markt?

Ich sollte mal selber bedenken ob ich nicht einfach das Handtuch schmeissen sollte und mich auf angry birds in mobilem Firlefanz stattdessen zu begrenzen....*klatscht eine vollgeschissene Windel auf den Bildschirm und rennt davon....*

Bei dem Preis wäre das zu erwarten, ja.

Nicht nur in BF3 aber auch im Durchschnitt; stets nach NV.

Adam D.
2012-03-12, 20:53:17
Kommt jetzt natürlich drauf an, wie schnell die 680 ist. Bei 190W TDP würde ich jetzt schon etwas mehr als 7970 Performance erwarten - die Frage ist, wieviel mehr.
Genau so viel mehr, dass es reicht. Nachdem Nvidia die Tahiti-Specs hatte, hat man Kepler wahrscheinlich genau so hoch geprügelt, dass man den Konkurrenten schlagen kann. Da 28nm scheiße läuft und GK110 noch weit weg ist, kann man so wunderbar ein neues Flaggschiff (mit ~300mm² ;D ) präsentieren.

Zergra
2012-03-12, 20:54:06
Nicht nur in BF3 aber auch im Durchschnitt; stets nach NV.
Das heißt du kannst uns hier 100%ig Versichern das das so Eintreten wird :)

Blaire
2012-03-12, 20:59:06
Nicht nur in BF3 aber auch im Durchschnitt; stets nach NV.

Na hoffentlich auch in hohen Auflösungen. :smile:

Ronny145
2012-03-12, 21:01:24
Das heißt du kannst uns hier 100%ig Versichern das das so Eintreten wird :)


Das basiert offenbar auf Folien vom Hersteller, 100% versichern kann man da nichts. Bei dem Preis wäre ein durchschnittlich besseres Ergebnis als Tahiti XT jedoch alles andere als unrealistisch. (wenn der Preis wirklich stimmen sollte)

y33H@
2012-03-12, 21:03:44
550 USD für einen Performance-Chip :ulol: so wie (ganz) früher ...

Raff
2012-03-12, 21:04:20
2008 ist ist vorbei, jetzt wollen die Hersteller mal wieder die Kriegskassen füllen. Mh.

MfG,
Raff

Ailuros
2012-03-12, 21:05:16
Das heißt du kannst uns hier 100%ig Versichern das das so Eintreten wird :)

Genauso wie ich Dich ueber die Gewinn-zahlen der naechsten Lotterie versichern kann. Falls der eigentliche Unterschied um einige Prozente niedriger liegen sollte, wird es halt aus jeder Ecke ziemlich gewaltig donnern und ich werde mich bei solchen Preisen auch nicht davon fernhalten. Klingts besser so?

-GENO-
2012-03-12, 21:07:33
Kurze Frage: Wie viele Cuda Cores wird die 670er haben und wird deren Funktionalität wie die der z.B. 580er sein?

Adam D.
2012-03-12, 21:08:46
2008 ist ist vorbei, jetzt wollen die Hersteller mal wieder die Kriegskassen füllen. Mh.

MfG,
Raff
Das hat damit gar nix zu tun. Der Preis ist einfach totaler Irrsinn. Etwas höhere Preise wären ja ok, kein Zweifel. Aber es kann mir doch kein Mensch erklären, dass 550$ für diese Karten in irgendeiner Form betriebswirtschaftlich ergiebig für die Hersteller sind. Sollen sie halt GK110 für 849$ launchen :rolleyes:

Ailuros
2012-03-12, 21:08:52
2008 ist ist vorbei, jetzt wollen die Hersteller mal wieder die Kriegskassen füllen. Mh.

MfG,
Raff

7990 und GTX690 (oder wie das Ding heissen wird) bei "stinknormalen" >$700 MSRPs.

][immy
2012-03-12, 21:08:53
Das heißt du kannst uns hier 100%ig Versichern das das so Eintreten wird :)

wie er geschrieben hat, "stets nach nvidia". ... AMD präsentiert sich vor einem launch auch im besten licht. nur mit der ruhe bis unabhängige tests kommen.

@Ailuros
naja, TSMC hat schon für das Jahr 2011 den 28nm Prozess "versprochen". Die Hersteller müssen ja auf irgendwas bauen. Aber mich wundert das man die halbschritte neuerdings immer weglassen will. Eigentlich wollen AMD und nvidia möglichst kleine Schritte als neu verkaufen, da wäre es doch in ihrem interesse lieber halbe schritte mitzugehen und auf den kleineren Prozess eben noch ein wenig länger zu warten, denn dann ließe sich wieder eine "neue" generation verkaufen.

wobei ich leider auch sagen muss, in letzter zeit erscheint echt nix mehr wofür man etwas neues wirklich braucht. Erst bei den CPUs und nun auch bei den GPUs.
z.B. mein aktuelles System reicht völlig zum spielen (1080p) und arbeiten. Den einzigen grund warum ich da eine etwas neuere Grafikkarte drin haben möchte ist eigentlich nur die lautstärke und den stromverbrauch zu senken. wenn man ständig an dem ding arbeitet (z.B. die meiste zeit eine Remoteverbindung zu nem anderne Server/Client offen hat) nerven einen diese sachen schon ein wenig.

Zergra
2012-03-12, 21:09:13
Genauso wie ich Dich ueber die Gewinn-zahlen der naechsten Lotterie versichern kann. Falls der eigentliche Unterschied um einige Prozente niedriger liegen sollte, wird es halt aus jeder Ecke ziemlich gewaltig donnern und ich werde mit bei solchen Preisen auch nicht davon fernhalten. Klingts besser so?
Jap,
klar aber es hörte sich bei dir vorhin so an. Die paar Prozente spielen ja keine wirklich Rolle. Nur würde ich die GPU gerne einordnen können, und es scheint sich wohl über dem Tahiti XT Bereich einzuordnen.


Dacht ich mir schon fast das das nur auf Folien bassiert. Ob das am Ende auch genau stimmt bleibt aber abzuwarten. Einnige %te kann man wohl noch abziehen.:freak:

AnarchX
2012-03-12, 21:09:33
2008 ist ist vorbei, jetzt wollen die Hersteller mal wieder die Kriegskassen füllen. Mh.

Fragt sich nur ob da die Kunden mitmachen. Anders als vor einigen Jahren buhlen heute deutlich mehr interessante, elektronische Spielzeuge um den Geldbeutel des Kunden.

Aber wohl möglich ist es doch noch deutlich zu früh für 28nm GPUs und zum Ende des Jahres gibt es eine deutliche Preisentspannung.

Raff
2012-03-12, 21:12:41
Genauso wie ich Dich ueber die Gewinn-zahlen der naechsten Lotterie versichern kann. Falls der eigentliche Unterschied um einige Prozente niedriger liegen sollte, wird es halt aus jeder Ecke ziemlich gewaltig donnern und ich werde mich bei solchen Preisen auch nicht davon fernhalten. Klingts besser so?

Alles klar: Oh yeah, die Karte ist im Reviewer's Guide immer schneller. Applaus! :ulol:

MfG,
Raff

Ailuros
2012-03-12, 21:12:58
Fragt sich nur ob da die Kunden mitmachen. Anders als vor einigen Jahren buhlen heute deutlich mehr interessante, elektronische Spielzeuge um den Geldbeutel des Kunden.

Aber wohl möglich ist es doch noch deutlich zu früh für 28nm GPUs und zum Ende des Jahres gibt es eine deutliche Preisentspannung.

Hohe MSRPs begrenzen automatisch jegliche Nachfrage. Bei so begrenzter Nachfrage werden es beide IHVs es auch schaffen jegliche Nachfrage zumindest befriedigend zu decken.

uweskw
2012-03-12, 21:14:18
Ich hab jetzt meine alte GTX570 mit einem Artic Accelero Kühler bestückt. Komm jetzt auf 910 MHz und höre die Karte selbst unter Last kaum aus dem System raus. Da lohnt 28 nm nicht wirklich. Ich werde diese Generation wohl überspringen obwohl ich eigentlich aufrüsten wollte. Vielen anderen wird das ähnlich gehen.

Greetz
U.S.

fizzo
2012-03-12, 21:14:47
Dacht ich mir schon fast das das nur auf Folien bassiert. Ob das am Ende auch genau stimmt bleibt aber abzuwarten. Einnige %te kann man wohl noch abziehen.:freak:

Für mich ist und bleibt moment der "Turbo" die große Unbekannte in diesem Spiel. Dazu warte ich lieber unabhängige Test ab. Wie es aussieht werden die 7870/7850 ja richtige 28nm Schnäppchen :ugly:

Raff
2012-03-12, 21:18:45
Ich hab jetzt meine alte GTX570 mit einem Artic Accelero Kühler bestückt. Komm jetzt auf 910 MHz und höre die Karte selbst unter Last kaum aus dem System raus. Da lohnt 28 nm nicht wirklich. Ich werde diese Generation wohl überspringen obwohl ich eigentlich aufrüsten wollte. Vielen anderen wird das ähnlich gehen.

Greetz
U.S.

28 nm ist eben mehr als nur Fps.

MfG,
Raff

Timbaloo
2012-03-12, 21:20:36
A propos 7870/7850, was ist denn der Stand bei GK106? Der ging hier (und anderswo) irgendwie ein wenig unter, scheint mir.

Ailuros
2012-03-12, 21:23:11
Für mich ist und bleibt moment der "Turbo" die große Unbekannte in diesem Spiel. Dazu warte ich lieber unabhängige Test ab. Wie es aussieht werden die 7870/7850 ja richtige 28nm Schnäppchen :ugly:

Und wer sagt dass ein jeglicher Pitcairn bzw. GK106 nicht wirklich generell Dampf unterm Hintern haben? So lange man nicht auf den relativen Preis dieser schielt ist auch alles ziemlich imposant. Im Fall von einer 7870 vs. einer 6970 ist die erste wohl nur eine sehr relative "Aufruestung" wobei der eigentliche Vorteil nur bei dem sehr geringerem Stromverbrauch liegt. Sonst $350 MSRP vs. $350 MSRP. Glaub jetzt bloss nicht dass GK106 im Mai besonders schlechter aussehen wird - vom Preis wieder abgesehen wie oben. Sonst hast Du mit dem 192bittigen Dingsda einen Schnitt mehr Leistung als auf einem GF110 salvage part. Mainstream chips werden nicht ploetzlich aus reiner Magie Performance chips nur weil beide IHVs sich entschieden haben mit uebertriebenen Preisen anzukommen.

A propos 7870/7850, was ist denn der Stand bei GK106? Der ging hier (und anderswo) irgendwie ein wenig unter, scheint mir.

Verschwinde sofort aus meinem Hinterkopf; sonst siehe oben ;) und irgendwo im Mai.

Timbaloo
2012-03-12, 21:24:47
Verschwinde sofort aus meinem Hinterkopf; sonst siehe oben ;) und irgendwo im Mai.
Hmmm, ok *zusammenpack* :freak: