PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31

Nightspider
2012-02-08, 13:18:11
Selbst BF3 kommt unter normalen Umständen nicht auf 2GB.
2GB VRAM wären für eine GK104 Karte bei weitem ausreichend.

Für abnormale Settings mit Downsampling usw. würde die Leistung eh nicht in aktuellen Games reichen und wer es doch braucht, für den gibt es ja noch HighEnd Karten die mit mehr als 2GB VRAM erscheinen werden.

Ailuros
2012-02-08, 13:29:26
Fragt sich nur als was es verkauf wird (Preis)? ;)

Das Material dass jetzt erst nach der CES nach aussen leaked war eine GTX680/2GB GDDR5 basierend auf einem GK104 mit einem MSRP von $299.

Vermarktete Leistung = XT, meine konservativere Schaetzung ~>PRO.

V2.0
2012-02-08, 13:35:35
Der Name ist ja auch egal, denn die Leistung würde für den Preis stimmen.

Da bleibt Platz für eine 585 als Salvagepart des GK110 und einer 590 als vollen GK110. Darunter evtl. 570 als langsamer taktender GK104 Salvage, dann GK106 auf 560, GK106/7 auf 550, GK108 und Fermireste darunter

AnarchX
2012-02-08, 13:38:55
Der GK104 landet im Performance-Segment (was auch immer das heißen mag), die Karten sind normalerweise nicht für die ganz exzessiven Auflösungen mit SS gedacht. Daher sollten die 2GB eigentlich kein Problem darstellen.
Wahrscheinlich legen die Hersteller noch 3GiB(550-Methode) oder 4GiB-Versionen der 680 nach. Wobei letztere schon mehr als fragwürdig sind. Aber Freunde günstiger HPC-Cluster auf Consumer-HW-Basis würde es wohl freuen.


Da bleibt Platz für eine 585 als Salvagepart des GK110 und einer 590 als vollen GK110. Darunter evtl. 570 als langsamer taktender GK104 Salvage, dann GK106 auf 560, GK106/7 auf 550, GK108 und Fermireste darunter
Wenn GK110 wirklich bei >6 TFLOPs landet und sich entsprechend gegen New Zealand positioniert, wäre es wohl mal wieder Zeit für die Ultra Kategorie - z.B. Ultra 685 und Ultra 690. Die GTX-Kategorie mit einer 550/650 und DDR3-128-Bit-Versionen ist ja schon ziemlich verwässert.

Ravenhearth
2012-02-08, 13:44:03
Wenn GK110 wirklich bei >6 TFLOPs landet und sich entsprechend gegen New Zealand positioniert, wäre es wohl mal wieder Zeit für die Ultra Kategorie - z.B. Ultra 685 und Ultra 690. Die GTX-Kategorie mit einer 550/650 und DDR3-128-Bit-Versionen ist ja schon ziemlich verwässert.
Vor einiger Zeit ist ja mal das Kürzel GTR aufgetaucht. War da irgendwas dran?

Adam D.
2012-02-08, 13:48:01
Wahrscheinlich legen die Hersteller noch 3GiB(550-Methode) oder 4GiB-Versionen der 680 nach. Wobei letztere schon mehr als fragwürdig sind. Aber Freunde günstiger HPC-Cluster auf Consumer-HW-Basis würde es wohl freuen.
Das werden aber IMO Nieschenprodukte bleiben, ich seh da nicht so viele Möglichkeiten im Gamer-Bereich (dafür sind die Karten ja gedacht), wie man 2GB VRAM voll kriegen sollte.


Wenn GK110 wirklich bei >6 TFLOPs landet und sich entsprechend gegen New Zealand positioniert, wäre es wohl mal wieder Zeit für die Ultra Kategorie - z.B. Ultra 685 und Ultra 690. Die GTX-Kategorie mit einer 550/650 und DDR3-128-Bit-Versionen ist ja schon ziemlich verwässert.
War die 8800 nicht die letzte Ultra? Wenn der GK110 die beerben könnte, wäre der Name in der Tat gerechtfertigt :biggrin:

Ailuros
2012-02-08, 13:48:52
Wahrscheinlich legen die Hersteller noch 3GiB(550-Methode) oder 4GiB-Versionen der 680 nach. Wobei letztere schon mehr als fragwürdig sind. Aber Freunde günstiger HPC-Cluster auf Consumer-HW-Basis würde es wohl freuen.

Wieviel HPC bleibt denn wirklich uebrig nach jeglicher moeglicher sw Kastration und einer ungeraden Anzahl an SIMDs?

AnarchX
2012-02-08, 13:50:53
Das werden aber IMO Nieschenprodukte bleiben, ich seh da nicht so viele Möglichkeiten im Gamer-Bereich (dafür sind die Karten ja gedacht), wie man 2GB VRAM voll kriegen sollte.

Die OEMs werden wohl darauf bestehen, imo werden wir wohl 28nm Low-End-GPUs mit 8GiB DDR3 sehen. ;D

Wieviel HPC bleibt denn wirklich uebrig nach jeglicher moeglicher sw Kastration und einer ungeraden Anzahl an SIMDs?
Trotz allem ~3 TFLOPs für ~$300, CUDA und eben 4GiB.

Ailuros
2012-02-08, 13:57:37
Trotz allem ~3 TFLOPs für ~$300, CUDA und eben 4GiB.

Dafuer waere TahitiXT (egal ob sie momentan >40% mehr kostet) mit ihrem <1TFLOP DP eine bessere Loesung, wobei man auch wissen muesste was diese im Maerz/April genau kosten wird.

yamo
2012-02-08, 13:58:51
Da fragt man sich (als sli-Hure) ob den wenigstens GK110 ansteigend mit dem Speicher skaliert.

Edith:
Das hatte ich vor eurem Bombardemant verrfasst.

Skysnake
2012-02-08, 17:04:12
Wieviel HPC bleibt denn wirklich uebrig nach jeglicher moeglicher sw Kastration und einer ungeraden Anzahl an SIMDs?
Das ist es halt genau. Den Karten fehlt nicht nur ECC, was sie für viele Anwendungen unbrauchbar macht. Nein, man hat auch noch eine absolut beschnittene DP Leistung.
Wahrscheinlich legen die Hersteller noch 3GiB(550-Methode) oder 4GiB-Versionen der 680 nach. Wobei letztere schon mehr als fragwürdig sind. Aber Freunde günstiger HPC-Cluster auf Consumer-HW-Basis würde es wohl freuen.
Siehe oben. Die will keiner, da die DP-Leistung zu stark beschnitten ist. SP ist nur sehr selten wichtig/nutzbar. Als man die GTX 200er mit dem Tesla Bios flashen konnte, haben die sehr viele gern genommen, aber das geht leider nicht mehr :(

Wenn nimmt man die Tahiti. Die 1:4 Ratio tun nicht so arg weh. Da kommt genug bei rum.

crux2005
2012-02-08, 19:03:15
Also bitte, http://www.3dcenter.org/news/angebliche-kepler-spezifikationen-aus-hoechst-unsicherer-quelle nicht mal als Quelle angegeben. Pff. Wahrscheinlich sollte ich auf den Cypress Launch und die Tessellations Performance hinweisen. :P

Godmode
2012-02-08, 19:24:01
Wieviel HPC bleibt denn wirklich uebrig nach jeglicher moeglicher sw Kastration und einer ungeraden Anzahl an SIMDs?

Fassen wir halt nochmal zusammen:

GK110:
4*32 SP/SM
4 SM/GPC
8 GPC
256 TMUs
850 MHz
6.963 GFlops Single Precision
1.740 GFlops Double Precision

GK104:
3*32 SP/SM
4 SM/GPC
4 GPC
128 TMUs
1100 MHz
3.379 GFlops Single Precision
563 GFlops Double Precision

Ailuros
2012-02-08, 19:27:05
GK104:


GTX680 = GK104
3*32SPs/SM
8 TMUs/SM
4 SMs/GPC
4 GPCs
32 ROPs
256bit bus
2GB 5.0Gbps GDDR5
950MHz core
2*6pin

Zergra
2012-02-08, 19:29:12
:D wie sie Gerüchte streuen, aber beweise dafür gibt es nocht nicht wirklich !

Godmode
2012-02-08, 19:29:51
GK104:


GTX680 = GK104
3*32SPs/SM
8 TMUs/SM
4 SMs/GPC
4 GPCs
32 ROPs
256bit bus
2GB 5.0Gbps GDDR5
950MHz core
2*6pin

Gibts da immer bestimmte Zeitfenster, ab wann du was leaken darfst?

Hmm dachte die Clock wird höher sein?

Ailuros
2012-02-08, 19:32:48
:D wie sie Gerüchte streuen, aber beweise dafür gibt es nocht nicht wirklich !

Mein Mitleid wenn Du immer noch glaubst dass es "Geruechte" sind.

Gibts da immer bestimmte Zeitfenster, ab wann du was leaken darfst?

Hmm dachte die Clock wird höher sein?

Wie ich schon hier erwaehnte war die Takt-Geschichte mit Absicht falsch eingepflanzt um Abschreiber folgen zu koennen.

boxleitnerb
2012-02-08, 19:33:46
Jetzt doch 128TMUs statt 96?

Ailuros
2012-02-08, 19:36:07
Jetzt doch 128TMUs statt 96?

Fuer wie bloed haltest Du mich eigentlich, gleich alles korrekt auf die Laufbahn zu schicken? :tongue:

Knuddelbearli
2012-02-08, 19:37:12
@ Ailuros meinst du mit Abschreibe auch dich oder wie ist das zu verstehen? du warst ja ganz vorne mit dabei das GK !deutlich! mehr takt haben wird als GCN

Lord Wotan
2012-02-08, 19:37:47
Ist es richtig das der Grafikchip einen zusätzlichen Hardware PhysX Chip hat?

Godmode
2012-02-08, 19:38:48
Ist es richtig das der Grafikchip einen zusätzlichen Hardware PhysX Chip hat?

Sicher nicht! Bullshit hoch 3!

Ailuros
2012-02-08, 19:41:31
@ Ailuros meinst du mit Abschreibe auch dich oder wie ist das zu verstehen? du warst ja ganz vorne mit dabei das GK !deutlich! mehr takt haben wird als GCN

Ja und? Ich konnte mit der jeweiligen falschen TMU Anzahl als auch der angeblichen Takt-Behauptung jeglichem Abschreiber folgen. Wird wohl nicht besonders schwer sein zu entdecken wer, was, wo behauptet hat.

Lord Wotan
2012-02-08, 19:50:54
Sicher nicht! Bullshit hoch 3!
http://semiaccurate.com/2012/02/01/physics-hardware-makes-keplergk104-fast/

uweskw
2012-02-08, 19:51:56
GK104:


GTX680 = GK104
3*32SPs/SM
8 TMUs/SM
4 SMs/GPC
4 GPCs
32 ROPs
256bit bus
2GB 5.0Gbps GDDR5
950MHz core
2*6pin

Ohne HotClock wirds so wohl nich für Tahiti ausreichen. Da wirds schon schwer die 7950 einzufangen.

Schaffe89
2012-02-08, 19:52:35
http://semiaccurate.com/2012/02/07/gk110-tapes-out-at-last/

Neues Futter.
Angeblich soll GK 110 erst Ende Q3 kommen.
Ich denke das Puzzle setzt sich langsam zusammen.

Ailuros leakt sich langsam aber sicher immer an die glaubwürdigeren Specs ran.
Sollte obiges stimmen wird es ohne Hotclock ein relativ sparsamer Chip ca auf Niveau einer HD7950 werden.
Die Karte aber dann GTX680 zu nennen?
Eventuell macht Nvidia ja eine Namens und Leistungsklassen Umstrukturierung so wie AMD damals bei der HD6XXX Serie.

boxleitnerb
2012-02-08, 19:53:07
War Fermi eigentlich jemals TMU-limitiert (extrem hohe Auflösungen, SSAA, Performancehit vom AF...) ? Könnte Kepler in einem dieser Bereiche überproportional zulegen, auch wenn die Effizienz pro Einheit etwas sinkt?

Ailuros
2012-02-08, 19:55:00
Ohne HotClock wirds so wohl nich für Tahiti ausreichen. Da wirds schon schwer die 7950 einzufangen.

Und die Schlussfolgerung basiert auf was genau? FLOPs != FLOPs zwischen Architekturen und FLOPs sind auch nicht der einzige Anteil einer GPU der in 3D Gewicht haben kann. Sonst sollte Dir eher die Bandbreite sorgen machen als alles andere und nein die Antwort dazu hab ich natuerlich nicht.

Und da einige Herrschaften gleich in Panik geraten und den Thread mit SA Artikeln ueberheufen die ohnehin schon hier gepostet und besprochen wurden, atmet ein es sind nur Spezifikationen.

uweskw
2012-02-08, 20:05:00
Das SI kommt ja noch erschwerend hinzu..., scheint aber angemessen zu sein.

V2.0
2012-02-08, 20:07:17
Das SI kommt ja noch erschwerend hinzu..., scheint aber angemessen zu sein.

Knapp vor 7870, mehr würde ich nicht erwarten.... :D

Ailuros
2012-02-08, 20:15:37
Knapp vor 7870, mehr würde ich nicht erwarten.... :D

Eine schoene Unterschrift fuer die absebahre Zukunft ;D


Ailuros leakt sich langsam aber sicher immer an die glaubwürdigeren Specs ran.
Sollte obiges stimmen wird es ohne Hotclock ein relativ sparsamer Chip ca auf Niveau einer HD7950 werden.
Die Karte aber dann GTX680 zu nennen?
Eventuell macht Nvidia ja eine Namens und Leistungsklassen Umstrukturierung so wie AMD damals bei der HD6XXX Serie.

Sicher ich hab den Mist ja nur von OBR bzw. chiphell abgeschrieben :rolleyes:

AwesomeSauce
2012-02-08, 20:45:42
Aah, die Balken, die nicht bei 0 beginnen. Wie habe ich sie vermisst:freak: Let the cherry picking begin...

http://2.bp.blogspot.com/-3-QSNBILb-Q/TzKoTBSZTqI/AAAAAAAAByk/NZT72-VInyE/s1600/slajdos.jpg
http://www.obr-hardware.com/2012/02/i-know-it-but-will-not-reveal-it-is-not.html

AnarchX
2012-02-08, 20:51:09
Ob man eine Skala bis 2,4x für die PhysX-Games braucht?

y33H@
2012-02-08, 20:51:12
Knapp vor 7870, mehr würde ich nicht erwarten ...Das packt doch schon fast eine GTX 560 Ti :P

Ailuros
2012-02-08, 20:51:14
Apropos cherry picking, wie viele Titel ausser Batman AC sind wirklich PissX optimierte Spiele? (ehrliche Frage).

y33H@
2012-02-08, 20:54:50
Von denen auf der Slide nutzt nur Metro 2033 noch GPU-PhysX, aber nur ziemlich "sanft".

boxleitnerb
2012-02-08, 20:55:45
Nur Metro2033.
Crysis 2, Stonegiant, Heaven, HawX 2 und Lost Planet 2 sind stark auf Tessellation ausgerichtet. Also schon Cherrypicking.

Ailuros
2012-02-08, 20:59:09
Nur Metro2033.
Crysis 2, Stonegiant, Heaven, HawX 2 und Lost Planet 2 sind stark auf Tessellation ausgerichtet. Also schon Cherrypicking.

Dass es handausgesuchte Resultate sind war mir von Anfang an schon klar; genau deshalb hab ich auch die 104 Leistung konservativer eingeschaetzt als der slide eigentlich vermitteln will (typisches marketing ahoi). 19 Applikationen und von denen nur 2 PissX optimiert ist ein hervorragendes Prozentual zu behaupten dass jegliche Unterschiede auf PissX zurueckzuleiten sind :rolleyes:

PingpiN
2012-02-08, 21:00:04
Damit wird AMD die leistungskrone sogut wie das ganze jahr haben.Der gk 104 wird dann wie vermutet zwischen der 7950 und 7970 liegen was völlig ok ist.Mit dem gk 110 wird Nvidia dann wieder punkten und die pf krone zurück holen.Die frage ist halt nur ob es zu spät ist für die qualität von nvidia.Immerhin steht nvidia für das optimum an grakas (bis auf paar ausnahmen 9700/X1950 :D).Ausserdem sollte man bei den ganzen custom designs der 7950 lieber ne 900 mhz karte ans bein ziehen zum vergleich.:eek: Ka wie gut sich so ne gk 104 takten lässt.Jedenfalls wird amd dann noch ne 7970 XT mit 1100mhz gpu takt rausbringen wenn die gtx 680 zu nahe kommt.Amd hat halt lange spielraum um zu kontern ne.Ausserdem gibts ja dann auch noch ne 7970 X2 die karte wird dann mit der Gk110 heftig fighten.Leider wird die GK 110 der gewinner sein weil amd die mikroruckler nicht in griff bekommt.Aber wie gesagt amd hat mehr spielraum.Zu der zeit (ende des jahres)wird dann ein refresh kommen mit 1100 mhz gpu takt und 23?? shader dingens (wie auf der sapphire verpackung).Es sieht also sehr gut aus für amd in der grafiksparte.Ausser Nvidia überascht uns.:cool:


ja mein rechtschreibung D

HarryHirsch
2012-02-08, 21:02:58
cat. 11.12 find ich schon mal gut.

Ailuros
2012-02-08, 21:09:35
Uebrigens sobald die weissen Felder entfernt werden, lasst Euch nicht von dem angegebenem Stromverbrauch irrefuehren. Von dem was dahinter steckt sollte man ca. 20% abziehen.

AwesomeSauce
2012-02-08, 21:11:26
Uebrigens sobald die weissen Felder entfernt werden, lasst Euch nicht von dem angegebenem Stromverbrauch irrefuehren. Von dem was dahinter steckt sollte man ca. 20% abziehen.
Nvidia stapelt tief? Das ist ja was ganz Neues:freak:

mapel110
2012-02-08, 21:13:13
Interessant, dass die GTX 580 im Vergleich drinsteckt. Dann hat nvidia also wirklich eine generelle Leistungssteigerung gegenüber der alten Generation erreicht, trotz neuer Shader.

Zergra
2012-02-08, 21:14:52
cat. 11.12 find ich schon mal gut.
läuft die damit ? :D 11.12 ist ja noch nichmal ein offizieler HD 7000serie Treiber :D
immer diese Fakes ? :D

dildo4u
2012-02-08, 21:15:19
Interessant, dass die GTX 580 im Vergleich drinsteckt. Dann hat nvidia also wirklich eine generelle Leistungssteigerung gegenüber der alten Generation erreicht, trotz neuer Shader.
Wieso trotz wegen wohl eher,wird nicht erwartet das es deutlich mehr Shadereinheiten sind weils kein Hotclock mehr gibt?

Ailuros
2012-02-08, 21:17:46
Nvidia stapelt tief? Das ist ja was ganz Neues:freak:

Der core alleine duerfte unter hundertfuenfzig verbrauchen; ist aber auch nicht alles da Speicher und noch so mancher wenig verbrauchender Schnickschnack dazukommt.

Botcruscher
2012-02-08, 21:33:15
AMD hat sich eh sehr konservativ aufgestellt und wenn jetzt nur die kleineren NV-Chips kommen gibt das einen schönen Preiskampf. Bleibt noch die Unbekannte TSMC. Wenn GK110 noch lange auf noch warten lässt beruhigt das nicht unbedingt.

M4xw0lf
2012-02-08, 21:34:22
Der core alleine duerfte unter hundertfuenfzig verbrauchen; ist aber auch nicht alles da Speicher und noch so mancher wenig verbrauchender Schnickschnack dazukommt.

Das würde aber nicht reichen um die 7950-Effizienz zu erreichen, oder?

Hugo78
2012-02-08, 21:34:57
Das würde aber nicht reichen um die 7950-Effizienz zu erreichen, oder?

Wenn man schneller ist schon.

Ailuros
2012-02-08, 21:37:04
AMD hat sich eh sehr konservativ aufgestellt und wenn jetzt nur die kleineren NV-Chips kommen gibt das einen schönen Preiskampf. Bleibt noch die Unbekannte TSMC. Wenn GK110 noch lange auf noch warten lässt beruhigt das nicht unbedingt.

Genau den Preiskampf will ich eben sehen. Zumindest hat man in solch einem Fall eine breitere und logischere Wahl als Verbraucher als momentan.

***edit: ich bin neugierig wer mit OBR momentan Katz und Maus spielt, denn die slides sind nicht echt ;)

AwesomeSauce
2012-02-08, 21:44:49
Das war wohl die "Grundlage";)

Edit: Schade, er hats wohl gemerkt;D

Zergra
2012-02-08, 21:50:26
Das war wohl die "Grundlage";)

Edit: Schade, er hats wohl gemerkt;D
wie ich vor 10 Post schon geschrieben hab :D Fake, :P

Ailuros
2012-02-08, 22:04:42
wie ich vor 10 Post schon geschrieben hab :D Fake, :P

Nur schade dass ich nicht fuer den Streich verantwortlich bin :(

Zergra
2012-02-08, 22:10:45
Nur schade dass ich nicht fuer den Streich verantwortlich bin :(
Er hats aber schon gelöscht -.- :tongue: aber ich hätte es auch gemacht :P

Ailuros
2012-02-08, 22:14:46
Er hats aber schon gelöscht -.- :tongue: aber ich hätte es auch gemacht :P

Ja und? Blamiert hat er sich trotzdem wieder. Die output Daten waren auch falsch...ooops sorry konnte ja keiner sehen was dahinter steckt :P

Zergra
2012-02-08, 22:16:19
Ja und? Blamiert hat er sich trotzdem wieder. Die output Daten waren auch falsch...ooops sorry konnte ja keiner sehen was dahinter steckt :P
ja eben :D finde ich auch etwas peinlich sowas gleich darzustellen ohne es zu überprüfen, ich finde es irgentwie lustig, aber auch gleichzeitig traurig das man hier weiter auf dem Trockenen steht!

Botcruscher
2012-02-08, 22:17:47
Nicht meckern... ran ans Photoshop.:D
ja eben :D finde ich auch etwas peinlich sowas gleich darzustellen ohne es zu überprüfen...
Klicks = Geld. Schlechte News sind alle mal besser als keine...

AwesomeSauce
2012-02-08, 22:18:37
ja eben :D finde ich auch etwas peinlich sowas gleich darzustellen ohne es zu überprüfen, ich finde es irgentwie lustig, aber auch gleichzeitig traurig das man hier weiter auf dem Trockenen steht!
Einige hier stehen sicher nicht so sehr auf dem Trockenen, wie sie sagen;)

Zergra
2012-02-08, 22:34:37
Nicht meckern... ran ans Photoshop.:D

Klicks = Geld. Schlechte News sind alle mal besser als keine...
kommt noch :D

ja find ich schon fast wieder armselig -.- :confused:

M4xw0lf
2012-02-08, 22:52:19
Wenn man schneller ist schon.

Kommt drauf an wie viel schneller. Die Vögelchen zwitschern ja eher: "nicht so viel" ;)

Skysnake
2012-02-08, 22:56:20
was erwartest du von OBR schon ;D

das zeigt aber mal wieder, das er rein gar nichts weiß und nur reines AMD gebashe betreibt in letzter Zeit. Völlig unglaubwürdig.

AwesomeSauce
2012-02-08, 22:57:25
was erwartest du von OBR schon ;D

das zeigt aber mal wieder, das er rein gar nichts weiß und nur reines AMD gebashe betreibt in letzter Zeit. Völlig unglaubwürdig.
Das hatten wir irgendwie schon mal... Oh wait;D

PingpiN
2012-02-08, 22:58:58
Die geschichte wurde von mir doch geklärt.

Damit wird AMD die leistungskrone sogut wie das ganze jahr haben.Der gk 104 wird dann wie vermutet zwischen der 7950 und 7970 liegen was völlig ok ist.Mit dem gk 110 wird Nvidia dann wieder punkten und die pf krone zurück holen.Die frage ist halt nur ob es zu spät ist für die qualität von nvidia.Immerhin steht nvidia für das optimum an grakas (bis auf paar ausnahmen 9700/X1950 :D).Ausserdem sollte man bei den ganzen custom designs der 7950 lieber ne 900 mhz karte ans bein ziehen zum vergleich.:eek: Ka wie gut sich so ne gk 104 takten lässt.Jedenfalls wird amd dann noch ne 7970 XT mit 1100mhz gpu takt rausbringen wenn die gtx 680 zu nahe kommt.Amd hat halt lange spielraum um zu kontern ne.Ausserdem gibts ja dann auch noch ne 7970 X2 die karte wird dann mit der Gk110 heftig fighten.Leider wird die GK 110 der gewinner sein weil amd die mikroruckler nicht in griff bekommt.Aber wie gesagt amd hat mehr spielraum.Zu der zeit (ende des jahres)wird dann ein refresh kommen mit 1100 mhz gpu takt und 23?? shader dingens (wie auf der sapphire verpackung).Es sieht also sehr gut aus für amd in der grafiksparte.Ausser Nvidia überascht uns.:cool:


ja mein rechtschreibung D

So wirt es sein und nicht ander.

Hugo78
2012-02-08, 23:05:10
Kommt drauf an wie viel schneller. Die Vögelchen zwitschern ja eher: "nicht so viel" ;)

Tja, für mich gilt immernoch 1920*1080 + 4xMSAA als Vergleichsbasis.
Ist einfach fair, wenn man VRAM Ausbau und Verbreitung laut Steam Stats anschaut.

Bei CB ist die 7950 hier 3% schneller als eine GTX 580.
- http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7950-crossfire/5/#abschnitt_leistung_mit_aaaf

Ailuros meinte, allein schon mit den ersten Treibern wäre GK104 10% schneller als ne GTX 580.
Jetzt lass es final 15-20% sein, dann dürfte GK104 zwischen 180 - 190W verbraten und hätte immernoch mindestens die selbe Perf./Watt.

Siehe "Simulierte Spiele-Last" bei ht4u, da liegt die 7950 bei ~157W.
- ht4u http://ht4u.net/reviews/2012/amd_radeon_hd_7950_test/index14.php

Iruwen
2012-02-08, 23:09:09
Die geschichte wurde von mir doch geklärt.

Damit wird AMD die leistungskrone sogut wie das ganze jahr haben.Der gk 104 wird dann wie vermutet zwischen der 7950 und 7970 liegen was völlig ok ist.Mit dem gk 110 wird Nvidia dann wieder punkten und die pf krone zurück holen.Die frage ist halt nur ob es zu spät ist für die qualität von nvidia.Immerhin steht nvidia für das optimum an grakas (bis auf paar ausnahmen 9700/X1950 :D).Ausserdem sollte man bei den ganzen custom designs der 7950 lieber ne 900 mhz karte ans bein ziehen zum vergleich.:eek: Ka wie gut sich so ne gk 104 takten lässt.Jedenfalls wird amd dann noch ne 7970 XT mit 1100mhz gpu takt rausbringen wenn die gtx 680 zu nahe kommt.Amd hat halt lange spielraum um zu kontern ne.Ausserdem gibts ja dann auch noch ne 7970 X2 die karte wird dann mit der Gk110 heftig fighten.Leider wird die GK 110 der gewinner sein weil amd die mikroruckler nicht in griff bekommt.Aber wie gesagt amd hat mehr spielraum.Zu der zeit (ende des jahres)wird dann ein refresh kommen mit 1100 mhz gpu takt und 23?? shader dingens (wie auf der sapphire verpackung).Es sieht also sehr gut aus für amd in der grafiksparte.Ausser Nvidia überascht uns.:cool:


ja mein rechtschreibung D

So wirt es sein und nicht ander.

Letztes Jahr sahs auch sehr gut aus für AMD nach dem Fermi Debakel, die Ernüchterung kommt dann mit den Quartalszahlen :P

AwesomeSauce
2012-02-08, 23:25:28
Rambus and NVIDIA Sign Patent License Agreement
http://finance.yahoo.com/news/Rambus-NVIDIA-Sign-Patent-bw-3814208973.html?x=0

Bahn frei für XDR2:freak:

Knuddelbearli
2012-02-08, 23:27:57
juhu das Internet wird die nächsten tage vor Spekulatius ja nur übergehen da brauche ich am Sonntag gar nicht mehr für Oblaten in die Kirche gehen ^^

Skysnake
2012-02-08, 23:36:58
Rambus and NVIDIA Sign Patent License Agreement
http://finance.yahoo.com/news/Rambus-NVIDIA-Sign-Patent-bw-3814208973.html?x=0

Bahn frei für XDR2:freak:
Na wird auch mal endlich zeit, das nvidia das gebacken bekommt. Damit steht xdr2 im GPU markt nichts mehr im Weg. An einem derivat arbeitet intel mit seinem Memorycube ja auch.

Orbmu2k
2012-02-08, 23:39:35
Kann XDR2 denn überhaupt ECC ... glaube nicht das sie den für HPC benutzen können.

Knuddelbearli
2012-02-08, 23:48:48
wäre beim GK104 ja egal

eventuell braucht ja der gk110 deshalb solange XD

Skysnake
2012-02-08, 23:56:37
Kann XDR2 denn überhaupt ECC ... glaube nicht das sie den für HPC benutzen können.
kannste in Software immer machen.

So ist es meines Wissens nach auch aktuell, daher haste mit ECC auch weniger Speicher zur Verfügung.

Coda
2012-02-08, 23:58:26
Na wird auch mal endlich zeit, das nvidia das gebacken bekommt. Damit steht xdr2 im GPU markt nichts mehr im Weg. An einem derivat arbeitet intel mit seinem Memorycube ja auch.
Sie lassen auf im Alleingang irgendwo extra für sich XDR2 fertigen?

Rambus-Patente gelten auf allerelei Zeug, vor allem Speicher- und Interface-Technologie. Das hat meiner Meinung nach nichts mit XDR2 speziell zu tun. Jeder hat ähnliche Abkommen mit dem Haufen.

Kann XDR2 denn überhaupt ECC ... glaube nicht das sie den für HPC benutzen können.
Der Speichertyp ist für ECC egal.

kannste in Software immer machen.
Software? Hardware. Aber das macht man im Speichercontroller und nicht im Speicher selber.

OC_Burner
2012-02-09, 03:06:19
Es ist doch erstaunlich wie sich die Entwicklungszeiten neuer Chipgenerationen und der Release dieser Karten von Nvidia in immer größeren Abständen ereignet.

Der Fermirelease war im Frühling 2010 schon recht spät dran und frühere Gerüchte datierten die Fermiarchitektur sogar auf Herbst 2009. Mit Kepler scheint sich das ganze zu widerholen. Angenommen die aktuellen Gerüchte um den HighEnd-Chip GK110 sowie den gestrichenen GK100 stimmen und der Release erfolgt wirklich erst im Herbst dann sind es beinahe 3 Jahre wäre Fermi im Herbst 2009 auf den Markt gekommen.


06, 2004 | 6800 Ultra
--------------------- 1 Jahr
07, 2005 | 7800 GTX
--------------------- 1,25 Jahre
11, 2006 | 8800 GTX
--------------------- 1,50 Jahre
06, 2008 | GTX 280
--------------------- 1,75 Jahre
03, 2010 | GTX 480
--------------------- 2,50 Jahre
09, 2012 | HighEnd

Hübie
2012-02-09, 03:48:35
Rambus and NVIDIA Sign Patent License Agreement
http://finance.yahoo.com/news/Rambus-NVIDIA-Sign-Patent-bw-3814208973.html?x=0

Bahn frei für XDR2:freak:

Ketzer! Das wollt ich schreiben! :biggrin:
http://www.xbitlabs.com/news/other/display/20120208165204_Nvidia_Licenses_Set_of_Technologies_to_Halt_All_Legal_Disputes_wi th_Rambus.html

Ich komm immer wieder damit an, bis es irgendwann auf ner News-Site steht ;D Wisst ihr das es mich tiersich abnervt das jeder Hersteller seine eigenen Markteting-Wörtchen immer einsetzt. Warp, Wavefront, CUDA Core, SIMD GPC, SM! Alter ich flipp aus :freak: EINIGT EUCH!

So ich geh pennen.
gn8

Skysnake
2012-02-09, 08:24:35
Ketzer! Das wollt ich schreiben! :biggrin:
http://www.xbitlabs.com/news/other/display/20120208165204_Nvidia_Licenses_Set_of_Technologies_to_Halt_All_Legal_Disputes_wi th_Rambus.html

Ich komm immer wieder damit an, bis es irgendwann auf ner News-Site steht ;D Wisst ihr das es mich tiersich abnervt das jeder Hersteller seine eigenen Markteting-Wörtchen immer einsetzt. Warp, Wavefront, CUDA Core, SIMD GPC, SM! Alter ich flipp aus :freak: EINIGT EUCH!

So ich geh pennen.
gn8
/Sign ABSOLUT /SIGN! :mad: Das ist total nervig, wenn man OpenCL macht.....

Sie lassen auf im Alleingang irgendwo extra für sich XDR2 fertigen?

Ganz im Alleingang wohl eher nicht, aber wenn man sich mit nVidia z.B. noch zusammen tut, dann könnte das von den Volumina eventuell hin kommen. XDR2 bringt halt so manchen Vorteil mit sich. Das Problem ist halt, das es keiner Einsetzt. Eventuell könnte AMD die Sache auch allein stemmen, wenn man wirklich PS4 und XBox720 für sich gewinnen konnte. Da würde sich XDR2 nämlich auch gut tun, genau wie bei allen APUs und den Servern. AMD ist zwar nicht sooo groß, aber ich denke das sollte sich machen lassen, wenn man das alles einbezieht, und Apple ist dann sicherlich auch wieder interessiert, da das Aufrüstung unmöglich wird, und die Sache ziemliche Effizienzvorteile bringt.

Der Unsicherheitsfaktor wie immer ist halt Rambus.... Was wollen die für den Spaß an Barem sehen :down:. Eigentlich muss nur mal jemand den ersten Schritt tun, bzw. Rambus endlich mal von ihrem hohen Ross runter kommen und sich mit weniger zufrieden geben.... "Lieber die Taube in der Hand, als den Spatz auf dem Dach" Nicht wahr?

Rambus-Patente gelten auf allerelei Zeug, vor allem Speicher- und Interface-Technologie. Das hat meiner Meinung nach nichts mit XDR2 speziell zu tun. Jeder hat ähnliche Abkommen mit dem Haufen.

Ne ich mein jetzt wirklich DDR Ram. Nicht Kontroller, nicht XDR irgendwas, sondern schlicht DDR Ram

Der Speichertyp ist für ECC egal.

Software? Hardware. Aber das macht man im Speichercontroller und nicht im Speicher selber.
Nene, es gibt da schon eine Software und eine Hardware Lösung. Hätte ich aber eventuell etwas besser ausführen sollen.

Du kannst jedweden Speicher nehmen, und ein ECC darauf packen. Musst halt nur einen ECC Code nehmen, und das ganze Abspeichern. Das lässt sich auch in Software erledigen, mit den entsprechenden Leistungsnachteilen eben. Gibt/Gab es meines Wissens nach auch schon.

Heute wird das aber natürlich über Hardware im ASIC erledigt. Kostet praktisch nichts, bringt aber einen großen Performancevorteil im Vergleich zu einer Softwareemulation.

Dann gibts aber noch die RAM-Seite. Da wird ja bei nVidia etc. ganz stink normaler GDDR5 Ram verwendet und gut ist. Es gibt/gab aber auch spezielle RAM-Bausteine, die die ECC-Bits in die gleiche Adresse gespeichert haben, und dann auch mit mehr Datenleitungen nach außen geführt haben. Da hat man also in einem Zugriff alles erhalten, und hat alles an einer Stelle gespeichert. Nicht so wie bei der Lösung von nvidia etc. wo das verteilt gespeichert wird, weil die zusätzlichen Bits eben nicht mit rein passen. Nagel mich aber bitte nicht drauf fest. Kann auch sein, dass das mit Inkompatibilität kam, weil die auch gleichzeitig noch buffered waren. Haben das vor nem Jahr mal am Rande durchgenommen.

Genau wie so einen Ram, bei dem die Daten anders abgelegt wurden, und so auch bei Spaltenweisen Zugriffen einer Matrix keine/kaum Geschwindigkeitseinbußen hatte. Das ist aber alles so fency Zeug, was man im 0815 Rechner nicht sieht. Bei stink normalen DDR3 RAM mit ECC wirds ja meines wissens nach genau so wie von nVidia auch geregelt.

PS:
Hab jetzt grad doch noch was gefunden. Die löten wohl noch einen Chip mit drauf, daher sind ECC RAM=/ nonECC Ram. Bei nividia ist es ja aber gleich. Da sinkt einfach nur die effektive Speichermenge.


Die Modulbezeichnung 8 M x 64 steht für ein als "Non-Parity" oder auch "Non-ECC" bezeichnetes 64-MByte-Modul. Für EC- oder ECC-Fehlerkorrektur benötigt man Module mit zusätzlichen Chips und 8 weiteren Datenleitungen, weshalb man ein 64-MByte-ECC-DIMM auch unter der Bezeichnung "8 M x 72" findet. Das gilt sinngemäss auch für die anderen Kapazitäten.
http://dch-faq.de/kap08.html

Hugo78
2012-02-09, 09:07:35
Rambus and NVIDIA Sign Patent License Agreement
http://finance.yahoo.com/news/Rambus-NVIDIA-Sign-Patent-bw-3814208973.html?x=0

Bahn frei für XDR2:freak:

Am ende hat man extra mit der Ankündigung gewartet und die XDR2 sind schon seit Monaten in Produktion und wurden nur fälschlicherweise zuerst AMD zugeschrieben. X-D

HOT
2012-02-09, 11:07:24
Die werden wahrscheinlich beide auf XDR2 gehen. Bietet sich ja auch irgendwo an. Aber ich glaub nicht dran, dass der GK110 das hat. Der Chip ist wieder einfach nur riesig, man wird ähnliche Probleme gehabt haben wie beim GF100, jedoch wird man es diesmal richtig machen wollen. Langsam verzögert sich NV aber um eine AMD-Generation. Wenn der GK110 dann endlich kommt, hat AMD schon die 8000er in den Startlöchern. Dafür ist Kepler ein ordentlicher Sprung zur vorherigen Technik, wenn auch weniger groß als VLIW zu GCN.

Ailuros
2012-02-09, 11:30:09
Kommt drauf an wie viel schneller. Die Vögelchen zwitschern ja eher: "nicht so viel" ;)

Wenn es viel waere wuerde eine 104 ohne zu schnaufen eine 7970 wirklich schlagen und das wuerde AMD in eine noch peinlichere Lage setzen mit dem momentanen Preis-/Leistungs-Nivaeu. Gruss an die schwarzen Raben aber es ist gut so.

Die werden wahrscheinlich beide auf XDR2 gehen. Bietet sich ja auch irgendwo an. Aber ich glaub nicht dran, dass der GK110 das hat.

OBR hw duerfte nach "Redakteuren" suchen.

Der Chip ist wieder einfach nur riesig, man wird ähnliche Probleme gehabt haben wie beim GF100, jedoch wird man es diesmal richtig machen wollen.

OBR koennte Dich wirklich sehr gut gebrauchen, denn wenn der kaputte interconnect im GF100 dann im GF110 richtig funktionierte und jetzt in GK110 wieder kaputt ist, dann ist es eine durchaus sinnvolle "These" fuer trash tabloid sites.

Langsam verzögert sich NV aber um eine AMD-Generation. Wenn der GK110 dann endlich kommt, hat AMD schon die 8000er in den Startlöchern.

Es waere wohl weisser bis man abwartet bis AMD ihre gesamte SI Familie veroeffentlicht, danach NVIDIA und dann erst koennen wir ueber moegliche refreshes der einen oder anderen Seite reden. Aber wenn's schon sein muss GF110 kam fast gleichzeitig auf die Ladentische wie Cayman, wobei der letzte erst 15 Monate nach Cypress antanzte obwohl auf gleichem Prozess.

Dafür ist Kepler ein ordentlicher Sprung zur vorherigen Technik, wenn auch weniger groß als VLIW zu GCN.

Basierend auf was? Ich hab keine genauen details zur eigentlichen Kepler Architektur, aber da das obrige ziemlich selbstsicher klingt wuerde ich gerne hoeren auf was es basiert.

Am ende hat man extra mit der Ankündigung gewartet und die XDR2 sind schon seit Monaten in Produktion und wurden nur fälschlicherweise zuerst AMD zugeschrieben. X-D

Dass die Ankuendigung ein Ende an den Patent-krieg der Vergangenheit zwischen NV und Rambus setzt, ist wohl schwer zu uebersehen. Wie man davon jetzt ploetzlich gleich auf XDR2 dichtet ist aeusserst interessant, aber wohl doch ein paar Meilen zu weit getrieben fuer die heutige Situation.

Coda
2012-02-09, 11:34:26
Nene, es gibt da schon eine Software und eine Hardware Lösung. Hätte ich aber eventuell etwas besser ausführen sollen.
Das halte ich für ein Gerücht. Bei jedem Load in Software eine ECC-Prüfung mit Bit-Correction zu machen wäre unakzeptabel lahm. Mir ist keine Lösung bekannt, bei der das nicht der Speichercontroller macht.

Mal abgesehen von den Problemen wie man das überhaupt in den Code einbauen soll automatisch.

Dural
2012-02-09, 13:18:49
06, 2004 | 6800 Ultra
--------------------- 1 Jahr
07, 2005 | 7800 GTX
--------------------- 1,25 Jahre
11, 2006 | 8800 GTX
--------------------- 1,50 Jahre
06, 2008 | GTX 280
--------------------- 1,75 Jahre
03, 2010 | GTX 480
--------------------- 2,50 Jahre
09, 2012 | HighEnd


Die Fertigung braucht aber auch immer wie mehr Zeit, man kann das schon seit Jahren beobwachten. Mit anderen Worten das trift somit auch auf AMD zu.

Übrigens war NV vor Fermi lange zeit immer früher auf dem Markt, GT200 war vor RV770 da, genau so G92 vor dem RV670, G80 so wie so auch vor dem R600 und auch der G71 war
früher als ATi da und übrigens auch GF110 war vor Cayman im Laden ;) Fermi / GF100 machte halt probleme, kann es mal geben! Was aktuell mit Kepler ist weis man halt
noch nicht, es ist auch einfach gut möglich das schlicht die 28nm fertigung nicht ausreicht (übrigens sagt das NV plus/minus ja selber so)

Soul
2012-02-09, 13:54:48
Wegen dem GK104 Launch im April, wird da was auf den "freien" Markt kommen oder gehen alle Chips der ersten Wochen / Monate direkt an Apple damit nVidia die Verträge einhalten kann?

Ailuros
2012-02-09, 14:01:51
Wegen dem GK104 Launch im April, wird da was auf den "freien" Markt kommen oder gehen alle Chips der ersten Wochen / Monate direkt an Apple damit nVidia die Verträge einhalten kann?

Wenn die Rede fuer N Monat fuer einen desktop launch ist, dann sollte es sich auch um einen wahren hard launch handeln.

Hübie
2012-02-09, 14:22:32
Der Interconnect ist wohl so was wie ein Blinker: Geht, geht nicht, geht, geht nicht, geht... ;D Da sich die Meldungen langsam überschlagen rückt der release offensichtlicher in greifbare Nähe.
Übrigens: Ist das mit der falschen Fährte ein Wink von Leonidas? Wenn ja dann steckt doch einer von euch dahinter :| :freak:

Ailuros
2012-02-09, 14:29:33
Leo liesst anscheinend hier die Debatten mit. Denn ich hab ausdruecklich mehr als nur einmal erwaehnt dass ich von Anfang an einige Daten verfaelscht hatte fuer GK104 um die Abschreiber entdecken zu koennen.

Der Interconnect ist wohl so was wie ein Blinker: Geht, geht nicht, geht, geht nicht, geht...

Dann waeren sie schoen bloed wenn sie den hotclock und nicht den interconnect stattdessen losgeworden sind.

Oberst
2012-02-09, 14:59:53
Dass die Ankuendigung ein Ende an den Patent-krieg der Vergangenheit zwischen NV und Rambus setzt, ist wohl schwer zu uebersehen. Wie man davon jetzt ploetzlich gleich auf XDR2 dichtet ist aeusserst interessant, aber wohl doch ein paar Meilen zu weit getrieben fuer die heutige Situation.

Das frage ich mich auch. In sämtlichen Pressemeldungen dazu steht immer nur was von DDR(x) oder GDDR3 (sowie SATA und PCIe), generell aber nichts von XDR2.

Bezüglich dem ECC und XDR2: Bei den GDDR5 Karten nutzt NVidia und AMD auch normalen Ram und schreibt die ECC Daten da mit rein. Das schränkt die Bandbreite des Rams und die Speicherkapazität ein wenig ein, aber es ist eben einfach zu implementieren, weil man eine normale Gamerkarte einfach durch ein anderes BIOS zu einer Workstation Karte machen kann.

guest_29132
2012-02-09, 15:06:48
Leo liesst anscheinend hier die Debatten mit.

Warum lesen sich die News eigentlich immer so, als würde sich die Welt der Grafikkarten von Nordamerika bis Südchina um dieses Forum, im speziellen um diesen Thread drehen? Postet Jensen hier unter Pseudo höchst persönlich, oder hab ich sonst irgendwas verpasst?

Iruwen
2012-02-09, 15:23:30
Man kann anhand des Blödsinns der sich offenbar häufiger von hier aus verbreitet (deshalb ja die Experimente) wohl schon annehmen dass sich mittlerweile rumgesprochen hat dass es hier einige kompetente und informierte User gibt die ja auch bei B3D & Co unterwegs sind. Wenns um BQ-Experimente geht sind die Deutschen und das 3DC immer weit vorne mit dabei (man könnte auch sagen allein auf weiter Flur). Das 3DC ist ein ganz guter Bullshitfilter, woanders bekommt man sowas wie den Kram von Lenzfire als endgültige Wahrheit präsentiert.

Leonidas
2012-02-09, 15:27:20
Warum lesen sich die News eigentlich immer so, als würde sich die Welt der Grafikkarten von Nordamerika bis Südchina um dieses Forum, im speziellen um diesen Thread drehen? Postet Jensen hier unter Pseudo höchst persönlich, oder hab ich sonst irgendwas verpasst?


Erstens: Weil ich den Jungs hier im Forum mehr vertraue als anderen Forenjungs. Das hier versammelte Technikwissen haben die in aller Regel nicht. Hinzu kommt eine dicke Abgebrühtheit, weil viele hier schon seit Jahren dabei sind.

Zweitens weil es wirklich diesesmal ganz erstaunlich ist, wie stark sich andere beim 3DC-Forum bedienen. Wenn alle ihre Quellen brav angeben würden, lassen sich 80% aller Gerüchte auf echte und falsche Daten hier aus dem Speku-Thread zurückführen.

Sprich: Ich mach das gar nicht so freiwillig und eigentlich liegt es mir auch nicht, uns da selber so in den Mittelpunkt zu stellen. Doch andererseits: So ist die Faktenlage (und an der Faktenlage kann ich nicht vorbei) und dann gilt ja noch immer (zumindest wenn es nicht um mich selber geht): Ehre, wem Ehre gebührt. Ergo kann ich durchaus das Forum auf der Startseite loben - es ist passend und wohlverdient.

Iruwen
2012-02-09, 15:32:09
OT aber hat es eigentlich einen besonderen Grund dass das Forum und die Webseite auf separaten Domains liegen? Bewusste Trennung oder "Zufall"?

/e: ah, danke.

Leonidas
2012-02-09, 15:40:26
Uralte Entscheidung zu Zeiten, wo es aus Performancegründen besser war, das zu trennen.

Hugo78
2012-02-09, 16:26:43
Dass die Ankuendigung ein Ende an den Patent-krieg der Vergangenheit zwischen NV und Rambus setzt, ist wohl schwer zu uebersehen. Wie man davon jetzt ploetzlich gleich auf XDR2 dichtet ist aeusserst interessant, aber wohl doch ein paar Meilen zu weit getrieben fuer die heutige Situation.

XDR2 ist auch für mich nur ein Running Gag, aber einer der bedient werden will. :D
Das " X-D " steht da nicht umsonst am ende. ;)

guest_29132
2012-02-09, 17:00:48
Weil ich den Jungs hier im Forum mehr vertraue als anderen Forenjungs.
Ist natürlich nachzuvollziehen. Aber mal angenommen die Chinesen, die Tschechen und Charlie würden hier tatsächlich abschreiben, und die "Leaks" geheimen Quellen zuschreiben, statt selbst ein paar Zahlen zusammen zu würfeln ... das sind ja nicht die einzigen die hier mal reinschauen.
Und das betreffend hat die Reputation imho schon gelitten, wo in den letzten Wochen hier - mal mehr mal weniger - offensichtliche fakes (besonders für jene die des deutschen so mächtig sind, wie der 08/15 deutsche in englisch, oder schlechter) ins Forum gepostet wurden.
Und was von dem sind jetzt falsche Daten, was bewusst gestreute Fehlinformationen und was einfach nur bulls...? Und am Ende sind die Treffer schon lange gewusste Fakten, und die Nieten bewusster Unfug für irgendwelche Blogger?

Und obrovsky hat sich hier natürlich auch wirklich für 2 Posts angemeldet? oO

crux2005
2012-02-09, 17:06:32
Sieht danach aus. Musste aber bei den Beiträgen ein wenig lachen. :biggrin:

Ailuros
2012-02-09, 17:37:30
Ist natürlich nachzuvollziehen. Aber mal angenommen die Chinesen, die Tschechen und Charlie würden hier tatsächlich abschreiben, und die "Leaks" geheimen Quellen zuschreiben, statt selbst ein paar Zahlen zusammen zu würfeln ... das sind ja nicht die einzigen die hier mal reinschauen.

Du kannst beruhigt Charlie aus der Liste entfernen, denn er hat seine eigenen echten Quellen.


Und das betreffend hat die Reputation imho schon gelitten, wo in den letzten Wochen hier - mal mehr mal weniger - offensichtliche fakes (besonders für jene die des deutschen so mächtig sind, wie der 08/15 deutsche in englisch, oder schlechter) ins Forum gepostet wurden.
Und was von dem sind jetzt falsche Daten, was bewusst gestreute Fehlinformationen und was einfach nur bulls...? Und am Ende sind die Treffer schon lange gewusste Fakten, und die Nieten bewusster Unfug für irgendwelche Blogger?

Betreffend GK104 gab es Stueck fuer Stueck kleine Fetzen an Informationen, wobei einige Stellen entweder nie erwaehnt wurden oder mit Absicht falsch erwaehnt. Nimm die originale chiphell Tabelle als Beispiel und schau Dir die angeblichen 104 specs an und es ist leicht zu sehen wo die paar Unterschiede liegen.

Wann die ersten Infos eingeflossen sind? Ab Q3 2011. Und falls Du Dich noch weiter wundern solltest woher auf jeden Fall nicht NVIDIA.

Und obrovsky hat sich hier natürlich auch wirklich für 2 Posts angemeldet? oO

Wer ist der Herr? (ehrliche Frage)

DarknessFalls
2012-02-09, 17:39:10
milamber! spricht von OBR, @Ailuros...

Ailuros
2012-02-09, 17:43:23
milamber! spricht von OBR, @Ailuros...

Danke. Ich wusste ehrlich nicht wie der Herr ueberhaupt heisst. Aber dem "Zufall" zu liebe: er hatte in einem blogpost behauptet dass die specs schon draussen sind. Ich erwaehne bei B3D in einer Debatte unabhaengig vom vorigen dass die chiphell Tabelle so nahe wie moeglich an den GK104 specs liegt und es dauerte nur Minuten bevor er es zum obrigen Satz dazugefuegt hat.

Deshalb tut er mir auch kein bisschen leid dass ihm jemand die photoshopped slides unter die Nase gebunden hat.

y33H@
2012-02-09, 17:44:45
Z. Obermeier, alias OBRovsky ... wenn er ES hat, dann ist er gut - ansonsten naja *meh*

EDIT
Too late :usad:

Hübie
2012-02-09, 18:19:02
Die Leute vergessen manchmal einfach was spekulieren bedeutet. Es ist halt immer nur maximal eine fifty-fifty chance drin zu gewinnen.
Ich vertraue da meinem Riecher und logischem Denken. Deshalb schreibe ich auch fast nur noch hier bzgl. Kepler. In fast allen anderen Foren kommen nur dämliche Kommentare.

@Ail: SPEKULATION(!): Was würde ein Hindernis sein zwei Chips, ähnlich dem C2Q, in ein package zu integrieren und dem Ganzen einen codenamen zu spendieren? Meiner Meinung nach nichts.
Es wäre nicht einmal technisch allzu aufwändig. Zwei Chips auf einem PCB sind da sicher komplizierter (vor allem bzgl. Signallaufzeiten, Speicherverwaltung, Abwärme/Verlustleistung).
Ehrlich gesagt halte ich das zwar für einen gedanklichen Krüppel, welcher ab nicht abwegig ist.

LG Hübie

Edit: Das mit XDR2 ist für mich auch nur n running Gag. Ich würde mich kringeln so was auf News-Seiten zu lesen weil es hier breitgelatscht wird. Das Abkommen mit RAMBUS hat wohl andere Wurzeln und wird anderweitig Früchte tragen (GPGPC). Das mit dem datamovement ist ja nun ausreichend bekannt...

OgrEGT
2012-02-09, 18:23:59
Die Leute vergessen manchmal einfach was spekulieren bedeutet. Es ist halt immer nur maximal eine fifty-fifty chance drin zu gewinnen.
Ich vertraue da meinem Riecher und logischem Denken. Deshalb schreibe ich auch fast nur noch hier bzgl. Kepler. In fast allen anderen Foren kommen nur dämliche Kommentare.

@Ail: SPEKULATION(!): Was würde ein Hindernis sein zwei Chips, ähnlich dem C2Q, in ein package zu integrieren und dem Ganzen einen codenamen zu spendieren? Meiner Meinung nach nichts.
Es wäre nicht einmal technisch allzu aufwändig. Zwei Chips auf einem PCB sind da sicher komplizierter (vor allem bzgl. Signallaufzeiten, Speicherverwaltung, Abwärme/Verlustleistung).
Ehrlich gesagt halte ich das zwar für einen gedanklichen Krüppel, welcher ab nicht abwegig ist.

LG Hübie

Ich denke dieses Konzept wurde hier unter dem Stichwort "Interposer" diskutiert. Eine "Verdrahtungsebene" im Package, so dass darüber mehrere kleine Dies untereinander, und insgesamt mit dem Ball Grid Array verbunden werden.

Edit: So etwas war nach dem Diskussionsstand hier frühestens für die übernächste Generation denkbar.

Ailuros
2012-02-09, 18:26:54
Die Leute vergessen manchmal einfach was spekulieren bedeutet. Es ist halt immer nur maximal eine fifty-fifty chance drin zu gewinnen.
Ich vertraue da meinem Riecher und logischem Denken. Deshalb schreibe ich auch fast nur noch hier bzgl. Kepler. In fast allen anderen Foren kommen nur dämliche Kommentare.

Danke.

@Ail: SPEKULATION(!): Was würde ein Hindernis sein zwei Chips, ähnlich dem C2Q, in ein package zu integrieren und dem Ganzen einen codenamen zu spendieren? Meiner Meinung nach nichts.
Es wäre nicht einmal technisch allzu aufwändig. Zwei Chips auf einem PCB sind da sicher komplizierter (vor allem bzgl. Signallaufzeiten, Speicherverwaltung, Abwärme/Verlustleistung).
Ehrlich gesagt halte ich das zwar für einen gedanklichen Krüppel, welcher ab nicht abwegig ist.

LG Hübie

Der Gedanke ist alles andere als krumm, nur vielleicht etwas seiner Zeit voraus was GPUs betrifft. Es wuerde mich stark beindrucken wenn Grafik IHVs solche Optionen noch nicht bis jetzt unter die Lupe genommen haben als zukuenftige Moeglichkeit.

Sonst waere es kinderleicht zu sagen was NV momentan bezueglich mGPU vorhat, aber da sie ihre Meinung diesbezueglich mehr als nur einmal in der Vergangenheit geaendert haben, nehme ich die Sache einfacher konservativer an und sage dass die sicherste Moeglichkeit erst nach dem launch von New Zealand definitiv entschieden wird.

OgrEGT
2012-02-09, 18:34:31
Oder vielleicht so was in der Art :cool: :freak:

http://www.abload.de/img/ati5870concept2sdoz.png (http://www.abload.de/image.php?img=ati5870concept2sdoz.png)

Hübie
2012-02-09, 18:40:30
@Ail: Es war auch nicht so zu verstehen das es mit Kepler kommt. Aber die GK110/112 haben mit Sicherheit einen Hintergrund. Auch wenn es nicht dieser ist. Doch rein für die Spekulation kann man das offen lassen. Du schiebst sofort einen Riegel vor wenn einer GK110 oder 112 sagt. Ist mir nur mal so aufgefallen. :|
Aber du hast sicher Recht wenn du sagst es soll erst mal eine Linie herauskommen bevor auch nur ansatzweise an refresh/Nachfolger gedacht wird.

@OgrEGT: Ich lese hier täglich mit ;)

OgrEGT
2012-02-09, 19:00:16
@OgrEGT: Ich lese hier täglich mit ;)

Sorry wenn ich Dich falsch verstanden habe.
Ich dachte Du meinst genau das.
Oder Du meintest wirklich was wie den C2Q Kenntsfield oder beim Pentium D Smithfield gab es das auch schon. Da waren aber beide Kerne bzw. Die's über den FSB verbunden und nicht direkt untereinander AFAIK. Das wäre aber dann ähnlich zu bestehenden multiGPU Karten, die über PCIe per Switch verbunden sind.

AnarchX
2012-02-09, 21:04:52
The two siblings are said to be GK104-400 and GK104-335, basically a full working and partially fused off version of the same chip. The -400 is said to be an “8 group” device, the -335 described as “7 group’.
http://semiaccurate.com/2012/02/09/there-are-two-gk104kepler-variants/

Vielleicht doch fettere Cluster mit 16 TMUs und 192SPs?

Zergra
2012-02-09, 21:07:26
mhh :D ich glaube das eher nicht, das ist eher ein Versuch Kepler besser darzustellen da sie erfahren haben das GK110 erst später kommt, um dann es vllt. doch so auszusehen hat als würde Kepler Tahiti schlagen :P

Hugo78
2012-02-09, 21:09:59
@Zergra
Wer ist Sie?

Zergra
2012-02-09, 21:23:43
@Zergra
Wer ist Sie?
Sie die Seite? die das Gerücht gestreut haben :D wer weiß !

Hugo78
2012-02-09, 22:47:29
Hast du den Artikel überhaupt gelesen?

Zergra
2012-02-09, 23:43:48
Hast du den Artikel überhaupt gelesen?
klar hab ich den gelesen kommt mir aber ziemlich komisch vor... wäre eine Praktische Variante, aber ich bezweifle das trotzdem :D aber jedem das seine

Hugo78
2012-02-10, 08:32:59
Er beschreibt im grunde nur einen Full (GTX 680) und einen Salvage (GTX 670) Part.

Die Neuerung wäre allein, dass NV jetzt möglicherweise einen SM selber teildeaktivieren kann und nicht den SM als Ganzes deaktivien muss, was laut Char_LIE bei AMD schon länger funktioniert.
Wobei mir grad nicht bekannt ist, dass das bei den Radeons auch angewendet wird/wurde...

Gaestle
2012-02-10, 08:44:35
SM auch nur zum Teil deaktivieren zu können, könnte natürlich den Yield steigern.

Angenommen, man könnte beispielsweise 2 SM jeweils zur Hälfte deaktivieren und kann die jeweils halben SM trotzdem verwenden, könnte man auch Chips mit zwei Fehlern auf dem DIE als Fullchip-1SM Derivat verkaufen, statt als Fullchip-2SM. Die Frage ist, ob das Tools wie GPU-Z "sehen" würden, oder ob die Steuerung dafür und die Meldung, wie viele SM "da" sind, irgendwo in den Tiefen des Treibers oder sogar in Hardware geregelt würde.

Aber ich vermute mal, dass der zusätzliche Steuerungsaufwand innerhalb jedes (!) SM überproportional groß und damit insgesamt zu groß wäre. Deswegen denke ich, dass es unrealistisch ist.

Skysnake
2012-02-10, 08:57:49
Das halte ich für ein Gerücht. Bei jedem Load in Software eine ECC-Prüfung mit Bit-Correction zu machen wäre unakzeptabel lahm. Mir ist keine Lösung bekannt, bei der das nicht der Speichercontroller macht.

Mal abgesehen von den Problemen wie man das überhaupt in den Code einbauen soll automatisch.
Irgendwo wurde das mal so gemacht, aber frag mich nicht wo und wann in den ~60 Jahren, die wir überflogen haben :ugly:

Wie gesagt, wir haben uns einige Strange Sachen angeschaut, von denen sich die meisten nicht durchgesetzt haben, aber Ideen aufgenommen und verbessert wurden.

Und so Speziallösungen gibt/gab es halt immer. Heute wird es so wie ich es verstanden habe halt über einen extra Chip gelöst, anstatt die Chips selbst breiter aus zu legen, aber es spricht nichts dagegen das auch anders zu machen. Ist halt immer eine Kosten/Nutzen Frage, und die schlägt meist eher in Richtung Kosten aus, denn in Nutzen, weshalb Spezial/Sonderlösungen immer seltener werden.

Und noch was zu XDR2. Es sollte doch wohl hoffentlich klar sein, das irgendwas in die Richtung in den nächsten 1-5 Jahren kommen muss. Ob das jetzt XDR2 oder PuschelWuschel heißt, spielt dabei keine Rolle. Die Idee hinter XDR Ram ist halt effizienter, was den Energieverbrauch anbelangt, und genau dort wird eben der Fokus in Zukunft immer stärker liegen, einfach weil man powerlimited ist.

Oder was meint ihr, warum Intel den MemoryCube auf dem IDF hatte, warum eDRAM von IBM verwendet wird, warum an PCM, ReRAM, usw usw geforscht wird wie blöd?

Das XDR2 RAM ein running Gag ist, liegt wohl eher an Rambus, die halt wahrscheinlich den Hals nicht voll bekommen. Das Zeug wäre heute schon SEHR hilfreich, egal ob für GPUs, APUs oder gar CPUs. Der Gag wird also zum "Gag" weil es einfach nur traurig ist, das hier so auf die Technologiebremse getreten wird -.-

Hübie
2012-02-10, 09:10:34
Das dürfte primär dem Preis-/Leistungsverhältnis geschuldet sein. Wobei ich mit Leistung nicht nur Performance meine ;)

guest_29132
2012-02-10, 16:58:48
Die Leute vergessen manchmal einfach was spekulieren bedeutet. Es ist halt immer nur maximal eine fifty-fifty chance drin zu gewinnen.

Spekulieren? Ich sprach von den bewussten und vorsätzlich geposteten fakes, und ich meine keinen kram den man von woanders hier her kopiert.
Ein bischen ins blaue Raten kann jeder, und mit Hintergrundwissen liegt man noch was näher dran. Aber das man dabei was gewinnen kann ist mir neu.

Sorry, aber da musste ich noch ein letztes mal OT.

Edit:
Respekt? Na klar! ;D

Hübie
2012-02-10, 18:39:16
Ging es dir jetzt nur ums klug scheißen? Spekulation ist per Definition eine nicht bewiesene oder nicht beweisbare Aussage. Ob nun Folien die irgendwer zusammengemauert hat oder Wörter die gesprochen wurden ist dabei egal. Selbst ob vorsätzlich oder nicht spielt dabei keine Rolle.
Also ist dein Beitrag in meinen Augen sinnlos.
Der Gewinn ist übrigens Glaubwürdigkeit und/oder Repsekt. Aber ich helfe ja gerne.

b2t:
Ich male mir gerade aus was mit Teildeaktivierten SMs so anzustellen wäre :rolleyes:

Ailuros
2012-02-10, 18:45:19
Mir waere es aber trotzdem lieber wenn Ihr beiden die eher persoenliche Debatte zwischen Euch privat weiterfuehrt.

Hugo78
2012-02-10, 23:43:49
Aber ich vermute mal, dass der zusätzliche Steuerungsaufwand innerhalb jedes (!) SM überproportional groß und damit insgesamt zu groß wäre. Deswegen denke ich, dass es unrealistisch ist.

Das ist auch was ich mir zuerst gedacht hab.
Ich kann mir zwar vorstellen, dass nicht alle ALUs eines SM immer laufen müssen,
aber der Rest des SM funktioniert oder ebend nicht und damit der SM im Ganzen.

Wie man damit die Yield wirklich, bemerkenswert steigern können soll, erschießt sich mir nicht.
Ausser natürlich es kommt so oft vor das bei zwei SMs nur immer ein paar ALUs grad beschädigt sind,
so dass man beide deaktivieren musste und man die beiden jetzt "vereinen" kann.

AnarchX
2012-02-11, 08:29:29
BSN mit einigen Infos, von den ein großer Teil schon bekannt ist:
http://www.brightsideofnews.com/news/2012/2/10/real-nvidia-kepler2c-gk1042c-geforce-gtx-670680-specs-leak-out.aspx


[...]The base combinations for NVIDIA future GPUs now are 96 (1SM), 384 (1GPC), 768 (2GPC), 1536 (4GPC), 2304 CUDA cores/Stream Processors (6GPC). Given that we our sources are telling us the big monolithic die comes with 2304 SP,
[...]
True, the difference in planned price is estimated at $100 less for NVIDIA boards ($349-399 versus $449/7950 and $549/7970), which should mitigate the paper advantage of the HD 7900 Series.[...]

Skysnake
2012-02-11, 08:54:07
Vergleichen wir mal alles: GF114 vs. GK104 Gerüchte

Warps/SM: 6/6 (ohne HC; mit HC wären es 12)
ALUs pro SM 48/96
ALUs pro GPU: 384/384*(1,2,4,6)

Das klingt jetzt nicht schlecht. Je nach dem wie viele GPCs der GK104 bekommt.

Die kleinste Version mit 384 Shadern und fehlendem HotClock würde damit wohl etwa einem GF116 entsprechen. Die mit 2 GPCs dem GF114, 4GPCs etwa GF110 +50% und mit 6 GPCs könnte man bis zum Doppelten des GF110 erwarten.

Ich denke der GK104 wird dann wohl der mit 4 GPCs. Da der HotClock weg fällt müsste das mit den 96 ALUs/SMs bei der Aufteilung auf Warps auch kein Problem mehr sein.

Die Caches müssten aber schon ziemlich groß werden, wenn man diesbezüglich keinen Rückschritt zu Fermi machen will.. Was Cache/Flop anbelangt.

EDIT:
Da ist ja noch ein Bild vom Aufbau. Da hat sich jemand SEHR viel Mühe gegeben, oder das Ding ist echt.

Dann gehts mal weiter jetzt aber im Vergleich GF110 vs GK1xx

ALUs/RasterEnginge: 32*4 | 96*4 (also etwas schlechter geworden. Sollte auf dem Niveau des GF1x4 liegen)
SFUs/SM: 4 | 16 da muss man sich anschauen, was die alten und die neuen SFUs können.
ALUs/SFU: 8 | 6 Die GF110 muss man auch noch dopelt zählen, da HotClock. Damit wären es dann eher 16 | 6

Eventuell haben wir hier ja die vermeintliche "PhysX/Physics" Hardware, die nVidia verbaut haben will. Je nach dem braucht man bei GPGPU nämlich schon recht viele Operationen, die auf den SFUs laufen. Also Transzendente Funktionen wie Exponential- und Trigonometrischefunktionen.


Bei den LD/ST Units hat sich wohl auch etwas getan.
LD/ST pro SM: 16 | 32 Keine Ahnung, ob die GF110 auch hot clocked waren, aber wenn nein, hat sich hier das Verhältnis auch etwas verbessert. Ansonsten leicht verschlechtert, sofern die Einheiten gleich sind.


Pro SM scheint sich auch die Anzahl Sheduler/Dispatcher verdoppelt zu haben. Das tägt sicherlich der Tatsache Rechnung, das man eben 96 ALUs auf einmal bedienen muss und nicht mehr 2*32 in einem GPU-Takt|32 in einem Shader-Takt.

Tex-Units/SM: 4/8 damit wäre die Texturleistung je Flop etwas gesunken, wenn die Einheiten gleich sind!

Ach und noch was ist mir aufgefallen. Man hat wieder je GPC genau einem Memory Controller. DAs deutet darauf hin. Bei nVidia war es bisher so, das ein Controller 64 Bit zur Verfügung gestellt hat, also 2 Chips verwaltet hat. Die Version mit 4 GPCs kommt damit wohl auf ein 256Bit Interface, was dann wohl GK104 wäre, wie schon vermutet, und die mit 6 GCs dann auf ein 384Bit Interface, was dann der GK110 sein müsste, und damit gleich auf liegen würde mit Tahiti XT/GF1x0. Das wäre schon SEHR ernüchternd.

EDIT: Die sagen, es gäbe auch eine 512 Bit version. Das klingt dann aber doch etwas gewagt. Gäbe es dann doch 2! Versionen des GK110, was ich dann doch für etwas unrealistisch halte. Zumal meines Wissens nach die Controller bei Fermi ja an die GPCs gekoppelt waren, oder nicht?

AnarchX
2012-02-11, 09:08:07
2304SPs und 1:2 DP, wie im Artikel behauptet klingt aber trotzdem seltsam.
Oder soll es 6*6*64 sein?

Wenn die Daten zu GK104 nun so stimmen, sind im Endeffekt wohl 2048SPs/128TMUs/8GPCs/384-512-Bit am wahrscheinlichsten für GK110, eben ähnlich wie bei GF114 vs GF110.
Bei nur 384-Bit, dann wohl ein 5,5-6Gbps IMC.

boxleitnerb
2012-02-11, 09:08:55
Was mich mal interessieren würde:
Wenn die Bandbreite nicht limitieren würde, könnte ein Kepler mit ähnlicher Rohleistung wie eine entsprechende GCN-Karte theoretisch effizienter mit selbiger umgehen, sprich schneller sein? Was wäre dafür nötig?

AnarchX
2012-02-11, 09:13:14
Was mich mal interessieren würde:
Wenn die Bandbreite nicht limitieren würde, könnte ein Kepler mit ähnlicher Rohleistung wie eine entsprechende GCN-Karte theoretisch effizienter mit selbiger umgehen, sprich schneller sein? Was wäre dafür nötig?
Mit dem GPC-Ansatz und den Geometrie/Tess-Einheiten in den SMs ist man AMDs zentralen Front-End weiterhin überlegen, sodass die Spieleleistung wohl schon ein gutes bis deutliches Stück höher liegen sollte bei vergleichbarer Rohleistung.

Bezüglich Bandbreite braucht es ausgefeilte Caches und eben diverse Kompression.

Wenn NV nicht viel falsch macht bei GK100, sollte dieser mit der GPC-Zahl und dem Takt gegenüber GF110 skalieren.

Skysnake
2012-02-11, 09:30:57
2304SPs und 1:2 DP, wie im Artikel behauptet klingt aber trotzdem seltsam.
Oder soll es 6*6*64 sein?

Naja, man hat ja scheinbar die 96 ALUs in 6er Gruppen gruppiert, was zu 16 6er Gruppen führt. Diese können dann zusammen eben 6 SP Flop/Takt berechnen, oder eben 3 DP Flop/Takt. Das passt schon so.

Dadurch, das man vom HotClock weg ist, hat man auch nicht mehr das Problem mit dem asymmetischren Split der Warps wie beim GF1x4.

Wenn die Daten zu GK104 nun so stimmen, sind im Endeffekt wohl 2048SPs/128TMUs/8GPCs/384-512-Bit am wahrscheinlichsten für GK110, eben ähnlich wie bei GF114 vs GF110.
Bei nur 384-Bit, dann wohl ein 5,5-6Gbps IMC.
Ich denke das mit den 512 Bit haben Sie sich dazu gedichtet. Klingt für mich einfach unglaubwürdig, aber man soll niemal Nie sagen, in letzer Zeit bin ich damit ja auch schon auf die Nase gefallen (eventuell) :ugly:

Eventuell waren die 512 mal geplant, falls man die >5Gbps nicht schafft. Da man es aber scheinbar geschafft hat, würden auch 384 reichen, was einen kleineren DIE zur Folge hat.

Wie dem auch sei. Die Flop/Global_Mem_Bandbreite entwickelt sich offenbar ganz klar zum schlechteren.... Das ist echt bescheiden :down: Da wird wohl auch ein ziemlicher Anteil ihrer Effizienzsteigerung liegen.... Wenn man aber global-mem-bandwith limitiert ist, dann bringen einem die tollen Flops halt nichts.....

Interessant wäre jetzt noch, wie sich die Caches entwickeln... Ich hoffe da siehts besser aus als bei der Speicherbandbreite, ich befürchte aber schlechtes...

AnarchX
2012-02-11, 09:41:32
Naja, man hat ja scheinbar die 96 ALUs in 6er Gruppen gruppiert, was zu 16 6er Gruppen führt. Diese können dann zusammen eben 6 SP Flop/Takt berechnen, oder eben 3 DP Flop/Takt. Das passt schon so.

Bei GF1xx hat man das doch vertikal betrachtet? Also 3x(Vec)32 laut dem Bild?

Das Bild trägt aber auch den Namen: "NVDA_Kepler_GK104_Mockup_68.jpg"

Eventuell waren die 512 mal geplant, falls man die >5Gbps nicht schafft. Da man es aber scheinbar geschafft hat, würden auch 384 reichen, was einen kleineren DIE zur Folge hat.

512-Bit sollen nicht auf >500mm² passen?


Aber beim IMC muss man wohl doch etwas pessimistischer sein, wenn sich auch fragt, wie NV da im HPC-Segment große Mengen Speicher bei niedrigem Verbrauch anbinden will und gleichzeitig eine passende Bandbreitensteigerung anbieten will.

btw.
PHK glaubt, dass NV etwas nächsten Monat launcht: http://bbs.expreview.com/thread-49260-1-1.html
Eine Vorschau wäre wohl schon mal nicht so schlecht, wenn AMD Anfang März ihr komplettes 100-500€ GCN Line-up am Markt hat. ;)

Skysnake
2012-02-11, 10:20:00
Das 512 Bit Interface, würde wohl sicherlich drauf passen. Die Frage ist da eher weniger das "Können" als das "Wollen" ;)

Wenn ich die gleiche Bandbreite mit einem schmalen Interface erreiche, dann nehm ich dankend das schmalere Interface.

Man hat sich wohl auf eine gewisse Bandbreite festgelegt, und geschaut, wie man diese erreicht. Höhere Taktrate + 512 Bit SI wäre natürlich optimal, aber wohl zu teuer, zu koompliziert, zu Stromhungrig usw.

Ailuros
2012-02-11, 10:58:13
2304? Was stand denn auf der originalen chiphell Tabelle unter "GK100" genau? ;D

Ich frag nochmals was gegen die These spricht fuer ein um einiges billigeres 4:1 SP/DP ratio in den ALUs als das um einiges teurere 2:1. ALUs sind relativ spottbillig ueberhaupt bei 4:1. Was jetzt die TMUs betrifft ich hab nie behauptet dass es "volle" TMUs sein werden :P

***edit: uebrigens ist Theo nicht mehr bei BSN sondern seit neuestem bei VR-zone.

boxleitnerb
2012-02-11, 11:00:00
Muss das falsch sein? Können ja auch andere Sachen aus dieser Spalte falsch sein, ein, zwei Einträge aber nicht.

Ailuros
2012-02-11, 11:10:34
Muss das falsch sein? Können ja auch andere Sachen aus dieser Spalte falsch sein, ein, zwei Einträge aber nicht.

Nochmal auch fuer Dich: die chiphell Tabelle wurde von den Spekulationen in diesem thread hier abgeschrieben. Da bis zu dem Zeitpunkt nichts ueber GK110 erwaehnt wurde, ist natuerlich der angebliche "GK100" so verkehrt wie es ueberhaupt noch geht. Der GK104 3dmark11 xtreme score duerfte +/- stimmen und ausser dem GK104 Anteil ist der Rest nur zusammengereimter Quark.

FYI und ja ich bin mir sehr sicher dass Du es nirgends bisher woanders gelesen hast, 104 leidet auch unter 8xMSAA nicht allzu besonders. Hints dafuer gab es hier schon.

boxleitnerb
2012-02-11, 11:12:48
Das weiß ich schon. Es schließt aber doch nicht aus, dass da der ein oder andere Wert zufällig stimmt, oder? Wieviele CudaCores erwartest du denn für GK110?
Das mit dem 3Dmark11 Wert ist interessant. +/-10% spiegelt das auch etwa die Spieleperformance wieder, jedenfalls im Computerbase-Test und die haben sich ja immerhin 14 Spiele angeschaut. Wäre beeindruckend, wenn man hier on par mit der 7970 wäre und nicht darunter.

Ailuros
2012-02-11, 11:18:47
Spiele sind nicht so optimistisch ausser ein paar Ausnahmen.

reaperrr
2012-02-11, 11:32:57
***edit: uebrigens ist Theo nicht mehr bei BSN sondern seit neuestem bei VR-zone.
Hat er BSN nicht gegründet? Und schreiben tut er dort ja auch noch.

M4xw0lf
2012-02-11, 12:03:04
Spiele sind nicht so optimistisch ausser ein paar Ausnahmen.

Mensch, du machst es aber auch immer spannend :biggrin:

Blediator16
2012-02-11, 12:35:53
Mensch, du machst es aber auch immer spannend :biggrin:

Naja eigentlich gibts bei NV und AMD jeweils immer Ausreißer also nichts neues:biggrin:

Hugo78
2012-02-11, 13:36:30
GTX 675M mit 2GB
http://www.computerbase.de/news/2012-02/samsungs-notebook-flaggschiff-verraet-ivy-bridge-und-kepler/
Derzeitigen Planungen zufolge wird dies die zweitschnellste GPU der mobilen Kepler-Generation werden.

Coda
2012-02-11, 13:52:20
675M könnte aber auch ein Fermi-Derivat in 28nm sein.

AnarchX
2012-02-11, 13:55:28
Eher ist das ein 40nm Fermi, denn die GTX 675M tauchte im Treiber schonmal unter einer GF114-Device-ID auf.
(http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9070044#post9070044)
Wenn es einen 28nm Fermi geben sollte, dann ist das wohl GF117: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=518475

Aber da AMD wohl bald die mobilen 7900er mit Pitcairn launcht, sollte NV hier auch ein entsprechendes 28nm Gegenangebot bieten, also GK104. Ein 40nm GF114 wäre ziemlich lächerlich.

Hugo78
2012-02-11, 14:02:14
Aber da AMD wohl bald die mobilen 7900er mit Pitcairn launcht, sollte NV hier auch ein entsprechendes 28nm Gegenangebot bieten, also GK104. Ein 40nm GF114 wäre ziemlich lächerlich.

Das ist der Punkt.
Einen reinen 28nm Fermishrink als GTX 675M hab ich mir noch vor 2 Monaten vorstellen können, aber mittlerweile halte ich diese Einträge nur noch für Ablenkung.

AnarchX
2012-02-11, 14:08:27
Möglicherweise war es geplant die 600M Serie (bis hinauf zu 675M) komplett gegen Ende 2011 auszurollen: Mit GF117 im Low-End und Mainstream, GK107 im Performance-Bereich und niederem High-End und erstmal weiterhin einen 40nm GF114 im oberen High-End..
Später hätte es vielleicht noch GK104 als 680M/685M gegeben.

Und gegen Mitte 2012 (BTS) hätte man dann vielleicht die 700M-Serie mit den restlichen Kepler vorgestellt. Gerade GK106 wäre wohl kaum eher verfügbar gewesen.

Fermis oberhalb der GF116/117 auf 28nm zu shrinken, war wohl niemals eine Option.

Botcruscher
2012-02-11, 14:30:42
Bis Jahresende wäre viel zu optimistisch gewesen, selbst ohne die Unbekannte Fertigungsqualität.

AnarchX
2012-02-11, 14:34:12
Bis Jahresende wäre viel zu optimistisch gewesen, selbst ohne die Unbekannte Fertigungsqualität.

Für einen ~100mm² GF117 und einen ~150mm² GK107 wäre 2011 durchaus denkbar gewesen. Im Endeffekt war wohl Mitte 2011 selbst GK104 noch für Ende 2011 geplant.

Ailuros
2012-02-11, 15:11:47
GTX 675M mit 2GB
http://www.computerbase.de/news/2012-02/samsungs-notebook-flaggschiff-verraet-ivy-bridge-und-kepler/

Herrschaften wenn die GTX675M die zweitschnellste mobile GPU sein wird, dann ist es ein mobiler GK104 salvage part. Es wird fuer mobile nichts UEBER GK104 geben.

-----------------------------------------------------------

Sonst hoert mir bitte mit den angeblichen Bums-fermi-shrinks auf. Ausser GF117 ist mir nichts bewusst und wenn ich mir die diversen Leistungs- zu was auch immer Verhaeltnisse zwischen Fermi und Kepler so ansehe waeren sie schoen bloed mehr Fermi zu benutzen.

boxleitnerb
2012-02-11, 15:17:13
Bzgl. der Bandbreite:
Hier jemand mit nem GTX470SLI mal Crysis 2 getestet bei 104, 172 und 160GB/s (normal ist 135GB/s)
Die Steigerung mit knapp 20% vom ersten zum zweiten war doch recht ernüchternd (bzw. der Einbruch vergleichsweise gering). Ist Fermi doch nicht so stark bandbreitenlimitiert?

http://www.abload.de/thumb/3e580967foy9e.png (http://www.abload.de/image.php?img=3e580967foy9e.png)

http://forums.anandtech.com/showpost.php?p=32988138&postcount=118

Ailuros
2012-02-11, 15:21:49
Ich lass mich gerne eines besseren belehren aber die meisten Spiele heute duerften zu einem sehr grossen Anteil Bandbreiten-limitiert sein.

Knuddelbearli
2012-02-11, 15:22:22
naja so gering finde ich jetzt 20% nicht ...

boxleitnerb
2012-02-11, 15:27:40
naja so gering finde ich jetzt 20% nicht ...

Für 70% Bandbreitensteigerung schon. Ich mach nachher mal vielleicht auch ein paar Tests.

Verdoppelt sich bei SLI die Speicherbandbreite? Jede Karte muss doch auf ihren eigenen VRAM zugreifen, die Daten liegen doppelt vor. Nicht dass ich Quark messe.

Botcruscher
2012-02-11, 15:42:10
Bandbreite ja, Speichermenge nein. Zumindest wenn man ein Frame eines mGPU-Gespanns mit dem einer einzelnen GPU gleich setzen will.

boxleitnerb
2012-02-11, 16:22:43
Okay, ich kanns nicht testen. Bei manchen Kombinationen aus Speichertakt und Chiptakt krieg ich Klötzchen, Bildschirm wird schwarz und es gibt Treiberresets. Beim Untertakten...sehr komisch.

Ein Ergebnis konnte ich allerdings noch festhalten, auch wenn es mir merkwürdig erscheint. Chiptakt so gewählt, dass ich GTX580+40% Performance habe. Unigine Heaven, 1080p, 4/16, Extreme.
Bandbreite 160GB/s -> 21.7fps
Bandbreite 240GB/s -> 46.3fps

Also eine überproportionale Steigerung.

Zur Bandbreite: Ganz sicher, dass sich die verdoppelt? Gibts da irgendwo Infos dazu?

AnarchX
2012-02-11, 16:53:42
160/240GB für beide Karten oder jeweils eine?

Und natürlich hat bei AFR jede GPU ihren eigenen VRAM zur Verfügung, sodass pro Zeiteinheit entsprechend die doppelte Bandbreite zur Verfügung steht.

Überproportionale Steigerungen können enstehen, wenn es bei den Berechnungen einen Anteil gibt, der fix pro Zeiteinheit ist, also eine Grundlast. Sobald diese erfüllt ist, wird die überschüssige Leistung in anderen Berechnungen investiert und eben die Framerate steigt. Das können z.B. bestimmte Buffer sein die nur einmal angelegt werden und dann als Basis für andere Berechnungen dienen.

Diese überproportionalen Steigerungen kann man auch bei CPUs beobachten.

boxleitnerb
2012-02-11, 16:59:59
Für beide zusammen. Also 80, 120 bzw. 160GB/s pro Karte.
Vielleicht ist auch der Chiptakt zu gering, ich kann es nochmal probieren.

AnarchX
2012-02-11, 17:04:11
Denkbar, dass da auch gewisse Latenzen durcheinander kommen, die man bei der Herstellung einer solchen Niedrigtakt-Version beachten kann.

In der GTX 480M (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=484329&highlight=G92)wird ja ein GF100 auf 425MHz und 600MHz Speicher betrieben, sodass dieser Bereich eigentlich noch anzielbar sein dürfte. Aber hier hat wohl NV auch die GDDR5 Latenzen deutlich schärfer eingestellt, als bei 1000MHz GDDR5.

boxleitnerb
2012-02-11, 17:14:22
Okay, es geht. 1666MHz Takt geht nicht (ein Schelm, wer Böses dabei denkt), 1700 geht aber.
Dann bench ich mal los...

AnarchX
2012-02-11, 17:29:56
Warum testest du nicht einfach mit einer Karte:

425/550MHz als Basis.
Die GK110-GPU-Leistung simulierst du mit 850MHz GPU-Takt, 384-Bit 5,5Gbps mit 760MHz Speichertakt und 512-Bit 5Gbps mit 916MHz Speichertakt.

Mehr Takt ist natürlich effektiver als den Chip zu verbreitern und wie gesagt können die Latenzen des GDDR5 auch für Probleme sorgen. Und dazu auch das Problem der Grundlast...

Pick
2012-02-11, 17:34:27
"NV vs AMD" Roadmap by NV :freak:
http://www.abload.de/img/000022fnhsygoyjnsao5hxaaxd.gif
source http://www.chiphell.com/thread-359624-1-1.html

boxleitnerb
2012-02-11, 17:50:43
Warum testest du nicht einfach mit einer Karte:

425/550MHz als Basis.
Die GK110-GPU-Leistung simulierst du mit 850MHz GPU-Takt, 384-Bit 5,5Gbps mit 760MHz Speichertakt und 512-Bit 5Gbps mit 916MHz Speichertakt.

Mehr Takt ist natürlich effektiver als den Chip zu verbreitern und wie gesagt können die Latenzen des GDDR5 auch für Probleme sorgen. Und dazu auch das Problem der Grundlast...

Okay, mit SLI ist das Mist. Auf dem Papier verdoppelt sich die Bandbreite vielleicht, in der Praxis sieht das ganz anders aus:

Batman AC, DX11, 1080p usw. PhysX aus.
80+80GB/s@SLI, 540MHz Core: 36fps
160GB/s@SGPU, 540MHz Core: 52fps

Ich machs nachher nochmal mit einer GPU so wie du vorgeschlagen hast. Aber wie meinst du das mit den Speichertaktraten? Die GTX580 hat doch nur 384-bit und 4Gbps, höher komme ich gar nicht. Daher ja die Idee mit SLI. Mehr wie 200GB/s kann ich nicht fahren, das sind ja nur 20% mehr wie die für GK104 angepeilten 160GB/s.

Schaffe89
2012-02-11, 18:06:22
@Pick

Sieht nicht sehr seriös aus, allerdings hat Chiphell schon oft richtig gelegen.
Demnach kommt gar keine GTX 680 mit dem GK104, sondern eine GTX670.

AnarchX
2012-02-11, 18:08:56
Sieht nicht sehr seriös aus, allerdings hat Chiphell schon oft richtig gelegen.

Das Wasserzeichen kommt vom Upload bei Chiphell. Der User der es gepostet hat ist ein Unbekannter. Wenn bei Chiphell jemand etwas interessantes postet, ist es der Admin Napoleon.

boxleitnerb
2012-02-11, 18:09:11
@Pick

Sieht nicht sehr seriös aus, allerdings hat Chiphell schon oft richtig gelegen.
Demnach kommt gar keine GTX 680 mit dem GK104, sondern eine GTX670.

7.66 Gbps GDDR5 bei Sea Islands? 8GB bei GTX790 :freak:
Ist das nicht leicht unglaubwürdig?

Außerdem wäre die 690 dann nicht GK110, sondern GK104x2. Bei der 700er Serie soll sich das wiedern ändern und statt GK114 verbaut man 2xGK112? Ne also das glaub ich nun wirklich nicht ;)

Schaffe89
2012-02-11, 18:09:35
Achso^^

Ronny145
2012-02-11, 18:11:46
Das Wasserzeichen kommt vom Upload bei Chiphell. Der User der es gepostet hat ist ein Unbekannter. Wenn bei Chiphell jemand etwas interessantes postet, ist es der Admin Napoleon.


Oder Bigpao. Sieht extrem unstimmig aus für mich. Sicherlich ein Fake.

boxleitnerb
2012-02-11, 19:31:06
Wenn GK110 noch im Dezember 2011 seinen tape out gehabt hat, wann kann man mit einem Launch rechnen? GF100 hatte sein tape out angeblich im November 2009, Launch war Ende März. Schlimmstenfalls also 5 Monate. Oder war GF100 tape out früher?

Raff
2012-02-11, 19:35:22
6 Monate gelten als Richtlinie.

MfG,
Raff

DarknessFalls
2012-02-11, 19:52:13
...natürlich gesetz dem Fall, daß alle glatt läuft und kein Spin mehr nötig ist. Right?

Captain Future
2012-02-11, 20:00:57
Meint ihr Tape Out oder Silicon Back?

Ailuros
2012-02-11, 22:33:39
6 Monate gelten als Richtlinie.

MfG,
Raff

Um Himmels willen wo denn genau? GF100 hatte seinen tape out Ende August 2009 und kam im Maerz 2010 an. Nur eben mit ganzen 2 respins.

@Pick

Sieht nicht sehr seriös aus, allerdings hat Chiphell schon oft richtig gelegen.
Demnach kommt gar keine GTX 680 mit dem GK104, sondern eine GTX670.

Ja aber sicher ROFL. TDP fuer GK104 unter 230W? Junge wenn man so gut "raten" kann, sollte man schon fast eine Medaille verdienen. Abgeschriebener Scheiss und eine neuer Versuch die GK110 specs anders auszuraten. Na nach dem 10. Versuch koennte es vielleicht klappen ;D

AwesomeSauce
2012-02-11, 23:31:50
Optimus für Desktop-Karten? (Nvidia GTX 555)
It's also one of the first desktop PCs to use Nvidia's Optimus graphics switching technology
http://www.expertreviews.co.uk/pcs/1290145/hands-on-dell-s-alienware-x51-pc

Das wäre natürlich die eleganteste Variante, den Idle-Stromverbrauch zu senken.

boxleitnerb
2012-02-11, 23:35:35
Kann man dann trotzdem so Sachen wie NV-Surround, 3DVision etc nutzen? Ich könnte mir vorstellen, dass das Probleme macht, wenn das Signal durchgeschleift wird.

Hugo78
2012-02-11, 23:41:12
@Ailuros

Ich weiß du hast selber keine Karte und musst darauf vertauen was man dir zusteckt,
aber darf ich dich an hand zb. des CB Ratings und dem was man dir zusteckt, um eine dann doch konkretere Prognose bitten?

Konkret geht es um ein Rating in 1920*1080 bei 4xMSAA/16xAF, was ein "neutraler" Vergleichstwert ohne VRAM Limit oder Bandbreitenlimit ect. sein sollte (in der Leistungsklasse),
also wo Rechenleistung allein der ausschlaggebende Faktor sein sollte, ohne das wir hier in theoretischen, praxisfremden 800*600 Gefilde abgleiten.

Kurz, wo würde deines Wissenstandes nach, GK104 landen?
Es ist mir wie gesagt bewusst, dass du keine 100%ige Aussage treffen kanns, es bleibt Spekulation. ;)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=41956&d=1329046300

- Quelle Computerbase (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7950-crossfire/5/#abschnitt_leistung_mit_aaaf)

Das wäre natürlich die eleganteste Variante, den Idle-Stromverbrauch zu senken.

Es muss ja irgendwann mal kommen. :)

Screemer
2012-02-11, 23:51:07
Was bringt das den usern mit p-chipsatz im Intel Lager und bei AMD allen Nutzern ohne igp? Da kann man ja dann nur für die nächste Aufrüstung ein Auge drauf haben. Ordentliche stromsparmechanissmen wären mir da lieber. Ich denke aber nicht dass sich Kepler beim idle verbrauch groß von den amd-karten der 7er-Serie unterscheidet, pluß geringeren verbrauch beim video-decoding.

Hübie
2012-02-12, 04:36:52
Oh man. Da guckt man mal einen Tag nicht hier rein und dann so was. Hier ergibt ne Menge keinen Sinn. Inklusive Pentium M´s Satz.
Ich habe manchmal das Gefühl als würden die Leute, welche Inforamtionen an andere weitergeben, selber technische Daten verwechseln (wenn die es nicht gerade mit Absicht verkehrt herausgeben). Die aktuellen GK104-Specs stimmen so auch noch nicht.

@Hugo: Erwartest du jetzt, das Ail mit dem Finger drauf zeigt? Du kannst dir das doch selber ausrechnen. Im Gesamtrating werden sich die GTX 670 und die HD 7950 die Hand reichen. Wobei ich diesen Balkenvergleich als Quark empfinge. Viel wichtiger ist es Laufzeiten (input lag) zu verringern und frametimes gleichmäßig zu gestalten. Das misst aber keine Sau und Lemminge scheren sich nicht drum.

OT-Links: Anandtech (http://www.anandtech.com/show/2803/1) und Techreport (http://techreport.com/articles.x/21516) haben sich der Sache angenommen. In Deutschland ist (offiziell) noch nichts der gleichen im Gange :rolleyes:

Edit: Übrigens sorry für meinen schroffen Ton ;)

Leonidas
2012-02-12, 05:50:14
"NV vs AMD" Roadmap by NV :freak:
http://www.abload.de/img/000022fnhsygoyjnsao5hxaaxd.gif
source http://www.chiphell.com/thread-359624-1-1.html



Wenn man Spinnereien auflegt, sollten die wenigsten von logischen Gesichtspunkten ausgehen.

Zwischen GK110 und GF104 kann es keine verdoppelten HW-Einheiten geben, das passt nicht in die Die-Größen von 340mm² und 550mm². Logisch sind die 50% mehr HW-Einheiten, die es auch zwischen GF114 und GF110 gibt.

Eine 7930 ist jetzt noch nicht in Planung und kann daher auch noch auf keiner Roadmap als fest geplante Größe stehen. Salvage-Karten sind immer erst viel später planbar.

Hugo78
2012-02-12, 09:22:10
@Hugo: Erwartest du jetzt, das Ail mit dem Finger drauf zeigt? Du kannst dir das doch selber ausrechnen.

1. Ja und 2. na ebend nicht.
Die 7950 ist hier nur 3%, die 7970 aber 20% schneller.
Anfangs meinte er GK104 würde nur in 3DMark nicht so gut abschneiden und schon 10% vor der 580 sein, mit den ersten Treibern.
Jetzt klingt er wieder anderes. Also versuch ich es jetzt mit einem konkreten Beispiel. ;D

Andersrum, wenn er es nicht sagen kann, kann er ja mal seine Quelle darauf festnageln. ;)

AnarchX
2012-02-12, 10:00:50
Optimus für Desktop-Karten? (Nvidia GTX 555)

http://www.expertreviews.co.uk/pcs/1290145/hands-on-dell-s-alienware-x51-pc

Das wäre natürlich die eleganteste Variante, den Idle-Stromverbrauch zu senken.

Fraglich ob man das in einem PC mit verschiedensten Mainboard-Kombinationen(Revisionen) und von den Herstellern eigen-designten GraKa-PCBs so unproblematisch umsetzen kann.
Schon ZeroCore scheint ja nicht ganz unproblematisch zu sein und es muss sich zeigen, ob und wie die Partner-Designs das Feature unterstützen werden.

Ailuros
2012-02-12, 10:55:14
@Ailuros

Ich weiß du hast selber keine Karte und musst darauf vertauen was man dir zusteckt,
aber darf ich dich an hand zb. des CB Ratings und dem was man dir zusteckt, um eine dann doch konkretere Prognose bitten?

Konkret geht es um ein Rating in 1920*1080 bei 4xMSAA/16xAF, was ein "neutraler" Vergleichstwert ohne VRAM Limit oder Bandbreitenlimit ect. sein sollte (in der Leistungsklasse),
also wo Rechenleistung allein der ausschlaggebende Faktor sein sollte, ohne das wir hier in theoretischen, praxisfremden 800*600 Gefilde abgleiten.

Kurz, wo würde deines Wissenstandes nach, GK104 landen?
Es ist mir wie gesagt bewusst, dass du keine 100%ige Aussage treffen kanns, es bleibt Spekulation. ;)

Default oder irgend einem Sonderfall? :D

Edgecrusher86
2012-02-12, 11:00:20
Wenn GK104-400 im Mittel da landen würde, wo die HD 7950 @ 900/1250 MHz sich befinden (die PCS+ kommt mit 880/1250 MHz), wäre es wohl nicht so schlecht - schneller dürfte die Karte wohl nicht sein.
Die "prognostizierten" ~X3000 im 11er sind dann wieder mal optimiert und somit natürlich auch Cherry-picked (wie sicher auch Batman: AC, vor allem mit PhysX). :)

MfG
Edge

Ailuros
2012-02-12, 11:08:13
Xtreme benutzt AA/AF. So cherry picked dass ich mich immer noch wundere wieso die Bandbreite nicht limitiert.

Dural
2012-02-12, 11:44:51
wenn ein chip in 3dmark schnell ist, dann ist er auch überall schnell. 3mark11 spiegelt exzellent die rohleistung einer karte wider. zu behaupten chip xy ist nur in 3dmark11 schnell ist einfach lächerlich...

die zeiten wo das nicht der fall war (3dmark01 und 03) sind schon lange vorbei. manche haben es wohl noch nicht mitbekommen :rolleyes: mit der zeit werden sie halt CPU lastig (05 + 06 und älter) aber das ist der natürliche lauf und eigentlich auch logisch.

Ailuros
2012-02-12, 11:48:48
wenn ein chip in 3dmark schnell ist, dann ist er auch überall schnell. 3mark11 spiegelt exzellent die rohleistung einer karte wider. zu behaupten chip xy ist nur in 3dmark11 schnell ist einfach lächerlich...

die zeiten wo das nicht der fall war (3dmark01 und 03) sind schon lange vorbei. manche haben es wohl noch nicht mitbekommen :rolleyes: mit der zeit werden sie halt CPU lastig (05 + 06 und älter) aber das ist der natürliche lauf und eigentlich auch logisch.

So schnell wie in 3dmark11 xtreme ist GK104 in allen realen Spielen ueberall trotzdem nicht. Es ist eben so laecherlich weil Du schon irgendwelche Resultate gesehen hast.

Dural
2012-02-12, 11:54:49
da muss ich auch nicht wissen wie schnell oder nicht schnell GK104 ist...

es gibt aktuell keinen einzigen chip wo das nicht zu trifft und da wird GK104 sicher eine ausnahme darstellen, Wetten?

dass man bei einem neuen chip zuerst das bekannte in den treiber optimiert ist ja logisch, aber wenn er in 3dmark11 was reist dürfte der durchschnitt auch gut sein. Punkt :wink:

Hugo78
2012-02-12, 12:28:58
Default oder irgend einem Sonderfall? :D

Beides. :biggrin:

PingpiN
2012-02-12, 12:29:53
wenn ein chip in 3dmark schnell ist, dann ist er auch überall schnell. 3mark11 spiegelt exzellent die rohleistung einer karte wider. zu behaupten chip xy ist nur in 3dmark11 schnell ist einfach lächerlich...

die zeiten wo das nicht der fall war (3dmark01 und 03) sind schon lange vorbei. manche haben es wohl noch nicht mitbekommen :rolleyes: mit der zeit werden sie halt CPU lastig (05 + 06 und älter) aber das ist der natürliche lauf und eigentlich auch logisch.

Die radeon HD2900 XT war auch nur im 3dmark schnell D.

LovesuckZ
2012-02-12, 13:00:37
Die 8800GTX war auch im 3DMark schnell. (http://www.computerbase.de/artikel/grafikkarten/2006/test-nvidia-geforce-8800-gtx/13/#abschnitt_3dmark06)

Klingt wie ein Dilemma.

Ailuros
2012-02-12, 13:20:56
da muss ich auch nicht wissen wie schnell oder nicht schnell GK104 ist...
es gibt aktuell keinen einzigen chip wo das nicht zu trifft und da wird GK104 sicher eine ausnahme darstellen, Wetten?

Wieso sollte ich gerade mit Dir irgend eine Wette eingehen?

dass man bei einem neuen chip zuerst das bekannte in den treiber optimiert ist ja logisch, aber wenn er in 3dmark11 was reist dürfte der durchschnitt auch gut sein. Punkt :wink:

Der eingeschaetzte wahre Durchschnitt wurde in diesem Thread immer und immer wieder angegeben und dieser hat immer noch einen Unterschied zum 3dmark11 xtreme score.

3dmark11 ist genauso ein synthetischer Benchmark wie viele andere. Es liegt zwar um einiges naeher an einem game-scenario als andere synthetische benchmarks aber in den letzteren schlaegt die XT auch eine 104 um nicht gerade bescheidene Margen. In echten Spielen sieht es dann wieder ganz anders aus im Vergleich zu den anderen beiden Faellen aber auch nur weil rein zufaellig weil Kepler eben nicht ein Fermi auf steroids ist.

Klingt wie ein Dilemma.

Es gibt gewaltige Unterschiede zwischen 3dmark06 und 3dmark11.

AnarchX
2012-02-12, 13:24:14
Wäre interessant zu wissen in welchen FPS-Bereichen diese signifikanten Vorteile für Tahiti geschehen.
Die deutlich niedrigere TDP, die spekuliert wird, basiert vielleicht darauf, dass man in diese FPS-Bereichen die (ALU-)Leistung vielleicht etwas abregelt, damit der Verbraucht nicht zu drastisch steigt. Im Endeffekt hat NV vielleicht die ALU-Leistung von Tahiti fast erreicht, aber nicht dessen GFLOPs/Watt bzw. ist auf dem gleichen Niveau (bei aber geringerer TDP).

Im genannten X-Score von 3DM11 liegt die Last ja wohl eher auf GPCs und ROPs.

LovesuckZ
2012-02-12, 13:31:09
Im genannten X-Score von 3DM11 liegt die Last ja wohl eher auf GPCs und ROPs.

Wohl kaum. X-Score wird durch Rechenleistung und AA-Performance bestimmt. Der Front-End Bereich spielt hierbei kaum eine Rolle.

AnarchX
2012-02-12, 13:41:40
Ganz unwichtig dürfte es wohl trotzdem nicht sein: http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7950-crossfire/17/#abschnitt_3dmark_11
Aber natürlich hast du recht, sonst würde sich wohl kaum der spekulierte Unterschied zwischen GK104 und GTX 580 erklären lassen.

Die TDP (spekuliert auf 160-170W) und die Auswirkung auf die maximal abrufbare Leistung könnte aber trotzdem eine Rolle spielen, dass man teilweise sich Tahiti deutlich geschlagen geben muss.

LovesuckZ
2012-02-12, 13:59:15
Ganz unwichtig dürfte es wohl trotzdem nicht sein: http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7950-crossfire/17/#abschnitt_3dmark_11
Aber natürlich hast du recht, sonst würde sich wohl kaum der spekulierte Unterschied zwischen GK104 und GTX 580 erklären lassen.

Das Front-End ist unwichtig, da alle Chips eine Architektur haben, wo das Front-End leistungsmäßig ausreichend ist, um die 5-20 FPS gewährleisten zu können. Sollte GK104 im 3DMark11 angeblich so einen tollen X-Score erreichen, dann wird die Karte mit dem Chip dies in a) jedem Spiel zeigen, wo Tessellation bis zu einem bestimmten Faktor (ca. 14) eingesetzt wird und b) überall dort, wo Rechenleistung für Pixelberechnungen und Compute-Aufgaben benötigt wird.

/edit: Achja, bevor der erste gleich antanzt: Bei AMD limitiert sowieso immer das Front-End. Aber im 3DMark11 wird nur die normale Limitierung gezeigt und nicht eine durch Tessellation zusätzliche.


Die TDP (spekuliert auf 160-170W) und die Auswirkung auf die maximal abrufbare Leistung könnte aber trotzdem eine Rolle spielen, dass man teilweise sich Tahiti deutlich geschlagen geben muss.

Und wieso? :confused:
GF114 wird auch nicht eingebremst.

Ailuros
2012-02-12, 14:18:39
Ganz unwichtig dürfte es wohl trotzdem nicht sein: http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7950-crossfire/17/#abschnitt_3dmark_11
Aber natürlich hast du recht, sonst würde sich wohl kaum der spekulierte Unterschied zwischen GK104 und GTX 580 erklären lassen.

Die TDP (spekuliert auf 160-170W) und die Auswirkung auf die maximal abrufbare Leistung könnte aber trotzdem eine Rolle spielen, dass man teilweise sich Tahiti deutlich geschlagen geben muss.

Mal die caching Moeglichkeiten zur Seite ueber die man wohl so frueh leider noch nichts herausfinden kann, generell (wie schon jemand woanders sagte) eine tiefere pipeline mit mehr context switching um Latenz zum Speicher besser zu verstecken und natuerlich zu versuchen dass die ALUs so oft wie moeglich mit Daten gefuettert werden wuerde helfen, loesst mir aber das ingesamte Bandbreiten-Raetsel aber nicht voll.

Bandbreite wird IMHO so oder so stellenweise je nach Fall auf GK104 limitieren, ist aber im ingesamten Bild auch ziemlich wurscht so lange ein solches Produkt fuer seinen Preis und Stromverbrauch gut positioniert ist. Was danach vendors mit dem vorhandenen TDP Spielraum anrichten werden ist deren ihr Bier. Genau deshalb ist es auch meistens ziemlich laecherlich wenn man links und rechts liesst wie X Produkt uebertaktet werden kann oder was vendors als eigene Initiativen mit ihrer eigenen Garantie fuer uebertaktete Varianten anbieten.

AnarchX
2012-02-12, 15:10:06
http://we.pcinlife.com/data/attachment/forum/201202/12/220329m6tnt4axtfl8tnif.png
http://we.pcinlife.com/thread-1831876-1-1.html

Die Tabelle sieht ähnlich der aus, wo GK104 sehr gut getroffen wurde bzgl. Specs.

AwesomeSauce
2012-02-12, 15:13:44
Sieht ja ganz nach der Tabellen-Art mit den gut getroffenen Specs aus:
http://we.pcinlife.com/data/attachment/forum/201202/12/220329m6tnt4axtfl8tnif.png
http://we.pcinlife.com/thread-1831876-1-1.html
Ein "bisschen" optimistisch. Der Takt von 1050 MHz ist viel zu hoch.

AnarchX
2012-02-12, 15:14:11
Werks-OC-Version?

Skysnake
2012-02-12, 15:20:59
Btw. ich hab mir das mal bei OBR angeschaut. Dacht im ersten Moment, das sieht ja so aus, wie das Bild, das schon wo anders (chiphell?) gepostet wurde.

Weils OBR ist, hab ich es mir aber mal genauer angeschaut, und bin zu dem Schluss gekommen, das es ein FAKE sein muss. Schaut euch einfach mal die kleinen dezent rot markierten Bereiche an ;D


http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=41961&stc=1&d=1329056383
War als png zu roß.. Schaut euch die Stellen halt bei ihm auf der Seite an.

Gerade die verrückten Kacheln mit dem Pfeil sehen schon verdammt schlecht gemacht aus. Also für mich deutet das klar auf nen Fake hin, oder aber das es ein Praktikant gemacht hat, aber GANZ schlecht :ugly:

foenfrisur
2012-02-12, 15:23:16
vermutlich hält nv nichtmal eine auslieferungsfertige karte in der hand, aber wir haben schon benches ?:uconf2:

mfg

AwesomeSauce
2012-02-12, 15:26:12
Btw. ich hab mir das mal bei OBR angeschaut. Dacht im ersten Moment, das sieht ja so aus, wie das Bild, das schon wo anders (chiphell?) gepostet wurde.

Weils OBR ist, hab ich es mir aber mal genauer angeschaut, und bin zu dem Schluss gekommen, das es ein FAKE sein muss. Schaut euch einfach mal die kleinen dezent rot markierten Bereiche an ;D


http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=41961&stc=1&d=1329056383
War als png zu roß.. Schaut euch die Stellen halt bei ihm auf der Seite an.

Gerade die verrückten Kacheln mit dem Pfeil sehen schon verdammt schlecht gemacht aus. Also für mich deutet das klar auf nen Fake hin, oder aber das es ein Praktikant gemacht hat, aber GANZ schlecht :ugly:

WTF? Theo hat doch ausdrücklich gesagt, dass er das Mockup selbst gebastelt hat? Es hatte nie den Anspruch, echt zu sein.

Skysnake
2012-02-12, 15:26:44
Was ich mich vor allem Frage ist, warum sich Herr OBR nicht mal 2 Minuten Zeit nimmt, um sich so etwas mal etwas detailierter an zu schauen. Ich mein, das ist mir beim kurzen Drüberschauen schon aufgefallen, dass das Bild irgendwie komisch aussieht, und dann hab ich es mir mit Gimp halt mal genauer angeschaut, und beim Vergleich mit den GF110 und GF114 Bildern ist einem SOFORT klar geworden, das da einer Hand angelegt hat ;D

Gerade wenn man "Leaker" ist, sollte man seine Infos schon mal auf Plausibilität hin prüfen, und nicht wild drauf los ballern.

dildo4u
2012-02-12, 15:26:46
Ein "bisschen" optimistisch. Der Takt von 1050 MHz ist viel zu hoch.
Warum ist der Takt zu hoch vergleich mal 580 mit 560 TI,ich sehe mindestens 900 für den großen Chip,da sind 150 mehr für Midrange nix.Vieleicht liegt der Default Takt bei 1ghz aber wie bei der 560 Ti wird kaum einer so ausgeliefert.Man darf nicht vergessen es gibt kein Hotclock mehr,die Chip's müssen auf mehr Takt ausgelegt sein.

Skysnake
2012-02-12, 15:28:22
DAvon sagt OBR aber kein Wort ;)

http://www.obr-hardware.com/2012/02/gk104-chip-scheme-against-gf110gf114.html

AwesomeSauce
2012-02-12, 15:31:39
DAvon sagt OBR aber kein Wort ;)
As you can see in our architectural mockup,[...]
Wenn er zu doof ist, auch nur ansatzweise korrekt zu lesen, ist ihm sowieso nicht mehr zu helfen.

Skysnake
2012-02-12, 15:42:49
Er schreibt ja noch nicht mal dazu, woher er es hat :rolleyes:

MartinRiggs
2012-02-12, 15:42:58
http://we.pcinlife.com/data/attachment/forum/201202/12/220329m6tnt4axtfl8tnif.png
http://we.pcinlife.com/thread-1831876-1-1.html

Die Tabelle sieht ähnlich der aus, wo GK104 sehr gut getroffen wurde bzgl. Specs.

Wenn das nur halbwegs stimmt dann wäre die Karte mein, endlich mal ne fette BF3 Perfomance:biggrin:
Da enttäuscht mich die HD7970 am meisten.

Skysnake
2012-02-12, 15:47:03
So btw. hier noch der Link: http://www.brightsideofnews.com/news/2012/2/10/real-nvidia-kepler2c-gk1042c-geforce-gtx-670680-specs-leak-out.aspx

AwesomeSauce, ich glaub ich weiß auch, woher die komischen sehr auffälligen Fehler kommen ;D

Wenn man sich das Bild im Link anschaut, dann sieht man da ein Wasserzeichen, und jetzt schau mal da hin, wo die größten und offensichtlichsten Fehler sind ;D

Ich schaus mir mal gleich in Gimp nochmal an, aber das dürfte sehr offensichtlich sein, woher OBR sein tolles Bild hat.

AwesomeSauce
2012-02-12, 15:53:18
Wasserzeichen zu entfernen, ist unterste Schublade.

Skysnake
2012-02-12, 15:55:28
Also ich habs mir mal in Gimp angeschaut, und ein Divide Bild gemacht, also eine Art Differenzbild. ;D

Tja, darüber darf sich jetzt jeder selbst sein Urteil Bilden ;D

Kennt wer Theo Valich und will ihm ne Mail schicken? ;D

AwesomeSauce
2012-02-12, 16:06:30
@Skysnake
Das ist unterstes Niveau. Gar keine Frage.
Thanks. Well, the picture in the story is a mockup photoshopped from a picture of GeForce GTX 560 Reviewer's guide, i.e. GF114. There is a lot of changes NVIDIA did to the way how they execute the units, and the most interesting will be the introduction of two new DP rates, i.e. not the ones we got used to (1/2, 1/4, 1/8). The first DP rate is in the article (Anm. von mir: 1/6), the second one is probably going to shock the competition. From our on-the-record talks to NVIDIA PR personnel, they were surprised by the inherit architectural inefficiencies, and there were some worries that AMD doesn't have secret 2304 cores, and the people could do clock-per-clock, memory-bandwidth comparison between the two chips, which is something we did not have since 6800 GTX vs. X850, if I recall correctly.
Kann jemand erklären, worauf er im zweiten markierten Block hinaus will?

LovesuckZ
2012-02-12, 16:09:12
Hat er dir eine E-Mail zurückgeschickt?!

Den zweiten Teil verstehe ich auch nicht. Entweder meint er, sie hätten sorge gehabt, dass Tahiti mehr Ausführungseinheiten besitze oder er hat gestern zu tief ins Glas geschaut.

AwesomeSauce
2012-02-12, 16:09:53
Hat er dir eine E-Mail zurückgeschickt?!
Nein. Der Post war ein Kommentar zur obigen verlinkten Story.

Noch etwas mehr von Theo:
From the information i have, I am very impressed by the memory controller efficiency and the ability to drive the GDDR5 memory 25-35% more efficient than it was the case with Fermi...
Ob er damit einfach die Taktsteigerung meint?

Skysnake
2012-02-12, 16:15:06
Hmm.. so wie sich das liest, hört sich das so an, als ob man erwartet hätte, dass die DH7970 in Wirklichkeit 2304 Cores hätte um die Leistung zu erziehlen, was ja aber nicht der Fall ist.

Demnach hätte die 7970 mehr Leistung/ALU als erwartet.

Mit dem nicht erwarteten DP ratio, ist wohl 1:1 gemeint. Was anderes kann ich mir nicht wirklich vorstellen, außer vielleicht 1:3. Das würde auch noch rein passen. Ich tendiere eher zu 1:3 ;)

Man hat sich diesbezüglich wohl mehr erhofft, was Leistung (eher Leistung/W) betrifft, und sieht einem nun möglichen 1:1 Vergleich wohl eher pessimistisch entgegen.

Das man da dann natürlich wenig Interesse hätte, den Leuten früh irgendwelche Infos zu geben ist klar. Man würde ja nicht sonderlich rosig dastehen, und den Leuten wohl keinen Grund geben, so lange auf die eigenen Karten zu warten. Anders rum erwartet man sich wohl, das viele Leute warten, und dann sobald Sie das ist trotzdem ne nVidia kaufen, auch wenn Sie nicht besser ist, einfach weil es ne nVidia ist (Fanboys/Markenbindung).

AffenJack
2012-02-12, 16:17:30
Prinzipiell gehts darum, dass GK110 und Tahiti die gleichen Shaderzahlen usw haben könnten und man sich irgendwie darüber Sorgen gemacht hat, dass die Effizienz verglichen werden könnte? Darauf will er zumindest mit dem Clock-Comparison hinaus. Aber was er damit genau ausdrücken will ka.

Ähmm, wo liest du da nen pessimistischen 1:1 Vergleich? Ich lese in deinem absatz da nur deine Phantasie. Vielmehr waren das vorher die Sorgen und man ist nun überrascht über die Ineffizienz von Amd.

Skysnake
2012-02-12, 16:25:10
Der Satz lässt Raum zur Interpretation.

Btw. welches 1:1 meinst du?

Gaestle
2012-02-12, 17:08:04
Die Tabelle sieht ähnlich der aus, wo GK104 sehr gut getroffen wurde bzgl. Specs.

Schön wär's aber Skepsis ist wohl notwendig:

Die Werte für Stalker CoP liegen für die 580 GTX bei CB (Launchtest, Höchste Details, DX11) bei ca. 77 fps und nicht bei 97.
Kann es an der getesteten Stelle in CoP liegen?
Haben sich die Treiber für die 580GTX so sehr entwickelt?
Ist die Tabelle frei erfunden?

Siehe: http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560/29/#abschnitt_stalker__call_of_pripyat

OgrEGT
2012-02-12, 17:18:55
Schön wär's aber Skepsis ist wohl notwendig:

Die Werte für Stalker CoP liegen für die 580 GTX bei CB (Launchtest, Höchste Details, DX11) bei ca. 77 fps und nicht bei 97.
Kann es an der getesteten Stelle in CoP liegen?
Haben sich die Treiber für die 580GTX so sehr entwickelt?
Ist die Tabelle frei erfunden?

Siehe: http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560/29/#abschnitt_stalker__call_of_pripyat

Meinst Du die Tabelle?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9162709&postcount=4188
Wo steht da 97fps :confused:

OgrEGT
2012-02-12, 17:52:42
Sind die 4096SP's für GK110 noch immer aktuell?
Kann ich irgendwie kaum glauben...
Wieviel der Chipfläche nehmen die SP's alleine im allgemeinen ein?
Laut Fermi Die-Shot wären es dort ca 50%.
Wenn GK104 genau so groß wie Tahiti sein wird (360mm2) und hier neue 1536SP's reinpassen, dann komme ich auf ca. 2300 bei 550mm2. Entweder GK110 hat andere SP's als GK104, oder aber die Chipfläche reicht um Längen nicht.

Edit:
Selbst wenn aufgrund der konstanten Chipteile wie Speicherinterface der Anteil an SP's bei 550mm2 auf sagen wir 60% beträgt, passen doch nur knapp 3000 rein.

AffenJack
2012-02-12, 17:56:35
Der Satz lässt Raum zur Interpretation.

Btw. welches 1:1 meinst du?

Du hast recht und das kann durchaus sein, aber da wird nur auf die architekturelle Effizienz eingegangen. Wie die gemessen wird ist ne andere Sache.

Man hat sich diesbezüglich wohl mehr erhofft, was Leistung (eher Leistung/W) betrifft, und sieht einem nun möglichen 1:1 Vergleich wohl eher pessimistisch entgegen....


Dieser Satz und alles darauf folgende ist in meinen Augen pure Spekulation von dir die überhaupt nicht erwähnt wird. Sowieso ist der Satz von Theo so wie er da steht irgendwie nur Müll, der war mitn Kopf wohl woanders als er das geschrieben hat. Daher lass uns ma nicht auf dem Satz aufhängen.

Hübie
2012-02-12, 19:11:30
Architekturelle? ;D Hrhr. Architektonisch oder architektural.

Meine Englischkenntnisse übersetzen das genau so wie du, AffenJack. Die haben eben befürchtet es könne zu einem eins zu eins Vergleich kommen, hätten sich aber auch mehr von GCN erhofft. Die mitnahme der schlechten Effizienz hat die Herrschaften wohl überrascht.

Wobei ich jetzt nicht ganz zustimme wenn man GCN als ineffizient bezeichnet.
@skysnake: Schreib Theo doch einfach mal. Der soll dem Obrovsky ruhig mal ein aufn Sack geben ;D

Skysnake
2012-02-12, 19:23:07
Schaumer mal, was er sagt. Hab grad die Mailadresse von ihm gefunden ;D

Orbmu2k
2012-02-12, 19:25:23
Wenn sie einen 1:1 Vergleich fürchten bei erwarteten 2304 GCN ALUs, dann sagt das doch auch dass GK110 gleichviele "DP Einheiten" hat wie GCN bei 2304 ALUs hätte.

AMD hat 1:2, bei GK110 ohne Hotclock also:
- 1:1 -> 1152 Cuda Cores?
- 1:3 -> 3456 Cuda Cores?

Skysnake
2012-02-12, 19:33:05
Cuda-Cores ist nur nVidia Marketing-Sprech für einen Stream-Prozessor. Nicht mehr nicht weniger.

Man sollte dies also nur für nVidia Stream-Prozessoren verwenden, oder am besten gleich gar nicht, und sich auf ALUs beziehen ;)

Dann der zweite Punkt.
AMD hat nur 1:4, nicht 1:2 DP:SP Ratio.

Orbmu2k
2012-02-12, 19:38:46
Cuda-Cores ist nur nVidia Marketing-Sprech für einen Stream-Prozessor. Nicht mehr nicht weniger.

Man sollte dies also nur für nVidia Stream-Prozessoren verwenden, oder am besten gleich gar nicht, und sich auf ALUs beziehen ;)

Dann der zweite Punkt.
AMD hat nur 1:4, nicht 1:2 DP:SP Ratio.

Das mit den Cuda Cores war ja auch auf NVIDIA bezogen. :)

Echt AMD hat nur 1:4? :eek: Hab das auf die schnelle nicht gefunden.

Dann wären das bei NVIDIA bei 1:3 -> 1728 ALUs

Skysnake
2012-02-12, 19:41:56
Von der reinen Rohleistung her ja, aber du musst ja noch den Takt berücksichtigen, und die ganze Architektur mit Caches etc. drum herum. Rohleistung ist nicht alles...

AMD hat zumindest bei den Desktop-Karten 1:4. GCN soll auch 1:2 können im Prinzip, aber eben Modular leicht auch auf andere Werte angepasst werden können nach Bedarf. Ob jetzt die Hardware nur 1:4 kann, oder auch 1:2 weiß man nicht. Zumindest wäre mir keine Aussage von AMD bekannt diesbezüglich.

Entgültig wird man es erst mit dem Launch der Fire-Pro Karten wissen, die wohl in Q2 oder eher in Q3 kommen werden.

Captain Future
2012-02-12, 20:22:48
Doch doch, des stand scho i-wo mal.

Sunrise
2012-02-12, 20:32:09
http://we.pcinlife.com/data/attachment/forum/201202/12/220329m6tnt4axtfl8tnif.png
http://we.pcinlife.com/thread-1831876-1-1.html

Die Tabelle sieht ähnlich der aus, wo GK104 sehr gut getroffen wurde bzgl. Specs.
Die hier beschriebenen Benches passen dann ins Bild, wenn man eine Karte bewerben will, die bei 1080p bis 4xAA sehr gute Leistung liefert. Darüber spielt die Bandbreite immer mehr eine Rolle. IMHO ist das genau das, was die Masse will und wo NV einschlagen möchte. Alles darüber wird GK110 bedienen.

Auch wird NV es sich wohl nicht nehmen lassen, über 1GHz GPU-Takt zu geben. Der Memclock wirkt jedenfalls überraschend hoch. Wenn man das dann auch auf GK110 übertragen kann, dann geht da doch einiges.

Captain Future
2012-02-12, 20:36:55
Huch, seh ich ja jetzt erst... 1.450 MHz (5.800 MT/s) Speichertakt? Holy-Fucking-Cow!

Excel FTW: Durchschnittl. Einbruch bei GK104 von NoAA auf 4xAA: -25,8% (auf 74,2%). HD 7970: -25,7% (auf 74,3%). Zufall? Fake?!

Skysnake
2012-02-12, 21:06:15
Wie OBR jetzt folgendes hinzugefügt hat:


(photoshoped by someone from GF1xx core, but shows the real chip setup).


Ich kann mich zumindest nicht daran erinnern, dass das vorher auch da stand. Ich Depp hab natürlich den Screenshot vergessen....

AnarchX
2012-02-12, 21:10:48
Excel FTW: Durchschnittl. Einbruch bei GK104 von NoAA auf 4xAA: -25,8% (auf 74,2%). HD 7970: -25,7% (auf 74,3%). Zufall? Fake?!
Beide 32 ROPs?
Verdächtig wäre es wohl, wenn alle Werte im gleichen Verhältnis zueinander stehen würden. Aber bei CIV V sieht man z.B. ein sehr unterschiedliches Verhalten.

Gaestle
2012-02-12, 22:05:52
Meinst Du die Tabelle?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9162709&postcount=4188
Wo steht da 97fps :confused:


Mist. In der Spalte verrutscht. Ich nehme alles zurück und behaupte das Gegenteil. Sorry.

dargo
2012-02-12, 22:15:29
http://we.pcinlife.com/data/attachment/forum/201202/12/220329m6tnt4axtfl8tnif.png
http://we.pcinlife.com/thread-1831876-1-1.html

Die Tabelle sieht ähnlich der aus, wo GK104 sehr gut getroffen wurde bzgl. Specs.
Ich nehme jetzt mal diese Spinnerei @nicht bestätigte Benchmarks. Was mich hier am meisten beeindruckt ist der geringere Performanceverlust mit 4xMSAA bei BF3. Die GTX580 bricht von 4xMSAA auf 1xAA um 40% ein während der GK104 "nur" 28% einbricht. Sollte das stimmen würde mich das freuen. Gerade bei den neuen Engines ist 4xMSAA bei den "alten" GPUs sehr teuer. Auch die neue AMD bricht 41% ein.

Coda
2012-02-12, 22:17:30
96 ALUs pro SM? Ich glaub nicht, dass das kommt, das würde ja bedeuten, dass mindestens 4 WARP-Scheduler pro SM existieren und alle ALUs und TMUs Zugriff auf das gleiche Registerfile hätten.

Sieht nach nem Hoax aus.

Gipsel
2012-02-12, 22:31:32
96 ALUs pro SM? Ich glaub nicht, dass das kommt, das würde ja bedeuten, dass mindestens 4 WARP-Scheduler pro SM existieren und alle ALUs und TMUs Zugriff auf das gleiche Registerfile hätten.

Sieht nach nem Hoax aus.
Du kannst auch einen GF104/114 SM nehmen und statt drei Vec16 ALUs, die jeden zweiten Takt einen Befehl bekommen, drei Vec32 ALUs einbauen, die jeden Takt einen Befehl bekommen. Das paßt dann auch gut zum Verlust der Hotclock und funktioniert immer noch mit 2 Schedulern. Auf diese Entwicklungsmöglichkeit von Vec8 (G80/GT200) über Vec16 (Fermi) zu Vec32 ALUs wurde hier im Forum schon vor 2 Monaten hingewiesen.

Coda
2012-02-12, 22:32:28
Hm, richtig.

Hübie
2012-02-13, 02:09:32
Wie OBR jetzt folgendes hinzugefügt hat:



Ich kann mich zumindest nicht daran erinnern, dass das vorher auch da stand. Ich Depp hab natürlich den Screenshot vergessen....

Das stand da auch nicht ;) Sonst sind wir beide blind.

Skysnake
2012-02-13, 03:13:05
Gut :biggrin:

Aber schon schwach. Da fügt er noch was dazu, wie so oft ohne das zu zeigen...., und dann bekommt er es noch IMMER nicht gebacken, die Quelle zu nennen...... :down:

foenfrisur
2012-02-13, 06:31:31
er liest doch hier mit.
vielleicht taucht sie später noch auf, weil ihr sie einfach übersehen habt auf seiner seite ;)

mfg

Skysnake
2012-02-13, 08:17:29
Ah ja stimmt, so wirds sicher sein, ich muss eh mal zum Augenarzt, ist hab in letzter Zeit schon so viel übersehen ;D

Ailuros
2012-02-13, 10:37:51
Werks-OC-Version?

Bingo ;)

V2.0
2012-02-13, 10:41:31
Also 10% OC

Ailuros
2012-02-13, 10:44:34
96 ALUs pro SM? Ich glaub nicht, dass das kommt, das würde ja bedeuten, dass mindestens 4 WARP-Scheduler pro SM existieren und alle ALUs und TMUs Zugriff auf das gleiche Registerfile hätten.

Sieht nach nem Hoax aus.

Wenn es nicht stimmen wuerde koennten ich beruhigt dutzende von Seiten und monatelangen eigenen research in die Muelltonne werfen.

Also 10% OC

Um das Prozentual einschaetzen zu koennen muesstest Du wissen wo der eigentliche default TDP liegt und wie man sonst auf hoeheren aber immer noch niedrigeren TDP der Konkurrenz hochjagen kann.

Mancko
2012-02-13, 10:47:56
Nvidia will irgendas neues zur PDX LAN mitbringen - was auch immer das ist. Die LAN ist am 19. Februar 2012

http://www.pdxlan.net/portland/

LovesuckZ
2012-02-13, 10:51:12
Nvidia will irgendas neues zur PDX LAN mitbringen - was auch immer das ist. Die LAN ist am 19. Februar 2012

http://www.pdxlan.net/portland/

Laut Xtremesystem:

680 preview with upcoming game from Gearbox which shows off Kepler's new Physics hardware with fluid dynamics and other physics stuff.
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780/page25

GTX580 wurde am 5.11.2010 auf der PDX "gezeigt". :biggrin:

Skysnake
2012-02-13, 10:53:53
Na dann hoffen wir mal, dass da auch wirklich was kommt. Nicht das Sie erst eine Karte haben, und die ihnen vorher abraucht (SPASS ;D).

Bin wirklich gespannt, ob da was kommt, vor allem aber, wie viel/nichts sagend, das Ganze wird....

Wird nämlich mal so langsam Zeit, das wir Infos von nVidia bekommen...

Iruwen
2012-02-13, 10:55:49
Aber schon schwach. Da fügt er noch was dazu, wie so oft ohne das zu zeigen...., und dann bekommt er es noch IMMER nicht gebacken, die Quelle zu nennen...... :down:

Würde ja auch doof aussehen wenn er 3DC als Quelle angibt, denn this server is only for fun, everything there are (funny) speculations, fakes and kiddos articles. :rolleyes:

boxleitnerb
2012-02-13, 10:58:48
Bingo ;)

Also "legit"? Selbst wenn man 10% abzieht, wäre GK104 auf/ganz leicht über Tahiti XT. Jetzt müsste man nur noch das Cherrypicking-Level kennen. Stalker und Just Cause liegen AMD aber besser bis jetzt, von daher wäre das schon heftig.

Iruwen
2012-02-13, 11:08:56
Würde erklären warum eine GK104 Karte schon GTX 680 heißen soll. Aber die Werte sind zu schön um wahr zu sein.

boxleitnerb
2012-02-13, 11:12:51
Wieso eigentlich? Wenn das ne OC-Version ist, würde man mit ähnlicher Die-Size/Verbrauch bei ähnlicher Performance landen. FInd ich jetzt nicht so fürchterlich unrealistisch. Geht man mit der Auflösung höher, wendet sich das Blatt wohl ein bisschen.

V2.0
2012-02-13, 11:18:36
Um das Prozentual einschaetzen zu koennen muesstest Du wissen wo der eigentliche default TDP liegt und wie man sonst auf hoeheren aber immer noch niedrigeren TDP der Konkurrenz hochjagen kann.

Typical games ~ 175W

Ailuros
2012-02-13, 11:19:56
Wieso eigentlich? Wenn das ne OC-Version ist, würde man mit ähnlicher Die-Size/Verbrauch bei ähnlicher Performance landen. FInd ich jetzt nicht so fürchterlich unrealistisch. Geht man mit der Auflösung höher, wendet sich das Blatt wohl ein bisschen.

Weil man Performance GPUs fuer 30" Bildschirme kaufen sollte? :rolleyes:

boxleitnerb
2012-02-13, 11:27:01
Hm? Wir meinen doch dasselbe. Bis 1080p kann das schon hinkommen, bei höheren Auflösungen wird Tahiti mit dem Plus an Bandbreite wohl vorbeiziehen. So richtig deutlich wird das aber erst bei Eyefinity. Glaub kaum, dass TahitiXT in 1600p plötzlich 30% vorne liegt wo man sich vorher mit GK104 prügelt.

P.S.
Du sagst doch selbst, Tahiti ist (auch) ein Performancechip :tongue:
Okay, einer mit 384bit Interface.

yamo
2012-02-13, 12:03:50
Weil man Performance GPUs fuer 30" Bildschirme kaufen sollte? :rolleyes:

Nicht unbedingt. Wie sieht Deine Prognose für den GK110 aus?

DarknessFalls
2012-02-13, 12:37:14
@Ailuros: Die jetzt hier aufkommenden Gerüchte von "GK104 auf Niveau von Tahiti XT" widersprechen doch EIGENTLICH Deiner bisherigen Einschätzung, die bei neutralen Tests von ~Tahiti pro ausging, oder? Es sei denn natürlich, man kann bei GK104 so derbe "Cherrypicking" betreiben.

Soul
2012-02-13, 12:48:44
Somit GK104 mit 10%OC gleich schnell wie die Normale 7970?

Hübie
2012-02-13, 12:53:23
*räusper* Um mich noch einmal selber zu zitieren:


Also Männer: Locker durch die Hose atmen, Valentinstag Frauchen ordentlich beglücken und dann dürfen wir uns alle Kepler kaufen! ;D

Wenn am 19. Specs genannt werden liegt nV im Zeitplan. Ein hardlaunch Ende Februar ist also nicht so unwahrscheinlich.

Godmode
2012-02-13, 13:08:22
*räusper* Um mich noch einmal selber zu zitieren:



Wenn am 19. Specs genannt werden liegt nV im Zeitplan. Ein hardlaunch Ende Februar ist also nicht so unwahrscheinlich.

Das wäre aber schon sehr überraschend, es hieß doch eher Mitte März? Vor allem ist jetzt Mitte Februar und wir haben noch nichtmal Packshots!