PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17

merfu
2010-08-20, 17:06:33
Die eigentliche Frage ist: Wird AMD die Chips gleich bei GF fertigen lassen oder vorher bei TSMC?
Besser gesagt: Wer wird die Fertigung in 28 nm eher starten lassen: GF oder TSMC?
Und warum unterhalten wir uns über 28nm-GPUs in diesem Thread?

Nun, weil es wohl kurz vor SI auf dem Markt kommt schon Testläufe bei GF geben könnte. SI wird wohl nicht bei GF gefertigt werden. Vielleicht doch falscher Thread ;-(

MfG
Merfu

Gast
2010-08-20, 18:47:20
http://www.pcgameshardware.de/aid,768774/AMD-will-28-Nanometer-GPUs-bei-Globalfoundries-fertigen-lassen/Grafikkarte/News/

28nm nur bei GF

Fetza
2010-08-21, 03:27:29
http://www.pcgameshardware.de/aid,768774/AMD-will-28-Nanometer-GPUs-bei-Globalfoundries-fertigen-lassen/Grafikkarte/News/

28nm nur bei GF

Meiner meinung nach die richtige entscheidung von amd. So bleibt alles quasi im eigenen haus und man hat deutlich mehr einfluss.

svenw
2010-08-21, 13:14:52
Das was in den Artikels steht ist Bullshit!

1. Es gibt keine Garantie das GF den 28er Prozeß besser oder schlechter als TSMC hinbekommt. GF hat noch nie große Grafikchips gefertigt, nur die kleinen in den Chipsätzen.

2. Warum ATI zu GF geht dürfte zum großen Teil an den Verträgen liegen die AMD beim Verkauf seiner Fabriken eingegangen ist.

3. das GF schon sehr erfahren sein soll im Bereich des 28nm Prozesses darf auch gerne bezweifelt werden.

Gast
2010-08-21, 13:29:57
1. Es gibt keine Garantie das GF den 28er Prozeß besser oder schlechter als TSMC hinbekommt. GF hat noch nie große Grafikchips gefertigt, nur die kleinen in den Chipsätzen.

Welche PC-Chipsätze sollen bei GF gefertigt worden sein? Alles kam doch bisher von TSMC.

john carmack
2010-08-21, 13:43:54
Ich hoffe einfach nur das die >< 2GB (je nach speicherinterface) VaporX varianten möglichst schnell kommen...

john carmack
2010-08-22, 17:35:06
http://www.gamestar.de/spiele/the-witcher-2-assassins-of-kings/news/the_witcher_2,44750,2317242.html

und

http://vr-zone.com/forums/816893/rumor-witcher2-will-support-new-enhanced-tessellation-in-the-upcomin-radeon6000-serie.html


:-)

boxleitnerb
2010-08-22, 18:26:15
*Augenreib* Wird ab SI endlich gescheit gefiltert? Ich befürchte aber, es gibt nur einen flimmernden 32x oder 64x Modus, bei dem noch mehr gespart wird.

Aber man darf gespannt sein!

deekey777
2010-08-22, 18:29:01
Wenn man bedenkt, dass Crysis Maximum Edition mit Replacement Mapping kommen sollte, warum dann nicht Tessellation 11.1.

Coda
2010-08-22, 19:30:51
Bitte? :|

deekey777
2010-08-22, 19:32:21
Bitte? :|
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7056986&postcount=102

john carmack
2010-08-23, 15:04:34
Würd mich mal interessieren wann echte Details der HD6000 rauskommen.
So langsam wirds Zeit!

Warum hält ATI sich eigentlich sooo bedekt?

Mit ein bischen Glück ist eine größere Performance steigerung drin als viele denken.
ATI und TSMC sollten ja mittlerweile den 40nm Prozess im Griff haben!

Ailuros
2010-08-23, 15:13:30
Würd mich mal interessieren wann echte Details der HD6000 rauskommen.
So langsam wirds Zeit!

Nach der Vorstellung.

Warum hält ATI sich eigentlich sooo bedekt?

Weil IHVs selten sehenswertes ueber noch nicht angekuendigte Produkte erwaehnen.

Mit ein bischen Glück ist eine größere Performance steigerung drin als viele denken.

Oder auch kleiner; je nach Perspektive.

ATI und TSMC sollten ja mittlerweile den 40nm Prozess im Griff haben!

Was hat AMD genau mit dem Herstellungsprozess zu tun? TSMC's Problem ist nach wie vor begrenzte Kapazitaet bis Fab14 ab Q3 operativ wird.

john carmack
2010-08-23, 15:26:44
[QUOTE=Ailuros;8225109

Was hat AMD genau mit dem Herstellungsprozess zu tun? TSMC's Problem ist nach wie vor begrenzte Kapazitaet bis Fab14 ab Q3 operativ wird.[/QUOTE]

Jedem das seine!


jedenfalls ist Fab14 doch schon fertig gebaut... (ausgebaut noch nicht...)


"Gleichzeitig kündigte das Unternehmen an, die beiden bisherigen Gigafabs Fab 12 und Fab 14 weiter auszubauen. So soll deren Kapazität von jeweils 100.000 auf 120.000 Wafer im Monat gesteigert werden. Diese Maßnahme soll bereits zum Jahresende abgeschlossen sein."
http://www.digitimes.com/news/a20100714PD209.html

Nakai
2010-08-23, 16:42:09
Oder auch kleiner; je nach Perspektive.


Also wenn du schon solche Worte in den Mund nimmst, dann meint man fast, dass ATI doch mehr geändert hat, als viele hier denken. Oder dass der Chip bzgl der Einheitenzahl eher Ernüchterung als Begeisterung auslöst .;)

Ich denke man sollte mit leicht höherer Cypressperformance rechnen. Im Schnitt 10 bis 30% Mehrleistung. Wobei die Mehrleistung sich eher auf den Tesselationsfall bezieht.

Die 480 4D-Einheiten die rumkursieren, sehen zwar nett aus, aber eigentlich ist es viel zu wenig Information um daraus den richtigen Schluss zu ziehen. Wieviele SIMDs? Wie groß sind die SIMDs? Wieviele Tesselatoren und Rasterizer gibt es? Wie performant sind diese? Stärke und Anzahl der Textureinheiten?


mfg

Gast
2010-08-23, 16:46:25
http://www.gamestar.de/spiele/the-witcher-2-assassins-of-kings/news/the_witcher_2,44750,2317242.html

und

http://vr-zone.com/forums/816893/rumor-witcher2-will-support-new-enhanced-tessellation-in-the-upcomin-radeon6000-serie.html


:-)
Was soll denn enhanced tessellation sein? Klärt mich mal auf.

Danke

john carmack
2010-08-24, 00:16:13
weiß ich auch nicht... evtl Tesselation der 2. Gen.

john carmack
2010-08-24, 00:17:29
...der Cayman wird ganz schön teuer...

http://www.3dcenter.org/news/2010-08-19

Leonidas
2010-08-24, 07:42:55
AMD hat es wohl tatsächlich geschafft alle zu verwirren. Tatsächlich kommt Ende des Jahres Northern Island. Southern Island ist der Shrink in 28nm und Hecatoncheire eine neue Architektur.


Kann schon stimmen. Aber ist dies sooo wichtig? Wir hätten uns dann beim Namen geirrt. Aber wir reden hier ja nicht über die Next-Next-Gen-Architektur von ATI, sondern die Next-Gen die zum Jahresende 2010 antritt. Alle Daten beziehen sich nur darauf, diesbezüglich herrscht keine Verwirrung. Wenn der Name des Ganzen ein anderer ist - ok, geschenkt.

Leonidas
2010-08-24, 07:55:13
384bits und GDDR5? :rolleyes:


Ist eine reine Spekulation. Ich hab mich da eher rausgehalten, weil es derzeit keinerlei Anhaltspunkte dafür gibt, ob es ATI nochmal mit 256 Bit probiert oder auf 384 Bit geht. Ich würde ja sagen, bei 25-35% Mehrperformance, die in erster Linie über eine höhere Effizienz kommen, reicht weiterhin das 256 Bit Interface und schneller getakteter Speicher.





Laut Gerüchten wird GF wird 28nm Chips für ATI fertigen. Ist das schon bekannt?
http://www.digitimes.com/news/a20100820PB200.html


Ich hasse diesen unreflektiert wiedergegebenen Gerüchtmüll. Hauptsache eine knallige Schlagzeile, Hauptsache Klicks, ob die eigentliche Information das überhaupt deckt, interessiert keinen.

Zum Thema: Die eigentliche Information lautet, daß ATI bei der 28nm-Generation sowohl mit TSMC als auch GF arbeiten wird. Beide bekommen die Chips, beide legen sie auf und es wird wohl auch bei beiden bestellt werden. Je nachdem wie die Fertiger arbeiten und liefern können, bekommen sie mehr oder weniger Aufträge. Viel interessanter ist aber natürlich die langfristige Konsequenz, nach der ATI bei einem Gelingen der Fertigung mit GF komplett auf die umschwenken könnten.

Damit, daß 28nm ratzbatz allein nur bei GF gefertigt wird, hat das gar nichts zu tun.




http://www.pcgameshardware.de/aid,768774/AMD-will-28-Nanometer-GPUs-bei-Globalfoundries-fertigen-lassen/Grafikkarte/News/

28nm nur bei GF


Und wenn eine Meldung durch genügend Hände gegangen ist, kommt dann das raus. Bei Fudzilla steht es doch ganz eindeutig: ATI's 28nm to be built in GF and TSMC
http://www.fudzilla.com/graphics/graphics/atis-28nm-to-be-built-in-gf-and-tsmc





...der Cayman wird ganz schön teuer...

http://www.3dcenter.org/news/2010-08-19


Jetzt muß ich mich tadeln: Daß ist natürlich Spekulation. Ich habe einfach geschätzt, wie eine 6870 mit 25-35% Plus gegenüber 5870 im Markt stehen würde und welchen Preis ATI dann dafür verlangen kann.

Ailuros
2010-08-24, 09:17:51
Jedem das seine!


jedenfalls ist Fab14 doch schon fertig gebaut... (ausgebaut noch nicht...)


"Gleichzeitig kündigte das Unternehmen an, die beiden bisherigen Gigafabs Fab 12 und Fab 14 weiter auszubauen. So soll deren Kapazität von jeweils 100.000 auf 120.000 Wafer im Monat gesteigert werden. Diese Maßnahme soll bereits zum Jahresende abgeschlossen sein."
http://www.digitimes.com/news/a20100714PD209.html

Aus dem Link:

The company has revealed plans to kick off volume production at the Phase 5 facility at Fab 12 in the third quarter of 2010, and complete Phase 4 expansion at Fab 14 by the end of the year.

Danke fuer die Bestaetigung. Uebrigens ob es sich wirklich um wafers/monat oder wafers/quartal handelt ueberlass ich jedermanns Phantasie.

Also wenn du schon solche Worte in den Mund nimmst, dann meint man fast, dass ATI doch mehr geändert hat, als viele hier denken. Oder dass der Chip bzgl der Einheitenzahl eher Ernüchterung als Begeisterung auslöst .;)

Ich denke man sollte mit leicht höherer Cypressperformance rechnen. Im Schnitt 10 bis 30% Mehrleistung. Wobei die Mehrleistung sich eher auf den Tesselationsfall bezieht.

Ich glaube Leistungsteigerung im Durchschnitt von ueber 50% erst wenn ich es sehe bei einem Refresh. Southern Islands ist NICHT eine neue "Generation" da kommt der Beschreibung dann NI wohl um einiges naeher.

Die 480 4D-Einheiten die rumkursieren, sehen zwar nett aus, aber eigentlich ist es viel zu wenig Information um daraus den richtigen Schluss zu ziehen. Wieviele SIMDs? Wie groß sind die SIMDs? Wieviele Tesselatoren und Rasterizer gibt es? Wie performant sind diese? Stärke und Anzahl der Textureinheiten?


mfg

Der einzige Kopfschmerz fuer AMD war IMHO das zu korrigieren was im domain shader stockt bei Tessellation. Ich sehe noch keinen besonderen Grund irgend etwas fundamentales an rasterizer,trisetups und Tessellatoren zu aendern.

Andere Perspektive fuer enthusiast momentan:

5970 = 4 raster units, 2 trisetups, 2 tessellation units
480 = 4 raster units, 4 trisetups, 16 (per SM optimized) tessellation units

Ist eine reine Spekulation. Ich hab mich da eher rausgehalten, weil es derzeit keinerlei Anhaltspunkte dafür gibt, ob es ATI nochmal mit 256 Bit probiert oder auf 384 Bit geht. Ich würde ja sagen, bei 25-35% Mehrperformance, die in erster Linie über eine höhere Effizienz kommen, reicht weiterhin das 256 Bit Interface und schneller getakteter Speicher.

Eben.

Gast
2010-08-24, 09:19:32
Ich glaube Leistungsteigerung im Durchschnitt von ueber 50% erst wenn ich es sehe bei einem Refresh. Southern Islands ist NICHT eine neue "Generation" da kommt der Beschreibung dann NI wohl um einiges naeher.


Ich glaube es erwartet auch niemand Leistungssteigerungen >50% im Durchschnitt. Alles ab 30% wäre mehr als ausreichend um die GTX480 klar zu schlagen.

Ailuros
2010-08-24, 10:06:23
Ich glaube es erwartet auch niemand Leistungssteigerungen >50% im Durchschnitt. Alles ab 30% wäre mehr als ausreichend um die GTX480 klar zu schlagen.

http://www.xbitlabs.com/news/video/display/20100821110023_ATI_Preps_New_Dual_Chip_Flagship_Graphics_Card_Rumours.html

Not a lot is known about the Southern Islands family of products. The SI family will offer higher performance compared to currently available ATI Radeon HD 5000 “Evergreen” line, but will hardly be considerably more advanced in terms of feature-set. It is rumoured that designers of the new GPUs concentrated mostly on improving efficiency, but not on building something completely new from scratch, which is why certain building blocks of the new Sothern Islands family will be inherited from the current Evergreen line.

Die 480 wird hoffentlich zu dem Zeitpunkt auf dem Weg zum Ausgang sein.

Dural
2010-08-24, 10:21:32
Alles ab 30% wäre mehr als ausreichend um die GTX480 klar zu schlagen.

aber nicht GF100 ;)

Gast
2010-08-24, 10:27:02
aber nicht GF100 ;)

Doch. GF100 ist am Ende wenn man nicht sämtliche TDP-Grenzen sprengen will. Mehr als 300W erlaubt keine PCIe-Spec.

nagus
2010-08-24, 10:33:21
ich erwarte fast 5970er Leistung. (auf alle fälle mindestens unter dx11 und "gefühlt sowieso... zwecks MR). im schnitt (über alle APIs) ca. 5870 +40-50%).

... meine (gewagte) Schätzung.

Dural
2010-08-24, 10:34:43
Doch. GF100 ist am Ende wenn man nicht sämtliche TDP-Grenzen sprengen will. Mehr als 300W erlaubt keine PCIe-Spec.

na das hat ATI auch nicht gehindert (4870X2) ;)

wenn schon GF100 karten mit 512SP und 800MHz "im umlauf" sind und das sehr warscheinlich mit GF100 Ax kann man sich denken wo es mit dem GF100 Bx hingehen könnte...

Gast
2010-08-24, 10:44:45
na das hat ATI auch nicht gehindert (4870X2) ;)

wenn schon GF100 karten mit 512SP und 800MHz "im umlauf" sind und das sehr warscheinlich mit GF100 Ax kann man sich denken wo es mit dem GF100 Bx hingehen könnte...

Denken kann man sich viel. Man könnte es auch Wunschdenken nennen. Ich orientiere mich lieber an Fakten. Und ich sehe keinen plausiblen Grund wie NV das Leistungsaufnahmeproblem ohne 28nm in den Griff bekommen soll. Zumal von einem neuen Stepping bis heute jede Spur fehlt, wer weiß ob da überhaupt noch was kommt. Es gab ja schon vorher mehr als genug verschiedenen Steppings.

Gast
2010-08-24, 10:46:29
ATi Forum mit vielen Details:


[Exklusiv] "Bart" kommt erster Ableger der neuen Grafikkartenserie

So soll Mitte Oktober der erste Ableger der neuen möglichen HD6000er-Serie kommen, welcher den Codenamen "Bart" haben soll.
So soll der kleine Ableger zwischen der HD5770 und HD5870 liegen und ein 8-Schichten-PCB, 1GB DDR5 mit 5Gbps, 2x6pin-Stromanschluss, eine TDP von etwas mehr als 150W und 2xDVI, HDMI, 2xMini-DP und eine Unterstützung von Eyefinity 4 haben. Zudem ist der "Bart" Pinkomaptibel mit dem PCB der HD5800 und die oben genannten Spezifikationen stellen den "Bart XT" dar.

http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1459-exklusiv-qbartq-erster-ableger-neuer-grafikkartenserie

Wohl ein Gegner für GF104, der hoffentlich das Preisniveau der 460-1G deutlich unter 200€ drückt.

Zum High-End gibt es aber auch Informationen:

Zudem haben wir auch Informationen über die nächte GPU bekommen, welche im November bis Oktober mit dem Namen "Cayment" erscheinen soll. Diese soll ein 10-Schichten-PCB, 1GB DDR5 mit 6Gbps, einen 6pin- und 8pin-Stromanschluss und eine TDP von weniger als 300W haben. Bei den Anschlüssen kann man 2xDVI, HDMI und 2xMini-DP dazuzählen.

6Gbps GDDR5 spricht auch eher für 256-Bit.

Dural
2010-08-24, 11:13:19
Das sieht nach mehr verbrauch aus, tja auch ATi kann mit 40nm nicht zaubern ;)


Denken kann man sich viel. Man könnte es auch Wunschdenken nennen. Ich orientiere mich lieber an Fakten. Und ich sehe keinen plausiblen Grund wie NV das Leistungsaufnahmeproblem ohne 28nm in den Griff bekommen soll. Zumal von einem neuen Stepping bis heute jede Spur fehlt, wer weiß ob da überhaupt noch was kommt. Es gab ja schon vorher mehr als genug verschiedenen Steppings.

GT200 B2 vs GT200 B3 usw. mehr sag ich nicht, da es auch egal ist... und es wird garantiert noch was kommen das über der GTX480 steht bevor es mit 28nm weiter geht, das ist so sicher wie das amen in der kirche ;)

deekey777
2010-08-24, 11:26:04
Was "B2" und "B3"? Mit dem B2 hat man immernoch nichts erreicht, also bedurfte es ein weiteres Stepping. Es ist also egal.

Dural
2010-08-24, 11:31:15
aha und jetzt denk mal nach was ich damit aussagen wollte wenn der "gast" meint das es nicht möglich sei den stromverbrauch mit 40nm zu senken ;)

aber ja ist egal, da es hier auch nichts zu suchen hat...

Ailuros
2010-08-24, 11:38:20
Das sieht nach mehr verbrauch aus, tja auch ATi kann mit 40nm nicht zaubern ;)

5970 liegt auch knapp unter 300W mit seinem TDP.

GT200 B2 vs GT200 B3 usw. mehr sag ich nicht, da es auch egal ist... und es wird garantiert noch was kommen das über der GTX480 steht bevor es mit 28nm weiter geht, das ist so sicher wie das amen in der kirche ;)

Es ist eben nicht egal weil die Probleme diesmal nicht vergleichbar sind beim GF100. Irgend etwas hinderte NV alle 16 SMs operativ zu haben auf GF100 und der Stromverbrauch mit 15 SMs + leicht reduzierten Frequenzen ist immer noch zu hoch. Das Ding riecht nach einer re-spin Notwendigkeit und nicht einem einfachem metal spin welches A3 auf GF100 so oder so schon war.

Und wenn's schon sein muss die GTX285 chips waren handselektiert deshalb 204W TDP, waehrend die GTX260 vom gleichen chip mit niedrigeren Frequenzen einen TDP von 219W hatten.

28nm? Hello H2 2011 if all things go according to plan yadda yadda....

Coda
2010-08-24, 11:39:32
Ist eine reine Spekulation. Ich hab mich da eher rausgehalten, weil es derzeit keinerlei Anhaltspunkte dafür gibt, ob es ATI nochmal mit 256 Bit probiert oder auf 384 Bit geht. Ich würde ja sagen, bei 25-35% Mehrperformance, die in erster Linie über eine höhere Effizienz kommen, reicht weiterhin das 256 Bit Interface und schneller getakteter Speicher.
384 bit wäre auch insofern komisch, dass AMD noch nie "krumme" Speicherinterfaces verwendet hat.

deekey777
2010-08-24, 12:06:39
aha und jetzt denk mal nach was ich damit aussagen wollte wenn der "gast" meint das es nicht möglich sei den stromverbrauch mit 40nm zu senken ;)

aber ja ist egal, da es hier auch nichts zu suchen hat...
Du versuchst doch eine Analogie herzustellen, oder?
GT200b war ein Shrink. Dass es B2 gab, ist nichts Ungewöhnliches, man kann nicht beim ersten Mal gleich einen Volltreffer erzielen. Ich weiß nicht, warum du so am B2-Stepping hängst, aber es war kein Erfolg, so dass nur Workstation-Produkte damit aufgerüstet werden durften. Erst das B3-Stepping war erfolgreich.
Ob B2 jetzt mehr verbrauchte als B3, weiß ich nicht. Ich weiß nur, dass er Mangelware war und darum entweder auf Tegras oder Quadros verbaut wurde, auf den Desktop-GTXen sollte nur das B3-Stepping verbaut werden (ich glaube, es gab auf den verbesserten GTX260 216 auch die B2-Chips).

So oder so: Ich sehe hier keine Analogie zur aktuellen Situation.
Und Gast hat schon Recht: Es ist einfach ein Wunschdenken, dass Nvidia aus dem Ärmel einen vollen GF100 schüttelt, der den Verbrauch einer GTX480 hat und mehr deutlich mehr Leistung bringt.

384 bit wäre auch insofern komisch, dass AMD noch nie "krumme" Speicherinterfaces verwendet hat.
Darf DAAMIT sich als menschliches Wesen nicht weiterentwickeln?
(Aus welcher Serie kommt dieser Satz?)

Dural
2010-08-24, 12:17:33
es ist kein wunsch denken, er wird kommen (müssen) ob jetzt mit 16x32SP oder 12x48SP wird man ja sehen und ja sicher nichts "einfaches" sondern viel viel arbeit mit einem re-spin, was auch logisch ist sonst würde man nicht "B" sagen ;)

Gast
2010-08-24, 12:20:41
es ist kein wunsch denken, er wird kommen (müssen) ob jetzt mit 16x32SP oder 12x48SP wird man ja sehen

Was für eine umwerfende Argumentation, es wird kommen müssen. Das Leben ist kein Wunschkonzert und man kann nicht immer Fehlentscheidungen in kurzer Zeit ausgleichen. Auch bei NV30 hätte mehr kommen müssen. Es hier als Fakt hin zu stellen das Nvidia mal eben einen wesentlich energieeffizienteren GF100 mit deutlich mehr Leistung aus den Ärmeln schüttet ist schon sehr skurril.

Dural
2010-08-24, 12:24:39
Es hier als Fakt hin zu stellen das Nvidia mal eben einen wesentlich energieeffizienteren GF100 mit deutlich mehr Leistung aus den Ärmeln schüttet ist schon sehr skurril.

wo hab ich das den bitte schön gemacht? lesen ist schwer und man kann sich dabei noch was dazu denken! deutlich mehr leistung werden wir mit GF100 kaum sehen, nicht weil es unmöglich ist sondern weil NV ganz sicher auf volle SP und energie effizienter fahren möchte... ich würde jedenfalls so entscheiden...

zum glück ist ja nicht schon seit monaten eine GTX485 im gespräch... und sorry wer jetzt wirklich denkt das NV noch ca. ein jahr (bis 28nm kommt) mit dem A3 auskommen will ist einfach naiv...

Gast
2010-08-24, 12:35:09
Tja bei NV regiert ja leider schon seit Monaten vornehmlich das Prinzip Hoffnung. Ich glaube nach wie vor an einen ansehnlichen Performance-Boost von durchschnittlich 40-50% der mit Tesselation nochmals zunehmen wird. Man kann doch keine neue Graka-Gen rausbringen, die ja auch höchstwahrscheinlich ein Jahr durchhalten muss, ohne den typischen Leistungssrung zu machen.

Gast
2010-08-24, 12:43:45
384 bit wäre auch insofern komisch, dass AMD noch nie "krumme" Speicherinterfaces verwendet hat.
das geht auch nicht "so mal eben", das ist ein ziemlicher aufwand, entsprechend 256 oder 512... bei einem refresh...

Gast
2010-08-24, 12:44:20
zum glück ist ja nicht schon seit monaten eine GTX485 im gespräch... und sorry wer jetzt wirklich denkt das NV noch ca. ein jahr (bis 28nm kommt) mit dem A3 auskommen will ist einfach naiv...

Wenn man bedenkt wie lange sie mit G80 auskommen wollten eher was neues kam halte ich das nicht für so unrealistisch.

Gast
2010-08-24, 12:47:21
Wenn man bedenkt wie lange sie mit G80 auskommen wollten eher was neues kam halte ich das nicht für so unrealistisch.

Außerdem: Was sollen sie denn groß machen? Sowohl was Die-Size als auch Leistungsaufnahem betrifft sind sie absolut an der Grenze des machbaren. Man kann nur hoffen das sie irgendwo etwas finden das die Leistungsaufnahme senkt, dann sind vielleicht etwas höhere Taktraten drin, aber noch breiter geht mal sicher nicht.

Dural
2010-08-24, 12:49:35
GF104 zeigt ganz klar das mit GF100 was nicht stimmen kann... aber es ist interessant das eine GPU die auf dem Papier 20% schneller sein könnte als reines wunsch denken hingestellt wird und im gleichem atemzug von 30-50% mehr leistung beim RV970 spricht von einer GPU wo so gut wie noch nichts bekannt ist ;) wo doch viele von einer leichten steigerung / detail verbesserungen ausgehen ;)

Wenn man bedenkt wie lange sie mit G80 auskommen wollten eher was neues kam halte ich das nicht für so unrealistisch.

G80 ging nach ca. einem jahr EOL wo der G92 kam, aber das ist aktuell überhaupt nicht vergleichbar das sie damals schlicht (fast) keine konkurenz hatten. G90 kam nie auf den markt (falls es den überhaupt gab) und GT200 stand schon fast vor der türe.

Inqui
2010-08-24, 12:58:57
http://vr-zone.com/forums/816893/rumor-witcher2-will-support-new-enhanced-tessellation-in-the-upcomin-radeon6000-serie.html

http://www.pcgameshardware.de/aid,769012/Wird-The-Witcher-2-wieder-ein-TWIMTBP-Titel/Rollenspiel-Adventure/News/

Das eine schließt das andere wohl aus.

deekey777
2010-08-24, 13:02:18
http://vr-zone.com/forums/816893/rumor-witcher2-will-support-new-enhanced-tessellation-in-the-upcomin-radeon6000-serie.html

http://www.pcgameshardware.de/aid,769012/Wird-The-Witcher-2-wieder-ein-TWIMTBP-Titel/Rollenspiel-Adventure/News/

Das eine schließt das andere wohl aus.
Das wollte ich gerade auch posten. Volltreffer. :up:

milkysoft
2010-08-24, 15:01:44
http://vr-zone.com/forums/816893/rumor-witcher2-will-support-new-enhanced-tessellation-in-the-upcomin-radeon6000-serie.html

http://www.pcgameshardware.de/aid,769012/Wird-The-Witcher-2-wieder-ein-TWIMTBP-Titel/Rollenspiel-Adventure/News/

Das eine schließt das andere wohl aus.

So ein Quatsch!
Es kann doch sein, dass The Witcher 2 an Nvidias Entwicklungsprogramm teilnimmt und trotzdem zukünftige Features wie "Enhanced Tesselation" und vlt neue AA und AF-Modi unterstützt.
Beide Meldungen zusammen erwecken vielmehr den Eindruck, dass es eine neue DirectX (11.1??) generation zum Jahresende geben wird, die HD6000 unteratützen werden und die auch The Witcher 2 unterstützen wird.

Fetza
2010-08-24, 16:24:09
Zumal dort nur steht "man denke darüber nach" bei twimtbp mitzumachen.

Leonidas
2010-08-24, 16:30:12
ATi Forum mit vielen Details:

[Exklusiv] "Bart" kommt erster Ableger der neuen Grafikkartenserie

So soll Mitte Oktober der erste Ableger der neuen möglichen HD6000er-Serie kommen, welcher den Codenamen "Bart" haben soll.
So soll der kleine Ableger zwischen der HD5770 und HD5870 liegen und ein 8-Schichten-PCB, 1GB DDR5 mit 5Gbps, 2x6pin-Stromanschluss, eine TDP von etwas mehr als 150W und 2xDVI, HDMI, 2xMini-DP und eine Unterstützung von Eyefinity 4 haben. Zudem ist der "Bart" Pinkomaptibel mit dem PCB der HD5800 und die oben genannten Spezifikationen stellen den "Bart XT" dar.
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1459-exklusiv-qbartq-erster-ableger-neuer-grafikkartenserie

Wohl ein Gegner für GF104, der hoffentlich das Preisniveau der 460-1G deutlich unter 200€ drückt.



Barts ist der Nachfolger des RV840/Juniper und damit ATIs Performanceprodukt. Wenn die "etwas über 150W TDP" stimmen (Radeon HD 5770 hat 108W TDP), dann geht ATI zumindest bei den kleineren Produkten total ran und wird wahrscheinlich deutlich mehr HW-Einheiten aufbieten. Deswegen auch das PCB der 5870 - es senkt nicht nur Kosten, sondern ATIs neues Performanceprodukt wird auch so dick, daß das große PCB wirklich benötigt wird. Können also durchaus 1280 SE bei Barts werden - und damit eine Performance, die nahe an die 5850 herankommt.


Thema Cayman: 1x6pol und 1x8pol sagt aus, daß die TDP größer als 225W und kleiner als 300W liegt. Auch in dieser Frage deutlich mehr als bei der 5870 (188W TDP), wobei natürlich der Spielraum noch zu groß ist um sagen zu können, wie stark Cayman zulegt. Die 3000 MHz GDDR5-Speicher deuten zudem auf Weiterbenutzung eines 256 Bit Interfaces hin, ansonsten hätte man es mit billigerem Speicher probiert.

Gast
2010-08-24, 16:50:20
Ich will ja nicht den spielverderber spielen, aber atiforum ist nicht gerade das betse was verlässlichkeit von informationen angeht. die handeln leider oft nach dem bild-prinzip...

Gast
2010-08-24, 16:53:48
Barts ist der Nachfolger des RV840/Juniper und damit ATIs Performanceprodukt. Wenn die "etwas über 150W TDP" stimmen (Radeon HD 5770 hat 108W TDP), dann geht ATI zumindest bei den kleineren Produkten total ran und wird wahrscheinlich deutlich mehr HW-Einheiten aufbieten. Deswegen auch das PCB der 5870 - es senkt nicht nur Kosten, sondern ATIs neues Performanceprodukt wird auch so dick, daß das große PCB wirklich benötigt wird. Können also durchaus 1280 SE bei Barts werden - und damit eine Performance, die nahe an die 5850 herankommt.



58xx PCB = 256bit

HD57xx = 128bit


Bart kann also IMHO nicht der Nachfolger der HD57xx Karten werden.

Leonidas
2010-08-24, 17:10:04
Gast 1: Jo, stimmt.

Gast 2: Stimmt auch, hab ich nicht bedacht. Es sei denn, der Performance-Chip bekommt auch 256bit. Wäre gewagt, ist aber nicht unmöglich.

Naitsabes
2010-08-24, 17:58:20
Man denke an die 9600GT ;)

Black-Scorpion
2010-08-24, 19:20:09
Und die Karte hat genau was mit den ATI Karten zu tun?

Der_Korken
2010-08-24, 19:36:48
Und die Karte hat genau was mit den ATI Karten zu tun?

Die 9600GT war damals eine 8800GT nur mit fast halbierten Einheiten. Trotzdem hat sich diese Karte gegen die 8800GT sehr gut geschlagen, auch wenn man das der Einheitenzahl nach nicht vermutet hätte.

Das wäre ein guter Konter gegen den GF104, der genauso schnell, aber um einiges kleiner und sparsamer sein sollte. Wobei ich nicht glaube, dass ATI beide Chips mit 256bit laufen lassen wird. Der Leistungsunterschied wäre wirklich viel zu gering, Cayman müsste dann mindestens 384bit bekommen.

john carmack
2010-08-24, 21:00:07
Ein 512Bit SI wäre schon was feines... Wobei ich meine gelesen zu haben das ATI Chips nicht so von der Bandbreite profitieren...

deekey777
2010-08-24, 21:06:53
Ein 512Bit SI wäre schon was feines... Wobei ich meine gelesen zu haben das ATI Chips nicht so von der Bandbreite profitieren...
Die HD5800 scheinen nicht bandbreitenlimitiert zu sein.

john carmack
2010-08-24, 21:19:32
Wieviel % war den die bisher kleinste Leistungssteigerrung von der Alten zur nächst neueren Generation?

Wieviel % war den die bisher größte Leistungssteigerung bei einem RefreshChip?

Ich denke wenn ATI Offiziell über eine neue Generation spricht, dann sollte man etwa von min. 50% Leistungssteigerrung ausgehen.

Wenn ATI Offiziell über einen Refresh spricht, dann sollte man etwa von etwa 10%-25% Leistungssteigerrung ausgehen.

deekey777
2010-08-24, 21:22:52
Vom R580 zum R600: Da gab's keine.
Ja, das war gemein.
Vom R520 zum R580: Da gab's eine schöne Steigerung, je nach Spiel eine große.

Gast
2010-08-24, 21:30:54
HD2900XT & 3870 sind doch fast auf der selben level

Spasstiger
2010-08-24, 21:41:49
Von einem R580 @ 600 MHz auf einen R600 @ 600 MHz hab ich schon eine deutliche Leistungssteigerung gemerkt (meist >50%). Unreal-Engine-3-basierende Spiele z.B. profitieren stark von der überarbeiteten Architektur.

Der_Korken
2010-08-24, 21:43:29
Ein 512Bit SI wäre schon was feines... Wobei ich meine gelesen zu haben das ATI Chips nicht so von der Bandbreite profitieren...

Ich glaube nicht, dass ATI damit schon das gesamte Pulver verschießen wird. Man muss auch bedenken, dass die darauffolgende Chipreihe in 28nm gefertigt wird und dieser Chip auf jeden Fall kleiner sein wird, als der 40nm-Chip. Man wird dann das riesige SI nicht halten können und muss es verkleinern, wodurch sich der neue Chip dann unter Umständen kaum noch vom alten absetzen kann. Es würde dann GDDR6-Speicher fehlen.

john carmack
2010-08-24, 21:58:34
Wie auch immer... Hauptsache der neue Chip ROCKT!

davidzo
2010-08-25, 20:57:18
Ich glaube nicht, dass ATI damit schon das gesamte Pulver verschießen wird. Man muss auch bedenken, dass die darauffolgende Chipreihe in 28nm gefertigt wird und dieser Chip auf jeden Fall kleiner sein wird, als der 40nm-Chip. Man wird dann das riesige SI nicht halten können und muss es verkleinern, wodurch sich der neue Chip dann unter Umständen kaum noch vom alten absetzen kann. Es würde dann GDDR6-Speicher fehlen.


man hat cypress ja auch gegen den willen der entwickler zwangsverkleinert. bei northern islands wird man den zusätzlichen diespace also gut gebrauchen können, glaube nicht dass der NI highendchip also kleiner wird zumal man die einheitenzahl auch massiv erhöhen will und in hinblick auf künftige fusionprodukte auch die gpgpuleistung in den focus rückt will.

bei r600 @408mm² waren 512bit auch möglich, an pads sollte es also nicht mangeln...

trotzdem denke ich, dass man den sprung auf 512bit erst mit NI erwarten darf. SI wird 256bit sein, reicht ja auch. 192gb/s bei 3Ghz sind schon deutlich mehr als die 177gb/s der GTX480 und Cypress war nichtmal ein besonders bandbreitenlimitierter chip.

Gipsel
2010-08-25, 22:15:26
Hier mal die mehr oder wenige komplette Übersicht über die Codenamen-Informationen aus dem Cat 10.8:

Cayman und alle anderen neuen GPUs zählen wirklich schon zur NI-Generation (die werden alle als z.B. "NI Cayman" bzw. "NI Turks" bezeichnet).

Es gibt scheinbar mit Cayman LE, (Cayman?), Cayman Pro und Cayman XT potentiell wieder viele Harvesting-Versionen. Auf Basis des Cayman gibt es dann noch die Antilles-Karten in Pro und XT-Ausführung.

Dann gibt es Blackcomb Pro, XT sowie LP (Low Power?) sowie die dazugehörigen drei Gemini-Versionen (X2?) davon.

Weiterhin findet man Barts Pro und XT, Whistler Pro/XT und LP, sowie Pro/XT sowie LP Gemini-Varianten.

Dann kommt eine Onega genannte GPU auf Turks-Basis, dazu Turks XT und Pro. Weiterhin existieren Seymour Pro/XT/LP.

Weitere Codenamen wären Caicos Pro und Caspian Pro, beide mit dem gleichen Caicos-Unterbau.

Weiterhin gibt es außer den bereits bekannten Fusion Sumo und Wrestler jetzt noch Fusion Trinity desktop und Fusion Trinity mobile.

Fetza
2010-08-25, 22:51:10
Heißt das, das der cayman ein vollwertiger northern island chip ist? Also auch die shadereinheiten nicht mehr (wie ja vorher vermutet) bloß vom cypress übernommen werden?

Gipsel
2010-08-25, 23:07:44
Heißt das, das der cayman ein vollwertiger northern island chip ist? Also auch die shadereinheiten nicht mehr (wie ja vorher vermutet) bloß vom cypress übernommen werden?
Ja.
Wenn ATI nicht den Trick 17 macht und die Codenamen kurzfristig komplett durchwürfelt, dann sollte alles, was für NI bekannt ist, für die neue Generation gelten. Wahrscheinlich wurden nur die Einheitenzahlen für 40nm abgespeckt und vielleicht anderweitig noch ein wenig gespart, aber grundlegend kommt Ende des Jahres NI in 40nm.

Coda
2010-08-25, 23:10:27
Warum sollte man das auch tun, wenn das Design fertig ist?

Gast
2010-08-25, 23:26:46
Warum sollte man das auch tun, wenn das Design fertig ist?
Weil der Fertigungsprozess limitiert...? :rolleyes:

Coda
2010-08-25, 23:44:20
Hä? Wie das denn? Wenn sie den großen Chip fertigen können, dann den kleinen schon dreinmal.

deekey777
2010-08-25, 23:50:16
Hä? Wie das denn? Wenn sie den großen Chip fertigen können, dann den kleinen schon dreinmal.
Ich glaube, das meint er andresrum: Wenn NI für kleineren Prozess gedacht war, dann wird man neben den Einheiten möglicherweise auch weitere Neuerungen/Erweiterungen einsparen, wie es beim RV870 der Fall war (zB CF-Interconnect).
Das Gegenargument wäre, dass sie durch weitere Einsparungen noch mehr R&D in den SI investieren mussten als beim bloßen Weglassen von SIMDs, RBEs whatever.

Locuza
2010-08-26, 00:23:29
Ich habe mich bei eurer Diskussion an die Bestätigung vom Codenamen erinnert.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/juni/amd_southern_island_jahr/

Southern Island laut den AMD Angestellten.

Etwas merkwürdig erscheint es, dass der Treiber NI Cayman etc. zeigt.

Hat AMD doch Trick 17 gemacht? ;)

john carmack
2010-08-26, 01:12:14
Ich blick da langsam net mehr durch...

john carmack
2010-08-26, 01:26:07
192gb/s bei 3Ghz sind schon deutlich mehr als die 177gb/s der GTX480 und Cypress war nichtmal ein besonders bandbreitenlimitierter chip.

Wie weit kann man eigentlich GDDR5 takten?

Ich miene wenn der bis 4Ghz hoch geht dann werden wir wohl noch länger das 256Bit SI sehen...

Der_Korken
2010-08-26, 02:46:14
bei r600 @408mm² waren 512bit auch möglich, an pads sollte es also nicht mangeln...


Ich komme mittlerweile durcheinander, was jetzt SI und NI ist, deswegen hab ich die bewusst in meinem letzten Beitrag vermieden.

Dass die SI@40nm ein 512bit-Interface haben können, hätte ich nie bestritten, der R600 hats vorgemacht. Das Problem ist imho dann aber, dass die NI@28nm mit Sicherheit keine 400mm² haben werden und demnach nur 256bit. Die Speicherbandbreite würde dann von einer Generation zur nächsten sinken, statt steigen und ich glaube nicht, dass ATI das will. Wenn für nächstes Jahr schon GDDR6-Speicher mit 8Ghz zur Verfügung stehen würden, wär das was anderes, aber im Moment ist bei 6 Ghz einfach Schluss.

Gast
2010-08-26, 07:45:48
Aus der atiicdxx.dat des 10.8:


223,CAYMAN GL XT (6700),NI CAYMAN
224,CAYMAN GL XT (6701),NI CAYMAN
225,CAYMAN GL XT (6702),NI CAYMAN
226,CAYMAN GL XT (6703),NI CAYMAN
227,CAYMAN GL PRO (6704),NI CAYMAN
228,CAYMAN GL PRO (6705),NI CAYMAN
229,CAYMAN GL (6706),NI CAYMAN
230,CAYMAN GL LE (6707),NI CAYMAN
231,CAYMAN GL (6708),NI CAYMAN
232,CAYMAN GL (6709),NI CAYMAN
233,CAYMAN XT (6718),NI CAYMAN
234,CAYMAN PRO (6719),NI CAYMAN
235,ANTILLES PRO (671C),NI CAYMAN
236,ANTILLES XT (671D),NI CAYMAN
237,BLACKCOMB XT/PRO (6720),NI BLACKCOMB
238,BLACKCOMB LP (6721),NI BLACKCOMB
239,BLACKCOMB XT/PRO Gemini (6724),NI BLACKCOMB
240,BLACKCOMB LP Gemini (6725),NI BLACKCOMB
241,BARTS GL XT (6728),NI BARTS
242,BARTS GL PRO (6729),NI BARTS
243,BARTS XT (6738),NI BARTS
244,BARTS PRO (6739),NI BARTS
245,WHISTLER XT (6740),NI WHISTLER
246,WHISTLER PRO/LP (6741),NI WHISTLER
247,WHISTLER XT/PRO Gemini (6744),NI WHISTLER
248,WHISTLER LP Gemini (6745),NI WHISTLER
249,ONEGA (6750),NI TURKS
250,TURKS XT (6758),NI TURKS
251,TURKS PRO (6759),NI TURKS
252,SEYMOUR XT/PRO (6760),NI SEYMOUR
253,SEYMOUR LP (6761),NI SEYMOUR
254,SEYMOUR XT/PRO Gemini (6764),NI SEYMOUR
255,SEYMOUR LP Gemini (6765),NI SEYMOUR
256,CAICOS GL PRO (6768),NI CAICOS
257,CASPIAN PRO (6770),NI CAICOS
258,CAICOS PRO (6779),NI CAICOS

Gast
2010-08-26, 10:00:27
Aus der atiicdxx.dat des 10.8:

Also 7 verschiedene GPU's, oder?

Cayman; Blackcomb; Barts; Whistler; Turks; Seymour; Caicos

Was soll das? Sind das nicht zu viele, bzw. ist die Hälfte für Notebooks vorgesehen?

Witzig ist, das alle (67xx)-Varianten sind.

Gast
2010-08-26, 10:05:07
So könnte man wohl die Codenamen einordnen:
Das will 4Gamer.net von einer OEM-Quelle erfahren haben:
http://translate.google.de/translate?hl=de&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F110%2FG011065%2F20100526093%2F

http://img27.imageshack.us/img27/9729/002jg.jpg

Klingt schon eher nach "Southern Islands"...

Die Vancouver Familie, Notebook-Refresh:
http://img443.imageshack.us/img443/2748/003cz.jpg

Wohl vier verschiedene Chips.

Gast
2010-08-26, 10:06:16
Witzig ist, das alle (67xx)-Varianten sind.
Das ist eine Device-ID und kein Verkaufsnamen.

Dural
2010-08-26, 10:32:19
denke das sie das SI nicht geändert haben und alles beim alten bleibt: 256Bit und 128Bit

beim bart könnte man sich schon überlegen auf ein 256Bit zugehen und dafür einen etwas billigeren speicher zu verbauen, die kosten nutzen rechnung kann hier aber keiner beantworten...

128Bit @ 3000MHz sind schon 96GB/s und würde locker reichen für die angepeilte leistungsklasse zwischen 5770 und der 5870; zudem die DX11 GPUs nicht mehr so bandbreiten abhänig sind, gilt auch besonders für Fermi.

Gast
2010-08-26, 11:24:29
Ich habe mich bei eurer Diskussion an die Bestätigung vom Codenamen erinnert.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/juni/amd_southern_island_jahr/

Southern Island laut den AMD Angestellten.

Etwas merkwürdig erscheint es, dass der Treiber NI Cayman etc. zeigt.

Hat AMD doch Trick 17 gemacht? ;)

Naja, man muss schon ganz klar sagen das die Codenamen wie Cayman, Barts, etc. natürlich eindeutig südliche Inseln, also "Southern Islands" sind. Für mich ist die Sache relativ klar: Ursprünglich sollte Northern Islands kommen, und zwar in 32nm, siehe:

http://tech.icrontic.com/files/2009/11/amd_mobile_chips_2011.jpg

Da der 32nm Prozess gecancelt wurde hat man die Chips auf 40nm adaptiert und sie eben Southern Islands genannt. Intern blieb der Codename für die Architektur bestehen. Die Chips selbst sehen so aus:

Cayman:
1920 4D ALUs angeordnet in drei Blöcken zu je 640ALUs.
Entsprechend drei mal Rasterizer, Setup, etc.
96 TMUs
32 ROPs
256-bit SI

Barts:
1280 4D ALUs angeordnet in zwei Blöcken zu je 640ALUs.
Entsprechend zwei mal Rasterizer, Setup, etc.
64 TMUs
32 ROPs
256-bit SI

Turks:
640 4D ALUs angeordnet in einem Block.
Entsprechend ein mal Rasterizer, Setup, etc.
32 TMUs
16 ROPs
128-bit SI

Caicos:
320 4D ALUs angeordnet in einem Block.
Entsprechend ein mal Rasterizer, Setup, etc.
16 TMUs
16 ROPs
128-bit SI

Darunter bleibt HD 5450/Cedar bestehen bzw. wird unbenannt. Alle neuen Chips bekommen Eyefinity+ und UVD3, sonst technologisch wenig neues. AMD behauptet wohl das Cayman einen GF100 im Vollausbau schlägt.

deekey777
2010-08-26, 11:56:38
Auf 16 4-VLIW-ALUs kommen 4 TMUs, also stimmt die Rechnung irgendwie nicht.

Gast
2010-08-26, 12:13:08
Auf 16 4-VLIW-ALUs kommen 4 TMUs, also stimmt die Rechnung irgendwie nicht.

Wenn sie schon die ALUs auf 4D umstellen werden sie auch hier Änderungen vornehmen, ansonsten hätte man zu viele TMUs. Ich halte das vom Gast durchaus für plausibel. Das wäre dann pro 80ALUs eine Quad-TMU.

deekey777
2010-08-26, 12:21:17
Wenn sie schon die ALUs auf 4D umstellen werden sie auch hier Änderungen vornehmen, ansonsten hätte man zu viele TMUs. Ich halte das vom Gast durchaus für plausibel. Das wäre dann pro 80ALUs eine Quad-TMU.
Abgelehnt.


Übrigens: 120 TMUs sind ein Drittel mehr als beim RV870.

Gast
2010-08-26, 12:22:43
Abgelehnt.

Bitte erschlage mich nicht gleich mit Argumenten. :rolleyes:

Gast
2010-08-26, 12:24:21
Abgelehnt.

Ansonsten hätte man bei 1920 4D ALUs 120TMus, das ist viel zu viel.

Gast
2010-08-26, 12:25:09
Übrigens: 120 TMUs sind ein Drittel mehr als beim RV870.

Ähm nein, das sind 50% mehr. RV870 hat 80TMUs. 120TMus sind IMO zu viel.

Ailuros
2010-08-26, 12:27:20
Auf 16 4-VLIW-ALUs kommen 4 TMUs, also stimmt die Rechnung irgendwie nicht.

Ich hab ne wichtigere Frage: wie zum Henker verteilt man 3 rasterizer auf 32 pixels/clock (ROPs). Nun gut 10.6666666666666666666666666666666666.... pixels/clock/rasterizer :biggrin: :rolleyes:

Ansonsten hätte man bei 1920 4D ALUs 120TMus, das ist viel zu viel.

Wieso zu viel TMUs? Wenn NV dagegen eine GF104/GX2 stellt sind es 128TMUs.

deekey777
2010-08-26, 12:28:11
Bitte erschlage mich nicht gleich mit Argumenten. :rolleyes:
Überleg doch mal, was das bedeutet: totale Ineffizienz.

Gast
2010-08-26, 12:31:03
Ich hab ne wichtigere Frage: wie zum Henker verteilt man 3 rasterizer auf 32 pixels/clock (ROPs). Nun gut 10.6666666666666666666666666666666666.... pixels/clock/rasterizer :biggrin: :rolleyes:


ROPs arbeiten seriell.

Coda
2010-08-26, 12:32:01
Bitte erschlage mich nicht gleich mit Argumenten. :rolleyes:
Eine Wavefront-Size, die nicht eine Potenz von 2 ist geht nicht.

Ich hab ne wichtigere Frage: wie zum Henker verteilt man 3 rasterizer auf 32 pixels/clock (ROPs). Nun gut 10.6666666666666666666666666666666666.... pixels/clock/rasterizer :biggrin: :rolleyes:
Um es in deiner Sprache zu sagen: Was zum Henker haben die Rasterizer im Frontend mit den ROPs im Backend zu schaffen?

Richtig: Überhaupt nichts. Das ist komplett unabhängig. Nur weil beide ein "Raster" im Namen haben heißt das noch lange nicht, dass sie zusammengehören.

Ailuros
2010-08-26, 12:33:38
ROPs arbeiten seriell.

Wieviel pixels/clock kann zeitig jeder raster auf einer 5870 bearbeiten? Rein zufaellig 16? 2 raster * 16 pixels/clock = 32 pixels/clock.


Um es in deiner Sprache zu sagen: Was zum Henker haben die Rasterizer im Frontend mit den ROPs im Backend zu schaffen?

Richtig: Überhaupt nichts. Das ist komplett unabhängig. Nur weil beide ein "Raster" im Namen haben heißt das noch lange nicht, dass sie zusammengehören.

Mir geht's um maximale pixels/clock. Ich kann mir nicht vorstellen dass im backend X pixel herausschiessen koennen waehrend das front end X+N pixels bearbeiten kann. Fuer was denn ueberhaupt?

Coda
2010-08-26, 12:35:11
Wieviel pixels/clock kann zeitig jeder raster auf einer 5870 bearbeiten? Rein zufaellig 16? 2 raster * 16 pixels/clock = 32 pixels/clock.
Ja. Richtig. Rein zufällig. Das hat nichts miteinander zu tun.

Nakai
2010-08-26, 12:37:00
Wieso zu viel TMUs? Wenn NV dagegen eine GF104/GX2 stellt sind es 128TMUs.

Naja bei 16er SIMDs sind das 50% mehr SIMDs? Dann noch Verbesserungen im Frontend, welche bestimmt auch noch Fläche kosten. Naja und das alles in 40nm?


mfg

deekey777
2010-08-26, 12:37:20
Eine Wavefront-Size, die nicht eine Potenz von 2 ist geht nicht.
.
Fiktion: Es geht. Wie kriegt man solche Wavefronts mit Quads voll, insbesondere wenn die Radeons mi 8x8-Tiles am effizientesten sind.

Ailuros
2010-08-26, 12:37:45
Ja. Richtig. Rein zufällig. Das hat nichts miteinander zu tun.

Dann schnall gefaelligst aus Deinem Klugscheisser-modus heraus und liefer eine anstaendigere Erklaerung.

Coda
2010-08-26, 12:39:41
Was braucht man da erklären? Die Rasterizer erzeugen die Quads für die Pixel-Shader, die führen dann irgendeine Anzahl an Takten pro Pixel aus, die völlig unvorhersehbar ist.

Selbst die Anzahl der Quads die überhaupt von den Rasterizern pro Takt erzeugt wird ist komplett unvorhersehbar und hängt von der Dreiecksgröße und auch noch deren Anordnung auf dem Bildschirm ab.

Und du willst mir erzählen, dass dann die ROPs am Ende der Pipeline die das Ergebnis in den Framebuffer schreiben dann von der Pixelzahl an die Rasterizer gekoppelt sein müssen. Überleg doch mal selber.

Fiktion: Es geht. Wie kriegt man solche Wavefronts mit Quads voll, insbesondere wenn die Radeons mi 8x8-Tiles am effizientesten sind.
Dann bräuchte man halt einen Buffer, der ein paar Quads erstmal puffert und aus dem dann die Wavefronts erzeugt werden.

Aber: Won't happen. Das Programmiermodel der Compute Shader ist überhaupt nicht darauf ausgelegt.

Gast
2010-08-26, 13:15:05
Ansonsten hätte man bei 1920 4D ALUs 120TMus, das ist viel zu viel.

Viel hilft viel!!

Ne mal im Ernst: 120TMUs sind sicher besser als 96 (mit 3 Blöcken nicht umsetzbar) und als 80.
Ati könnte die TMUs aber auch besser organisieren, der Datendurchsatz ist zurzeit deutlich geringer als der von Fermi.

Übrigens muss Cayman nicht zwingend 3 Blöcke a 160Shader haben, wenn man das gesamte Frontend verändert hat, was ja, nachdem man seit dem R600 ( zum RV770 immerhin etwas) nichts mehr verändert hat, durchaus sein kann, werden die Rasterizer und Shader Cluster womöglich auch in ganz anderen Blöcken (4 oder 6) organisiert sein. Vlt erwarten uns auch 32 Shader pro Cluster statt bisher 16, das würde in meinen Augen die Effizienz steigern ( bei einem Shedular, nicht wie bei Nvidias GF 100 dann zwei in einem Cluster)

Coda
2010-08-26, 13:21:31
32 Shader pro Cluster würde die Effizienz deutlich verringern. Schlechtere Branch-Granularität und viel mehr Verschnitt. Die Group-Size ist jetzt schon doppelt so hoch bei AMD als bei NVIDIA.

Wobei, Idee: Sie loopen jetzt auch nur noch zweimal pro Pipeline-Stage wie NVIDIA bei Fermi, dann würde die Wavefront-Size bei 64 bleiben. Dazu 60 TMUs mit gesteigerter Effizienz. Klingt eigentlich gut.

Gipsel? Verträgt sich das mit der AMD-Architektur überhaupt?

Fetza
2010-08-26, 14:18:40
Ja.
Wenn ATI nicht den Trick 17 macht und die Codenamen kurzfristig komplett durchwürfelt, dann sollte alles, was für NI bekannt ist, für die neue Generation gelten. Wahrscheinlich wurden nur die Einheitenzahlen für 40nm abgespeckt und vielleicht anderweitig noch ein wenig gespart, aber grundlegend kommt Ende des Jahres NI in 40nm.

Dann könnte demzufolge die performance des chips letztlich doch weit höher liegen, als bisher gedacht, oder?

Gipsel
2010-08-26, 14:39:49
Und du willst mir erzählen, dass dann die ROPs am Ende der Pipeline die das Ergebnis in den Framebuffer schreiben dann von der Pixelzahl an die Rasterizer gekoppelt sein müssen. Überleg doch mal selber.
Ich denke mal, Ailuros will darauf hinaus, daß man vorne nicht mehr reinstopfen muß, als hinten maximal rausfallen kann.
Dazu muß man aber sagen, daß natürlich nur im Idealfall jede Rastereinheit die nominelle Anzahl an Pixeln ausspuckt und dann alle 4 Takte eine Wavefront voll ist. Normalerweise gibt es da doch einiges an Verschnitt, so daß mehr theoretische Rasterleistung als ROP-Leistung durchaus etwas helfen kann. Bei nvidia hilft umgekehrt das mehr an ROPs ja im Prinzip auch nur durch Erhöhung der verfügbaren Bandbreite/bei vielen AA-Samples.
32 Shader pro Cluster würde die Effizienz deutlich verringern. Schlechtere Branch-Granularität und viel mehr Verschnitt. Die Group-Size ist jetzt schon doppelt so hoch bei AMD als bei NVIDIA.

Wobei, Idee: Sie loopen jetzt auch nur noch zweimal pro Pipeline-Stage wie NVIDIA bei Fermi, dann würde die Wavefront-Size bei 64 bleiben. Dazu 60 TMUs mit gesteigerter Effizienz. Klingt eigentlich gut.

Gipsel? Verträgt sich das mit der AMD-Architektur überhaupt?
Mit der momentanen überhaupt nicht. Da wäre eher ein völliges Redesign und nicht nur Evolution nötig.
Momentan sind die ganzen Shadercores komplett und hart auf eine Pipelinelatenz von acht Takten und der Abarbeitung von den vier Threads/Pixel/workitems (ein Quad) pro Shadereinheit über 4 Takte ausgelegt. Nur dadurch erreicht AMD das simple Scheduling von exakt zwei sich immer abwechselnden Wavefronts, die nie auf irgendein Resultat oder Abhängigkeit warten müssen (Abhängigkeiten werden nur an Clause-Grenzen geprüft, TEX-Anweisungen stecken in getrennten Clauses, die im Prinzip parallel zu ALU-Clauses laufen können).

Wenn also jetzt nur noch 2 Threads von einer Einheit bearbeitet werden bevor zur nächsten Wavefront gewechselt wird, müßte die Latenz auf 4 Takte runter (extrem unwahrscheinlich, da das den Takt arg limitieren würde), oder man müßte immer zwischen 4 Wavefronts wechseln, wobei zumindest ich keinen signifikanten Vorteil beim Verwaltungsaufwand gegenüber der jetzigen Lösung sehe. Zusätzlich würde das tendenziell noch größere Registerfiles erfordern, da wohl ein paar mehr Threads in Flight gehalten werden müßten.

Gast
2010-08-26, 14:45:03
@Fetza

Das wird dir niemand außer AMD selber beantworten können, weil man ja auch über die NI-Architektur so gut wie nichts weiß. Ich gehe aber tatsächlich von deutlich mehr Performancezuwachs aus als die meisten prognostizieren.

Gipsel
2010-08-26, 14:48:11
Dann könnte demzufolge die performance des chips letztlich doch weit höher liegen, als bisher gedacht, oder?
Kommt drauf an, was Du mit "weit höher" meinst. Ich denke, so viel mehr als 30% im Schnitt werden es schwerlich werden (in einigen Teilgebieten könnte aber durchaus mehr drin sein). Da setzt einfach die maximale Transistorzahl/Diegröße/Leistungsaufnahme gewisse Grenzen, bevor 28nm zur Verfügung stehen.

Aber 30% im Schnitt wären doch auf keinen Fall schlecht! Falls AMD GTX480-Performance in ~100mm² weniger Diefläche und auch noch etwas geringerer Stromaufnahme hinbekommt, kann man sich doch wahrlich nicht beklagen, oder?

dildo4u
2010-08-26, 14:53:36
Kommt drauf an, was Du mit "weit höher" meinst. Ich denke, so viel mehr als 30% im Schnitt werden es schwerlich werden (in einigen Teilgebieten könnte aber durchaus mehr drin sein). Da setzt einfach die maximale Transistorzahl/Diegröße/Leistungsaufnahme gewisse Grenzen, bevor 28nm zur Verfügung stehen.

Aber 30% im Schnitt wären doch auf keinen Fall schlecht! Falls AMD GTX480-Performance in ~100mm² weniger Diefläche und auch noch etwas geringerer Stromaufnahme hinbekommt, kann man sich doch wahrlich nicht beklagen, oder?
Wenn man die Preispolitik der 5800 anguckt kann man sich schon beklagen,weil man als Endkunde nix davon hat das der Chip kleiner ist.30% zur 5870 da werden sie locker 450€ aufrufen.

http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&bl1_id=100&xf=132_1024~891_Radeon+HD+5870

Coda
2010-08-26, 14:55:28
Aber 30% im Schnitt wären doch auf keinen Fall schlecht! Falls AMD GTX480-Performance in ~100mm² weniger Diefläche und auch noch etwas geringerer Stromaufnahme hinbekommt, kann man sich doch wahrlich nicht beklagen, oder?
Wenn sie das auch bei Tesselation und mit ordentlicher Texturqualität schaffen, dann bin ich beeindruckt.

Fetza
2010-08-26, 15:28:30
Kommt drauf an, was Du mit "weit höher" meinst. Ich denke, so viel mehr als 30% im Schnitt werden es schwerlich werden (in einigen Teilgebieten könnte aber durchaus mehr drin sein). Da setzt einfach die maximale Transistorzahl/Diegröße/Leistungsaufnahme gewisse Grenzen, bevor 28nm zur Verfügung stehen.

Aber 30% im Schnitt wären doch auf keinen Fall schlecht! Falls AMD GTX480-Performance in ~100mm² weniger Diefläche und auch noch etwas geringerer Stromaufnahme hinbekommt, kann man sich doch wahrlich nicht beklagen, oder?

Naja, natürlich wäre es nicht schlecht. Aber ich frage mich, warum es hier so sehr als dogma angesehen wird, ati müsse unbedingt einen kleineren chips als nvidia fertigen, nur weil sie es die letzten jahre getan haben. Wenn sie, wie coda unter schon meinte, auch die texturqualität auf nvidia standard heben, wäre ich auch zufrieden (wenn der preis stimmt und die lautstärke).

deekey777
2010-08-26, 15:40:20
Wenn man die Preispolitik der 5800 anguckt kann man sich schon beklagen,weil man als Endkunde nix davon hat das der Chip kleiner ist.30% zur 5870 da werden sie locker 450€ aufrufen.

http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&bl1_id=100&xf=132_1024~891_Radeon+HD+5870
Dann sollte der Kunde beklagen, dass die HD5800 ziemlich lange ohne Konkurrenz auf dem Markt waren und immernoch sind, so dass das böse AMD-Imperium nicht genötigt war und ist, die Preise zu senken.

Gast
2010-08-26, 15:47:07
Wenn sie das auch bei Tesselation und mit ordentlicher Texturqualität schaffen, dann bin ich beeindruckt.Es geht um die Gesamtleistung im Schnitt! AMD hat ein eigenes Design/Konzept, es geht nicht darum das NV-Designschwerpunkte zu kopieren. Die GF100 Tesselation-Leistung zu erreichen/übertreffen wäre ein Pyrrhussieg, wenn der Rest dadurch ineffizienter wäre.

Gast
2010-08-26, 15:51:39
Ich gehe mal stark davon aus, dass man mit dem Single-GPU Topmodell (HD6870?) eine GTX480 nicht nur einholen sondern auch überholen will. Ich schließe mich dabei auch Fetza an und werfe auch mal die Frage auf warum AMD eigentlich immer kleinere GPUs als NV herzustellen hat. Ok es würde ihrer Strategie der letzten Zeit wiedersprechen, aber ich glaube sie haben sich mittlerweile vom Schock des R600 erholt und trauen sich auch wieder an größere GPUs ran. Natürlich werden sie sicher nicht mit dem Vorschlaghammer wie NV arbeiten nur um die GTX480 zu schlagen, aber das scheint mir auch nicht nötig zu sein.

Ich sehe momentan nur das AMD mit dem wesentlich kleineren und deutlich genügsameren Cypress-XT nicht soweit weg ist vom GF100 der GTX480.

Fetza
2010-08-26, 15:52:31
Dann sollte der Kunde beklagen, dass die HD5800 ziemlich lange ohne Konkurrenz auf dem Markt waren und immernoch sind, so dass das böse AMD-Imperium nicht genötigt war und ist, die Preise zu senken.

Die übertakteten gtx 460 exemplare sind natürlich eine konkurrenz für die hd5800 und werden scheinbar gut angenommen.

Coda
2010-08-26, 17:33:45
Es geht um die Gesamtleistung im Schnitt! AMD hat ein eigenes Design/Konzept, es geht nicht darum das NV-Designschwerpunkte zu kopieren. Die GF100 Tesselation-Leistung zu erreichen/übertreffen wäre ein Pyrrhussieg, wenn der Rest dadurch ineffizienter wäre.
Das ist mir doch egal. Ich will einen gescheiten Texturfilter, sonst ist das Ding für mich keine Option. Punkt.

Tesselation ist nur Kür, aber dennoch wäre ich enttäuscht, wenn sie da nichts ändern.

Leonidas
2010-08-26, 17:51:27
Die Chips selbst sehen so aus:

Cayman:
1920 4D ALUs angeordnet in drei Blöcken zu je 640ALUs.
Entsprechend drei mal Rasterizer, Setup, etc.
96 TMUs
32 ROPs
256-bit SI

Barts:
1280 4D ALUs angeordnet in zwei Blöcken zu je 640ALUs.
Entsprechend zwei mal Rasterizer, Setup, etc.
64 TMUs
32 ROPs
256-bit SI

Turks:
640 4D ALUs angeordnet in einem Block.
Entsprechend ein mal Rasterizer, Setup, etc.
32 TMUs
16 ROPs
128-bit SI

Caicos:
320 4D ALUs angeordnet in einem Block.
Entsprechend ein mal Rasterizer, Setup, etc.
16 TMUs
16 ROPs
128-bit SI

Darunter bleibt HD 5450/Cedar bestehen bzw. wird unbenannt. Alle neuen Chips bekommen Eyefinity+ und UVD3, sonst technologisch wenig neues. AMD behauptet wohl das Cayman einen GF100 im Vollausbau schlägt.



Ist mir zur glatt und zu perfekt. Zudem dürften die TMUs an die Shader-Cluster gebunden sein und dann stimmt die TMU-Anzahl bei Cayman nicht. Und Caicos bleibt ziemlich sicher bei einem 64 Bit Interface und im LowCost-Bereich - ATI bringt keine zwei Chips für den Mainstream.

deekey777
2010-08-26, 19:56:03
Ist mir zur glatt und zu perfekt. Zudem dürften die TMUs an die Shader-Cluster gebunden sein und dann stimmt die TMU-Anzahl bei Cayman nicht. ...
Darum ist die Vermutung so nah, dass es 384 XYZW+sehr dünne T "Thread Processors" sind. Auch so kommt man auf 1920 SPs und hat 96 TMUs.

Coda
2010-08-26, 20:08:19
Ist mir zur glatt und zu perfekt. Zudem dürften die TMUs an die Shader-Cluster gebunden sein und dann stimmt die TMU-Anzahl bei Cayman nicht. Und Caicos bleibt ziemlich sicher bei einem 64 Bit Interface und im LowCost-Bereich - ATI bringt keine zwei Chips für den Mainstream.
Da stimmt allgemein nix. 320 ALUs mit 16 TMUs passt mit 4er VLIW nicht. Kann man getrost als komplette Wichtigtuerei abtun.

Darum ist die Vermutung so nah, dass es 384 XYZW+sehr dünne T "Thread Processors" sind. Auch so kommt man auf 1920 SPs und hat 96 TMUs.
Es gibt kein T mehr. Das zeigt der Treiber eindeutig.

deekey777
2010-08-26, 20:25:29
Was ist dann für die Special Functions zuständig?

Locuza
2010-08-26, 20:30:47
Was ist dann für die Special Functions zuständig?

Wohl die W-Einheit, die um die nötigen Funktionen erweitert wird?

deekey777
2010-08-26, 20:32:59
Wohl die W-Einheit, die um die nötigen Funktionen erweitert wird?
Dann wäre aber DP-MADD nich möglich, wenn es beim Alten bliebe (sprich SF würde hier blockieren).

Naitsabes
2010-08-26, 20:33:09
Afaik entweder x+y und z+w oder nur w. Jedenfalls gab es mal diese beiden Vermutungen.

edit.

mit einer Hand schreiben suckt^^

Coda
2010-08-26, 21:13:16
Dann wäre aber DP-MADD nich möglich, wenn es beim Alten bliebe (sprich SF würde hier blockieren).
Wieso, T und W werden halt gemerged.

Gast
2010-08-26, 22:07:33
http://img821.imageshack.us/img821/6972/55199758201008262349170.jpg (http://img821.imageshack.us/i/55199758201008262349170.jpg/)

http://we.pcinlife.com/thread-1498296-1-1.html

Die Feature-Tests zu faken hat man sich wohl nicht getraut? :D

derguru
2010-08-26, 23:24:53
immerhin ist die berechnung der bandbreite richtig.:freak:

Gast
2010-08-26, 23:26:18
wie schneller ist das als eine 5870 ?

Undertaker
2010-08-26, 23:32:19
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_460/5/#abschnitt_3dmark_vantage

Rein vom Ergebnis evntl. etwas optimistisch, aber nicht unmöglich. Vermutlich aber wohl dennoch Fake. ;)

Gast
2010-08-26, 23:39:05
das wären ca. 23% mehr Speed als eine GTX480 & 40% mehr Speed als eine 5870, das ist ein Fake.

Gast
2010-08-26, 23:42:12
nein die HD6000 laut GPU-Z wäre dann laut Vantage ca. 32% schneller als eine 5870

Undertaker
2010-08-26, 23:44:35
Mit aktuellen Grafiktreibern liegt eine HD5870 bei afair gut 9,5k - da wären wir bei ~25% Mehrleistung. Das sollte imho schon drin sein - man wird ja wohl auch einen kommenden vollen GF100(b) schlagen wollen. :)

derguru
2010-08-26, 23:47:19
quatsch,also aktueller gehts nicht.~30% sind es schon obwohl man das nicht für bare münze halten sollte.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_ati_catalyst_108/3/#abschnitt_3dmark_vantage

Gast
2010-08-26, 23:48:48
sind 2400 SPs in 40nm bis 450mm² Chipfläche möglich?

Gast
2010-08-26, 23:50:17
quatsch,also aktueller gehts nicht.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_ati_catalyst_108/3/#abschnitt_3dmark_vantage

also doch über 30% unterschied (vorrausgesetzt der screen ist kein fake)

Undertaker
2010-08-26, 23:52:22
Plz del, Gurus Link sagt eigentlich alles. ;) Da ist der Screen wohl doch etwas unrealistisch.

crux2005
2010-08-27, 00:02:07
X12000 GPU score habe ich mit einer GTX 480@925/1850/1950Mz... (+32% OC)

Gast
2010-08-27, 00:11:03
Warum glaubt hier eigentlich jeder das mehr als 20-30% Performancezuwachs nicht möglich sind. Was wissen wir den über diese Gen, richtig eigentlich bis auf einige verwirrende Codenamen garnichts. Welche Auswirkungen könnte eine Hybridarchitektur haben? Ist es vielleicht doch schon die gänzlich neue Architektur abgespeckt auf 40nm? Sind die 5D Shader geblieben und an welchen Schrauben hat AMD sonst noch gedreht?

Ich bleibe dabei das zwischen 20-50% Mehrperformance alles möglich ist.

Coda
2010-08-27, 00:52:58
Ich glaube schon, dass 20-30% möglich sein könnten. Neues Fahrwerk sollte da fast schon reichen ggü. RV870.

Leonidas
2010-08-27, 08:22:18
Warum glaubt hier eigentlich jeder das mehr als 20-30% Performancezuwachs nicht möglich sind.



Weil keine neue Fertigung zur Verfügung steht und daher jeder Performancegewinn mit mehr Chipfläche und mehr Verlustleistung erkauft werden muß. Das limitiert alle Bemühungen zumindest im HighEnd-Bereich sehr deutlich. Bei den kleineren Chips ist natürlich mehr möglich, dies ist dann eine Frage der Wirtschaftlichkeit.

Gast
2010-08-27, 09:02:24
ein optimierter aktueller prozess ist fast genau so gut wie ein "experimenteller" neuer prozess.
Die sind ja nicht dumm und backen auf einem neuen prozess dieselben chips wie auf alten, die haben einiges an reserven und manchmal auch redundante einheiten (z.b. abstand zwischen einheiten damit die verlustleistung besser verschwindet).
ich denke die haben jetzt viele verbesserungen der einzelnen einheiten eingebracht und verpacken sie dichter.

30% sollte alleine schon mit aktuellen chips und overclocking drinnen sein.

aber eigentlich muss man da auch garnicht wissen was sie machen, einfach die vorherigen generationen anschauen und man sieht, dass da bei AMD und NV immer ein guter zuwachs war.

Gast
2010-08-27, 09:27:08
Weil keine neue Fertigung zur Verfügung steht und daher jeder Performancegewinn mit mehr Chipfläche und mehr Verlustleistung erkauft werden muß. Das limitiert alle Bemühungen zumindest im HighEnd-Bereich sehr deutlich. Bei den kleineren Chips ist natürlich mehr möglich, dies ist dann eine Frage der Wirtschaftlichkeit.

Ich sage nur RV670 vs. RV770. Selber Prozess, 192mm² vs. 256mm² - letzterer hat die doppelte Leistung. Würde AMD nur mehr Einheiten dran klatschen würde ich dir recht geben. Aber selbst bei der Die-Size hat man noch Luft. Außerdem sieht es ja nach einer Überarbeitung des Shadercores auf 4D ALUs aus und da sollte auch mehr Effizienz möglich sein bei gleichen Ressourceneinsatz.

V2.0
2010-08-27, 10:56:32
Schöner Vantage Score. Für unfertige Treiber ganz ok. Rechnet da mal 10-15% drauf und ihr habt einen realen Wert für die Dominanz der SI Serie.

Gast
2010-08-27, 11:14:07
Also AMD wird schon so 20% über GTX480 angepeilt haben und es ist trotz 40nm technisch möglich. Nochmals niemand weiß was wie verändert wurde und dieses Totschlagargument das es keinen kleineren Herstellungsprozess gibt lasse ich für mich nicht gelten.

Gast
2010-08-27, 11:20:00
W1zzard: "nothing i can see in the gpuz part of the screenshot that suggests it's fake "
http://forums.techpowerup.com/showthread.php?t=129668

Wobei die 6,4Gbps GDDR5 wohl eher auf einen OC-Versuch hindeuten und die Referenz-Karte bei etwas unter 6Gbps liegen dürfte.

MR2
2010-08-27, 11:25:04
Es müsste aber auch schon 7Gbps verfügbar sein.

Gast
2010-08-27, 11:38:22
Richtig und Produktionsstart sollte 2.HJ 2010 sein. Es ist also möglich, dass die HD6k schon diesen Speicher benutzen.

http://www.techpowerup.com/111029/Hynix_Introduces_World_s_First_40_nm_Class_2_Gb_GDDR5_DRAM.html

Gast
2010-08-27, 12:13:15
http://img821.imageshack.us/img821/6972/55199758201008262349170.jpg (http://img821.imageshack.us/i/55199758201008262349170.jpg/)

http://we.pcinlife.com/thread-1498296-1-1.html

Die Feature-Tests zu faken hat man sich wohl nicht getraut? :D

Also laut der GPU-ID 6718 und den aktuellen Treibereinträgen im Catalyst 10.8 würde es sich hierbei jedenfalls um einen Cayman XT handeln, also das neue Single-GPU Flagship.

derguru
2010-08-27, 12:18:06
Es müsste aber auch schon 7Gbps verfügbar sein.
das wird dann aber teuer,vielleicht ist das auch ein grund warum der cayman auch erst im november kommen soll.wie auch immer 205 GB/s bandbreite haut schon rein.

Ailuros
2010-08-27, 12:29:58
Naja, natürlich wäre es nicht schlecht. Aber ich frage mich, warum es hier so sehr als dogma angesehen wird, ati müsse unbedingt einen kleineren chips als nvidia fertigen, nur weil sie es die letzten jahre getan haben.

Hmmm andersrum warum sollten sie einen >500qmm chip entwickeln wenn es bei AMD mit weniger Transistoren bzw. die Flaeche geht die Leistung gegenueber Evergreen um ein gutes Prozentual zu steigern? Unter 40G ist so ein Gedanke sowieso Bloedsinn.

Total OT: aber der absolute Knaller waere wenn NV sich in der Zukunft irgendwann mal entscheiden sollte nur bis zu performance chips zu entwickeln und AMD sie zur gleichen Zeit mit einem single high end chip ueberrascht. Zwar total aus der Luft gegriffen da es keine logischen Indizien fuer so etwas gibt, aber witzig waere es schon. Aber es macht fuer AMD auch absoluten Sinn wenn sie sich sicher sein koennen dass der Herstellungsprozess mitspielen wird.

Southern Islands ist schon irgendwo ueber 20% schneller als Evergreen, da AMD schon seit einiger Zeit angegeben hat dass es schneller sein wird als der "typische" Refresh (denk 4890->4870 z.B.). Momentan hat AMD so oder so den Vorsprung; wieso sollte AMD irgendwelches Risiko eingehen und genau diesen Vorsprung in Gefahr setzen?

Wenn sie, wie coda unter schon meinte, auch die texturqualität auf nvidia standard heben, wäre ich auch zufrieden (wenn der preis stimmt und die lautstärke).

Es waere nur ein alberner switch im Treiber dem Verbraucher zu erlauben AF Optimierungen abschalten zu koennen wenn er es moechte. So wie die Anzahl der TMUs bei SI wohl aussehen wird ist es laecherlich immer noch stur auf der Masche zu reiten dass sie es besser wissen als der Endverbraucher.

Wieviel Leistung koennten sie im schlimmsten Fall im Durchschnitt verlieren? Maximal 10%? Ich will hoffen dass die Geschichte mit dem Optimierungs-Schalter nicht genauso lange dauert wie mit der Supersampling-Geschichte heh....

Leonidas
2010-08-27, 12:31:26
Es müsste aber auch schon 7Gbps verfügbar sein.

Richtig und Produktionsstart sollte 2.HJ 2010 sein. Es ist also möglich, dass die HD6k schon diesen Speicher benutzen.

http://www.techpowerup.com/111029/Hynix_Introduces_World_s_First_40_nm_Class_2_Gb_GDDR5_DRAM.html



Zwischen Verfügbarkeit und Bezahlbarkeit besteht bei diesen HighEnd-Speichern ein wesentlicher Unterschied. Als die 5000er Serie rauskam, waren 3000 MHz auch schon verfügbar.








Wieviel Leistung koennten sie im schlimmsten Fall im Durchschnitt verlieren? Maximal 10%? Ich will hoffen dass die Geschichte mit dem Optimierungs-Schalter nicht genauso lange dauert wie mit der Supersampling-Geschichte heh....


Für 10% mehr in einem Benchmark würden einige Manager ihre eigene Mutter eigenhändig töten. Manche auch schon für 2% ...

Coda
2010-08-27, 12:34:22
Weil keine neue Fertigung zur Verfügung steht und daher jeder Performancegewinn mit mehr Chipfläche und mehr Verlustleistung erkauft werden muß. Das limitiert alle Bemühungen zumindest im HighEnd-Bereich sehr deutlich. Bei den kleineren Chips ist natürlich mehr möglich, dies ist dann eine Frage der Wirtschaftlichkeit.
Die Performance gibt sich aber ganz bestimmt nicht nur aus der Chipfläche.

RV870 hat irgendwo gewaltige Bottlenecks, sonst wäre er noch wesentlich schneller.

Ailuros
2010-08-27, 12:46:05
Für 10% mehr in einem Benchmark würden einige Manager ihre eigene Mutter eigenhändig töten. Manche auch schon für 2% ...

So lange default AF auf den gleichen wie heutigen Ebenen laeuft sollte es kein Problem sein. High Quality ist auf heutigen GFs auch nicht total umsonst. xbitlabs uebrigens testet auch heute noch alle GFs mit "high quality" gegen AI default auf Radeons, duerfte aber die Ausnahme sein (und es ist auch ein bloedsinniger Vergleich).

Schlammsau
2010-08-27, 13:43:09
http://img821.imageshack.us/img821/6972/55199758201008262349170.jpg (http://img821.imageshack.us/i/55199758201008262349170.jpg/)

http://we.pcinlife.com/thread-1498296-1-1.html

Die Feature-Tests zu faken hat man sich wohl nicht getraut? :D

Könnte durchaus stimmen.....30% mehr zur 5870, gestehe ich der 6870 schon zu.

deekey777
2010-08-27, 13:45:47
Klar stimmt das. Vorgestern tauchen die IDs der kommenden Generation auf und schwupps gibt es einen GPU-Z-Shot mit der entsprechenden ID.

Schlammsau
2010-08-27, 13:47:57
Klar stimmt das. Vorgestern tauchen die IDs der kommenden Generation auf und schwupps gibt es einen GPU-Z-Shot mit der entsprechenden ID.

Isn Argument....auch wenns nen Fake sein sollte, ich geh trotzdem von einem Leistungsplus von um die 30% im Schnitt aus.
Die Tesselationleistung wird sich wohl verdoppeln......

Gast
2010-08-27, 13:52:19
Na, da lag ich doch mit meinem Tip 25% Leistungsplus ziemlich nah dranne. Vielleicht wirds ja ne Punktlandung:). Und Tesselationleistung nur zu verdoppeln ist zu wenig. Da müsste schon mehr kommen.

Schlammsau
2010-08-27, 13:54:58
Na, da lag ich doch mit meinem Tip 25% Leistungsplus ziemlich nah dranne. Vielleicht wirds ja ne Punktlandung:). Und Tesselationleistung nur zu verdoppeln ist zu wenig. Da müsste schon mehr kommen.

Wofür?
Um in Tesselationbenchmarks gegen die GTX400 Serie zu bestehen?

Gast
2010-08-27, 13:57:05
Ja. Man sollte doch mal versuchen zukunftssichere Karten zu bauen. Eine Verdopplung der Tesselation Performance würde immer noch weit hinter 480 Performance sein.

mapel110
2010-08-27, 13:59:54
Gerade GPU-Z-Screenshots sind doch sowieso immer Fake, weil das Tool keine Daten aus der Karte auslesen kann, sondern ne interne Datenbank hat.

derguru
2010-08-27, 14:01:37
Ja. Man sollte doch mal versuchen zukunftssichere Karten zu bauen. Eine Verdopplung der Tesselation Performance würde immer noch weit hinter 480 Performance sein.
zukunftssichere karten?sowas gibt es nicht.nächstes jahr wird es ganz sicher tesslimitierte games geben.:rolleyes:

Schlammsau
2010-08-27, 14:03:18
Ja. Man sollte doch mal versuchen zukunftssichere Karten zu bauen. Eine Verdopplung der Tesselation Performance würde immer noch weit hinter 480 Performance sein.

Naja, die Tesselation-Leistung limitiert bis Dato noch nicht auf den HD5000ern.
Bis jetzt weiss keiner, wie viel Tesselation in Games eingesetzt werden wird und vor allem, ob es überhaupt grossen Zuspruch seitens der Gameentwickler erhält.
Weiss irgendjemand ob Tesselation in Crysis 2 eingesetzt wird?

Ich bin natürlich kein Profi, aber wie wahrscheinlich ist es, dass Tess über längere Zeit, nur ein Schattendasein fristen wird?

Gast
2010-08-27, 14:06:04
Ich meine gelesen zu haben das Witcher 2 Tesselation verstärkt nutzen wird. Und Witcher 2 wird ja wohl der Oberknaller:)

Gast
2010-08-27, 14:10:32
32 Shader pro Cluster würde die Effizienz deutlich verringern. Schlechtere Branch-Granularität und viel mehr Verschnitt. Die Group-Size ist jetzt schon doppelt so hoch bei AMD als bei NVIDIA.


Warum das denn? Das hängt doch vielmehr mit dem Shader-Compiler zusammen, was du schreibst.
Ich meinte nur ganz simpel, dass die Wavefront-Size von 64 es erlauben würde die Anzahl der Shader in einem Cluster zu verdoppeln (Mit weiterhin einen Shedular pro Cluster). Vom R600/RV670 zum RV770 hat man das auch gemacht und der Performancezuwachs war schon etwas höher als der vom RV770 zum RV870 (wo die Cluster gleich groß blieben),
bei etwa gleich gewachsener Rechenleistung.

Was wäre in diesem Fall verglichen mit der Verdoppelung von RV670 auf RV770 technisch das Problem ?

Coda
2010-08-27, 14:12:47
Warum das denn?
Habe ich doch schon geschrieben. Eine größere Wavefront-Size führt zu größerer Branch-Granularität und mehr Verschnitt.

Das hängt doch vielmehr mit dem Shader-Compiler zusammen, was du schreibst.
Nein. Der Compiler erzeugt nur Code für die einzelnen Threads.

Ich meinte nur ganz simpel, dass die Wavefront-Size von 64 es erlauben würde die Anzahl der Shader in einem Cluster zu verdoppeln (Mit weiterhin einen Shedular pro Cluster). Vom R600/RV670 zum RV770 hat man das auch gemacht und der Performancezuwachs war schon etwas höher als der vom RV770 zum RV870 (wo die Cluster gleich groß blieben),
Hat man nicht. R600, RV670, RV770 und RV870 haben alle eine Wavefront-Size von 64, also 16 VLIWs pro Cluster.

crux2005
2010-08-27, 14:24:08
Wieviel Leistung koennten sie im schlimmsten Fall im Durchschnitt verlieren? Maximal 10%?

Laut nVidia ist es 10-20%:

Long story short: They getting advantages in the range of 10-20% depending on the game through these undocumented and by default active IQ reductions.[...]

Ronny145
2010-08-27, 14:24:23
Gerade GPU-Z-Screenshots sind doch sowieso immer Fake, weil das Tool keine Daten aus der Karte auslesen kann, sondern ne interne Datenbank hat.


Dafür kann man leicht faken und wird von Fakern immer gerne benutzt. Deswegen ist GPU-Z für ein Beweis unbrauchbar. Es erhöht eher den Verdacht. Wenigstens hat er die Bios Version unkenntlich gemacht.

Iruwen
2010-08-27, 14:26:44
Weiss irgendjemand ob Tesselation in Crysis 2 eingesetzt wird?

Wenn DX11 "nachgeliefert" wird dann wohl nur rangefrickelt, also potentiell so überflüssig wie bei Metro...

mapel110
2010-08-27, 14:27:26
Tessellation ist doch nahezu die einzige relevante Neuerung in DX11. Also wirds auch von Entwicklern gefordert worden sein. Für Radeons gibts dann eben 1-2 Stufen weniger Polygone oder non-Tess-Grafik(braucht man sowieso für non-DX11-Hardware) und gut ist.

Ailuros
2010-08-27, 14:45:03
Laut nVidia ist es 10-20%:

Eine Schaetzung oder hat NV einen Treiber fuer Radeons entwickelt um es auch wirklich messen zu koennen?

Coda
2010-08-27, 14:48:59
Tessellation ist doch nahezu die einzige relevante Neuerung in DX11.
Bullshit. Compute Shader sind unglaublich mächtig. Das eröffnet völlig neue Tore. Ich würde das mit SM2 damals vergleichen.

Allerdings ist da derzeit auch nur mit Beschleunigung von Dingen zu rechnen, weil man sonst die Abwärtskompatibilität brechen muss.

Coda
2010-08-27, 14:50:19
Laut nVidia ist es 10-20%:
Ich frag mich immer warum NVIDIA das im Marketing nicht mehr ausschlachtet.

Gast
2010-08-27, 14:51:13
Laut nVidia ist es 10-20%:

Solche Aussagen sind ohnehin unseriös. Wenn AMD ordentliche TMUs verbaut kostet es auch fast nichts, siehe NV.

Gast
2010-08-27, 14:52:05
Hat man nicht. R600, RV670, RV770 und RV870 haben alle eine Wavefront-Size von 64, also 16 VLIWs pro Cluster.

Ich hätte schwören können, sie hätten 8*8 Cluster (R600 und RV670). Hab mich deshalb die ganze Zeit gewundert, wie man die Cluster bei gleicher Wavefront Größe verändern konnte. Sry war mein Fehler.

Fetza
2010-08-27, 14:52:16
Hmmm andersrum warum sollten sie einen >500qmm chip entwickeln wenn es bei AMD mit weniger Transistoren bzw. die Flaeche geht die Leistung gegenueber Evergreen um ein gutes Prozentual zu steigern

Wichtig ist einfach, das man die gtx 480 deutlich schlägt und nicht nur gleichzieht. Sowas erwartet man einfach von einer "neuen generation". Ausser man würde über den preis gehen, was man aber eher bezweifeln kann, wenn man die peise der hd5870 betrachtet. 20% mehrleistung als evergreen finde ich lächerlich wenig und ich denke das sehen die meisten käufer genauso.

Unter 40G ist so ein Gedanke sowieso Bloedsinn.

Warum?

Coda
2010-08-27, 14:54:17
Solche Aussagen sind ohnehin unseriös. Wenn AMD ordentliche TMUs verbaut kostet es auch fast nichts, siehe NV.
Haben sie aber offensichtlich nicht, wie Skalierungstests zeigen. Selbst mit ihren Cheats brechen sie relativ stärker ein.

Ailuros
2010-08-27, 15:10:08
Warum?

Weil es wohl guten Grund gibt dass AMD schon in 2008 das Projekt "grosser single chip" fuer Evergreen unter 40G aufgegeben haben. Gibt es oder gibt es nicht auf AMD's roadmap eine mGPU fuer das Enthusiast Segment?

Mr.Soapdown
2010-08-27, 16:12:40
Ich möchte mal zwei andere Frage stellen. Nehmen wir mal an das sich im Umlauf befinde "Foto" ist kein Fake. Und die 204 GBs stimmen.

Kommen wir jetzt in den Bereich in dem 2x8 Anbindung im CF nicht mehr genügen Durchsatz hat?
Kommen wir jetzt in den Bereich in den alte 1.0 pcie anbindungen deutlich bremsen?

Im HwLuxx hat jemand festgestellt das eine 5970 sehr sehr ähnliche Punkte auswirft.

Watt nun?

john carmack
2010-08-27, 16:38:59
Steht das hier schon irgendwo? Keine lust alles durchzulesen!

Erster Benchmark einer Radeon HD 6870?

http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/august/erster-benchmark-einer-radeon-hd-6870/

Eggcake
2010-08-27, 17:42:40
Ja, eine Seite zuvor :P

mironicus
2010-08-27, 18:28:23
Wie groß wird der Chip? Stromverbrauch noch immer geringer als beim Fermi? Radeon 6700 kommt auch?

Schrotti
2010-08-27, 18:35:53
Wohl eher nicht.

Irgendwo hab ich gestern was von 6+8 Polig gelesen (ich weiß nur nicht mehr auf welcher Seite).

Gast
2010-08-27, 18:40:50
Wohl eher nicht.

Irgendwo hab ich gestern was von 6+8 Polig gelesen (ich weiß nur nicht mehr auf welcher Seite).
Die 6870 wird trotzdem unter einer GTX 480 liegen, was die Verlustleistung betrifft.
Dabei auch noch schneller sein.
Das wird Nvidia die kommenden Monate sicherlich schwer machen.
Bin mal gepannt, wie Nvidia gegenhalten will...

V2.0
2010-08-27, 18:43:07
Bin mal gepannt, wie Nvidia gegenhalten will...

Können Sie nicht.

Gast
2010-08-27, 18:45:06
6+8 Polig heißt nur, dass eine Leistungsaufnahme von 225 Watt überschritten werden kann!

Die tatsächliche Leistungsaufnahme oder sogar die TDP können aber auch darunter liegen und die beiden zusätzlichen Pole geben Übertaktern mehr Spielraum.

So wird es denke ich auch bei Cayman XT sein. Ich tippe mal auf 30 - 40Watt Mehrverbrauch als Cypress XT.

Gast
2010-08-27, 18:48:03
Die 6870 wird trotzdem unter einer GTX 480 liegen, was die Verlustleistung betrifft.
Dabei auch noch schneller sein.
Das wird Nvidia die kommenden Monate sicherlich schwer machen.
Bin mal gepannt, wie Nvidia gegenhalten will...

Ja, schneller wird sie sein (Ich sag mal ca.10 Prozent). Aber wie kommst du darauf das der Stromverbrauch unter GTX 480 liegt? Wie gesagt, es kommen mehr Shader, mehr Textureinheiten, schnellerer Speicher (Vielleicht auch grössere Speicheranbindung) und zu guter letzt immer noch 40nm. Also mal abwarten wie es beim Stromverbrauch aussieht. Ich wäre nicht so optimistisch.

Spacedust
2010-08-27, 18:53:58
Info von Medion zur Verfügbarkeit der neuen ATi Radeon 6xxx Grafikkarten:

In Q4 2010 werden noch die neuen Midrange Radeon 6xxx Grafikkarten verfügbar sein.

Die Radeon HD 6850 und HD 6870 werden der Presse dann aber erst zur CES 2011 in Las Vegas vorgestellt und sind dann ab diesem Datum lieferbar. Das heisst definitiv, dass es keine neuen High End Radeon HD 6xxx Grafikkarten in diesem Jahr mehr geben wird.

Gast
2010-08-27, 18:55:24
@Spacedust

Haste auch einen link dazu? Würde mich schon interessieren.

Gast
2010-08-27, 18:56:52
Weil eigentlich hab ich schon dieses Jahr mit einer 6870 gerechnet. Siehe auch Quellen CB, PCGH.

Gast
2010-08-27, 19:00:58
Der Stromverbrauch wird steigen das ist absolut sicher, die Frage ist nur wieviel.
Ich denke aber auch, dass man sich dennoch unterhalb einer GTX480 bewegen wird und ich bin niemand der sich über eine höhere Leistungsaufnahme beklagt solange das Verhältnis zur gebotenen Leistung auch passt.

Was ich auch sehr interessant finde ist die Tatsache, dass der Nachfolger der HD5970 nämlich Antilles (HD6970) angeblich mit den vollen Taktraten der beiden GPUs laufen soll, d.h. wohl das AMD nun endgültig auf die PCI-E Specs sch... Geht ja jetzt auch garnicht mehr anders. Außerdem wird auch spannend ob wirklich sogar eine zweite MGPU-Karte kommt (HD6950). Die selben Gerüchte über eine kleinere MGPU-Karte gab es bei den HD5k ja auch und sogar Fotos eines vermeintlichen Prototypen. Letztendlich ist die Karte aber nie erschienen.

Spacedust
2010-08-27, 19:13:42
@Spacedust

Haste auch einen link dazu? Würde mich schon interessieren.

=> mündliche Info von Medion, mehr kann ich dazu nicht sagen, wenn ich anonym bleiben will ....

Gast
2010-08-27, 19:16:19
Ich fänds Schade. Dann werde ich wohl dieses Jahr zu einer 480 greifen müssen. Hatte eigentlich vor noch zu warten und meine 260 als PhysX Karte einzusetzen. Damn, da gehen sie hin meine Pläne. Naja, vielleicht tut sich doch nochwas bis Weihnachten.

Gast
2010-08-27, 19:23:17
Ja, schneller wird sie sein (Ich sag mal ca.10 Prozent). Aber wie kommst du darauf das der Stromverbrauch unter GTX 480 liegt? Wie gesagt, es kommen mehr Shader, mehr Textureinheiten, schnellerer Speicher (Vielleicht auch grössere Speicheranbindung) und zu guter letzt immer noch 40nm. Also mal abwarten wie es beim Stromverbrauch aussieht. Ich wäre nicht so optimistisch.
Die 6870 wird wohl unter 200 Watt bei Spielelast bleiben.
Die GTX 480 liegt bei ca. 230 Watt.
Die denke bei der 6870 an 170-180 Watt Spielelast. ;)

Gast
2010-08-27, 19:27:22
170-180 Watt im 40nm Verfahren? Daran kann ich nicht glauben. Ich meine wäre schön wenns so kommen würde, aber ich glaube nicht daran;)

Gast
2010-08-27, 19:29:12
Was solls solange man mehr Leistung als die GTX480 liefert und etwas weniger Strom verballert hat man das Effizienzrennen gewonnen.

Gast
2010-08-27, 19:29:53
Was spricht denn dagegen?
Ein 5870 braucht auch nur ca 130 Watt.
Und 25% schneller? ;)

Gast
2010-08-27, 19:31:25
Ich hoffe nur die 6870 kommt noch dieses Jahr. Druck auf NV-----NV senkt Preise----ATI zieht nach. Also bitte bitte dieses Jahr. Wäre schön für uns Kunden.

Gast
2010-08-27, 19:34:04
Was spricht denn dagegen?
Ein 5870 braucht auch nur ca 130 Watt.
Und 25% schneller? ;)


Naja mal abwarten, mehr Leistung bedeutet auch aufgepimpter Chip. Abwarten.

mironicus
2010-08-27, 20:03:32
Zuerst werden dann wohl die 6750 und die 6770 starten, oder?

Schlammsau
2010-08-27, 20:22:23
Zuerst werden dann wohl die 6750 und die 6770 starten, oder?
Das kann ich mir eigentlich nicht vorstellen, bis jetzt wurde jede neue Grafikkartengeneration mit der schnellsten Varaiante gestartet.

Gast
2010-08-27, 20:52:33
Naja mal abwarten, mehr Leistung bedeutet auch aufgepimpter Chip. Abwarten.
Einen aufgepimmten Chip hat uns Nvidia die letzten paar Jahre vorgestellt. ;)
Dies ist eine ganz neue Generation. :)

crux2005
2010-08-27, 21:46:32
Eine Schaetzung oder hat NV einen Treiber fuer Radeons entwickelt um es auch wirklich messen zu koennen?

Keine Ahnung. Das hat L. Weinand nicht erläutert.

Gast
2010-08-27, 23:44:52
=> mündliche Info von Medion, mehr kann ich dazu nicht sagen, wenn ich anonym bleiben will ....

Der Info schenke ich keinen Glauben. AMD wird sich das Weihnachtsgeschäft sicher nicht entgehen lassen wegen 3 Wochen, sämtliche HW-Seiten sprechen sogar von einer Vorstellung im Oktober.

Gast
2010-08-27, 23:48:12
wenn die HD6870 20-30% schneller als eine GTX480 wird, sind 500 € genau der richige Preis für so eine Karte.

Gast
2010-08-28, 00:35:51
unrealistisch - eher 400 liste und real bei guter verfügbarkeit dann ab 370 im versand. knapp oberhalb der 5870. der 6870 chip sollte flächenmäßig viel näher an der 5870 als an der 480 sein, dazu wird die ausbeute weniger mistig sein als vor einem jahr. außerdem ham sie diesmal den vorteil, vom start weg mehr wafer bestellen zu können, daß sie wissen, wo sie stehen, technisch und leistungsmäßig.

mich wunderts auch, daß die meisten der 6870 angenommene 30% mehr rohleistung plus tess auf augenhöhe der 480 ned zutraun. weniger würd mich ziemlcih wundern...

Hugo78
2010-08-28, 08:23:47
unrealistisch - eher 400 liste und real bei guter verfügbarkeit dann ab 370 im versand. knapp oberhalb der 5870. der 6870 chip sollte flächenmäßig viel näher an der 5870 als an der 480 sein, dazu wird die ausbeute weniger mistig sein als vor einem jahr. außerdem ham sie diesmal den vorteil, vom start weg mehr wafer bestellen zu können, daß sie wissen, wo sie stehen, technisch und leistungsmäßig.

Letztlich bestimmt Angebot und Nachfrage den Preis.

ATVIDIA
2010-08-28, 12:06:44
HD 6870 Benchmarks aufgedaucht ?

http://ht4u.net/news/22589_erste_benchmarks_einer_radeon_hd_6870/
http://www.kitguru.net/components/graphic-cards/faith/amd-radeon-hd-6870-benchmark-performance/
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16325-erster-benchmark-einer-ati-radeon-hd-6870.html

nagus
2010-08-28, 20:03:00
Zuerst werden dann wohl die 6750 und die 6770 starten, oder?

Die 6870/6850 und 6770/6750 werden GARANTIERT gleichzeitig gelauncht. Allerdings wäre es nicht verwunderlich, wenn es die kleineren (6770/6750) um ein paar Wochen früher in die Läden schaffen. Vielleicht sagt man auch von vornherein, dass die kleinen im Oktober kommen und die größeren ab November... vielleicht kommt auch hier dieses Gerücht mit den früheren Start der kleinen Ableger.

Gast
2010-08-28, 20:06:19
sobald erste Karten im Handel gesichtet werden, verkaufen alle ihre HD5000 Karten ;) aktuell gibts noch für eine 5850 ca. 180-200 €, 5870 ca. 270-280 €, 5770 ca. 80-100 €

Die Preise der HD6000 sollten dieses Jahr 20% höher als der HD5000 liegen, soabld AMD genügend HD6000 Chips auf Lager hat, beginnt der HD5000 abverkauf

Fetter Fettsack
2010-08-28, 21:23:46
Die 6870/6850 und 6770/6750 werden GARANTIERT gleichzeitig gelauncht

Weil?

Inqui
2010-08-28, 21:27:47
Die 6870/6850 und 6770/6750 werden GARANTIERT gleichzeitig gelauncht. Allerdings wäre es nicht verwunderlich, wenn es die kleineren (6770/6750) um ein paar Wochen früher in die Läden schaffen. Vielleicht sagt man auch von vornherein, dass die kleinen im Oktober kommen und die größeren ab November... vielleicht kommt auch hier dieses Gerücht mit den früheren Start der kleinen Ableger.

a)"GARANTIERT": Quelle?
b)"gleichzeitig gelauncht": und doch kommen die kleinen früher? oha

Dural
2010-08-28, 21:49:13
wäre wirtschaftlich und marketing technisch extrem unklug zwei GPUs / vier grafikkarte gleichzeitig auf dem markt zu werfen, also nein sicher nicht garantiert auch wenn man könnte...

naja nagus lebt so wie so in einer AMD/ATI welt die nicht existiert von dem her... aussagen wie GF100 leistungsmässig unter RV870 und nur 40% schneller als GT200 kann man ja hier im forum selber nach lesen ;) übrigens haben wir damals nicht gewettet?!? :D deine 50% plus zum RV870 halt ich ja schon mal fest :cool:

ich denke jetzt einfach mal das sich AMD (RV970) und NV (GF100X) sich einfach nur annähern werden und zwar in fast jedem bereich... ;)

LovesuckZ
2010-08-28, 23:24:51
Es macht überhaupt keinen Sinn, das Mid-Range zu erst zu veröffentlichen. Also wenn in diesem Jahr etwas kommt, dass ist es das High-End mit dem Mid-Range.
Sollte AMD wirklich nur eine Karte auf 5850 Niveau veröffentlichen, dann machen sie sich mehr als lächerlich.

Gast
2010-08-29, 00:01:10
Lächerlicher ist es, wenn AMD schon wieder nur minimale Änderungen durchführt und damit eine komplett neue Generation rechtfertigt. So wie HD2-3-4.

Es scheint als ob man hier die Namen durchrusht, da kommt doch keiner mehr, nichtmal die Konkurrenz mit.
Man war das toll früher, da gabs grobe Änderungen mit neuen Generationen, damit meine ich die Zeit bis einschließlich X1800.

Der_Korken
2010-08-29, 00:06:35
Lächerlicher ist es, wenn AMD schon wieder nur minimale Änderungen durchführt und damit eine komplett neue Generation rechtfertigt. So wie HD2-3-4.

Es scheint als ob man hier die Namen durchrusht, da kommt doch keiner mehr, nichtmal die Konkurrenz mit.
Man war das toll früher, da gabs grobe Änderungen mit neuen Generationen, damit meine ich die Zeit bis einschließlich X1800.

Bei der HD2k auf HD3k gebe ich dir Recht, ansonsten ist die Bezeichnung "minimale Änderungen" nicht richtig. HD2k brachte eine komplett andere Architektur und DX10 mit, HD4k hatte 2,5x mal so viele Einheiten und damit erheblich mehr Leistung als der Vorgänger und HD5k hat DX11 und ebenfalls deutlich mehr Leistung bei kaum größerem Verbrauch. Radeon X100 und X1k waren auch nicht "mehr".

Gast
2010-08-29, 00:06:53
8800GTS > 9800GTX > 9800 GTX+ > GTS250

8800GT > 9800 GT > GT220

wer verarscht die Kunden? > Nvidia

ATI bringt mit jeder neuen Generation ca. 50-80% mehrleistung mit, die Namen bei ATI sind alle gerechtfertigt!

Psychopat
2010-08-29, 12:19:22
Mobility 4650 = Mobility 560v = Mobility 5165

Rebranding betreibt ATI genauso.

ATI bringt mit jeder neuen Generation ca. 50-80% mehrleistung mit, die Namen bei ATI sind alle gerechtfertigt!

Geeeenaauuu....
Alleine mit diesem Satz hast du dich disqualifiziert.

Dural
2010-08-29, 12:23:11
vorallem 9800GT - GT220 lol du meinst wohl GT240 aber auch das ist noch lol ;)

aber der vergleich ist super, die grossen änderungen bei AMD anpreisen und dann mit so was ankommen :freak: denn genau das macht AMD seit der 2000 serie ;)

NV hat hingegen seit dem G80 ihre "architektur" viel deutlicher weiter entwickelt als es AMD bis heute getan hat und das ist fakt und ich glaube das es nicht mal der RV970 übertreffen kann, wie auch ist ja schon länger bekannt das es nichts neues ist...

heute muss man (leider) sagen das NV wohl den falschen weg gegangen ist, sie hätten viel lieber ihren G80 sturr wie AMD in die breite ziehen sollen und die ALUs zu verkleinern, hätte ihnen x milionen entwicklungskosten gespart und würden wohl gleich gut da stehen. traurig aber war das heut zu tage grosse entwicklungen nicht mal mehr belohnt werden, das ist ein rückschritt! und ich hoffe ja das NV weiterhin an den grossen DIEs festhält, müssen sie auch fast da AMD immer wie breiter kommt... ich könnte mir beim RV970 schon gut 400mm2 vorstellen...

LadyWhirlwind
2010-08-29, 12:31:20
Eigen wir uns doch darauf, das beide Seiten ab und zu rebranding betreiben, und wie und wie fest welche Architektur weiter entwickelt wurde, kann jeder für sich selber beurteilen, Benches gibts ja im Netz zu genüge.

Viel Spannender ist doch die Frage, kann ATI mit den 6xxx-er Reihe zu Fermi leistungsmässig aufstossen, bzw. den überholen und dabei bessere Verbrauchswerte haben?

Gast
2010-08-29, 12:33:20
und ich glaube das es nicht mal der RV970 übertreffen kann, wie auch ist ja schon länger bekannt das es nichts neues ist

Sie brauchen auch nichts neues. Wozu auch? Man ist schon lange Effizienter pro mm² und Effizienter pro Watt. NV hat nur Bruteforce.

Gast
2010-08-29, 12:38:08
Eigen wir uns doch darauf, das beide Seiten ab und zu rebranding betreiben, und wie und wie fest welche Architektur weiter entwickelt wurde, kann jeder für sich selber beurteilen, Benches gibts ja im Netz zu genüge.


NV hat Rebranding bis zum Exzess betrieben daran überhaupt kein Zweifel. AMD war da deutlich diskreter und hat erst in jüngster Zeit wieder damit angefangen, was auch nicht wundert nach den schamlosen Aktionen von NV. Da wäre man ja blöd nicht auch mitzumachen.

Gast
2010-08-29, 12:40:47
Neues von der ominösen HD6870?. Wieder ca. 30% schneller als HD5870.

http://forum.beyond3d.com/showpost.php?p=1466438&postcount=1442

Gast
2010-08-29, 12:43:23
Neues von der ominösen HD6870?. Wieder ca. 30% schneller als HD5870.

http://forum.beyond3d.com/showpost.php?p=1466438&postcount=1442

Die erste Karte die Crysis VeryHigh flüssig in FullHD schafft. :)

Gast
2010-08-29, 12:48:01
Auch Apple scheint die neuen Southern Islands GPUs sehr bald einzusetzen. Einträge in neuersten Mac OS X 10.6.5 beta:

224,CAYMAN GL XT (6701),NI CAYMAN
225,CAYMAN GL XT (6702),NI CAYMAN
226,CAYMAN GL XT (6703),NI CAYMAN
227,CAYMAN GL PRO (6704),NI CAYMAN
228,CAYMAN GL PRO (6705),NI CAYMAN
229,CAYMAN GL (6706),NI CAYMAN
230,CAYMAN GL LE (6707),NI CAYMAN
231,CAYMAN GL (6708),NI CAYMAN
232,CAYMAN GL (6709),NI CAYMAN
233,CAYMAN XT (6718),NI CAYMAN
234,CAYMAN PRO (6719),NI CAYMAN
235,ANTILLES PRO (671C),NI CAYMAN
236,ANTILLES XT (671D),NI CAYMAN
237,BLACKCOMB XT/PRO (6720),NI BLACKCOMB
238,BLACKCOMB LP (6721),NI BLACKCOMB
239,BLACKCOMB XT/PRO Gemini (6724),NI BLACKCOMB
240,BLACKCOMB LP Gemini (6725),NI BLACKCOMB
241,BARTS GL XT (6728),NI BARTS
242,BARTS GL PRO (6729),NI BARTS
243,BARTS XT (6738),NI BARTS
244,BARTS PRO (6739),NI BARTS
245,WHISTLER XT (6740),NI WHISTLER
246,WHISTLER PRO/LP (6741),NI WHISTLER
247,WHISTLER XT/PRO Gemini (6744),NI WHISTLER
248,WHISTLER LP Gemini (6745),NI WHISTLER
249,ONEGA (6750),NI TURKS
250,TURKS XT (6758),NI TURKS
251,TURKS PRO (6759),NI TURKS
252,SEYMOUR XT/PRO (6760),NI SEYMOUR
253,SEYMOUR LP (6761),NI SEYMOUR
254,SEYMOUR XT/PRO Gemini (6764),NI SEYMOUR
255,SEYMOUR LP Gemini (6765),NI SEYMOUR
256,CAICOS GL PRO (6768),NI CAICOS
257,CASPIAN PRO (6770),NI CAICOS
258,CAICOS PRO (6779),NI CAICOS

ATIRadeonX3000AMDCaymanHardware
ATIRadeonX3000AMDBartsHardware
ATIRadeonX3000AMDTurksHardware
ATIRadeonX3000AMDCaicosHardware

Radeon Northern Islands Unknown Prototype
Radeon Cayman Unknown Prototype
Radeon Cayman GL PRO Prototype
Radeon Cayman GL XT Prototype
Radeon Caicos Unknown Prototype
Radeon Seymour LP Prototype
Radeon Seymour PRO/XT Prototype
Radeon Caicos PRO Prototype
Radeon Turks Unknown Prototype
Radeon Whistler PRO/LP Prototype
Radeon Whistler XT Prototype
Radeon Turks PRO Prototype
Radeon Turks XT Prototype
Radeon Barts Unknown Prototype
Radeon Blackcomb LP Prototype
Radeon Blackcomb XT/PRO Prototype
Radeon Barts PRO Prototype
Radeon Barts XT Prototype
Radeon Park LP Prototype

http://forum.beyond3d.com/showpost.php?p=1466338&postcount=1434

Gast
2010-08-29, 12:49:51
Neues von der ominösen HD6870?. Wieder ca. 30% schneller als HD5870.

http://forum.beyond3d.com/showpost.php?p=1466438&postcount=1442

Warum hat er das aber nicht gepostet:

http://image155.poco.cn/mypoco/myphoto/20100829/18/55199758201008290332101427283860315_000.jpg

Gast
2010-08-29, 12:50:29
Bei der HD2k auf HD3k gebe ich dir Recht, ansonsten ist die Bezeichnung "minimale Änderungen" nicht richtig. HD2k brachte eine komplett andere Architektur und DX10 mit, HD4k hatte 2,5x mal so viele Einheiten und damit erheblich mehr Leistung als der Vorgänger und HD5k hat DX11 und ebenfalls deutlich mehr Leistung bei kaum größerem Verbrauch. Radeon X100 und X1k waren auch nicht "mehr".
HD2 war ein Reinfall, gut neue Architektur und D3D10 rechtfertigen den Namen.
Alles danach waren mehr oder weniger Refreshes.

Ich meine die Zeiten wo neue Generationen deutlich vor ihren Vorgängern lagen. Etwas wie null mehr Performance Namens HD2 ist schon schlimm genug, aber dann noch Updates als neue Generation, das ist schlimm.
9000er zu Xxx zu X1xxx, das waren noch Generationen. Updates wurden noch innerhalb der selben Generation verpackt, siehe 9800, X850, X1900. Wobei man es bei der X850 ziemlich heftig getrieben hat, 20Mhz mehr oder so ähnlich.
Jedenfalls gibts das heute nicht mehr, die Refreshklasse ist verschwunden, man rusht zur nächsten Generation weiter.

Gast
2010-08-29, 12:53:46
Warum hat er das aber nicht gepostet:

http://image155.poco.cn/mypoco/myphoto/20100829/18/55199758201008290332101427283860315_000.jpg

Das ist mehr als doppelt so schnell wie eine GTX480!!!!

Gast
2010-08-29, 13:01:01
Das ist mehr als doppelt so schnell wie eine GTX480!!!!

wohl eher Gleichstand, oder?

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/23/#abschnitt_tessellation

Gast
2010-08-29, 13:02:47
Na nun mal ganz unruhig. Das ist bei weitem nicht doppelt so schnell. Eine GTX480 macht glaube ich so ca. 30Fps bei den Einstellungen, aber trotzdem schon wär das schon mal ein ganzes Stück schneller. Da ist dann auf Treiberseite auch noch was drin.

Gast
2010-08-29, 13:03:09
wohl eher Gleichstand, oder?

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/23/#abschnitt_tessellation

Nein, das ist Heaven 2.0 extreme Tesslation. Da schafft eine GTX480 um die 17fps in dem Setting.

BlackBirdSR
2010-08-29, 13:04:03
Das ist mehr als doppelt so schnell wie eine GTX480!!!!

Hab keine Vergleichswerte im Kopf, aber wenn das so wäre, macht das die ganzen Ergebnisse dann IMO unglaubwürdig... oder nicht?

Gast
2010-08-29, 13:05:49
wohl eher Gleichstand, oder?

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/23/#abschnitt_tessellation

Das ist aber nicht mit Extrem Tessellation.

http://www.hexus.net/content/item.php?item=25391&page=6

Allerdings nur in 1920x1080.

Gast
2010-08-29, 13:06:14
Nein, das ist Heaven 2.0 extreme Tesslation. Da schafft eine GTX480 um die 17fps in dem Setting.

Okay mein Fehler, eine GTX480 macht um die 30fps gerade getestet. Wir sprechen hier nicht von extreme@extreme wie im Benchforum!

Gast
2010-08-29, 13:07:34
Das ist aber nicht mit Extrem Tessellation.

http://www.hexus.net/content/item.php?item=25391&page=6

Allerdings nur in 1920x1080.

Ja danke. Wie schon gesagt um die 30fps. Also wäre die 6870 hier 20% schneller als eine GTX480.

BlackBirdSR
2010-08-29, 13:08:38
Ja danke. Wie schon gesagt um die 30fps. Also wäre die 6870 hier 20% schneller als eine GTX480.

Spielt die CPU dabei eine Rolle? Die hat ganz schön Power aus der B3D Quelle.

Gast
2010-08-29, 13:09:53
Dass wären gut 20% mehr als eine GTX480. Allerdings auf die Ergebnisse einer GTX480 in 1920x1080 bezogen, ob die 120 Pixel mehr was ausmachen weiß ich nicht.

Gast
2010-08-29, 13:10:42
Spielt die CPU dabei eine Rolle? Die hat ganz schön Power aus der B3D Quelle.

Nein, wenn ich mit dem Takt um ein Ghz runter gehe verliere ich nur im Nachkommbereich.

Gast
2010-08-29, 13:12:09
Nein, das ist Heaven 2.0 extreme Tesslation. Da schafft eine GTX480 um die 17fps in dem Setting.

hier schafft sie 31fps:

http://www.8ware.ch/images8ware/gtx480/gtx480bench3.png

http://www.8ware.ch/forum/index.php?page=Thread&threadID=51

Gast
2010-08-29, 13:12:58
hier schafft sie 31fps:

http://www.8ware.ch/images8ware/gtx480/gtx480bench3.png

http://www.8ware.ch/forum/index.php?page=Thread&threadID=51

Auflösung der HD6800 war 1920x1200.

Gast
2010-08-29, 13:15:23
hier schafft sie 31fps:

http://www.8ware.ch/images8ware/gtx480/gtx480bench3.png

http://www.8ware.ch/forum/index.php?page=Thread&threadID=51

Cool....dann können wir hier ja alle Lovesuckz in Zukunft zustimmen, das Tesselation das wichtigste DX11 Feature ist.

AMD....tesselation done right :freak:

;)

MR2
2010-08-29, 13:16:14
345.600 Pixel wollen nicht unter den Tisch gekehrt werden;-)

BlackBirdSR
2010-08-29, 13:16:32
Cool....dann können wir hier ja alle Lovesuckz in Zukunft zustimmen, das Tesselation das wichtigste DX11 Feature ist.

AMD....tesselation done right :freak:

;)

1. Glaube ich die Werte noch nicht ganz.

2. Wäre ich da nicht der Meinung von LZ, selbst wenn die neue Radeon 3x so schnell wäre. Es ist einfach noch kein wichtiges Feature, egal ob ATI oder Nvidia darin schneller ist. Ich denke so geht es vielen weiteren auch.

derguru
2010-08-29, 13:16:48
beachtlich ist auch der crysis bench,eine 5870 macht um die 33 fps.

MR2
2010-08-29, 13:23:35
guru, haste da mal vergleichbenchs? finde nur Crysis Werte mit 8xAA bei THG oder eben nur Warhead

derguru
2010-08-29, 13:25:28
ich hab hier die werte genommen ,das entspricht ca. eine 5870.(eher sogar ein zacken mehr als eine 5870)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8234163&postcount=369

Gast
2010-08-29, 13:27:20
guru, haste da mal vergleichbenchs? finde nur Crysis Werte mit 8xAA bei THG oder eben nur Warhead

hier gibt es auch Werte: http://techpowerup.com/reviews/Zotac/GeForce_GTX_460_Amp_Edition/10.html

(aus dem Beyond3D-Forum)

MR2
2010-08-29, 13:27:44
hier war ein mistiges Pic!

Gast
2010-08-29, 13:28:01
ich hab hier die werte genommen ,das entspricht ca. eine 5870.(eher sogar ein zacken mehr als eine 5870)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8234163&postcount=369

Auch das ist die falsche Auflösung.

derguru
2010-08-29, 13:31:12
macht kaum was aus.jetzt macht mal hier nicht den korintenkacker,bei techpower ist es 33fps also what.

Gast
2010-08-29, 13:32:04
http://i222.photobucket.com/albums/dd183/nirun_rajah/heavenEx.jpg

Ähm SLi? Oder warum sind die Werte so viel höher als bei den ganzen Seiten?

Gast
2010-08-29, 13:34:35
Hä das kann doch nur ein SLI-System sein.

Der_Korken
2010-08-29, 13:34:55
9000er zu Xxx zu X1xxx, das waren noch Generationen. Updates wurden noch innerhalb der selben Generation verpackt, siehe 9800, X850, X1900. Wobei man es bei der X850 ziemlich heftig getrieben hat, 20Mhz mehr oder so ähnlich.
Jedenfalls gibts das heute nicht mehr, die Refreshklasse ist verschwunden, man rusht zur nächsten Generation weiter.

Das ist heute auch nicht mehr so einfach wie früher. Die Radeon 9700 galt damals mit 210mm² Die-Größe schon als riesig. Die X1800 lag dann im 300er-Bereich, die 8800GTX bei 480mm² und mittlerweile sind wir bei über 500mm². Leider ist damit vorerst Schluss, denn gleichzeitig ist auch der Stromverbrauch immer extremst angewachsen von früher vielleicht <100W auf mittlerweile >200W.

Wenn es kein Problem darstellen würde, einen Chip mit >600mm² und >300W zu bringen, könnte dir ATI deine 100% Mehrleistung auch noch in 40nm mit der 6870 bringen. Man stößt da nur mittlerweile an die technischen Grenzen. Das macht es notwendig, zwischendurch mal einen Schritt auszusetzen, wie bei der HD3k, um den Stromverbrauch im Griff zu behalten. Deswegen wird die 6870 wohl auch nur um die 30% zulegen können (bei Tesselation natürlich mehr), alles andere halte ich schon für abgehoben.

MR2
2010-08-29, 13:37:52
sorry, das falsche erwischt. Sollten so um die 30FPS sein

Gast
2010-08-29, 13:40:05
sorry, das falsche erwischt. Sollten so um die 30FPS sein

passt:

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=16

30.3 FPS

Gast
2010-08-29, 13:45:44
passt:

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=16

30.3 FPS

Ergänzung:

Vor allem der Vergleich mit der HD5870 ist aufschlussreich:

average FPS: 2,12x so schnell

minimal FPS: 3,14x so schnell !!!

=> spricht dafür, das die Tesselation-Leistung jetzt nicht mehr bei 1/3 der Taktfrequenz rumhängt.

=> vor allem bei den kleineren GPUs wird das interessant. Vielleicht sind die ja jetzt um einiges schneller als die Mainstream-GPUs von Nvidia.

Gast
2010-08-29, 13:48:57
Charlie spekuliert ca. 380mm^2 für Cayman. Das wäre natürlich eine beeindruckende Leistung von AMD und würde die Fermi-Architektur ja schon fast ad absurdum führen.

Gast
2010-08-29, 13:57:58
und weil wir hier gerade dabei sind:

Meine Spekulation was die neuen 68xx GPUs für Units haben:

96 TMU's

1536 ALU's in Vierer-Gruppen.

Zumindest passt das ganz gut zu den Gerüchten.