PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17

Gast
2010-09-05, 20:21:54
Ihr tut ja so als ob es SSAA noch nie vorher bei ATI gegeben hätte.
Das gab es schon bei der 8500er und bei Karten für Apple.

Oh das ist aber toll...sehr praxisnah

Der_Korken
2010-09-05, 22:50:43
Die Performance nimmt aber nicht mehr in dem Maße zu.
Und wenn man sich länger "up-to-date" fühlt dann ist das ein guter Hinweis darauf dass auf Softwareseite der Fortschritt fehlt;)

Dass die Performance nicht mehr viel wächst, hat auch andere Gründe, nämlich dass der Stromverbrauch von GPUs und auch deren Die-Größe in den letzten Jahren konstant zugenommen hat. Bestes Beispiel ist dcoh die kommende 6000er-Serie. Wo soll da noch großartig viel Performance herkommen? 40nm ist eben der Stand der Technik und mit 340mm² und knapp 200W TDP von ATI bereits zu großten Teilen ausgereizt.

Gast
2010-09-05, 23:52:25
Dass die Performance nicht mehr viel wächst, hat auch andere Gründe, nämlich dass der Stromverbrauch von GPUs und auch deren Die-Größe in den letzten Jahren konstant zugenommen hat. Bestes Beispiel ist dcoh die kommende 6000er-Serie. Wo soll da noch großartig viel Performance herkommen? 40nm ist eben der Stand der Technik und mit 340mm² und knapp 200W TDP von ATI bereits zu großten Teilen ausgereizt.


naja finde ich etwas zu persimistisch,
vlt führen die architekturänderungen ja doch zu einen unerwartet besseren watt pro fps und pro mm² -Verhältnis. Prinzipiell ist sowas möglich und der 40nm Prozess ist ja auch schon ein Jahr alt (und sollte endlich ma halbwegs fuktionieren)

Gasti
2010-09-06, 00:30:44
Dass die Performance nicht mehr viel wächst, hat auch andere Gründe, nämlich dass der Stromverbrauch von GPUs und auch deren Die-Größe in den letzten Jahren konstant zugenommen hat. Bestes Beispiel ist dcoh die kommende 6000er-Serie. Wo soll da noch großartig viel Performance herkommen? 40nm ist eben der Stand der Technik und mit 340mm² und knapp 200W TDP von ATI bereits zu großten Teilen ausgereizt.

Sry aber es sind deutlich mehr als 340qmm technisch machbar.
Ein größerer Chip mit niedriger Spannung und Takt währe sicher noch deutlich effizienter und leistungsfähiger als RV870.

Dural
2010-09-06, 08:27:48
GF100 <---> GF104 :rolleyes:

Gast
2010-09-06, 09:23:10
Cayman XT

http://img819.imageshack.us/img819/3161/51015181283754251771102.jpg (http://img819.imageshack.us/i/51015181283754251771102.jpg/)

http://www.chiphell.com/thread-121384-1-1.html

Gast
2010-09-06, 09:30:31
Soll aber nur ein Test-Sample sein und nicht die finale Retail-Version. Für mich deutet insgesamt einiges darauf hin, dass SI wesentlich mehr wird als ein einfacher Refresh. Ich glaube wir werden positiv überrascht werden.

Gast
2010-09-06, 09:48:36
Angeblich Caicos (HD6300). Chiphell bzw. nApoleon dreht wieder auf. Der Typ hatte auch als erster gesagt, dass RV770 800SP hat und er hatte glaube ich auch die ersten Fotos der HD5870 geleakt.

http://www.xtremesystems.org/forums/showpost.php?p=4540228&postcount=396

Gast
2010-09-06, 09:58:41
Cayman XT

http://img819.imageshack.us/img819/3161/51015181283754251771102.jpg (http://img819.imageshack.us/i/51015181283754251771102.jpg/)

http://www.chiphell.com/thread-121384-1-1.html

Sieht mir schwer nach Fotomontage aus. Die Anschlüsse mit 2x DVI, 1x HDMI, 2x Mini-DP geistern ja schon länger durchs Netz und dieser Teil des Fotos sieht aus korrekt aus, aber hinten wirkt das nur noch nach Photoshop.

Gast
2010-09-06, 10:07:29
Das Foto ist glaube ich schon real nur ist es stark beschnitten, d.h. das Mainboard usw. sind abgeschnitten was man ja auch an den halben Stromanschlüssen sieht.

deekey777
2010-09-06, 10:13:47
Korrekt. Wäre extreme Negativ-PR für AMD, auf so eine bescheuerte Idee kann man gar nicht kommen.
Ich werfe mal diesen Artikel in die Runde: http://www.pcgameshardware.de/aid,674703/Radeon-HD-4750-und-HD-4730-bald-auf-Basis-der-HD-3800-Reihe/Grafikkarte/News/

Jetzt kann man sich denken, wie es zu diesen Rebranding-Berichten gekommen sein könnte.

Fetza
2010-09-06, 10:37:44
Dass die Performance nicht mehr viel wächst, hat auch andere Gründe, nämlich dass der Stromverbrauch von GPUs und auch deren Die-Größe in den letzten Jahren konstant zugenommen hat. Bestes Beispiel ist dcoh die kommende 6000er-Serie. Wo soll da noch großartig viel Performance herkommen? 40nm ist eben der Stand der Technik und mit 340mm² und knapp 200W TDP von ATI bereits zu großten Teilen ausgereizt.

Nope, nv hat 40nm wohl absolut ausgereizt, ati hingegen hat noch optionen.

Gast
2010-09-06, 10:45:19
Momentan sieht es wohl so aus, dass Cayman XT die TDP deutlich in Richtung 225W verschieben wird. Und bei der Dual-GPU-Karte greift man wohl möglich gar nur auf zwei Barts GPUs zurück. Deshalb vielleicht auch nur der gering Unterschied bei der Bezeichnung: HD 6970 (Cayman XT) und HD 6990 (Antilles XT = 2x Barts XT?).

Gast
2010-09-06, 10:52:03
Diesen Rebranding-Schwachsinn haben wir doch schon zu den Akten gelegt, deshalb bin ich fest davon überzeugt, dass Cayman XT ganz normal und logisch als HD6870 erscheinen wird. Außerdem sind im Cat. 10.8 auch 2 MGPU-Karten aufgeführt, ob diese dann wirklich auch kommen ist wieder eine andere Sache. Ich glaube das es diesesmal durchaus sein kann, dass AMD selber eine MGPU-Karte bringen wird, die die 300W überschreitet.

Gasti
2010-09-06, 12:31:09
GF100 <---> GF104 :rolleyes:
Was hat Das mit meiner Aussage zu tun?
Wenn ich natürlich die zusätzliche Fläche für ein aufgeblasenes Frontend benutze, das im Augenblick praktisch keine zusätzliche Performance bringt entfällt der Vorteil.
Schlechtes Beispiel.

john carmack
2010-09-06, 12:44:06
Hoffe einfach mal auf eine Positive Überraschung :D

Radeon - Cayman XT

*freu*

Auch wenn meine Erwartungen eher zu der weit verbreiteten gemutmasten Leistungssteigerung von 25% - 35% tendieren...

- Ich kann eigentlich nur positiv überrascht werden.
- Weniger als 25% glaub ich nicht.

Gast
2010-09-06, 13:19:47
Quick summary:

* Northern Islands shader is 98.5% as efficient per clock but they can fit 25% more in the same space.
* a new eyefinity
* UVD3 (ati's gpu video decoder)
* new shader model
* thicker PCB for the chip packaging
* changed the voltage regulators buck controllers
* vapor chamber cooler
* 6770 supposed to have relatively low clocks ~700mhz...
* tripling or quadding up on the tessellation power


http://forum.beyond3d.com/showpost.php?p=1468914&postcount=1629
http://forums.anandtech.com/showpost.php?p=30402647&postcount=497

Gast
2010-09-06, 13:34:28
http://forum.beyond3d.com/showpost.php?p=1468914&postcount=1629
http://forums.anandtech.com/showpost.php?p=30402647&postcount=497

klingt ja recht realistisch.
das mit den 25% Platzeinsparung könnte auch hinkommen, die t-Unit bei den 5Slot Shadern soll ja angeblich deutlich mehr Platz verbraucht haben als x,y,z und w, und wenn die jetzt wegfällt bei den 4-Slot shadern.....

Der komplette Chip dürfte dadurch aber trotzdem nur 10% Effizienter pro mm² werden und wenn man Zwecks besserer Tesselation das Frontend größer gestalten musste ist man schnell wieder auf Cypress Niveau

Gast
2010-09-06, 13:40:34
Dazu muss aber gesagt werden, dass auch das nur eine persönliche Spekulation eines Users ist. Das sind keine bestätigten Fakten.

Gast
2010-09-06, 14:43:45
Dazu muss aber gesagt werden, dass auch das nur eine persönliche Spekulation eines Users ist. Das sind keine bestätigten Fakten.

weiß nicht ob Spekulation oder ob jemand meint firmeninterne Infos weiterzugeben.

Wie soll man denn spekulieren, dass die nenen Shader 98,5% der effizient der alten haben?

Gast
2010-09-06, 14:51:49
Weil derjenige deutlich gesagt hat, dass er sich diese Meinung aus den ganzen bisherigen Gerüchten gebildet hat. Immer wenn jemand konkrete Zahlen oder Daten nennt, vermutet man das er Insider-Wissen hat wie sonst sollte er so genaue Angaben machen können, aber meistens stimmt es dann doch nicht mit der Realität überein. Natürlich kann trotzdem jegliches Gerücht der letzten Tage und Wochen tatsächlich wahr sein, aber das werden wir ja schon bald überprüfen können.

w0mbat
2010-09-06, 15:12:06
weiß nicht ob Spekulation oder ob jemand meint firmeninterne Infos weiterzugeben.

Wie soll man denn spekulieren, dass die nenen Shader 98,5% der effizient der alten haben?

ich würde sagen, ein 4D schader hat 98,5% der leistung eines 5D shaders, da die 5D fast nie ausgenutz werden.

crux2005
2010-09-06, 15:34:05
wieso spricht er von NI und nicht von SI? :confused: oder meint er mit NI -> SI. ;D

Coda
2010-09-06, 15:34:22
Das kannst du so nicht sagen. Wenn jetzt durchschnittlich 3 von 5 Slots verwendet werden, heißt das nicht, dass bei 4 Slots VLIW auch 3/4 ausgenutzt werden könnten ;)

Gast
2010-09-06, 15:39:44
Die Anzahl der Slots sollte doch nichts am auszuführenden Shadercode ändern?

Gast
2010-09-06, 15:48:17
wieso spricht er von NI und nicht von SI? :confused: oder meint er mit NI -> SI. ;D

AMD hat niemals bestätigt, dass es überhaupt sowas wie NI oder SI gibt. Das Einzigste was AMD bezüglich einer neuen GPU-Gen bestätigt hat, ist das sie noch dieses Jahr kommt. Alles andere ist komplett aus den Fingern gesaugt.

Der_Korken
2010-09-06, 15:50:19
Vielleicht sind in diese 98,5% auch schon alle Optimierungen am Front-End mit einberechnet und im fertigen Zustand erreichen 4 Slots 98,5% der Leistung von 5 Slots.

Gast
2010-09-06, 16:00:07
AMD hat niemals bestätigt, dass es überhaupt sowas wie NI oder SI gibt. Das Einzigste was AMD bezüglich einer neuen GPU-Gen bestätigt hat, ist das sie noch dieses Jahr kommt. Alles andere ist komplett aus den Fingern gesaugt.
NI gab es schon lange als Kürzel im Treiber-Code und auch ausgeschrieben gab es Northern Islands auf einer Notebook-Platform-Roadmap von AMD zu lesen. Damals sogar noch als 32nm Chips.

Mit den letzten Treibereinträgen zeichnet sich wohl ab, dass man intern bei NI geblieben ist, während die Desktop-GPUs Codenamen geographisch südlich gelegener Inseln bekommen haben.

mironicus
2010-09-06, 16:02:36
Also doch möglicherweise ein Major-Redesign mit einigen "positiven" Überraschungen...?

Gast
2010-09-06, 16:06:15
Ja stimmt da hast du Recht mit NI und der Roadmap. Aber SI wurde von AMD nie genannt und auch nicht die genaue interne Bezeichung der HD6k. Außerdem gibt es zu den NI Kürzel im Treiber auch noch eine andere Deutung. Ich glaube Not Integrated gelesen zu haben.

Gast
2010-09-06, 16:10:05
Also doch möglicherweise ein Major-Redesign mit einigen "positiven" Überraschungen...?

Das sagen zumindest diejenigen die vermeintlich Insider-Wissen haben und für mich deutet auch einiges darauf hin.

john carmack
2010-09-06, 16:53:02
Ich finds lustig wie alle in den letzten Wochen verwirrt werden :D

Gast
2010-09-06, 16:56:36
Neues Foto vom PCB der angeblichen Caicos (HD6350). Ist die rechteckige GPU neu oder gab es das schon immer bei den kleinen Karten?

http://forum.beyond3d.com/showpost.php?p=1469022&postcount=1652

Duplex
2010-09-06, 17:02:41
Fake und keine Diskussion wert

Coda
2010-09-06, 17:04:24
Also für mich sieht das nicht nach Fake aus. Ganz und gar nicht.

Gast
2010-09-06, 17:04:41
Fake und keine Diskussion wert

Was soll denn daran bitte Fake sein? DU siehst schon die zahlreichen Fotos von der Karte und dem Die oder? Sowas kann man nicht faken.

Gast
2010-09-06, 17:05:46
Auch Cedar ist nicht wirklich quadratisch:
http://www.amd.com/PublishingImages/Public/Photograph_ProductShots/LowResolutionJPEG/47950A_AMD_AMR_HD_5400_MXMBoard_Flat_lores.jpg

Wobei Caicos eine deutlich größere Kantenlängendifferenz hat. Vielleicht liegt das daran, dass hier eventuell eben vollständige SIMDs verbaut wurden?

Mit P17xx liegt man auch nur geringfügig über der HD 5450. Was 8 TMUs mit 128SPs nahe legen könnte.

btw.
Wenn AMD keine Die-Shot liefern will, dann sollten mal die Magazine wie PCGH sich die Arbeit machen und diese selbst anfertigen: http://www.xtremesystems.org/forums/showpost.php?p=4536228&postcount=113 ;)

Coda
2010-09-06, 17:06:01
Was soll denn daran bitte Fake sein? DU siehst schon die zahlreichen Fotos von der Karte und dem Die oder? Sowas kann man nicht faken.
Vor allem nicht sowas:

http://i55.tinypic.com/1zbzaex.jpg

Gast
2010-09-06, 17:06:09
Fake und keine Diskussion wert

Warum soll das bitte ein Fake sein. Hast du auch Argumente dafür?

Coda
2010-09-06, 17:06:59
Warum soll das bitte ein Fake sein. Hast du auch Argumente dafür?
Was muss man da argumentieren? Meinst du das sind Render-Bilder oder was?

Der Aufwand wäre für einen Hoax geradezu absurd. Mal abgesehen das ich so realistisches CG noch nie gesehen habe.

Gast
2010-09-06, 17:25:24
Also ein wenig größer wird der Chip also werden, oder?

Breite anscheinend ja ~9,6 mm; Höhe anscheinend ca. 7,8 mm

Macht zusammen 75 mm² incl. Package.

Fetza
2010-09-06, 17:27:17
Was muss man da argumentieren? Meinst du das sind Render-Bilder oder was?

Der Aufwand wäre für einen Hoax geradezu absurd. Mal abgesehen das ich so realistisches CG noch nie gesehen habe.

Öhm, ich glaube du hast den gast nicht richtig verstanden. :)

Gast
2010-09-06, 17:28:52
Also ein wenig größer wird der Chip also werden, oder?

Breite anscheinend ja ~9,6 mm; Höhe anscheinend ca. 7,8 mm

Macht zusammen 75 mm² incl. Package.

Shit...

falsch gemessen. Höhe ist nur 7,4 mm => macht also ca.70 mm² incl. Package

Gast
2010-09-06, 17:32:37
Also ein wenig größer wird der Chip also werden, oder?

Breite anscheinend ja ~9,6 mm; Höhe anscheinend ca. 7,8 mm

Macht zusammen 75 mm² incl. Package.
Eben ein UVD3-Replacement für Cedar mit wohl möglich 128 statt 80SPs.
Da der Tessellationsdurchsatz wohl auch wie bei Cedar schon beschnitten sein wird, kann man da aber wohl nicht viel ableiten für die größeren GPUs.

Da wird sich zeigen müssen, ob Nvidia noch 2010 ihren GF119 entgegensetzen wird. N12M ist im Treiber jedenfalls schon einmal aufgetaucht. Vielleicht gibt es damit schon eine 40nm Vorschau auf die Fermi 2(bzw. 3) Cluster.

Neocroth
2010-09-06, 17:38:45
jetzt stellt sich die Frage, wieviel Mehr an Performance da wohl untergebracht sein könnte. Da müsste die Packdichte schon ordentlich zugenommen haben (oder die Gerüchte mit der fehlenden T-Unit stimmen), damit da deutlich mehr Performance rausschaut.
Das sehe ich als Problem - näher an die Sandy Bridge-Performance sollte schon noch drin sein. Gleichziehen/mehr wäre besser - sonst gibts letztendlich zu wenig Argumente für die Karte.

Gast
2010-09-06, 17:54:17
Das sehe ich als Problem - näher an die Sandy Bridge-Performance sollte schon noch drin sein. Gleichziehen/mehr wäre besser - sonst gibts letztendlich zu wenig Argumente für die Karte.

Ist denn bezüglich der Sandy-Bridge GPU Performance schon überhaupt iwas gesichert?
Am Ende ist die doch deutlich schlechter als angenommen oder in einen Review
angeblich getestet.

Leonidas
2010-09-06, 19:07:24
AMD hatte im LowCost-Bereich schon immer den Hang, auch wirklich bei LowCost zu bleiben. Allein der Unterschied RV810 zu RV830 -> 5x Shader-Einheiten. Demzufolge ist es nicht gänzlich verwunderlich, wenn man beim Caicos nichts anderes tut als nahezu das minimalste: 64 SE wären wohl zu wenig, um RV810 zu schlagen, also 128 davon.

Was nicht bedeutet, daß im Mainstream-Bereich ähnlich sparsam zugelegt wird. Ich erwarte von Mainstream und Performance deutliche Steigerungen der SE-Anzahl, weil AMD dort was tun muß und weil natürlich auch der Die-Platz vorhanden ist im Gegensatz zu Cayman, der nicht über eine gewisse Größe hinaus gehen darf. Recht schlüssig ist dazu ja nach wie vor die These:

Turks - 640 SE (10 Cluster, 1 Cluster-Block)
Barts - 1280 SE (20 Cluster, 2 Cluster-Blöcke)
Cayman - 1920 SE (30 Cluster, 3 Cluster-Blöcke)


Nochmal zu LowCost: Natürlich drückt Sandy Bridge. Andererseits: Wer nimmt im LowCost-Bereich eine 5450 anstatt einer GMA3000 wegen einer zu niedrigen Spieleperformance. Wenn man wirklich zur 5450 greift, dann geht es eher darum, daß der OEM mit einer tollen extra Grafikkarte werben will - das die trotzdem zu langsam ist, muß man dem Käufer ja nicht sagen. Oder aber eine bewußte Entscheidung des Retailkäufers, der einfach das Mehr an Anschlüssen braucht und da mit dem integrierten Mist nicht glücklich wird. Ergo braucht AMD auch nach SB keine echte Performance im LowCost-Bereich, die Karten werden nicht wegen ihrer 3D-Performance gekauft.

Gast
2010-09-06, 19:35:20
Charlie bestätigt 4+1 -> 4 Shader und verbessertes Frontend. Ich kann nicht beurteilen wie realistisch seine Aussagen sind.

http://www.semiaccurate.com/2010/09/06/what-amds-northern-islands/

Gast
2010-09-06, 19:49:51
Also 25. Oktober+- die 6700, und dann im November die 6800er. mal schauen ob Dämmer Jan Recht hat;)

Gast
2010-09-06, 19:57:30
Charlies Aussagen sollte man zwar immer mit einer gewissen Skepsis betrachten, aber er hat definitiv gute Kontakte zu AMD bzw. dessen Boardpartnern. Also wenn er was zu AMD sagt, ist das für mich schon was wert.

Gast
2010-09-06, 19:59:05
Reine Propaganda nichts weiter.

Gast
2010-09-06, 20:00:20
Bin mal gespannt wie sich die 6700 zur 460 schlägt. Dann könnte man ja schon Schlüsse auf die Performance der 6870 ziehen.

Gast
2010-09-06, 21:14:16
Charlie bestätigt 4+1 -> 4 Shader und verbessertes Frontend. Ich kann nicht beurteilen wie realistisch seine Aussagen sind.

http://www.semiaccurate.com/2010/09/06/what-amds-northern-islands/

Wenn es stimmt was Charly spricht (25% mehr Leistung/mm² bei 380-400mm²) dann wäre Caymann wohl mindestens 50% schneller als Cypress.

Interessant auch das mit dem canceln von 32nm angeblich weniger als ein Monat bevor AMD die Chips Tapeouten wollte. Die werden sich wohl mächtig in den Arsch gebissen haben und das wird sie vermutlich auch zurück geworfen haben, geplant was ja mal Q3.

AwesomeSauce
2010-09-06, 21:23:59
Lustig, wie Charlie (wieder einmal) die zahlreichen Infos, die bereits in allen einschlägigen Foren zusammengetragen wurden, strichlisten-mässig runterleitert und sie als seine eigenen verkaufen will:rolleyes: Natürlich gepfeffert mit zahlreichen obligatorischen Seitenhieben ins grüne Lager...

Gast
2010-09-06, 21:28:09
Unabhängig davon was Charlie jetzt schreibt, habe ich eigentlich von Anfang an auch 50% Performancegewinn nicht unbedingt ausgeschlossen. Es ist absolut im Bereich des Möglichen, ob AMD das aber auch will (Stichworte:Die-Size,Stromverbrauch,Kosten) ist die andere Frage. Da aber nach HD6k bis 28nm soweit ist nichts mehr kommen wird, könnte ich mir schon vorstellen das AMD jetzt alles raushaut was noch zu vertreten ist (siehe Stichworte). Zumal man auch damit rechnen muss das NV auch noch was nachschiebt.

Gast
2010-09-06, 21:30:31
eigentlich sollte da natürlich Die-Size stehen

Duplex
2010-09-06, 21:34:13
RV770 = 160 5D Shader (750 MHz GPU Takt)
RV870 = 320 5D Shader (850 MHz GPU Takt)

Die HD5870 ist Im durchschnitt 75% schneller in Games als die HD4870

40nm statt 55nm, Streamprozessoren verdoppelt, 100 MHz mehr Chiptakt, DX11 braucht natürlich auch Platz

Interessant wirds wie 4D Shader im vergleich zu 5D skallieren und ob es nachteile gibt

1920 SPs sind nicht viel, aber man möchte ja kein Chip wie Nvidia mit 500mm², dann wären auch über 2400 SPs möglich, dann kommt wieder die TDP ins spiel.

wenn die HD6000 auf eine neue Architektur setzt, sind vielleicht 30-40% Leistungssteigerungen möglich.

Gast
2010-09-06, 22:14:47
Wenn Ati gezwungen war, kurzfrist von 32 auf 40 nm umzustellen, heißt das jetzt, dass sie genauso viele Einheiten unterbringen, wie ursprünglich für den 32 nm Prozess geplant waren? Dann würde ein ziemlich großer Chip dabei rauskommen. Oder glaubt ihr, es waren ursprünglich 4 Blöcke geplant?

Duplex
2010-09-06, 22:21:31
entweder die Einheiten wurden abgespeckt oder ein Cypress Update mit neuem Uncore

aylano
2010-09-07, 10:15:23
ich würde sagen, ein 4D schader hat 98,5% der leistung eines 5D shaders, da die 5D fast nie ausgenutz werden.
Das würde ja eine enorme Shader-Einheiten-Effizienzsteigerung von AFAIK 77% auf 95% bedeuten.
Das wäre ja besser als bei Nvidia?!

Chris2CB
2010-09-07, 10:44:39
Das würde ja eine enorme Shader-Einheiten-Effizienzsteigerung von AFAIK 77% auf 95% bedeuten.
Das wäre ja besser als bei Nvidia?!

Ehm sicher nicht :D


wie oben geschrieben ist eine HD5870 gemessen an ihren Einheiten und Taktfrequenz schon ineffizient gegenüber den Vorgänger Modellen. Mit der Effizienz Steigerung kommt man wieder auf das Niveau des RV770 zurück, dazu noch ein paar Einheiten mehr und man kommt auf die paar % mehr Leistung die geschätzt!!! werden.


Irgendwie etwas schneller als eine GTX480 um die Karte für 500€ anbieten zu können.

Das boah geil ey, haben muss feeling kommt bei der Karte nicht so wirklich auf, von dem was bisher spekuliert wird.

john carmack
2010-09-07, 10:46:07
Bin mal gespannt wie ende Okt. Nvidia reagieren wird.

Wie immer wird kurz nach der offiziellen Veröffentlichung der neuen ATI Generation etwas von Nvidia geben.

Nvidia wird dann wohl etwas über den Fermi2 (GF200?) erzählen und sehr grobe Details rausrücken.

Das ist immer ein hin und her...

Um mal ein aktuelles Beispiel zu nehemen:
Kurz nach der veröffentlichung des Fermi sagte ATI etwas zu

"ATI Hecatoncheires" - "R100" - "Komplett neue Architektur" - usw...

Gast
2010-09-07, 10:56:23
@Chris2CB

Aha du scheinst ja schon ein Sample zu haben. Klär uns doch bitte auf! Gott sei dank bietet wenigstens NV noch wirklich effiziente Karten an.

@john carmack

AMD hat keinen einzigen Satz über "ATI Hecatoncheires" - "R100" - "Komplett neue Architektur" verloren. 99% der "Fakten" über die wir hier diskutieren sind reine Spekulationen und Mutmaßungen Einzelner.

aylano
2010-09-07, 12:19:26
ich würde sagen, ein 4D schader hat 98,5% der leistung eines 5D shaders, da die 5D fast nie ausgenutz werden.
Ehm sicher nicht :D

Weiß ich nicht. Ich wollte ihm klar machen, was seine Aussage bedeutet.


wie oben geschrieben ist eine HD5870 gemessen an ihren Einheiten und Taktfrequenz schon ineffizient gegenüber den Vorgänger Modellen. Mit der Effizienz Steigerung kommt man wieder auf das Niveau des RV770 zurück, dazu noch ein paar Einheiten mehr und man kommt auf die paar % mehr Leistung die geschätzt!!! werden.

Und genau deshalb liegt die Priorität in der neuen Architektur eben in der Verbesserung der Einheiten-Auslastung/Effizienz, damit nicht nur die Zusätzlichen Einheiten besser ausgenutzt werden, sondern auch jene, die von RV770 --> RV870 dazugekommen sind bzw. schon in RV770 waren.


Irgendwie etwas schneller als eine GTX480 um die Karte für 500€ anbieten zu können.

Wenn man vor 2,5 Jahren gesagt hätte, dass AMD Ende 2010 in allen Bereichen Schneller ist, dann wäre man als Verrückt erklärt worden.

Performance ist nicht alles. Langfristig ist es interessant, wie die Die-Größe & Stromverbrauch ist, weil diese Eigenschaften dann auch Low-End & Mainstream haben werden.


Das boah geil ey, haben muss feeling kommt bei der Karte nicht so wirklich auf, von dem was bisher spekuliert wird.
Bei der 4000er-Einführung gabs viel boah-geil-ey Meldungen. Und das wird wieder kommen, wenn die 6000er-Serie nur ansatzweise an 4000er-Serie-Sprung ansetzen kann und die unmengen an Einheiten seit der 4000er-Serie besser ausnutzen kann.
Der Unterschied zu damals ist, AMD ist jetzt schon vorne mit dabei und muss nichts massiv aufholen.
So kann es sein, dass dann auch im High-End mit boah-geil-ey-Meldungen daherkommt. Vorallem, wenn die Grafik-Qualität wieder so zulegen kann wie mit der 5000er-Serie alias AF-Flimmern statt AF-Blume.

Wie immer wird kurz nach der offiziellen Veröffentlichung der neuen ATI Generation etwas von Nvidia geben
Es gab weder nach RV740 & RV790 & RV8x0-Serie eine Reaktion von Nvidia.
Das geht auch gar nicht, da man Grafikkarten nicht in einer Nacht-und-Nebel-Aktion herstellen kann.

Und ich würde es nicht als Reaktion werten, wenn sie mal das bringen, was sie schon vor einem Jahr versprochen haben.

Das ist immer ein hin und her...
Nur besteht halt immer die Gefahr, dass bei einem hin und her mal der Konkurrenz vom Markt gedrückt werden kann.
Und man sieht ja, wie knapp es bei ATI war, weil sie verdammt lange brauchten um einen Marktanteil über 50% zu bekommen.
Und trotzdem hat Nvidia immer noch ein ziemlich gutes Image (Generell, Grafik-Qualität, Cuda, Physx, Optimus), das sie sich gerade in der Zeit der Dominanz aufgebaut haben.

Aber das könnte jetzt schnell kippen, wenn die 6000er-Serie einen Optimus-Konkurrenten bringt und eventuell bessere Grafik-Qualität bringt.
Fusion bzw. iGPU&iMC könnte Nvidia verstärkt zum Problem werden.
- Denn ab Anf 2011 bringt Intel schon brauchbare IGP, die dann auch vernünftig HD-Decodieren sowie Grafik-Power leisten kann.
- Mit Fusion wird dann auch verstärkt OpenCL auf dem Markt gedrückt.

Und genau dieses CPU-GPU - Zusammenspiel könnte eben dann den Druck ausüben, den Früher bzw. teils heute noch Nvidia mit Cuda & PhysX auf AMD-Grafikkarten ausgeübt. Und wenn sie mal auf einen Marktanteil von 30er oder gar 20er runterfallen, dann wird es verdammt schwer sich wieder im GPU-Markt hochzuarbeiten.

Also, das was früher schon fast als Nachteil galt, das kämpfen an 2 Fronten (CPU & GPU) könnte in wenige Monaten zum Vorteil werden.

Nvidia gehen jetzt die ganzen Möglichkeiten (früher 40nm-Umstieg, 40nm-Engpass, OEM-Verträge, neue Architektur, niedrige Spannung, hoher/höherer Stromverbrauch... und Preissenkung) für die nahe Zukunft aus um dagegen zu halten und somit beginnt langsam der Spaß beim Nvidia.

Kurz gesagt. Das hin und her funktioniert nur, wenn der Abstand nicht zu groß ist.

john carmack
2010-09-07, 13:13:51
Was ich damit meine ist das Nvidia dann ein paar schnippsel zum "GF200" rausrücken wird...

Und wenn der "GF200" dann da ist dann wird AMD ein paar gerüchte in die welt setzen...

Chris2CB
2010-09-07, 13:52:28
Wenn man vor 2,5 Jahren gesagt hätte, dass AMD Ende 2010 in allen Bereichen Schneller ist, dann wäre man als Verrückt erklärt worden.




Bei der 4000er-Einführung gabs viel boah-geil-ey Meldungen. Und das wird wieder kommen, wenn die 6000er-Serie nur ansatzweise an 4000er-Serie-Sprung ansetzen kann und die unmengen an Einheiten seit der 4000er-Serie besser ausnutzen kann.
AF-Blume.


.


Wenn man vor 7.5 Jahren gesagt hätte das ATI/AMD in allen Bereichen vorne ist im Jahre 2010 dann hätte........das jeder geglaubt weil zu diesem Zeitpunkt Produkte auf Basis des R300 verfügbar waren. Mal hat NV eine Durststrecke, mal andere.

RV670 - 64 5D-Shader, 16 Textureinheiten, 0,5TFLOPs
RV770 - 160 5D Shader , 40 Textureinheiten 1,2TFLOPs die HD4890 lassen wir mal aussen vor.

Das sind die Gründe warum die HD4k Serie so gut verkauft wurde bis auf den 2D Verbrauch.

Wie soll den bitte AMD bei gleicher Fertigung einen solchen Sprung hin legen wenn man den RV870 als Basis nimmt?

Abgesehen von den Bildern der kleinen AMD Karten ist der Rest wild spekuliert, auf der anderen Seite steht der Winter vor der Tür und Atom Meiler müssen ausgelastet werden :D

davidzo
2010-09-07, 14:20:44
Leider ist AMD was die OpenGl leistung und andere Plattformen angeht immernoch lichtjahre hintenan.
DirectX Windows mag zwar jetzt eine überwältigende Mehrheit haben, aber die tendenzen gehen eindeutig weg von dieser monopolsituation, wenn auch langsam. ich persönlich ziehe schon eine nvidiakarte vor obwohl ich diese firma nicht mag, nur wegen den 5% 3D Anwendungen die ich unter Linux benutze die mit einer AMDkarte einfach nicht laufen würden (das hapert schon am ruhendem desktop, ständig unbegründete abstürze selbst im idle mit AMDtreibern).

Und das mit der teilweise katastrophalen OpenGl performance zieht sich durchs ganze Band, über OpenGLspiele unter Windows, den Mac, Linux bishin zu embeddedgeräten. Solange man sich bei der Programmierung an gewisse spielregeln hält und einschränkungen in kauf nimmt kann man eine beinahe solide OGL performance von AMD erwarten, aber in vielen spezialsituationen in OGL ist eine nvidiakarte mehr als fünfmal schneller - auch im highend.

Diskussion hin oder her, AMD wird so schnell nur mit neuer Hardware nicht nvidia die ganzen Marktanteile wegnehmen. Dafür hat nvidia zulange vorgesorgt, dass man selbst mit nicht konkurrenzfähiger Hardware einen großen teil Stammkäufer behält.

john carmack
2010-09-07, 14:37:08
Leider ist AMD was die OpenGl leistung und andere Plattformen angeht immernoch lichtjahre hintenan...



Und das mit der teilweise katastrophalen OpenGl performance zieht sich durchs ganze Band, über OpenGLspiele unter Windows, den Mac, Linux bishin zu embeddedgeräten...


Welche Plattform ist denn Vorne/Hinten?

Welche Spiele OpenGL gibt es denn... versteh ich nicht so ganz...
"...katastrophalen OpenGl performance..." ?

Gast
2010-09-07, 14:40:48
Leider ist AMD was die OpenGl leistung und andere Plattformen angeht immernoch lichtjahre hintenan.
DirectX Windows mag zwar jetzt eine überwältigende Mehrheit haben, aber die tendenzen gehen eindeutig weg von dieser monopolsituation, wenn auch langsam. ich persönlich ziehe schon eine nvidiakarte vor obwohl ich diese firma nicht mag, nur wegen den 5% 3D Anwendungen die ich unter Linux benutze die mit einer AMDkarte einfach nicht laufen würden (das hapert schon am ruhendem desktop, ständig unbegründete abstürze selbst im idle mit AMDtreibern).

Und das mit der teilweise katastrophalen OpenGl performance zieht sich durchs ganze Band, über OpenGLspiele unter Windows, den Mac, Linux bishin zu embeddedgeräten. Solange man sich bei der Programmierung an gewisse spielregeln hält und einschränkungen in kauf nimmt kann man eine beinahe solide OGL performance von AMD erwarten, aber in vielen spezialsituationen in OGL ist eine nvidiakarte mehr als fünfmal schneller - auch im highend.

Diskussion hin oder her, AMD wird so schnell nur mit neuer Hardware nicht nvidia die ganzen Marktanteile wegnehmen. Dafür hat nvidia zulange vorgesorgt, dass man selbst mit nicht konkurrenzfähiger Hardware einen großen teil Stammkäufer behält.

Werde doch mal konkret. Ich beschäftige mich in der Arbeit zufälligerweise viel damit und würde gerne Beispiele hören die ich dann auch ausprobieren und hier vorführen kann.

Gasti
2010-09-07, 14:40:54
Leider ist AMD was die OpenGl leistung und andere Plattformen angeht immernoch lichtjahre hintenan.
DirectX Windows mag zwar jetzt eine überwältigende Mehrheit haben, aber die tendenzen gehen eindeutig weg von dieser monopolsituation, wenn auch langsam. ich persönlich ziehe schon eine nvidiakarte vor obwohl ich diese firma nicht mag, nur wegen den 5% 3D Anwendungen die ich unter Linux benutze die mit einer AMDkarte einfach nicht laufen würden (das hapert schon am ruhendem desktop, ständig unbegründete abstürze selbst im idle mit AMDtreibern).

Und das mit der teilweise katastrophalen OpenGl performance zieht sich durchs ganze Band, über OpenGLspiele unter Windows, den Mac, Linux bishin zu embeddedgeräten. Solange man sich bei der Programmierung an gewisse spielregeln hält und einschränkungen in kauf nimmt kann man eine beinahe solide OGL performance von AMD erwarten, aber in vielen spezialsituationen in OGL ist eine nvidiakarte mehr als fünfmal schneller - auch im highend.

Diskussion hin oder her, AMD wird so schnell nur mit neuer Hardware nicht nvidia die ganzen Marktanteile wegnehmen. Dafür hat nvidia zulange vorgesorgt, dass man selbst mit nicht konkurrenzfähiger Hardware einen großen teil Stammkäufer behält.

Wenn nur noch Leute die OGL-Performance benötigen (wohlgemerkt bei den Desktopkarten) NV-Karten kaufen würden, währe der Laden dicht (und das ist völlig wertfrei)

aylano
2010-09-07, 14:56:17
Wenn man vor 7.5 Jahren gesagt hätte das ATI/AMD in allen Bereichen vorne ist im Jahre 2010 dann hätte........das jeder geglaubt weil zu diesem Zeitpunkt Produkte auf Basis des R300 verfügbar waren. Mal hat NV eine Durststrecke, mal andere.

Wenn man die Pentium 3/M - Architektur ignoriert, dann ja.

Damals war die Zeit anders. Denn da war der Grafikkarten-Markt ausschließlich der Spiele-Markt. Dazu, je ausgereifter eine Architektur, desto schwieriger wird es da aufzuholen.
Dazu hatte AMD damals keine neuen Features eingebraucht, während Nvidia per 8800GTX das mit Cuda & PhysX schon machte.

Heute ist der Grafikkarten-Markt neben Spiele-Markt auch GPGPU, wo sie in einer Richtung in die CPU fusionieren und in der anderen Richtung in den HPC-Markt eintritt.

Also, während es damals nur um Performance ging, geht es heute (bzw. in naher Zukunft) auch stark um Features. Und wenn man nicht bei allen Features (Fusion, Cuda, PhysX, Optimus) mithalten kann, dann hat man schon ein Problem bzw. Nachteil.


RV670 - 64 5D-Shader, 16 Textureinheiten, 0,5TFLOPs
RV770 - 160 5D Shader , 40 Textureinheiten 1,2TFLOPs die HD4890 lassen wir mal aussen vor.

Das sind die Gründe warum die HD4k Serie so gut verkauft wurde bis auf den 2D Verbrauch.

Nö, der Grund war, dass mit dieser 150% Shader-&-Co-Steigerung und somit mit einer Performance-Steigerung von 60% in 0AA/0AF und 80% in 4AA/16AF der Stromverbrauch "nur" um 45-50% sowie die Die-Fläche nur um 33% stieg.


Wie soll den bitte AMD bei gleicher Fertigung einen solchen Sprung hin legen wenn man den RV870 als Basis nimmt?

Und wie soll es damals möglich gewesen sein?
Ja, es war möglich.

Natürlich wird es schwieriger die Architektur zu verbessern. Deshalb meinte ich auch, dass es schon ein Großer Sprung wäre, wenn North-Island nur einen Teils des 4000er-Sprunges erreicht.
Die schlechte Auslastung des 5. Slot im VLIW ist ja bekannt. Warum sollte AMD da nichts ändern?

Du sprichst ja selber von einer sehr Ineffizienten Auslastung.
Und wenn man oben die 150%-Shader-Steigerung mit nur ca. 75% Performance-Steigerung vergleicht, dann sind große Potentiale in der Einheiten-Auslastung schon erkennbar.

Wenn du schon den RV870 als Basis nimmst, dann solltest bedenken, dass der RV840 "ungewöhnlich" erheblich kleiner als der RV870 ist alias 166mm² zu 333mm²

Also, so effizient ist der RV870 ja gar nicht. Und immer noch hat RV870 (im Vergleich zur Konkurrenz) eine Recht hohe Spannung.

Mir fallen mehrere Gründe ein, wie so ein RV970 "deutlich" effizienter (wo auch immer) sein kann, als der RV870.
Wobei a) die Spannungssenkung keine Architektur-Verbesserung wäre und b) es mit zusätzlichen GPGPU-Funktionen sowie Tesselation zu mindestens relativ gesehen mehr Stromverbrauch bedeuten kann.


Abgesehen von den Bildern der kleinen AMD Karten ist der Rest wild spekuliert, auf der anderen Seite steht der Winter vor der Tür und Atom Meiler müssen ausgelastet werden :D
Wenn man das Technisch-Mögliche berücksichtigt & erfassen kann, dann ist man schon ab GT200 & RV770 ziemlich gut gelegen.

Was ich damit meine ist das Nvidia dann ein paar schnippsel zum "GF200" rausrücken wird...
Mehr hat dann Nvidia nicht mehr zu bieten.
Grundsätzlich hat Nvidia an Glaubwürdigkeit verloren und es werden in Zukunft nicht mehr so viele Warten.
Auch wenn Nvidia nächstes Jahr einen 574 Shader (=1,5xGF104) rausbringen wird und davor schon dementsprechende Gerüchte verbreiten wird, wird es kaum wem interessieren, wenn dann paar Monate später schnellere 28nm-GPUs rauskommen werden.

john carmack
2010-09-07, 17:25:38
Jedenfalls kann die HD6000 keine große enttäuschung werden da viele ehh nur mit einem vergleichsweise kleinen Performance Sprung rechnen.

Gast
2010-09-07, 18:01:21
Habe eben dieses Foto entdeckt. Das sind definitiv die selben Karten wie das Foto der angeblichen HD6870 das gestern auftauchte. Man sieht es deutlich an den 3 roten Streifen, den 3 Öffnungen in Höhe der CF-Konnektoren und dem roten PCB. Außerdem kenne ich keine HD5k Karte die einen derartigen Kühler benutzt (auch kein Eigendesign eines Boardpartners). Auf dem Foto gibt es natürlich nichts aufregendes zu sehen, aber ich meine 1x8Pin und 1x6Pin erkennen zu können. Kann natürlich auch ein altes Foto z.B. von einem HD5870 ES sein.

http://www.xtremesystems.org/forums/showpost.php?p=4541746&postcount=445

Hugo78
2010-09-07, 18:24:16
Habe eben dieses Foto entdeckt. Das sind definitiv die selben Karten wie das Foto der angeblichen HD6870 das gestern auftauchte. Man sieht es deutlich an den 3 roten Streifen, den 3 Öffnungen in Höhe der CF-Konnektoren und dem roten PCB. Außerdem kenne ich keine HD5k Karte die einen derartigen Kühler benutzt (auch kein Eigendesign eines Boardpartners). Auf dem Foto gibt es natürlich nichts aufregendes zu sehen, aber ich meine 1x8Pin und 1x6Pin erkennen zu können. Kann natürlich auch ein altes Foto z.B. von einem HD5870 ES sein.

http://www.xtremesystems.org/forums/showpost.php?p=4541746&postcount=445

Die Karten auf dem Bild haben auf jeden Fall eine 8+6Pin Stromversorgung.
Auffällig ist darüber hinaus zumindest, dass diese Karte keine Backplate mehr und ein rotes PCB hat.

Gab es überhaupt von den AMD Boardpartnern HD 5870 karten mit rotem PCB, statt schwarz und dann noch ohne Backplate?

Dural
2010-09-07, 18:32:10
Das würde ja eine enorme Shader-Einheiten-Effizienzsteigerung von AFAIK 77% auf 95% bedeuten.
Das wäre ja besser als bei Nvidia?!

Wenn in der Regel nur 4D verwendet werden anstelle 5D dürfte mit only 4D ganz schnell 98.5% von den 5D Alus erreicht werden ;)

hmm gehen wir mal von den 1920 4D Alu eines RV970 aus, das wären dann ca. 50% mehr Alu Leistung als RV870 bei selben Takt ;) das Problem an der Geschichte... schon der RV870 hat Alu Leistung in überfluss... die engstellen liegen wo anders...

Gast
2010-09-07, 18:38:59
Naja wenn das wirklich HD6870 ES sind, kann man ziemlich sicher sagen, dass sich die Optik der Retail-Karten nochmals ändern wird. Ich glaube das die Retail HD6870 auch wieder eine Backplate und ein schwarzes PCB haben wird. Die Backplate ist ja auch Bestandteil des Kühlungskonzeptes, vielleicht auch deshalb der zusätzliche Lüfter der genau auf die Rückseite der obersten Karte gerichtet ist. Ein rotes PCB gab es z.B. bei Powercolor.

aylano
2010-09-07, 20:02:41
Wenn in der Regel nur 4D verwendet werden anstelle 5D dürfte mit only 4D ganz schnell 98.5% von den 5D Alus erreicht werden ;)

Mich überrascht das selber so, dass ich es zuerst selber nicht glauben konnte.

Was ich nicht verstehen.
Ich hatte eine Einheiten-Effizienz beim RV870/RV770 so um 77% im Kopf.
Bei GT200b waren es so 91%.
Entweder, diese Zahl war falsch, oder ich verstehe nicht, wie AMD mit 4-Slot-VLIW und 95% Effizienz effizienter sein kann als Nivida mit ihren "1-Slot" Alus und 91%??!!


hmm gehen wir mal von den 1920 4D Alu eines RV970 aus, das wären dann ca. 50% mehr Alu Leistung als RV870 bei selben Takt ;) das Problem an der Geschichte... schon der RV870 hat Alu Leistung in überfluss... die engstellen liegen wo anders...
Man kann die Sache auch so sehen.

150% mehr Einheiten brauchten beim RV670 --> RV770 nur ca. 75% mehr Performance.
Mit 100% mehr Einheiten hatte AMD beim RV770 --> RV870 AFAIK auchs so 75% mehr Performance erreicht.
Immerhin eine Verbesserung bei zusätzlicher Performancen durch zusätzliche Einheiten.

Ich weiß jetzt nicht welche Probleme du meinst, aber AMD dürfte schon daran gearbeitet haben. (AFAIK hatte der L2-Cache im RV870er einiges positives bewirkt.)
Nachdem jetzt L2 nicht mehr geht, muss/müsste AMD ernsthafter an diesen Problemen arbeiten.

Locuza
2010-09-07, 20:25:59
Wie man daran was falsch verstehen kann , will ich einfach nicht verstehen X)

Nehmen wir an deine Zahlen stimmen, dann hat ein 4D Shader 98.5% der Effizienz eines 5D Shaders. Das heißt eine Effizienz von rund 75% statt 77%

Man bezieht sich auf die 77% Effizienz und davon soll man mit einem Design was 4D statt 5D hat zu 98.5% drankommen.

Der_Korken
2010-09-07, 20:33:16
150% mehr Einheiten brauchten beim RV670 --> RV770 nur ca. 75% mehr Performance.
Mit 100% mehr Einheiten hatte AMD beim RV770 --> RV870 AFAIK auchs so 75% mehr Performance erreicht.


Anmerkung von mir:

Bei RV670 --> RV770 waren es eher 100% mehr Leistung pro Takt (Link (http://www.computerbase.de/artikel/grafikkarten/2009/test-nvidia-geforce-gts-250/20/#abschnitt_performancerating_qualitaet))

OgrEGT
2010-09-07, 23:18:36
Wie man daran was falsch verstehen kann , will ich einfach nicht verstehen X)

Nehmen wir an deine Zahlen stimmen, dann hat ein 4D Shader 98.5% der Effizienz eines 5D Shaders. Das heißt eine Effizienz von rund 75% statt 77%

Man bezieht sich auf die 77% Effizienz und davon soll man mit einem Design was 4D statt 5D hat zu 98.5% drankommen.

Ich glaube dass man die Effizienzspekulation so verstehen muss:

4 4D Shader erreichen zu 98.5% die Leistung von 5 5D Shadern.

Das bedeutet:
1600 5D Shader = 100% Leistung
1600 4D Shader = 123% Leistung
1920 4D Shader = 148% Leistung

Duplex
2010-09-07, 23:20:26
Wenn die HD6870 die GTX480 mit 20-30% schlägt nicht schlecht ;) mal sehen was AMD bei der AF Qualiät machen kann.

mironicus
2010-09-07, 23:46:05
*Hände reib* (3DCenter-News gelesen)

Bald gibt es einen Preiskrieg! :)

NVidia kann wohl nicht anders reagieren und wird wohl die Preise seiner Karten drastisch senken, um noch ein wenig den Verkauf anzukurbeln bevor sie von AMD geplättet werden. Wenn die erste neue Karte die 6770 ist, wird sie preislich sicherlich gegen die GTX 460 antreten. Und AMD wird keine zu hohen Preise verlangen bei den MidRange-Karten. Die 5770 wird dann wohl auch noch weiter im Preis fallen.

Iruwen
2010-09-08, 00:25:42
Muss sie ja zwangsläufig wenn die 460 noch günstiger wird.

Dural
2010-09-08, 10:01:36
naja die 6770 / Bart Chip dürfte wohl kaum an den GF104 ran kommen...

das wäre ja dann schon gut RV870 Leistung... da müsste der RV970 min. 50% schneller als RV870 sein :wink:

Zwischen RV840 und RV870 liegen gut 70% ;)

wenn man der Gerüchteküche glauben kann und die 50% mehr Alu Power aus den 98% und den 1920SP in etwa stimmen dürfte am ende wirklich nur 20-40% mehr FPS als RV870 auf dem Bildschirm ankommen... umso Breiter der Chip wird umso Ineffizienter wird das Theoretische Roh-Power / FPS Verhältnis, war bis jetzt eigentlich fast immer so...

Am ende wird es wohl wie ich schon lange vermute zu einem kopf an kopf rennen zwischen GF100 "B" und RV970 kommen... Vorteil GF100 DX11 + Tess. / Vorteil RV970 alles was viel Alu Leistung braucht...

Nur meine bescheidene einschetztung ;)

Gast
2010-09-08, 10:10:30
Nur könnte wohl Barts eher ein "RV970" sein und Cayman ein "R900", da beide das gleiche SI haben.

1280 SPs + 80 TMUs ~ 700/1100MHz könnte reichen um auf HD 5850-Niveau zu kommen.
Cayman wurde ja schon vor längerem auf 1920SPs spekuliert.

Bandit3644
2010-09-08, 10:14:04
klingt gut wenn was dran ist:smile:
http://www.hardware-infos.com/news.php?news=3689

Gast
2010-09-08, 10:16:44
Wann kommen denn eigentlich die ersten tests der neuen Karte?

Wie war denn das immer in der vergangenheit?
1-2 Wochen vor oder 1-2 Wochen nach dem offiziellen Launch?

Black-Scorpion
2010-09-08, 10:31:24
Vor dem offiziellen Launch kommt garantiert kein Test den ich glauben würde.

Gast
2010-09-08, 10:54:18
klingt gut wenn was dran ist:smile:
http://www.hardware-infos.com/news.php?news=3689

Warum denn nicht? 40 nm statt 32 nm (wie geplant) heißt ja in erster Linie nur: größerer Chip => erhöhter Stromverbauch. Gemessen an RV870 und der "Messlatte" GF100 hat AMD da aber doch massig Luft nach oben. Erst NI in 40 nm, dann einen Die-Shrink / Refresh in 28 nm. Klingt doch plausibel. Zumal RV870 ja tatsächlich enorme Flaschenhälse besitzt ("doppelter RV770", aber nur 50 % mehr Leistung), die man quasi zum "Nulltarif" (bzgl. Stromverbauch) ausmerzen kann. U. a. eben bzgl. der enormen Rechenleistung, die nirgends umgesetzt werden kann. Alleine auf die Art kann man sicherlich 20 % an Leistung gewinnen. Und wenn dann eben noch zusätzliche Einheiten dazukommen, stehen einem Leistungsplus von 40 % doch nichts mehr im Wege. Dann wäre man ca. 25 - 30 % vor einer GTX 480 bei GTX 470-Stromverbrauch. :)

john carmack
2010-09-08, 11:22:45
Was mich noch so interessieren würde...

An was ganau arbeitet ATI jetzt im Moment genau? - Was läuft denn an der HD6000 noch nicht?
Sind ja "nur" noch 6-7Wochen...

Das nebenbei die Entwicklung des 28nm Chips läuft und von mir aus auch irgendwie die des übernächsten Chips ist mir klar!

Fetza
2010-09-08, 11:26:02
Was mich noch so interessieren würde...

An was ganau arbeitet ATI jetzt im Moment genau? - Was läuft denn an der HD6000 noch nicht?
Sind ja "nur" noch 6-7Wochen...

Das nebenbei die Entwicklung des 28nm Chips läuft und von mir aus auch irgendwie die des übernächsten Chips ist mir klar!

Nach dem tape out muss ja die serienproduktion in gang gebracht werden, sowas dauert ein paar wochen. Die boardpartner müssen dann die chips kriegen usw. Darum vergeht ja nach dem erfolgreichen tape out in der regel 2-3 monate bis die karten dann in den handel kommen.

Schlammsau
2010-09-08, 11:49:26
...

Nur meine bescheidene einschetztung ;)

Und wie immer eine sehr Pro-nVidia Einschätzung, wie von dir gewohnt. ;)

Das du dich da mal nicht gewaltig täuscht. :)

Dural
2010-09-08, 12:03:26
ich bin nie pro NV... ;)

hab ich mich schon mal getäuscht ;)

meine 5870 ist seit gestern in der auktion :biggrin:

mironicus
2010-09-08, 12:27:59
Wie gut, dass ich dem Kauf einer GTX 460 bisher widerstehen konnte. Nachdem die Hawk nicht die Überkarte geworden ist (Lautstärke) warte ich doch lieber auf die neuen AMDs.

Gast
2010-09-08, 13:27:27
Wie gut, dass ich dem Kauf einer GTX 460 bisher widerstehen konnte. Nachdem die Hawk nicht die Überkarte geworden ist (Lautstärke) warte ich doch lieber auf die neuen AMDs.

Dito. Wobei mich persönlich etwas Anderes noch viel mehr stört. Man kriegt im Q3 2010 im 200 €-Bereich nicht mehr Leistung als im Q3 2009. In dem einen Jahr hat sich quasi 0 getan.

Fetza
2010-09-08, 13:30:14
Dito. Wobei mich persönlich etwas Anderes noch viel mehr stört. Man kriegt im Q3 2010 im 200 €-Bereich nicht mehr Leistung als im Q3 2009. In dem einen Jahr hat sich quasi 0 getan.

Die 460 ist in dx 10 spielen so schnell wie die gtx 285, hat darüber hinaus vernünftigen dx 11 support. In spielen mit aa geht sie teilweise deutlich besser ab, man denke nur an starcraft 2 mit aa. Also von daher weiß ich jetzt nicht welche karte du meinst, die im jahre 2009 diese leistungsfähigkeit hatte.

Gast
2010-09-08, 13:31:06
Wie gut, dass ich dem Kauf einer GTX 460 bisher widerstehen konnte. Nachdem die Hawk nicht die Überkarte geworden ist (Lautstärke) warte ich doch lieber auf die neuen AMDs.
Wozu die HAWK?
Die beste Karte ist IMHO die Gigabyte OC und dazu auch noch ordentlich günstig:
http://geizhals.at/deutschland/a548277.html
189 Euro.
Habe die Karte selber und die ist wirklich extrem leise.

N0Thing
2010-09-08, 13:58:27
Die 460 ist in dx 10 spielen so schnell wie die gtx 285, hat darüber hinaus vernünftigen dx 11 support. In spielen mit aa geht sie teilweise deutlich besser ab, man denke nur an starcraft 2 mit aa. Also von daher weiß ich jetzt nicht welche karte du meinst, die im jahre 2009 diese leistungsfähigkeit hatte.

Wenn man schon eine GTX275/285 hat, würde man für einen sehr kleinen Leistungsgewinn sehr viel bezahlen. Das dürfte bei vielen eher eine Hürde darstellen, als daß die GTX460 an sich nicht schnell wäre.

Gast
2010-09-08, 14:02:04
Die 460 ist in dx 10 spielen so schnell wie die gtx 285, hat darüber hinaus vernünftigen dx 11 support. In spielen mit aa geht sie teilweise deutlich besser ab, man denke nur an starcraft 2 mit aa. Also von daher weiß ich jetzt nicht welche karte du meinst, die im jahre 2009 diese leistungsfähigkeit hatte.

Ich meine die HD 5850. An die GTX 285 hatte ich gar nicht gedacht, weil sie keine 200 € kostete.

mironicus
2010-09-08, 14:45:03
Wozu die HAWK?
Die beste Karte ist IMHO die Gigabyte OC und dazu auch noch ordentlich günstig:
http://geizhals.at/deutschland/a548277.html
189 Euro.
Habe die Karte selber und die ist wirklich extrem leise.

Ich will kein Pfeifkonzert in meinem Silentrechner haben. :D

Außerdem ist die GTX 460 nachwievor nicht so effizient Watt/FPS wie die Radeons. Wenn AMD die Effizenz noch weiter steigert bei den neuen Karten, wäre ich schön blöd mir jetzt eine NVidia zu holen.

Gast
2010-09-08, 16:22:45
Ich will kein Pfeifkonzert in meinem Silentrechner haben. :D

Außerdem ist die GTX 460 nachwievor nicht so effizient Watt/FPS wie die Radeons. Wenn AMD die Effizenz noch weiter steigert bei den neuen Karten, wäre ich schön blöd mir jetzt eine NVidia zu holen.

hab zufällig auch die gigabyte gtx 460, das ist die erste grafikkarte die ich akustisch nicht wahrnehmen kann, auch unter last. da ich ein silent system mit wasserkühlung, entkoppelten platten usw. habe ist das bemerkenswert.

Fetza
2010-09-08, 16:26:29
Ich meine die HD 5850. An die GTX 285 hatte ich gar nicht gedacht, weil sie keine 200 € kostete.

Und die hd 5850 gabs ende letzten jahres für 200€? Da hätte ich gerne nen link zu, das glaube ich nämlich nicht.

xiao didi *
2010-09-08, 16:45:57
Und die hd 5850 gabs ende letzten jahres für 200€? Da hätte ich gerne nen link zu, das glaube ich nämlich nicht.
Gabs tatsächlich mal.

*klick* (http://geizhals.at/?phist=465628&age=365) *klick* (http://geizhals.at/?phist=465490&age=365)

Fetza
2010-09-08, 17:09:34
Gabs tatsächlich mal.

*klick* (http://geizhals.at/?phist=465628&age=365) *klick* (http://geizhals.at/?phist=465490&age=365)

Ok, das ist erstaunlich. Dagegen bezahlt man ja fast mondpreise heutzutage. :D

Mal ernstaft, die karte war ja mal verdammt billig. Und das quasi direkt nach release.

xiao didi *
2010-09-08, 17:12:20
Mal ernstaft, die karte war ja mal verdammt billig. Und das quasi direkt nach release.
Ja, war sie auch. Wobei "200€" dann auch echt die unterste Grenze bisher waren.
Die 5850 ist auch ein Paradebeispiel dafür, wie langsam es mittlerweile nur noch voran geht.

mironicus
2010-09-08, 17:21:33
Ja, war sie auch. Wobei "200€" dann auch echt die unterste Grenze bisher waren.
Die 5850 ist auch ein Paradebeispiel dafür, wie langsam es mittlerweile nur noch voran geht.

Es gab halt keine Konkurrenz. Das ist jetzt anders. Die Preise werden weiter purzeln. Trotzdem frage ich mich natürlich auch, ob es ratsam wäre gleich am Anfang eine zu holen oder erst mal abzuwarten bis die Hersteller vernünftige Lüfterdesigns rausbringen. Die Referenzversionen von AMD sind ja meistens für die Tonne. Hoffentlich erlaubt AMD von Anfang an, dass die Hersteller eigene Designs bringen dürfen.

Gast
2010-09-08, 17:51:29
Es gab halt keine Konkurrenz.
... und TSMC war nicht in der Lage ausreichende Stückzahlen an GPUs zu produzieren, als dass es eine Preiskampf unter den Kartenherstellern gab.

Gast
2010-09-08, 18:38:43
Ich will kein Pfeifkonzert in meinem Silentrechner haben. :D

Außerdem ist die GTX 460 nachwievor nicht so effizient Watt/FPS wie die Radeons. Wenn AMD die Effizenz noch weiter steigert bei den neuen Karten, wäre ich schön blöd mir jetzt eine NVidia zu holen.

Was soll da bitte pfeifen? Meine Karte ist extrem leise. Da pfeift gar nix und ATI Karten in der Leistungs- und Preisregion schlägt sie in Punkto Lautstärke allemal.

Zumal Effienz kein Verhältnis von Watt/FPS ist sondern von Watt/FPS/Features/Bildqualität.
Wüsste nicht, das ATI da gegen die 460 irgendwas vergleichbares hätte. Features und Bildqualität sind nach wie vor nicht auf dem Niveau.

CrazyIvan
2010-09-08, 19:11:06
Wenn AMD die Effizenz noch weiter steigert bei den neuen Karten, wäre ich schön blöd mir jetzt eine NVidia zu holen.
Effizienz!=Effizienz
AMD wird diesmal sicherlich zugunsten der Performance/qm auf ein wenig Performance/Watt verzichten. Das man beides gleichzeitig erreicht mag ich noch nicht so recht glauben.

Ailuros
2010-09-08, 19:21:00
Effizienz!=Effizienz
AMD wird diesmal sicherlich zugunsten der Performance/qm auf ein wenig Performance/Watt verzichten. Das man beides gleichzeitig erreicht mag ich noch nicht so recht glauben.

Ich hoere aber von einer 2*6-pin GPU mit einem gesunden Leistungschub. Wenn ich auf die TDP der 5870 sagen wir mal 20% drauflege liege ich automatisch ueber der theoretischen 2*6pin Grenze. Ergo deutet momentan mehr auf eine leicht bessere perf/W wie auf Cypress und nicht umgekehrt.

y33H@
2010-09-08, 19:24:24
0,6 Watt drüber - das ist fei ein Argument :D

Hugo78
2010-09-08, 19:26:18
Ich hoere aber von einer 2*6-pin GPU mit einem gesunden Leistungschub.

Das hier ist 8+6Pin.
http://www.xtremesystems.org/forums/showpost.php?p=4541787&postcount=449

Chris2CB
2010-09-08, 19:27:19
Was nichts macht, kann keinen Strom verbrauchen. Gerade bei den 5800er klafft eine große Lücke: Verbrauch Benchmark und Verbrauch Spiele real. Aufgrund der angeblichen besseren Auslastung der Einheiten wäre der Verbrauch eine 6800er in realen spielen mit unter um einiges höher.

Fetza
2010-09-08, 19:28:13
Ich hoere aber von einer 2*6-pin GPU mit einem gesunden Leistungschub. Wenn ich auf die TDP der 5870 sagen wir mal 20% drauflege liege ich automatisch ueber der theoretischen 2*6pin Grenze. Ergo deutet momentan mehr auf eine leicht bessere perf/W wie auf Cypress und nicht umgekehrt.

Hör doch mal was davon, ob der chip vernünftiges af beherrscht. :) Ohne dem bringen die ganzen performancesteigerungen herzlich wenig, imoho.

Gast
2010-09-08, 21:08:45
Neues Bildmaterial zu Cayman XT. Angeblich 256-bit SI und nochmals Bestätigung für 1x8 und 1x6-Pin.

http://www.xtremesystems.org/forums/showpost.php?p=4543052&postcount=501

http://gpudesign.bafree.net/radeon-cayman-xt-hd-6x70-pcb-picture

Zockerfrettchen
2010-09-08, 22:06:13
Ich glaube kaum das jemand mit 61 Posts als gesicherte Quelle zu nennen ist....

davidzo
2010-09-08, 22:19:58
naja, das Bild scheint von derselben karte zu sein wie das bild von vor ein paar Tagen. die sechs + 8 pin strom sowie die Anschlüsse sind bei beiden bildern aufgetaucht und bestätigen nebenbei auch dass es keine 5800er Karte ist.
BartsXT wird das ebenfalls nicht sein, da dieser sicherlich nicht mit 6+8pin strom kommt. so kann es sich eigentlich nur um cayman handeln. Die Kühllösung mit erneut ziemlich kleinem Luftauslass an der Rückseite (imo kann man die DVIs auch weglassen und nur miniDP verbauen) deuten auf kaum mehr abwärme als bei Cypress hin. Die TDP scheint also nicht viel größer zu sein, wenn überhaupt.

Fotos faken? das sähe besser aus. gerade weil es so schlecht freigestellt ist und unscharf ist es echt.

Das mit dem 256bit interface kann man auch deutlich sehen, 8 chips deuten sicher darauf hin.
Schade, ich hätte 384bit besser gefunden, aber das war ja sowieso eine verschwendete hoffnung...

Gasti
2010-09-08, 22:24:55
naja, das Bild scheint von derselben karte zu sein wie das bild von vor ein paar Tagen. die sechs + 8 pin strom sowie die Anschlüsse sind bei beiden bildern aufgetaucht und bestätigen nebenbei auch dass es keine 5800er Karte ist.
BartsXT wird das ebenfalls nicht sein, da dieser sicherlich nicht mit 6+8pin strom kommt. so kann es sich eigentlich nur um cayman handeln.


Fotos faken? das sähe besser aus. gerade weil es so schlecht freigestellt ist und unscharf ist es echt.

Das mit dem 256bit interface kann man auch deutlich sehen, 8 chips deuten sicher darauf hin.
Schade, ich hätte 384bit besser gefunden, aber das war ja sowieso eine verschwendete hoffnung...

Warum?
RV870 war doch afaik Dadurch nicht limitiert.
Und das Interface breiter machen und dafür einen sehr niedrig getakteten Speicher wie NV zu verwenden ist auch nicht gerade besser.

Gast
2010-09-08, 22:52:00
Solange nichts offiziell ist, ist natürlich garnichts als sicher anzusehen, aber das sollte eigentlich doch klar sein. Die Fotos zeigen zumindest immer die selbe Karte und Fakes sind es bestimmt nicht. Entweder alle 3 Bilder die es mittlerweile gibt zeigen keine HD6870 Karte oder alle tuen es.

AMD baut aus Prinzip nur das was der absolute Großteil der Zielgruppe braucht und deshalb wird es auch wieder 256-bit SI und 1GB GDDR5 als Standard geben. Irgendwelche verschwindend kleine Klientel von HD-Texture-Mod Leuten die unbedingt 2 GB oder noch mehr wollen, sind ganz einfach zu unbedeutend. Außerdem wird AMD schon dafür sorgen, dass es nicht an Speicherbandbreite fehlen wird.

Gasti
2010-09-08, 23:10:17
Es wir auch diesmal für die Boardpartner möglich sein 2GB Versionen zu verkaufen.
An der Speichermenge wird Es sicher nicht fehlen.

Gestrandet
2010-09-08, 23:18:36
Kein Konsolenport der Welt braucht 2GB VRAM. Also gibts auch keinen Bedarf an solchen Karten.

Gast6
2010-09-09, 08:08:35
GTA4...

Fetza
2010-09-09, 09:50:44
Kein Konsolenport der Welt braucht 2GB VRAM. Also gibts auch keinen Bedarf an solchen Karten.
GTA4...

Das hat weder was mit konsolenports noch mit gta4 zutun. Die frage ist ganz einfach, was man sinnvoller weise verbaut. Da gilt es abzuwegen und 1 gb gram ist einfach absolut ausreichend. Ati hatte ja auch nie den speicherbug so wie die g80-gt200 karten von nv. Gerade wenn die karte hochgetakteten speicher verwendet wird, muss man auch auf den preis achten.

john carmack
2010-09-09, 10:30:52
1GB ist NOCH ausreichend!

- Und es kommt immer darauf an was man mit seinem System anstellen will! - Es gibt durchaus Leute die zB. eben nur alle 3 Jahre eine neue Grafikkarte kaufen. Für diese würde sich heute eine 2GB Version lohnen.

Iruwen
2010-09-09, 10:35:42
Kein Konsolenport der Welt braucht 2GB VRAM. Also gibts auch keinen Bedarf an solchen Karten.

Ich brauch es nicht, also braucht es keiner. :freak:
Natürlich gibt es einen Bedarf, und wenn er auch gering sein mag.

w0mbat
2010-09-09, 11:43:08
1GB ist NOCH ausreichend!

- Und es kommt immer darauf an was man mit seinem System anstellen will! - Es gibt durchaus Leute die zB. eben nur alle 3 Jahre eine neue Grafikkarte kaufen. Für diese würde sich heute eine 2GB Version lohnen.

naja, die gpu leistung von heute hilft in 3 jahren auch nichts mehr, mit oder ohne 2gb.

SamLombardo
2010-09-09, 11:57:15
In der PCGames gab es mal Benchmarks 1GB vs 2GB in aktuellen Spielen und es war erstaunlich wie viel der höhere Speicher doch bringt. Das reichte von gar nix bis zu 30 Prozent und mehr fps Zuwachs. In manchem games (Metro2033@max, GTA4@max) macht der Mehrspeicher sogar den Unterschied zwischen unspielbar und gut spielbar aus.
Außerdem gibt es die 0 8 15 Konsolenports (zum Glück!) kaum noch. Die PC Versionen sind immer mehr ordentlich aufgepeppte Versionen mit deutlich besseren Texturen und höherem Techlevel (DX9 Konsole vs DX11 PC). Selbst hochkarätige PC only Titel wie The Witcher 2, Diablo etc gibt es wieder. Bei den meisten Multiplattformspielen ist der PC die Entwicklerplattform und die Konsolen bekommen die Ports (mit gehörigen Abstrichen). Schöne Entwicklung für den PC als Spieleplattform.
Lange Rede kurzer Sinn:): Ich würde mir keine Karte mit 1GB mehr kaufen. Dazu limitieren diese jetzt schon genug und das wird in Zukunft sicher nicht weniger.

john carmack
2010-09-09, 12:16:09
naja, die gpu leistung von heute hilft in 3 jahren auch nichts mehr, mit oder ohne 2gb.


Sag ich doch! Es kommt immer darauf an was man mit seinem System anfangen will. Es werden auch noch in 3 Jahren spiele rauskommen in denen eine 5870/6870 2GB für volle Auflösung/Details reicht.

Für 3D Shooter natürlich nicht...

Aber für zB. Echtzeitstrategie, Adventures, evtl Rollenspiele...

Nur ein beispiel: Ich konnte C&C3 TW mit meiner X800XT PE 256MB (Baujahr 2004) auf 1600x1200 Max Details doch sehr flüssig spielen :-)

Fetza
2010-09-09, 12:48:33
Ich würde mir keine Karte mit 1GB mehr kaufen. Dazu limitieren diese jetzt schon genug und das wird in Zukunft sicher nicht weniger.

Sorry, aber das ist unfug. Natürlich kann man ein spiel so aufbretzeln das man 2gb ram gut vertragen kann, das stellt aber kaum die regel da:

http://www.computerbase.de/artikel/grafikkarten/2010/test-zwei-radeon-hd-5870-mit-2.048-mb/24/#abschnitt_fazit

Die aktuellen grakas mit 1gb ram limitieren noch überhaupt nicht. Wenn 2gb dann mal was bringen liegt es zehntelframes bereich.

Wenn du natürlich in 25xxer auflösungen zockst, dazu mit 32er aa und wie schon richtigerweise gesagt wurde, dazu noch texturemods nutzt, ok. Dann kaufst du dir eine 2gb karte. Aber dann muss man halt auch den mehrpeis zahlen wollen.

Iruwen
2010-09-09, 13:10:53
Außerdem gibt es die 0 8 15 Konsolenports (zum Glück!) kaum noch. Die PC Versionen sind immer mehr ordentlich aufgepeppte Versionen mit deutlich besseren Texturen und höherem Techlevel (DX9 Konsole vs DX11 PC). Selbst hochkarätige PC only Titel wie The Witcher 2, Diablo etc gibt es wieder. Bei den meisten Multiplattformspielen ist der PC die Entwicklerplattform und die Konsolen bekommen die Ports (mit gehörigen Abstrichen). Schöne Entwicklung für den PC als Spieleplattform.

Da redest du dir die aktuelle Marktlage aber glaub ich ziemlich schön, das würde ich so nicht unterschreiben. Zumal die PC Versionen wenn sie denn hübscher sind auch gleich exorbitant mehr Leistung fressen dank mangelnder Optimierung.

john carmack
2010-09-09, 13:26:14
Es geht ja jetzt auch nicht um 1GB oder 2GB versionen sondern um die neue HD6000 Serie :D

*vorfreu*

pXe
2010-09-09, 13:29:42
...
Außerdem gibt es die 0 8 15 Konsolenports (zum Glück!) kaum noch. Die PC Versionen sind immer mehr ordentlich aufgepeppte Versionen mit deutlich besseren Texturen und höherem Techlevel (DX9 Konsole vs DX11 PC). Selbst hochkarätige PC only Titel wie The Witcher 2, Diablo etc gibt es wieder. Bei den meisten Multiplattformspielen ist der PC die Entwicklerplattform und die Konsolen bekommen die Ports (mit gehörigen Abstrichen). Schöne Entwicklung für den PC als Spieleplattform.
...

Hu? Lebst Du in einem Paralelluniversum:confused:


pXe

Gestrandet
2010-09-09, 13:33:06
Ich denke, das war ironisch gemeint von SL

SamLombardo
2010-09-09, 13:37:16
Sorry, aber das ist unfug. Natürlich kann man ein spiel so aufbretzeln das man 2gb ram gut vertragen kann, das stellt aber kaum die regel da:

http://www.computerbase.de/artikel/grafikkarten/2010/test-zwei-radeon-hd-5870-mit-2.048-mb/24/#abschnitt_fazit

Die aktuellen grakas mit 1gb ram limitieren noch überhaupt nicht. Wenn 2gb dann mal was bringen liegt es zehntelframes bereich.
[QUOTE]
Sorry, aber so pauschal wie Du es hinstellst ist es ebenso Unfug.
Selbst in dem von Dir verlinkten Fazit findet sich folgender Satz
[QUOTE]Nichtsdestoweniger gibt es bereits einige Titel, die von dem größeren Speicher profitieren können: Crysis Warhead, Stalker – Call of Pripyat und das von uns nicht getestete Metro 2033 stehen 2.048 MB auf der Radeon HD 5870 sehr aufgeschlossen gegenüber. Nicht vergessen werden sollten zudem zahlreiche Texturmods aktueller Spiele, die stark auf den VRAM gehen.In Zukunft werden sich die Speicheranforderungen sicherlich in Richtung zwei Gigabyte bewegen

Der Satz mit dem Zehntelframebereich ist ebenfalls völliger Quatsch, wenn Du Dir Deine eigene Verlinkung mal durchliest. In Metro 2033 ist die 2GB Verson in 1920x1080 satte sechs mal schneller als die 1GB Version der HD5870, in 1680x1050 sinds immer noch 35 Prozent Zuwachs. Das Fazit des PCHG Tests:Während das vermeintlich speicherhungrige GTA 4 nicht den Hauch eines Vorteils aus 2 GiB VRAM auf einer HD 5870 zieht, profitieren die anderen Titel extrem von der Speicher-Verdopplung.
Ich geb Dir ja recht, dass es noch nicht die Masse ist und dass für die älteren Titel ohne Texturmods (andererseits: Wer Titel spielt zu denen Texturmods existieren, möchte diese normalerweise auch nutzen, aber seis drum) 1gb ausreicht. Nur so pauschal und eindeutig wie Du es hinstellst ist es eben nicht.
Ich sag ja auch nicht, dass nun alle im Umlauf befindlichen 1gb Karten zum alten Eisen gehören, nur: Wenn ich heute eine Karte im mehrere hundert Euro Bereich kaufe halte ich eine Speichergröße >1gb durchaus für sinnvoll, bzw würde darauf achten.

Gestrandet
2010-09-09, 13:47:22
Im Prinzip hast du natürlich Recht, diese Stagnation beim Speicherausbau passt nicht recht zur Entwicklung der Rechenleistung der Karten. Aber das ist mehr ein Wahrnehmungsproblem: zum einen gibt de fakto die Plattform, für die primär entwickelt wird, den Technologielevel vor, und das sind nunmal die Konsolen - GraKas haben also nicht zuwenig Speicher, sondern zuviel Power. Und andererseits ist das ganz normal, das sich nicht alle Baugruppen eines Geräts im Gleichschritt weiterentwickeln. Man denke an die Festplatten, wo es immer wieder zu Phasen kommt, in denen die maximal am Markt erhältliche Größe mit der aktuellen Schnittstellentechnik kaum noch in sinnvoller Zeit zu befüllen ist. Irgendwann macht die Gruppe, die den Flaschenhals markiert, dann nen Sprung, holt zu den anderen auf und alles ist wieder gut.

SamLombardo
2010-09-09, 13:48:56
@Gestrandet, ist ein interessanter Punkt. Da ist sicher was dran. Dennoch @Technologielevel und Konsolen: Schau mal in den unten geposteten Link. Der tatsächliche Stand ist wahrscheinlich wie immer irgendwo dazwischen.


@ posts davor:
nö, war nicht ironisch gemeint und ich leb auch nicht in einem Paralleluniversum:biggrin:
Aber ein bissel Optimismus ist durchaus angebracht. Das sehen andere auch so siehe zB hier http://www.pcgameshardware.de/aid,770866/Hoffnungstraeger-PC-Exklusive-PC-Spiele-und-Spiele-mit-PC-Optimierungen/Spiele/News/

Es gibt doch wieder positive Entwicklungen. Wie schon gesagt sind PC Versionen von Multiplattformtiteln mittlerweile eigentlich immer optisch verbessert, teilweise deutlich schöner als die Konsolenversionen, meist gibts nen DX11 Pfad inkl. der neuen Effekte - bessere Texturen etc. eigentlich immer. Das war nicht immer so. Und das zahlt sich manchmal auch aus, Metro 2033 beispielsweise hat sich auf dem PC öfter verkauft als auf Konsole, SC2 scheint wieder ein Megaerfolg zu werden, trotz PCOnly, The Witcher 2 wird erstmal PConly (auch wenn eine spätere Konsolenumsetzung geplant ist...aber besser als andersrum), Fable 3 kommt auf einmal für PC (Teil 2 war noch Konsole only) usw, usw...
Und das wird sich wegen der immer stärker veralteten Konsolenhardware eher noch verstärken so lange die neue Konsolengeneration nicht draußen ist (und das wird wohl noch ne ganze Weile dauern)
Insofern gibt es schon Anlass zur Hoffnung, ja sogar einen Trend imho;)

Gruß

DrFreaK666
2010-09-09, 13:58:53
... meist gibts nen DX11 Pfad inkl. der neuen Effekte...
Gruß

Meist??? Kommst du aus der Zukunft??

Gasti
2010-09-09, 14:05:11
Ich verstehe noch immer das Problem nicht.
Es obliegt weiterhin dem Boardpartnern mehr Speicher zu verbauen und es gibt auch jetzt schon jede Menge Karten mit 2GB Speicher.
Dass im Midrange/Performancebereich da Anzahl nicht so hoch ist, liegt wohl daran, dass dort 50€ den Unterschied zwischen absoluter Empfehlung und "viel zu teuer!" macht.
Da wird kaum eine Karte mit 2GB Mindestaustattung erscheinen.

Gestrandet
2010-09-09, 14:07:47
Die Frage ist halt bei jedem Titel, wie die speziellen PC-Features umgesetzt sind, wieivel Arbeit da wirklich investiert wird, und ob sich die Spezialisierungen nahtlos einfügen oder vielleicht grob angeflanscht daher kommen und eher stören. Grundsätzlich ist aber natürlich begrüßenswert, wenn für den PC extra was getan wird. Ich habe nur die Befürchtung, dass das nicht selten bloße Lippenbekenntisse sind, die dann mit Minimalaufwand umgesetzt werden, also mehr in der Bereich der PR-Arbeit denn der Entwicklungsarbeit fallen.

Gast
2010-09-09, 14:17:33
Die Frage wieviel Speicher die Referenzkarten bekommen sollen, wird man bei AMD natürlich diskutiert haben. Dabei gilt es dann abzuwägen wieviele %-Punkte an der Gesamtzielgruppe sich 2GB wünschen bzw. davon profitieren würden und wieviele nach wie vor mit 1GB ausreichend bedient sind. AMD will da niemanden ärgern, sondern auch das ist eine ganz kühle logische Entscheidung. In dem Moment wo man durch nur 1GB benchmarktechnisch ins Hintertreffen geraten würde, würde man auch reagieren.

Davon mal abgesehen ist es natürlich auch eine Kostenfrage und dank 256-bit SI ist halt nur 1GB oder 2GB möglich. Da Cayman nun allen Anschein nach doch nur mit 256-bit kommt, muss man wohl wirklich auf entsprechend teuren HighSpeed-GDDR5 setzen.

davidzo
2010-09-09, 14:35:10
Warum?
RV870 war doch afaik Dadurch nicht limitiert.

Lol, das kann man so nicht sagen. Es gibt Anwendungen da limitiert die Bandbreite eher und es gibt welche die hängen völlig an der GPUleistung. RV870 ist sehr knapp ausgelegt, aber so dass meistens die Bandbreite nicht limitiert. Allerdings liegen diese Tests auch schon etwas zurück und sind nicht mit brandaktuellen Anwendungen nachvollzogen worden.
Wäre toll, wenn sich rv970 davon lösen könnte dass man sich auch bei chipübertaktung keine sorgen um die bandbreite machen muss. - Die geforce 2 Ultra hatte auch einiges für sich...


Kein Konsolenport der Welt braucht 2GB VRAM. Also gibts auch keinen Bedarf an solchen Karten.

Kein Konsolenport der Welt braucht eine schnellere GPU als rv870.
Nun, die Ansprüche steigen eben. Mit 2x Supersampling nach dieser Methode (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129&highlight=downsampling) gibt es schon einige ältere Spiele und Konsolenports die nach mehr Ram und mehr Bandbreite lechzen. Irgendwofür kauft man sich ja die neue GPU, nicht damit da statt 60fps plötzlich 100 stehen. Alle konkreten Angebote die BQ zu steigern kosten im moment halt sehr viel Leistung und vor allem auch Speicher.

Sorry, aber das ist unfug. Natürlich kann man ein spiel so aufbretzeln das man 2gb ram gut vertragen kann, das stellt aber kaum die regel da
Naja, mit einer highendkarte kommt es eben auf die paar ausnahmen an, nicht auf die mainstreamspiele. Sonst kann man sowieso immer midrange kaufen, damit laufen auch die meisten aktuellen spiele mit sehr guten einstellungen.


Der Satz mit dem Zehntelframebereich ist ebenfalls völliger Quatsch, wenn Du Dir Deine eigene Verlinkung mal durchliest.
Wie recht du hast. Entweder der speicher ist ausreichend, dann merkt man genau gar nichts mit einer 2GB karte oder der Speicher läuft voll und dann bricht die performance völlig ein. Sicher hängt es noch ein bisschen davon ab ob nur ein paar kilobyte aus dem viel langsameren hauptspeicher geholt werden müssen oder ein paar hundert megabyte, aber letzteres geschieht schnell und dann ist die 2GBkarte vielfach schneller. Da sind die 30% performancegewinn gegenüber einer 5870 auf die wir so anständig hoffen nichts gegen.

Gerade wenn die karte hochgetakteten speicher verwendet wird, muss man auch auf den preis achten.


Genau das ist das Problem. 2GB karten werden teuer sein. 384bit mit etwas niedrigerem speichertakt hätten das gelöst. Wenn der Speicher volläuft, dann meistens nicht gleich 200% - 1,5Gb reichen gemessen an den heutigen umständen völlig, performanceabschläge zu einer 2Gb karte sind nicht zu erwarten. Im gegenteil, mit 1,5GB 384bit hat man eher einen leistungsvorteil durch die hohe Bandbreite obwohl die Karte eher weniger kostet als ein 2GB/256bit modell.
Von daher macht AMD diese Abstriche beim speicher auf Kosten der highendkunden. die legen beim 2GB modell entsprechend oben drauf, damit die 1GBmodelle im performancebreich billiger sind. So eine Subvention ist zwar sehr sozial, aber Schade fürs echte Highend, weil man mit dem Kompromiss eben nur die zweitbeste Lösung bekommt und dafür auch noch mehr hinblättert.

Gast
2010-09-09, 14:42:16
Erstens wird es ja auch 2GB Modelle geben und zweitens sieht AMD ja sowieso MGPU als HighEnd (wie immer man dazu auch stehen mag).

Iruwen
2010-09-09, 14:52:56
MGPU braucht doch erst recht 2GB weil man viel höhere Settings nimmt oder nicht?

Gast
2010-09-09, 15:59:16
MGPU braucht doch erst recht 2GB weil man viel höhere Settings nimmt oder nicht?


Eben; alles andere ist einfach zu 9800 GX 2. :freak:

BlackBirdSR
2010-09-10, 07:43:20
Ich werfe es mal so in den Raum:

ATIs Performancezuwächse mit neuen Chips sind sehr schade, wenn sie das nicht zur Ausbesserung der Nachteile beim Filtering nutzen. Da hat man immer den Nachgeschmack, dass man eigentlich besseres haben könnte, und immernoch genug Performance hat.

Gast
2010-09-10, 09:27:45
Jeder der sich mit Grafikkarten beschäftigt weiß das aber. Wenn man beim AF eine höhere Quali haben will, muss man halt eine NV kaufen. So einfach ist das. Ich habe eine HD5870 und bin absolut zufrieden mit der Karte und nein ich habe noch keinen Augenkrebs. Liegt wahrscheinlich daran das ich die Games hauptsächlich spiele und nicht stundenlang die Grafik nach Fehlern absuche. Naja aber wenn ich mir manche Artikel über Games auf verschiedenen Seiten anschaue, geht es ja oft nur noch darum welche Grafik-Features und sonstige tolle Techniken unterstützt werden, ob das Game Spaß macht ist da oft nur noch Nebensache.

Gast
2010-09-10, 09:29:37
So schwer kann das doch nicht sein einfach eine Option für HQ-Texturfilterung anzubieten. Leistung haben die 6700 und 6800er Karten doch mehr als genug (wenn man keine Shooter spielt).

Naja, ich habe mir eh vorgenommen erst nach dem Shrink auf 22nm einen neuen Spielerechner zu kaufen.

john carmack
2010-09-10, 09:47:37
Noch mehr News :D

http://www.hardware-infos.com/news.php?news=3692


Huch, wohl doch schon etwas älter...

MadManniMan
2010-09-10, 10:53:12
Jeder der sich mit Grafikkarten beschäftigt weiß das aber. Wenn man beim AF eine höhere Quali haben will, muss man halt eine NV kaufen. So einfach ist das. Ich habe eine HD5870 und bin absolut zufrieden mit der Karte und nein ich habe noch keinen Augenkrebs. Liegt wahrscheinlich daran das ich die Games hauptsächlich spiele und nicht stundenlang die Grafik nach Fehlern absuche. Naja aber wenn ich mir manche Artikel über Games auf verschiedenen Seiten anschaue, geht es ja oft nur noch darum welche Grafik-Features und sonstige tolle Techniken unterstützt werden, ob das Game Spaß macht ist da oft nur noch Nebensache.

Sieh es doch einfach mal so:
Ob ein Spiel generell überhaupt Spaß macht, oder nicht, hängt wesentlich natürlich mit der Spielmechanik zusammen. Die gesamte Präsentation sollte diese bestmöglich unterstützen - und eine gute Optik lässt einen nunmal wesentlich tiefer in das Spiel eintauchen.
So gibt es nun niemanden, der etwas dagegen hat, wenn die Einstellmöglichkeiten für die Grafik auch Optionen bieten, die die visuelle Darstellung über das "übliche" Maß hinaus tragen.
Battlefield Bad Company 2 z.B. bietet Ambient Occlusion, was eine für manche kaum wahrnehmbare, aber doch deutliche Aufwertung der Optik bietet, aber auch entsprechend Performance frisst. Es ist kein INYOURFACE™-Feature, aber doch relevant für eine natürlichere Darstellung.

HQ-AF ist ebenso ein solches Feature. Es ist für eine natürlich Darstellung von Belang, wertet die Optik der Titel auf, hat aber natürlich keine Auswirkungen auf die Spielmechanik. Dennoch ist es eben das Quäntchen, das ausgezeichnete von sehr guter Grafik trennt.

john carmack
2010-09-10, 11:21:52
Hat jemand mal zwei Bilder von einem Game mit AF für ne ATI und eine Nvidia?

Kann mir grad net so richtig vorstellen das es einen großen unterschied gibt.

BlackBirdSR
2010-09-10, 12:32:21
Hat jemand mal zwei Bilder von einem Game mit AF für ne ATI und eine Nvidia?

Kann mir grad net so richtig vorstellen das es einen großen unterschied gibt.

Videos, keine Bilder.
Eigentlich müsste man es sich sogar persönlich live ansehen.

Manche stört es, manche merken gar nichts. Kommt immer darauf an. Manche finden es einfach nicht ok, dass ihnen nicht die Wahl gelassen wird.

Gast
2010-09-10, 12:41:48
. Manche finden es einfach nicht ok, dass ihnen nicht die Wahl gelassen wird.


Was für eine Wahl?

Gast
2010-09-10, 12:45:04
Was für eine Wahl?
Performance in Bildqualität zu investieren oder bildqualitätsverschlechternde Sampleeinsparungen für einen geringfügigen Performancegewinn in Kauf zu nehmen.

N0Thing
2010-09-10, 12:45:24
Hat jemand mal zwei Bilder von einem Game mit AF für ne ATI und eine Nvidia?

Kann mir grad net so richtig vorstellen das es einen großen unterschied gibt.

Im Thread von Raff (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069) gibt es einige Beispiele, mit der Suchfunktion sollten sich auch ältere Versionen finden lassen. Je nach Spiel und Szene sieht man den Unterschied sehr deutlich, manchmal aber auch nur wenn man darauf achtet. Zudem hat jeder seine eigene Wahrnehmung und Empfindlichkeit.

Gast
2010-09-10, 13:19:13
Quad-5770 Review, wo die vier Juniper GPUs desöfteren zwei Cypress bei gleichem Takt deutlich übetrumpfen: http://www.guru3d.com/article/powercolor-radeon-5770-single-slot-quad-crossfirex-review/1

Da sieht man eindeutig, wie sehr bei Evergreen es an einem ausreichend leistungsfähigen Frontend fehlt, wenn selbst ein AFR-System sich so behaupten kann.

Gast
2010-09-10, 13:21:59
Bei den Videos in Raffs Thread musste ich schon damals schmunzeln. Man solle z. B. darauf achten, dass eine Bodentextur bei AMD etwas flimmere, was man selbst auf den Videos so gut wie gar nicht sieht (ich sehe bei den meisten Videos bis heute keinen Unterschied), während aber der ganze restliche Content (Content-Flimmern, Content, wo kein MSAA greift etc.) am Flimmern ist und am meisten ins Auge sticht (AF-Qualitäts- und damit herstellerunabhängig): Büsche, Gitter etc. Das Bild in modernen Spielen ist nur noch mit SSAA ruhigzustellen und das frisst zu viel Leistung, blurrt oder funktioniert aus anderen Gründen nicht (vernünftig). Und dann kommt noch die Tatsache hinzu, dass Spiele mittlererweile vermehrt Anti-Aliasing gar nicht mehr unterstützen (Gothic 3, Risen, GTA IV, Mafia II etc.). Da ist AMDs AF noch das geringste Übel.

Gast
2010-09-10, 13:33:02
Und dann kommt noch die Tatsache hinzu, dass Spiele mittlererweile vermehrt Anti-Aliasing gar nicht mehr unterstützen (Gothic 3, Risen, GTA IV, Mafia II etc.). Da ist AMDs AF noch das geringste Übel.

Wenn zum fehlenden Anti-Aliasing auch noch flimmernde Texturen kommen, kann ich mir gleich ne Konsole kaufen, da hab ich das selbe für einen Bruchteil des Preises. ;-)

Ne, ne ich will ja erstmal, immer meine 60 Frames, aber alles darüber hinaus investiere ich lieber in Bildqualität.
Und wenn mir ein Hersteller das verweigert, obwohl es auch anders gehen könnte, dann ist das nicht ok.

Kann doch nicht so schwer sein.
SSAA für DX9 hat AMD ja auch gebacken bekommen.

john carmack
2010-09-10, 13:33:47
Quad-5770 Review, wo die vier Juniper GPUs desöfteren zwei Cypress bei gleichem Takt deutlich übetrumpfen: http://www.guru3d.com/article/powercolor-radeon-5770-single-slot-quad-crossfirex-review/1

Da sieht man eindeutig, wie sehr bei Evergreen es an einem ausreichend leistungsfähigen Frontend fehlt, wenn selbst ein AFR-System sich so behaupten kann.

Was ist ein Frontend?

john carmack
2010-09-10, 13:40:01
Kann doch nicht so schwer sein.
SSAA für DX9 hat AMD ja auch gebacken bekommen.

Ist das jetzt Pro AMD oder Pro Nvidia?


Kann mich grad mal jemand aufklären? - Ich blick da net so durch.

Was ist denn jetzt an AMD und Nvidia anders? Die BildQuali?
AA / AF / AFR???

Sorry... Was ist denn bitte bei welcher Marke besser und bei der anderen nicht?

Hab auch schon oft gehört das das den Leuten egal sei weil man mit der Lupe nach Qualitätsunterschieden suchen müsste um überhaupt diese zu entdecken.



*******************************

Ihr merkt das wohl schon... Ich bin mit meinem KnowHow wohl etwas hinten dran :D

Gast
2010-09-10, 15:20:08
Barts: http://www.xtremesystems.org/forums/showpost.php?p=4545262&postcount=524
... mit interessant positionierten Spannungswandlern.

Gast
2010-09-10, 15:40:48
Barts: http://www.xtremesystems.org/forums/showpost.php?p=4545262&postcount=524
... mit interessant positionierten Spannungswandlern.

Das Barts PCB sieht relativ klein aus. Könnte wohl doch Juniper mit 4D Shadern werden.

Gast
2010-09-10, 15:46:48
Das Barts PCB sieht relativ klein aus. Könnte wohl doch Juniper mit 4D Shadern werden.
Ein ersichtliches 256-Bit SI und 2x 6-Pin und dann soll es 640SPs Chip sein?

Gast
2010-09-10, 15:52:58
Wie Vertrauenswürdig ist denn Nordichardware?

http://www.nordichardware.com/news/71-graphics/41060-amd-barts-launches-in-october-as-radeon-hd-6800.html

Gast
2010-09-10, 15:55:58
Ein ersichtliches 256-Bit SI und 2x 6-Pin und dann soll es 640SPs Chip sein?

Juniper hat 800SP. Hab aber grad nochmal nachgeschaut, das Juniper PCB ist noch kleiner als Barts PCB.

Das Barts PCB sieht jedenfalls komisch aus.

Fetza
2010-09-10, 16:16:40
Wie Vertrauenswürdig ist denn Nordichardware?

http://www.nordichardware.com/news/71-graphics/41060-amd-barts-launches-in-october-as-radeon-hd-6800.html

Zumindest ist die meldung bestimmt falsch, wie bereits vorher besprochen, denn:

"the card and performance is said to be on par with Radeon HD 5850"

Eine karte die langsamer als eine hd 5870 ist, kann man wohl kaum als 6870 vermarkten. Das ist quatsch, barts müsste dann schneller sein als diese.

Spasstiger
2010-09-10, 16:20:28
Die Karte sieht mir eher nach Radeon-HD-5870-Niveau aus als nach HD-5770-Niveau. Evtl. 1280 SPs an einem 256-Bit-Speicherinterface.

Fetza
2010-09-10, 16:28:53
Die Karte sieht mir eher nach Radeon-HD-5870-Niveau aus als nach HD-5770-Niveau. Evtl. 1280 SPs an einem 256-Bit-Speicherinterface.

Wäre ja cool, vor allem, wenn sie sich beim preisniveau an der gtx 460 angleichen.

Fetter Fettsack
2010-09-10, 16:47:11
AA: im Grunde bei beiden Herstellern gleich (Außnahmen einmal außen vor gelassen)

AF: Anisotropische Filterung

ATi bietet schlichtweg "nur" einen optimierten Modus an, der laut laut diversen Aussagen bei anfälligem Content flimmern kann. Optimiert = es werden zugunsten der Performance Samples (Abtastvorgänge) eingespart.
nVidia hat auch einen optimierten Standardmodus, bietet aber zusätzlich noch einen HQ-Modus an, der es auf Kosten der Performance erlaubt eine "vollständige" (=fast flimmerfreie) AF-Filterung zu erhalten.

AFR: http://de.wikipedia.org/wiki/Alternate_Frame_Rendering_%28Modus%29

Heutzutage gängige Technik zur Lastverteilung auf mehrere GPUs (die etwa in einem CF oder SLI-Verbund laufen)

Um die Verwirrung noch zu erhöhen: 3dfx hatte auch einen SLI-Modus, der aber nichts mit dem heutigen zu tun hat und bei dem der VRAM skalierte, was bei AFR nicht der Fall ist. Alles Klar? :ulol:

EDIT: jo, danke Gast. :)

Gast
2010-09-10, 16:52:38
*Klugscheiß* anisotrope Filterung

MR2
2010-09-10, 17:19:13
Barts XT, also die HD6770 ist das wohl. Wieso sollte die Performance nicht auf HD5850 Niveau liegen? Ich denke das passt schon!

http://www.pcgameshardware.de/aid,773862/AMD-Barts-Prototypenkarte-einer-mutmasslichen-Radeon-HD-6770-gesichtet/Grafikkarte/News/


"Barts XT, spekulativ HD 6770 genannt (Quelle sprechen auch von einer HD 6800er-Karte, weil Barts XT überraschend schnell sein soll)"


schon seltsam....

Eggcake
2010-09-10, 17:28:00
Er meinte eher, dass es kaum eine HD6870 geben wird, welche langsamer als die HD5870 ist. Nicht dass es unmöglich ist, HD5850-Niveau zu erreichen.

MR2
2010-09-10, 17:35:16
Ähm, jo....


Seltsam finde ich die Bezeichnungen 6900 und 6990 für Caymen und Antilles. (nordichardwarelink) ATI-Forum hatte diese Namen ja auch in der Zerre, da stand aber was von Rebranding. Vielleicht falsch interpretiert....

Hoffentlich kommt das nicht so und wir bleiben schön bei 6850 und 6870.

Gast
2010-09-10, 17:42:52
AMD zieht jetzt mit dem Namenschaos nach. Wird bestimmt für Verwirrung unter der Kundschaft sorgen.

john carmack
2010-09-10, 17:46:11
Ähm, jo....


Seltsam finde ich die Bezeichnungen 6900 und 6990 für Caymen und Antilles. (nordichardwarelink) ATI-Forum hatte diese Namen ja auch in der Zerre, da stand aber was von Rebranding. Vielleicht falsch interpretiert....

Hoffentlich kommt das nicht so und wir bleiben schön bei 6850 und 6870.


Also wenn schon Rebranding, dann aber richtig!
Find die Namen ehh net soo toll... 5870? naja...
Warum nicht wieder zurück zu XT/PRO/GT...?
Aber am Ende zählt ja die Leistung/Qualität und damit was hinten rauskommt.

Also WAYNE... :D




PS.
Ähmmm ich würd, eh erst mit dem Rebranding anfangen wenn der echte 28nm Chip bzw. R100 bzw Hekatonchieres (und wie sie alle heißen) rauskommt, anfangen...
Man hätte ja auch Grund dazu weil die "HD7000" dann auch die 10 Gen. der Radeon Chips darstellt.

:D
Aber wie schon gesagt... WAYNE!

Gast
2010-09-10, 18:00:55
Da mittlerweile klar ist, dass die SI Geschichte sind und nur Ablenkung waren, könnte man ja langsam das Thema "rebranden" *hust*
Statt "Southern Islands GPUs (wohl 40 nm, 2010)", dann "Northern Islands GPUs (wohl 40 nm, 2010)". ;-)

Die Gerüchte um die Umbennenung der x700 in x800, und dieser dann in x900 halte ich auch für PR Betrug.
Alles nur Falschmeldungen um im Gespräch zubleiben.

mironicus
2010-09-10, 18:14:02
Hmm... so lang wie eine 5850? Das die Stromanschlüsse nach oben zeigen ist ja schon mal ok.

OgrEGT
2010-09-10, 18:49:15
Er meinte eher, dass es kaum eine HD6870 geben wird, welche langsamer als die HD5870 ist. Nicht dass es unmöglich ist, HD5850-Niveau zu erreichen.

Zumindest ist die meldung bestimmt falsch, wie bereits vorher besprochen, denn:

"the card and performance is said to be on par with Radeon HD 5850"

Eine karte die langsamer als eine hd 5870 ist, kann man wohl kaum als 6870 vermarkten. Das ist quatsch, barts müsste dann schneller sein als diese.

Wer sagt dass es nicht Barts Pro ist, welcher 5850 Niveau erreicht. Je nach dem inwieweit dieser gegnüber Barts XT beschnitten wurde, ist es durchaus im Bereich des Möglichen, dass Barts XT die 5870 hinter sich lässt.

Wie vorher bereits spekuliert, wenn es zutrifft, dass 4 4D Shader 98.5% Performance von 5 5D Shadern erreichen, dann sieht es wie folgt aus, bei 100%=16005D Shadern alias Cypress:

Cayman......1920.....143%
Barts XT.....1280.....98.4%
Barts Pro.....1152....88.6%

Je nach Taktraten würden sich somit Barts Pro/XT im Bereich 5850-5870 einordnen lassen, eventuell darüber.

Bei Cypress waren die Shader wie folgt organisiert:

2 Module a 10 SIMDs a 16 SMs a 5 SPs = 1600 SPs (5870)
2 Module a 9 SIMDs a 16 SMs a 5 SPs = 1440 SPs (5850) (könnte auch 1 Modul mit 10 + 1 Modul mit 8 gewesen sein)

Bei NI wahrscheinlich wie folgt:

3 Module a 10 SIMDs a 16 SMs a 4 SPs = 1920 SPs (Cayman)
2 Module a 10 SIMDs a 16 SMs a 4 SPs = 1280 SPs (Barts XT)
2 Module a 9 SIMDs a 16 SMs a 4 SPs = 1152 SPs (Barts Pro) (oder 1*10 + 1*8)

Fetza
2010-09-10, 19:10:22
Wer sagt dass es nicht Barts Pro ist, welcher 5850 Niveau erreicht. Je nach dem inwieweit dieser gegnüber Barts XT beschnitten wurde, ist es durchaus im Bereich des Möglichen, dass Barts XT die 5870 hinter sich lässt.

Wie vorher bereits spekuliert, wenn es zutrifft, dass 4 4D Shader 98.5% Performance von 5 5D Shadern erreichen, dann sieht es wie folgt aus, bei 100%=16005D Shadern alias Cypress:

Cayman......1920.....143%
Barts XT.....1280.....98.4%
Barts Pro.....1152....88.6%

Je nach Taktraten würden sich somit Barts Pro/XT im Bereich 5850-5870 einordnen lassen, eventuell darüber.

Bei Cypress waren die Shader wie folgt organisiert:

2 Module a 10 SIMDs a 16 SMs a 5 ALUs = 1600 ALUs (5870)
2 Module a 9 SIMDs a 16 SMs a 5 ALUs = 1440 ALUs (5850) (könnte auch 1 Modul mit 10 + 1 Modul mit 8 gewesen sein)

Bei NI wahrscheinlich wie folgt:

3 Module a 10 SIMDs a 16 SMs a 4 ALUs = 1920 ALUs (Cayman)
2 Module a 10 SIMDs a 16 SMs a 4 ALUs = 1280 ALUs (Barts XT)
2 Module a 9 SIMDs a 16 SMs a 4 ALUs = 1152 ALUs (Barts Pro) (oder 1+10 + 1*8)

Das wäre natürlich sehr cool und so wie du es hier aufführst, kommt es sehr sinnhaft daher.

Allerdings ist es eben zwingend, das die karten dann dementsprechend auch schneller sind, dann gäbe es auch kein problem damit, sie 6870 zu nennen. Wobei die 6 eben auch einen guten performanceschub nötig macht, daher müsste die karte auch dementsprechend drauflegen.

OgrEGT
2010-09-10, 19:18:02
Das wäre natürlich sehr cool und so wie du es hier aufführst, kommt es sehr sinnhaft daher.

Allerdings ist es eben zwingend, das die karten dann dementsprechend auch schneller sind, dann gäbe es auch kein problem damit, sie 6870 zu nennen.

Wenn man denkt, dass Cypress eher ineffizient war, was die theoretische Leistung bezogen auf die tatsächliche betrifft, dann könnte ich mir durchaus vorstellen (wenn auch nur laienhaft), dass bei deutlich gesteigerter Effizienz von NI die sagen wir restlichen 10% Leistung, die nötig wären um 6870 vs 5870 und 6850 vs 6850 gut vermarkten zu können, möglicherweise durch Verwendung von schnellerem GDDR5 Speicher + etwas mehr GPU Takt erreichbar sein könnten.

MR2
2010-09-10, 21:41:04
Aber ein Barts Pro mit 2 6Pin Anschlüssen? Für mich wäre das dann eher die 6850....

Und die 11.963 Punkte im Extreme-Preset des 3DMark Vantage passen dann schon zur 6870.
http://hardware-infos.com/news.php?news=3692

Charlie hatte doch auch was von PIN kompatibel zu HD58xx geschrieben, außerdem ist die Platine viel zu groß. Das wird wohl ne 6850 sein. Jede Wette:-)

auch interessant:

"[HD6750 = high-clocked/renamed Juniper chips - can't think of any other way to fill the gap here]
HD6770 = lower-clocked/partly disabled Barts chips (Pro) ~ HD5850
HD6850 = selected/high-clocked Barts chips (XT) ~ HD5870
HD6870 = lower-clocked/partly disabled Cayman chips (Pro) ~ HD5870+30%
HD6950 = selected/high-clocked Cayman chips (XT) ~ HD5970
HD6970 = 2x Barts XT ~ HD5970+20%
HD6990 = 2x Cayman XT ~ HD5970+50%"

:-)

Der_Korken
2010-09-10, 22:54:40
Das klingt ziemlich absurd, dass man Chips und 100er Grenzen total vermischt. Wenn Barts die 6770 und 6850 bedient, während Cayman 6870 ist, dann muss Barts XT ja näher am Cayman dran sein, als an Barts Pro, damit diese Nomenklatur überhaupt Sinn ergibt.

Verwirrende Namensgebungen müssen ja ziemlich lukrativ sein, wenn man dafür jegliche Ordnung und Übersichtlichkeit über Board wirft.

OgrEGT
2010-09-11, 07:18:50
Das klingt ziemlich absurd, dass man Chips und 100er Grenzen total vermischt. Wenn Barts die 6770 und 6850 bedient, während Cayman 6870 ist, dann muss Barts XT ja näher am Cayman dran sein, als an Barts Pro, damit diese Nomenklatur überhaupt Sinn ergibt.

Verwirrende Namensgebungen müssen ja ziemlich lukrativ sein, wenn man dafür jegliche Ordnung und Übersichtlichkeit über Board wirft.

Halte ich auch nicht für sehr wahrscheinlich, vor allem da Cayman wahrscheinlich 3 SIMD Module hat (bis zu 1920 SPs), Barts aber deren nur 2 (bis zu 1280 SPs). Alleine deshalb wäre Barts XT von Cayman leistungsmäßig zu weit entfernt.

Meine Spekulation:

Cayman XT (HD6970) 1920 SPs/120TMUs.....3*10*16*4
Cayman Pro (HD6950) ca 1700 SPs
Cayman LE (HD6930) ca 1500 SPs
Barts XT (HD6870) 1280 SPs/80TMUs........2*10*16*4
Barts Pro (HD6850) 1152 SPs/72TMUs.......2*9*16*4 oder 1*10 + 1*8

Barts Pro Shaderanzahl spekuliert analog HD5870/5850 Verhältnis.

Cayman Pro: bsp. 1728 SPs/108TMUs......bsp. 3*9*16*4
Cayman LE: bsp. 1536 SPs/96TMUs.......bsp. 3*8*16*4

Bzgl. Der Namensgebung wäre natürlich auch das alte Schema weiterhin denkbar.

Ailuros
2010-09-11, 09:12:20
Ich weiss dass es Haarspalterei ist, aber koenntet Ihr es Euch abgewoehnen SPs gleich ALUs zu nennen?

Cypress hat heute 320 ALUs und nicht mehr.

OgrEGT
2010-09-11, 09:50:38
Ich weiss dass es Haarspalterei ist, aber koenntet Ihr es Euch abgewoehnen SPs gleich ALUs zu nennen?

Cypress hat heute 320 ALUs und nicht mehr.

:rolleyes: Ist es :rolleyes:
Danke für den Hinweis.

Coda
2010-09-11, 10:22:07
Ich weiss dass es Haarspalterei ist, aber koenntet Ihr es Euch abgewoehnen SPs gleich ALUs zu nennen?

Cypress hat heute 320 ALUs und nicht mehr.
Das ist so nicht richtig. Auch bei einem VLIW-Design nennt man eigentlich die einzelnen Funktionseinheiten "ALU".

Wobei das ganze Wort eigentlich schon immer totaler Blödsinn ist, weil ALU im traditionellen Design für eine Integer-Einheit mit Bit-Logik-Funktionen steht.

Eigentlich sind es viel eher FPUs, auch wenn seit D3D10 die ALU-Funktionalität tatsächlich (aber teilweise langsam) da ist.

Verwirrend :usad:

Gast
2010-09-11, 11:00:21
Cayman PRO etwa länger als eine 5870, Takt momentan 850MHz und unter 200W TDP: http://www.chiphell.com/thread-120059-1-1.html

Wenn der Takt wirklich so hoch liegt, hat man hier vielleicht aus Yield-Gründen deutlich mehr SIMDs deaktiviert als noch bei Cypress PRO.

deekey777
2010-09-11, 11:12:04
Ich weiss dass es Haarspalterei ist, aber koenntet Ihr es Euch abgewoehnen SPs gleich ALUs zu nennen?

Cypress hat heute 320 ALUs und nicht mehr.
Das ist so nicht richtig. Auch bei einem VLIW-Design nennt man eigentlich die einzelnen Funktionseinheiten "ALU".

Wobei das ganze Wort eigentlich schon immer totaler Blödsinn ist, weil ALU im traditionellen Design für eine Integer-Einheit mit Bit-Logik-Funktionen steht.

Eigentlich sind es viel eher FPUs, auch wenn seit D3D10 die ALU-Funktionalität tatsächlich (aber teilweise langsam) da ist.

Verwirrend :usad:

Oder wir nutzen allgemeine Bezeichnungen.
OpenCL:
SIMD = Computing Unit
"VLIW"-Einheit = Stream Core
SP = Processing Element.
Oder die guten alten Bezeichnungen aus dem Stream SDK 1.4:
SIMD = SIMD Engine
VLIW-Einheit = Thread-Processor
SP = Stream Core

OgrEGT
2010-09-11, 11:24:00
Das ist so nicht richtig. Auch bei einem VLIW-Design nennt man eigentlich die einzelnen Funktionseinheiten "ALU".

Wobei das ganze Wort eigentlich schon immer totaler Blödsinn ist, weil ALU im traditionellen Design für eine Integer-Einheit mit Bit-Logik-Funktionen steht.

Eigentlich sind es viel eher FPUs, auch wenn seit D3D10 die ALU-Funktionalität tatsächlich (aber teilweise langsam) da ist.

Verwirrend :usad:

Wie würdest Du dann z.B. die Shaderorganisation von z.B. Cypress Deiner Meinung nach korrekt bezeichnen?

2 Module * 10 SIMDs (?) * 16 SM (?) * 5 SPs (?) = 1600 SPs (?)

SIMD: Single Instruction Multiple Data Computing Unit
SM: Shader Module oder Thread Processor
SP: Stream Core oder Processing Element

Coda
2010-09-11, 11:29:37
20 Cluster mit jeweils 16 VLIW Einheiten mit jeweils 5 instruction slots wäre zumindest ein Anfang ;)

StefanV
2010-09-11, 11:45:11
Ich hoere aber von einer 2*6-pin GPU mit einem gesunden Leistungschub. Wenn ich auf die TDP der 5870 sagen wir mal 20% drauflege liege ich automatisch ueber der theoretischen 2*6pin Grenze. Ergo deutet momentan mehr auf eine leicht bessere perf/W wie auf Cypress und nicht umgekehrt.
Die HD5870 hat doch in der 2GiB Version idR auch 6+8 pin, oder?

Ailuros
2010-09-11, 15:06:26
20 Cluster mit jeweils 16 VLIW Einheiten mit jeweils 5 instruction slots wäre zumindest ein Anfang ;)

3 theoretische Ebenen vereinfacht; wieso ich jetzt die letzte Ebene bzw. die SPs--> ALUs nennen sollte ist mir fremd. Es wird aus dem Zeug sowieso nie einen einzelnen Design geben der weniger als 16 VLiW haben wird. Im strengeren "CPU-Sinn" waeren es eigentlich 20 "unabhaengigere" Prozessoren auf Cypress.

Wie aber schon gesagt Haarspalterei; wir verstehen uns trotz allem schon.

Die HD5870 hat doch in der 2GiB Version idR auch 6+8 pin, oder?

Von dem was ich gehoert habe kommt theoretisch eine 6800 nur mit 2*6-pin aus; ob jetzt AMD die Dinger von Anfang an mit 6pin + 8pin ausstattet um vendor Uebertaktungen oder 2GB vendor Varianten gleich mit zu unterstuetzen weiss ich nicht.

svenw
2010-09-11, 16:28:10
Das klingt ziemlich absurd, dass man Chips und 100er Grenzen total vermischt. Wenn Barts die 6770 und 6850 bedient, während Cayman 6870 ist, dann muss Barts XT ja näher am Cayman dran sein, als an Barts Pro, damit diese Nomenklatur überhaupt Sinn ergibt.
Das macht auch aus dem Grund wenig Sinn, das man dann keinen Absatz für die Cayman Chips hat die gerade eben nicht als 6870 durchgehen. Normalerweise machen es alle so, das 1-2 Stufen unter dem jeweils besten Chip die Reste der Produktion verramscht werden.

Coda
2010-09-11, 16:46:28
3 theoretische Ebenen vereinfacht; wieso ich jetzt die letzte Ebene bzw. die SPs--> ALUs nennen sollte ist mir fremd.
Du sollst eine VLIW-Einheit nicht ALU nennen. Das ergibt wirklich wenig Sinn.

OgrEGT
2010-09-12, 10:16:50
Du sollst eine VLIW-Einheit nicht ALU nennen. Das ergibt wirklich wenig Sinn.

Ich denke die Konfusion kommt meist daher, dass man im vereinfachten Sinn einerseits lediglich eine abstrakte Bezeichnung für das Rechenwerk verwenden möchte, andererseits bei genauerer Betrachtung auch den Compilercode, welchen diese Rechenwerke verarbeiten dem Namen hinzufügt.

Somit sind es eben bei RV870 20 Shadercluster zu je 16 VLIW Prozessoren, welche zu je 5 VLIW Einheiten aufgebaut sind.

IN den Blockdiagrammen zur RV870 GPU waren die 20 Shaderclustern in 2 * 10 Cluster angeordnet, was immer zur Bezeichnung geführt hat, dass es sich um 2 Module zu je 10 CLustern handeln würde. Kann man das sagen, oder ist das ebenfalls nur eine vereinfachte Darstellung?

Bei Cayman wird ja auch spekuliert, dass es sich hier um dann 3 dieser "Module" handeln könnte (a 10 Clustern zu je 16 VLIWs).

Ailuros
2010-09-13, 09:44:26
Du sollst eine VLIW-Einheit nicht ALU nennen. Das ergibt wirklich wenig Sinn.

Selbst im gemeinstem Fall kann ich mir nicht vorstellen dass ein Cypress unter 320 Instruktionen (nur 1 Instruktion per VLiW) ausfuehren kann. Einen ganzen cluster dann "ALU" zu bezeichnen waere auch nicht unbedingt besser.

Gast
2010-09-14, 09:47:21
Blackbomb XT ~ Barts Pro/XT? Benchmarks:

On DX11 GTX460 performs little bit better than Blackcomb XT (ATI 6XXX):

Stone Giant:
GTX460 : around 24 FPS
Blackbomb XT: around 22 FPS

Unigine:
GTX460 : around 12 FPS
Blackbomb XT: around 12 FPS

But DX9 and DX10 Blackcomb XT should be much better.

http://forum.notebookreview.com/asus-gaming-notebook-forum/475808-asus-g53-smaller-version-g73jh-114.html#post6599350

Gast
2010-09-14, 09:58:46
Blackbomb XT ~ Barts Pro/XT? Benchmarks:

http://forum.notebookreview.com/asus-gaming-notebook-forum/475808-asus-g53-smaller-version-g73jh-114.html#post6599350

Da Blackbomb das Notebook-Derivat ist taktet es mit Sicherheit deutlich niedriger als Barts.

Gast
2010-09-14, 10:00:12
Blackbomb XT ~ Barts Pro/XT? Benchmarks:

http://forum.notebookreview.com/asus-gaming-notebook-forum/475808-asus-g53-smaller-version-g73jh-114.html#post6599350


So ein Quatsch. Das ist kein Benchmark, sondern nur eine Spekulation vom Nutzer GenTechPC.

Fetza
2010-09-14, 17:30:42
Blackbomb XT ~ Barts Pro/XT? Benchmarks:

http://forum.notebookreview.com/asus-gaming-notebook-forum/475808-asus-g53-smaller-version-g73jh-114.html#post6599350

Das ließe ja schonmal auf ne derbe preisschlacht in dem segment hoffen. Und da barts, wie schon gesagt, wohl deutlich höher taktet, kann es dem kunden nur recht sein.

Gast
2010-09-14, 17:35:44
blackcomb nicht blackbomb. Aber blackbomb wäre nicht schlecht oder dirtybomb;)

Gast
2010-09-15, 09:16:41
http://img15.imageshack.us/img15/5639/55774249201009151315220.jpg (http://img15.imageshack.us/i/55774249201009151315220.jpg/)
http://www.chiphell.com/thread-123528-1-1.html

Das sieht nicht gerade nach 4D Shadern aus. Wobei es zu einem 1920SPs Cayman (eben 24 SIMDs mit je 80SPs) passen würde.

Oder wiedermal eine gestreute Fehlinformationen von AMD, wie damals die RV8xx Dokumente mit Shaderdomain. :uponder:

Gast
2010-09-15, 09:21:07
http://img15.imageshack.us/img15/5639/55774249201009151315220.jpg (http://img15.imageshack.us/i/55774249201009151315220.jpg/)
http://www.chiphell.com/thread-123528-1-1.html

Das sieht nicht gerade nach 4D Shadern aus. Wobei es zu einem 1920SPs Cayman (eben 24 SIMDs mit je 80SPs) passen würde.

Oder wiedermal eine gestreute Fehlinformationen von AMD, wie damals die RV8xx Dokumente mit Shaderdomain. :uponder:

Wie soll man mit so wenig ALUs/TMUs GTX460 Leistung erreichen?

Gast
2010-09-15, 09:24:57
Wie soll man mit so wenig ALUs/TMUs GTX460 Leistung erreichen?
Indem man die "Dual Engine" weiterentwickelt hat, sodass die Auslastung höher ist. Das sollte mit dem deutlich leistungsfähigeren Back-End wohl ausreichen um die GTX 460 in Angriff zu nehmen.

Aber selbst Napoleon bei Chiphell bezweifelt offenbar die Echtheit dieser Folie.

Fetza
2010-09-15, 09:25:19
http://img15.imageshack.us/img15/5639/55774249201009151315220.jpg (http://img15.imageshack.us/i/55774249201009151315220.jpg/)
http://www.chiphell.com/thread-123528-1-1.html

Das sieht nicht gerade nach 4D Shadern aus. Wobei es zu einem 1920SPs Cayman (eben 24 SIMDs mit je 80SPs) passen würde.

Oder wiedermal eine gestreute Fehlinformationen von AMD, wie damals die RV8xx Dokumente mit Shaderdomain. :uponder:

"based on the cypress dual engine architecture"

Also nach allem was man bisher hören konnte, ist das doch schon falsch. Es soll ja jetzt die komplett neue architektur ran kommen. Überhaupt wäre das design doch ein schlechter scherz, 48 textureeinheiten? Da kann man doch im performancesegment keinen blumentopf gewinnen.

deekey777
2010-09-15, 10:51:31
Warum ist die "Acht" in 800 (Shader) so angefranst?

Gast
2010-09-15, 10:55:46
Warum ist die "Acht" in 800 (Shader) so angefranst?
Da war doch offensichtlich ein Wasserzeichen, was man weg retuschiert hat.

dildo4u
2010-09-15, 11:02:54
Endlich ein Anhaltspunkt dann bringt die High-End Karte wohl GTX 460 SLI Leistung wären 10% mehr als GTX 480 und weniger als 5970.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_460_SLI/25.html

derguru
2010-09-15, 11:13:32
eine 460gtx sli ist aber nicht 10% schneller als die 480gtx sondern ~25%;)

Gast
2010-09-15, 11:13:59
Endlich ein Anhaltspunkt dann bringt die High-End Karte wohl GTX 460 SLI Leistung wären 10% mehr als GTX 480 und weniger als 5970.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_460_SLI/25.html

hä?

es geht hier um barts, den midrangechip, nicht um cayman und antilles, highend und mgpu.

dildo4u
2010-09-15, 11:17:54
hä?

es geht hier um barts, den midrangechip, nicht um cayman und antilles, highend und mgpu.
Bart's wird doch die Hälfte vom High-End chip sein oder nicht?Die Karte wird gegen die GTX 460 gesetzt.

Gast
2010-09-15, 11:18:33
4.0gbps sind 2000mhz GDDR5 genau wie bei der HD5850.

die speicherbandbreite von barts pro und xt sollte also gleich zur bisherigen cypress bandbreite sein.
das lässt doch hoffen, dass der effizientere barts chip das auch ähnlich auslasten kann wie die cypress chips.

Hugo78
2010-09-15, 11:18:37
Oder wiedermal eine gestreute Fehlinformationen von AMD, wie damals die RV8xx Dokumente mit Shaderdomain. :uponder:

Überzeugend sieht das wirklich nicht aus.
Im Vergleich zur 5830 hätte man zwar mehr ROPs, aber ansonst weniger oder Gleichstand (Shader, Takt, TMUs, SI).
Ich kann mir nicht vorstellen, dass das irgendwie gegen die GTX 460 1G reicht.

Von daher ist das Dokument, für mich eher ne Finte.

Gast
2010-09-15, 11:21:22
Bart's wird doch die Hälfte vom High-End chip sein oder nicht?
Nein, das steht nicht fest.

Auch ist es mir schleierhaft wie du dann einfach von 2x GTX460 im SLI ausgehst, mGPU ist was völlig anderes als eine single GPU.
Wenn AMD eine Karte gegen eine andere positioniert, dann nur wenn sie auch deutlich gewinnt. Man kann also von 0-10% mehr leistung als gtx460 ausgehen falls die folie wirklich stimmt.

dildo4u
2010-09-15, 11:26:16
Nein, das steht nicht fest.

Auch ist es mir schleierhaft wie du dann einfach von 2x GTX460 im SLI ausgehst, mGPU ist was völlig anderes als eine single GPU.
Wenn AMD eine Karte gegen eine andere positioniert, dann nur wenn sie auch deutlich gewinnt. Man kann also von 0-10% mehr leistung als gtx460 ausgehen falls die folie wirklich stimmt.
Dort wird nur mit besserer Performcne per Watt und Bandbreite geworben nicht mit der allgemeinen Leistung gegenüber der GTX 460.Also wird sie schon mal nicht schneller sein eher Gleichstand oder ein Tick langsamer.

Nakai
2010-09-15, 12:05:44
Folie sollte ein Fake sein. Falls sie jedoch der Wahrheit entspricht, dann hat AMD entweder zwei Sachen gemacht:

- Es sind doch 5er VLIW.

- Man hat was am Threaddispatcher, SIMD-Größe und Wavefrontgröße geändert.
Es müssten 20er SIMDs sein(4*20 = 80).
Wavefrontgröße müsste von 64 auf 80 Threads erhöht werden(80/4 = 20).
Verschnitt würde schlechter werden, außerdem is 20 ne ziemliche Schnapszahl.

IMO eher nicht...

€: Die maximale Anzahl der Instruktionen würde pro SIMD ja gleich bleiben. Maximal 5*16 beim Alten und maximal 4*20 bei meinem Hirngespinst.^^
Schade das 20 so ne krumme Zahl is.

mironicus
2010-09-15, 12:31:19
Die technischen Daten klingen jetzt nicht so reizvoll. Für mich wäre interessanter ob AMD irgendwas neues mit den Karten anbietet, was den Kauf rechtfertigen würde. DX11 können auch die alten Karten, ein Upgrade auf so etwas wie DX11.1 wird es wohl nicht geben. Und das die Performance pro Watt bei AMD besser ist, ist nichts neues - das ist schon bei den alten Karten der Fall.

Wie schnell wäre eigentlich eine Radeon 5770 mit 256 Bit-Speicherbus? Wieviel Prozent theoretisch schneller als mit 128 Bit?

Tomahawk
2010-09-15, 12:42:03
Sieht nicht nach Fake aus.

Geschwindigkeit wäre wohl um HD 5830. 32 ROPs hören sich aber gut an.

Gast
2010-09-15, 13:02:20
@mironicus:
Eine HD5770 mit 256bit entspricht ziemlich genau einer HD4870 1GB:
http://www.computerbase.de/artikel/grafikkarten/2009/test-ati-radeon-hd-5770-crossfire/2/#abschnitt_technische_daten

Da die HD5770 einen etwas höheren Kerntakt hat wäre sie wohl ein paar unmerkliche Prozent schneller.

mironicus
2010-09-15, 13:04:47
Und was bringt der höhere Speicherbus generell bei den neuen Karten? Die 5770 war interessanterweise schon bei sehr hohen Auflösungen mit AA eigentlich schon recht fix mit ihrem 128 Bit-Interface.

Gast23
2010-09-15, 13:06:07
Die Daten könnten stimmen. Mit den Leistungsdaten kann ein Barts XT die Leistung einer GTX 460 erreichen.
Das würde auch gut zum Bild vom Barts PCB passen. Größer als Juniper und kleiner als Cypress.

Aber mit etwas Phantasie und Geschick hätte man sich das auch ausdenken können und mit Photoshop erstellen können.

Gast
2010-09-15, 13:07:19
Folie sollte ein Fake sein. Falls sie jedoch der Wahrheit entspricht, dann hat AMD entweder zwei Sachen gemacht:

- Es sind doch 5er VLIW.

- Man hat was am Threaddispatcher, SIMD-Größe und Wavefrontgröße geändert.
Es müssten 20er SIMDs sein(4*20 = 80).
Wavefrontgröße müsste von 64 auf 80 Threads erhöht werden(80/4 = 20).
Verschnitt würde schlechter werden, außerdem is 20 ne ziemliche Schnapszahl.
.

Naja wenn man das Frontend deutlich verändert hat, könnte das ja sein.
Ich weiß aber nicht, warum eine 80er Wavefrontsize zwingend mehr Verschnitt bedeuten muss, da spielt dann auch noch eine Rolle, wie "gesheduled" wird.

Hatte der GT200 nicht sogar 24 Shader pro SIMD? Aber nur eine Wavefrontsize von 48 und nicht 96? Weiß das einer?

Fetza
2010-09-15, 13:09:16
Aber mit etwas Phantasie und Geschick hätte man sich das auch ausdenken können und mit Photoshop erstellen können.

Und das hat wohl auch jemand getan. ;)

Gast
2010-09-15, 13:15:45
Also ich könnte mir schon vorstellen dass die Zahlen stimmen. AMD hat einfach die Anzahl an ROPs im Verhältnis zu den Shadern verdoppelt und die Bandbreite erhöht. Dadurch sollten sich 6750/6770 gut von 5750/5770 absetzen können. Mehr war in dem Fertigungsprozess und TDP-Rahmen wohl nicht drinnen.

Gasti
2010-09-15, 13:16:18
Naja wenn man das Frontend deutlich verändert hat, könnte das ja sein.
Ich weiß aber nicht, warum eine 80er Wavefrontsize zwingend mehr Verschnitt bedeuten muss, da spielt dann auch noch eine Rolle, wie "gesheduled" wird.

Hatte der GT200 nicht sogar 24 Shader pro SIMD? Aber nur eine Wavefrontsize von 48 und nicht 96? Weiß das einer?

32 und 8 SP pro SM

Gast
2010-09-15, 13:17:15
Und was bringt der höhere Speicherbus generell bei den neuen Karten? Die 5770 war interessanterweise schon bei sehr hohen Auflösungen mit AA eigentlich schon recht fix mit ihrem 128 Bit-Interface.

Ein Barts XT mit 32 ROPs und 960 Shadern hat aber deutlich mehr Leistung als ein Juniper mit 16 ROPs und 800 Shadern.
Bei der 5770 fande ich das Speicherinterface für hohe Auflösungen und AA-Einstellungen schon zu knapp bemessen.

Gasti
2010-09-15, 13:21:35
Wenn die Angaben stimmen(wovon ich nicht ausgehe) dürfte BartsXT schneller als eine 4890 sein(gilt natürlich nur für DX9/10 Anwendungen)

Gast
2010-09-15, 13:35:05
Kann jemand hier einem Laien sagen, ob eine Erhöhung der ROPs im Verhältnis zur Shaderzahl irgendwelche Vorteile bei der Tesselation- und/oder der AF-Leistung bringt (angenommen der Rest der Architektur ändert sich nicht)? Oder anders gefragt: wo liegen da die Flaschenhälse der HD5000-Karten?

Dural
2010-09-15, 13:42:32
ich hoffe ja auf Fake, sonst wäre das ja eine entäuschung!

und so wie die Folie anschaut hätte Bart nicht einmal die leistung einer GTX460... jedenfalls steht auf der Folie nirgends dazu was...

RV970 dürfte dann so aussehen:

1920SP
96TMUs
32ROPs (im vergleich zum RV940 einfach zu wenig...)

Fetter Fettsack
2010-09-15, 13:44:38
ROPs sind vor allem für die AA-Leistung einer Karte verantwortlich. Je mehr, desto besser.

mironicus
2010-09-15, 14:22:48
Vielleicht hat der 6870 dann schon 64 ROPs. ^^

Gast
2010-09-15, 14:33:35
Vielleicht hat der 6870 dann schon 64 ROPs. ^^

64 währen schon etwas übertrieben.
Afaik ist der GF100 mit 48ROP@700Mhz afaik Dadurch nicht limitiert und 64ROP @850Mhz währen nocheinmal eine deutliche Steigerung.

mironicus
2010-09-15, 14:45:45
Wenn man vom Stromverbrauch ausgeht, müsste eine 6770 doch eigentlich leistungsmäßig an eine 5870 heranreichen können, die verbraucht ja auch etwas mehr als 150 Watt. Wunder kann man vom gleichen Fertigungsprozess wohl nicht erwarten, aber die Leistung pro Watt sollte gegenüber den Vorgängerkarten sich auch nicht unbedingt verschlechtert haben.

Bei ATI sind die Midrange-Karten in der Vergangenheit doch immer fast so schnell wie die Performance-Karten geworden. Eine 5770 also so schnell wie 4870 usw...

ODER möglicherweise ist die Karte nicht so schnell wie eine 5870, wird dafür aber in anderen Sachen wie der Tesselation-Leistung von der 6770 deutlich übertroffen. Im Schnitt aller Benchmarks wird sie wohl langsamer sein, aber bei bestimmten Sachen wie Heaven, Metro 2033 dafür einiges schneller...?

Gast
2010-09-15, 15:51:45
hoffe ich ja nicht, die neuen karten sollten eher mehr rohleistung für ds bieten wenn es denn nach mir ginge. ist aber natürlich klar, dass man mit tesselations benches und 8x aa erster güteklasse von allen dau medien bejubelt werden wird ... naja mal abwarten.

Gast
2010-09-15, 16:22:04
Kann jemand hier einem Laien sagen, ob eine Erhöhung der ROPs im Verhältnis zur Shaderzahl irgendwelche Vorteile bei der Tesselation- und/oder der AF-Leistung bringt (angenommen der Rest der Architektur ändert sich nicht)? Oder anders gefragt: wo liegen da die Flaschenhälse der HD5000-Karten?

shaderleistung limitiert weiger als rop-leistung bei evergreen. am meisten limitiet aber bei allem was größer als juniper war das trianglesetup und die tesselationsleistung und da haben weder rops noch shader etwas mit zutun.



ein solcher bartsXT hättegegenüber der 5850:
1632 vs 2090 Gflop/s bzw. 78% Shaderleistung
27,1 vs 23,2 Gpix/s bzw. 117% Pixelfüllrate
40,8 vs 52,2 Gtex/s bzw. 78% Texelfüllrate
128 vs 128gb/s bzw. 100% Speicherbandbreite

Gast
2010-09-15, 16:27:04
was die dreiecksleistung und tessleistung angeht will man die von juniper nur verdoppeln, also auf cypress niveau landen. mit 850mhz chiptakt sollte das dann seltener limitieren als jetzt.
zwei rasterizer, zwei hirachical-z und so weiter.

Gemessen daran, dass Fermi dort einen pro SM hat, also 7 bei der GTX460 und 15 bei de GTX480 ist das immer noch ein sehr kleines frontend. das wird nach wie vor in stark tesselierten szenen durchschlagen, die GTX460 hat eben trotzdem theoretisch noch ein dreimal so starkes frontend.

sklave_gottes
2010-09-15, 16:27:09
@Dural

Ich glaube das einige hier die abhängigkeit der ROPs von der Gesamtleistung viel zu sehr unterschätzen. Gerade mit aa scheinen die Aktuellen ATI Karten an den ROPs zu hängen. Das habe ich schon vor längerer Zeit so gesehen:

Wenn ich mir die Vergleiche zwischen der HD5850 und der HD5830 ansehe, denke ich, dass der Gröste Flaschenhals zurzeit bei Spielen weder die Geometrie- noch die Tessellationleistung ist. Sondern am ehersten noch die ROPs.

Auch sieht man das gerade bei 2x und 4x aa die ATI Karten gegenüber den Geforce Karten viel stärker einbrechen.

Ich vermute das liegt gröstenteils an den ROPs

mfg martin
POST #152 hier im TH


deswegen würden mich diese Speks alles andere als Überraschen oder enttäuschen. Die XT Variante müste meiner meinung nach mit aa an der HD5830 vorbeiziehen. Und etwa knap mit der 460GTX 1GB gleichziehen.
Was natürlich trotzdem nicht ein Fake ausschließt.

mfg martin

mironicus
2010-09-15, 16:33:54
Welche Ansätze hat ATI eigentlich um die Tesselations-Leistung zu verbessern? Die Radeon 5000-Karten haben doch dafür eine eigene Einheit, oder? Bei NVidia wird diese wohl rein über CUDA berechnet.

Hätte ATI es da nicht recht leicht indem sie einfach mehrere von diesen Einheiten auf dem Chip verbauen und wie Mehrkernprozessor paralell arbeiten lassen würden? Wie groß ist diese Einheit auf dem 5000er-Chip?

Nakai
2010-09-15, 16:38:42
Wieso regt ihr euch so auf? Die Folie is wohln Fake.
4er VLIW stehen fest. Mit 12 SIMDs müsste jedes SIMD mit 20 4er VLIWs vollgestopft werden. Bei einem Wavefront von 64 Threads wird das sehr schwer.;)

Wie soll man also die Wavefronts auf die SIMDs verteilen? Die Wavefrontsize müsste schon 80 oder so sein, damit man die Threads auf die VLIW-Einheiten aufteilen kann.

Wavefront = 64 Threads.
64 Threads durch 4 macht 16 -> 16 Threads werden immer gleichzeitig auf einer SIMD verarbeitet(SIMDs mit 16 5erVLIWs). Jeder Thread kann bis zu 5 Instructions haben(4 normale und 1 komplexe), also maximal 80 Instructions pro 16 Threads, also maximal 320 Instructionen pro Wavefront.

So wars bis jetzt immer.

Bei RV9xx könnte es anders aussehen. Wavefront bleibt bei 64 Threads. Jeder Thread kann 4 normale Instructions abdecken oder 1 complexe(wie das genau gemacht wird...aber wohl sehr wahrscheinlich).
Max. 64 Instructions pro 16 Threads, 256 Instructions pro Wavefront.

Ich denke nicht, dass man die SIMD-Größe irgendwie ändert. Ein Rückschritt wird man auch nicht machen und die TMUs aus den SIMDs rausschmeissen um mehr Flexibilität zu schaffen(siehe RV630/635).


Naja ich kann mich auch irren...

Gast
2010-09-15, 16:44:36
Kann hier einer der "Pro-Leute" sagen, ob es ein großer Aufwand wäre die Wavefrontsize von 64 auf 80 zu erhöhen (was die Angaben auf der Folie, sofern keine 5Slot Shader mehr, vorraussetzen)

So oder so ließen sich 960Shader nicht mehr mit 10er SIMDs realisieren, man hätte im Falle von 4Slot Shadern dann einen 12er SIMD Block auf Barts und Cayman hätte zwei davon (statt 3*10SIMD, wie bisher spekuliert)

Sinn machen würde das, auch wenn Cayman dann statt 3 nur 2 Rasterizer hätte.

Zu hoch finde ich aber die Leistungsaufnahme.

In 40nm sollte sich der auf der Folie skizzierte Chip etwas größer als 200mm² werden, der bisher spekulierte Barts mit 320 4-Slot Shadern wäre wohl knapp 300mm² groß gewesen und auch turer in der Produktion, wenn auch nicht so teuer wie der GF104 (370mm²)

dllfreak2001
2010-09-15, 17:53:40
Wurden eigentlich im Vorfeld Verbesserungen an der AF-Qualität angekündigt
oder sollte man lieber keine Erwartungen haben?

derguru
2010-09-15, 17:55:56
Wurden eigentlich im Vorfeld Verbesserungen an der AF-Qualität angekündigt
oder sollte man lieber keine Erwartungen haben?
mach dir lieber keine hoffnung,die af-blume ist einwandfrei und das reicht der marketingabteilung.

Tomahawk
2010-09-15, 20:08:47
Wäre es denn möglich, dass die Barts XT mit den obigen Specs mind. genauso schnell wäre wie die 5850?

Ist es denn normal, dass in den Specs "Barts" steht und nicht die normale Bezeichnung (HD 6750/6770)? An wen soll sich denn die Folie richten?

Fetza
2010-09-15, 21:28:04
Wäre es denn möglich, dass die Barts XT mit den obigen Specs mind. genauso schnell wäre wie die 5850?

Ist es denn normal, dass in den Specs "Barts" steht und nicht die normale Bezeichnung (HD 6750/6770)? An wen soll sich denn die Folie richten?

Naja, also solche folien richten sich an die kundschaft von ati, also letztlich die grafikkartenhersteller.

MR2
2010-09-15, 23:36:30
Wieso regt ihr euch so auf? Die Folie is wohln Fake.
4er VLIW stehen fest. Mit 12 SIMDs müsste jedes SIMD mit 20 4er VLIWs vollgestopft werden. Bei einem Wavefront von 64 Threads wird das sehr schwer.;)

100% Sicher?

Gast
2010-09-16, 00:19:50
Ich verstehe auch nicht, warum so viele von den 4D-Shadern überzeugt sind. Gibt es irgendwelche Anhaltspunkte dafür? Scheint mir eher eine klassische Ente zu sein. Jemand hat mal spekuliert, dann schreibt jeder vom anderen ab und schon bestätigen sich alle gegenseitig und das Gerücht ist geboren.

Nakai
2010-09-16, 00:29:32
Ich verstehe auch nicht, warum so viele von den 4D-Shadern überzeugt sind. Gibt es irgendwelche Anhaltspunkte dafür? Scheint mir eher eine klassische Ente zu sein. Jemand hat mal spekuliert, dann schreibt jeder vom anderen ab und schon bestätigen sich alle gegenseitig und das Gerücht ist geboren.

Ach keine Ahnung was kommen wird. 4D-Shader sollten es schon werden.
Klar mit 5D-VLIW-Einheiten wärs deutlich leichter.

Wie es nicht aussehen wird, kann man relativ leicht sagen.

100% Sicher?

Laut einigen Leuten in vielen Foren schon. Sich irren kann aber auch jeder.


mfg

deekey777
2010-09-16, 00:46:32
Da stimmt allgemein nix. 320 ALUs mit 16 TMUs passt mit 4er VLIW nicht. Kann man getrost als komplette Wichtigtuerei abtun.


Es gibt kein T mehr. Das zeigt der Treiber eindeutig.
"T" ist die Nr. 5.

Coda
2010-09-16, 00:56:10
Bitte?

deekey777
2010-09-16, 10:44:51
Aktuell geht's ja darum, ob "5D" oder "4D". Die T-Unit ist die fünfte Unit, wenn sie weggefallen ist, dann müssten bei der kommenden Generation vier SPs sein.
Gedankenkette angekommen?

Ailuros
2010-09-16, 10:47:53
Aktuell geht's ja darum, ob "5D" oder "4D". Die T-Unit ist die fünfte Unit, wenn sie weggefallen ist, dann müssten bei der kommenden Generation vier SPs sein.
Gedankenkette angekommen?

Weitere Fragen waeren:

1. Fuer die gesamte kommende Generation oder nur einem Teil dieser?
2. Wie hat die roadmap genau ausgesehen als 32nm@TSMC noch lebte?

Ich weiss die Antworten zu diesen Fragen zwar nicht selber, aber es "muss" in diesem Fall gar nichts. Unter dieser Logik "muesste" auch GF104 nur 32SPs/SM haben.