Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands
Seiten :
1
2
3
4
5
6
7
8
9
10
[
11]
12
13
14
15
16
17
Schlammsau
2010-10-14, 11:58:10
Max Board Power <300W :eek: , na dann bin ich mal gespannt wie viel weniger es dann wirklich werden im Vergleich zur GTX480.
Alter, die haben doch einen an der Klatsche, wenn das stimmt!
Mit ~250W TDP und 20% Mehrleistung zur GTX480 könnte ich leben, alles andere inneffizient und gehört "entsorgt"!
Alter, die haben doch einen an der Klatsche, wenn das stimmt!
Keine Angst, wenn die Folien echt sind, dann erhalten sie vermutlich bewusst falsche Angaben. Hat AMD seit den ersten DX10 Karten doch bei jedem Launch so gemacht? Hardware-infos kann da ein Lied von singen...
dildo4u
2010-10-14, 12:00:34
So viel schneller wird die AMD nicht sein sonts hätte man gleich mher als 1GB verbaut,was soll man mit so viel Rohleistung wenn einem ab 1900*1200 8XAA der Speicher ausgeht.
Schlammsau
2010-10-14, 12:02:35
So viel schneller wird die AMD nicht sein sonts hätte man gleich mher als 1GB verbaut,was soll man mit so viel Rohleistung wenn einem ab 1900*1200 8XAA der Speicher ausgeht.
Ich denke schon das es an die 20% werden.....
Sind die 1GB Speicher, nicht eher ein Indiz dafür, dass die Folien gefakt sind?
1GB sind viel zu wenig, für so ein "Monster"!
AMD will mit der High-End SKU deutlich über 225Watt gehen nix mehr mit Sparksamkeit,blöd das die Folien durchgesickert sind für AMD.Jetzt würde ich ohne zu zögern zu einer billigen GTX 480 greifen.Die AMD wird das selbe brauchen vieleicht 10% schneller sein aber als neue Karte über 400€ kosten.
lol das glaubst du ja selbst nicht, wenn die neue hd 6970 gleich viel braucht wie eine gtx 480 dann ist sie bestimmt locker 50% schneller, bei amd wird sich sicher nicht die effizenz verschlechtern
AnarchX
2010-10-14, 12:05:43
Ich denke schon das es an die 20% werden.....
Sind die 1GB Speicher, nicht eher ein Indiz dafür, dass die Folien gefakt sind?
1GB sind viel zu wenig, für so ein "Monster"!
Und wer soll 2GiB 0,3ns Speicher bezahlen? Zumal man jetzt schon 10 Layer braucht, mit rückseitiger Bestückung ist man dann vielleicht bei 11 oder 12.
Für einen 100er zusätzlich gibt es vielleicht wieder eine 2GiB Eyefinity6, was dann von geschätzten 400€ für die 1G 6970 gleich mal 500€ macht. In einer HAWK/VaporX Version kommt man dann vielleicht schon in Richtung 600€.:D
Bei HD 4870 gab es ja anfangs Kapazitätsprobleme beim GDDR5, sodass die 1GiB Karte etwas auf sich warten lies.
derguru
2010-10-14, 12:06:37
Ich denke schon das es an die 20% werden.....
Sind die 1GB Speicher, nicht eher ein Indiz dafür, dass die Folien gefakt sind?
1GB sind viel zu wenig, für so ein "Monster"!
überhaupt nicht,die spiele die mehr als 1gb verbrauchen kann man an einer hand zählen und sind kein maßstab.
Unwahrescheinlich wenn man sieht wie lange man das alten High-End 5800 im Preis hoch gehalten hat
Nö - im Gegenteil sehr wahrscheinlich. Laut dem AMD Bildchen liegt Cayman über der GTX480, d.h. der kleinere Cayman Pro sollte Pi*Daumen auf GTX480 Niveau liegen. Wenn der wirklich für UVP €399 käme (Straßenpreis dann so um die ~350), sänke der GTX480 Preis sicherlich ganz schnell ;-)
Natürlich bleibt die entgültige Preis & Leistungeinordnung weiterhin offen. Vielleicht kommt die Pro doch nur auf 470 Niveau - wer weiss, aber Preiskämpfe sind so oder so nicht abwegig. Deswegen mal ganz cool zurücklehnen und den Monat abwarten.
und die neuen Chips werden ja größer.Aber sicherlich nicht größer als ein GF100 :freak:
Ausserdem sollten die Yields bei TSMC mittlerweile besser sein, summa summarum könnten sich bessere Yields <> größeres DIE kostenmäßig die Waage halten, aber das ist ne sehr grobe Einschätzung.
Aber die DIE Größe ist interessant. Nachdem Barts schon ein 256bit Interface hat, sollte Cayman einige Pads übrig haben ... mal schauen ob da jetzt mal der ominöse Sideport für besseres CF genützt wird. Oder gäbs sonst noch irgendwas, was man benötigen könnte ?
ciao
Alex
Das bisher Gesehene hört sich einfach nach einem Update der 5000er Serie an, welches die gröbsten Schwächen bereinigt. So richtig ein "must-have-feeling" stellt sich bei mir bislang nicht ein, obwohl ich "nur" eine 5770 habe.
Schlammsau
2010-10-14, 12:11:11
Aber das Ding will die schnellste Karte am Markt sein!
Und es wird Situationen geben, wo der VRAM limitiert! Überall wo extreme Auflösungen gefahren werden und viel AA im Spiel ist. Metro, Crysis, und noch einige andere Games werden getestet werden, und da wir eine HD6900 mit nur einem GB abkacken, im Vergleich zur Konkurrenz.
1024MB VRAM ist zu wenig für die Cayman XT!
AnarchX
2010-10-14, 12:18:14
Aber die DIE Größe ist interessant. Nachdem Barts schon ein 256bit Interface hat, sollte Cayman einige Pads übrig haben ... mal schauen ob da jetzt mal der ominöse Sideport für besseres CF genützt wird. Oder gäbs sonst noch irgendwas, was man benötigen könnte ?
Welcher Sideport? RV770/790 hatte einen CF-Sideport, der aber unnütz war mit nur 5GB/s.
Cayman wird wohl etwas größere GDDR5-Pads haben für den 6GBps Speicher, dazu dann einen einen weiteren Crossfire-Connector für 3-way/4-way-CF und ein paar zusätzliche Pins für die >120 A, welche die GPU wohl allein ziehen wird (R600 bei ~225W TDP hat eine GPU-TDP von 160W).
Ausgehend von Barts 230mm² wird im Cayman wohl bei ~400mm² landen, was etwa 60% mehr Die-Size sind:
- die oben genannten Pad-Anforderung
- doppelt soviel ALUs und TMUs
- 3 statt 2 "Rasterizer"-Cluster
derguru
2010-10-14, 12:19:28
Aber das Ding will die schnellste Karte am Markt sein!
Und es wird Situationen geben, wo der VRAM limitiert! Überall wo extreme Auflösungen gefahren werden und viel AA im Spiel ist. Metro, Crysis, und noch einige andere Games werden getestet werden, und da wir eine HD6900 mit nur einem GB abkacken, im Vergleich zur Konkurrenz.
1024MB VRAM ist zu wenig für die Cayman XT!
abwarten,eine 460gtx mit 1gb bricht auch nicht so ein wie eine 5870 1gb in metro 2033.ich hätte auch lieber 2gb als standard weil man mehr ram für höhere bq feature braucht aber sowas ist irrelevant in reviews weil kein mensch so bencht.
LovesuckZ
2010-10-14, 12:21:29
Erstaunlich - soviele Leaks und kein Sterbenswörtchen über die Tessellationleistung. Selbst der Neliz hat es bis heute nicht erwähnt.
Man kann schon fast davon ausgehen, dass die neuen Chips nur optimierte Cypress-Chips sind und AMD sich dem Problem erst unter 28nm annehmen werde.
Hoffentlicht stimmt es nicht, denn dies würde für die Integration von Tessellation ein ziemlicher Rückschritt sein.
MartinRiggs
2010-10-14, 12:23:05
abwarten,eine 460gtx mit 1gb bricht auch nicht so ein wie eine 5870 1gb in metro 2033.ich hätte auch lieber 2gb als standard weil man mehr ram für höhere bq feature braucht aber sowas ist irrelevant in reviews weil kein mensch so bencht.
Ich habe Metro mit einer GTx460 durchgespielt und in den hinteren Leveln geht die Karte ganz schön in die Knie und bricht teilweise auf unspielbare Fps ein und erholt sich zwischenzeitlich immer wieder, kann mir kaum vorstellen das ne HD5870 da noch schlechter abschneiden soll.
Setting war 1680x1050 DX11 inkl. 4xAA ohne DOF oder tesselation
BlackBirdSR
2010-10-14, 12:28:45
Erstaunlich - soviele Leaks und kein Sterbenswörtchen über die Tessellationleistung. Selbst der Neliz hat es bis heute nicht erwähnt.
Man kann schon fast davon ausgehen, dass die neuen Chips nur optimierte Cypress-Chips sind und AMD sich dem Problem erst unter 28nm annehmen werde.
Hoffentlicht stimmt es nicht, denn dies würde für die Integration von Tessellation ein ziemlicher Rückschritt sein.
Ich fürchte so oder so kann es laufen.
AMD war nicht konkurrenzfähig in dieser Hinsicht und mit etwas "Glück" können sie die größere Implementation auch weitgehend verhindern, als dass ein Rückstand auffällt.
Allerdings halte ich das für ein großes Risiko. IMO sieht man das schon Civ5 und es wird wohl auch in Zukunft nicht jeder Entwickler nur darauf verzichten, weil AMD sonst in den Benchmarks nicht gewinnt...
Ich persönlich würde auf verbesserte Leistung in dieser Hinsicht tippen. Allerdings nur basierend auf meinen Wünschen, denn alles andere wäre einfach zu schade.
derguru
2010-10-14, 12:30:21
Ich habe Metro mit einer GTx460 durchgespielt und in den hinteren Leveln geht die Karte ganz schön in die Knie und bricht teilweise auf unspielbare Fps ein und erholt sich zwischenzeitlich immer wieder, kann mir kaum vorstellen das ne HD5870 da noch schlechter abschneiden soll.
Setting war 1680x1050 DX11 inkl. 4xAA ohne DOF oder tesselation
ich rede ja nicht von spielbar aber eine 5870 bricht auf 3 fps runter,die 460gtx hält sich wacker über 10fps.pcgh hatte das doch gebencht gehabt,das wurde auch schon etliche mal hier gepostet.
ich fahre z.b. 1920*1200 und habe das spiel abgebrochen weil selbst 460gtx im sli nicht ausreicht.
Erstaunlich - soviele Leaks und kein Sterbenswörtchen über die Tessellationleistung. ...
Steht doch da:
"Performance Leadership with 2. Gen DX11" :biggrin:
http://h-1.abload.de/img/124221vhiu22kxgs22k26unuzz.jpg
LovesuckZ
2010-10-14, 12:34:17
Steht doch da:
"Performance Leadership with 2. Gen DX11" :biggrin:
http://h-1.abload.de/img/124221vhiu22kxgs22k26unuzz.jpg
Und? Das muss sich nichtmal annährend auf Tessellation beziehen.
AMD kann auch heute schon behaupten, dass sie "Performance Leadship" hätten mit der 5970.
Tessellation wäre das Buzzword, um nVidia den Wind aus den Segeln zu nehmen -> "DX11 done right".
AnarchX
2010-10-14, 12:38:06
Glaubt hier jemand ernsthaft, dass AMD die Tessellations-Leistung eines GF100 überbieten wird (Faktor 6 synthetisch)?
Das wird wohl eher in die Richtung laufen: "DirectX 11 done reasonable."
Man wird wohl zeigen, dass Cayman in Spielen mit seinen 3? Tessellatoren eine ähnliche Leistung wie GF100 mit 15 Stück liefert.
Dural
2010-10-14, 12:44:09
also das Cayman nicht am ansatz an GF100 ran kommt bei der tesselations leistung dürfte ja klar sein, die Fermi architektur ist da einfach zu mächtig und ich glaube nicht das AMD so schnell drauf reagieren kann, das werden wir bestimmt erst im nächstes jahr mit 28nm sehen.
der abstand wird höchstens etwas kleinerr als noch zwischen RV870 und eben GF100, aber dann heist das dann immer noch 4x mehr für den GF100 oder so ;)
aber komich ist mal wider das sich so langsam meine aussagen alle (mal wider...) bestätigen: leistungssteigerung im grunde genommen über den Verbrauch, war aber klar beim selben prozess und selber architektur...
LovesuckZ
2010-10-14, 12:44:25
Glaubt hier jemand ernsthaft, dass AMD die Tessellations-Leistung eines GF100 überbieten wird (Faktor 6 synthetisch)?
Das wird wohl eher in die Richtung laufen: "DirectX 11 done reasonable."
Man wird wohl zeigen, dass Cayman in Spielen mit seinen 3? Tessellatoren eine ähnliche Leistung wie GF100 mit 15 Stück liefert.
Das Problem ist doch, dass viele es einfach annehmen, weil nVidia so gehandelt hat. Aber das ist ein riesiger Fehler. Es hängt von der Roadmap ab.
Das ist vergleichbar mit 10.1 bei rv670 und GPGPU beim G80, dass beides von der Konkurrenz erst Jahre später in gleicher Form angeboten wurde.
Und wenn es 8 Tage vorher nichtmal Aussagen von User in Foren gibt, dann kann man schon das schlimmste annehmen.
Welcher Sideport? RV770/790 hatte einen CF-Sideport, der aber unnütz war mit nur 5GB/s.
Jo den meinte ich. Wenn mich nicht alles täuscht stand doch mal in nem R800/Cypress Interview, dass der zwar jetzt rausgefallen wäre, aber später vielleicht wieder zurück kommt.
Aber Deine aufgeführten Punkte brauchen auch Platz, v.a. hatte ich nicht an die zusätzlichen Pads zur besseren Stromversorgung gedacht :freak:
Also bleibt im Endeffekt wohl doch nicht soviel übrig.
Thx
Alex
AnarchX
2010-10-14, 12:52:53
Das Problem ist doch, dass viele es einfach annehmen, weil nVidia so gehandelt hat. Aber das ist ein riesiger Fehler. Es hängt von der Roadmap ab.
Das ist vergleichbar mit 10.1 bei rv670 und GPGPU beim G80, dass beides von der Konkurrenz erst Jahre später in gleicher Form angeboten wurde.
Das ist durchaus ein berechtigter Einwand, es stellt sich die Frage ob Charlies Unwissen über GF100 Tess-Leistung, dem Wissenstand bei AMD entsprach.
So wäre eine "Reaktion" erst in einigen Jahren zu erwarten.
Aber auch ohne GF100 sollte man bei AMD wohl über den Rasterizer-Bottleneck Bescheid gewusst haben und dass man die Tessleistung entsprechend steigern muss.
Bucklew
2010-10-14, 12:56:04
Nö - im Gegenteil sehr wahrscheinlich. Laut dem AMD Bildchen liegt Cayman über der GTX480, d.h. der kleinere Cayman Pro sollte Pi*Daumen auf GTX480 Niveau liegen. Wenn der wirklich für UVP €399 käme (Straßenpreis dann so um die ~350), sänke der GTX480 Preis sicherlich ganz schnell ;-)
Na und wie die Preise für die GTX470/480 fallen werden, wenn es GF110 geben wird ;)
LovesuckZ
2010-10-14, 12:57:53
Aber auch ohne GF100 sollte man bei AMD wohl über den Rasterizer-Bottleneck Bescheid gewusst haben und dass man die Tessleistung entsprechend steigern muss.
Der Rasterizer-Bottleneck hat doch nichts mit der Tessellationleistung zu tun. Man kann ihn lösen, indem man feiner rastert, aber trotzdem bei 1/3 der Geometrieleistung bleiben.
nVidia hat ihre Architektur genau auf dieses Problem ausgerichtet. Die Frage muss lautet, wie wichtig sieht AMD Tessellation an? Denn selbst ohne konkurrenzfähige Tessellationleistung kann man in DX11 Spielen schneller als die Konkurrenz sein - siehe AvP, siehe Dirt:2, siehe Bad Company 2.
SamLombardo
2010-10-14, 13:02:36
... selbst ohne konkurrenzfähige Tessellationleistung kann man in DX11 Spielen schneller als die Konkurrenz sein - siehe AvP, siehe Dirt:2, siehe Bad Company 2.
...was aber nur daran liegt, dass Tessellation bislang extrem sparsam eingesetzt wird und in keinem der genannten Fälle der limitierende Faktor ist. Das wird sich in Zukunft ganz sicher ändern, die vorgegebene Richtung ist doch klar, siehe Civ5.
SamLombardo
2010-10-14, 13:05:10
Alter, die haben doch einen an der Klatsche, wenn das stimmt!
Mit ~250W TDP und 20% Mehrleistung zur GTX480 könnte ich leben, alles andere inneffizient und gehört "entsorgt"!
Auch wenn ich Deine Einschätzung der Bedeutung des Verbrauchs im High End Bereich nicht teile: Wenigstens bist Du konsequent;)
...was aber nur daran liegt, dass Tessellation bislang extrem sparsam eingesetzt wird und in keinem der genannten Fälle der limitierende Faktor ist. Das wird sich in Zukunft ganz sicher ändern, die vorgegebene Richtung ist doch klar, siehe Civ5.
Auch in Civ5 liegt es nicht an der Tesslation.
Schlammsau
2010-10-14, 13:06:23
...was aber nur daran liegt, dass Tessellation bislang extrem sparsam eingesetzt wird und in keinem der genannten Fälle der limitierende Faktor ist. Das wird sich in Zukunft ganz sicher ändern, die vorgegebene Richtung ist doch klar, siehe Civ5.
In Civ5 limitiert nicht die Tesselationeinheit! Ohne Tesselation führt auch eine 400er. ;)
Frag mal y33h@!
AnarchX
2010-10-14, 13:11:29
Der Rasterizer-Bottleneck hat doch nichts mit der Tessellationleistung zu tun. Man kann ihn lösen, indem man feiner rastert, aber trotzdem bei 1/3 der Geometrieleistung bleiben.
Ohne entsprechende Rasterleistung kann man auch den Geometrie-Durchsatz nicht steigern, denn man wiederum für entsprechende Tess-Performance brauch.
Wenn Barts den Tess-Durchsatz auf 2/3 steigert und Cayman gar vollen Durchsatz bietet, wäre das schon ein vernünftiger Anfang: http://www.behardware.com/articles/795-5/report-nvidia-geforce-gtx-460.html
Zwar wäre GF100 relativ gesehen trotzdem noch mehr als doppelt so schnell, aber moderne Spiele bestehen nicht nur aus garoud-shaded Polygon-Massen. ;)
In Civ5 limitiert nicht die Tesselationeinheit! Ohne Tesselation führt auch eine 400er. ;)
Dann vielleicht der reine Geometrie-Durchsatz, was wohl auch der Fall bei FarCry 2 und Streetfighter ist.
Savay
2010-10-14, 13:11:47
...was aber nur daran liegt, dass Tessellation bislang extrem sparsam eingesetzt wird und in keinem der genannten Fälle der limitierende Faktor ist. Das wird sich in Zukunft ganz sicher ändern, die vorgegebene Richtung ist doch klar, siehe Civ5.
bisher gibt es schlicht noch kein spiel in dem die Tess leistung limitiert...das wird schon allein aus dem grund nicht passieren da die einzigen GPUs die in der beziehung wirklich deutlich vor den ATI karten liegen die GF100 basierenden sind... :rolleyes:
die ganze tesselationsleistung ist durch die in der beziehung beschnittenen kleineren nV GPUs schlicht zu einer nulldebatte geworden.
kein spielehersteller sperrt nur für ein einziges vollends ausgereiztes feature 85% aller DX11 karten aus...ausser sie werden massiv von nV gesponsort :freak:
SamLombardo
2010-10-14, 13:13:15
In Civ5 limitiert nicht die Tesselationeinheit! Ohne Tesselation führt auch eine 400er. ;)
Frag mal y33h@!
Hm. das wusste ich nicht. Woran liegts denn dann?
SamLombardo
2010-10-14, 13:19:11
die ganze tesselationsleistung ist durch die in der beziehung beschnittenen kleineren nV GPUs schlicht zu einer nulldebatte geworden.
Sehe ich nicht so. Die "wichtigste" GF100 GPU die GTX460 hat immer noch die dreifache (wohl gemerkt theoretische) Tessellationleistung der HD5870. Die 470/480 nochmal deutlich mehr.
Eine extrem beschnittene GTX450 ist für Gamer eh völlig uninteressant. (Das ist genauso wenn Du sagen würdest DX9 war eine Nulldebatte weil es Grafikkarten wie die FX5200 gab)...
LovesuckZ
2010-10-14, 13:21:04
Sehe ich nicht so. Die "wichtigste" GF100 GPU die GTX460 hat immer noch die dreifache (wohl gemerkt theoretische) Tessellationleistung der HD5870. Die 470/480 nochmal deutlich mehr.
Eine extrem beschnittene GTX450 ist für Gamer eh völlig uninteressant. (Das ist genauso wenn Du sagen würdest DX9 war eine Nulldebatte weil es Grafikkarten wie die FX5200 gab)...
Drücke es doch noch einfacher aus: nVidia's Low-End hat eine ähnliche Tessellationleistung wie AMD's High-End Chip in Form der 5870.
Hm. das wusste ich nicht. Woran liegts denn dann?
Was die AMD Task Force eigentlich sagen will, ist: Tessellationleistung limitiert ja nicht, weil meine AMD Karte schneller als 1/8 ist.
Da aber AMD Karten mit Tessellation bis heute immer mehr an Leistung verlieren - außer in AvP - limitiert das Front-End natürlich in gewisserweise.
bisher gibt es schlicht noch kein spiel in dem die Tess leistung limitiert...das wird schon allein aus dem grund nicht passieren da die einzigen GPUs die in der beziehung wirklich deutlich vor den ATI karten liegen die GF100 basierenden sind... :rolleyes:
die ganze tesselationsleistung ist durch die in der beziehung beschnittenen kleineren nV GPUs schlicht zu einer nulldebatte geworden.
kein spielehersteller sperrt nur für ein vollends ausgereiztes feature 85% aller DX11 karten aus... :freak:
Genau deshalb ist es auch ein witz immer die Tesselation überlegenheit der Fermi Heizbirnen anzuführen. Bis Tesselation in einem Game limitiert ist diese Fehlkonstruktion Fermi längst geschichte.
Savay
2010-10-14, 13:23:41
die nutzung von features richtet sich nach dem erreichbaren kundenkreis...wenn ich etwas einbaue das eh nur 1/5 des zielmarktes der höchstens 10-15% des gesamtmarktes ausmacht kannst du dir an 2 fingern abzählen wie so ein feature wohl implementiert wird...
es heißt nicht umsonst "der kleinste gemeinsame nenner"
und grade die FXen sind ein scheiß beispiel weil es sogar titel gab die extra für die handvoll kärtchen nen separaten renderpfad bekommen haben den die "lahmen" teile stemmen konnten damit sie nicht vollends untergehen... :lol:
das ganze ist beim RV870 bisher ja ganz offensichtlich nicht der fall da es schlicht bisher noch nicht nötig ist und die RV870 abseits der tess leistung genug leistung bieten im vergleich zur konkurrenz.
die situation ist einfach nicht vergleichbar...weder was den leistungsverlust noch die marktanteile der lösungen angeht. (damals waren bspw. die im vergleich "langsameren" karten in der minderheit...heute sind es die "schnelleren")
ausserdem ist tesselation nur EIN teilfeature von DX11...die FXen waren ja nichtmal schnell genug um die wesentlichen features zu nutzen. ;)
und selbst wenn...dann gibt es in 12 monaten evtl. titel mit verschiedenen tesselations stufen...so what!? dann hat jeder was davon.
Die Tesselationleistung wird in typischen Anwendungen nicht schlechter als bei NV sein.
Glaubt hier jemand ernsthaft, dass AMD die Tessellations-Leistung eines GF100 überbieten wird (Faktor 6 synthetisch)?
Das wird wohl eher in die Richtung laufen: "DirectX 11 done reasonable."
Man wird wohl zeigen, dass Cayman in Spielen mit seinen 3? Tessellatoren eine ähnliche Leistung wie GF100 mit 15 Stück liefert.
Warum nicht?
3x RPE => 3x Tesselation, dazu noch den Engpass bei den Shadern beseitigt (ergibt nochmal Faktor3) ; macht dann die 9-fache Tesselation-Leistung im Vergleich zu einer HD5870 beim Cayman. :freak:
LovesuckZ
2010-10-14, 13:31:06
die nutzung von features richtet sich nach dem erreichbaren kundenkreis...wenn ich etwas einbaue das eh nur 1/5 des zielmarktes der höchstens 10-15% des gesamtmarktes ausmacht kannst du dir an 2 fingern abzählen wie so ein feature wohl implementiert wird...
es heißt nicht umsonst "der kleinste gemeinsame nenner"
Manchmal bezweifel ich, ob man im 3DCenter.de oder im Computerbase.de Forum ist.
Tessellation nach DX11 ist programmierbar. Die Implementierung ist also vollkommen unabhängig von der Leistungsfähigkeit der Hardware vorzunehmen, da jeder User sie selbstständig für seine Leistungsklasse einstellen kann. >Es gibt hier keinen "kleinsten gemeinsamen Nenner". Es gibt kein An oder Aus.
Manchmal bezweifel ich, ob man im 3DCenter.de oder im Computerbase.de Forum ist.
Tessellation nach DX11 ist programmierbar. Die Implementierung ist also vollkommen unabhängig von der Leistungsfähigkeit der Hardware vorzunehmen, da jeder User sie selbstständig für seine Leistungsklasse einstellen kann. >Es gibt hier keinen "kleinsten gemeinsamen Nenner". Es gibt kein An oder Aus.
Theorie interessiert niemanden wenn die Praxis anders aussieht.
AnarchX
2010-10-14, 13:34:24
Type of Partitioning Range
Fractional_odd [1...63]
Fractional_even TessFactor range: [2..64]
Integer TessFactor range: [1..64]
Pow2 TessFactor range: [1..64]
http://msdn.microsoft.com/en-us/library/ff476340(VS.85).aspx
Bleibt es bei den Entwicklern diese 64 Stufen entsprechend umzusetzen, sodass der User keinen Nachteil hat.
NV wird aber wohl mit TWIMTBP versuchen, in den höchsten Einstellungen eine Stufe einzubauen, wo man selbst einen Vorteil gegenüber AMD hat.
SamLombardo
2010-10-14, 13:34:35
Was die AMD Task Force eigentlich sagen will, ist: Tessellationleistung limitiert ja nicht, weil meine AMD Karte schneller als 1/8 ist.
eigentlich schade, dass es so aussieht als wenn AMD die Tessellationleistung mit HD6k nicht deutlich steigern würde. Hatte mich schon auf die 180 grad Wendung der AMD Fans bzgl. der Wichtigkeit von Tessellation gefreut.
Genau deshalb ist es auch ein witz immer die Tesselation überlegenheit der Fermi Heizbirnen anzuführen. Bis Tesselation in einem Game limitiert ist diese Fehlkonstruktion Fermi längst geschichte.
Wow. Was Du nicht sagst:eek:
und grade die FXen sind ein scheiß beispiel weil es genug titel gab die extra für die handvoll kärtchen nen separaten renderpfad bekommen haben den die "lahmen" teile stemmen konnten... :lol:
Es ging darum, dass NV eben nicht den Tessellation-Vorteil mit ihren Mid-Range GPUs selber kaput macht - wie Du behauptet hast. Die NV karte die von der Masse der Gamer gekauft wird - die GTX460 - ist der HD5870 in diesem Punkt um mehr als Faktor 3 überlegen. Dass es auch eine 450 gibt ist für den künftigen Einsatz von Tessellation so wichtig wie die FX5200 (oder nimm von mir aus die beschnittenste Ati DX9 karte) für die Durchsetzung von DX9 gewesen ist. Das war es was ich sagen wollte...
Gruß
fizzo
2010-10-14, 13:36:19
http://resources.vr-zone.com/newvr/image.php?m=540&s=http://resources.vr-zone.com//uploads/10069/124235jqzukvebupteujub.jpg
Ich finde die Barts Pro mit 1x6pin gerade für betagte Netzteile interessant. Gibt es schon Infos bezüglich der Preisgestaltung dieser?
LovesuckZ
2010-10-14, 13:38:25
Type of Partitioning Range
Fractional_odd [1...63]
Fractional_even TessFactor range: [2..64]
Integer TessFactor range: [1..64]
Pow2 TessFactor range: [1..64]
http://msdn.microsoft.com/en-us/library/ff476340(VS.85).aspx
Bleibt es bei den Entwicklern diese 64 Stufen entsprechend umzusetzen, sodass der User keinen Nachteil hat.
NV wird aber wohl mit TWIMTBP versuchen, in den höchsten Einstellungen eine Stufe einzubauen, wo man selbst einen Vorteil gegenüber AMD hat.
Ausserdem gehört dazu noch Culling von Dreiecken sowie der dynamische LoD, dem man im Grunde ebenfalls nach belieben einstellen könnte (siehe Heaven Benchmark).
AnarchX
2010-10-14, 13:38:28
Große Bilder XFX HD 6870:
http://tweakers.net/ext/f/AA6eg5gIJqtw7XJG5C8D6Nt8/full.png
http://tweakers.net/ext/f/RORNzfc4B7Xu5abCiIUgyHyj/full.jpg
http://forum.beyond3d.com/showpost.php?p=1482154&postcount=3096
Nur 2-Way-Crossfire.
AnarchX
2010-10-14, 13:42:06
http://resources.vr-zone.com/newvr/image.php?m=540&s=http://resources.vr-zone.com//uploads/10069/124235jqzukvebupteujub.jpg
Ich finde die Barts Pro mit 1x6pin gerade für betagte Netzteile interessant. Gibt es schon Infos bezüglich der Preisgestaltung dieser?
Spekulationen sagen zwischen HD 5770 und GTX 460 768, also wohl ~140€.
fizzo
2010-10-14, 13:45:47
Spekulationen sagen zwischen HD 5770 und GTX 460 768, also wohl ~140€.
danke, wäre zeitnah dann wirklich eine Überlegung wert =)
Dural
2010-10-14, 13:46:32
Barts and Cypress are Pin Compatible
soso
und keine referenz karte für Barts Pro...
Savay
2010-10-14, 13:47:00
Es ging darum, dass NV eben nicht den Tessellation-Vorteil mit ihren Mid-Range GPUs selber kaput macht - wie Du behauptet hast.
ganz davon ab das es allein schon aufgrund der marktanteile witzlos ist der tesselationsleistung mehr relevanz zu zusprechen als sie tatsächlich besitzt und auf kurze sicht je besitzen wird, verwässern sie ihn selber durch die beschneidung selbstverständlich nochmals...
wenn ein spiele hersteller eh schon nicht die volle leistung eines GF100 nutzen kann, weil die kleineren ableger auch nicht in deren nähe kommen...warum dann wenn man eh schon kompromisse eingehen muss zusätzlich nochmals alle ATI nutzer aussperren!?! :rolleyes:
das ist weder logisch noch entspricht es dem schema, das der großteil der spieleentwickler seit jahren verfolgt. den weg des geringsten wiederstandes!
tesselation ist ein tolles feature...aber schon ziemlich überhyped!
zwar nicht ganz so schlimm wie TnL damals, da es wenigstens sinnvoll genutzt wird, aber es zeigt doch schon sehr ähnliche auswüchse...
früher mussten sie auch alle sofort top TnL leistung haben...das hat 3dfx das genick gebrochen und S3!! und wann wurde es richtig genutzt? 2 generationen später... :freak:
aber das schöne an DX11 tess ist ja eh, dass es nicht nur AN und AUS gibt, sondern dass man detailgrade definieren kann wenn man denn möchte. insofern finde ich es einfach absolut enervierend derartig auf einem teilfeature herumzureiten und es nahzu zum heiligen gral der rastergrafik zu erklären, solange es nichtmal im massenmarkt richtig angekommen ist... ;)
Die Referenz-Kühlung gefällt mir schon mal sehr gut. Schöne Weiterentwicklung des Batmobils und die 6-Pin-Anschlüsse auf der Seite. Und XFX legt auch endlich das Nvidia-Grün im Schriftzug ab (für Nvidia-Karten okay, zu den Radeons passte es aber nie).
Dural
2010-10-14, 13:52:26
Große Bilder XFX HD 6870:
http://forum.beyond3d.com/showpost.php?p=1482154&postcount=3096
Nur 2-Way-Crossfire.
ist das überhaupt eine Referenz karte oder etwas eigenens von XFX (siehe Slot blend) den schon die XFX eigene 5770 hatte nur 2-Way CF die AMD Referenz 5770 hat aber CFX!
deekey777
2010-10-14, 13:53:22
soso
und keine referenz karte für Barts Pro...
Wozu brauchst du eine Referenzkarte für Barts Pro? Und überhaupt: Hä?
mironicus
2010-10-14, 13:53:50
Hm... wie lang ist die 6870 wohl? 24 cm?
Sorkalm
2010-10-14, 14:01:31
ist das überhaupt eine Referenz karte oder etwas eigenens von XFX (siehe Slot blend) den schon die XFX eigene 5770 hatte nur 2-Way CF die AMD Referenz 5770 hat aber CFX!
Da Barts pinkomptaibel zum bekannten Cayman ist, könnte man eigentlich gleich mit Partner-Karten starten.
AnarchX
2010-10-14, 14:03:25
Da Barts pinkomptaibel zum bekannten Cayman ist, könnte man eigentlich gleich mit Partner-Karten starten.
Im Bezug auf Barts XT schon, aber für Barts Pro (1x 6-Pin, 2-Way-CF, ~120 TDP) hat wohl kein Partner ein passendes PCB.
Wirklich Sinn macht die Pin-Kompatibilität in meinen Augen nicht.
Sorkalm
2010-10-14, 14:06:33
Im Bezug auf Barts XT schon, aber für Barts Pro (1x 6-Pin, 2-Way-CF, ~120 TDP) hat wohl kein Partner ein passendes PCB.
Wirklich Sinn macht die Pin-Kompatibilität in meinen Augen nicht.
Hmm, auf den Barts-Folien steht doch was drauf.
Für Barts XT: MBA -> ASIC
Für Barts Pro: ASIC from Day 1
Leider kann ich die Abkürzungen nicht genau deuten :usad: , aber ich würde ASIC als vom Grafikkartenhersteller-entwickeltes Modell interpretieren...
AnarchX
2010-10-14, 14:08:28
MBA = Manufactured by AMD?
ASIC(Application-specific integrated circuit), ist natürlich der Chip auf dem Package, denn die Partner dann auf ihren eigenen PCBs mit selbst gekauften Speicher kombinieren.
Für die XT-GPUs muss man wohl erstmal bei AMD Referenzkarten kaufen, damit man hier eine Bestellung aufgeben kann.
y33H@
2010-10-14, 14:11:45
Wenn Barts auf Cypress-PCB passt und man das HD5850er PCB nimmt, sind wir bei so 24 cm. Die ersten Bilder sehen danach aus.
http://resources.vr-zone.com/newvr/image.php?m=540&s=http://resources.vr-zone.com//uploads/10069/124235jqzukvebupteujub.jpg
Ich finde die Barts Pro mit 1x6pin gerade für betagte Netzteile interessant. Gibt es schon Infos bezüglich der Preisgestaltung dieser?
Was soll daran denn so interessant sein. Jede Grafikkarte hat doch eh Adapter beigelegt.
ganz davon ab das es allein schon aufgrund der marktanteile witzlos ist der tesselationsleistung mehr relevanz zu zusprechen als sie tatsächlich besitzt und auf kurze sicht je besitzen wird, verwässern sie ihn selber durch die beschneidung selbstverständlich nochmals...
wenn ein spiele hersteller eh schon nicht die volle leistung eines GF100 nutzen kann, weil die kleineren ableger auch nicht in deren nähe kommen...warum dann wenn man eh schon kompromisse eingehen muss zusätzlich nochmals alle ATI nutzer aussperren!?! :rolleyes:
das ist weder logisch noch entspricht es dem schema, das der großteil der spieleentwickler seit jahren verfolgt. den weg des geringsten wiederstandes!
tesselation ist ein tolles feature...aber schon ziemlich überhyped!
zwar nicht ganz so schlimm wie TnL damals, da es wenigstens sinnvoll genutzt wird, aber es zeigt doch schon sehr ähnliche auswüchse...
früher mussten sie auch alle sofort top TnL leistung haben...das hat 3dfx das genick gebrochen und S3!! und wann wurde es richtig genutzt? 2 generationen später... :freak:
aber das schöne an DX11 tess ist ja eh, dass es nicht nur AN und AUS gibt, sondern dass man detailgrade definieren kann wenn man denn möchte. insofern finde ich es einfach absolut enervierend derartig auf einem teilfeature herumzureiten und es nahzu zum heiligen gral der rastergrafik zu erklären, solange es nichtmal im massenmarkt richtig angekommen ist... ;)
Warum sollte er Ati-Nutzer aussperren? So viel bestimmend ist die tesselation im Spiel nicht, dann ist eben die 5870 so schnell wie einen GTX460, wenn dieses Feature dazugeschaltet wird, oder es wird zur Beschleunigung genutzt. Nicht schön, aber aussperren tut man damit keinen. Schon bei DX9 gab es, wie hier angesprochen, die Möglichkeit eben Features für die lahmen FXen abzuschalten. Blos weil TnL Leistung später erst gebraucht wurde heisst das noch lange nicht, dass das nun IMMER so sein muss. Tesselation wird jetzt schon von einigen bekannten Spielen genutzt und es gab auch Fälle in denen sich das Featureset ausgezahlt hat (so wie es auch Fälle gab bei denen das nicht so war). Der heilige Grahl ist Tesselation sicher nicht, allerdings schon ein nettes Feature. Mal abgesehen von den schöner aufgelösten Figuren und weniger kantigen Oberflächen fällt das Problem des fehlenden AF (durch POM) weg und wohl auch das Shader-Flimmern einiger solcher Texturen, da durch Tesselation nun Polygonkanten entstehen, die durch MSAA geglättet werden. Ist also schon ganz nett und eine der Sache des neuen Feature-Sets die sichtbar sind für jedermann. :)
Fetza
2010-10-14, 14:32:20
So viel schneller wird die AMD nicht sein sonts hätte man gleich mher als 1GB verbaut,was soll man mit so viel Rohleistung wenn einem ab 1900*1200 8XAA der Speicher ausgeht.
Es haben ja auch so viele leute monitore, die höhere auflösungen ermöglichen. Vom speicher auf die performance zu schließen ist aber auch sonst abwegig.
Abgesehen davon:
überhaupt nicht,die spiele die mehr als 1gb verbrauchen kann man an einer hand zählen und sind kein maßstab.
Und wer wirklich 500 euro übrig hat, kann doch auch getrost zur 2gb variante greifen. Die gibts doch auch schon seit langem. Mehr als 1 gb möchte ich mir aktuell garnicht in den rechner stecken (preis-leistung).
BlackBirdSR
2010-10-14, 14:35:27
Was soll daran denn so interessant sein. Jede Grafikkarte hat doch eh Adapter beigelegt.
Es geht eher um die benötigte Leistung und, dass nicht jeder 2 Stecker hat.
Nakai
2010-10-14, 14:36:20
Barts ist hald ein Cypress-Light. ;)
Tessleistung sollte erhöht worden sein, nur nicht so dramatisch wie viele hier denken. IMO wird man auch nur einen Tesselator bei Barts sehen, welcher mit relativ hoher Wahrscheinlichkeit einen höheren Durchsatz hat.
Wenn Cayman 1920SPs hat, dann hat er 4 Module(Barts hat ja wie Cypress 2), ergo könnte er nochmal mehr Tesselationsleistung haben. Aber ich gehe eher davon aus, dass die Tessleistung um maximal dem Faktor 3 steigt, wodurch man immer noch weit weg von NV ist.
Und ich geh davon aus, dass die Leistungsteigerung zur Hälfte mit Effizienzsteigerung erreicht wird. Ergo etwa maximal 45%.
mfg
http://www.techpowerup.com/132783/AMD-Radeon-HD-6850-Specs-Pricing-Surfaces.html
wosch666
2010-10-14, 14:47:26
Langsam ergibt doch alles Sinn.
Ich denke, dass es kein Referenzdesign für Barts pro gibt ist auch mit ein Grund, warum dieser später kommen soll.
Die Pinkompatibilität hat für AMD den Vorteil, dass sie so spät wie möglich erst Samples raus schicken müssen, da die Entwicklungszeit der Boardpartner auf ein minimum sinkt.
Wie gross der Aufwand ist vorhandene Cypressdesigns auf 1x6pin und schwächer dimensionierten Bauteilen umzustellen kann ich nicht beurteilen, aber welche Nachteile, ausser dass man nicht alle Einsparmöglichkeiten von Anfang an hat, hätte denn ein etwas überdimensioniertes Design am Anfang?
Wieviel liesse sich überhaupt einsparen?
Ohne weitere Entwicklungszeit und kosten direkt mit einer neuen Generation am Markt zu sein hat sicher eine Menge Vorteile.
Da für Cayman aber komplett neue Designs entwickelt werden müssen kann auch das ein Grund sein, warum der später kommt und gar nicht mal eventuelle Schwierigkeiten bei der Produktion.
Es geht eher um die benötigte Leistung und, dass nicht jeder 2 Stecker hat.
Ja, das stimmt. Die 5770er war ja eben schon so sparsam, aber langsamer (die 5830 genau umgekehrt). Die Stecker sind allerdings eher kein Problem, die sind ja wirklich überall dabei.
Bucklew
2010-10-14, 14:50:58
Die Pinkompatibilität hat für AMD den Vorteil, dass sie so spät wie möglich erst Samples raus schicken müssen, da die Entwicklungszeit der Boardpartner auf ein minimum sinkt.
Der Unterschied ist marginal bis nicht vorhanden. Die Boards sind schon lange in Entwicklung, bevor es überhaupt die ersten Chips gibt. Wirklich zeitraubend ist die Qualifizierung gegenüber den Spec und natürlich das Validieren der Thermalspecs. Und das geht nicht ohne Samples.
Pinkompatibel schließt doch Kühlung und Energie meist gleich mit ein. Der Entwicklungsaufwand dürfte da auch sehr gering sein.
Wie gross der Aufwand ist vorhandene Cypressdesigns auf 1x6pin und schwächer dimensionierten Bauteilen umzustellen kann ich nicht beurteilen, aber welche Nachteile, ausser dass man nicht alle Einsparmöglichkeiten von Anfang an hat, hätte denn ein etwas überdimensioniertes Design am Anfang?
Wieviel liesse sich überhaupt einsparen?
Da die meisten Boardpartner auch bei der HD5830 die gleichen PCBs wie bei den größeren Brüdern verbaut haben wird das vermutlich auch bei Barts Pro darauf hinauslaufen. Im Prinzip können sie die HD5830-Designs 1:1 weiterverwenden.
Bucklew
2010-10-14, 15:02:34
Pinkompatibel schließt doch Kühlung und Energie meist gleich mit ein. Der Entwicklungsaufwand dürfte da auch sehr gering sein.
Nö, schließt es nicht.
fizzo
2010-10-14, 15:05:49
Ja, das stimmt. Die 5770er war ja eben schon so sparsam, aber langsamer (die 5830 genau umgekehrt). Die Stecker sind allerdings eher kein Problem, die sind ja wirklich überall dabei.
Mein Bruder hat einen Dell Studio XPS mit 365Watt Netzteil (16A/12V) und nur einen 6pin Stecker. Möglich wäre noch dieser Adapter (http://www.delock.de/produkte/gruppen/Kabel/Delock_Adapter_Power_SATA_15Pin_Stecker_4Pin_Molex_Buchse_12cm_60115.html) und ob damit eine Karte vom Schlage einer 460/5850 stabil läuft ist wohl fraglich.
Dell verbaut eh nur eigenen Müll jenseits jeder Norm.
Sind diese Folien schon bekannt?
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1287048589
fizzo
2010-10-14, 15:17:15
Dell verbaut eh nur eigenen Müll jenseits jeder Norm.
Ich bin mit meinem Dimension 8100 sehr zufrieden und habe auf eine HD5850 (bei einem 375Watt Netzteil - 18A/12V Leitung) aufgerüstet. Läuft in Verbindung mit einem strommfressenden Q6600 auch leicht Übertaktet ohne Probleme =)
Die Folie mit dem Cayman XT und dem Verbrauch unter 300 Watt schockiert mich doch jetzt etwas. Das gefällt mir garnicht, die wird anscheinend so heiss/heisser als ne 480! Ohwei, das wird ein Flop.
Die Folie mit dem Cayman XT und dem Verbrauch unter 300 Watt schockiert mich doch jetzt etwas. Das gefällt mir garnicht, die wird anscheinend so heiss/heisser als ne 480! Ohwei, das wird ein Flop.
Wenn sie so schluckt und heizt wie ne 480 wirds der gleiche flop wi diese. Ist schon klar.
SamLombardo
2010-10-14, 15:29:56
Es haben ja auch so viele leute monitore, die höhere auflösungen ermöglichen. Vom speicher auf die performance zu schließen ist aber auch sonst abwegig.
Abgesehen davon:
Und wer wirklich 500 euro übrig hat, kann doch auch getrost zur 2gb variante greifen. Die gibts doch auch schon seit langem. Mehr als 1 gb möchte ich mir aktuell garnicht in den rechner stecken (preis-leistung).
Ich seh das erh wie Schlammsau. 1GB sind für eine next gen Highend Karte ein limitierender Faktor und daher unterdimensioniert.
In der PCGames gab es mal Benchmarks 1GB vs 2GB in aktuellen Spielen und es war erstaunlich wie viel der höhere Speicher doch bringt. Das reichte von gar nix bis zu 30 Prozent und mehr fps Zuwachs. In manchem games (Metro2033@max, Stalker COP@max...) macht der Mehrspeicher sogar den Unterschied zwischen unspielbar und gut spielbar aus.
Zitat aus dem CB test der 5870 2gb:
Nichtsdestoweniger gibt es bereits einige Titel, die von dem größeren Speicher profitieren können: Crysis Warhead, Stalker – Call of Pripyat und das von uns nicht getestete Metro 2033 stehen 2.048 MB auf der Radeon HD 5870 sehr aufgeschlossen gegenüber. Nicht vergessen werden sollten zudem zahlreiche Texturmods aktueller Spiele, die stark auf den VRAM gehen.In Zukunft werden sich die Speicheranforderungen sicherlich in Richtung zwei Gigabyte bewegen
oder dem der PCGH
Während das vermeintlich speicherhungrige GTA 4 nicht den Hauch eines Vorteils aus 2 GiB VRAM auf einer HD 5870 zieht, profitieren die anderen Titel extrem von der Speicher-Verdopplung.
Lange Rede kurzer Sinn: Ich würde mir keine Karte mit 1GB mehr kaufen. Erst recht nicht eine Highednkarte der nächsten Generation. Dazu limitieren diese jetzt schon genug und das wird in Zukunft sicher nicht weniger.
Und jetzt stellt euch mal die Kühlkonstruktion vor und den Propeller! Das wird in extremo laut. Abartig sowas.
AwesomeSauce
2010-10-14, 15:35:42
Ich glaube immer noch nicht an die Authentizität der jüngst geleakten Folien. Da ist mal das ATi-Logo, wo doch vor einiger Zeit die ATi-Brand gekillt und durch AMD ersetzt wurde. Dann noch das alles andere als professionelle Folien-Design - das kriegt jeder Mittelschüler innerhalb von einer Stunde besser hin. Die Comments in der Barts SKU Folie sind völlig redundant, wieso schreibt man zweimal die genau gleiche Aussage hin?
Ich denke, ich bediene mich meines Salzspenders...
Edit: Habe gerade nochmals das B3D-Forum gecheckt: neliz zweifelt die Echtheit der Folien jedenfalls nicht an. Er vermisst jedoch eine Folie, wo auf den um einen Drittel (!) gesenkten Idle-Verbrauch hingewiesen wird:
where's the slide where they show how they cut idle power by another third?
http://forum.beyond3d.com/showpost.php?p=1482090&postcount=3071
Is it the real deal?
Sorkalm
2010-10-14, 15:44:26
Die Folien sind von August, da gabs wohl das neue Logo noch nicht.
AwesomeSauce
2010-10-14, 15:47:19
Das stimmt allerdings, habe ich nicht beachtet...
Ist ja schön das der Idle Verbrauch um ein Drittel gesenkt wird. Aber hier gehts um die Leistungsaufnahme unter Last, da orientiert man sich anscheinend an/über der 480! Ein Armutszeugnis, sollte es tatsächlich so verheerend kommen.
AnarchX
2010-10-14, 15:48:05
Edit: Habe gerade nochmals das B3D-Forum gecheckt: neliz zweifelt die Echtheit der Folien jedenfalls nicht an. Er vermisst jedoch eine Folie, wo auf den um einen Drittel (!) gesenkten Idle-Verbrauch hingewiesen wird:
http://forum.beyond3d.com/showpost.php?p=1482090&postcount=3071
Is it the real deal?
Wird man wohl wie Nvidia bei GF10x nun auch die Spannung des GDDR5 im Idle senken.
Ist ja schön das der Idle Verbrauch um ein Drittel gesenkt wird. Aber hier gehts um die Leistungsaufnahme unter Last, da orientiert man sich anscheinend an/über der 480! Ein Armutszeugnis, sollte es tatsächlich so verheerend kommen.
Kommt ganz auf die erzielte Leistung an und wie nah man in den Praxis an der TDP ist.
Das stimmt allerdings, habe ich nicht beachtet...
Wer würde denn ausserdem solche Folien fälschen? Wenn dann würde man wohl eher genaue Specs oder gar Benchmarks aufführen.
naja, ich hoffe die Folie ist ein verspäteter Aprilscherz, das können die nicht Ernst meinen. Ich halte erstmal die Füsse still und warte ab.
BlackBirdSR
2010-10-14, 15:53:49
naja, ich hoffe die Folie ist ein verspäteter Aprilscherz, das können die nicht Ernst meinen. Ich halte erstmal die Füsse still und warte ab.
Ja mach das. Ist besser so.
Esrt dann weiß man auch, was genau AMD mit <300 meint ;)
Vorher hat ein Jammern auch keinen Sinn.
Bulldozer hat auch <300 ;)
Fetza
2010-10-14, 16:12:52
Ich seh das erh wie Schlammsau. 1GB sind für eine next gen Highend Karte ein limitierender Faktor und daher unterdimensioniert.
In der PCGames gab es mal Benchmarks 1GB vs 2GB in aktuellen Spielen und es war erstaunlich wie viel der höhere Speicher doch bringt. Das reichte von gar nix bis zu 30 Prozent und mehr fps Zuwachs. In manchem games (Metro2033@max, Stalker COP@max...) macht der Mehrspeicher sogar den Unterschied zwischen unspielbar und gut spielbar aus.
Zitat aus dem CB test der 5870 2gb:
oder dem der PCGH
Lange Rede kurzer Sinn: Ich würde mir keine Karte mit 1GB mehr kaufen. Erst recht nicht eine Highednkarte der nächsten Generation. Dazu limitieren diese jetzt schon genug und das wird in Zukunft sicher nicht weniger.
Naja, wer unbedingt die texturemods so nutzen will und auch manch andere extremsettings fährt, der kann ja auch die 2gb variante kaufen. Das die kommt ist doch absehbar. Darum verstehe ich den kritikpunkt nicht, wie schon seit jahren, wird es auch 2gb varianten geben. Nur muss man dafür eben dann auch den entsprechenden aufpreis zahlen und das werden viele wieder nicht wollen.
Botcruscher
2010-10-14, 16:57:41
Was habt ihr schon wieder mit euren 300W. Die Dualkarte schlisst das für Cayman XT doch eh aus.
Was habt ihr schon wieder mit euren 300W. Die Dualkarte schlisst das für Cayman XT doch eh aus.
Nö, die 5970 hat auch ~300W, ein 5870 CF Verbund aber ~400 ... jetzt rate mal woran das liegt ...
AnarchX
2010-10-14, 17:03:33
Antilles wird wohl nur mit 5Gbps GDDR5 kommen und taktmässig noch weiter zurückstecken als die 5970 gegenüber der 5870.
Im Endeffekt ist es doch eh nur ein kostengünstig herzustellendes Prestige-Objekt, was dann vielleicht wieder die Chinesen in großen Mengen kaufen, anstatt Telsas oder FirePro Karte in ihren Serverfarmen zu verbauen. ;D
Dural
2010-10-14, 17:14:05
auf der 6990 kommen eh nur sehr sehr low takt Cayman drauf... oder wer weis vieleicht sogar nur Barts Chips... :wink:
es gibt schon einen grund wie so der Cayman XT als 6970 kommt und die mGPU nummerisch nur ganz wenig oberhalb der karte ist...
Der nächste mGPU flop von AMD kommt uns entgegen, da wette ich... gefülte FPS unterhalb einer 6950 ;D
AnarchX
2010-10-14, 17:18:40
auf der 6990 kommen eh nur sehr sehr low takt Cayman drauf... oder wer weis vieleicht sogar nur Barts Chips... :wink:
235,ANTILLES PRO (671C),NI CAYMAN
236,ANTILLES XT (671D),NI CAYMAN
Flop ist doch übertrieben, eher eine nette Ergänzung. Ein MGPU-Flop war die HD 3870X2, die Anfang 2008 gerade mal High-End-Leistung von Ende 2006 bot oder die 9800GX2 mit 512MiB RAM + Pre-GF400-Speichermanagement.
LovesuckZ
2010-10-14, 17:19:02
AMD's Sweet Spot Strategie ist doch seit rv790 sowieso dahin. Cypress verbrauchte mit 336mm^2 schon zuviel, um daraus eine richtige x2 zu bauen und jetzt soll angeblich Barts XT schon bei über 150 Watt liegen. Es ist erstaunlich, dass die groß angekündigte SS-Strategie nach 2 Jahren schon so veraltet erscheint.
Dural
2010-10-14, 17:22:07
Die strategie gab es auch nie, AMD war einfach nicht in der lage (oder wollten nicht...) grössere GPUs damals nach dem R600 desaster zu bauen und man nam das halt als marketing wie toll das es so doch ist blablabla...
Ein AMD mensch hat ja letztes jahr selber zugegeben das sie sich jetzt wider langsam steigern und grössere chips bauen! und promt kamm der RV870 ;)
jede mGPU karte ist ein Flopp...
bei sollchen GPUs erst recht wo man schon als single karte über 225Watt ist, da muss man denn takt so weit runter schrauben um unterhalb der fixen 300Watt PCI-E Grenze zu bleiben das eine single GPU karte gefült und praktisch einfach besser ist!
aber was solls, es wird genug leute geben die so was kaufen wegen den FPS balken... :freak:
AnarchX
2010-10-14, 17:26:43
jede mGPU karte ist ein Flopp...
Für Gamer mag das vielleicht stimmen, aber man muss sehen dass die HD 5970 lange Zeit ein hervorragendes FLOPs/€-Verhältnis bot.
Sie hatte seit Jahresanfang weniger als 600€ gekostet, bei 4,6 TFLOPs und nur 2 Slots Platzbedarf. Nicht ohne Grund verbauen die Chinesen tausende von solche Karten in bestimmten Clustern.
Es ist erstaunlich, dass die groß angekündigte SS-Strategie nach 2 Jahren schon so veraltet erscheint.Was würdest Du denn machen, wenn Deine FAB plötzlich den Prozess streicht ?
Dural
2010-10-14, 17:35:50
Für Gamer mag das vielleicht stimmen, aber man muss sehen dass die HD 5970 lange Zeit ein hervorragendes FLOPs/€-Verhältnis bot.
Sie hatte seit Jahresanfang weniger als 600€ gekostet, bei 4,6 TFLOPs und nur 2 Slots Platzbedarf. Nicht ohne Grund verbauen die Chinesen tausende von solche Karten in bestimmten Clustern.
Da hast du natürlich recht, aber spielen die anschaffungs-kosten da wirklich eine rolle?!? ich denke eher nein, sondern viel mehr das Watt/Leistung verhältnis!
PS. waren das nicht 4870X2 ?
AnarchX
2010-10-14, 17:41:25
Da hast du natürlich recht, aber spielen die anschaffungs-kosten da wirklich eine rolle?!? ich denke eher nein, sondern viel mehr das Watt/Leistung verhältnis!
Und das ist bei den Radeons in bestimmten Crunching-Aufgaben deutlich besser.
Und Kosten spielen wohl durchaus eine Rolle, wenn man zum gleichen Preis einer Single-GPU Profi-Karte drei Dual-GPU Consumer-Karten bekommt, wovon man zwei verbaut und eine als Ersatzteil vorhalten kann.
Bei Nvidia hat man dieses "Problem" ja offensichtlich schon erkannt und drosselt die DP-Leistung der GeForce Karten.
Botcruscher
2010-10-14, 17:46:25
Nö, die 5970 hat auch ~300W, ein 5870 CF Verbund aber ~400 ... jetzt rate mal woran das liegt ...
So what? Deswegen liegt die Grenze für eine Einzelkarte trotzdem bei 150 bis 180W wenn man daraus noch eine X2 basteln will. Soviel gibt es dann nämlich auch nicht zum abspecken.
horn 12
2010-10-14, 17:46:39
Ich bin fest der Annahme dass uns AMD diesmal erneut komplett irreführt und die Leistung und der hohe Wattverbrach vorne und hinten nicht stimmt.
Auch die Tesselation Leistung wird sicher hoch sein, nicht ganz so wie NV aber dennoch um Vielfaches besser als Crypress XT.
Wollen mit gefäschten Folien wohl die Katzew erst am Schluss aus den Sach lassen
@AnarchX
Meinst nicht ich habe Recht und da kommt was größeres daher als derzeit im Netz kursiert, AMD ist da ja Spitzenreiter in Unfug stiften.
LovesuckZ
2010-10-14, 17:48:16
Und das ist bei den Radeons in bestimmten Crunching-Aufgaben deutlich besser.
Und Kosten spielen wohl durchaus eine Rolle, wenn man zum gleichen Preis einer Single-GPU Profi-Karte drei Dual-GPU Consumer-Karten bekommt, wovon man zwei verbaut und eine als Ersatzteil vorhalten kann.
Bei Nvidia hat man dieses "Problem" ja offensichtlich schon erkannt und drosselt die DP-Leistung der GeForce Karten.
Man sollte doch bitte diesen einen China-Rechner es nicht hypen. Genauso wie das nVidia-System.
Der Größteil der Systeme steht produktiv irgendwo rum. Und da braucht es mehr als nur tolle GFLOPs Zahlen. Software z.B. Oder Lösungen für das Bandbreitenproblem zwischen CPU, Memory und GPU.
Schlammsau
2010-10-14, 17:49:26
Ich gehe von einer Verdoppelung der Tessleistung aus, was ja mehr als ausreichend sein dürfte, für die nächsten 2-3 Jahre.
Dural
2010-10-14, 17:53:55
Und das ist bei den Radeons in bestimmten Crunching-Aufgaben deutlich besser.
Und Kosten spielen wohl durchaus eine Rolle, wenn man zum gleichen Preis einer Single-GPU Profi-Karte drei Dual-GPU Consumer-Karten bekommt, wovon man zwei verbaut und eine als Ersatzteil vorhalten kann.
Bei Nvidia hat man dieses "Problem" ja offensichtlich schon erkannt und drosselt die DP-Leistung der GeForce Karten.
Na sind den die Dual GPU Flopps auch vergleichbar mit zwei singel GPU Flopps? ;)
halbe Bandbreite von CPU/Speicher zur GPU usw.
ist nicht mein fachgebiet, kenn mich da nicht so aus und GPUs in Claster ist halt auch noch recht neu :)
AnarchX
2010-10-14, 17:54:56
Man sollte doch bitte diesen einen China-Rechner es nicht hypen. Genauso wie das nVidia-System.
Der Größteil der Systeme steht produktiv irgendwo rum. Und da braucht es mehr als nur tolle GFLOPs Zahlen. Software z.B. Oder Lösungen für das Bandbreitenproblem zwischen CPU, Memory und GPU.
Trotz allem sieht man an GeForce 400, dass Nvidia ein Risko für Tesla darin sah hier die volle DP-Leistung zu erlauben.
Ich gehe von einer Verdoppelung der Tessleistung aus, was ja mehr als ausreichend sein dürfte, für die nächsten 2-3 Jahre.
Wenn Nvidia seinen Entwickler-Bonus ausspielt, könnte alles was deutlich weniger als NVs Tess-Leistung ist ein Problem bleiben. ;)
Dural
2010-10-14, 17:57:36
da hast du auch sicher recht, aber Tesla lässt sich NV auch richtig was kosten und müssen so die unkosten halt über die Tesla karten preise wider reinholen
aber ja das dürfte in zukunft noch ein grösseres "problem" werden, da bleibt halt dann nur noch eine künstliche beschränkung übrig wie sie es seit jahren zb. im Quadro bereich gibt.
AnarchX
2010-10-14, 17:58:45
Barts XT nackt:
http://image20.it168.com/201010_800x800/283/e725487be21c9964.jpg
http://vga.it168.com/a2010/1014/1113/000001113788.shtml
Wer den Chiphell Messungen nicht traut, kann hier ja nochmal anhand des PCIe nachmessen.
Der Größteil der Systeme steht produktiv irgendwo rum. Und da braucht es mehr als nur tolle GFLOPs Zahlen.
Richtig, siehe die BOINC-Community. Die zwei Projekte die massiv auf ATI setzten (Milkyway@Home und Collatz@Home) hauen zusammen über 1,2 ExaFLOPS raus, 90%davon dank ATI GPUs
AMD's Sweet Spot Strategie ist doch seit rv790 sowieso dahin. Cypress verbrauchte mit 336mm^2 schon zuviel, um daraus eine richtige x2 zu bauen und jetzt soll angeblich Barts XT schon bei über 150 Watt liegen. Es ist erstaunlich, dass die groß angekündigte SS-Strategie nach 2 Jahren schon so veraltet erscheint.
Ich finde es viel eher erstaunlich das du wieder mal bewusst Fakten weg lässt um deine Fanboyagilität zu untermauern. Der 32nm Prozess wurde wenige Wochen vor dem geplanten Tapeout gestrichen, logisch das der Chip in 40nm größer wird. Aber AMD kann sich das dank ihrer Sweet Spot Strategie eben leisten. NV ist mit Gf100 am Ende und muss einen extra Chip für den Customermarkt bauen um mit AMD mithalten zu können.
Schlammsau
2010-10-14, 18:02:29
Wenn Nvidia seinen Entwickler-Bonus ausspielt, könnte alles was deutlich weniger als NVs Tess-Leistung ist ein Problem bleiben. ;)
Trotz des Entwicklerbonus glaube ich nicht, dass wir jetzt urplötzlich mit Titeln überhäuft werden, die "Tesselation like Hell" einsetzen.
Das wird eine langsame Entwicklung sein.
Und so langsam hab ich auch das Gefühl, dass AMD/ATi mittlerweile mehr tut, in sachen Entwicklerunterstützung.
Is nur meine Meinung.
So what? Deswegen liegt die Grenze für eine Einzelkarte trotzdem bei 150 bis 180W wenn man daraus noch eine X2 basteln will. Soviel gibt es dann nämlich auch nicht zum abspecken.
Sorry kapier ich nicht, wer bastelt aus ner Einzelkarte ne X2 und wie soll das überhaupt gehen ?
Was ich sagen wollte ist, dass es sehr wohl ne dual Caymankarte geben könnte, nur eben nicht mit dem Takt und Speicherfrequenzen der Cayman XT.
Deswegen kannst Du von der (Cayman) X2 Karte rein gar nichts auf Cayman schlussfolgern. Mit 125MHz weniger Chip und 200 Mhz Speichertakt sind bei der 5970 trotz doppeltem RAM Ausbau 100W weniger drin, so oder so ähnlich wird das auch bei der Cayman X2 laufen.
Die strategie gab es auch nie, AMD war einfach nicht in der lage (oder wollten nicht...) grössere GPUs damals nach dem R600 desaster zu bauen und man nam das halt als marketing wie toll das es so doch ist blablabla...
Ja, und sie haben es damit geschafft innerhalb kürzester Zeit wieder zu NV aufzuschließen und ihnen gehörig das Wasser abzugraben mit einer deutlich effizienteren Architektur und deutlich kleineren Chips. Aber schon klar blablabla...
mapel110
2010-10-14, 18:04:28
Tessellation lässt sich doch gut skalieren, wie man in den Benchmarktools sieht. Baut man eben Slider ein und gut ist.
Schlammsau
2010-10-14, 18:05:10
Barts XT nackt:
http://image20.it168.com/201010_800x800/283/e725487be21c9964.jpg
http://vga.it168.com/a2010/1014/1113/000001113788.shtml
Wer den Chiphell Messungen nicht traut, kann hier ja nochmal anhand des PCIe nachmessen.
Was misst den Chiphell?
Für mich sieht der nicht allzu viel kleiner aus als Cypress.
Dural
2010-10-14, 18:05:10
ne der ist schon kleiner.
hmmm sieht nach ca. 170Watt TDP aus
LovesuckZ
2010-10-14, 18:07:49
Tessellation lässt sich doch gut skalieren, wie man in den Benchmarktools sieht. Baut man eben Slider ein und gut ist.
Leider scheinen es einige nicht zu begreifen. Ubisoft arbeitet mit nVidia an Terrain Tessellation in HAWX2. Und nach der Erklärung auf der GTC wird man hier verdammt viele Dreiecke erzeugen.
Trotz allem sieht man an GeForce 400, dass Nvidia ein Risko für Tesla darin sah hier die volle DP-Leistung zu erlauben.
Das ist doch logisch, wenn man sie einen Chip für mehrere Bereiche verwenden. Machen sie mit den Quadros auch schon seit Ewigkeiten.
/edit: Laut der Seite hat die Karte einen Speichertakt von 1050Mhz und nicht 1250. Waren die Slides nur fakes?
Dural
2010-10-14, 18:10:28
1050MHz waren doch für Barts XT immer im gespräch!
Schlammsau
2010-10-14, 18:10:30
ne der ist schon kleiner.
hmmm sieht nach ca. 170Watt TDP aus
Kleiner schon, aber Barts ist klar grösser als die spekulierten ~200mm².
Würd auf etwas um die 250mm² tippen. Cypress hat ja ~330mm²!
Trotzdem eine beachtliche Verkleinerung gegenüber Cypress, wenn Barts XT mindestens 5850 Niveau erreicht, und sie die Tesselationleistung deutlich erhöhen konnten.
AnarchX
2010-10-14, 18:28:22
/edit: Laut der Seite hat die Karte einen Speichertakt von 1050Mhz und nicht 1250. Waren die Slides nur fakes?
Es gibt 0,5ns GDDR5 und es gibt 0,4ns GDDR5. Welchen brauch man um spezifikationsgerecht 1050MHz zu erreichen?;)
Kleiner schon, aber Barts ist klar grösser als die spekulierten ~200mm².
Würd auf etwas um die 250mm² tippen. Cypress hat ja ~330mm²!
Trotzdem eine beachtliche Verkleinerung gegenüber Cypress, wenn Barts XT mindestens 5850 Niveau erreicht, und sie die Tesselationleistung deutlich erhöhen konnten.
Siehe UPDATE #3 im ersten Posting dieses Threads. Laut Chiphell ist Barts 230mm2 groß.
Was misst den Chiphell?
Für mich sieht der nicht allzu viel kleiner aus als Cypress.
Es sind laut meiner bescheidenen Photoshop-Messung sehr exakt 230mm². Das wäre schon beachtlich wenn man damit annähernd Cypress-Leistung erreicht.
Schlammsau
2010-10-14, 18:34:37
Siehe UPDATE #3 im ersten Posting dieses Threads. Laut Chiphell ist Barts 230mm2 groß.
Es sind laut meiner bescheidenen Photoshop-Messung sehr exakt 230mm². Das wäre schon beachtlich wenn man damit annähernd Cypress-Leistung erreicht.
Alter Schwede......also doch so viel weniger....nicht schlecht Herr Specht! Jetzt muss nur die Leistung und Stromverbrauch passen.
5850 Niveau und eine deutlich erhöhte Tessleistung wäre da ja ne Ansage und ja fast schon als spektakulär zu bezeichen.
Sorkalm
2010-10-14, 18:35:24
Siehe UPDATE #3 im ersten Posting dieses Threads. Laut Chiphell ist Barts 230mm2 groß.
Danke, dass du mir die Arbeit abgenommen hast. ;)
Black-Scorpion
2010-10-14, 18:35:54
ne der ist schon kleiner.
hmmm sieht nach ca. 170Watt TDP aus
Kannst du mir mal deine Glaskugel borgen? Ist nämlich ganz erstaunlich wie du von einem Bild einer nackten Karte auf die TDP kommst.
Cayman kommt November laut Fud.
http://fudzilla.com/graphics/item/20502-cyman-comes-in-late-november
"We also learned that Cayman is the biggest chip that ATI, or AMD has ever made. It looks like the size of the chip is very close to GF100 aka Fermi and the thermals should be in that range."
Soso, der größte Chip den ATI, AMD je gemacht haben. Hört sich "hot" an.
deekey777
2010-10-14, 18:44:45
Cayman comes in late November (http://fudzilla.com/graphics/item/20502-cayman-comes-in-late-november)
We also learned that Cayman is the biggest chip that ATI, or AMD has ever made. It looks like the size of the chip is very close to GF100 aka Fermi and the thermals should be in that range. Judging by our information Cayman XT and PRO should end up pretty fast, much faster than Radeon HD 5870 and 5850 so the guys who already have 5000-series boards should find it a worthwhile upgrade.
Größer als der gute alte R600? Irgendwie kann ich mir nicht vorstellen, dass er viel größer als Cypress und dazu noch größer als der R600 sein soll.
Übrigens könnte man den Threadtitel nun endgültig umbenennen, AMD nennt die Karten laut Folien offiziell "Northern Islands". Die 28nm Generation ist dann wohl Southern Islands. Da hat man ein ganz schönes Verwirrspiel betrieben, noch vor kurzem hat man Southern Islands schließlich offiziell bestätigt.
AnarchX
2010-10-14, 18:47:11
Imo sind die Desktop-Chips schon die "Southern Islands". Northern Islands ist der Codename, der sich von den Notebook-Chips ableitet.
Fetza
2010-10-14, 18:47:24
Alter Schwede......also doch so viel weniger....nicht schlecht Herr Specht! Jetzt muss nur die Leistung und Stromverbrauch passen.
5850 Niveau und eine deutlich erhöhte Tessleistung wäre da ja ne Ansage und ja fast schon als spektakulär zu bezeichen.
Wenn die filterung dann noch taugt, ja! Aber wenn die verbessert worden wäre, hätte es bestimmt schon längst hints dahingehend gegeben.
BlackBirdSR
2010-10-14, 18:48:41
Cayman kommt November laut Fud.
http://fudzilla.com/graphics/item/20502-cyman-comes-in-late-november
"We also learned that Cayman is the biggest chip that ATI, or AMD has ever made. It looks like the size of the chip is very close to GF100 aka Fermi and the thermals should be in that range."
Soso, der größte Chip den ATI, AMD je gemacht haben. Hört sich "hot" an.
hmpf...
nach dem Motto: Ich will auch mal so richtig ins Fettnäpfchen treten? ;)
Größter ATI Chip wäre wohl R600
Größter AMD Chip ist IMO Istanbul mit 346mm2
Intels Nehalem EX zum Vergleich hat 684mm2 :biggrin:
dildo4u
2010-10-14, 18:49:33
Cayman comes in late November (http://fudzilla.com/graphics/item/20502-cayman-comes-in-late-november)
Größer als der gute alte R600? Irgendwie kann ich mir nicht vorstellen, dass er viel größer als Cypress und dazu noch größer als der R600 sein soll.
Der Chip soll GTX 480 übertreffen wie schon immer klar war in dem Leistungsbereich kann auch ATI nich zaubern.Verbrauch und Die Größe sind entsprechend.Wie man an der GTX 460 und 5850 sieht lässt nur die Mittelklasse hohe Effektivität zu die letzten 30% muss man sich teuer erkaufen.
Imo sind die Desktop-Chips schon die "Southern Islands". Northern Islands ist der Codename, der sich von den Notebook-Chips ableitet.
Auf einer Folie steht "whats new in northern Island", auf einer anderen "Northern Islands Display Features". Beides bezieht sich eindeutig auf die in kürze kommenden Desktopkarten. Kein Wort von Southern Islands:
http://www.3dcenter.org/artikel/amds-praesentation-zur-northern-islands-generation
Ich hoffe Fud fischt im trüben, vorstellen kann ichs mir nicht, war es doch ATI die sich über "Thermi" lustig gemacht haben. Könnt ihr bei Youtube sehen;)
Black-Scorpion
2010-10-14, 19:01:38
Der Chip soll GTX 480 übertreffen wie schon immer klar war in dem Leistungsbereich kann auch ATI nich zaubern.Verbrauch und Die Größe sind entsprechend.Wie man an der GTX 460 und 5850 sieht lässt nur die Mittelklasse hohe Effektivität zu.
Natürlich können sie nicht zaubern. Nur was soll der Vergleich mit dem verbockten GF100? Oder glaubst du immer noch daran das alle anderen daran Schuld sind nur Nvidia nicht?
dildo4u
2010-10-14, 19:06:48
Natürlich können sie nicht zaubern. Nur was soll der Vergleich mit dem verbockten GF100? Oder glaubst du immer noch daran das alle anderen daran Schuld sind nur Nvidia nicht?
So lange du keine Vergleichbare Karte hast kannst du gar nicht bewerten was für ein Job NV gemacht hat.
Gestrandet
2010-10-14, 19:08:41
Was meinst du mit vergleichbar?
dildo4u
2010-10-14, 19:10:24
Was meinst du mit vergleichbar?
Leistung unter DX11.
Ich denke er meint Tesselationleistung, AF-Qualität, PhysX Cuda. Qualität kostet Energie. Aber mal schauen was AMD mit dem Cayman auftischt. ;)
Black-Scorpion
2010-10-14, 19:14:56
So lange du keine Vergleichbare Karte hast kannst du gar nicht bewerten was für ein Job NV gemacht hat.
Vielleicht solltest du dir mal ein paar Beiträge von AIL dazu durchlesen. Der Prozess bei TSMC war ein Problem aber nicht das einzige. Und man kann sehr wohl bewerten was für einen Job sie beim GF100 gemacht haben. Ganz sicher keinen guten. Du siehst es ja schon als Fakt an das Cayman genauso groß ist und auch soviel verbraucht. Glaskugel? Und fang nicht mit TDP an. Das die Angaben beim GF100 nicht den Tatsachen entspricht steht ja wohl fest.
dildo4u
2010-10-14, 19:16:15
Vielleicht solltest du dir mal ein paar Beiträge von AIL dazu durchlesen. Der Prozess bei TSMC war ein Problem aber nicht das einzige. Und man kann sehr wohl bewerten was für einen Job sie beim GF100 gemacht haben. Ganz sicher keinen guten.
Warten wir's ab wenn Cayman XT kommt dann können wir noch mal vergleichen.
Fetza
2010-10-14, 19:36:28
So lange du keine Vergleichbare Karte hast kannst du gar nicht bewerten was für ein Job NV gemacht hat.
GT200 war doch ähnlich groß (ich meine sogar noch etwas größer) als gf100 und hatte nicht dessen stromverbrauch. Das gf100 eine ziemlich schlechte sache für den consumer markt ist, bezweifelt doch niemand, oder du etwa?
RoNsOn Xs
2010-10-14, 19:37:50
GT200 war doch ähnlich groß (ich meine sogar noch etwas größer) als gf100. Das gf100 eine ziemlich schlechte sache für den consumer markt ist, bezweifelt doch niemand, oder du etwa?
haaaaallllllllo?????? wählt mich als mod und ik bekomm nen krassen sauber-mach-besen als ability :mad:
Schlammsau
2010-10-14, 19:38:36
Wichtig ist nur das Cayman XT deutlich unter 300 Watt bleibt. Alles andere wäre scheisse, egal um wieviel er schneller als der GT100 ist.
Und da es ausser Frage steht, dass er (deutlich) schneller als GT100 wird, mach ich mir nur um den Stromverbrauch sorgen.
Aber so wie ich das einschätze, versucht ATi alles um auch beim Stromverbrauch besser als die Konkurrenz zu sein.
Seit der HD3000 Serie, war ATi Stromverbrauchstechnisch nahezu immer besser als die Konkurrenz.
Ein Cayman ist aber trotzdem nichts für mich, meine Grenze liegt bei einer TDP von 200 Watt und keinem Watt mehr!
LovesuckZ
2010-10-14, 19:39:34
Cypress auch. Schlechte BQ, weniger Features und unzureichende Tessellationleistung.
Warum also GF100 "eine ziemlich schlechte Sache für den consumer markt" wäre und Cypress nicht, erschließt mir jetzt nicht wirklich.
Wenn du auf den Stromverbrauch anspielst: Ich kann meinen Strom dank Afterburner senken, die Nachteile dort oben können jedoch nicht so leicht beseitigt werden.
Nakai
2010-10-14, 19:41:29
R600 hatte afaik ~420mm². Barts wird um die ~220mm² haben. Cayman wird etwa doppelt soviele Recheneinheiten haben.
Siehe hierbei Juniper und Cypress. Cypress ist auch etwa doppelt so groß wie Juniper.
Ergo könnte Cayman größer als der R600 werden.
Schlammsau
2010-10-14, 19:42:12
R600 hatte afaik ~420mm². Barts wird um die ~220mm² haben. Cayman wird etwa doppelt soviele Recheneinheiten haben.
Siehe hierbei Juniper und Cypress. Cypress ist auch etwa doppelt so groß wie Juniper.
Ergo könnte Cayman größer als der R600 werden.
~230mm²! ;)
Fetza
2010-10-14, 19:43:20
haaaaallllllllo?????? wählt mich als mod und ik bekomm nen krassen sauber-mach-besen als ability :mad:
Also eigentlich wollte ich nur darauf hinaus, das eine eventuelle große die-size des cayman alleine noch keinen rückschluss auf einen gleich großen stromhunger wie beim gf100 zuläßt, wie es dildo impliziert. Was ist daran jetzt ot? Und wo ist da ein grund sich aufzuregen?
Vielleicht nimmst du lieber etwas baldrian? :)
LovesuckZ
2010-10-14, 19:43:21
Cayman bleibt bei 256bit. g92 war nur 33% größer als g94 trotz doppelter Einheiten.
Wenn Barts 230mm^2 ist, dann sollte Barts x 2 deutlich unter 400mm^2 liegen.
AnarchX
2010-10-14, 19:45:40
Mal noch etwas zu den ALUs:
RV940 (Barts Pro) of GPGPU performance.
Tested, Barts Pro run GPUBench, most instruction throughput in 114-115Ginst/s or so, the frequency is 725MHz.
115G/725M=158.6。 Obviously there are 160 Barts Pro ALU.
In addition POW instruction throughput is ADD/MUL, half, SIN/COS are ADD, 1/2.5. Can you guess the ordinary RV940 ALU and SFU?
http://www.microsofttranslator.com/bv.aspx?from=&to=en&a=http%3a%2f%2fwww.opengpu.org%2fviewthread.php%3ftid%3d3405%26extra%3dpage%253D 1
As far as I can tell the throughput for XYZT would be the same as XYZWT in all three of these tests.
But I think it rules out XYZW with emulated transcendentals.
http://forum.beyond3d.com/showpost.php?p=1482294&postcount=3139
verstehe nicht warum so viele ein problem mit 300w stromverbrauch eines cayman xt hätten, solange die leistung stimmt ist das ja egal. wenn einem 300w zu viel sind kauft man eben eine niedrigere karte. oder was wäre schlecht daran wenn es z.b. eine hd 6970 gibt die +50% gegenüber gtx 480 hat 300w verbraucht und eine hd 6950 mit 230w und +15 gegenüber gtx 480, anstatt nur einer 230w karte mit +15%
Es deutet doch nun wirklich vieles darauf hin, dass AMD erstmals seit der ATI HD2900XT wieder eine echte Single-GPU HighEnd-Graka bauen wird. In ihrem eigenen Selbstverständnis waren das ja bisher immer den MGPU-Karten vorbehalten, aber ich glaube die Zeit der Bescheidenheit ist nun endgültig vorbei.
Man hat in den letzten Jahren stetig an Selbstvertrauen zurückgewonnen und man kann es drehen wie man will, aber NV ist definitiv angeschlagen und so verletzlich wie seit Jahren nicht mehr.
Schlammsau
2010-10-14, 19:57:41
verstehe nicht warum so viele ein problem mit 300w stromverbrauch eines cayman xt hätten, solange die leistung stimmt ist das ja egal. wenn einem 300w zu viel sind kauft man eben eine niedrigere karte. oder was wäre schlecht daran wenn es z.b. eine hd 6970 gibt die +50% gegenüber gtx 480 hat 300w verbraucht und eine hd 6950 mit 230w und +15 gegenüber gtx 480, anstatt nur einer 230w karte mit +15%
Weil es der falsche Weg ist!
Es kann einfach nicht richtig sein, so viel Verlustleistung zu produzieren, nur um möglichst viel FPS zu haben.
Man muss sich nur mal vorstellen, wieviel 300 Watt Verlustleistung nur für die Graka, eigentlich wirklich sind. Vielleicht auch von der ökologischen Seite aus betrachtet.
Wenn ATi jetzt ein Single GPU-Monster mit 300Watt TDP baut, bekommen die genau so viel schellte von mir, wie auch der GT100!
Is nur meine Meinung....mir ist das deutlich zu viel! 200 Watt sind meine absolute Schmerzgrenze.
Weil es der falsche Weg ist!
Es kann einfach nicht richtig sein, so viel Verlustleistung zu produzieren, nur um möglichst viel FPS zu haben.
Man muss sich nur mal vorstellen, wieviel 300 Watt Verlustleistung nur für die Graka, eigentlich wirklich sind. Vielleicht auch von der ökologischen Seite aus betrachtet.
Is nur meine Meinung....mir ist das deutlich zu viel! 200 Watt sind meine absolute Schmerzgrenze.
Ist auch meine Meinung. Da geht man den richtigen Weg, macht 3 Schritte vor, dann sowas was 4 Schritte zurück gleicht:(
Weil es der falsche Weg ist!
Es kann einfach nicht richtig sein, so viel Verlustleistung zu produzieren, nur um möglichst viel FPS zu haben.
Man muss sich nur mal vorstellen, wieviel 300 Watt Verlustleistung nur für die Graka, eigentlich wirklich sind. Vielleicht auch von der ökologischen Seite aus betrachtet.
Is nur meine Meinung....mir ist das deutlich zu viel! 200 Watt sind meine absolute Schmerzgrenze.
ich würde mir so eine karte ja auch nicht kaufen aber mehr auswahl für den kunden und größerer druck für nvidia kann ja nur gut sein
Palpatin
2010-10-14, 20:03:47
Weil es der falsche Weg ist!
Es kann einfach nicht richtig sein, so viel Verlustleistung zu produzieren, nur um möglichst viel FPS zu haben.
Man muss sich nur mal vorstellen, wieviel 300 Watt Verlustleistung eigentlich wirklich sind. Vielleicht auch von der ökologischen Seite aus betrachtet.
Is nur meine Meinung....mir ist das deutlich zu viel!
Nö lieber ne 6970 Singlechip mit 300 Watt die ordentlich Power hat, als die Sinnlose 5970 die >300 Watt hat und Microruckelt und auch Sack teuer ist. Der Verbrauch geht erst wieder ordentlich runter wenn besserer Fertigungsprozzess kommt.
Wo hat irgendwer 300 Watt Verbrauch für Cayman XT bestätigt? Wenn die Karten buchstäblich auf dem Tisch liegen, ist auch noch genug Zeit zum meckern. Außerdem wird hier immer so getan, als wenn das NV oder AMD mit einem Schulterzucken einfach mal so machen würden nach dem Motto "ist halt so". Ich denke ihr könnt davon ausgehen, dass der Stromverbrauch bei beiden Herstellern ein sehr wichtiges Thema ist und NV hat mit Sicherheit auch alles getan um den Verbrauch von GF100 bis zum Release zu senken.
FPS/watt sind relevant. Und wenn Cayman da wie erwartet dominant gut ist, dann ist es egal wie viel er genau braucht.
dildo4u
2010-10-14, 20:08:09
FPS/watt sind relevant. Und wenn Cayman da wie erwartet dominant gut ist, dann ist es egal wie viel er genau braucht.
Nach der Definition wäre dann die GTX 480 den Großteil von 2010 die beste Karte gewesen.
Schlammsau
2010-10-14, 20:09:40
Nach der Definition wäre dann die GTX 480 den Großteil von 2010 die beste Karte gewesen.
Mitnichten, eine 480 hat ein miserables FPS/Watt Verhältniss im Vergleich zur Konkurrenz!
dildo4u
2010-10-14, 20:11:03
Mitnichten, eine 480 hat ein miserables FPS/Watt Verhältniss!
Dann soll er sich klarer ausdrücken.
"wenn Cayman da wie erwartet dominant gut ist, dann ist es egal wie viel er genau braucht."
Cayman kann keine gute Performance per Watt haben,ebend weil es ein High End Chip ist und der Verbrauch in dem Bereich weniger wichtig wird und man lieber paar Prozent mehr Performance mitnimmt.Ob ATI in der Lage ist so ein Chip zu bauen wird man sehen sie haben es whol aus gutem Grund die letzten Jahre nicht versucht.
Schlammsau
2010-10-14, 20:12:15
Dann soll er sich klarer ausdrücken.
"wenn Cayman da wie erwartet dominant gut ist, dann ist es egal wie viel er genau braucht."
Aso...hab deinen Post nicht richtig verstanden.
Ich gestehe dem Cayman um die 250Watt TDP zu, wenn er denn schneller als der GT100 wird. Mir ist auch klar, dass man keine Wunder erwarten darf.
Und dass wenn das Teil Kreise um den GT100 ziehen würde, dass ich mit den 250Watt wohl nicht mehr hinkommen werde. Dann wird er mit Sicherheit bei 300 Watt oder mehr liegen.
Eine höhere Verlustleistung ist für mich einfach FAIL!
Leonidas
2010-10-14, 20:25:35
R600 hatte afaik ~420mm². Barts wird um die ~220mm² haben. Cayman wird etwa doppelt soviele Recheneinheiten haben.
Siehe hierbei Juniper und Cypress. Cypress ist auch etwa doppelt so groß wie Juniper.
Ergo könnte Cayman größer als der R600 werden.
Nein, ist nicht wie zwischen Juniper und Cypress. Dort wurde wirklich alles verdoppelt. Aber zwischen Barts und Cayman sind ROPs & SI gleich und auch die Raster-Engine scheint grob dieselbe zu sein. Cayman wird also weniger Mehrfläche zu Barts benötigen als zwischen Cypress und Juniper.
Gestrandet
2010-10-14, 20:36:20
Dann soll er sich klarer ausdrücken.
"wenn Cayman da wie erwartet dominant gut ist, dann ist es egal wie viel er genau braucht."
Dann solltest du vielleicht mal richtig lesen lernen ... kleiner Tipp: Nicht immer nur in den grünen Werbeprospekten schmökern, ruhig auch mal richtige Literatur zur Hand nehmen.
FPS/watt sind relevant. Und wenn Cayman da [d.h. bei FPS/Watt; Anm. v. Gestrandet] wie erwartet dominant gut ist [...]
Naja, die PISA-Studie hat ja eigentlich schon alles gesagt, was es in Sachen Leseverständnis zu sagen gibt. Gut, dass der selige Geheimrat das nicht mehr erleben muss.
Dann soll er sich klarer ausdrücken.
"wenn Cayman da wie erwartet dominant gut ist, dann ist es egal wie viel er genau braucht."
Hä ? Hat er doch ??? Hast Du den ersten Satz weggelassen, oder hat er den erst noch dazueditiert ?
FPS/watt sind relevant. Und wenn Cayman da wie erwartet dominant gut ist, dann ist es egal wie viel er genau braucht.
WENN FPS/Watt stimmen, dann ist der Gesamtverbrauch egal. Absolut logische Formulierung... Wenn das Teil 500W bräuchte aber dafür 1000 FPS auf ner 6x 1920x1080 Eyefinity Monitorwand zauber würde, wären die 500W egal :freak:
Cayman kann keine gute Performance per Watt haben,ebend weil es ein High End Chip ist und der Verbrauch in dem Bereich weniger wichtig wird und man lieber paar Prozent mehr Performance mitnimmt.
Da würde ich zw. XT und Pro differenzieren, der Pro könnte ganz gut liegen, die XT wird aber sicherlich nach allen Regel der Kunst (und entsprechendem Stromverbrauch) hochgetaktet, da geb ich Dir recht ;-)
ciao
Alex
Spasstiger
2010-10-14, 20:44:23
AMD hat doch jetzt schon eine Karte mit knapp 300 Watt TDP im Sortiment, nämlich die Radeon HD 5970. Zugleich ist es die energieeffizienteste Karte aus dem Hause AMD bezogen auf GFlops pro Watt in gängigen Computing-Benchmarks.
Bucklew
2010-10-14, 20:44:35
Wenn ATi jetzt ein Single GPU-Monster mit 300Watt TDP baut, bekommen die genau so viel schellte von mir, wie auch der GT100!
Was ist denn jetzt schon wieder ein GT100?
LovesuckZ
2010-10-14, 20:47:23
Was zum Nachdenken:
Wenn man Huddy's Aussagen im neueren Interview hinterfragt, könnte man zur Annahme kommen, dass AMD bezüglich Tessellation nichts geändert habe.
Was zum Nachdenken:
Wenn man Huddy's Aussagen im neueren Interview hinterfragt, könnte man zur Annahme kommen, dass AMD bezüglich Tessellation nichts geändert habe.
Und weiter? Das du weiter an deinem Unigine Heaven und StoneGigant herum reiten wirst ist wirklich nichts neues mehr.
LovesuckZ
2010-10-14, 20:52:58
Und weiter? Das du weiter an deinem Unigine Heaven und StoneGigant herum reiten wirst ist wirklich nichts neues mehr.
Ich kann nichts dafür, dass AMD's Hardware unzureichende Tessellationleistung besitzt. Das gibt auch Huddy zu. Und so wie er poltert, scheint dies auch weiterhin zu zutreffen.
deekey777
2010-10-14, 20:54:01
Ich habe schon lange nichts von Huddy gehört. Link?
LovesuckZ
2010-10-14, 20:54:45
Ich habe schon lange nichts von Huddy gehört. Link?
Viel Spaß: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8327603#post8327603
Ich kann nichts dafür, dass AMD's Hardware unzureichende Tessellationleistung besitzt. Das gibt auch Huddy zu. Und so wie er poltert, scheint dies auch weiterhin zu zutreffen.
mimimi
tessellation ist ein nutzloser witz. DirectX kann das auch schon längst und braucht dafür deutlich weniger leistung. man muß es nur benutzen.
Schlammsau
2010-10-14, 21:32:06
Ich kann das Wort "Tessellation" nicht mehr lesen.
boxleitnerb
2010-10-14, 21:36:34
Du bist nicht der einzige.
davidzo
2010-10-14, 21:39:57
als ich neulich einen GL programmierer fragte was er von hardware tesselation hielte hat er gemeint er mache das schon lange so in Software was flexibler sei und auch kann er keine besonderen leistungseinbußen feststellen die einen hardware tesselator nun so unbedingt notwendig machen. eher problematisch könnte da ie dreiecksleistung sein meinte er, stößt aber bei seinen bisherigen grafikkarten noch nicht an diese grenze.
Schlammsau
2010-10-14, 21:40:45
Man könnte meinen LZ ist nVidia in Person:
Huddy meint:
“We’re speaking with every development studio in the work that’s likely to create a piece of software that makes it into the charts. All of them are telling us the same thing. nVidia is pushing a single message and that’s tessellation“, explained Huddy.
“Tessellation is about enriching detail, and that’s a good thing, but nVidia is pushing to get as much tessellation as possible into everything”. Huddy reminds us of the problem you get when adding too much salt to your pasta. “Tessellation breaks your image components down in order to add more detail at lower levels and, when it’s done right, it can be stunning”.
Lovesuckz ist nVidia!
LovesuckZ
2010-10-14, 21:41:06
Finde ich erstaunlich, reden wie hier doch über AMD's zweite DX11 Generation. Und Tessellation ist nunmal das Buzzword davon.
Aber irgendwie auch Schizophren bei der zweiten DX11 Generationen die DX10 Leistung zu feiern.
Aber nehmen wir es mit Huddy: 2012 werden bis auf ein DX11 alle mit AMD DX11 Hardware entwickelt wurden sein. Da können wir dann weiter mit SSAA 50% der Leistung verpulvern, um flimmern Texturen zu glätten. :lol:
als ich neulich einen GL programmierer fragte was er von hardware tesselation hielte hat er gemeint er mache das schon lange so in Software was flexibler sei und auch kann er keine besonderen leistungseinbußen feststellen die einen hardware tesselator nun so unbedingt notwendig machen. eher problematisch könnte da ie dreiecksleistung sein meinte er, stößt aber bei seinen bisherigen grafikkarten noch nicht an diese grenze.
Der Entwickler von Tessmark sagte, dass die GTX480 zichmal mehr Dreiecke erzeugen kann als eine CPU und dabei 5 oder 6x schneller ist.
Und bis zu DX11/OpenGL 4.0 gab es auch keinen programmieren Ablauf für Tessellation.
Ich kann das Wort "Tessellation" nicht mehr lesen.
Da DX11 sich immer mehr durchsetzt, wirst du wohl oder übel damit leben müssen. Grafikkarten werden sich daran messen lassen müssen, wozu sonst bräuchte man auch neuere Grafikkarten? Läuft doch alles flüssig dank Konsolenports.
Schlammsau
2010-10-14, 21:44:06
Dank den Konsolenports wird es viele Jahre noch DX9 geben.
Dank den Konsolenports wird es viele Jahre noch DX9 geben.
Mag sein, trotzdem kommen immer mehr DX11 Games ob du es wahrhaben willst oder nicht.
Schlammsau
2010-10-14, 21:48:07
Und was willst du mir damit sagen?
Ich hab doch gar nichts gegen DX11 oder *biep*, aber dieses gehype eines bestimmten Members hier, geht mir sowas von auf den Zeiger!
In jedem zeiten Post....*piep* ....ich kanns nimma lesen! Echt nicht!
AnarchX
2010-10-14, 21:55:32
Interessanter als Tessellation könnten die TMUs werden und eine möglicherweise veränderte Filterqualität.
Nach aktuellem Kenntnisstand, wird wohl Barts maximal 48 TMUs auffahren, wenn auch mit 900MHz getaktet, ist das bedeutend weniger als bei Cypress mit 80@850MHz.
Laut Jawed im B3D gibt es zwei Patentschriften von AMD, die Veränderungen an den TMUs beschreiben:
These two patent documents seem to imply the possibility of a pair of quad TMUs sharing a single L1 and working either separately or jointly to produce texture results:
Shader Complex with Distributed Level One Cache System and Centralized Level Two Cache:
http://v3.espacenet.com/publicationDetails/biblio?CC=US&NR=2010146211A1&KC=A1&FT=D&date=20100610&DB=EPODOC&locale=en_gb
Dynamically Configurable Bilinear Filtering System:
http://v3.espacenet.com/publicationDetails/biblio?CC=US&NR=2009289949A1&KC=A1&FT=D&date=20091126&DB=EPODOC&locale=en_gb
Figure 3 in the first document shows two separate Shader Pipe Texture Filter units sharing L1 caches. (There's also talk of writes from L1 to L2, but that's a bit vague generally as far as I can tell.)
Figure 4 in the second document shows two Bilinear Interpolators A and B which can work either independently or ganged (for floating point texture filtering).
My first thought is that this would lead to two SIMDs sharing a single texture unit that consists of two of these bilinear interpolators. For normal 8-bit texturing the two SIMDs would have dedicated access to a single bilinear interpolator. But for high-precision floating point the two SIMDs would take it in turns.
An advantage of this layout is a reduction in the count of L1 caches. In my view one of the key problems is the count of L1s all trying to access the set of L2s. Any way to reduce the count of L1s should be seen as a win.
Of course it might turn out that two SIMDs aren't sharing, as I'm suggesting. There's a fair few other interpretations...
Vorallem die Veränderung an der Cache-Architektur könnte einen möglichen Flaschenhals gegenüber Cypress lösen.
Mal in praktischen Zahlen festgehalten.
Eine Messung der praktischen Texturfüllraten mit 16x AF Tri auf INT8-Texturen, die heute noch sehr häufig sind:
http://img294.imageshack.us/img294/64/rm3daniso.gif
http://techreport.com/articles.x/19242/6
Schafft nun Barts ein ähnliches Verhältnis zwischen praktischer Füllrate und maximaler Füllrate, wie Juniper würde er ~21GTex/s erreichen und über der HD 5850 landen.
Wenn er aber sogar das Verhältnis von GF100 schafft, dann wären wohl sogar ~26GTex/s möglich und man würde sich über der HD 5870 einordnen.
Im gleichen Zug könnte man vielleicht auch auf die Sample-Einsparungen verzichten bzw. auf ein nahezu unsichtbares Niveau diese reduzieren.
Da aber das die meisten Kunden nicht wirklich interessiert, wird man das wohl auch nicht so stark publizieren, selbst von NV gab es ja da keine öffentlichen Attacken gegen AMDs Sparfilter. Und auch beim SGSSAA auf HD 5000 wurde dies nur spärlich beschrieben.
LovesuckZ
2010-10-14, 22:06:41
Äh, nein. Die Effizienz müsste um den Faktor 1,56 steigen, um mit 48 TMUs und 900MHz auf das selbe theoretische Ergebnis zu kommen. Und damit hätte man noch eine wesentlich bessere Auslastung als nVidia mit GF100 erreicht.
AnarchX
2010-10-14, 22:11:25
GTX 470 (56 TMUs @ 600MHz): 33,6GTex/s Peak, 20,3GTex/s Rightmark 16xAF
Die gleiche Skalierung (0,6041) bei Barts XT angenommen:
HD 6870 (48 TMUs @ 900MHz): 43,2GTex/s Peak, 26,1GTex/s Rightmark 16xAF
GTX 460 Skalierung:
HD 6870 (48 TMUs @ 900MHz): 43,2GTex/s Peak, 22,9GTex/s Rightmark 16xAF
LovesuckZ
2010-10-14, 22:14:31
Richtig. Das ist utopisch. Nehme doch mal Cayman: Der hätte mit 96 TMUs und 900MHz eine theoretisch 27% höhrere Texturleistung und praktisch läge man bei 99%. Das wären 160 Cypress TMUs. Da käme selbst nVidia mit 128TMUs nach GF104 Art nicht annährend hinterher...
OgrEGT
2010-10-14, 22:15:01
Weil es der falsche Weg ist!
Es kann einfach nicht richtig sein, so viel Verlustleistung zu produzieren, nur um möglichst viel FPS zu haben.
Man muss sich nur mal vorstellen, wieviel 300 Watt Verlustleistung nur für die Graka, eigentlich wirklich sind. Vielleicht auch von der ökologischen Seite aus betrachtet.
Wenn ATi jetzt ein Single GPU-Monster mit 300Watt TDP baut, bekommen die genau so viel schellte von mir, wie auch der GT100!
Is nur meine Meinung....mir ist das deutlich zu viel! 200 Watt sind meine absolute Schmerzgrenze.
Auf den Folien steht doch klar, dass Cayman Pro <225W und Cayman XT <300W verbraucht. Wieviel weniger genau das jeweils sein wird, kann man jetzt noch nicht sagen. Die Stromversorgung wird sicherlich derart ausgelegt sein, dass die Karten noch overclocked werden können. Schau Dir doch Cypress an. Der Stromverbrauch liegt deutlich unter den 225W, welche über die verbaute Stromversorgung theoretisch bereit gestellt werden könnten.
Rein hypothetisch (!):
Sollte ein Cayman Pro 225W verbrauchen bei ca 1600 SP's, dann würde ein Cyman XT mit 1920 SP's bei sonst identischer Konfiguration maximal 270W verbrauchen.
Wie gesagt, da ich nicht glaube, dass die Stromversorgung des Cayman Pro exakt am Limit des theoretisch möglichen bei 2x6Pin läuft, erwarte ich Cayman XT bei nicht sehr viel mehr als 225W. Wenn ich bei ca. 1600SP's in etwa Cypress Verbrauch anlege (ca. 170W http://ht4u.net/reviews/2010/powercolor_pcs_plus_hd5870/index11.php), dann käme Cayman XT auf ca. 204W.
AnarchX
2010-10-14, 22:16:16
Richtig. Das ist utopisch. Nehme doch mal Cayman: Der hätte mit 96 TMUs und 900MHz eine theoretisch 27% höhrere Texturleistung und praktisch läge man bei 99%. Das wären 160 Cypress TMUs. Da käme selbst nVidia mit 128TMUs nach GF104 Art nicht annährend hinterher...
Bei Cayman taucht vielleicht wieder das gleiche Skalierungsproblem (bzw. eine bewusste Einsparung) wie von Juniper auf Cypress auf?
LovesuckZ
2010-10-14, 22:30:41
Bei Cayman taucht vielleicht wieder das gleiche Skalierungsproblem (bzw. eine bewusste Einsparung) wie von Juniper auf Cypress auf?
Das müsste in der Simulation auffallen. Wenn Barts XT schon 5850+ Niveau erreichen würde, würde man keinen Cayman mit doppelten Einheiten bauen, sondern "nur" 50%.
AnarchX
2010-10-14, 22:42:46
Vielleicht benötigt Cayman die 1920SPs für HPC.
Eventuell hat Cayman im Gegensatz zur Barts vielleicht die 4D ALUs, immerhin äußerte dass auch Napoleon@Chiphell.
Sinnvollerweise wären die 1920SPs dann in 15 SIMD mit je 128 SPs und 4 TMUs organisiert.
Dementsprechend hätte Cayman insgesamt 60 TMUs @900MHz?, wenn er wirklich auf die selbe reale Texturfüllrate wie GF100 kommt, wären das ~28% Vorsprung gegenüber der GTX 480. Wenn dann noch Fullsped-FP16 dazu kommt, was Nvidia vielleicht als Reaktion auf AMDs Northern Islands in GF104 verbaute, ist der Vorsprung noch etwas größer.
Gipsel
2010-10-14, 23:02:17
Richtig. Das ist utopisch. Nehme doch mal Cayman: Der hätte mit 96 TMUs und 900MHz eine theoretisch 27% höhrere Texturleistung und praktisch läge man bei 99%. Das wären 160 Cypress TMUs. Da käme selbst nVidia mit 128TMUs nach GF104 Art nicht annährend hinterher...
Mal ehrlich, was für einen Sch**ß rechnest Du Dir da zusammen? Verstehst Du das selber?
AnarchX ist vom gleichen relativen Einbruch mit Tri/16AF gegenüber bilinear ausgegangen wie bei GF100 bzw. GF104. Der Faktor ist für GF100 ungefähr 60%. Was zur Hölle willst du da irgendwo mit 99%? Und wieso soll es utopisch sein, daß die Radeon-TMUs mal mit der gleichen Effizienz Tri/AF filtern können wie Geforce-TMUs? Insbesondere wenn die Cache-Architektur umgekrempelt werden sollte (und zum Beispiel die doppelte Bandbreite bieten sollte, was theoretisch eine Verdopplung der Leistung bei Tri/AF ermöglicht).
Fragen über Fragen, auf die ich wohl schwerlich eine sinnvolle Antwort finden werde.
AMD ist jedenfalls laut PCLab davon überzeugt, sich auch vor neuen Nvidia Geforce-Modellen kommenden fürchten zu müssen und will mit der neuen Grafikkarten-Generation den DirectX-11-Markt dominieren.
AMD bestätigt neue Grafikkarten für nächste Woche
http://www.golem.de/1010/78659.html
Dr@ planet3dnow:
Derrick R. Meyer hat nochmal ein "Refresh" der "product line" "Top to Bottom" innerhalb des 4. Quartals bestätigt. Damit kann nicht nur Barts, Cayman und Antilles gemeint sein.
Quelle: der 3Q Call
AnarchX
2010-10-15, 08:45:34
Wohl der Extreme Score einer HD 6850 (Sample?):
http://img826.imageshack.us/img826/5267/110100bmm7m7knkbb17r5i.jpg
http://www.chiphell.com/thread-129725-1-1.html
Im Vergleich dazu die Werte einer HD 5770:
http://img29.imageshack.us/img29/5941/3dmarkvantageextremehd5.png
Wie man sieht ist die ROP-Leistung (Feature Test 2) entsprechend den 32 ROPs @ 256-Bit deutlich höher und bei den Shader Particles Test 5 ist sie auch deutlich schneller.
Auf Basis des Feature-Tests 1 und 6 würde ich aber sagen, dass das hier ein Sample mit weniger als 700MHz bei 800SPs ist.
Gehen wir von 650MHz aus gäbe es auf 775MHz wohl ~20% Leistungspotential, also etwa X5400 für die finale Karte.
Eventuell haben die Sample Treiber auch eine Erkennung für Benchmarks und throttlen hier?
Fetza
2010-10-15, 08:58:48
Dann soll er sich klarer ausdrücken.
Er hat sich klar ausgedrückt, vielleicht musst du eher lesen lernen?
"wenn Cayman da wie erwartet dominant gut ist, dann ist es egal wie viel er genau braucht."
Er sprach klar von einem guten fps/watt verhältnis für cayman. Wenn cayman also im fps/watt verhältnis gut ist, ist deine interpretation herzlich sinn frei. Eine gtx 480 hat nämlich kein gutes fps/watt verhältnis - sogar ein ausnehmend schlechtes.
Und wieso soll es utopisch sein, daß die Radeon-TMUs mal mit der gleichen Effizienz Tri/AF filtern können wie Geforce-TMUs? Insbesondere wenn die Cache-Architektur umgekrempelt werden sollte (und zum Beispiel die doppelte Bandbreite bieten sollte, was theoretisch eine Verdopplung der Leistung bei Tri/AF ermöglicht).
Fragen über Fragen, auf die ich wohl schwerlich eine sinnvolle Antwort finden werde.
Ist es warscheinlich, das amd diese optimierungen den tmus wirklich angedeihen hat lassen?
Zumindest bei Barts würde ich mich wundern, denn dort scheint primäres Ziel zu sein die Diefläche zu minimieren. Ob es wahrscheinlich ist dass man Cayman nun tiefgreifende Änderungen gegenüber Barts angetan hat, muss jeder für sich entscheiden.
Dural
2010-10-15, 09:12:52
hmmm 6850 gleich schnell wie 5770
da wird es die 6870 nicht so einfach mit der GTX460 1GB haben, ohje plötzlich kommt die GTX468 gar nicht mehr weil sie nicht nötig ist :frown:
Edit
Das wird für die 6870 bestimmt nicht mal reichen, zur GTX460 1GB fehlen da ja noch ganze 40%, so mit dürfte die GTX468 gestorben sein :frown: oder sie kann sich mit der 6950 anlegen :rolleyes:
Schlammsau
2010-10-15, 09:15:31
Ich glaube schon, das eine 6850 schneller als eine 5770 ist. Und zwar deutlich! ;)
Ich gehe von 5830 ~ 6850 und 5850 ~ 6870 Niveau aus.
Und da eine 460 zwischen der 5830 und 5850 liegt, wird eine 6870 klar schneller sein, als eine 460! :smile:
Dural
2010-10-15, 09:16:40
der bench sagt aber was anders...
y33H@
2010-10-15, 09:16:42
Eine HD 5770 ist einer HD 4890 teils über, vll auch eine HD 6870 einer HD 5870? ;)
Schlammsau
2010-10-15, 09:18:26
der bench sagt aber was anders...
Fake oder nicht Fake, dass ist hier die Frage! ;)
Schlammsau
2010-10-15, 09:21:01
Eine HD 5770 ist einer HD 4890 teils über, vll auch eine HD 6870 einer HD 5870? ;)
Da in 3 Tagen gelauncht wird, habt ihr die Karten doch bestimmt schon in der Redaktion!? Also weisst du schon was.....
y33H@
2010-10-15, 09:23:53
Nein, weiß ich nicht.
Vorhin hat einer bei VR-Zone gepostet, eine HD 6870 sei in Crysis im Mittel so schnell wie eine HD 5870 minimal ... ich kann mir auch was aus den Fingern saugen und es würden sicher auch welche glauben. Aber das mache ich nicht.
Dural
2010-10-15, 09:27:13
und wie so sollte die 6850 wirklich schneller als 5770 sein?
800 vs 800SP
40 vs 40TMUs (???)
16 vs 32ROPs
850MHz vs 700MHz
einzig die ROPs bringen der 6850 einen vorteil sonst nirgends
RoNsOn Xs
2010-10-15, 09:33:58
effiziensverbesserungen + evtl chip-veränderungen (4-alu-design). ist die pure verdopplung der rops nicht schon viel wert? ;)
Dural
2010-10-15, 09:38:12
die 6870 ist rechnerisch ca. 30% schneller als die 6850
die 6870 legt es also ca. direkt mit der GTX460 an, nichts da von wegen deutlich übertreffen, ein voller GF104 dürfte da in einer anderen liga spielen, schade :frown:
und da die 6870 bereits einen sehr hohen default takt hat, dürfte es bei OC vs OC so wie so für die GTX460 sprechen.
mal schauen, ist ja nur ein vantage durchlauf...
Mal ehrlich, was für einen Sch**ß rechnest Du Dir da zusammen? Verstehst Du das selber?
Es gibt schon einen Grund dafür warum (vor allem) das letzte Monat vor dem Release einer neuen GPU "silly season" genannt wird. :)
AnarchX
2010-10-15, 09:42:13
Hier ist die gezeigte Karte schon mal schneller als eine HD 5850 und auf dem Niveau der GTX 460
Feature Test 5: GPU Particles.
This test features physically simulated particle effects on the GPU. The simulation is performed as a vertex simulation, with each vertex representing a single particle. Stream out is used to cycle the particle vertices from one simulation pass to the next. There are hundreds of thousands of particles in the test, all individually simulated, and colliding with a height map. The particles are rendered by expanding each vertex to a full rectangle in the geometry shader. The test stresses the vertex shading, stream out.
http://www.futuremark.com/benchmarks/3dmarkvantage/features/
Was wohl auf eindeutige Veränderungen im Bezug auf die Geometrie-Leistung hindeutet.
mal schauen, ist ja nur ein vantage durchlauf...
Genau das sollte man sich vorhalten, wenn auch es schon Extreme ist. Es wäre durchaus denkbar, dass AMD hier die beiden Game Tests erkennt und eben für Sample Karte drosselt.
Die Feature-Tests zeigen hingegen "normale" Werte bzw. teils deutliche Veränderungen gegenüber HD 5000.
und wie so sollte die 6850 wirklich schneller als 5770 sein?
800 vs 800SP
40 vs 40TMUs (???)
16 vs 32ROPs
850MHz vs 700MHz
einzig die ROPs bringen der 6850 einen vorteil sonst nirgends
Alleine schon das Juniper laut offizieller AMD-Folie weiter läuft und sich Barts klar darüber platziert sollte wohl als Beweis mehr als ausreichen. Aber schon klar du bist ja hier eher darauf aus Unruhe zu stiften. AnarchX hat das ja schon sehr schön erklärt mit den möglichen Ursachen.
RoNsOn Xs
2010-10-15, 09:46:42
die 6870 ist rechnerisch ca. 30% schneller als die 6850
die 6870 legt es also ca. direkt mit der GTX460 an, nichts da von wegen deutlich übertreffen, ein voller GF104 dürfte da in einer anderen liga spielen, schade :frown:
und da die 6870 bereits einen sehr hohen default takt hat, dürfte es bei OC vs OC so wie so für die GTX460 sprechen.
mal schauen, ist ja nur ein vantage durchlauf...
verschätz dich da mal nicht wieder wie bei gf100 (den du zu stark eingeschätzt hattest - oh wunder :P) ;)
ich schätze auch das die 6850 teilweise etwas mehr schwung als die 460 aufweisen wird. ...am ende wird verglichen =)
AnarchX
2010-10-15, 09:48:53
Laut Napoleon @ Chiphell soll die HD 6850 den aktuellen Preis der HD 5850 einnehmen und letztere wird wohl um $10 offiziell gesenkt.
Da kann man sich wohl kaum eine reale Leistung auf HD 5770 Niveau erlauben. ;)
mironicus
2010-10-15, 09:51:59
Laut Napoleon @ Chiphell soll die HD 6850 den aktuellen Preis der HD 5850 einnehmen und letztere wird wohl um $10 offiziell gesenkt.
Gegen wen ist die Karte denn dann positioniert? Eine GTX 460 gibt es ab 135 Euro! Will AMD jetzt den Mainstream-Markt bedienen oder nicht? Weg wie Semmel gehen Grafikkarten nur, die unter 200 Euro kosten.
die 6870 ist rechnerisch ca. 30% schneller als die 6850
die 6870 legt es also ca. direkt mit der GTX460 an, nichts da von wegen deutlich übertreffen, ein voller GF104 dürfte da in einer anderen liga spielen, schade :frown:
und da die 6870 bereits einen sehr hohen default takt hat, dürfte es bei OC vs OC so wie so für die GTX460 sprechen.
mal schauen, ist ja nur ein vantage durchlauf...
jo Klor , erst mal wieder warten was Nvidia hinter den sieben Bergen und den sieben ...
Ach , lassen wir das.Erst mal AMD/ATI schlechtreden.
Mann, weis ja von welcher Seite da "gehauen" wird.
Ein "voller" G1xx werden wir wahrscheinlich ,ausser als Techsample ,nirgends zu sehen kriegen. Punkt aus. Sonst hätte Nvidia keine "Kastrierten" Chips gebraucht um überhaupt etwas "sinnvolles" zu bringen
Same procedure as every Year !
Dural
2010-10-15, 09:55:55
Ich hab mir die einzel werte schon angeschaut und das sieht sehr ausgeglichen aus, mal ist die 5770 vorne mal die 6850... und mir vielen die vorteile bei der geometrie / rops sofort auf, das war ja auch einer der pünkte die AMD drigend verbessern musste ;)
das alles ist aber komplett egal da das entresultat im "praktischem" teil ganz klar gleichstand sagt und Vantage "lügt" da eigentlich nie, hätte ich noch nie erlebt.
aber cool das jetzt schon FAKTEN wie ein Vantage durchlauf hinunter geredet wird und irgend was anscheinend nicht vorhandenes hinauf gelobbt wird ;)
verschätz dich da mal nicht wieder wie bei gf100 (den du zu stark eingeschätzt hattest - oh wunder :P) ;)
ich schätze auch das die 6850 teilweise etwas mehr schwung als die 460 aufweisen wird. ...am ende wird verglichen =)
ich hab den GF100 EXAKT so eingeschetzt wie er es ist, kannst genre nach schauen ;) ausser beim verbrauch, aber das hat so keiner erwartet...
derguru
2010-10-15, 09:58:28
Gegen wen ist die Karte denn dann positioniert? Eine GTX 460 gibt es ab 135 Euro! Will AMD jetzt den Mainstream-Markt bedienen oder nicht? Weg wie Semmel gehen Grafikkarten nur, die unter 200 Euro kosten.
6870 sollte den aktuellen preis der 5850 übernehmen,6850 macht da gar kein sinn weil sie maximal auf niveau der 460 liegt.falls das von napoleon stimmen sollte so müsste eine 6850 hier in um die 230-240€ kosten.:eek:
RoNsOn Xs
2010-10-15, 10:07:59
ich hab den GF100 EXAKT so eingeschetzt wie er es ist, kannst genre nach schauen ;) ausser beim verbrauch, aber das hat so keiner erwartet...
warst du es nicht, der eine 480 80% über der 50 oder 70 sah?
Fetza
2010-10-15, 10:09:30
aber cool das jetzt schon FAKTEN wie ein Vantage durchlauf hinunter geredet wird und irgend was anscheinend nicht vorhandenes hinauf gelobbt wird ;)
Nicht so cool, wie wenn man unterschlägt, das es sich dabei warscheinlich um ein sample handelt, das mit deutlich niedrigerem takt arbeitet. ;)
derguru
2010-10-15, 10:13:06
warst du es nicht, der eine 480 80% über der 50 oder 70 sah?
bei Dural ist es so,bei nv spekulationen übertreibt er und bei amd untertreibt er,das war schon immer so.:biggrin:
deekey777
2010-10-15, 10:16:11
Kein Tag ohne "Dural erklärt uns das Leben".
Nein, weiß ich nicht.
Vorhin hat einer bei VR-Zone gepostet, eine HD 6870 sei in Crysis im Mittel so schnell wie eine HD 5870 minimal ... ich kann mir auch was aus den Fingern saugen und es würden sicher auch welche glauben. Aber das mache ich nicht.
Bei VR-Zone findet man vieles. Wie überall auch: DX11.1, enhanced Tessellation in Witcher 2 und meinen Liebling "Replacement Mapping" in Crysis Maximum-Edition.
Zumindest bei Barts würde ich mich wundern, denn dort scheint primäres Ziel zu sein die Diefläche zu minimieren. Ob es wahrscheinlich ist dass man Cayman nun tiefgreifende Änderungen gegenüber Barts angetan hat, muss jeder für sich entscheiden.
So richtig hat man die Diefläche gerade nicht optimiert. Oder Barts bietet mehr, als aktiviert ist.
Fake oder nicht Fake, dass ist hier die Frage! ;)
Ja, und wenn man sich auf nicht Fake einigen sollte, dann ist die Unterfrage noch:
Finaler Takt & Shaderanzahl oder niedrige Samplewerte ...
deekey777
2010-10-15, 10:51:12
Mal noch etwas zu den ALUs:
http://www.microsofttranslator.com/bv.aspx?from=&to=en&a=http%3a%2f%2fwww.opengpu.org%2fviewthread.php%3ftid%3d3405%26extra%3dpage%253D 1
http://forum.beyond3d.com/showpost.php?p=1482294&postcount=3139
Das schafft meine HD4850 mit 700 MHz:
--------------------------------------------------------------------------
Instruction Issue
--------------------------------------------------------------------------
512 109.5269 ADD 4 64
512 109.7506 SUB 4 64
512 109.7168 MUL 4 64
512 109.6555 MAD 4 64
512 109.3467 EX2 4 64
512 109.3772 LG2 4 64
512 55.4172 POW 4 64
512 136.9928 FLR 4 64
512 136.7206 FRC 4 64
512 109.6678 RSQ 4 64
512 109.7598 RCP 4 64
512 44.0939 SIN 4 64
512 44.0870 COS 4 64
512 104.8287 SCS 4 64
512 111.4375 DP3 4 64
512 111.4533 DP4 4 64
512 87.8590 XPD 4 64
512 109.5514 CMP 4 64
--------------------------------------------------------------------------
Scalar vs Vector Instruction Issue
--------------------------------------------------------------------------
512 110.9219 ADD 1 40
512 108.3673 ADD 4 40
512 110.6266 SUB 1 40
512 108.3721 SUB 4 40
512 110.9219 MUL 1 40
512 108.3673 MUL 4 40
512 110.7065 MAD 1 40
512 108.4488 MAD 4 40
Die fette T-Unit ist wohl Geschichte.
Man muss sich hier mal bewusst werden das Barts mit 230mm² kleiner ist als eine GF106 auf der GTS450 ist. Eigentlich konnte man die Karten also problemlos gegen GF106 stellen. Wenn man damit annähernd Cypress Leistung erreicht wäre das eine mehr als sehr gute Leistung.
Gipsel
2010-10-15, 10:55:50
Die fette T-Unit ist wohl Geschichte.
Wieso? Sind doch taktnormalisiert genau die gleichen Ergebnisse wie der Typ da für eine HD6850 gemessen haben will.
deekey777
2010-10-15, 11:00:26
Wieso? Sind doch taktnormalisiert genau die gleichen Ergebnisse wie der Typ da für eine HD6850 gemessen haben will.
Wieso ist SIN dann nur ein Viertel? Edit: Interessant wären alle Zahlen,
Wobei: Es könnte auch ein Verschlucker sein.
Gipsel
2010-10-15, 11:04:19
Wieso ist SIN dann nur ein Viertel?
Wobei: Es könnte auch ein Verschlucker sein.
SIN ist 40% oder auch 1/2,5 ;)
deekey777
2010-10-15, 11:05:45
SIN ist 40% oder auch 1/2,5 ;)
Judex non calculat. X-D
Dann ist alles beim alten verblieben.
So richtig hat man die Diefläche gerade nicht optimiert. Oder Barts bietet mehr, als aktiviert ist.
Sehe ich ein wenig anders:
[kleine unrichtige Überschlagsrechnung]
Starten wir mit RV830 und RV840:
=> 400SPs incl. TMUs "kosten" ca. 62mm² (incl. ROPs 8 -> 16) [166 - 104 mm²]
=> Uncore kostet 42mm² [104 - 62mm²]
Wenn man jetzt annimmt, das Barts durch die (unbestätigten) 2 RPEs und die anderen Verbesserungen doppelt soviel Platz für den Uncore benötigt sieht die Rechnung so aus:
42x2 + 960/400x62 = 232,8mm²
=> die 960 Shader passen eigentlich ganz gut, wenn, wie gesagt der Uncore durch die Änderungen so stark aufgeblasen wurde
[/kleine unrichtige Überschlagsrechnung]
mironicus
2010-10-15, 11:17:12
http://www.informatique.nl/124852/sapphire-radeon-hd-6850-1gb.html
http://www.informatique.nl/124853/sapphire-radeon-hd-6870-1gb.html
6850 für 189 Euro.
6870 für 255 Euro.
Allerdings sind bei dem Händler auch sämtliche Karten anderer Hersteller rund 25-40 Euro teurer als im Geizhals-Preisvergleich. Wenn man jetzt 30-40 Euro abzieht sind die Preise der 6850/6870 durchaus attraktiv.
derguru
2010-10-15, 11:23:26
bei dem shop sind die 460 karten alle teurer als die 6850,also wird die 6870 preislich die 5850 ersetzen und wahrscheinlich die 6850 günstiger als die 460gtx 1gb sein.
attraktiv ist gar kein ausdruck. da dürfte die 5er serie gut im preis nachgeben.
Clearly NVIDIA came out with some more-competitive DX11 products, finally, and those had some impact in the marketplace, although as I said we've now shipped 25 million DX11 parts and are going to refresh the product line top to bottom this quarter. So we feel very bullish about where we'll leave the year competitively.
Das komplette Portfolio? Vielleicht dann doch eine 6770 :-)
mironicus
2010-10-15, 11:30:48
Wer schließt eigentlich die Lücke zwischen BartsXT und Cayman Pro?
derguru
2010-10-15, 11:31:21
Wer schließt eigentlich die Lücke zwischen BartsXT und Cayman Pro?
die 5870.:tongue:
So richtig hat man die Diefläche gerade nicht optimiert. Oder Barts bietet mehr, als aktiviert ist.
Ich denke man ist an der Grenze der padlimitierung. Für 256Bit GDDR5 dürfte es kaum möglich sein noch deutlich kleiner zu gehen.
mironicus
2010-10-15, 11:35:41
Wenn die Chips wirklich so klein und trotzdem so schnell sind, wird das ein Riesenreibach für AMD. Im Gegensatz zu Cypress und Juniper wird ja noch nicht mal besonders schnell getakteter RAM verwendet, was die Kosten noch weiter senken dürfte. Ich bin schon gespannt, was ein Overclocking des RAM bei den neuen Karten bringen wird.
Wer schließt eigentlich die Lücke zwischen BartsXT und Cayman Pro?Irgendwelche Barts Werks OC Karten. Irgendein Hersteller wird schon sein 5870 PCB recyceln, dass sollte für den sparsameren Bartchip dickes OC ermöglichen.
Ansonsten bliebe noch ne Art 6830, also Cayman Resteverwertung, wird auf die Yields ankommen, ob es wirklich soviele DIEs geben wird, die nicht für die PRO reichen.
Aber das "Loch" sollte wg. des 256bit Speicherinterfaces eigentlich Pi*Daumen kleiner ausfallen als bisher zw. 57xx und 58xx.
mironicus
2010-10-15, 11:59:46
Na hoffentlich erscheinen die Barts später auch noch mit deutlich kleinerem PCB (<= 21 cm). Das die Stromanschlüsse bei der jetzigen Standardversion mit ca. 24 cm oben liegen ist ja schon mal ein kleiner Fortschritt.
robbitop
2010-10-15, 12:36:52
Ich denke man ist an der Grenze der padlimitierung. Für 256Bit GDDR5 dürfte es kaum möglich sein noch deutlich kleiner zu gehen.
G71 hatte < 200 sqmm, RV670 war auch bei rund 200 sqmm. Beide hatten 256 bit SI.
http://fudzilla.com/graphics/item/20501-amd-barts-and-cayman-further-detailed
Was ist eigentlich hiervon zu halten? Cayman soll 1 GiB VRAM haben? Das spricht für ein 256 bit oder 512 bit SI. Warum bei der 6970 nur 1 GiB VRAM? Klingt irgendwie seltsam.
LovesuckZ
2010-10-15, 12:40:03
G71 hatte < 200 sqmm, RV670 war auch bei rund 200 sqmm. Beide hatten 256 bit SI.
Aber kein GDDR5 Speicher.
http://fudzilla.com/graphics/item/20501-amd-barts-and-cayman-further-detailed
Was ist eigentlich hiervon zu halten? Cayman soll 1 GiB VRAM haben? Das spricht für ein 256 bit oder 512 bit SI. Warum bei der 6970 nur 1 GiB VRAM? Klingt irgendwie seltsam.
Abwarten. Die Folien sind, wenn echt, aus August.
Achja, das sagt Fuad zum Launch von Cayman:
Launch date is in the last week of November, if all goes well of course.
http://www.fudzilla.com/graphics/item/20502-cyman-comes-in-late-november
AnarchX
2010-10-15, 12:40:04
G71 hatte < 200 sqmm, RV670 war auch bei rund 200 sqmm. Beide hatten 256 bit SI.
... mit maximal GDDR3/4.
http://fudzilla.com/graphics/item/20501-amd-barts-and-cayman-further-detailed
Was ist eigentlich hiervon zu halten? Cayman soll 1 GiB VRAM haben? Das spricht für ein 256 bit oder 512 bit SI.
GDDR5 gibt es AFAIK nur ab 512MBit (128MiB), also sind 1GiB mit 512-Bit => 16 Chips nicht möglich.
Ausserdem wären 512-Bit @ 6Gbps fast 400GB/s, die AMD wohl kaum brauch. ;)
Warum bei der 6970 nur 1 GiB VRAM? Klingt irgendwie seltsam.
Wenn man unter 400€ bleiben will, kann man eben nicht 2GiB des teuersten erhätlichen GDDR5 verbauen.
Ailuros
2010-10-15, 12:42:37
http://fudzilla.com/graphics/item/20501-amd-barts-and-cayman-further-detailed
Was ist eigentlich hiervon zu halten? Cayman soll 1 GiB VRAM haben? Das spricht für ein 256 bit oder 512 bit SI. Warum bei der 6970 nur 1 GiB VRAM? Klingt irgendwie seltsam.
Nix mit 512bit. AMD != NV :P
Wenn man so teuren GDDR5 Speicher verwendet ist es logischer an 1GB zu denken und die Hersteller koennen dann spaeter selber 2GB Varianten vorstellen. Direkt nach dem Preis der beim launch den besten Eindruck machen muss, kommt dann der Stromverbrauch denn 1GB Speicher wird noch ein =/>20W TDP draufstecken.
Wie AnarchX (***edit: der mal wieder schneller war LOL) im GF1xx Thread schon sagte: es ist nicht so absurd dass NV diesmal wieder auf einen 512bit Bus geht mit 2GB framebuffer weil eben der benutzte Speicher (3ns?) auch spottbillig sein duerfte.
LovesuckZ
2010-10-15, 12:49:16
Laut Napoleon @ Chiphell soll die HD 6850 den aktuellen Preis der HD 5850 einnehmen und letztere wird wohl um $10 offiziell gesenkt.
Da kann man sich wohl kaum eine reale Leistung auf HD 5770 Niveau erlauben. ;)
Na, da jezt schon mehr GTX460 als 5850 Karten verkauft werden, macht das genau welchen Sinn?
Vorallem bleibt die Lücke zwischen Juniper und Barts weiterhin so groß.
Klingt nach Fake. Genauso auch wie der Vantage-Screen.
AnarchX
2010-10-15, 12:56:37
Das ist das Posting: http://www.chiphell.com/thread-129716-1-1.html
Wohl mit einer Andeutung auf die Leistung zur GTX 460.
Wenn das schon mit Steuern ist (17% in China), bedeuten die 1699 CNY wohl ein Preis unter 200€. Die HD 5850 wird noch günstiger.
DeadMeat
2010-10-15, 13:03:39
Wenn die 5850 noch diesen Monat ersetzt werden soll glaub ich nicht das die viel billiger wird.
robbitop
2010-10-15, 13:15:40
Aber kein GDDR5 Speicher.
Benötigt GDDR5 bei gleicher Breite mehr Signal oder Masseleitungen?
AffenJack
2010-10-15, 13:34:20
Generell man zu SI vom CC Q3:
We'll be introducing our second-generation of DX11 technology into the market with some launch activities actually next week. We'll be shipping all the family members of that product line I'll call it, by the end of this quarter, and total volume think in terms of several hundred thousand, or hundreds of thousands of units.
Also alle Chips noch dieses Jahr, die kleinen vll im Dezember oder so, aber was eher sorgen macht ist die anzahl an auslieferungen. Paar Hundertausende sieht nicht nach guter Liefersituation aus am Anfang.
Cypress und Juniper kamen zwar jeweils etwas früher, aber da warens bis Jahresende 2mio und die Lieferbarkeit war schon sehr bescheiden.
Grischnak
2010-10-15, 14:09:54
Hallo, sorry dass ich hier so in die Diskussion grätsche, aber ich hätte eine Frage:
Kann man denn schon die Vorteile der neuen Generation gegenüber der alten abschätzen. Gibts "nur" mehr Leistung oder haben die neuen Karten weitere Vorteile wie etwa bessere BQ oder eine zukunftssichere Architektur?
AnarchX
2010-10-15, 14:13:57
http://wccftech.com/images/news/AMD-Radeon-Northern-specs/71b.jpg
Über den Rest lässt sich noch nicht viel sagen.
Performance Leadership with Second Generation DX11 ist bei Barts mit Vorsicht zu geniessen. Das würde ich eher dem Cayman zutrauen. Sieht man ja schon an den angeblichen unter 300 Watt Platinen-Layout;)
Grischnak
2010-10-15, 14:17:45
Hui, danke für die schnelle Antwort. Also heißt es wohl warten bis die Karten verfügbar sind...
Ich bin erstmal gespannt in welcher Stückzahl die lieferbar sein werden. Wenn wenig lieferbar sind wird wieder mal teuer, siehe 58XX.
boxleitnerb
2010-10-15, 14:26:46
Was heißt "teuer"? Ihr seid so verwöhnt von den Dumpingpreisen die letzten Jahre...gute Hardware kostet eben.
Schlammsau
2010-10-15, 14:32:01
Die HD6000 Serie muss sich nach den Preisen der Konkurrenz richten, sonst hat sie schon verloren.
Ergo kann bzw. darf sich das HD5000 "Desaster" nicht wiederholen.
Wenn die 6870 auf mindestens 5850 Niveau landet, was ich glaube, dann wird sie entsprechend kosten. Zwischen 175 und 225€.
Natürlich nicht direkt nach dem Launch, da sind die Preise ja immer maßlos überzogen.
RoNsOn Xs
2010-10-15, 14:32:52
Was heißt "teuer"? Ihr seid so verwöhnt von den Dumpingpreisen die letzten Jahre...gute Hardware kostet eben.
falsch. man muss heutige zeiten nicht mit damaligen vergleichen. genau so gut könnte man sagen das es damals unfaire überteuerte preise waren.
wahrscheinlich waren sie es auch und die partner haben sich nen arsch voll verdient.
Nunja, die angeblichen 250 Euro für ne 6870 erscheint mir teuer. Im Verhältnis zu den NV und auch zur 5850;). Laut den benches auf den letzten Seiten ist der Preis unangemessen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.