Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands
Seiten :
1
2
3
[
4]
5
6
7
8
9
10
11
12
13
14
15
16
17
Lächerlicher ist es, wenn AMD schon wieder nur minimale Änderungen durchführt und damit eine komplett neue Generation rechtfertigt. So wie HD2-3-4
Genau, so wie Geforce 2-3-4 ;)
Nvidia Fans heimlich gefilmt
deekey777
2010-08-29, 14:15:53
Zwischen DX7 und DX8 gibt es schon einen Riesenunterschied, oder?
Aber die Namensgebung bei ATi ist gerechtfertigt.
Mit HD3000 kam nicht nur ein neues Schema, auch kamen DX10.1 und einige weitere Änderungen (GPGPU-mäßig), und HD4000 stellt einen ganz anderen Grundaufbau dar.
Zwischen DX7 und DX8 gibt es schon einen Riesenunterschied, oder?
Bei NVIDIA ist der größte Unterschied, dass programmierbare Vertex Shader zur Verfügung stehen. Pixelshader 1.1 bis 1.3 sind eigentlich nur sehr flexibel konfigurierbare Combiner ähnlich deren der GeForce 256.
Die ersten wirklich programmierbaren (aber immer noch sehr eingeschränkten) Pixelshader 1.4 kamen mit der Radeon 8500.
Hier die Daten der HD6800 aus dem Beyond3D Forum in Zahlen:
System: i7 930@2,8GHz
Crysis, 64bit, 1900*1200 4AA, Very High:
Min: 29,57 FPS
Max: 51,51 FPS
Avg: 43,55
3DMark Vantage:
P24499 (GPU: 24056; CPU: 25929/ GPU1: 73,01; GPU2: 67,82)
X12092 (GPU: 11762; CPU: 25872/ GPU1: 38,42; GPU2: 30,35)
Heaven 2.1, 1900*1200 4AA, 16 Ani, High, Tesselation Extreme:
Min: 22,0 FPS
Max: 70,2 FPS
Avg: 36,6 FPS
Kann jemand Vergleichswerte in gleichen Settings mit HD5870 und GTX480 testen? Habe leider nur eine HD 4850.
Gibt doch genug Reviews um Vergleiche zur GTX480 und HD5870 zu ziehen. Auf jeden Fall in Crysis ca. 25% schneller als eine GTX480 und im Unigine-Bench ca. 20% schneller bei 1920x1080. Habe aber keine Ergebnisse von einer GTX480 in 1920x1200 gefunden für den Unigine-Bench, also könnte es sein das vielleicht noch der eine oder andere Prozentpunkt dazukommt.
Wie wärs mit einfach mal SELBST in das Benchmark Forum schauen?
Siehe: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8233317&postcount=56
Wie wäre es wenn du mal selbst auf die Taktraten achtest ;)
Du wolltest was zum vergleichen, also halt den Ball flach.
Hier die Daten der HD6800 aus dem Beyond3D Forum in Zahlen:
System: i7 930@2,8GHz
Crysis, 64bit, 1900*1200 4AA, Very High:
Min: 29,57 FPS
Max: 51,51 FPS
Avg: 43,55
3DMark Vantage:
P24499 (GPU: 24056; CPU: 25929/ GPU1: 73,01; GPU2: 67,82)
X12092 (GPU: 11762; CPU: 25872/ GPU1: 38,42; GPU2: 30,35)
Heaven 2.1, 1900*1200 4AA, 16 Ani, High, Tesselation Extreme:
Min: 22,0 FPS
Max: 70,2 FPS
Avg: 36,6 FPS
Kann jemand Vergleichswerte in gleichen Settings mit HD5870 und GTX480 testen? Habe leider nur eine HD 4850.
Ich wollte doch nur ein paar Vergleichswerte mit gleichen Settings und System in den 3 Benchs. Gesucht habe ich auch schon, aber es sind halt nicht immer 100%ig übereinstimmende Settings/Werte. Für eine genaue Analyse wäre ein Test auf einem System mit den besagten Benchs am Besten. Also keep cool.
wenn sich die zahlen bewahrheiten, wäre es ein schock für nvidia.
gruß
derguru
2010-08-29, 15:38:29
naja mit ~20% drüber hat wohl fast jeder gerechnet.schock für nv wäre es wenn amd es hinkriegt den verbrauch ein gutes stück unter einer 480gtx zu halten.
LovesuckZ
2010-08-29, 15:55:39
Sieht wohl danach aus, dass die 67xx Karten auf dem Niveau der heutigen GTX460 Karten liegen werden.
NV bräuchte wohl ca. einen GF100 mit 512SP und 800Mhz um gleichzuziehen. Mal sehen, wenn sie den Stromverbrauch in den Griff bekommen vielleicht machbar. :)
DeadMeat
2010-08-29, 16:14:22
Sieht wohl danach aus, dass die 67xx Karten auf dem Niveau der heutigen GTX460 Karten liegen werden.
Ist auch dringend nötig, so gut wie die ganze gtx 460 reihe da steht.
Ist auch dringend nötig, so gut wie die ganze gtx 460 reihe da steht.
Da würde schon einen Preissenkung der 5850 reichen. Aber wenn AMD die Leistung natürlich auch mit einem deutlich kleineren 128-bit Chip erreicht ist das wohl nicht nötig.
Deshalb vielleicht auch dieses mal zuerst die HD67xx und erst später die HD68xx.
LovesuckZ
2010-08-29, 16:20:25
Deshalb vielleicht auch dieses mal zuerst die HD67xx und erst später die HD68xx.
Das macht keinen sinn. Eine 67xx für ca. 130€ auf GTX460 Niveau - also irgendwas zwischen 786 und 1GB - überzeugt doch keinem mehr im Oktober. Es wird das High-End benötigt, um den 67xx Karten den benötigten Hype zu verschaffen.
DeadMeat
2010-08-29, 16:25:32
Da würde schon einen Preissenkung der 5850 reichen. Aber wenn AMD die Leistung natürlich auch mit einem deutlich kleineren 128-bit Chip erreicht ist das wohl nicht nötig.
Fragt sich halt wie weit man mit dem Preis der 5850 nach unten gehen kann das es noch sinn macht. Mit dem kleinen Chip ist das sicher wesentlich gewinn bringender
Das macht keinen sinn. Eine 67xx für ca. 130€ auf GTX460 Niveau - also irgendwas zwischen 786 und 1GB - überzeugt doch keinem mehr im Oktober. Es wird das High-End benötigt, um den 67xx Karten den benötigten Hype zu verschaffen.
Was benötigt wird ist nicht automatisch das was zur Verfügung steht. AMD hat schon bei Cypress und Juniper beide zur gleichen Zeit zum Tapeout geschickt. Vielleicht macht diesmal der große, also Caymann Probleme. Da ist es besser einen 6700 als gar nichts.
Fragt sich halt wie weit man mit dem Preis der 5850 nach unten gehen kann das es noch sinn macht. Mit dem kleinen Chip ist das sicher wesentlich gewinn bringender
GF104 ist größer als Cypress. Wenn NV das Ding zu dem Preis verkaufen kann kann das AMD bei 5870/5850 allemal. Problem könnte höchstens wieder mal die liefermenge sein.
Ich gebe nur das wieder was einige Gerüchteküchen besagen die auch in der Vergangenheit öfters mal recht hatten. Welche Graka steht denn momentan im Fokus und verkauft sich wie geschnitten Brot? Die GTX460, aber ich hoffe auch auf die HD68xx als erstes.
LovesuckZ
2010-08-29, 16:37:20
GF104 ist größer als Cypress. Wenn NV das Ding zu dem Preis verkaufen kann kann das AMD bei 5870/5850 allemal. Problem könnte höchstens wieder mal die liefermenge sein.
Da AMD die 5830 aktiv verkauft, sind die Yields für 5850 und 5870 eben nicht so hoch, dass man einfach Preise senken kann. Dazu kommt, dass sie ihre Wafer für Low-End benutzen, sie auch nichtmal die Masse an Chips für eine saftige Preissenkung hätten. Es läuft alles auf End of Life hinaus.
Was benötigt wird ist nicht automatisch das was zur Verfügung steht. AMD hat schon bei Cypress und Juniper beide zur gleichen Zeit zum Tapeout geschickt. Vielleicht macht diesmal der große, also Caymann Probleme. Da ist es besser einen 6700 als gar nichts.
Natürlich.
Aber das hat mehrere Nachteile:
Fehlender Hype führt zu geringerem Interesse
Fallende Preise durch Konkurrenz führt zu geringerem Einstiegspreis bei den 68xx Karten
Es macht einfach keinen sinn. Entweder kommt beides gleichzeitig oder zu erst das High-End, um die Margen mitzunehmen.
DeadMeat
2010-08-29, 16:42:43
Ich würde auch auf gleichzeitigen Start tippen aber wie immer bei der massen Verfügbarkeit das die kleinen effektiv schneller zu haben sind.
Da AMD die 5830 aktiv verkauft, sind die Yields für 5850 und 5870 eben nicht so hoch, dass man einfach Preise senken kann. Dazu kommt, dass sie ihre Wafer für Low-End benutzen, sie auch nichtmal die Masse an Chips für eine saftige Preissenkung hätten. Es läuft alles auf End of Life hinaus.
Einspruch. Die 5830 kam deutlich später als 5850/5870 und war wohl als reiner Lückenfüllen gedacht. Durchaus möglich das man 5830 einstellt und 5870/5850 deutlich im Preis senkt. Gerade wo nach einem Jahr die Yields schon gut sein sollten.
Superheld
2010-08-29, 17:22:57
hier gibt es auch Werte: http://techpowerup.com/reviews/Zotac/GeForce_GTX_460_Amp_Edition/10.html
(aus dem Beyond3D-Forum)
habs die neue eingefügt :smile:
http://www.abload.de/img/unbenannt-1_39192.jpg (http://www.abload.de/image.php?img=unbenannt-1_39192.jpg)
LovesuckZ
2010-08-29, 17:40:58
Einspruch. Die 5830 kam deutlich später als 5850/5870 und war wohl als reiner Lückenfüllen gedacht. Durchaus möglich das man 5830 einstellt und 5870/5850 deutlich im Preis senkt. Gerade wo nach einem Jahr die Yields schon gut sein sollten.
Sie kam - wie auch die GTX465 - später, weil man die besseren Margen der 5850 und 5870 mitnehmen wollte. Trotzdem benötigt man die GPUs, um mehr Chips vom Wafer verwenden zu können.
Charly über Cayman:
It is a bit bigger than Evergreen, and a hair bigger than GF104. I think it is in the 380mm^2 range, but I could be wrong there.
It just goes to show how wrong the GF10x architecture is. Like i said, you can't patch a broken architecture. Also, remember when I said the biggest problem NV will have is that their new architecture is not competitive with AMD's OLD architecture? And then I said their troubles really begin when ATI's new architecture comes out.
Guess what?
-Charlie
http://www.semiaccurate.com/forums/showpost.php?p=63824&postcount=13
LovesuckZ
2010-08-29, 17:50:06
Er hat keine Ahnung über die Größe. Er spekulierte beim GF104 auch, dass der Chip über 400mm^2 groß sein müsste.
derguru
2010-08-29, 17:51:35
habs die neue eingefügt :smile:
http://www.abload.de/img/unbenannt-1_39192.jpg (http://www.abload.de/image.php?img=unbenannt-1_39192.jpg)
so kommst sie fast mit den min.fps werten auf die avg-werte der 480gtx.X-D
hoffentlich gibt es diesmal sofort 2gb varianten.
dildo4u
2010-08-29, 18:22:41
Wenn die Daten stimmen hat es AMD wieder nicht geschafft die Karte bis kurz vor dem Verkauf geheim zu halten.NV kann hier Preis und vieleicht auch noch das Bios bzw Takt einer 512SP GTX 480 anpassen.Insgesamt ist nur interresant ob's auch eine gute 200€ Karte geben wird,man sieht an de GTX 460 das es egal ist was im High End passiert.Die Volumen Modelle werden wenn sie gut sind so oder so gekauft.
Einen Konter mit einer GTX480 512SP halte ich fast für unmöglich und es würde wohl auch nicht reichen. Dazu müsste man den Takt doch deutlich anheben und das ist beim GF100 in seiner jetzigen Form einfach unmöglich ohne beim Stromverbrauch, der Hitzeentwicklung und Lautstärke, zumindest unter Luft, nicht sämtliche Grenzen zu sprengen. Außerdem dürfte die Anzahl von voll funktionsfähigen GF100-GPUs immer noch sehr gering sein. Das haut glaube ich nicht hin da braucht es dann schon einen GF102 oder sowas.
Außerdem hat NV ganz andere Baustellen um die sie sich kümmern sollten. AMD könnte bequem die HD5850 einfach um 20-30€ günstiger machen und schon hätte man der GTX460 einen Haufen Wind aus den Segeln genommen. Dazu bräuchten sie nicht einmal eine neue Karte, aber ich vermute das sich die HD5850 immer noch so gut verkauft, dass sie trotz GTX460 noch nicht einmal dringenden Handlungsbedarf sehen.
Wenn die Daten stimmen hat es AMD wieder nicht geschafft die Karte bis kurz vor dem Verkauf geheim zu halten.NV kann hier Preis und vieleicht auch noch das Bios bzw Takt einer 512SP GTX 480 anpassen.Insgesamt ist nur interresant ob's auch eine gute 200€ Karte geben wird,man sieht an de GTX 460 das es egal ist was im High End passiert.Die Volumen Modelle werden wenn sie gut sind so oder so gekauft.
Ja, Intel hat es auch nicht geschafft SandyBridge geheim zu halten, weil sie halt eine CPU an AnandTech geschickt haben. :)
deLuxX`
2010-08-29, 19:46:04
Wenn die Daten stimmen hat es AMD wieder nicht geschafft die Karte bis kurz vor dem Verkauf geheim zu halten.NV kann hier Preis und vieleicht auch noch das Bios bzw Takt einer 512SP GTX 480 anpassen.Insgesamt ist nur interresant ob's auch eine gute 200€ Karte geben wird,man sieht an de GTX 460 das es egal ist was im High End passiert.Die Volumen Modelle werden wenn sie gut sind so oder so gekauft.
Trotzdem werden sie, wie es bis jetzt aussieht, den Performance/Watt bzw. sogar Performance absolut Wettstreit verlieren.
Ich wette das sind Fakes, der wird sich gedacht haben sind alle auf den Vantage Score hereingefallen, macht er noch ein paar. :-)
Sieht wohl danach aus, dass die 67xx Karten auf dem Niveau der heutigen GTX460 Karten liegen werden.
WoW, so defensiv?
Wenn die 380mm² vom Charlie stimmen, dann wird eine HD67xx max. 212 mm² groß (166 + 380-334 [mm²]) und anscheinend bekommen die HD67xx ja ein 256bit Speicherinterface.
Da würde dann also aus deiner Sicht eine max. ~210 mm² große GPU die gleiche Leistung wie eine ~376 mm² große GPU erreichen. Tja da wird Nvidia die Preise ja noch ein wenig weiter senken müssen, wenn deine Einschätzung zutrifft.
Eine HD6770 auf HD5850 höhe würde für Nvidia ein hartes urteil bedeuten
Psychopat
2010-08-29, 20:58:48
Bis zum Launch von SI wird doch nVidia wohl die neue Revision vom GF100 fertig haben. Von der erwarte ich mir schon einiges. Ich glaube nicht das nVidia auf SI nicht reagieren wird.
LovesuckZ
2010-08-29, 20:58:54
WoW, so defensiv?
Wenn die 380mm² vom Charlie stimmen, dann wird eine HD67xx max. 212 mm² groß (166 + 380-334 [mm²]) und anscheinend bekommen die HD67xx ja ein 256bit Speicherinterface.
Da würde dann also aus deiner Sicht eine max. ~210 mm² große GPU die gleiche Leistung wie eine ~376 mm² große GPU erreichen. Tja da wird Nvidia die Preise ja noch ein wenig weiter senken müssen, wenn deine Einschätzung zutrifft.
Und? Ist ja nicht so, dass man heute keine GTX460 für 159€ kaufen kann. :freak:
Psychopat
2010-08-29, 21:05:25
OMGWTFOMG!!!!!111
Das Produkt meiner Lieblingsfirma hat eine 5% höhere Marge als das der Konkurrenzfirma!!!! Jetzt werden die sicher in zwei Wochen bankrott sein und meine Lieblingsfirma wird die WELTHERRSCHAFT HABEN!!!!111!!
Fühlt sich da wer angesprochen?
OMGWTFOMG!!!!!111
Das Produkt meiner Lieblingsfirma hat eine 5% höhere Marge als das der Konkurrenzfirma!!!! Jetzt werden die sicher in zwei Wochen bankrott sein und meine Lieblingsfirma wird die WELTHERRSCHAFT HABEN!!!!111!!
Fühlt sich da wer angesprochen?
Na eh, alles unter 100€ verkaufen, wen interessieren schon Margen? Am besten mit Verlust, Hauptsache verkaufen.
Gleiche Bedingungen:
http://img202.imageshack.us/img202/4992/186b5b8744ec4000b8a2317.jpg
LovesuckZ
2010-08-29, 22:31:28
Nö, denn sonst wäre die Schrift auch gleich. :freak:
deekey777
2010-08-29, 22:39:41
Nö, denn sonst wäre die Schrift auch gleich. :freak:
Ach komm, wo bleibt denn der Spaß?
Also wahrscheinlich Fake und wenn der Unigine-Bench gefaked ist kann man den Rest natürlich auch nicht mehr ernst nehmen. Trotzdem sind die Ergebnisse ungefähr das was man auch erwarten kann und wer weiß das es ja Fakes sind kann die Realität ja sogar noch besser sein.
Bei der Art wie die Leute hier und in anderen Foren über die angeblichen? Benches abgehen, reizt es mich in den Fingern nen Fake zu basteln. Just for fun... :D
Die nvidia GTX4xx Besitzer haben nur Angst das die Nvidia Preise 30-50% runtergehen können
wie wars mochmal beim HD4000 launch bei der GTX280/260, die Preise musste Nvidia wegen der 4870/4850 um 30% reduzieren
wenn die 6850 mit der 480GTX auf augenhöhe liegt und die 6870 20% schneller ist. wird Nvidia entwder die Karten nicht mehr bauen oder im Preis anpassen müssen, wie köstlich für AMD.
Also wahrscheinlich Fake und wenn der Unigine-Bench gefaked ist kann man den Rest natürlich auch nicht mehr ernst nehmen. Trotzdem sind die Ergebnisse ungefähr das was man auch erwarten kann und wer weiß das es ja Fakes sind kann die Realität ja sogar noch besser sein.
Glaube nicht das man eine GTX480@Tesselation Extreme im Unigine schlagen wird, da hat Nvidia schon ordentlich was vorgelegt. Und ein Speedup für Fermi per Treiber steht auch noch aus.
Also wahrscheinlich Fake und wenn der Unigine-Bench gefaked ist kann man den Rest natürlich auch nicht mehr ernst nehmen. Trotzdem sind die Ergebnisse ungefähr das was man auch erwarten kann und wer weiß das es ja Fakes sind kann die Realität ja sogar noch besser sein.
NOPE, mit Sicherheit kein Fake:
nApoleon bestätigt VantageP und Unigine scores in den Benchs:
HD5870(我之前自己的平台和测试数据)
3DMark Vantage P19337
Unigine Heaven (1920 1200 4AA+16AF) 17.3
某卡(平台未知)
3DMark Vantage P24499
Unigine Heaven (1920 1200 4AA+16AF) 36.6
同平台下GTX 480的Unigine Heaven (1920 1600 4AA+16AF)为29.5
Und zur Erinnerung: Das ist genau der der bis jetzt alles richtig geleaket hat. Und er war immer verdammt früh dran mit seinen Aussagen. Er wusste Monate vorher von den 800SP bei RV770 wo fast alle darüber gelacht hatte, er hatte verdammt früh richtige Cypress-Werte, ich sehe nicht den geringsten Grund ihm nicht zu glauben.
NOPE, mit Sicherheit kein Fake:
nApoleon bestätigt VantageP und Unigine scores in den Benchs:
Und zur Erinnerung: Das ist genau der der bis jetzt alles richtig geleaket hat. Und er war immer verdammt früh dran mit seinen Aussagen. Er wusste Monate vorher von den 800SP bei RV770 wo fast alle darüber gelacht hatte, er hatte verdammt früh richtige Cypress-Werte, ich sehe nicht den geringsten Grund ihm nicht zu glauben.
Sorry, hier der Link:
http://www.chiphell.com/thread-119587-1-1.html
Der Unigine-Screen ist eindeutig manipuliert. Das hat man in mehreren Foren intensiv überprüft. Ich habe selber gestern noch 2xUnigine laufen lassen und habe auch keine Abweichungen in den Schriften von Score/Avg. Fps und Min/Max Fps so wie es aber auf den geleakten Unigine-Screen ist.
Alle Leaks stammten von WG_Baby und er/sie hat jetzt erklärt, dass er/sie nie behauptet hat diese Benchmarks wären echt. Das sagt doch schon alles aus. Außerdem bestätigt nApoleon diese Ergebnisse wirklich oder wiederholt er sie lediglich? Also mMn leider nicht ernstzunehmen, aber wahrscheinlich trotzdem nahe an der realen Leistungsfähigkeit.
deekey777
2010-08-30, 10:17:03
NOPE, mit Sicherheit kein Fake:
nApoleon bestätigt VantageP und Unigine scores in den Benchs:
Und zur Erinnerung: Das ist genau der der bis jetzt alles richtig geleaket hat. Und er war immer verdammt früh dran mit seinen Aussagen. Er wusste Monate vorher von den 800SP bei RV770 wo fast alle darüber gelacht hatte, er hatte verdammt früh richtige Cypress-Werte, ich sehe nicht den geringsten Grund ihm nicht zu glauben.
Hm, woher kamen dann die Vec3-ALUs bei der R700-Generation?
Ailuros
2010-08-30, 15:31:50
Er hat keine Ahnung über die Größe. Er spekulierte beim GF104 auch, dass der Chip über 400mm^2 groß sein müsste.
Tja mit der Logik duerfte SI dann 380 -6% = <360mm2 gross sein. :biggrin:
Ist aber auch wirklich wurscht am Ende; was wirklich zaehlt ist was diesmal wieder an Transistoren in X qmm2 AMD gepackt hat und mit welcher perf/W Relation.
Tja mit der Logik duerfte SI dann 380 -6% = <360mm2 gross sein. :biggrin:
Ist aber auch wirklich wurscht am Ende; was wirklich zaehlt ist was diesmal wieder an Transistoren in X qmm2 AMD gepackt hat und mit welcher perf/W Relation.
warum zählt das? was zählt ist doch die chipgröße (produktionskosten) und wie du schon geschrieben hast die performance pro watt.
mironicus
2010-08-30, 16:20:55
NVidia-Fans: http://www.youtube.com/watch?v=EzixrkRbKCk
Wenn AMD es schafft das die 6870 auch nur 2x6 PIN-Stromanschlüsse hat, ist alles in Butter, was den Stromverbrauch angeht. :)
Und NVidia müsste einen neuen Chip kreieren der wie die kleineren Fermies mehr zum Gamen taugt und nicht so feature-überladen wie der GF100 ist, dann könnten sie vielleicht mithalten aber die Performance pro Watt wie AMD werden sie in absehbarer Zeit nicht erreichen können.
GF104 hat die gleichen Features wie GF100. Die CUDA Compute Capability ist sogar 2.1 statt 2.0 bei GF100.
SamLombardo
2010-08-30, 19:57:58
Sollten die Benches kein Fake sein: @ amd Fans, würdet Ihr immer noch empfehlen, jetzt eine HD5870 zu kaufen?:wink:
Black-Scorpion
2010-08-30, 20:15:14
Sollten die Benches kein Fake sein: @ amd Fans, würdet Ihr immer noch empfehlen, jetzt einne HD5870 zu kaufen?:wink:
Nein es wird wie bei den grünen noch alte DX10(.1) Hardware empfohlen. ;)
Im ernst, warum nicht? Solange es keine Karten und noch nicht mal einen Termin gibt.
SamLombardo
2010-08-30, 20:15:35
Ja, meine;-)
Hehe. der war gut:biggrin:
nagus
2010-08-30, 21:20:12
Gleiche Bedingungen:
http://img202.imageshack.us/img202/4992/186b5b8744ec4000b8a2317.jpg
das wären fast unglaubliche +117% schneller als eine 5870er! hab meine gerade gemessen. ich komme auf 16,9 fps bei den selben settings.
eine neue Architektur kann bei gleicher Fertigung 100% mehr Leistung haben
Leute, die Schrift ist unterschiedlich. Offensichtlicher kann ein Fake doch gar nicht sein.
xiao didi *
2010-08-30, 21:53:38
Zudem wird das Ding auch nicht mehr Ati im Namen tragen. :tongue:
wird die HD6870 50% schneller als die 5870 oder soll man besser die Generation überspringen und auf eine HD7870 warten?
dildo4u
2010-08-30, 21:57:53
wird die HD6870 50% schneller als die 5870 oder soll man besser die Generation überspringen und auf eine HD7870 warten?
Eher 30-40% schneller also überspringen.
Fetza
2010-08-30, 22:08:34
GF104 hat die gleichen Features wie GF100. Die CUDA Compute Capability ist sogar 2.1 statt 2.0 bei GF100.
Er meint bestimmt den ganzen "unnützen" gpgpu kram und dp etc.
Zudem wird das Ding auch nicht mehr Ati im Namen tragen. :tongue:
Da ist Fudzilla allerdings anderer Meinung
http://www.fudzilla.com/graphics/graphics/graphics/radeon-hd-6800-series-performance-benchmarks-leaked
Er meint bestimmt den ganzen "unnützen" gpgpu kram und dp etc.
Hat GF104 alles. Wie gesagt ist die Compute Capability sogar höher.
Fetza
2010-08-30, 22:57:50
Hat GF104 alles. Wie gesagt ist die Compute Capability sogar höher.
Hmm interessant, konnte nvidia dann nur durch das rausschmeissen der jeweils zweiten polymorphengine pro cluster soviel transistoren sparen?
xiao didi *
2010-08-30, 23:29:49
Da ist Fudzilla allerdings anderer Meinung
Schön für Fudzilla. Amd hat es bereits höchstpersönlich gesagt.
Schön für Fudzilla. Amd hat es bereits höchstpersönlich gesagt.
Aber nicht explizit auf die HD 6800 bezogen
Aquaschaf
2010-08-30, 23:44:50
Hat GF104 alles. Wie gesagt ist die Compute Capability sogar höher.
Gibt es irgendwo Informationen dazu worin sich 2.1 von 2.0 unterscheidet?
xiao didi *
2010-08-30, 23:46:13
Aber nicht explizit auf die HD 6800 bezogen
Will deswegen jetzt eigentlich nicht so'n Fass aufmachen, weil der Name sowieso piepe ist von dem Produkt. Und ich sagte das eben bei dem Fake auch eher scherzhaft.
Aber die nächste Radeon-Generation wird kein Ati mehr im Namen tragen. Punkt.
Heute, am 30.08.2010 ist es offiziell: künftige Grafikkarten-Produkte aus dem Hause AMD werden nicht mehr unter dem Brand "ATI" erscheinen, der Name Radeon bleibt aber selbstverständlich erhalten.
Das ist so offiziell und eindeutig wie es nur sein kann.
gecan
2010-08-31, 00:37:27
sollte der crysis bench echt sein so hat sich kaum was getan gegenüber ne hd5870@900mhz 2gb :-(
hier mein crysis bench test,
http://saved.im/mty1mdezmgjq/3108.png
Gibt es irgendwo Informationen dazu worin sich 2.1 von 2.0 unterscheidet?
Nein. Bisher wird das nur von CUDA so gemeldet. Hat mich auch schon gewundert.
Ailuros
2010-08-31, 09:23:42
warum zählt das? was zählt ist doch die chipgröße (produktionskosten) und wie du schon geschrieben hast die performance pro watt.
Weil zufaelligerweise die Anzahl der Transistoren eine genauso wichtige Information sein kann wie die die-Groesse ueberhaupt wenn man die beiden Werte parallelisiert und mit Vorgaengern vergleicht? X zusaetzliche Leistung kommt wohl schwer ohne Y zusaetzliche Transistoren oder? Und ja natuerlich gibt es Aussnahmen wo man die Architektur leicht umkrempeln kann, etwas an Transistoren sparen kann und um Z mehr Frequenz hinzufuegen kann.
SI wird entweder die exact gleiche oder leicht hoehere Frequenz als Cypress haben, aber etwas mehr die-area. Nach AMD selber sollten wir in der absehbaren Zukunft irgendwelche fundamentalen Aenderungen in Richtung Frequenz uebersehen und eher an die "Breite" denken (***edit: wobei mit "Frequenz" natuerlich nicht der Speicher gemeint ist, sonder der core-Takt)
Man kann auch die Produktions-kosten nicht NUR von der die-Groesse einschaetzen. Einfaches Beispiel: ein chip A ist auf Herstellungsprozess X um die N qmm gross, waehrend B auf X um die N+40% gross ist. Hab ich jetzt alle notwendige Daten oder sollte ich noch wissen wie die yields aussehen und noch wichtiger wie viele voll operative und Frequenz-Probleme-frei dies ich pro wafer bei A oder B habe?
john carmack
2010-08-31, 12:00:31
NVidia-Fans: http://www.youtube.com/watch?v=EzixrkRbKCk
Wenn AMD es schafft das die 6870 auch nur 2x6 PIN-Stromanschlüsse hat, ist alles in Butter, was den Stromverbrauch angeht. :)
Und NVidia müsste einen neuen Chip kreieren der wie die kleineren Fermies mehr zum Gamen taugt und nicht so feature-überladen wie der GF100 ist, dann könnten sie vielleicht mithalten aber die Performance pro Watt wie AMD werden sie in absehbarer Zeit nicht erreichen können.
Wiee ihr alles wisst gehen Schätzungen von 25% - 35 % Mehrleistung aus.
Ich persönlich hoffe auf ein Leistungsplus von rund 40% - 50%
Und irgendwie stimmt es ja auch! Bei einer Fertigung von 40nm ist nun mal nicht viel mehr drin als eine GTX480. Alleine schon wegen der Chipfläche... Alles was eben verbessert werden kann wäre dann eben ein "neues Stepping" + effizientere Logik...
Angebliche Videos einer Asus RoG HD6xxx (wenn dann wohl HD6870). Natürlich aber eher Designstudie bzw. Fantasie als Realität, obwohl das Lüfterkonzept wirklich interessant ist.
http://v.youku.com/v_show/id_XMjAyNjAyODA4.html
http://v.youku.com/v_show/id_XMjAyNjAzMDg4.html
Angebliche Videos einer Asus RoG HD6xxx (wenn dann wohl HD6870). Natürlich aber eher Designstudie bzw. Fantasie als Realität, obwohl das Lüfterkonzept wirklich interessant ist.
http://v.youku.com/v_show/id_XMjAyNjAyODA4.html
http://v.youku.com/v_show/id_XMjAyNjAzMDg4.html
Für Crossfire auf engstem Raum sicherlich praktisch, ansonsten vermute ich eher dass das neue Lüfterkonzept eher laut wird.
Weil zufaelligerweise die Anzahl der Transistoren eine genauso wichtige Information sein kann wie die die-Groesse ueberhaupt wenn man die beiden Werte parallelisiert und mit Vorgaengern vergleicht? X zusaetzliche Leistung kommt wohl schwer ohne Y zusaetzliche Transistoren oder? Und ja natuerlich gibt es Aussnahmen wo man die Architektur leicht umkrempeln kann, etwas an Transistoren sparen kann und um Z mehr Frequenz hinzufuegen kann.
SI wird entweder die exact gleiche oder leicht hoehere Frequenz als Cypress haben, aber etwas mehr die-area. Nach AMD selber sollten wir in der absehbaren Zukunft irgendwelche fundamentalen Aenderungen in Richtung Frequenz uebersehen und eher an die "Breite" denken (***edit: wobei mit "Frequenz" natuerlich nicht der Speicher gemeint ist, sonder der core-Takt)
Man kann auch die Produktions-kosten nicht NUR von der die-Groesse einschaetzen. Einfaches Beispiel: ein chip A ist auf Herstellungsprozess X um die N qmm gross, waehrend B auf X um die N+40% gross ist. Hab ich jetzt alle notwendige Daten oder sollte ich noch wissen wie die yields aussehen und noch wichtiger wie viele voll operative und Frequenz-Probleme-frei dies ich pro wafer bei A oder B habe?
stimmt schon alles was du schreibst, wobei ich jetzt nicht genau weiß, wieviel einfluss eine unterschiedliche chiparchitektur auf die yield-rate hat.
vlt führt ein komplizierteres design mit mehreren takt-domainen zu einer schlechteren ausbeute bei gleicher die-size.
Trotzdem noch ein Beispiel:
RV670 190mm² 667Mio. Transistoren 64Shader
RV770 257mm² 959Mio. Transistoren 160Shader (+125%)
Man kann also offenbar schon einiges dahingehend optimieren, um auf gleicher Fläche deutlich mehr Shader unterzubringen und die Packdichte zu verbesern.
deekey777
2010-08-31, 12:36:05
Man kann den RV670 schlecht mit dem RV770 vergleichen, da sich schon anders aufgebaut sind.
Der RV670 hatte noch viel Speck des R600 an den Rippen.
Ailuros
2010-08-31, 13:56:00
stimmt schon alles was du schreibst, wobei ich jetzt nicht genau weiß, wieviel einfluss eine unterschiedliche chiparchitektur auf die yield-rate hat.
vlt führt ein komplizierteres design mit mehreren takt-domainen zu einer schlechteren ausbeute bei gleicher die-size.
Trotzdem noch ein Beispiel:
RV670 190mm² 667Mio. Transistoren 64Shader
RV770 257mm² 959Mio. Transistoren 160Shader (+125%)
Man kann also offenbar schon einiges dahingehend optimieren, um auf gleicher Fläche deutlich mehr Shader unterzubringen und die Packdichte zu verbesern.
deekey777 hat recht mit dem RV6x0/RV7x0 Vergleich. Noch schlimmer je hoeher die Packdichte desto groesser das Risiko. Ich hab irgendwo das Gefuehl dass nicht nur 40G@TSMC von sich alleine problematisch war, sondern dass beide IHVs u.a. auch Probleme mit ihren Packdichten hatten und haben.
Beim GF100 ist das Ganze natuerlich um einiges radikaler, da sich zwar die Quadros mit pfiffigen Preisen verkaufen lassen aber gleich den halben chip zu deaktivieren bei 8 von 16 SMs ist soweit ich mich erinnern kann das erste Mal dass ich es sehe. AMD hat maximal um einiges kleinere chips, aber die deaktivierten clusters auf 5830 sind auch nicht gerade wenig.
Generell hat TSMC mehr Probleme den beiden IHVs eingerichtet als eigentlich gut war. Zuerst war 40G problematisch und die Kapazitaet laesst auch heute noch zu wuenschen uebrig und es wurde 32nm storniert. Dass TSMC ihre Kapazitaeten fuer 40G verdoppelt bedeutet im Hintergrund lediglich dass damit beider IHVs vorige 32nm damit gedeckt werden muessen.
Am Ende sind ALUs sowieso relativ "billig" in hw auf GPUs. Deshalb ist auch die Steigerung hier (egal ob man jetzt in "SPs" oder Papierfranzen "FLOPs" zaehlen will) stets radikaler als bei anderen Einheiten. Im Fall von SI wuerde mich eine gesunde Steigerung der rohen Bandbreite kein bisschen wundern. Die ersten DX11 GPUs kamen so oder so mit einer relativ mageren Bandbreiten-steigerung.
Schlammsau
2010-08-31, 16:41:23
Angebliche Videos einer Asus RoG HD6xxx (wenn dann wohl HD6870). Natürlich aber eher Designstudie bzw. Fantasie als Realität, obwohl das Lüfterkonzept wirklich interessant ist.
http://v.youku.com/v_show/id_XMjAyNjAyODA4.html
http://v.youku.com/v_show/id_XMjAyNjAzMDg4.html
Würde dieses Kühlkonzept, den genug Luft befördern können?
DeadMeat
2010-08-31, 17:07:31
Wenn der Kanal richtig passt sollte das gehen, genug frische Luft aus dem PC inneren vorrausgesetzt. Aber die Lautstärke dürfte wohl wirklich nicht sonderlich leise sein.
davidzo
2010-08-31, 18:16:16
der luftdruck stimmt wohl bei den walzenstromlüftern, weniger aber der durchsatz gegenüber einem herkömmlichen lüfter. dafür wird der kühlkörper aber auch viel gleichmäßiger durchströmt. im endeffekt sollte eine gute herkömmliche Lösung deutlich leiser sein, bringt aber eben nicht so konsistente Leistung...
john carmack
2010-08-31, 19:35:40
warum kühlt man GraKas eigennttlich nicht von oben und unten?
CPUs könnte man auch so kühlen.
Muss halt ein neues MainBoard format und ein neues Gehäuse format her - aber wen...
Der_Korken
2010-08-31, 19:55:02
warum kühlt man GraKas eigennttlich nicht von oben und unten?
CPUs könnte man auch so kühlen.
Muss halt ein neues MainBoard format und ein neues Gehäuse format her - aber wen...
Es gibt durchaus Gehäuse, in denen das Board um 90° gedreht und die Grafikkarte somit vertikal eingebaut ist. Dann bläßt der Lüfter von unten nach oben, statt seitlich. Problem ist der Kabelsalat, der dann oben aus dem Gehäuse kommt und der hohe Preis. Kühltechnisch aber unübertroffen.
Einige neue Infos wie immer natürlich ohne Gewähr.
http://www.semiaccurate.com/forums/showpost.php?p=64560&postcount=333
http://www.xtremesystems.org/forums/showpost.php?p=4532813&postcount=263
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1483-launchtermin-und-weitere-details-der-hd6000er-serie
Der_Korken
2010-08-31, 20:13:47
Einige neue Infos wie immer natürlich ohne Gewähr.
http://www.semiaccurate.com/forums/showpost.php?p=64560&postcount=333
http://www.xtremesystems.org/forums/showpost.php?p=4532813&postcount=263
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1483-launchtermin-und-weitere-details-der-hd6000er-serie
Cayman mit 384bit? Käme irgendwie unerwartet, denn das würde bedeuten, dass der Chip auch um die 50% schneller sein muss, sonst würde ATI diesen Schritt nicht machen.
Vor allem wäre es der erste ATI-Chip überhaupt mit einem SI das keine Zweierpotenz ist.
Außerdem braucht man für so ein SI auch ein relativ großes Die um die Pins unterzubringen.
LovesuckZ
2010-08-31, 20:24:22
Ich find's ja viel lustiger, dass AMD ja soviel von Cypress streichen musste, um von den 4xxm^2 wegzukommen und jetzt mit 15% plötzlich deutlich schneller wäre. So ein Chip hätte man auch schon letztes Jahr bringen können...
Und nicht zu vergessen, dass ja hier ein eigentlicher 32nm Chip umgearbeitet wurde. Macht die Story von Anandtech.com noch unglaubwürdiger als sie schon war.
Cayman mit 384bit? Käme irgendwie unerwartet, denn das würde bedeuten, dass der Chip auch um die 50% schneller sein muss, sonst würde ATI diesen Schritt nicht machen.
Das erwarte ich die ganze Zeit, denn durch den gestrichenen 32nm Prozess muss ATi nVs "Dickes Die im alten Prozess" anwenden, damit wird dann das Die groß genug für die zusätzlichen Speicherkontakte.
Frag mich nur, ob es in 28nm dann wieder zurück auf 256 geht.
Ausserdem gabs doch letztens erst GPU-Z Screens mit highclock GDDR5 ... das wäre dann doch verdammt viel BW, wenn das auch noch an nem 384 Bus hängen würde :confused:
Naja, mal schauen, ob sich das noch verdichtet, oder nicht.
Schlammsau
2010-08-31, 20:33:41
Warum letztes Jahr? Um die Konkurrenz noch vernichtender zu schlagen?
Mal angenommen der DIE ist wirklich unter oder um die 400mm², aber trotzdem nochmal 30-50% schneller als der RV870XT. Würde das die Konkurrenz nicht derart deplatzieren, dass sie sich vor Scham nicht mehr aus ihrem Häuschen trauen würden?
Bis jetzt hat ATi alles richtig gemacht, wenn die Gerüchte stimmen.
PS: ich glaube nach wie vor, dass es "nur" ~30% gegenüber dem Vorgänger werden.
Fetter Fettsack
2010-08-31, 21:20:23
Macht die Story von Anandtech.com noch unglaubwürdiger als sie schon war.
Warum denn? Verstehe ich nämlich nicht. :)
tombman
2010-08-31, 23:28:58
Glaubt ihr die neuesten China-benchmarks?
http://www.fudzilla.com/graphics/graphics/graphics/radeon-hd-6800-series-performance-benchmarks-leaked
Iruwen
2010-08-31, 23:33:02
der DIE
Das ist immer noch keine Abkürzung :wink:
Das ist immer noch keine Abkürzung :wink:Ich schreibs auch groß, einfach deswegen, damit mans beim schnellen Lesen nicht mit dem Artikel verwechseln kann. Dass das keine Abkürzung ist, weiss doch sowieso jeder hier ;-)
Es ist auch das Die :tongue:
Es ist auch das Die :tongue:
Ja und ?
@tombman:
Schau mal ab Seite 40 ;-)
Glaubt ihr die neuesten China-benchmarks?
http://www.fudzilla.com/graphics/graphics/graphics/radeon-hd-6800-series-performance-benchmarks-leaked
Man weiß zurzeit überhaupt nicht was man glauben soll, denn die Fudzilla Benchmarks beziehen sich auf den mutmaßlichen Cayman XT mit 256Bit Speicherbandbreite während die 3 geposteten links am Ende der vorherigen Seite Cayman 384Bit attestieren.
Sinnvoller wären in meinen Augen auf jeden Fall 256Bit und 6Ghz GDR5, aber es da der chip wohl ursprünglich in 32nm produziert werden sollte, hatte er, angesichts der in 32nm möglichen Leistungssteigerungen, auch ein 384 Bit breites Interface.
Es kann durchaus sein, dass Ati wirklich nicht mehr genug Zeit hatte, einen Chip der ?-Islands Generation für den 40nm Prozess zu entwickeln, zumindest nicht einen, der ein verkleinertes Front- und Backend hat. Somit musste man vlt die 384 Bit einfach übernehmen und hatt ggf. die Anzahl diverser Einheiten reduziert - wenn überhaupt.
Vlt wird Cayman XT viel schneller und Größer als alle denken und wird exakt der Chip in 40nm, der in 32nm geplant war.
Jetzt bitte keine Kommentare vonwegen das wäre übertrieben! Man kann nicht einfachmal so, wenn man merkt, dass der geplante Fertigungsprozess nicht zur Verfügung steht, den Chip beliebig beschneiden. Also im Zweifelsfall war einfach nicht mehr genug Zeit da.
deekey777
2010-08-31, 23:45:35
Das oder der Die, die Dice oder die Dies// Splitt aus Ati RV560 / RV570 + RV530 Gemini (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=307974)
Irgendwie trifft es wieder einen ATi-Thread. ;(
Der_Korken
2010-09-01, 00:04:34
Das erwarte ich die ganze Zeit, denn durch den gestrichenen 32nm Prozess muss ATi nVs "Dickes Die im alten Prozess" anwenden, damit wird dann das Die groß genug für die zusätzlichen Speicherkontakte.
Frag mich nur, ob es in 28nm dann wieder zurück auf 256 geht.
Die Frage hab ich hier auch schon mal im Thread geäußert und aus genau dem Grund überrascht mich der Schritt auch. Angenommen ATI belässt es bei 4800Mhz@384bit, das wäre mehr als genug. Müsste man beim "RV1070@28nm" wieder zu 256 bit zurückkehren, einfach weil der Die nicht groß genug ist, müsste man mindestens GDDR5-Speicher mit 7,2 Ghz verwenden, um die Bandbreite der alten Generation einzuholen. Da steht man vor dem gleichen Dilemma wie beim G92, der gegen seinen Vorgänger ein schweren Stand hatte, sobald man ordentlich AA verwendet hat, obwohl er mehr Rohpower hatte.
im 28nm Chip wird garantiert die Anzahl der Einheiten verdoppelt.
Und Barts bekommt ein 256bit SI? Wenn sie das PCB der 5800er Serie verwenden. Das wären dann 160gb/sec Speicherbandbreite, das erscheint mir etwas viel. Allerdings fände ich 128bit SI und 80gb/sec zu wenig.
Bei der Speicherbandbreite im Mainstreambereich müsste es aber auch endlich mal eine ordentliche Leistungssteigerung geben.
Mit ~60gb/sec limitiert oft die Bandbereite bei hohen Auflösungen und AA Einstellungen.
Wenn die AMD 6750 mit 160gb/sec Bandbreite für um die 150Euro auf den Markt kommen würde, dann wäre das schon ein verlockendes Angebot, um meine Nvidia 9800gt in Rente zu schicken.
So soll bereits in der Mitte des kommenden Oktobers, der erste Ableger der neuen HD6000er-Serie kommen und den Codenamen "Barts" tragen.
Der kleine Ableger liegt im Blick auf die Leistung, zwischen einer aktuellen HD5770 und HD5870. Außerdem kommt ein 8-Schichten-PCB, 1GB GDDR5-Speicher mit 5Gbps und 2x6pin-Stromanschlüsse zum Einsatz. Die TDP des neuen Pixelbeschleunigers soll etwas über 150W liegen und als Anschlussmöglichkeiten sind 2xDVI, HDMI, 2xMini-DP, mit Unterstützung von Eyefinity 4, vorhanden. Zudem ist der Chip des "Barts" Pinkomaptibel mit dem PCB der HD5800, was die Produktionskosten erheblich senken wird. Die oben genannten Spezifikationen beziehen sich auf "Barts XT"
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1459-exklusiv-qbartq-erster-ableger-neuer-grafikkartenserie
tombman
2010-09-01, 02:00:15
Ja und ?
@tombman:
Schau mal ab Seite 40 ;-)
Ich nutze nicht die Standardeinstellungen- es gibt noch nicht mal Seite 20 hier ;)
N0Thing
2010-09-01, 02:33:46
Und Barts bekommt ein 256bit SI? Wenn sie das PCB der 5800er Serie verwenden. Das wären dann 160gb/sec Speicherbandbreite, das erscheint mir etwas viel. Allerdings fände ich 128bit SI und 80gb/sec zu wenig.
Es hängt doch davon ab, welcher Speicher auf den Karten eingesetzt wird. Wenn auf den nominell kleineren Karten langsamer getakteter GDDR5-Speicher zum Einsatz kommt, kann das alles gut zusammenpassen.
Allein vom Speicherinterface kann man ja nicht auf die Speicherbandbreite schließen.
Bei der Berechnung bin ich von GDDR5 mit 5Gbps ausgegangen.
Aber gut möglich das sie etwas langsameren Speicher einsetzen.
svenw
2010-09-01, 08:22:32
Ich find's ja viel lustiger, dass AMD ja soviel von Cypress streichen musste, um von den 4xxm^2 wegzukommen und jetzt mit 15% plötzlich deutlich schneller wäre. So ein Chip hätte man auch schon letztes Jahr bringen können....
War doch eine sehr gute Entscheidung. Als ATI das entschieden hatte war der 40nm Prozeß von TSMC noch extrem instabil. Lieber einen kleineren Chip der produzierbar ist als ein Monster das es nicht ist. NV hat von der Entscheidung so einen Monsterchip aufzulegen nicht wirklich profitiert.
256 oder 384er Speicherinterface: Hat jemand mal ne Münze?
wenns nach Chiphell geht sinds 384
http://forum.beyond3d.com/showpost.php?p=1467217&postcount=1538
tombman
2010-09-01, 10:45:20
Wann ist die off. Vorstellung?
Hugo78
2010-09-01, 10:49:57
wenns nach Chiphell geht sinds 384
http://forum.beyond3d.com/showpost.php?p=1467217&postcount=1538
Schade das es keine HD 6660 geben wird. :devil:
Wann ist die off. Vorstellung?
Im Oktober soll auch jeden Fall was kommen, das wurde schon mehrmals bestätigt, allerdings nach aktuellen Gerüchten kommt High-End später. Abwarten.
Ailuros
2010-09-01, 11:22:46
Ich find's ja viel lustiger, dass AMD ja soviel von Cypress streichen musste, um von den 4xxm^2 wegzukommen und jetzt mit 15% plötzlich deutlich schneller wäre. So ein Chip hätte man auch schon letztes Jahr bringen können...
Und nicht zu vergessen, dass ja hier ein eigentlicher 32nm Chip umgearbeitet wurde. Macht die Story von Anandtech.com noch unglaubwürdiger als sie schon war.
Die Geschichte bei Anand beinhaltete aber auch Einzelheiten wie sideport-Quark die angeblich gestrichen wurde u.a. um die die-area zu reduzieren. Ich bezweifle erstmal dass wir etwas von dem Zeug sehen in SI.
Wie dem auch sei dass 32nm@TSMC gestrichen wurde beinflusst beide grossen IHVs. Im einen Fall hat man noch genug die-area zum verplempern unter 40G um die Leistung weiter zu erhoehen, im anderen ist man so oder so schon am Rand welches die Chancen fuer analoge Leistungs-steigerungen eher zweifelhaft erscheinen laesst.
Das einzige was daran wirklich "lustig" ist, ist dass AMD eben seit 2008 besser geplant hat. Und wenn's schon sein muss AMD's ehemaliger 32nm chip heisst heute Northern Islands :P
schon wieder was neues, schon wieder ein Fake?
http://www.pctunerup.com/up/results/_201009/20100901043701_0000.jpg
Was die alles wissen. Für mich ein klarer Fake. Da wird wohl nur spekuliert.
mironicus
2010-09-01, 16:20:13
Hmm... was bringt wohl das neue UVD3?
schon wieder was neues, schon wieder ein Fake?
http://www.pctunerup.com/up/results/_201009/20100901043701_0000.jpg
Definitiv, wie kommen die zu Ergebnissen bei GTX485/490?
Dural
2010-09-01, 18:57:36
sieht doch ganz ok aus... zwei karten wird es aber garantiert nicht mit dieser leistung geben: GTX460+ (bis heute war die karte auch noch nie im gespräch) und 6970 (40% mehr Leistung als 5970 im selben Prozess dürfte sicher 300Watt+ bedeuten)
Hugo78
2010-09-01, 19:38:30
Die 460+ dürfte dann die spekulierte 468 sein.
Was nun besser klingt und ob die überhaupt kommt, wer weiß.
Grundsätzlich kann man das Diagram als spekulatives Wunschdenken bezeichnen.
Wobei das jetzt garnicht mal so negativ gemeint ist.
Es kann durchaus sein, dass AMD ihren eigenen Werbespot (http://www.youtube.com/watch?v=2QkyfGJgcwQ) im Herbst, ab absurdum führt und
zumindest bei den 2-3 schnellsten Modellen (nennen wir sie mal 6970, 6950, 6870) auf den Verbrauch sche*ßt und einfach nur soviel Performance bringt, wie technisch möglich.
Denn bis zum 28nm dauert es sicherlich nochmal ein Jahr, auch wenn Global Foundries etwas schneller als TSMC am Start sein sollte, selbst dann bleibt immernoch das Problem,
dass sie nicht die Kapazitäten haben, wie der Riese TSMC.
Ich geh eher von einer GTX 475 aus.
davidzo
2010-09-01, 20:21:23
Ich geh eher von einer GTX 475* aus.
*GF104 full sp + clock
mal wieder was neues aus dem B3D Forum
http://forum.beyond3d.com/showpost.php?p=1467504&postcount=1564
Some more info here: http://pclab.pl/news43091.html, from "a little unofficial talk with an AMD worker". You can try to google translate it, but I don't think it will work well. It's also written rather vaguely, so I complied the main points for you:
- improved Cypress architecture, all GPU blocks improved (so shaders too?)
- better performance clock for clock, less power consumption.
- The experience in the 40nm process allows for better organization of the die (and save space - that's what I personaly wondered if possible)
- Better yields allow for more complicated structures
- new UVD 3.0 decoder, with full video playback acceleration for Eyefinity, up to 6 monitors. Overall better decoder.
- no problems with samples of chips and cards, not even with the 6970.
- prototypes might be send to AMD partners in the coming weeks
- AMD wants HD6970 on the market before Xmas (obviously!)
- No worries from competetion, they believe Radeons will reign in DX11 generation
- Aggressive pricing planned, as long as enough cards can be produced. (buy one asap before prices go up! )
- First low-end, then middle, then HD6970.
- HD6800 planed for beginning of 2011, could be earlier though.
- no comment on the rumour AMD would be doing a fusion processor for next Xbox.
- lots of optimizm in the AMD camp
That's all. FWIW applies here and as many grains of salt you need.
mal wieder was neues aus dem B3D Forum
http://forum.beyond3d.com/showpost.php?p=1467504&postcount=1564
"- The experience in the 40nm process allows for better organization of the die (and save space - that's what I personaly wondered if possible)"
Daran habe ich noch gar nicht gedacht. AMD hat ja gesagt das sie irgendwelche Dinger doppelt nehmen mussten weil der 40nm Prozess so schlecht war was angeblich einiges an Transistoren kostet. Deshalb leut AMD auch die Probleme von NV. Das kann man sich jetzt vielleicht sparen und so deutlich an Effizienz gewinnen.
Fetza
2010-09-01, 23:01:50
Es kann durchaus sein, dass AMD ihren eigenen Werbespot (http://www.youtube.com/watch?v=2QkyfGJgcwQ) im Herbst, ab absurdum führt und
zumindest bei den 2-3 schnellsten Modellen (nennen wir sie mal 6970, 6950, 6870) auf den Verbrauch sche*ßt und einfach nur soviel Performance bringt, wie technisch möglich.
Genau davon gehe ich auch aus, auch wenn das viele hier eher anders sehen.
Optimismusmode: 50% Mehrleistung in hohen DS-Auflösungen wären super.
8x Performance und Tessleistung werden wohl aber (leider) im Mittelpunkt stehen. Wenn der Stromverbrauch der 6870 immer noch unter der 470 liegt-was ja eigentlich so sein muss, wenn sie wirklich eine Dualchip-Karte launchen- dann könnte die 6870 echt sehr, sehr interessant werden.
Ich hoffe zudem noch auf DX10/11 SGSSAA ala NVIDIA.
Und wieder was Neues. Momentan ist die Info-Lage derartig konfus und wiedersprüchlich, dass sich unmöglich sagen lässt was uns den nun wirklich erwartet (Kompliment an AMD!). Nun sieht es so aus, dass schon die HD67xx deutlich schneller als ihr Gegenpart aus der HD5k Familie werden könnte und einige gehen sogar davon aus, dass sie leistungsmäßig die HD5850 ablösen könnte. Wenn das eintreffen würde, müsste die HD68xx aber unglaublich schnell sein was aber aufgrund von nach wie vor 40nm nicht möglich erscheint.
http://www.semiaccurate.com/forums/showpost.php?p=64850&postcount=375
Der_Korken
2010-09-02, 00:24:33
Und wieder was Neues. Momentan ist die Info-Lage derartig konfus und wiedersprüchlich, dass sich unmöglich sagen lässt was uns den nun wirklich erwartet (Kompliment an AMD!). Nun sieht es so aus, dass schon die HD67xx deutlich schneller als ihr Gegenpart aus der HD5k Familie werden könnte und einige gehen sogar davon aus, dass sie leistungsmäßig die HD5850 ablösen könnte. Wenn das eintreffen würde, müsste die HD68xx aber unglaublich schnell sein was aber aufgrund von nach wie vor 40nm nicht möglich erscheint.
http://www.semiaccurate.com/forums/showpost.php?p=64850&postcount=375
Dass die 6700 im Vollausbau eine kleinere 5800 nassmachen soll ist nicht unbedingt widersprüchlich. Es steht ja nirgends geschrieben, dass Barts nur ein halber Cayman ist. Es wurde ja schon gemunkelt, ob die 6700 nicht ein 256bit-SI bekommen soll und die 6800 384 bit. Damit würde man diese Chips genau einer möglichen GTX485 und GTX460+ gegenüberstellen, obwohl ich bezweifle, dass ATI so schnell auf einen unerwartet starken GF104 reagieren könnte.
Ich denke dass die 67XX Serie eine gute Karte zum übertakten wird.
Wahrscheinlich werden sie die 67XX Karten relativ niedrig takten, damit die Karten nicht mehr Leistung als 5850 haben werden.
Durch übertakten wird man wahrscheinlich 20% - 30% mehr Grafikleistung rausholen können, und damit an die Leistung einer 5870 herrankommen können.
Hoffentlich verbessern sie endlich die AF Qualität, denn die jetzige AF Qualität hält mich bisher vom kauf ein AMD Karte ab.
Auf Features wie Physx und 3D Vision kann ich verzichten, da ich sie in absehbarer Zukunft sowieso nicht nutzen werde.
Da finde ich Eyefinity4 schon interessanter, da ich drei Monitore nutzen und so eine Grafikkarte im Rechner sparen könnte.
john carmack
2010-09-02, 13:18:53
wenns nach Chiphell geht sinds 384
http://forum.beyond3d.com/showpost.php?p=1467217&postcount=1538
Soll der Speicher (256Bit SI) nicht mit 1500Mhz bzw (DDR) 3000Mhz takten?
Spasstiger
2010-09-02, 13:33:25
Soll der Speicher (256Bit SI) nicht mit 1500Mhz bzw (DDR) 3000Mhz takten?
Du meinst "6000 MHz DDR" bzw. 6 Gbps Datenrate. Wenn man sich auf das DDR-Verfahren bezieht, spricht man ja schon nicht mehr von einem Takt, sondern von einer Datenrate.
Ich denke, dass AMD in 40 nm noch bei einem 256-Bit-SI bleibt und eher den Speichertakt ausreizt. Bis 7 Gbps ist GDDR5 ja auf jeden Fall geplant, das wäre 46% mehr als man aktuell auf Grafikkarten findet.
Ailuros
2010-09-02, 13:55:45
http://forum.beyond3d.com/showpost.php?p=1467315&postcount=1543
IMHO, higher clocked (by ~33%) memory will need less perimeter than wider bus(by 50%).
Wär's nicht möglich dass der Cayman gar ein 512bit SI bekommt?
Es handelt sich ja schliesslich um einen High-End Chip, da muss man seinen Kunden schon etwas besonderes bieten.
Der Gegner heißt GF100, da wäre das breitere SI und Möglichkeit mehr Speicher zu verbrauen ein gutes Verkaufsargument.
Mit nur 256bit SI wär' auch der Abstand zu den Performancekarten mit 256bit zu gering.
wenn die spekus mit 1600 Mhz DDR5 stimmen wird es bei 256 Bit SI bleiben.
Der_Korken
2010-09-02, 20:48:48
Wär's nicht möglich dass der Cayman gar ein 512bit SI bekommt?
Es handelt sich ja schliesslich um einen High-End Chip, da muss man seinen Kunden schon etwas besonderes bieten.
Der Gegner heißt GF100, da wäre das breitere SI und Möglichkeit mehr Speicher zu verbrauen ein gutes Verkaufsargument.
Mit nur 256bit SI wär' auch der Abstand zu den Performancekarten mit 256bit zu gering.
Quatsch, was wollen die denn mit 512bit SI? Das sind +100% Bandbreite bei einem Chip, der realistisch gesehen vielleicht um die 30% schneller sein wird als Cypress. ATI wird, wenn sie können, bei 256 bit bleiben und die Kosten sparen.
Wenn man vom R600 ausgeht, sieht die Sache schon wieder anders aus.;)
Spasstiger
2010-09-02, 23:30:45
Ein 512-Bit-GDDR5-SI wäre alleine schon platztechnisch schwer realisierbar bei einem Chip, der unter 400 mm² groß/klein ist. Man muss die ganzen Daten-, Adress- und Steuerleitungen auch erstmal rausführen.
Weiß hier irgendein Experte auf dem Gebiet, ausgehend von der Situation, dass ATi irgendwann im Sommer 2009 erfuhr, dass die Hd 6000 generation in 40 statt in 32nm produziert wird, ob
a) die Zeit reicht,um ein für 32nm geplantes Design mit 384Bit Speicherbandbreite auf 256BIt zu shrinken.
b) es aufwendiger ist das Interface zu kürzen oder die Einheiten (Shader, TMUs) zu verringern?
Ich könte mir vorstellen, dass Cayman mangels Zeit tatsächlich mit 384Bit kommt, aber vielleicht kann ja jemand obige fragen beantworten.
a) es war nie ein 384 Bit SI geplannt (Samsung liefert seit 2010 DDR5 mit großen Bandbreiten)
b) warum soll man die Shader, TMUs abspecken? RV870 hat 330mm² Chiüfläche. man hat über 50% Spielraum bei der Chipfläche, siehe GF100/GT200.
es bleibt bei 256 Bit SI & 1GB für Cayman
Spasstiger
2010-09-03, 00:16:55
a) die Zeit reicht,um ein für 32nm geplantes Design mit 384Bit Speicherbandbreite auf 256BIt zu shrinken.
Je kleiner die Strukturbreite, desto schmaler ist in der Regel auch das Speicherinterface bei gleichbleibender Transistorzahl, weil immer weniger Diefläche für den Pinout zur Verfügung steht. D.h. wenn überhaupt, dann hätte man mit einem 256-Bit-SI geplant und könnte nun auf 384 Bit umschwenken.
Allerdings hab ich nie davon gelesen, dass Southern Islands je in 32 nm geplant gewesen wäre.
Zumindest war von AMD keine zweite Gen in 40nm geplant, sondern wie schon richtig gesagt in 32nm. Es hat also durchaus eine Planänderung bei AMD gegeben nachdem klar war das TSMC 32nm ersatzlos streicht. Dieser Umstand macht es mMn auch so schwierig Prognosen in jegliche Richtung abzugeben. Ich weiß ja noch nicht mal, ob es den Codenamen Southern-Islands bei AMD intern jemals gab geschweige denn, ob jetzt eben diese Southern-Islands Gen released wird.
Die Meinungen sind da höchst unterschiedlich.
1. Jetzt kommt SI (leicht überarbeitete Evergreen-GPUs) danach NI (neue Architektur) in 28nm
2. Jetzt kommt NI (siehe oben) danach SI (siehe oben) in 28nm
3. Jetzt kommt SI/NI (schon neue Architektur) und danach Shrink auf 28nm
und das sind nur die meistgenannten Spekus.
a) es war nie ein 384 Bit SI geplannt (Samsung liefert seit 2010 DDR5 mit großen Bandbreiten)
b) warum soll man die Shader, TMUs abspecken? RV870 hat 330mm² Chiüfläche. man hat über 50% Spielraum bei der Chipfläche, siehe GF100/GT200.
Schonmal an die Produktionskosten gedacht?
Schonmal an die Produktionskosten gedacht?
Na und, dann fährt AMD die selbe Stragetie wie Nvidia beim Gf100.
[Nvidia CEO thinks] Hmm...if we lose money on every Chip, then we will make up for it in volume.
svenw
2010-09-03, 08:50:06
Schonmal an die Produktionskosten gedacht?
ATI hat kaum eine Wahl. Sie werden größer werden müssen denn 25-30% Mehrleistung (die muß die neue Generation schon bringen) + min. 100% mehr Tesselation geht im gleichen Prozeß nicht ohne mehr Die Verbrauch. Aber ATI hat inzwischen so viel Erfahrung mit dem 40nm Prozeß das sie sich im Bereich perf/Watt wohl keinen solchen Reißer leisten werden wie NV. Das Problem bei NV ist ja auch nicht die große Die Fläche oder der Stromverbrauch sondern das die Leistung/Watt hinten und vorne nicht stimmt. Die Spieler hätten garantiert auch mit einer 500W Karte keine Probleme solange da nur entsprechend Leistung rauskommt.
Ein 512-Bit-GDDR5-SI wäre alleine schon platztechnisch schwer realisierbar bei einem Chip, der unter 400 mm² groß/klein ist. Man muss die ganzen Daten-, Adress- und Steuerleitungen auch erstmal rausführen.
Ich wette dagegen. Wenn ein RV670 mit 192mm² ein 256-bit SI ermöglicht sollte das auch kein Problem sein. R600 war im übrigen auch nicht knapp über 400mm².
Chris2CB
2010-09-03, 10:22:24
Weiß hier irgendein Experte auf dem Gebiet, ausgehend von der Situation, dass ATi irgendwann im Sommer 2009 erfuhr, dass die Hd 6000 generation in 40 statt in 32nm produziert wird, ob
a) die Zeit reicht,um ein für 32nm geplantes Design mit 384Bit Speicherbandbreite auf 256BIt zu shrinken.
b) es aufwendiger ist das Interface zu kürzen oder die Einheiten (Shader, TMUs) zu verringern?
Ich könte mir vorstellen, dass Cayman mangels Zeit tatsächlich mit 384Bit kommt, aber vielleicht kann ja jemand obige fragen beantworten.
Nutz einfach google, bei der Einführung der 5000er Serie gab es viel Verspätung weil AMD nicht genug Wafer geordert hatte und zwischen Bestellung und ausgelierferten Chip liegt sehr viel Zeit.
Man kann nicht auf etwas optimieren was nicht vorhanden ist, was AMD vor 3 Jahren abgeschätzt hat das 32nm Verfügbar ist um dann vor einem Jahr zu sehen das der Chip für 40nm gebaut wird.
Anhand von Interviews, der letzten Jahre sieht man das ein Grunddesign sehr schnell geändert ist, nur bis es an den Prozess angepasst ist dauert sehr lange. AMD hat nie 32nm geplant, sondern nur geschätzt, es könnte auch gut sein das heute schon 28nm zur Verfügung steht und dann????
Wie schnell man für ein Produkt von Planung bis Massenmarkt Auslieferung braucht: siehe 5800FX und dessen Update, siehe HD2900 und dessen Update.
Was ist billiger und besser: 1,5gb/3gb 1000MHz, 384bit oder 1gb/2gb 1500MHz und 256bit.
Dumm nur das ich immer noch Geld für die Karte zahlen muss....:wink:
Nutz einfach google, bei der Einführung der 5000er Serie gab es viel Verspätung weil AMD nicht genug Wafer geordert hatte und zwischen Bestellung und ausgelierferten Chip liegt sehr viel Zeit.
Es gab jetzt schon mehrmals sehr eindeutige Aussagen das Nvidia und Qualcomm als TSMCs größte Kunde bevorzugt werden gegenüber AMD. Zu wenig Wafer bestellt ist einfach Blödsinn, denn es gibt bis heute zu wenig Wafer.
Ailuros
2010-09-03, 11:49:44
Ich wette dagegen. Wenn ein RV670 mit 192mm² ein 256-bit SI ermöglicht sollte das auch kein Problem sein. R600 war im übrigen auch nicht knapp über 400mm².
Seit wann bestehen chips nur aus dem Speicherinterface, oder wie soll ich das jetzt verstehen?
Einfaches Beispiel:
R600= 16 TMUs (420mm2@80nm)
RV670= 16 TMUs (190mm2@55nm)
RV770= 40 TMUs (256mm2@55nm)
RV870= 80 TMUs (334mm2@40nm)
neue GPU-Z Version mit HD6000 Support:
http://www.techpowerup.com/130141/TechPowerUp_Announces_GPU-Z_0.4.6_MSI_GPU-Z_Giveaway.html
The complete list of changes with this version follows.
* Added MSI hardware giveaway
* Fixed temperature readings getting stuck on ADT7473 sensor (GTX 400 cards)
* Fixed broken BIOS reading on all cards
* General improvements to Intel support, still far from perfect
* Added support for ATI FirePro V8750
* Added support for GeForce GTS 455, GTS 450, GT 440, GT 430, GT 420, GT 330, GT218 based ION, GTX 470M, GTX 460M, GT 445M, GT 435M, GT 425M, GT 420M, GT 415M, GeForce 310M
* Added basic detection for AMD Radeon HD 6000 Series
* Improved handling for unknown NVIDIA cards
* Added fan RPM monitoring for NVIDIA cards
.
Man kann nicht auf etwas optimieren was nicht vorhanden ist, was AMD vor 3 Jahren abgeschätzt hat das 32nm Verfügbar ist um dann vor einem Jahr zu sehen das der Chip für 40nm gebaut wird.
Anhand von Interviews, der letzten Jahre sieht man das ein Grunddesign sehr schnell geändert ist, nur bis es an den Prozess angepasst ist dauert sehr lange. AMD hat nie 32nm geplant, sondern nur geschätzt, es könnte auch gut sein das heute schon 28nm zur Verfügung steht und dann????
Ist schon klar, aber Ati hatte doch damals schon sicherlich ein Design, was auf einen bestimmten Prozess, wahrscheinlich 32nm, zugeschnitten ist, und was in dem Prozess nicht zu viel Strom verbraucht und auch keinen zu großen DIE hat.
Meine Frage war daher, ob man dann, wenn das Design im 40nm Prozess zu viel verbraucht und zu groß ist, einfach mal nach dem baukastenprinzip paar Einheiten entfernen kann und gut ist oder ob das sehr aufwendig ist, da man Front- und Backend auch entsprechend verändern muss und quasi ein neues Design für 40nm entwerfen muss.
Noch eine extra Quelle die 256-bit für die 6700-Serie bestätigt, und zwar die für gwöhnlich gut informierten Domaninhaber. Das macht natürlich gleichzeitig auch die 384bit für die 6800 Serie wahrscheinlicher:
http://www.donanimhaber.com/ekran-karti/haberleri/AMD-Radeon-HD-6700-serisi-256bit-bellek-veri-yolu-destegi-ile-gelecek.htm
Der_Korken
2010-09-03, 14:36:22
Ich wette dagegen. Wenn ein RV670 mit 192mm² ein 256-bit SI ermöglicht sollte das auch kein Problem sein. R600 war im übrigen auch nicht knapp über 400mm².
Ich meine mich zu erinnern, dass GDDR5 beim Pinout mehr Platz braucht als seinerzeit GDDR3/4. ATI zumindest hat beim RV770 behauptet, sie hätten ihn nicht kleiner als ~250mm² bekommen, weil sonst das 256bit-SI nicht mehr gepasst hätte. Und außerdem, selbst wenn ATI auf ihrem Chip 512 bit SI unterbringen könnte, was würde es bringen, außer dass es unnötig viel kostet und man sich quasi dazu zwingt beim nächsten High-End Chip wieder auf 512bit zu setzen?
mironicus
2010-09-03, 16:14:07
Interessant: Wenn die HD 6770 einerseits ein 256 BIT-SI und "nur" mit 700 MHz getaktet ist dürfte sie vielleicht auf 5850-Niveau kommen. Viel Übertaktungspotential scheint bei der geringen GPU-Frequenz auch möglich zu sein, leider hat sie dann aber wohl auch zwei PCIe-Stromanschlüsse.
512 Bit Speicheranbindung und GDDR5? Never. Zu gross, zu teuer, unnütz. Speicherdurchsatz reicht auch 256 Bit wenn der Ram hoch genug getaktet ist. Ich bleibe bei meine Einschätzung die neue 6870 wird 25 Prozent über einer 5870 liegen. Sie wird heiss, laut und teurer als eine 480. Tesselation wird nicht gleichauf mit einer 480 sein.
Ich denke eher die Karte wird mindestens 25% über einer GTX480 liegen und durch Erfahrung mit dem Prozess erheblich weniger an Strom benötigen.
ROFL 25 Prozent über! einer 480. Dann müsste ATI mal eben im 40nm Prozess 40 Prozent aufholen und weniger Strom verbrauchen. Das will ich sehen! Der Chip wird dann heftig aufgebläht und das kostet nunmal Strom.
Inqui
2010-09-03, 20:23:11
bei 384 bit kommt das Kärtchen dann mit 1,5GB Ram?
Wenn 384bit dann wird das natürlich so sein.
384 bit würde auch eine Überarbeitung des Speichercontrollers bedeuten, die AMD bisher gescheut hat.
Möglich ist es natürlich, aber ich will's erst schwarz auf weiß sehen :)
davidzo
2010-09-03, 21:09:10
[x] vote für 384 bit auch wenn das angesichts AMDs sparpolitik unrealistisch ist. denke der karte würde es gut stehen endlich mal mit bandbreite um sich schmeißen zu können, nicht so an der leine wie die bisherigen generationen es immer waren.
zudem finde ich 1Gb für eine heutige highendkarte zu wenig, 2gb sehr guten gddr5 wiederrum zu teuer. vote für 1,5GB 384bit !!
nvidia scheint wohl derzeit echt probleme mit dem speichercontroller zu haben... aus demselben speicher wie amd holen sie viel weniger takt raus. und die gtx460 zum beispiel sieht nun nicht so aus als wenn ihr ein wenig bandbreite mehr nicht gut stünde. selbiges bei der gts450, die nichtmal auf 5750 bandbreite kommt, kein wunder dass die karte suckt.
das spricht für never change a winning horse, also 256bit unveränderter speichercontroller bei AMD.
Dir ist aber schon klar, dass RV870 kein Stück bandbreitenlimitiert ist?
Richtig Coda. Da muss man net tunen;)
davidzo
2010-09-03, 21:37:08
Dir ist aber schon klar, dass RV870 kein Stück bandbreitenlimitiert ist?
meistens nicht, ja. aber rv870 ist gelegentlich speicherlimitiert, die 1GB sind irgendwann voll und etwa genauso häufig wie ist er auch mal etwas bandbreitenlimitiert.
schon bei rv770 hat man gesagt dass diese rohpower am 256bit interface ausgebremst wird das nicht so gewaltig schneller als bei rv670 war. bei rv870 hatten wir die geringste steigerung seit jahren. eine GPU sollte nie in den bereich kommen auch nur bandbreitenlimitiert zu werden und genau dort am anfang des bereichs sind wir derzeit mit rv870.
Fetza
2010-09-03, 22:21:02
meistens nicht, ja. aber rv870 ist gelegentlich speicherlimitiert, die 1GB sind irgendwann voll und etwa genauso häufig wie ist er auch mal etwas bandbreitenlimitiert.
schon bei rv770 hat man gesagt dass diese rohpower am 256bit interface ausgebremst wird das nicht so gewaltig schneller als bei rv670 war. bei rv870 hatten wir die geringste steigerung seit jahren. eine GPU sollte nie in den bereich kommen auch nur bandbreitenlimitiert zu werden und genau dort am anfang des bereichs sind wir derzeit mit rv870.
Ähm, irgendwie wiedersprichst du dir da fett krass. Entweder es gibt eine speicherlimitierung, oder eben nicht.
Ganz abgesehen davon, wofür einen guten speichercontroller neu entwickeln, wenn man noch die option der schnelleren speicherchips hat?
Fetter Fettsack
2010-09-03, 22:22:14
VRAM-Überlauf ist aber was anderes als Bandbreitenlimit. :)
davidzo
2010-09-03, 22:22:44
gelegentlich gibts eine, sowohl von der menge als auch von der bandbreite. wie immer je nach anwendungszweck. bei den meisten anwendungen/auflösungen/qualitätssettings reichts noch, bei manchen bricht capress dann ein - und nicht nur wenn es um tess geht, da sind auch ein paar speicerlimitierte szenen dabei, sowohl bandbreitenmangel als auch vram überlauf (was natürlich getrennte phänomene sind, im falle von 384bit aber zusammen in die diskussion treten)...
ATI wird ganz sicher net auf 512 Bit gehen. Das Ding wird dann noch teurer und brutaler. ATI ist Performance kein Enthusiast ala NV.
HarryHirsch
2010-09-03, 22:30:15
Dir ist aber schon klar, dass RV870 kein Stück bandbreitenlimitiert ist?
Hier geht es aber um SI. Wer sagt denn das es da genau so ist?
Stichwort Filterqualität.
Ich weiß nicht ein mal ob die an der Bandbreite hängt... nur so ein Gedanke.
Bandbreite ist kein Problem. Die Filterquali ist das Problem. Also mehr Textureinheiten rein. Bandbreite ist heutzutage kein Problem.
Bessere AF braucht theoretisch schon mehr Bandbreite, weil mehr Textursamples geladen werden müssen.
Allerdings könnte das durch die Caches sogut wie egalisiert werden. Zahlen dazu gibt's natürlich nicht.
HarryHirsch
2010-09-03, 22:38:05
Bandbreite ist kein Problem. Die Filterquali ist das Problem. Also mehr Textureinheiten rein. Bandbreite ist heutzutage kein Problem.
Das die Bandbreite reicht, kann ich mir auch, wenn ich denn will, auch ausrechnen.
Es ging um die Steigerung. Nvidia wird ja nicht umsonst so viel mehr "verblasen". Oder können sie nicht anders?
mapel110
2010-09-03, 22:38:45
Aber im Vergleich zu AA braucht besseres AF doch nur unwesentlich mehr Bandbreite und ist doch meist nur abhängig vom Speed der GPU, dachte ich bisher zumindest immer.
Es ging um die Steigerung. Nvidia wird ja nicht umsonst so viel mehr "verblasen". Oder können sie nicht anders?
GTX 480: 177.4 GB/s
5870: 153.6 GB/s
Das kann ATI ohne weiteres auch durch höher getakteten GDDR5 erreichen.
Aber im Vergleich zu AA braucht besseres AF doch nur unwesentlich mehr Bandbreite und ist doch meist nur abhängig vom Speed der GPU, dachte ich bisher zumindest immer.
Ja, ist auch so. Wie gesagt fangen das die Texture-Caches sehr gut ab.
Bessere AF braucht theoretisch schon mehr Bandbreite, weil mehr Textursamples geladen werden müssen.
Allerdings könnte das durch die Caches sogut wie egalisiert werden. Zahlen dazu gibt's natürlich nicht.
Coda, NV hat auch net ne fette Bandbreite also net besser als ATI und absolute Überlegenheit AF. Also liegts du da falsch.
Wenn du meine Aussagen falsch interpretierst kann ich auch nichts dafür.
Ich helf dir dabei:
Bessere AF braucht theoretisch schon mehr Bandbreite, weil mehr Textursamples geladen werden müssen.
Allerdings könnte das durch die Caches sogut wie egalisiert werden. Zahlen dazu gibt's natürlich nicht.
Die Anzahl der Textureinheiten ist immer entscheidend. Je mehr desto besser.
Die Effizienz ist mindestens genauso entscheidend.
Fermi bringt von seiner theoretischen Textur-Füllrate sehr viel mehr auf den Boden wie Cypress.
HarryHirsch
2010-09-03, 22:48:25
Bessere AF braucht theoretisch schon mehr Bandbreite, weil mehr Textursamples geladen werden müssen.
Allerdings könnte das durch die Caches sogut wie egalisiert werden. Zahlen dazu gibt's natürlich nicht.
Theoretisch und könnte...
Das SI mehr Cache hat sollte klar sein. Nur reicht das?
OK. Ich verstehe nur nicht was Bandbreite des Speichers mit AF zu tun hat.
Nur weil ich den Konjunktiv bei einem zukünftigen Produkt über das ich keinerlei konkrete Specs kenne verwende, heißt das noch lange nicht, dass es nicht so ist.
OK. Ich verstehe nur nicht was Bandbreite des Speichers mit AF zu tun hat.
16:1 AF sampled eine Textur 16x statt 1x trilinear. Ohne Caches würde das 16x mehr Speicherbandbreitenverbrauch bedeuten. Die Caches fangen aber schon immer sehr viel davon ab. Alles aber sicher nicht.
deekey777
2010-09-03, 22:52:09
Ich verweise mal auf Gipsel, der mehrmals schrieb, dass die Bandbreiete der TEX-Caches anscheinend knapp ist, was zum Tricksen beim Filter führt. Der GF100 ist da deutlich besser.
Ich bin halt der Meinung: Mehr Textureinheiten gleich besseres AF.
OK Coda. Danke für die Info. ;)
HarryHirsch
2010-09-03, 22:56:46
Nur weil ich den Konjunktiv bei einem zukünftigen
Produkt über das ich keinerlei konkrete Specs kenne verwende, heißt das noch lange nicht, dass es nicht so ist.
16:1 AF sampled eine Textur 16x statt 1x trilinear. Ohne Caches würde das 16x mehr Speicherbandbreitenverbrauch bedeuten. Die Caches fangen aber schon immer sehr viel davon ab. Alles aber sicher nicht.
Hast du mich damit gemeint? :confused:
Aber wir gehen doch konform das ATI keine 512 Bit Speicheranbindung hat, weil zu teuer. Hoch getakteter GDDR5 Speicher gleicht das aus. Oder?
Ich meine 512 Bit auf 68XX ist sinnlos weils auch billiger geht. Und wie gesagt, ATI sagt selbst Performance.
HarryHirsch
2010-09-03, 23:01:34
Also kann man auch schreiben:
Bessere AF braucht mehr Bandbreite, weil mehr Textursamples geladen werden müssen.
Allerdings wird das durch die Caches sogut wie egalisiert werden. Zahlen dazu gibt's natürlich nicht.
Richtig?
Ich versteh es immer noch nicht. Eine 2900 war auch total mistig bei AF. Bandbreite mehr als genug. Es kommt auf die Architektur an und wie man das managed. Aber AF Qualität an Speicherbandbreite fest zu machen, naja.
Wenn es so kommt, dass AMD besseres AF verbaut, dann wird es wohl so sein, dass sie nicht viel mehr Bandbreite dafür brauchen.
Aber aus dem Fenster lehnen werde ich mich bei beiden Punkten nicht.
Aber AF Qualität an Speicherbandbreite fest zu machen, naja.
Es liegt bei Cypress offenbar an der Cache-Bandbreite. Ich hoffe sie haben das überarbeitet.
Coda, die 2900 war doch mistig bei AF und hatte fette Speicherbandbreite oder?
HarryHirsch
2010-09-03, 23:12:17
Wenn es so kommt, dass AMD besseres AF verbaut, dann wird es wohl so sein, dass sie nicht viel mehr Bandbreite dafür brauchen.
Mehr wollte ich nicht hören.
Es liegt bei Cypress offenbar an der Cache-Bandbreite. Ich hoffe sie haben das überarbeitet.
Bei den ganzen verbugten GPUs davor war das sicher auch der Fall. :freak:
Ich hoffe nur ATI bringt mal besseres AF. Aber das wird wohl erst mit dem Shrink und dem Highend passieren. Ich glaube dieses Jahr wirds nichts mit NV like AF.
Also wenn sie es mit einer neuen Architektur nicht bringen, dann seh ich auch für den Shrink schwarz.
Ja, aber nächstes Jahr kommt doch die neue Architektur, oder Coda? Dieses Jahr wirds wohl halbgar.
mapel110
2010-09-03, 23:20:26
Ich denke eher, dass ATI das AF als gelöst betrachtet, genau wie nvidia. Schöne AF-Blume wird doch überall gefeiert und gut ist.
Ich kaufe mir aber keine ATI solange ich Kopfschmerzen bei längeren Spielesessions bekomme;)
HarryHirsch
2010-09-03, 23:22:34
Ich denke eher, dass ATI das AF als gelöst betrachtet, genau wie nvidia. Schöne AF-Blume wird doch überall gefeiert und gut ist.
Das befürchte ich auch. Wir brauchen nen Flimmertester.
Das Flimmern fällt doch wirklich auf. Das kann man nicht verniedlichen.
Fetza
2010-09-03, 23:24:32
Ich denke eher, dass ATI das AF als gelöst betrachtet, genau wie nvidia. Schöne AF-Blume wird doch überall gefeiert und gut ist.
Wenn ati kein vernünftige filterung bietet mit si,ni, whatever, zumal sie ja eigentlich mittlerweile genügend tmus haben müssten dafür, bleibe ich weiter nvidia kunde. Ganz egal wie schnell eine ati-karte jemals sein wird, ohne vernünftige bildquali kommt mir keine karte in den rechner.
HarryHirsch
2010-09-03, 23:26:24
Das Flimmern fällt doch wirklich auf. Das kann man nicht verniedlichen.
Sag ich ja. :confused: Ich setze mal alles auf Coda.
Ich möchte das ATI bei Filterung NV übertrifft. Dann bin ich ATI Kunde und baue meine 260 als PhysX Karte ein;)
98% der PC-Gamer sehen denn Unterschied beim AF zwischen NV und AMD nicht und deshalb ist es ihnen auch egal und deshalb ist es auch AMD egal und deshalb ist es mir egal.
Übrigens geht es hier um AMD SI und nicht darum wie geil Fermi ist mit seinen Weltbeherrschungs-AF.
Aber mir ist es nicht egal. Stillstand rulez? Not for me!
deekey777
2010-09-03, 23:38:05
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1491-amd-bald-mit-rebranding
Ergibt irgendwie Sinn: Täuschung pur.
Ich möchte das ATI bei Filterung NV übertrifft. Dann bin ich ATI Kunde und baue meine 260 als PhysX Karte ein;)
Übertreffen ist mit dem herkömmlichen, relativ einfach zu implementierenden AF-Sampling (entlang des längeren Gradienten) nicht möglich.
Da müsste man dann schon ausgefallenere Algorithmen, mit entsprechend höherem Transistoraufwand einsetzen.
Coda nicht so pessimistisch! Vielleicht wird ja auch aus ATI was mit der neuen Generatin. Nächstes Jahr meine ich. Dieses Jahr wird leider nur aufgebohrt.
Nächste Generation meinte ich natürlich. Sorry.
Coda nicht so pessimistisch! Vielleicht wird ja auch aus ATI was mit der neuen Generatin. Nächstes Jahr meine ich. Dieses Jahr wird leider nur aufgebohrt.
So wie es bisher aussieht kommen schon mit dieser Generation die neuen Cluster (4D ALUs, etc.). Da sollte das dann schon dabei sein.
Den Filter gescheit filtern lassen ist gar nicht so sehr das Problem, nur muss dann halt auch die Infrastruktur genügend Bandbreite zur Verfügung stellen.
Ach und natürlich führen mehr Samples natürlich auch zu längerer Shaderlaufzeit, falls man es nicht hinter ALU-Aktivität verstecken kann.
Wir wissen nicht wie die neue Architektur aussieht. Fermi ist für mich total anders aufgebaut als der G80. Effizienter, DX11, Tesselation. Alles neu. Abwarten, nächstes Jahr urteilen. Aber dieses Jahr ist "halfbaked". (für ATI)
davidzo
2010-09-03, 23:54:37
256bit oder 384 bit, das ist hier die diskussion. 512bit stand nie zur debatte.
wobei 384bit eigentlich amds philosophie und jeder bisherigen vorabinformation zu cayman xt widerspricht. die gerüchte kommen nur immer wieder hoch, da sich ein anderes gerücht zu barts nämlich verfestigt hat: 256bit gddr5 im mainstream-performancesegment! um den abstand zu waren wäre 384bit für highend dann wieder sinnvoll, daher die diskussion...
512 Bit reine Utopie. Ich glaube net das ATI auf 512 Bit geht. Die Karte wird zu teuer. (384 wäre möglich)
Aber auch egal ob 384 oder 256. Das ist net so wichtig. Woanders muss geschraubt werden.
Volker von Computerbase im Fusion APU thread von der IFA in Berlin:
"Und das mit dem Spy-Kram ist ne gute Idee, über Chinesen und Leaks haben wir auch geredet. Gerade so auch in Bezug auf die kommende Generation an Grakas - darf natürlich nix sagen. Aber die Chinesen vielleicht "
Vielleicht bald mehr bei chiphell:-)
Und? Für mich heisst das die Chinesen Bilder sind fakes.
Hugo78
2010-09-04, 00:09:59
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1491-amd-bald-mit-rebranding
Ergibt irgendwie Sinn: Täuschung pur.
Ich glaub die Meldung ist ne Ente.
Nicht dass ich denke dass AMD nicht schon Rebranding betrieben hat, im Gegenteil, aber diese Meldung klingt wie dumme Augenwischerei.
Zum einen kann man nichts rebranden was man noch garnicht released hat, zum anderen ergibt es keinen Sinn ein SingleGPU Produkt (6870) als MGPU Produkt zuverkaufen (6970).
Das man eine 5770 mit mehr Takt als 6770 verkaufen möchte, wäre möglich, doch sprechen alle aktuellen Gerüchte von einem 256bit SI bei der 6770, dass widerspricht dem reinen OC Rebranding.
Das die Bilder alle Fakes waren war doch klar. Oder hat hier einer dran geglaubt? 25 prozent über 5870 wird die 6870 wahrscheinlich sein. Kann man alles ausrechnen;)
Gast23
2010-09-04, 00:13:43
AMD soll angeblich die 5770 in AMD 6770 umbenennen, weil es nicht genug Barts Chips geben würde.
Die Barts XT Chips sollen für die AMD 6870 verwendet werden.
Das wär' ja eine echte Enttäuschung für alle die auf eine AMD 6770 mit ordentlicher Leistung gehofft haben.
Wir haben neue Informationen über mögliche baldige Änderungen in der Namensgebung bei den Grafikkarten erhalten.
Wie uns einige zuverlässige Quellen durchblicken ließen, könnte man bei AMD bald mit einem neuen Brandingverfahren (Namensgebung) zu Gange gehen. So soll AMD, nach einigen kleinen Anzeichen, die Grafikkartennamen nach einem neuen Namensschema gestalten. Ein Grund dafür könnte sein, dass man nicht genügend HD6700 Grafikkarten hat und sich somit mit einem Rebrand des Juniper-Chips helfen muss.
So könnte bald aus einem Juniper XT, welcher eine HD5770 ist, eine HD6770 werden und aus der geplanten HD6770 (Barts XT) eine HD6870 werden. Zudem haben wir erfahren, dass man bei AMD darüber nachdenke, die HD6970 (Antilles) in eine HD6990 umzubennenen. Was dann nach dem Rebrand mit dem Namen HD6970 geschehen wird, ist leider unklar. Wir könnten uns jedoch vorstellen, dass sich AMD überlege mehrere Grafikkarten mit Dual-GPU mit verschiedener Leistung anzubieten, wobei aus der geplanten HD6870 (Cayman XT) eine neue HD6970 werden könnte. Zudem ist auch eine Möglichkeit gegeben, dass man die HD6970 als Single-GPU-Grafikkarte belässt und die HD6990 nur Multi-GPU sein könnte.
Dieses Vorgehen kennt man ja schon jahrelang von NVIDIA, doch bei AMD könnte es das erste Mal sein. Wie denken Sie über dieses Vorhaben von AMD?
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1491-amd-bald-mit-rebranding
Nächstes Jahr wirds erst interessant, wenn ATI die neue Gen rausbringt. Dieses Jahr wird nur aufgepumpt.
Fetza
2010-09-04, 00:16:32
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1491-amd-bald-mit-rebranding
Ergibt irgendwie Sinn: Täuschung pur.
Findest du? Das würde nur dann sinn machen, wenn barts eine hd5870 schlägt. Das wäre wohl ein ziemlicher hammer und anders könnte amd nicht auf die idee kommen, barts als hd6870 zu verkaufen.
Ach Leute hört mal auf zu träumen und bleibt auf dem Boden. Hört auf meine Worte: 6870 25 Prozent schneller als 5870. Tesselation liegt im Ungewissen.
Hugo78
2010-09-04, 00:22:24
@Fetza
Nach den bisherigen Info, waren die Barts aber "nur" auf dem Level einer GTX 460.
Also man hätte hier den teuren 5830 Abfall, gegen was günstiges ersetzt.
Wenn auch mit teurerem 256bit SI, dafür könnte man am Speicher sparen.
Diese Überlegung ergibt für mich mehr Sinn, als ein reines OC der 5770.
Schon allein weil eine 5770 ja ~1GHz brächte um mit der kleinen 460er mitzuhalten.
Gast23
2010-09-04, 00:23:48
Ups, der link wurde ja schon gepostet.
Wie auch immer, mit der Leistung einer (übertakten) 5770 lockt man heute niemand mehr hinterm Ofen hervor.
Die Karte ist in hohen Auflösungen und AA Einstellungen total Bandbreitenlimitiert. Hoffentlich bleibt das mit dem Rebranding nur ein Grücht.
ATI ist auch net besser als NV. Jetzt muss man sich nach der 460 ins Gespräch bringen. Nächstes Jahr, Leute nächstes Jahr wird ATI als erster am Start sein. Dieses Jahr werden Shader erhöht, Taktrate und Speicherdurchsatz. Erwatet nicht zuviel.
@Fetza
Nach den bisherigen Info, waren die Barts aber "nur" auf dem Level einer GTX 460.
Also man hätte hier den teuren 5830 Abfall, gegen was günstiges ersetzt.
Wenn auch mit teurerem 256bit SI, dafür könnte man am Speicher sparen.
Diese Überlegung ergibt für mich mehr Sinn, als ein reines OC der 5770.
Schon allein weil eine 5770 ja ~1GHz brächte um mit der kleinen 460er mitzuhalten.
Finanziell würde so ein Rebranding der 5770 zu 6770 für AMD schon Sinn machen.
So könnten sie die Karte aggressiv anpreisen und würde trotzdem noch ordentlich Gewinn machen. Ausserdem müssten AMD dann nicht die Preise für die 5800er Serie stark senken.
Denn wenn eine 6770 für unter 200Euro annähernd die Leistung einer 5780 erreichen würde, dann würden wohl nur wenige Leute eine 5870 für über 300 Euro kaufen.
AMD bleibt seiner Linie treu der Discounter der Branche zu sein.
Walmart und Aldi sind gute Vorbilder, wenn man der CEO von AMD ist.
AMD hat ja jetzt schon einen größeren Marktanteil als Intel in China.
Dass der Lebensstandart in den westlichen Nationen sinkt, wird ihnen auch hier zugute kommen.
Halte ich für absoluten Schwachsinn und wird auch nicht passieren. Wie auch schon richtig gesagt müsste Barts dann die HD5870 schlagen bzw. zumindest die gleiche Leistung haben, um als HD6870 verkauft zu werden. Cayman XT dann als HD6970 zu verkaufen macht auch überhaupt keinen Sinn, da man doch gerade erst mit den HD5k dieses neue Namensschema eingeführt hatte und das soll man sich gleich wieder komplett kaputtmachen?
Die Begründung der Preisstabilität der HD5k insbesondere der HD58xx anzuführen, passt auch nicht, denn es gab zu keinem Zeitpunkt und es gibt auch jetzt keine prall gefüllten Lager an Cypress-GPUs. AMD hat im Prinzip jeden GPU der hergestellt wurde auch verkauft.
Leonidas
2010-09-04, 21:54:53
Wir haben neue Informationen über mögliche baldige Änderungen in der Namensgebung bei den Grafikkarten erhalten.
Wie uns einige zuverlässige Quellen durchblicken ließen, könnte man bei AMD bald mit einem neuen Brandingverfahren (Namensgebung) zu Gange gehen. So soll AMD, nach einigen kleinen Anzeichen, die Grafikkartennamen nach einem neuen Namensschema gestalten. Ein Grund dafür könnte sein, dass man nicht genügend HD6700 Grafikkarten hat und sich somit mit einem Rebrand des Juniper-Chips helfen muss.
So könnte bald aus einem Juniper XT, welcher eine HD5770 ist, eine HD6770 werden und aus der geplanten HD6770 (Barts XT) eine HD6870 werden. Zudem haben wir erfahren, dass man bei AMD darüber nachdenke, die HD6970 (Antilles) in eine HD6990 umzubennenen. Was dann nach dem Rebrand mit dem Namen HD6970 geschehen wird, ist leider unklar. Wir könnten uns jedoch vorstellen, dass sich AMD überlege mehrere Grafikkarten mit Dual-GPU mit verschiedener Leistung anzubieten, wobei aus der geplanten HD6870 (Cayman XT) eine neue HD6970 werden könnte. Zudem ist auch eine Möglichkeit gegeben, dass man die HD6970 als Single-GPU-Grafikkarte belässt und die HD6990 nur Multi-GPU sein könnte.
Dieses Vorgehen kennt man ja schon jahrelang von NVIDIA, doch bei AMD könnte es das erste Mal sein. Wie denken Sie über dieses Vorhaben von AMD?
Was für ein absurder Schwachsinn. Eine 5770 als vollwertige 6770? Wie soll das gehen, wenn die 6er Serie generell anders ist, von der fehlenden Leistung der 5770 abgesehen. Eine 6770 als 6870? Da passt zwar die 6er Serie, aber die 5770 wird schwächer als die 5870 sein, ergo soll die gefakte 6870 dann schwächer als die 5870 sein?
Für so einen Schwachsinn gibt es zwei Lösungen: Erstens ignorieren. Oder zweitens Bestätigung einholen und ohne Bestätigung liegenlassen. Aber so was zu veröffentlichen?!
Update: Zahlendreher korrigiert.
Gast23
2010-09-04, 23:01:03
Was für ein absurder Schwachsinn. Eine 5770 als vollwertige 6770? Wie soll das gehen, wenn die 6er Serie generell anders ist, von der fehlenden Leistung der 5770 abgesehen. Eine 5770 als 6870? Da passt zwar die 6er Serie, aber die 5770 wird schwächer als die 5870 sein, ergo soll die gefakte 6870 dann schwächer als die 5870 sein?
Für so einen Schwachsinn gibt es zwei Lösungen: Erstens ignorieren. Oder zweitens Bestätigung einholen und ohne Bestätigung liegenlassen. Aber so was zu veröffentlichen?!
Nein, die 5770 soll laut ATI-Forum nicht als 6870 verkauft werden, sondern als 6770.
Die Chips (Barts XT) die eigentlich für die 6770 vorgesehenen waren sollen als 6870 verkauft werden, da es angeblich Probleme mit der Verfügbarkeit geben würde. Möglich wär's schon.
Mit starker Übertaktung würde eine umbenannte 5770 der GTX 460 nahe kommen, wenn AMD einen Preis von unter 150 ansetzen würden, dann würde die Karte wohl auch Käufer finden. Die meisten Leute kaufen eine Grafikkate nach dem Namen und Preis, ohne erst wochenlang die technischen Details zu studieren.
Gasti
2010-09-04, 23:11:50
Nein, die 5770 soll laut ATI-Forum nicht als 6870 verkauft werden, sondern als 6770.
Die Chips (Barts XT) die eigentlich für die 6770 vorgesehenen waren sollen als 6870 verkauft werden, da es angeblich Probleme mit der Verfügbarkeit geben würde. Möglich wär's schon.
Mit starker Übertaktung würde eine umbenannte 5770 der GTX 460 nahe kommen, wenn AMD einen Preis von unter 150 ansetzen würden, dann würde die Karte wohl auch Käufer finden. Die meisten Leute kaufen eine Grafikkate nach dem Namen und Preis, ohne erst wochenlang die technischen Details zu studieren.
Das würde nur Sinn ergeben, wenn BartsXT schneller als die 5870 währe...
Ich ahlte das Gerücht für BS.
Fetza
2010-09-05, 00:52:14
Das würde nur Sinn ergeben, wenn BartsXT schneller als die 5870 währe...
Ich ahlte das Gerücht für BS.
So siehts aus.
Gast23
2010-09-05, 01:20:19
Das würde nur Sinn ergeben, wenn BartsXT schneller als die 5870 währe...
Ich ahlte das Gerücht für BS.
Wie schnell der Barts XT wird, weiß ja noch niemand genau.
Mit hohen Taktraten könnte er durchaus die Leistung einer 5870 erreichen.
Beim Cayman kann man Fertigungsprobleme nicht ausschliessen.
Na erstmal abwarten bis genauere Infos verfügbar sind, z.Z halte ich beide Varinaten für gleich wahrscheinlich.
Der_Korken
2010-09-05, 01:58:48
Wie schnell der Barts XT wird, weiß ja noch niemand genau.
Mit hohen Taktraten könnte er durchaus die Leistung einer 5870 erreichen.
Der soll nicht mit Ach und Krach irgendwie an die 5870 rankommen, sondern die bitte schön überbieten. Die Vorposter haben schon Recht damit, dass das nur totaler Unsinn sein kann. Es wäre sogar kontraproduktiv, stell dir vor, in den Benches wäre die 6870 ständig hinter der 5870. Dann würde sich überall die Meinung verfestigen, dass die neue 6000er Serie langsamer als die 5000er Serie ist und keiner würde die neuen Karten kaufen.
Leonidas
2010-09-05, 11:30:27
Korrekt. Wäre extreme Negativ-PR für AMD, auf so eine bescheuerte Idee kann man gar nicht kommen.
Wie hoch stehen die Chancen auf HQ-AF, so nVidia-like, bei der HD 6000-Serie?
Die Chancen sind gering, dass es für den Massenmarkt absolut irrelevant ist.
Die Chancen sind gering, dass es für den Massenmarkt absolut irrelevant ist.
Für den Massenmarkt ist SGSSAA noch viel irrelevanter und AMD hat's trotzdem gebracht.
Naitsabes
2010-09-05, 17:59:10
Mit SGSSAA hatte man aber etwas geboten, was die Konkurrenz nicht hat(te), bei HQ-AF würde man "nur" gleichziehen...
Mit SGSSAA hatte man aber etwas geboten, was die Konkurrenz nicht hat(te), bei HQ-AF würde man "nur" gleichziehen...
Nvidia hat SSAA schon viel länger gehabt, das war sicher der Grund warum Ati auch was bringen musste.
Black-Scorpion
2010-09-05, 18:24:13
Nvidia hat SSAA schon viel länger gehabt, das war sicher der Grund warum Ati auch was bringen musste.
Erstens noch immer nicht offiziell. Und zweitens keine SG sondern OG.
Erstens noch immer nicht offiziell. Und zweitens keine SG sondern OG.
Spielt doch keine Rolle.
Black-Scorpion
2010-09-05, 18:36:20
Wenn wenn du meinst das SG oder OG keine Rolle spielt ist das deine Sache.
Die anderen wissen es eben besser.
Wenn wenn du meinst das SG oder OG keine Rolle spielt ist das deine Sache.
Die anderen wissen es eben besser.
Man sollte auch den Zusammenhang verstehn, ich sprach von Supersampling generell und Ati musste hier einfach nachziehn.
Ich habe das Gefühl, dass die Konsolen für eines gut sind: Die IHVs müssen sich Features ausdenken, die den Kauf einer neuen, sauschnellen Grafikkarte rechtfertigen. Ob Crossplattformer 08/15 auf der neuen Generation mit 170 anstatt 120 Fps läuft, ist sowohl Enthusiasten als auch DAU 08/15 egal. Fahren AMD und Nvidia aber Geschütze auf, die die Grafik mithilfe der Rechenleistung zu optischen Höhenflügen treibt, lohnt sich der neue Bolide plötzlich.
Ich denke, das war der Grund für AMD, mit der HD-5000-Serie SGSSAA einzuführen. Nvidia zog durch einen glücklichen Zufall nach; Nvidia bietet zudem PhysX und 3D Vision. Doch was ist der nächste Schritt? Hoffentlich kommt AMD spätestens mit Northern Islands zur Besinnung und liefert (optional) perfektes 16:1 oder noch mehr AF.
MfG,
Raff
Black-Scorpion
2010-09-05, 18:51:40
Man sollte auch den Zusammenhang verstehn, ich sprach von Supersampling generell und Ati musste hier einfach nachziehn.
Ihr tut ja so als ob es SSAA noch nie vorher bei ATI gegeben hätte.
Das gab es schon bei der 8500er und bei Karten für Apple.
Gasti
2010-09-05, 18:59:18
Ich habe das Gefühl, dass die Konsolen für eines gut sind: Die IHVs müssen sich Features ausdenken, die den Kauf einer neuen, sauschnellen Grafikkarte rechtfertigen. Ob Crossplattformer 08/15 auf der neuen Generation mit 170 anstatt 120 Fps läuft, ist sowohl Enthusiasten als auch DAU 08/15 egal. Fahren AMD und Nvidia aber Geschütze auf, die die Grafik mithilfe der Rechenleistung zu optischen Höhenflügen treibt, lohnt sich der neue Bolide plötzlich.
Ich denke, das war der Grund für AMD, mit der HD-5000-Serie SGSSAA einzuführen. Nvidia zog durch einen glücklichen Zufall nach; Nvidia bietet zudem PhysX und 3D Vision. Doch was ist der nächste Schritt? Hoffentlich kommt AMD spätestens mit Northern Islands zur Besinnung und liefert (optional) perfektes 16:1 oder noch mehr AF.
MfG,
Raff
Ob Das die bessere Alternative zu mehr Performance und neueren Grafikfeatures in Spielen wage ich doch sehr zu bezweifeln.
Früher währen solche marginalen Änderungen schlichtweg untergegangen, da es viel spektakulärere Entwicklungen gab.
Der_Korken
2010-09-05, 19:46:39
Ob Das die bessere Alternative zu mehr Performance und neueren Grafikfeatures in Spielen wage ich doch sehr zu bezweifeln.
Früher währen solche marginalen Änderungen schlichtweg untergegangen, da es viel spektakulärere Entwicklungen gab.
Was heißt hier "Alternative zu mehr Performance". Die Performance wird natürlich trotzdem weiter erhöht, aber als zusätzlichen Anreiz könnten die beiden Entwickler sich eben noch mit Features übertrumpfen. Subjektiv habe ich mich mit meiner Graka noch nie so lange "up-to-date" gefühlt wie momentan, zumindest nicht für das kleine Geld, das ich bezahlt hab.
Gasti
2010-09-05, 20:19:37
Was heißt hier "Alternative zu mehr Performance". Die Performance wird natürlich trotzdem weiter erhöht, aber als zusätzlichen Anreiz könnten die beiden Entwickler sich eben noch mit Features übertrumpfen. Subjektiv habe ich mich mit meiner Graka noch nie so lange "up-to-date" gefühlt wie momentan, zumindest nicht für das kleine Geld, das ich bezahlt hab.
Die Performance nimmt aber nicht mehr in dem Maße zu.
Und wenn man sich länger "up-to-date" fühlt dann ist das ein guter Hinweis darauf dass auf Softwareseite der Fortschritt fehlt;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.