PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17

Schlammsau
2010-10-12, 21:13:46
Lag Charlie schon öfters bei ATi Schätzungen deutlich daneben?

y33H@
2010-10-12, 21:14:53
Ja, bei der HD 2900 XT meilenweit und noch weiter.

LovesuckZ
2010-10-12, 21:16:43
Ja. Deutlichst. Siehe DX11 bei AMD und nVidia. Außerdem behauptet er viel in Foren. Im Beyond3d.com sagte er letztes Jahr, dass AMD bei rv770 Size mehr als doppelte Leistung erreichen wird mit Cypress.
Wenn er etwas in irgend einem Forum schreibt, dass sind es nichts weiter als Spekulationen von ihm ohne Quelle. Erst wenn es auf der Hauptseite ist, kann man es irgendwie ernst nehmen.

Schlammsau
2010-10-12, 21:28:43
Wenns zu 99% eh nur Blödsinn ist, dann lasst ihn labern.....

AnarchX
2010-10-12, 21:34:54
Gibt wohl Unterstützer dieser These: http://forum.beyond3d.com/showpost.php?p=1480849&postcount=2897

40nm @ TSMC sind wohl auch nicht mehr der Prozess wie vor 12 Monaten.
Jetzt packt man bei AMD vielleicht schon 7Mio.Tr./mm² ~ 1,4Mrd. @ 200mm².

Ja, bei der HD 2900 XT meilenweit und noch weiter.
Wann hatte Charlie die Die-Size von R600 genannt?

y33H@
2010-10-12, 21:44:41
Wann hatte Charlie die Die-Size von R600 genannt? Schlammi fragte nur nach "Schätzungen" ;) Und Charlies "Schätzungen" zur R600-Performance [und Fermi] waren miserabel.

Schlammsau
2010-10-12, 21:55:07
Also für mich hören sich unter 200mm² reichlich unrealistisch an, wenn die 6870 wirklich irgendwo zwischen der 5850 und 5870 sein soll.
Also beim besten Willen kann ich mir das nicht vorstellen, dass dann auch noch die Tesselationleistung gesteigert werden konnte. Neee......
Wenn Barts aber doch "nur" gegen die GTX460 antritt, wäre es denkbar(er)....

:schulterzuck:

Gast
2010-10-12, 21:55:16
Schlammi fragte nur nach "Schätzungen" ;) Und Charlies "Schätzungen" zur R600-Performance [und Fermi] waren miserabel.

Das ändert nichts daran das er sehr gute Kontakte zu TSMC hat und seine Die-Size Angaben sehr oft auf den Millimeter korrekt sind.

AnarchX
2010-10-12, 21:56:13
Schlammi fragte nur nach "Schätzungen" ;) Und Charlies "Schätzungen" zur R600-Performance [und Fermi] waren miserabel.
Performance-Schätzungen ist das eine, Leute zu kennen die bei TSMC oder den AIBs arbeiten und mal ein Lineal anlegen, ist das andere. ;)

Wer hätte schon gedacht, dass ein R600 mit 512-Bit SI und 64 ALUs so untergeht und auch bei GF100 hätte man sich wohl sehr von den HPC-Slides verwirren lassen können, dass Fermi Tessellation in Software ausführt. Selbst Rys wurde durch die L/S-Einheiten Angaben im HPC-Material vewirrt, dass er dachte GF100 hätte 128 TMUs.

Jedenfalls würde ich doch jetzt stark annehmen, dass Barts deutlich näher an den 200mm2 ist als an 300mm².

Also für mich hören sich unter 200mm² reichlich unrealistisch an, wenn die 6870 wirklich irgendwo zwischen der 5850 und 5870 sein soll.

Wenn das Front-End- und TMU-Durchsatz-Problem sich mit wenigen Mio. Transitoren lösen lässt, wird so eine Performance sehr schnell wahrscheinlich.
960SPs@850MHz sind ~80% mehr MADD-Leistung als bei der GTX 460 und 48 TMUs @ 850MHz bieten etwa 7% mehr Leistung.

Schlammsau
2010-10-12, 22:03:07
Wenn das Front-End- und TMU-Durchsatz-Problem sich mit wenigen Mio. Transitoren lösen lässt, wird so eine Performance sehr schnell wahrscheinlich.
960SPs@850MHz sind ~80% mehr MADD-Leistung als bei der GTX 460 und 48 TMUs @ 850MHz bieten etwa 7% mehr Leistung.

Hmmm.....wenn das wirklich so ist, dann wäre das wirklich extrem beeindruckend von den Ingenieuren.

MR2
2010-10-12, 22:17:31
http://www.brightsideofnews.com/news/2010/10/4/amd-launch-on-the-way2c-dismisses-delay-rumors.aspx

Rumors or not, invited journalists and analysts should receive all the information on the event taking place next week at The Exchange in Los Angeles, CA.

Schlammsau
2010-10-12, 22:19:43
Aber wie passt dann der genannte Preis von 250€ dazu? Das wär ja Leistungsmässig im besten Fall 5850 Niveau, ergo viel zu teuer!

MR2
2010-10-12, 22:21:57
Preise waren vorm Erscheinen doch schon immer Schall und Rauch. Abwarten....

S940
2010-10-12, 22:22:06
Aber wie passt dann der genannte Preis von 250€ dazu? Das wär ja Leistungsmässig im besten Fall 5850 Niveau, ergo viel zu teuer!
Naja, wenns wirklich so kommen sollte (genaues weiss man ja immer noch nicht), dann gibts bestimmt andere Anreize, z.B: Tessellation, oder 3D, oder kleiner Stromverbrauch = leiser Lüfter.

ciao

Alex

AnarchX
2010-10-12, 22:22:19
Vielleicht nur der MSRP am Launchtag, die GTX 460 blieb ja auch nicht bei 219€.
Bei HD 6800 gibt es hoffentlich mal wieder eine normale Preisentwicklung.

S940
2010-10-12, 22:28:19
Bei HD 6800 gibt es hoffentlich mal wieder eine normale Preisentwicklung.Nur wenns ausreichend Stückzahl gibt ... gibts die ? :freak:

Aber wenigstens wird der Run kleiner sein, nachdem der Performanceunterschied nicht so drastisch ausfallen wird.

MR2
2010-10-12, 22:31:46
Jo, denk ich auch. Das Gerammel geht erst bei Cayman kurz vor Weihnachten wieder los:-)

y33H@
2010-10-12, 22:32:11
HD6850 mit 120W TDP [real dann wohl unter 100W] samt 1x 6P und ca. HD5830+ ist schon eine Ansage und coole Mittelklasse.

Schlammsau
2010-10-12, 22:34:01
Ich denke halt, dass eine 6870 sogar für 200€ fast noch zu teuer wäre. Eine GTX460/1GB gibt es ab 167€ :freak:
Da muss ATi aber deutlich mehr bieten als nur 5850 Niveau und verbesserte Tesselationleistung!

y33H@
2010-10-12, 22:37:41
Achtung, Running-Gag!
Da muss ATi aber deutlich mehr bieten als nur 5850 Niveau und verbesserte Tesselationleistung! Gescheites AF? ;D

Gast
2010-10-12, 22:39:29
Achtung, Running-Gag!
Gescheites AF? ;D

Ati ist tot, AMD ;)

Gast
2010-10-12, 22:40:52
Achtung, Running-Gag!


Ja, ja irgendwas muss man sich ja ausdenken wenn man überall vertscheisst. Muhahahhaahahahahhaa

Schlammsau
2010-10-12, 22:41:32
Achtung, Running-Gag!
Gescheites AF? ;D

Klar, und dann rennen alle zur neuen Serie und geben 50€ mehr aus......

Ich bleibe dabei....entweder der spekulierte Preis, oder die spekulierte Leistung stimmt nicht!

derguru
2010-10-12, 22:42:20
naja ich seh zur zeit nv am längeren hebel und wenn es nur preislicher natur ist.die barts werden es schwer haben imho.bis jetzt war amd´s vorteil immer der preis aber das scheint wohl vergangenheit zu sein.

S940
2010-10-12, 22:46:37
Ich bleibe dabei....entweder der spekulierte Preis, oder die spekulierte Leistung stimmt nicht!
Vielleicht waren ja die Taktraten noch nicht final - wer weiss ...

@derguru:
Wenn das mit den ~200mm² stämme hätte ganz eindeutig AMD den längeren .... Hebel ;-)

Gast
2010-10-12, 22:47:44
naja ich seh zur zeit nv am längeren hebel und wenn es nur preislicher natur ist.die barts werden es schwer haben imho.bis jetzt war amd´s vorteil immer der preis aber das scheint wohl vergangenheit zu sein.

Sorry, aber Barts scheint nur halb so groß wie GF104 zu sein, NV ist völlig chancenlos, sie können nur über den Preis gehen. Das AMD einen Preiskampf nicht nötig hat würde ich eher noch als zusätzliches Problem für NV sehen.

Schlammsau
2010-10-12, 22:49:49
naja ich seh zur zeit nv am längeren hebel und wenn es nur preislicher natur ist.die barts werden es schwer haben imho.bis jetzt war amd´s vorteil immer der preis aber das scheint wohl vergangenheit zu sein.

Die Preise der 400 Serie sind aber auch sowas von niedrig.
Da kann doch kein Gewinn mit gemacht werden.
Eine GTX460 für zB 167€....hallo, da ist eine ~350mm² GPU drauf.
Und allzu optimiert düfte der Fertigungsprozess auch noch nicht sein. Dazu ist die GPU noch zu jung.
Dumping (von englisch to dump, abladen), bezeichnet den Verkauf von Waren oder Leistungen unter den Herstellungskosten bzw. den eigenen Kosten.
...was anderes bleibt nVidia ja momentan nicht!

derguru
2010-10-12, 22:50:47
@derguru:
Wenn das mit den ~200mm² stämme hätte ganz eindeutig AMD den längeren .... Hebel ;-)
aber nur dann wenn es sich auch preislich bemerkbar macht,einen käufer interessiert die größe nicht im entferntesten.

Die Preise der 400 Serie sind aber auch sowas von niedrig.
Da kann doch kein Gewinn mit gemacht werden.
Eine GTX460 für zB 167€....hallo, da ist eine ~350mm² GPU drauf.

und auch das interessiert den käufer überhaupt nicht ob nv damit geld macht oder nicht.*schulterzuck*

Gast
2010-10-12, 22:53:35
Sorry, aber Barts scheint nur halb so groß wie GF104 zu sein, NV ist völlig chancenlos, sie können nur über den Preis gehen. Das AMD einen Preiskampf nicht nötig hat würde ich eher noch als zusätzliches Problem für NV sehen.

Nvidia ist doch schon seit dem erscheinen der HD5xxx Serie gar keine konkurrenz mehr.
Jeder mit nem gesunden Menschenverstand weiss das und wird mir recht geben.

Schlammsau
2010-10-12, 22:56:55
und auch das interessiert den käufer überhaupt nicht ob nv damit geld macht oder nicht.*schulterzuck*

Vollkommen richtig, aber die Frage ist, wie lange kann das nVidia durchhalten. Die Kartenpreise fallen ja immernoch, während ATi jetzt erstmal wieder die Launchpreise erreicht hat. :freak:

S940
2010-10-12, 22:57:04
aber nur dann wenn es sich auch preislich bemerkbar macht,einen käufer interessiert die größe nicht im entferntesten.Na Du sprachst von nem längeren Hebel, nicht vom Einstiegspreis.
Der kann gerne höher liegen - versuchen kann mans ja mal, ob der doofe Kunde soviel löhnen will.
Aber ATi kann die Preise bei der spekulierten DIE Größe sehr schnell ändern - und immer noch Gewinn machen ... dann steht aber nVidia doof da, wenn sie Ihren 370mm² Chip nicht ohne Verlust verkaufen wollen. Das nenn ich nen längeren Hebel ...

Nakai
2010-10-12, 23:00:52
Also GF104 ist dem RV870 relativ ebenbürtig...würde NV den Takt hochfahren und alle Einheiten aktivieren. Daran kanns nicht liegen.

Was viele vergessen, wenn Barts bei etwa 200mm² auf HD5850-Niveau kommt, was wäre wohl bei etwa 350mm² möglich? Natürlich ist das nur Speku...

Ich bleibe dabei....entweder der spekulierte Preis, oder die spekulierte Leistung stimmt nicht!

Da stimm ich dir zu.

Die Preise der 400 Serie sind aber auch sowas von niedrig.
Da kann doch kein Gewinn mit gemacht werden.
Eine GTX460 für zB 167€....hallo, da ist eine ~350mm² GPU drauf.
Und allzu optimiert düfte der Fertigungsprozess auch noch nicht sein. Dazu ist die GPU noch zu jung.

Da nicht, da wir viel zu wenig wissen. ;)

Nvidia ist doch schon seit dem erscheinen der HD5xxx Serie gar keine konkurrenz mehr.

Lol, NV hat es deutlich einfacher bei Käuferschicht und bei den OEMs. Die müssen nur ein halbwegs konkurrenzfähiges Produkt rausbringen und schon wirds verkauft. Es geht hier nicht immer um die besseren Karten, sondern auch um Relationships, Ruf und Zuverlässigkeit(hier bei OEMs).


mfg


€: Wenn AMD bei 960SPs etwa auf HD5850-Niveau hinkommt, dann muss bis jetzt einiges schief gelaufen sein...

Schlammsau
2010-10-12, 23:03:50
Was habt ihr an meiner Vermutung auszusetzen?
Das ist in der Marktwirtschaft doch gang und gäbe!!

http://de.wikipedia.org/wiki/Dumping#Siehe_auch
Ein Dumping-Anbieter nimmt stets kurzfristig einen wirtschaftlichen Verlust in Kauf, um längerfristig für ihn selbst positive Folgeeffekte zu erzielen. Es kann verschiedene Ziele geben, ein Wirtschaftsgut zu einem Dumping-Preis anzubieten:

* Marktanteile der Konkurrenz verringern.
* Konkurrenz ganz vom Markt verdrängen, um ein Monopol zu erreichen.
* Den Markteintritt zu erreichen.
* Die Geschäftsanbahnung mit einem bestimmten Kunden, insbesondere im Dienstleistungsbereich.

Das fettgeschriebene trifft hier ja voll und ganz zu.

AnarchX
2010-10-12, 23:06:15
Sicherlich hat die Die-Size etwas mit dem Preis zu tun, aber was nun welcher Hersteller genau bezahlt und wie große der Kostennachteil/vorteil gegenüber einem anderen Hersteller ist, kann man nicht so leicht sagen.

Aber annehmen kann man durchaus, dass AMD etwas mehr Potential hat mit einem ~200mm² Die gegen einen ~360mm2 Die, wenn es auch nur $10 auf der BOM sind und nicht was da charlie vorrechnet.

Schlammsau
2010-10-12, 23:08:01
Sicherlich hat die Die-Size etwas mit dem Preis zu tun, aber was nun welcher Hersteller genau bezahlt und wie große der Kostennachteil/vorteil gegenüber einem anderen Hersteller ist, kann man nicht so leicht sagen.

Aber annehmen kann man durchaus, dass AMD etwas mehr Potential hat mit einem ~200mm² Die gegen einen ~360mm2 Die, wenn es auch nur $10 auf der BOM sind und nicht was da charlie vorrechnet.
Was ist den das teuerste Bauteil einer Grafikkarte? Ich dachte immer die GPU, und dann kommt alles andere.

dildo4u
2010-10-12, 23:08:21
Na Du sprachst von nem längeren Hebel, nicht vom Einstiegspreis.
Der kann gerne höher liegen - versuchen kann mans ja mal, ob der doofe Kunde soviel löhnen will.
Aber ATi kann die Preise bei der spekulierten DIE Größe sehr schnell ändern - und immer noch Gewinn machen ... dann steht aber nVidia doof da, wenn sie Ihren 370mm² Chip nicht ohne Verlust verkaufen wollen. Das nenn ich nen längeren Hebel ...
Dafür ist das PCB bei der 460 768mb billiger das rechnet sich schon.NV ist schon ohne neue ATI Karten mit dem Preis runtergegangen ohne das sie in dem Bereich(150-200€) überhaupt Gegner haben.

Schlammsau
2010-10-12, 23:10:11
Dafür ist das PCB bei der 460 768mb billiger das rechnet sich schon.NV ist schon ohne neue ATI Karten mit dem Preis runtergegangen ohne das sie in dem Bereich(150-200€) überhaupt Gegner haben.

Billiger als was?

LovesuckZ
2010-10-12, 23:10:26
LOL; und was trägst Du konstruktives zum Thema bei ausser uns beide doof von der Seite anzumachen ?
Wenn Du jemanden die Ahnung absprichst, dann untermauere Deine Anschuldigung mit belastbaren Datenmaterial. Ansonsten nimmt Dich doch keiner Ernst.

Falls das natürlich Dein Ziel sein sollte, mach weiter so :freak:

Na, ich kann leider nicht irgendwelche sinnlosen Behauptungen aufstellen.
Es sollte ja ein leichtes für dich oder Schlammsau sein die aktuellen Preise einer "reinen" Karte vor dem Endverkauf zu nennen.
Wobei, dass müsst ihr nichtmal, wird doch in diesem aktive Zensur betrieben, um AMD als Gelbgeber nicht zu vergraulen. :ugly:

AwesomeSauce
2010-10-12, 23:11:22
Was mich viel eher interessieren würde, ist, ob die vermutete Die-Size durch Einsparung von Transistoren am richtigen Ort und/oder durch eine erhöhte Packdichte erreicht wurde.

PS: Der Gast nervt gewaltig!:mad:

AnarchX
2010-10-12, 23:13:02
Was ist den das teuerste Bauteil einer Grafikkarte? Ich dachte immer die GPU, und dann kommt alles andere.
http://www.semiaccurate.com/forums/showpost.php?p=75465&postcount=1317
Laut dieser Rechnung läge die GPU bei 33% der BOM, also die Materialien für die Karte.
Dazu kommen natürlich noch Karton, Zubehör, Garantie-Leistungen, Marge für Hersteller, Distributor und Händler. Und wohl noch einige andere Dinge.
Die Marge für bestimmte Grafikkarten ist bei einigen Händler wohl teilweise geringer, als die für das dazu passende HDMI-Kabel.


Dafür ist das PCB bei der 460 768mb billiger das rechnet sich schon.NV ist schon ohne neue ATI Karten mit dem Preis runtergegangen ohne das sie in dem Bereich(150-200€) überhaupt Gegner haben.
Die 768MiB Karte hat ein 256-Bit PCB mit zwei fehlenden Speicherchips.

dildo4u
2010-10-12, 23:13:10
Billiger als was?
Billiger als ein 256bit PCB.

Die 768MiB Karte hat ein 256-Bit PCB mit zwei fehlenden Speicherchips.
Da fehlt doch die Verdrahtung oder nich?

Schlammsau
2010-10-12, 23:15:01
Billiger als ein 256bit PCB.
Ich rede von der 1GB Version.....
Die 768MB Version kostet momentan 134€.

AnarchX
2010-10-12, 23:15:29
Da fehlt doch die Verdrahtung oder nich?
Nein nur die Speicherchips, es gibt 4 verschieden GF104-Chip-Versionen KA/KB/KC/KD, jede hat eine andere ROP-Partition deaktivert. Deswegen können die Hersteller auch keine feste Konfiguration verdrahten.

dildo4u
2010-10-12, 23:19:29
Nein nur die Speicherchips, es gibt 4 verschieden GF104-Chip-Versionen KA/KB/KC/KD, jede hat eine andere ROP-Partition deaktivert. Deswegen können die Hersteller auch keine feste Konfiguration verdrahten.
Da muss NV aber schon ordentlich was sparen an den Speicherchips,die 768 ist schon von Anfang an ne ganze Ecke billiger als die 1GB Version

AnarchX
2010-10-12, 23:22:23
Da muss NV aber schon ordentlich was sparen an den Speicherchips,die 768 ist schon von Anfang an ne ganze Ecke billiger als die 1GB Version
Imo wird die 192-Bit-Version das Yield deutlich erhöhen, wenn die ROP-Partitionen auf nahezu allen Chips funktionieren würden, müsste man keine 4 Version des 192-Bit Dies verbreiten.

Gasti
2010-10-12, 23:30:24
Kann ich auch was von dem Zeug haben?

S940
2010-10-12, 23:33:13
Na, ich kann leider nicht irgendwelche sinnlosen Behauptungen aufstellen.
Tust Du, denn Du bedienst Dich zum wiederholten Male schon wieder dieser feinen Rhetorik, anderen planlos irgendwas zu unterstellen, anstatt es selbst besser zu machen. Kurz: Du stellst sinnlose Behauptungen auf :freak:

Meines Wissens ist ein ~200mm² Chip billiger herzustellen als ein ~370mm² Chip.

Wenn dem nicht so ist, und Du es besser weist, nur her mit den Argumenten, Links und Kostenrechnungen, ich lerne immer gerne dazu.

Wenn Du nichts zur Diskussion beitragen kannst, dann spam bitte nicht rum, das machen die Gäste schon ganz passabel, die brauchen Deine Hilfe nicht ;-)

Schlammsau
2010-10-12, 23:33:56
Ich muss kein BWL studiert haben, um zu sehen, dass nVidia momentan Dumping betreibt.
Das ist keine Anschuldigung, sondern nur eine Feststellung von mir.

Alle nVidia Karten sind momentan zumeist mehr als deutlich günstiger als die direkte Konkurrenz. ALs Beispiel nenne ich die 470 vs. 5850 bzw. 5870.
Und das bei deutlich grösserem Die, aufwendigerem PCB, mehr Speicherchips, höherwertigeren Spannungversorgung, benötigter Kühlung, etc....alles Punkte die die Karte teurer machen, als die Konkurrenzkarten. Um wieviel, darüber lässt sich streiten.

Ich kann mir beim besten Willen nicht vorstellen, dass eine GTX470 für 220€! das Geld wieder einspielt, was sie in der Herstellung gekostet hat. Und wenn doch, dann hat ATi mit der 5800 Serie, den Gewinn ihres Lebens gemacht.

Aber jetzt wieder b2t!

LovesuckZ
2010-10-12, 23:39:59
Warum sollte ich dir eine Kostenrechnung geben, wenn du derjenige bist, der mit nichtvorhandenen Zahlen irgendwelche Behauptungen aufstellst?
Also nochmal: Wie ist der Endpreis der Karte (bzw. Chip / Chip + Memory) vor dem Verkauf an die AIBs. Das ist im Grunde eine sehr einfache Frage, wenn man über irgendwelche Gewinne, Verluste und Möglichkeiten spricht.

Ich möchte kein hätte, wäre, müsste, könnte, würde hören.

AnarchX
2010-10-12, 23:43:26
Vielleicht auch noch ein interessanter Fakt in Bezug auf die Die-Size.

Alle bisher gezeigten Barts-Sample haben nur einen Crossfire-Connector.
Und auch die Feature-Liste sprach von:
 AMD CrossFireX™ multi-GPU technology5
o Dual GPU scaling3

Da wäre wohl auch noch etwas Die-Space gegenüber Juniper zu sparen.

deekey777
2010-10-12, 23:44:51
Tust Du, denn Du bedienst Dich zum wiederholten Male schon wieder dieser feinen Rhetorik, anderen planlos irgendwas zu unterstellen, anstatt es selbst besser zu machen. Kurz: Du stellst sinnlose Behauptungen auf :freak:

Meines Wissens ist ein ~200mm² Chip billiger herzustellen als ein ~370mm² Chip.

Wenn dem nicht so ist, und Du es besser weist, nur her mit den Argumenten, Links und Kostenrechnungen, ich lerne immer gerne dazu.

Wenn Du nichts zur Diskussion beitragen kannst, dann spam bitte nicht rum, das machen die Gäste schon ganz passabel, die brauchen Deine Hilfe nicht ;-)
Ach komm, diese Diskussion ist sinnlos. Das Totschlagargument ist, dass Nvidia pro Wafer weniger zahlt als AMD. Dumm nur, dass keiner weiß, ob es $5-10 oder $500-1000 sind. Aber Hauptsache ist, dass Nvidia weniger pro Wafer zahlt.

Schlammsau
2010-10-12, 23:47:03
Ach komm, diese Diskussion ist sinnlos. Das Totschlagargument ist, dass Nvidia pro Wafer weniger zahlt als AMD. Dumm nur, dass keiner weiß, ob es $5-10 oder $500-1000 sind. Aber Hauptsache ist, dass Nvidia weniger pro Wafer zahlt.
Du meinst das ist LZs Totschlagargument!?

Sind das Fakten, dass nVidia weniger bezahlt, jetzt mal egal wie viel?

Nakai
2010-10-12, 23:50:35
Ich hab irgendwie so einen optischen Tinnitus.;D

Ich denke Charlie hat was falsch interpretiert. Der kleinste 256bit-Die war etwa bei 190mm², also G71 und RV670. Barts wird wohl etwas über 200mm² liegen. Wieviel ist egal. Wenn er bei 250mm² liegen wird, ist das trotzdem ein beachtlicher Erfolg, seitens AMD.

Warum sollte ich dir eine Kostenrechnung geben, wenn du derjenige bist, der mit nichtvorhandenen Zahlen irgendwelche Behauptungen aufstellst?

Widerlegst du seine Behauptungen? Nein? Gut, dann sollten wir das in die Kiste mit dem großen Fragezeichen stecken.

Alle bisher gezeigten Barts-Sample haben nur einen Crossfire-Connector.
Und auch die Feature-Liste sprach von:
 AMD CrossFireX™ multi-GPU technology5
o Dual GPU scaling3

Da wäre wohl auch noch etwas Die-Space gegenüber Juniper zu sparen.

Naja nur halb. Man kann damit etwas besser mit dem Diesize umgehen. Naja warten wir ab.


mfg


€:

Sind das Fakten, dass nVidia weniger bezahlt, jetzt mal egal wie viel?

Naja, wie immer. Wer weiß?^^

€2: Was muss den Barts haben damit er auf HD5850-Niveau kommt. Besseres Frontend, bessere Backend und etwas mehr Rohleistung.
Cypress ist nicht sooo weit von Juniper entfernt.

Schlammsau
2010-10-12, 23:53:55
Naja, wie immer. Wer weiß?^^

Darauf bezieht sich LZ ja immer, also muss er es wissen. :cool:

deekey777
2010-10-12, 23:56:23
Mein Kenntnisstand ist, dass Nvidia weniger bezahlt als AMD.

LovesuckZ
2010-10-13, 00:02:26
Ich hab irgendwie so einen optischen Tinnitus.;D

Ich denke Charlie hat was falsch interpretiert. Der kleinste 256bit-Die war etwa bei 190mm², also G71 und RV670. Barts wird wohl etwas über 200mm² liegen. Wieviel ist egal. Wenn er bei 250mm² liegen wird, ist das trotzdem ein beachtlicher Erfolg, seitens AMD.

Der kleinste GDDR5 256bit Chip liegt bei knapp 260mm^2. Laut AMD war rv770 pad limitiert. Sie müssten also dieses Problem lösen, um kleiner als 260mm^2 zu sein.


Widerlegst du seine Behauptungen? Nein? Gut, dann sollten wir das in die Kiste mit dem großen Fragezeichen stecken.


Muss ich garnicht, da er keine Datenbasis hat.


€2: Was muss den Barts haben damit er auf HD5850-Niveau kommt. Besseres Frontend, bessere Backend und etwas mehr Rohleistung.
Cypress ist nicht sooo weit von Juniper entfernt.

was soll so kompliziert sein?
Theorie 1: 960 Vec4 ALUs, die 98% Effzienz von Vec5 haben.
Barts hätte bei 900Mhz eine fast identische Rechenleistung, bei 64 TMUs eine 10% höhrere Texturleistung und natürlich mehr Pixelleistung.

Theorie 2: 1280 Vec5 Alus
Bei 900Mhz wären es 24% mehr Rechenleistung, bei jedoch nur 10% höhrerer Texturleistung. Speicherbandbreite in beiden Fällen gleich bis angeblich leicht höher.

In jedem der beiden Fällen hätte Barts einen kleineren Die und ähnliche 5850 bis 5870 Leistung ohne, dass am Front-End irgendwas geändert werden müsste.

AnarchX
2010-10-13, 00:05:52
Der kleinste GDDR5 256bit Chip liegt bei knapp 260mm^2. Laut AMD war rv770 pad limitiert. Sie müssten also dieses Problem lösen, um kleiner als 260mm^2 zu sein.

- 1x Crossfire-Connector
- 1x Crossfire-Sideport
- ~30W TDP

Nakai
2010-10-13, 00:10:44
Der kleinste GDDR5 256bit Chip liegt bei knapp 260mm^2. Laut AMD war rv770 pad limitiert. Sie müssten also dieses Problem lösen, um kleiner als 260mm^2 zu sein.

Okay und was war dann RV670 und G71? ;)

Muss ich garnicht, da er keine Datenbasis hat.


Weißt du wie mir egal das ist? ;)
Nur sollte man jedes Argument auch mit einem Rückhalt irgendwie festigen. ;)

was soll so kompliziert sein?
Theorie 1: 960 Vec4 ALUs, die 98% Effzienz von Vec5 haben.
Barts hätte bei 900Mhz eine fast identische Rechenleistung, bei 64 TMUs eine 10% höhrere Texturleistung und natürlich mehr Pixelleistung.

Theorie 2: 1280 Vec5 Alus
Bei 900Mhz wären es 24% mehr Rechenleistung, bei jedoch nur 10% höhrerer Texturleistung. Speicherbandbreite in beiden Fällen gleich bis angeblich leicht höher.

In jedem der beiden Fällen hätte Barts einen kleineren Die und ähnliche 5850 bis 5870 Leistung ohne, dass am Front-End irgendwas geändert werden müsste.


Entweder 240 4D oder 192 5D bei 960SPs.
Je nach SIMD-Größe kann man mit 48(80SPs und 4 TMU pro SIMD) oder mit 60 TMUs(64 SPs und 4 TMUs pro SIMD).

Entweder 320 4D oder 56 5D bei 1280SPs.
Je nach SIMD-Größe kann man mit 64(80SPs und 4 TMUs pro SIMD) oder mit 80 TMUs(80SPs und 4 TMUs pro SIMD).


mfg

AnarchX
2010-10-13, 00:11:34
Okay und was war dann RV670 und G71? ;)
Konnten die GDDR5? ;) Dieser hat einen höheren Aufwand beim Pinout.

S940
2010-10-13, 00:29:09
Edit:
Ach komm, diese Diskussion ist sinnlos. Das Totschlagargument ist, dass Nvidia pro Wafer weniger zahlt als AMD. Dumm nur, dass keiner weiß, ob es $5-10 oder $500-1000 sind. Aber Hauptsache ist, dass Nvidia weniger pro Wafer zahlt.
Danke für das Argument. Wenn das so wäre, wärs natürlich ein Vorteil pro nV. Gibts da ne offizielle Quelle oder ist das Spekulation ?

Warum sollte ich dir eine Kostenrechnung geben, wenn du derjenige bist, der mit nichtvorhandenen Zahlen irgendwelche Behauptungen aufstellst?
Weil Du die spekulierten Werte in Frage stellst ...
Wenn man das tut begründet man das. Alles andere ist sinnlos.

Also nochmal: Wie ist der Endpreis der Karte (bzw. Chip / Chip + Memory) vor dem Verkauf an die AIBs. Das ist im Grunde eine sehr einfache Frage, wenn man über irgendwelche Gewinne, Verluste und Möglichkeiten spricht. Also nochmal die Barrt GPU ist vermutlich deutlich kleiner, na und wo kommt die GPU drauf ?
Ich möchte kein hätte, wäre, müsste, könnte, würde hören.Dann bist Du hier im Spekulationsforum fehl am Platz.


Gute Nacht

ShadowXX
2010-10-13, 00:36:24
- 1x Crossfire-Connector
- 1x Crossfire-Sideport
- ~30W TDP
Was aber nichts an der mindest Pad-Größe ändert...



Also nochmal die Barrt GPU ist vermutlich deutlich kleiner, na und wo kommt die GPU drauf ?

Selbst wenn Barts tatsächlich nur 250-260mm^2 hat schätzt Ihr den Stückkostenvorteil IMHO etwas zu groß ein.

deekey777
2010-10-13, 00:42:12
Edit:

Danke für das Argument. Wenn das so wäre, wärs natürlich ein Vorteil pro nV. Gibts da ne offizielle Quelle oder ist das Spekulation ?



Gute Nacht
Eine Quelle dafür kenne ich nicht, aber es ist ein so hartnäckiges Gerücht, das man überall findet, auch im B3D. Nur stellen sich nur wenige die Frage, wieviel weniger Nvidia wirklich bezahlt.
Denn: Ist es wirklich ein Vorteil, pro Wafer weniger als die Konkurrenz zu bezahlen, wenn dieser Effekt durch weitere Faktoren egalisiert wird?

Edit: Gute Nacht und logische Träume.

Was aber nichts an der mindest Pad-Größe ändert...
Aber an der Anzahl der Pins?



Selbst wenn Barts tatsächlich nur 250-260mm^2 hat schätzt Ihr den Stückkostenvorteil IMHO etwas zu groß ein.
Nicht "nur", sondern eher "max.".

stickedy
2010-10-13, 00:49:46
Zu bis es wieder hell ist...

AnarchX
2010-10-13, 09:06:47
"Morphing Power Rangers"? Ein neue AA und AF Technologie für HD 6000? (http://gathering.tweakers.net/forum/list_message/34841777#34841777)

Ailuros
2010-10-13, 09:08:50
"Morphing Power Rangers"? Ein neue AA und AF Technologie für HD 6000? (http://gathering.tweakers.net/forum/list_message/34841777#34841777)

Ich bin zu faul einen online translator zu benutzen. Steht weiter in dem Thread etwas handfestes darueber ausser dem MLAA Quark?

AnarchX
2010-10-13, 09:14:27
Es soll im Gegensatz zum PS3 MLAA HW-basierend sein.
Hoffentlich kommt AMD nicht auf die Idee dass AF mit den ALUs zu glätten.

Gast
2010-10-13, 09:37:32
Es soll im Gegensatz zum PS3 MLAA HW-basierend sein.
Hoffentlich kommt AMD nicht auf die Idee dass AF mit den ALUs zu glätten.

hübsch (falls es hier noch nicht bekannt ist)

http://www.iryokufx.com/mlaa/

svenw
2010-10-13, 10:27:36
NV wird wohl wirklich weniger bezahlen, aber alzu viel kann es nicht sein denn TSMC brauchte genauso ATI um ihren Prozeß auszulasten. Bestenfalls für NV dürfte es bei den Chippreisen pari stehen, wobei ich das nicht glaube.

IMHO mach auch die neue Namensgebung von AMD teilweise Sinn, wenn Barts 5850er Niveau erreicht und man dann das Ganze 68XX nennt. Aber 5850 Leistung als 6870 zu verkaufen ist dreist!

Allerdings sehe ich alle X2 Lösungen auf dem absteigenden Ast. Die kommenden Chips werden soviel Strom ziehen das X2 Lösungen kaum mehr zu realisieren sind. Und 460X2 /Barts X2 bieten zuwenig Plus um die Nachteile einer Multi GPU Karte zu rechtfertigen. Damit werden Namensplätze frei die man besetzen kann. und somit dürfte Cayman als 69XX antreten.
Der Nachteil des rumgemurkses dürfte sein, das man bei den 7x Karten wieder das Ganze Schema umschmeißen darf.

mironicus
2010-10-13, 11:09:46
Immer wieder diese neuen Info-Brocken:

"Neues AF-Filtering", "neues Crossfire"...

Immerhin sind das zwei Bereiche, die immer kritisch bei AMD gewesen sind.

igg
2010-10-13, 11:12:27
"neues Crossfire"...
Das hör ich schon seit RV670... neues Crossfire, keine Mikroruckler mehr, ...

AnarchX
2010-10-13, 11:14:45
RV770 hatte ja einen Crossfire-Sideport, mit dem man sich wohl eine Verbesserung versprach.

deekey777
2010-10-13, 11:15:52
Es soll im Gegensatz zum PS3 MLAA HW-basierend sein.
Hoffentlich kommt AMD nicht auf die Idee dass AF mit den ALUs zu glätten.
Was soll da in HW gemacht werden? MLAA ist ein Postprocessing-Filter, dafür verbaut man doch keine extra FF-Einheiten. Und da es PP-Filter ist, stellt sich die Frage, ob so ein Vorgehen nicht zu Darstellungsfehlern führt.

AnarchX
2010-10-13, 11:18:45
Wenn das "HW-MLAA" nun zusätzlich weiß, was Polygonkanten sind?

deekey777
2010-10-13, 11:21:47
Wenn das "HW-MLAA" nun zusätzlich weiß, was Polygonkanten sind?
Dafür gibt es doch den Z-Buffer oder Depth-Buffer, oder?

mironicus
2010-10-13, 11:22:59
Wenn die 6000er ein spürbares besseres AF-Filtering hätten - und NVidia etwas leicht übertrifft - wäre das für viele hier bestimmt ein Grund, sich eine neue Karte zuzulegen, oder...? :)

AnarchX
2010-10-13, 11:25:06
Viel besser als HQ-AF geht es eigentlich kaum. Wenn dann muss schon AMD mit einem SGSSAA-Tool kommen, was das LOD auch unter D3D10/11 anpasst. ;D

Dafür gibt es doch den Z-Buffer oder Depth-Buffer, oder?
Ich könnte mir ein Mischung aus Edge-Detection-AA und einem leichten MLAA für den Rest des Bildes vorstellen.

Fetza
2010-10-13, 11:33:39
Wenn die 6000er ein spürbares besseres AF-Filtering hätten - und NVidia etwas leicht übertrifft - wäre das für viele hier bestimmt ein Grund, sich eine neue Karte zuzulegen, oder...? :)

Ich glaube hier wären schon alle zufrieden (ausser die nv-fanboys ;)) wenn ati die nv-qualität überhaupt erreichen würde, toppen muss ja überhaupt nicht sein.

boxleitnerb
2010-10-13, 11:34:37
Wenn die Treiber dann noch Downsampling unter Win7 beherrschten...dann würde ich sogar über einen Umstieg nachdenken.

AnarchX
2010-10-13, 12:31:53
Mit 930MHz OCing soll es die HD 6850 mit der GTX 460 aufnehmen können: http://translate.google.de/translate?u=http%3A%2F%2Fitbbs.pconline.com.cn%2Fdiy%2F11978990.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
Offenbar wird man dieses OC-Potential wie auch Nvidia im Marketing-Material anpreisen.

LovesuckZ
2010-10-13, 12:45:30
Mit 930MHz OCing soll es die HD 6850 mit der GTX 460 aufnehmen können: http://translate.google.de/translate?u=http%3A%2F%2Fitbbs.pconline.com.cn%2Fdiy%2F11978990.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
Offenbar wird man dieses OC-Potential wie auch Nvidia im Marketing-Material anpreisen.

Wow - das ist ziemlich erbärmlich...
Was sollte Standard sein? 725Mhz? 750Mhz? Das wäre dann eine Übertaktung von 24 bzw. 28%. Damit hätte die 6850 nur 80% der Leistung einer GTX460 1GB und wäre noch langsamer als die GTX460-768. Also nur knapp auf Juniper Niveau?!
Klingt daher nach fake.

derguru
2010-10-13, 12:48:10
wieviel soll der defaulttatkt der 6850 sein?

ach ok zu spät gesehen,ich sehe das zur zeit so wie schlammsau.

Ich bleibe dabei....entweder der spekulierte Preis, oder die spekulierte Leistung stimmt nicht!

Gast
2010-10-13, 13:05:08
Ich denke mal der ein Leak stimmte (Der auf PCGH wo gesagt wurde 6850 ca. 5830 und 6860 ca. 5850.) Der Folie glaub ich jetzt mal, denn die Anzeichen verdichten sich dahingehend. Achso, die beiden Karten sind nix für mich, aber für Einsteiger ziemlich interessant (Wenig Stromverbrauch).

Gast
2010-10-13, 13:06:21
Sorry, meinte natürlich 6870;)

Dural
2010-10-13, 13:09:35
naja die GPU ist schon OK, AMD hat wohl einfach die DX11 leistung erhöht / Tesselation und besseres AF das alles kostet natürlich auch "grund" leistung.

von dem her ist das schon OK, ihr müsst die 6000 Serie auch eher als Antwort auf Fermi/400 Serie ansehen...

Wenn der Bart wircklich nur 200mm2 gross ist (was ich nicht glauben kann) dann ist die Leistung schon der hammer!

mironicus
2010-10-13, 13:21:30
Na ja, dann muss aber der Preis schon recht niedrig angesetzt sein (130-140 Euro für 6850 und 170-190 Euro für 6870).

Dural
2010-10-13, 13:23:51
preise kann man immer ändern, das produkt / der chip nicht ;)

AMD sieht da wohl die möglichkeit schnell etwas geld zu machen, man hat mit dem 6870 namen auch eine super möglickeit dazu... den der ruf der 5870 ist super

der dau denkt sich doch nur wenn er eine 6870 im laden sieht: bohhh der nachfolger der 5870 ist da und die war schon super ;) und für "nur" 250.- Euro ist die schneller gekauft als man denkt ;)

Gast
2010-10-13, 13:25:18
Dafür gibt es doch den Z-Buffer oder Depth-Buffer, oder?

Lesen bildet:


The technique is an evolution of the work "Morphological Antialiasing", which is designed for the CPU and unable to run in real time. The method presented here departs from the same underlying idea, but was developed to run in a GPU, resulting in a completely different, extremely optimized, implementation. We shift the paradigm to use texture structures instead of lists, which in turn allows to handle all pattern types in a symmetric way, thus avoiding the need to decompose them into simpler ones, as done in previous approaches. In addition, pre-computation of certain values into textures allows for an even faster implementation.

The algorithm detects borders (either using color or depth information) and then finds specific patterns in these. Anti-aliasing is achieved by blending pixels in the borders intelligently, according to the type of pattern they belong to and their position within the pattern. Pre-computed textures and extensive use of hardware bilinear interpolation to smartly fetch multiple values in a single query are some of the key factors for keeping processing times at a minimum.

derguru
2010-10-13, 13:26:09
Na ja, dann muss aber der Preis schon recht niedrig angesetzt sein (130-140 Euro für 6850 und 170-190 Euro für 6870).
so war es eigentlich gedacht,nur die namensänderung hat dann einiges durcheinander gebracht.

RoNsOn Xs
2010-10-13, 13:27:08
wenn die neuen Juniper (Barts) fast Cypress-Leistung, mit etwaigen Verbesserungen in Dx11 erreichen und günstiger sind, dann ist das ganze doch sehr solide :)

V2.0
2010-10-13, 13:39:44
Das beduetet, dass das Topmodell der SI gut 80% schneller als eine 460 sein kann.

Dural
2010-10-13, 13:41:23
wie kommst du den jetzt auf 80% ???

Bart und Cayman haben je 32ROPs und 256Bit das wird so takt bereinigt nie klappen, erstaunlich ist das Bart XT schon mit 900MHz antreten soll, da bleibt beim Cayman nicht mal beim takt viel übrig und bei einer 1GHz karte dürfte man locker an die 300Watt PCI-E Grenze vorstossen

V2.0
2010-10-13, 13:47:23
Die werden die Diefläche wohl sinnvoll einsetzen.

ShadowXX
2010-10-13, 15:39:43
Ich geh langsam davon aus, das AMD/ATI bei der 6x00-Serie nur auf Kostenoptimierung aus ist. Dazu passt der Barts als 68x0 perfekt (nV hatte im Prinzip ja was ähnliches bei G80 zu G92 gemacht).

Und inzwischen glaube ich auch nicht mehr an einen "Überhammer" Cayman-Chip.
Ja, der wird wohl schneller als ne GTX480 sein, aber IMHO nicht sehr extrem.

Iruwen
2010-10-13, 16:03:03
Ich denke ich werde nie wieder eine Grafikkarte so lange besitzen wie die 5870 :D

Gast
2010-10-13, 16:45:56
Ich geh langsam davon aus, das AMD/ATI bei der 6x00-Serie nur auf Kostenoptimierung aus ist. Dazu passt der Barts als 68x0 perfekt (nV hatte im Prinzip ja was ähnliches bei G80 zu G92 gemacht).

Und inzwischen glaube ich auch nicht mehr an einen "Überhammer" Cayman-Chip.
Ja, der wird wohl schneller als ne GTX480 sein, aber IMHO nicht sehr extrem.

Was ich sehr Schade finde. AMD hätte damit zum wiederholten male die Möglichkeit dank überlegener Architektur den deutlich schnelleren Chip zu bauen, begnügt sich aber immer mit einem Performancechip.

Fetza
2010-10-13, 16:57:08
Was ich sehr Schade finde. AMD hätte damit zum wiederholten male die Möglichkeit dank überlegener Architektur den deutlich schnelleren Chip zu bauen, begnügt sich aber immer mit einem Performancechip.

Da steht der beweis noch für aus. Die bisherigen einschätzungen finde ich nicht sonderlich beeindruckend, eher im gegenteil.

Gasti
2010-10-13, 17:02:28
Was ich sehr Schade finde. AMD hätte damit zum wiederholten male die Möglichkeit dank überlegener Architektur den deutlich schnelleren Chip zu bauen, begnügt sich aber immer mit einem Performancechip.

Warum sollte man das tun?
Für einen viel schnelleren Chip kann man nicht viel mehr verlangen, da die meisten Leute eine deutlich niedrigere Schmerzgrenze haben.
Also lieber Kosten sparen und als Energiesparend gelten.

Gast
2010-10-13, 17:04:26
Da steht der beweis noch für aus. Die bisherigen einschätzungen finde ich nicht sonderlich beeindruckend, eher im gegenteil.

Wo steht der Beweis aus? Das wäre schon mit der jetzigen Architektur locker möglich.

Neocroth
2010-10-13, 17:09:36
Warum sollte man das tun?
Für einen viel schnelleren Chip kann man nicht viel mehr verlangen, da die meisten Leute eine deutlich niedrigere Schmerzgrenze haben.
Also lieber Kosten sparen und als Energiesparend gelten.

Das Prestige. Mit der Performance-Krone verkaufen sich die kleineren GPUs leichter - Marketing heißt das Zauberwort. Und nur all zu viele Kunden springen darauf an.

Gasti
2010-10-13, 17:14:07
Das Prestige. Mit der Performance-Krone verkaufen sich die kleineren GPUs leichter - Marketing heißt das Zauberwort. Und nur all zu viele Kunden springen darauf an.
Ja dazu reicht aber "das Schnellste" und das "viel Schnellere" könnte man auch nicht teurer verkaufen.

AnarchX
2010-10-13, 17:21:08
Fudo will 900/1050MHz für die 6870 bestätigen: http://www.fudzilla.com/graphics/item/20486-radeon-hd-6870-officially-at-900mhz $300 soll die Karte nun kosten.

Neocroth
2010-10-13, 17:29:11
Ja dazu reicht aber "das Schnellste" und das "viel Schnellere" könnte man auch nicht teurer verkaufen.

1. kann man mit dem Preis hoch fahren und die Margen hoch halten, und 2. ahnt AMD vielleicht schon was von einem nVidia-Konter.

Fudo will 900/1050MHz für die 6870 bestätigen: http://www.fudzilla.com/graphics/item/20486-radeon-hd-6870-officially-at-900mhz $300 soll die Karte nun kosten.

Naja, Fudo hat bei mir jetzt nicht so den Status einer vertrauenswürdigen Quelle (da glaub ich ja Charlie noch mehr und das will was heißen). Selbst wenn er Recht haben sollte, das würde eine Performance fast on Par mit der 5870 bedeuten. Meiner Meinung nach eher unrealistisch.

Quaker
2010-10-13, 17:32:34
Schon mal nicht so schlecht :
http://www.hartware.de/news_50162.html
Jetzt würde mich nur noch der Leistungsverbrauch interessieren, weiss man da schon was genaueres?

Gasti
2010-10-13, 17:35:31
1. kann man mit dem Preis hoch fahren und die Margen hoch halten, und 2. ahnt AMD vielleicht schon was von einem nVidia-Konter.


Das hängt allein von der Konkurrenz ab und nein man kann den Preis auch für eine Highendkarte nicht beliebig hochfahren.
Wenn heute eine GTX480 ~400€ kostet sind maximal 450-500 für Cayman möglich, egal wie viel schneller.

Neocroth
2010-10-13, 17:35:55
Schon mal nicht so schlecht :
http://www.hartware.de/news_50162.html


Die Werte sind abgeschrieben von einem User bei Chiphell, der auch keine Belege wie beispielsweise einen Screenshot hat.

Zu dem Beitrag von Gasti: lass es "nur" 500 Euro pro Karte sein - das ist ne Menge Schotter, die man da pro abgesetzter Karte verdient ;) und dass man da noch weit mehr Geld verlangen kann haben uns Karten wie beispielsweise die 8800 Ultra gezeigt, die zwar nur Konkurrenz aus dem eigenen Hause hatte, trotzdem aber unverhältnismäßig teuer war.

Schlammsau
2010-10-13, 17:44:12
300$ bzw € wären viel zu viel Geld für die Leistung. Irgendwas stimmt da nicht!

mironicus
2010-10-13, 17:55:48
Mal nebenbei:
http://geizhals.at/deutschland/a465489.html

Radeon 5870 für 277 Euro! :D

AffenJack
2010-10-13, 18:09:11
Fudo will 900/1050MHz für die 6870 bestätigen: http://www.fudzilla.com/graphics/item/20486-radeon-hd-6870-officially-at-900mhz $300 soll die Karte nun kosten.

Er hats aktualisiert und schreibt werden doch 250$.

Gasti
2010-10-13, 18:11:38
Er hats aktualisiert und schreibt werden doch 250$.

Dann sollte Sie die GTX470 schlagen können.

AffenJack
2010-10-13, 18:22:55
Müsste sie nichtmal, 250$ UVP sind 200€ Straßenpreis hier, wenn nicht die verfügbarkeit da nen strich durch die rechnung macht. Das geht schon gut klar.

Quaker
2010-10-13, 18:24:07
Dann sollte Sie die GTX470 schlagen können.
Bei dem Chip geht es ATi nicht hautpsächlich um die Balkenlänge, sondern auch um den Leistungsverbrauch - ob da eine 470er noch mithalten kann bezweifle ich.

Gast
2010-10-13, 18:32:39
Gegen die GTX470 tritt die 6870 doch nicht an, eine GTX460 OC wie schon oft hier gesagt, ist der Gegner.
Und ja, eine GTX460 FULL mit 800MHz würde eine GTX470 schlagen (klar nur bis 1920*1200*8xAA, darüber hinaus hat die GTX470 die besseren Karten).
900MHz ab Werk, legen wir 50MHz für OC BartsXT noch drauf haben wir gleichstand. Denn die bisherigen 3DMark06 Werte zeigen keine 8000 Punkte unter Extreme für BartsXT.

Gast
2010-10-13, 18:46:58
Gegen die GTX470 tritt die 6870 doch nicht an, eine GTX460 OC wie schon oft hier gesagt, ist der Gegner.
Und ja, eine GTX460 FULL mit 800MHz würde eine GTX470 schlagen (klar nur bis 1920*1200*8xAA, darüber hinaus hat die GTX470 die besseren Karten).
900MHz ab Werk, legen wir 50MHz für OC BartsXT noch drauf haben wir gleichstand. Denn die bisherigen 3DMark06 Werte zeigen keine 8000 Punkte unter Extreme für BartsXT.

Stark übertaktete 460er sind verbrauchstechnisch sogar jenseits der 480er.

LovesuckZ
2010-10-13, 18:49:04
Stark übertaktete 460er sind verbrauchstechnisch sogar jenseits der 480er.

Das würde stimmen, wenn eine GTX480 im Furmark nicht 300 sondern nur 150 Watt verbrauchen würde.

dildo4u
2010-10-13, 18:50:45
Stark übertaktete 460er sind verbrauchstechnisch sogar jenseits der 480er.
Nope.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8321957&postcount=1527

Schlammsau
2010-10-13, 18:56:55
Nope.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8321957&postcount=1527
Auch wenn die 460 stark übertaktet, weniger als ne 480 verbraucht, der Verbrauch ist alles andere als gut. Er ist immernoch miserabel im Vergleich zur Konkurrenz (HD5850 & HD5870)!

http://www.xbitlabs.com/images/video/palit-geforce-gtx460-sonic-platinum-extreme-oc/p460_power.png

dildo4u
2010-10-13, 19:00:05
Auch wenn die 460 stark übertaktet, weniger als ne 480 verbraucht, der Verbrauch ist alles andere als gut. Er ist immernoch miserabel im Vergleich zur Konkurrenz (HD5870)!

http://www.xbitlabs.com/images/video/palit-geforce-gtx460-sonic-platinum-extreme-oc/p460_power.png
Wayne du verglichst OC vs non OC die 5870 kommt locker über 220Watt mit Takt über 1Ghz.(GTX460 675 zu 900Mhz sind 225mhz 5870+225 1075mhz)

Hugo78
2010-10-13, 19:03:27
Xbit-Labs Werte sind ohnehin wertlos, wenn sie nicht von zwei - drei mehr Quellen bestätigt wurden.

Schlammsau
2010-10-13, 19:03:28
Mit über ein Ghz, vernascht eine 5870, eine 480 zum Frühstück und verbraucht dann wohl immernoch weniger als diese. :rolleyes:
Interessiert nicht die Bohne....eine 460 verbraucht im Vergleich zur Konkurrenz deutlich mehr Strom!
Eine auf 900/1800/1100MHz getaktete 460, hat denke ich mal gerade so 5870 Niveau, Tesselation mal aussen vor gelassen.

Gast
2010-10-13, 19:04:15
Wayne du verglichst OC vs non OC die 5870 kommt locker über 220Watt mit Takt über 1Ghz.(GTX460 675 zu 900Mhz sind 225mhz 5870+225 1075mhz)

Wen interessiert das? Die GTX460 braucht den Takt um überhaupt mit der 5870 gleich zu ziehen.

dildo4u
2010-10-13, 19:05:00
Wen interessiert das? Die GTX460 braucht den Takt um überhaupt mit der 5870 gleich zu ziehen.
Die Karte kostet auch 100€ mehr.

Gast
2010-10-13, 19:06:20
Die Karte kostet auch 100€ mehr.

Auch das interessiert nicht, es geht um Leistung/Watt.

Schlammsau
2010-10-13, 19:06:32
Die Karte kostet auch 100€ mehr.

Noch! ;)

LovesuckZ
2010-10-13, 19:09:16
Wundert nicht, dass die AMD Task Force plötzlich Werte von Karten nimmt, die der Gast nichtmal geschrieben hat. Der Gast sprach von 800MHz und nicht 9xxMHz.

MadManniMan
2010-10-13, 19:14:35
Zwei Sachen:

a) an der 5830 sieht man ganz gut: Deaktivieren von Einheiten ist kein Patentrezept zur Verbrauchsreduktion - ein voller GF104 hätte wohl bei selbem Takt ein besseres Performance-Verbrauchs-Verhältnis.


Auch das interessiert nicht, es geht um Leistung/Watt.

b) Aye, dafür müsste man aber "Leistung" noch einmal aufbröseln: Leistung ist für mich Bildqualität x Frames. Die Bildqualität ergibt sich unter anderem bis zu einem gewissen Grad auch aus Samples pro Pixel oder Texel. Es ist nur logisch, dass eine GF104 mehr verbraucht als eine RV870 bei selben FPS, da (siehe der AF-Thread) eine Geforce mehr Samples beim Texturieren nimmt. Sie verrichtet "mehr Arbeit pro Frame" - "darf" also auch mehr verbrauchen.
Ich wünschte, dem Begriff "Leistung" würde mehr kritische Beachtung geschenkt.

deekey777
2010-10-13, 19:16:43
Radeon HD 6870 and 6850 launch Oct 22nd (http://www.fudzilla.com/graphics/item/20485-radeon-hd-6870-and-6850-launch-oct-22nd)
AMD has finally made up its mind about the launch of Barts PRO and XT. These new cores will sport Radeon HD 6870 and 6850 brands, but it looks like that they will end up marginally slower than the original 5870 and 5850.
Fudo meint irgendwo, es ist ein Ersatz für die HD5770.

Fudo will 900/1050MHz für die 6870 bestätigen: http://www.fudzilla.com/graphics/item/20486-radeon-hd-6870-officially-at-900mhz $300 soll die Karte nun kosten.
The US retail price should land somewhere around 250 USD and we guess that 250 euro should be quite realistic price for EU countries that use this currency. We just got word that the price will be closer to €250, not € / $300 as originally reported.

Hugo78
2010-10-13, 19:18:19
Die Leistungsaufnahme ist letzlich ein Sache der Spannung und der Güte der Karte/des Chips.
Es gab auch schon einen Test mit einer 5870 2G, die mit mehr Spannung für einen stabilen Betrieb bei ~1,05 GHz die 480 überholt hat, im Verbrauch.

1,35V warens wenn ich mich nicht täusche.

Gast
2010-10-13, 19:18:49
Zwei Sachen:

a) an der 5830 sieht man ganz gut: Deaktivieren von Einheiten ist kein Patentrezept zur Verbrauchsreduktion - ein voller GF104 hätte wohl bei selbem Takt ein besseres Performance-Verbrauchs-Verhältnis.


An der 5830 sieht man vorallem eins, nämlich Resteverwertung. AMD betriebt die Karte mit sehr hoher Spannung auch auch relativ hohem Takt. Aber trotzdem hat die 5830 kein schlechteres Perf/Watt-Verhältnis als eine GTX460.

Hugo78
2010-10-13, 19:22:44
An der 5830 sieht man vorallem eins, nämlich Resteverwertung. AMD betriebt die Karte mit sehr hoher Spannung auch auch relativ hohem Takt. Aber trotzdem hat die 5830 kein schlechteres Perf/Watt-Verhältnis als eine GTX460.

Bezogen auf die 768mb, ja.
Bei der 460 1G seh ich das aber anders.

Fetza
2010-10-13, 19:25:47
Ich bin mal auf die anstehende preisschlacht zwischen der 6870 und der 470 gespannt.

derguru
2010-10-13, 19:28:58
Ich bin mal auf die anstehende preisschlacht zwischen der 6870 und der 470 gespannt.

ich bin auf vieles gespannt aber nicht auf das.:biggrin:

Dural
2010-10-13, 19:33:42
wie die gtx470 die konkurenz karte zur 6870 wäre............ :rolleyes:

GF104 ist es und nichts anderes!

Hugo78
2010-10-13, 19:36:41
Ich bin gespannt, ob Nvidia die GTX 468/ 475 entlich bringt, als ihren neuen P/L kracher im < 250€ bereich.
So ganz ohne kurzfristige Antwort auf die Barts, wird NV die Zeit bis zum Midlife-kicker doch wohl hoffentlich nicht überwintern wollen.

LovesuckZ
2010-10-13, 19:38:32
Ich bin gespannt, ob Nvidia die GTX 468/ 475 entlich bringt, als ihren neuen P/L kracher im < 250€ bereich.
So ganz ohne kurzfristige Antwort auf die Barts, wird NV die Zeit bis zum Midlife-kicker doch wohl hoffentlich nicht überwintern wollen.

Muss dafür AMD nicht erstmal GF104 schlagen? :confused:
Versagt die Karte unter DX11, dann müssen sie sich nur um Cayman sorgen machen. Mit Lost Planet 2, CIV5 und im November HAWX 2 stehen DX11 Titel an, in denen sich nVidia und AMD messen müssen. Wer hier vorne ist, wird das Mid-Range gewinnen.

Dural
2010-10-13, 19:42:36
du meinst wohl gtx460 ;)

derguru
2010-10-13, 19:44:24
Muss dafür AMD nicht erstmal GF104 schlagen? :confused:
Versagt die Karte unter DX11, dann müssen sie sich nur um Cayman sorgen machen. Mit Lost Planet 2, CIV5 und im November HAWX 2 stehen DX11 Titel an, in denen sich nVidia und AMD messen müssen. Wer hier vorne ist, wird das Mid-Range gewinnen.
selbst die 5er versagen nicht in dx11(spielen),wieso sollten es die 6er tun?und bei den angebenen spielen müssen die sich ganz sicher nicht messen,konsolendreck mit möchtegern dx11 pfad;)

LovesuckZ
2010-10-13, 19:46:42
selbst die 5er versagen nicht in dx11(spielen),wieso sollten es die 6er tun?und bei den angebenen spielen müssen die sich ganz sicher nicht messen,konsolendreck mit möchtegern dx11 pfad;)

Tessellation. Sehr einfach. CIV 5, Lost Planet 2 und HAWX2 setzen darauf. Das sind die neusten DX11 Spiele. Wer hier gewinnt, wird auch beim Kunden gewinnen.
Denn Ausreden ala "DX11 ist ja heute so unnötig" und "Tessellation braucht man nicht" werden in der zweiten DX11 Generation von AMD wohl kaum noch gelten können.

Schlammsau
2010-10-13, 19:51:24
Lost Planet 2? :ulol:

y33H@
2010-10-13, 19:51:31
Civ 5 ist das erste Spiel welches Tessellation wirklich sinnvoll nutzt [nicht nur NPCs und Objekte aufbläht; CMRD2 mal außen vor] und da ist eine GTX 460 gar vor einer HD 5870.

Schlammsau
2010-10-13, 19:52:25
Civ 5 ist das erste Spiel welches Tessellation wirklich sinnvoll nutzt [nicht nur NPCs und Objekte aufbläht; CMRD2 mal außen vor] und da ist eine GTX 460 gar vor einer HD 5870.

Liegt das auch ganz sicher an der Tesselation oder was anderem?

Fetza
2010-10-13, 19:55:00
wie die gtx470 die konkurenz karte zur 6870 wäre............ :rolleyes:

GF104 ist es und nichts anderes!

Wenn du ein bisschen aufgepasst hättest, wüsstest du das die aktuelle performanceschätzungen davon ausgehen, das die 6870 die 1gb 460 klar schlägt. Wenn die 6870 aber etwas unter der 5870 performed, legt sie sich automatisch mit der 470 an. Daher wird nv hier die preise wieder senken müssen.

Tessellation. Sehr einfach. CIV 5, Lost Planet 2 und HAWX2 setzen darauf. Das sind die neusten DX11 Spiele. Wer hier gewinnt, wird auch beim Kunden gewinnen.
Denn Ausreden ala "DX11 ist ja heute so unnötig" und "Tessellation braucht man nicht" werden in der zweiten DX11 Generation von AMD wohl kaum noch gelten können.

Tessellation wird dort bestimmt nur sehr moderat eingesetzt und dafür ist die aktuelle ati generation auch bereits schnell genug.

Civ 5 ist das erste Spiel welches Tessellation wirklich sinnvoll nutzt [nicht nur NPCs und Objekte aufbläht; CMRD2 mal außen vor] und da ist eine GTX 460 gar vor einer HD 5870.

Öhm, irgendwie finde ich civ 5 jetzt nicht gerade grafisch beeindruckend. Was soll die tessellation dort denn bringen?

derguru
2010-10-13, 19:57:19
Civ 5 ist das erste Spiel welches Tessellation wirklich sinnvoll nutzt [nicht nur NPCs und Objekte aufbläht; CMRD2 mal außen vor] und da ist eine GTX 460 gar vor einer HD 5870.
ist auch ohne tess schneller aber die benchmarks von techspot kennste ja selber.

y33H@
2010-10-13, 19:58:19
@ Schlammsau

Nicht zwingend an Tessellation, auch ohne ist eine GTX 460 vor der HD 5870 :ugly: Eventuell wegen Direct Compute oder sonst was, kA.

Gast
2010-10-13, 20:01:27
@ Schlammsau

Nicht zwingend an Tessellation, auch ohne ist eine GTX 460 vor der HD 5870 :ugly: Eventuell wegen Direct Compute oder sonst was, kA.

Tja, genau da haben wir es eben schon wieder. Verwendet man Tesslation in vernünftigen Maße ist die aktuelle AMD Generation schnell genug, am Schluss ist es vermutlich mal wieder nur irgend ein Treiberproblem, an DirectCompute liegt es mit Sicherheit nicht.

Gast
2010-10-13, 20:01:37
Wenn Ati nicht mächtig an der Tesselationsschraube gedreht hat ist Barts für mich eine Enttäuschung. Da nehme ich dann lieber die GTX470 für etwas weniger Geld und bin für die nahe D3D11 Zukunft gerüstet. Wenn man bedenkt das Barts Juniper ersetzen soll finde ich die Preise total überzogen. Und Stromverbrauch juckt mich nicht, ich brauche nicht bei anderen Sachen zu sparen um meine Stromrechnung zu bezahlen.

Gast
2010-10-13, 20:04:02
selbst die 5er versagen nicht in dx11(spielen),wieso sollten es die 6er tun?und bei den angebenen spielen müssen die sich ganz sicher nicht messen,konsolendreck mit möchtegern dx11 pfad;)

Tess Tess Tess klingt wie Musik in meinen Ohren :-)

Iruwen
2010-10-13, 20:07:23
Auch auf die Gefahr hin dass mir LZ gleich ins Gesicht springt, die Tesselation Performance ist doch immer noch nahezu irrelevant. Bei dem geringen Anteil von Karten die da wirklich punkten wird kein Spielehersteller einen Blockbuster Titel voll darauf auslegen sondern das immer sparsam und ergänzend einsetzen. Bei Metro hieß es auch erst dass es an der Tesselation Performance hängt, war aber nicht so und bei Civ 5 liegt es offensichtlich auch nicht daran. Von allen Features die aktuelle Karten bieten interessiert mich persönlich Tesselation noch mit am wenigsten. Da kann man in zwei Jahren nochmal schauen.

Hugo78
2010-10-13, 20:09:15
Muss dafür AMD nicht erstmal GF104 schlagen? :confused:

Na, ich geh davon aus das die 6870 schon bischen mehr als den 5850 Level erreicht, sprich 470.
Wenn sie wirklich so kommt, dabei Preislich aber nach dem Release und / oder sobald die Verfügbarkeit ende November sich bessert, gleich auf mit der GTX 460 1G liegen sollte, dann wirds halt Zeit für einen GF104 Vollausbau.
Die 470 hat halt schlechte Presse, dass macht man auch nicht durch noch so niedrige Preise wett.
Die 470 darf dann ruhig EOL gehen.

y33H@
2010-10-13, 20:10:34
@ #2394

Mal wieder ein Treiber-Problem? Ich hoffe nicht, die hatte AMD schon zu oft für meinen Geschmack. Tessellation in vernünftigen Maße ist Ansichtssache, es gibt viele Möglichkeiten es einzusetzen - NPCs aufblasen gehört nicht dazu. Das Wasser in CMRD2 und LP2 ist eine gute Idee, die Meshes in Civ5 ebenfalls. Ich wünsche mir runde Reifen usw. und ein tesselliertes LoD sowie Tessellation anstelle von POM in der direkten Umgebung des Spielers.

Gast
2010-10-13, 20:11:00
Bei Metro hieß es auch erst dass es an der Tesselation Performance hängt, war aber nicht so und bei Civ 5 liegt es offensichtlich auch nicht daran.

In Metro hängt es stellenweise auch an Tesselation warum die Ati so stark einbrechen. Auf Hardocp gab es doch dazu mal ein Test dazu mit Framesverlauf.

AwesomeSauce
2010-10-13, 20:12:02
Nachdem GF104-GX2 anscheinend vor kurzem gecancelt wurde, dürfte wohl jetzt schon eine vernünftige Anzahl an vollen GF104 bei den AIBs lagern. Vielleicht weiss Ail etwas dazu...

Gast
2010-10-13, 20:12:30
@ #2394

Mal wieder ein Treiber-Problem? Ich hoffe nicht, die hatte AMD schon zu oft für meinen Geschmack.

Da ich das Spiel noch nirgends spielen kann ist mir das aktuell völlig egal. Gut möglich das NV hier wieder mal weiter ist und schon auf Leistung optimiert hat.


Tessellation in vernünftigen Maße ist Ansichtssache, es gibt viele Möglichkeiten es einzusetzen - NPCs aufblasen gehört nicht dazu. Das Wasser in CMRD2 und LP2 ist eine gute Idee, die Meshes in Civ5 ebenfalls. Ich wünsche mir runde Reifen usw. und ein tesselliertes LoD sowie Tessellation anstelle von POM in der direkten Umgebung des Spielers.

Ja und in all deinen Beispielen hat eine aktuelle Radeon keinerlei Probleme.

Schlammsau
2010-10-13, 20:14:54
In Metro hängt es stellenweise auch an Tesselation warum die Ati so stark einbrechen. Auf Hardocp gab es doch dazu mal ein Test dazu mit Framesverlauf.
Nein, das liegt am VRAM!

LovesuckZ
2010-10-13, 20:15:04
Auch auf die Gefahr hin dass mir LZ gleich ins Gesicht springt, die Tesselation Performance ist doch immer noch nahezu irrelevant. Bei dem geringen Anteil von Karten die da wirklich punkten wird kein Spielehersteller einen Blockbuster Titel voll darauf auslegen sondern das immer sparsam und ergänzend einsetzen. Bei Metro hieß es auch erst dass es an der Tesselation Performance hängt, war aber nicht so und bei Civ 5 liegt es offensichtlich auch nicht daran. Von allen Features die aktuelle Karten bieten interessiert mich persönlich Tesselation noch mit am wenigsten. Da kann man in zwei Jahren nochmal schauen.

Bei Metro limitiert die Rechenleistung. Nimmt man Einstellungen, die auch Ingame-nutzbar sind, dann sind nVidia Karten auch aufgrund der besseren Tessellationleistung schneller als AMD Karten.
Bei CIV5 ist die GTX460 bei Techspot mit DX11 low 16% mit DX11 high 25% schneller als die 5870. Auch hier wird die bessere Tessellationleistung dazu benutzt, einen Vorsprung auszubauen. Bei Lost Planet 2 liegt die GTX460 mit ganzen Schnickschnack (DC geht auf die Rechenleistung) immerhin noch auf 5870 Niveau.

Tessellationleistung ist eben nicht irrelevant. Vorallem, wenn die zweite DX11 Generation von AMD ins Haus steht und die nächsten DX11 Spiele mit Tessellationunterstützung kommen.

Schlammsau
2010-10-13, 20:17:07
@ #2394

Mal wieder ein Treiber-Problem? Ich hoffe nicht, die hatte AMD schon zu oft für meinen Geschmack. Tessellation in vernünftigen Maße ist Ansichtssache, es gibt viele Möglichkeiten es einzusetzen - NPCs aufblasen gehört nicht dazu. Das Wasser in CMRD2 und LP2 ist eine gute Idee, die Meshes in Civ5 ebenfalls. Ich wünsche mir runde Reifen usw. und ein tesselliertes LoD sowie Tessellation anstelle von POM in der direkten Umgebung des Spielers.
Wieso Treiberproblem?
Es gibt und es wird immer Spiele geben, die mal dem einen oder dem anderen Hersteller mehr liegen. Civ5 und LP2 bevorzugen halt nVidia!
Beim letzteren wissen wir ja warum. ;)

Dirt2 zB liegt auch unter DX11 mit Tesselation mehr den Radeons, in Metro hält die HD5000 Serie (mit mehr als 1GB VRAM) auch gut dagegen.

Gast
2010-10-13, 20:21:25
Nein, das liegt am VRAM!

Nein, auch so ist eine Nvidia klar schneller.

Leonidas
2010-10-13, 20:21:40
Auch wenn die 460 stark übertaktet, weniger als ne 480 verbraucht, der Verbrauch ist alles andere als gut. Er ist immernoch miserabel im Vergleich zur Konkurrenz (HD5850 & HD5870)!

http://www.xbitlabs.com/images/video/palit-geforce-gtx460-sonic-platinum-extreme-oc/p460_power.png


Wenn ich eine Messung aufstellen würde, wo eine unübertaktete Karte 141W zieht und eine übertaktete Karte gleich 237W, würde ich mir zuerst die Frage stellen, wo der Fehler in meiner Messung liegt.

Gast
2010-10-13, 20:22:56
Wenn ich eine Messung aufstellen würde, wo eine unübertaktete Karte 141W zieht und eine übertaktete Karte gleich 237W, würde ich mir zuerst die Frage stellen, wo der Fehler in meiner Messung liegt.

Mit den deutlich mehr Spannung welche die Karte bekommt und derart mehr Takt ist das keineswegs unrealistisch.

Jake Dunn
2010-10-13, 20:23:23
Civ5 und LP2 bevorzugen halt nVidia!


Nö alles unter GTX4xx versagt komplett in Civ5 ;)

Schlammsau
2010-10-13, 20:24:37
Nein, auch so ist eine Nvidia klar schneller.
Tatsächlich?
http://www.hardwareheaven.com/reviews/965/pg7/sapphire-radeon-hd-5870-2gb-toxic-review-metro-2033.html

Es liegt bei Metro am Speicher. 1GB ist zu wenig für Metro mit allen Details. ;)

y33H@
2010-10-13, 20:25:22
Wieso Treiberproblem?kA, das haben zwei Gäste von sich gegeben.
Es liegt bei Metro am Speicher.Die Displacement-Maps kosten Speicher?

Gast
2010-10-13, 20:26:40
Keine Ahnung, warum die NV Drohnen wieder von einer schlechten AMD Civ 5 Performance sprechen:

http://www.techspot.com/review/320-civilization-v-performance/page5.html

Klar, vermutlich geht noch was bei AMD, aber Probleme gibt's keine und das Tempo ist für so ein Spiel mehr als ausreichend.

Grauenhaft ist nur die Performance aller NV Karten, die nicht auf Fermi basieren. Aber die sind ja offenbar schon aus den Gedächtnissen der NV Fans verschwunden (oder es wird bewusst der Mantel des Schweigens darübergelegt). Aber klar, da muss es Probleme bei AMD geben..... Ist ja auch üblich, dass eine HD 4850 eine GTX 285 vernascht.

Gast
2010-10-13, 20:26:41
Tatsächlich?
http://www.hardwareheaven.com/reviews/965/pg7/sapphire-radeon-hd-5870-2gb-toxic-review-metro-2033.html

Es liegt bei Metro am Speicher. 1GB ist zu wenig für Metro mit allen Details. ;)

http://hardocp.com/image.html?image=MTI3NjUwODcxOUM2TDR1YThEUFhfNF80X2wucG5n

Spielbarkeit...nicht Balken ;) Und der VRAM limitiert sicher nicht

Schlammsau
2010-10-13, 20:26:48
Wenn ich eine Messung aufstellen würde, wo eine unübertaktete Karte 141W zieht und eine übertaktete Karte gleich 237W, würde ich mir zuerst die Frage stellen, wo der Fehler in meiner Messung liegt.
Die Karte ist doch (stark) overvoltet!
Anders kommt die doch nicht auf diesen Takt.

y33H@
2010-10-13, 20:28:49
Keine Ahnung, warum die NV Drohnen wieder von einer schlechten AMD Civ 5 Performance sprechen: Wenn eine GTX 460 gleich 19% vor einer HD 5870 liegt, ist die AMD-Performance schlecht. Und die GT200 und früher sind beschi**en in Civ 5 ;D

Vento
2010-10-13, 20:29:26
Keine Ahnung, warum die NV Drohnen wieder von einer schlechten AMD Civ 5 Performance sprechen:

http://www.techspot.com/review/320-civilization-v-performance/page5.html

Klar, vermutlich geht noch was bei AMD, aber Probleme gibt's keine und das Tempo ist für so ein Spiel mehr als ausreichend.

Grauenhaft ist nur die Performance aller NV Karten, die nicht auf Fermi basieren. Aber die sind ja offenbar schon aus den Gedächtnissen der NV Fans verschwunden (oder es wird bewusst der Mantel des Schweigens darübergelegt). Aber klar, da muss es Probleme bei AMD geben..... Ist ja auch üblich, dass eine HD 4850 eine GTX 285 vernascht.

Bei dem Benchmark @ 1680x1050, den du da rausgesucht hast, bist du auch im CPU Limit.
http://s10.directupload.net/images/101013/jn9pa5vg.jpg (http://www.directupload.net)

Schlammsau
2010-10-13, 20:30:23
Gibt es eigentlich noch andere Civ5 Benchmarks?

Gast
2010-10-13, 20:32:08
[QUOTE=Vento;8325342]Bei dem Benchmark @ 1680x1050, den du da rausgesucht hast, bist du auch im CPU Limit.


Ist das ernst gemeint? Wenn ja, weißt Du leider nicht, was ein CPU Limit ist.

hmx
2010-10-13, 20:32:32
Wenn ich eine Messung aufstellen würde, wo eine unübertaktete Karte 141W zieht und eine übertaktete Karte gleich 237W, würde ich mir zuerst die Frage stellen, wo der Fehler in meiner Messung liegt.


Jop. Bei HT4U zieht eine GTX460 im Furmark ca ca 170 Watt und eine mit 870MHz 195 Watt.

y33H@
2010-10-13, 20:33:09
@ Schlammsau

Ich habe intern welche, die in Richtung denen von Techspot gehen, aber nicht so krass.

S940
2010-10-13, 20:34:06
Liegt das auch ganz sicher an der Tesselation oder was anderem?
Ja - an der engen Zusammenarbeit mit nvidia ;-)
Ohne irgendwelche Unfairnis zu unterstellen, würde ich wie üblich erst mal die nächsten 2-3 Catalyst Treiber abwarten, dann sieht man weiter.

Im Moment weiss man nur, dass die nV Treiber optimal arbeiten.

y33H@
2010-10-13, 20:37:04
Im Moment weiss man nur, dass die nV Treiber optimal arbeiten. Optimal? Da geht vll noch mehr ;)

Der Troll ist btw echt ne lästige Nummer, Respekt vor so viel "Trolltum".

Black-Scorpion
2010-10-13, 20:37:20
Ist halt wie immer. Wenn es einem nicht passt muss eben eine andere Seite her die der eigenen Meinung eher entspricht. Das Karte nicht gleich Karte ist, ist dabei auch egal.

Neocroth
2010-10-13, 20:42:02
ich würde vorschlagen, den Thread bis Tagesanbruch wieder dicht zu machen...

Schlammsau
2010-10-13, 20:44:14
@ Schlammsau

Ich habe intern welche, die in Richtung denen von Techspot gehen, aber nicht so krass.
Na dann bitte veröffentlichen! :)

y33H@
2010-10-13, 20:46:09
Ist unvollständig, unter 10 Karten geh ich nicht raus ;-)

Schlammsau
2010-10-13, 20:47:14
Jop. Bei HT4U zieht eine GTX460 im Furmark ca ca 170 Watt und eine mit 870MHz 195 Watt.
Ist die auch massiv overvoltet worden? Was ja zweifelsfrei gemacht werden muss, damit eine 460 - 900Mhz GPU-Takt erreicht.

Hugo78
2010-10-13, 20:48:30
ich würde vorschlagen, den Thread bis Tagesanbruch wieder dicht zu machen...

Spielverderber, Spassbremse!!!... :biggrin:

Aktuell ist die Voraussage der 3DC News von gestern,
http://www.3dcenter.org/news/2010-10-12
auch meine, weil sie einfach logisch klingt.

Sollen wir jetzt tatsächlich noch 1,5 Wochen warten, bis AMD das entlich bestätigt, plus die Gerüchte über den Engpass bei der Verfügbarkeit bis Mitte/ende November?!

Och nööö.... :biggrin:

Gast
2010-10-13, 20:50:03
Ich hoffe inständig, dass AMD das AF nun auch in HQ anbietet. Mir reicht der aktuelle Filter zwar aus, aber etwas nicht zu können, ist bekanntlich kein Vorteil. Zudem würde es auch den Wind aus den Segeln der Nörgler nehmen; alleine das wäre es wert.

S940
2010-10-13, 20:50:55
Optimal? Da geht vll noch mehr ;)
Sicherlich wird noch platz für Finetuning sein, aber mehr als ~10% gibt das nicht her, die ATi Treiber sind dagegen 0 optimiert, da könnten ~30% oder so drin sein. Je nachdem halt.

Natürlich auch möglich, das aus welchen Gründen auch immer 0 geht, aber für das schlussendliche Fazit sollte man ATi halt noch die Chace auf Optimierungen geben und die nächsten Cat. Treiber abwarten.
Der Troll ist btw echt ne lästige Nummer, Respekt vor so viel "Trolltum".Respekt hab ich da nicht, eher Mitleid. Der Type muss echt arm dran und gelangweilt sein, wenn er mit seiner Zeit nichts besseres anzufangen weiss.

y33H@
2010-10-13, 20:54:37
@ S940

Könnte sein, dass AMD an den HD6k werkelt und Civ5 erst mal liegen lässt. Das wäre zwar nicht im Sinne der (aktuellen) Kunden, aber wer weiß. Die Zeit wird es zeigen, NV ist aktuell (mal wieder?) vorne. Der Troll hat das btw wochenlang bei CB durchgezogen, bei PCGH ist er angemeldet (http://extreme.pcgameshardware.de/members/53531-bagerr.html)und bereits auffällig geworden und hier im 3DC ist er extrem lästig. Arme Mods ...

Schlammsau
2010-10-13, 20:56:36
@ S940

Könnte sein, dass AMD an den HD6k werkelt und Civ5 erst mal liegen lässt. Das wäre zwar nicht im Sinne der (aktuellen) Kunden, aber wer weiß. Die Zeit wird es zeigen, NV ist aktuell (mal wieder?) vorne. Der Troll hat das btw wochenlang bei CB durchgezogen, bei PCGH ist er angemeldet (http://extreme.pcgameshardware.de/members/53531-bagerr.html)und bereits auffällig geworden und hier im 3DC ist er extrem lästig. Arme Mods ...

Musst du wieder Sticheln?

y33H@
2010-10-13, 20:57:18
Muss ich, ja. Weil halt leider Fakt ;(

S940
2010-10-13, 20:57:32
@ S940

Könnte sein, dass AMD an den HD6k werkelt und Civ5 erst mal liegen lässt. Das wäre zwar nicht im Sinne der (aktuellen) Kunden, aber wer weiß.
Wäre natürlich auch ne Möglichkeit, mal schauen, was sie "treiben" :)
Der Troll hat das btw wochenlang bei CB durchgezogen, bei PCGH ist er angemeldet (http://extreme.pcgameshardware.de/members/53531-bagerr.html)und bereits auffällig geworden und hier im 3DC ist er extrem lästig. Arme Mods ...Wochenlang ?? OMG ... was für ein armer Kerl muss das sein :(

@Schlammsau:
Passt doch, im Moment hat er ja recht und mit dem Fragezeichen ist das doch ok. Gibt weitaus Schlimmeres ^^

Schlammsau
2010-10-13, 20:59:03
Muss ich, ja. Weil halt leider Fakt ;(
Ein halbes Jahr war ATi in Führung, dann kam die 400er Serie, jetzt hat nVidia leichte Performance- bzw. vor allem Preisvorteile.

Warten wir die HD6000 Serie ab!

Black-Scorpion
2010-10-13, 21:02:06
Muss ich, ja. Weil halt leider Fakt ;(
Dein Fakt oder allgemeiner Fakt? Deine Fakten sind ja zur genüge bekannt. Und vor allem sind sie immer so neutral.

horn 12
2010-10-13, 21:03:12
Bleibt Bitte beim Thema

Nun meiner Meinung nach wird Barts Pro knapp unter HD5850, die HD6870 knapp unter HD5870 ansiedeln, mit OC dürften beide die Vorgängerkarten "überflügeln" oder zumindest Gleichziehen.

Daher auch die Namensgebung HD6870/ 6850 und diese Bezeichnung richtet sich Hauptsächlich auf die gesteigerte Tesselation Leistung.

Nun, für 200+ bis 250+ Euro sicherlich TOP Karten und der GTX 460 1GB vorzuziehen.

Hugo78
2010-10-13, 21:04:06
Ja, was denkt ihr denn über die Caymans? (um mal wieder Ontopic zugehen)

Aktuell hört man garnichts, und wenn ich die, für mich glaubhaften Gerüchte so bewerte, ist für mich grade mal ein GTX 480 + 10% Level, für die HD 6970 drin.

Bezeichnend ist auch, dass hier aktuell nur von irgendwann November/ Dezember für die Verfügbarkeit spekuliert wird.
Als ob AMD hier auch Probleme hat, die Caymans mit vernünftiger Yield zuliefern.
Zumindest noch....

Bucklew
2010-10-13, 21:05:49
Sicherlich wird noch platz für Finetuning sein, aber mehr als ~10% gibt das nicht her, die ATi Treiber sind dagegen 0 optimiert, da könnten ~30% oder so drin sein. Je nachdem halt.

Natürlich auch möglich, das aus welchen Gründen auch immer 0 geht, aber für das schlussendliche Fazit sollte man ATi halt noch die Chace auf Optimierungen geben und die nächsten Cat. Treiber abwarten.
Wie war das noch mit dem PCGH-Vergleich, dass die Nvidia-Treiber über die Zeit eine höhere Performanceverbesserung hatten als die ATI-Treiber? :uponder:

puntarenas
2010-10-13, 21:07:36
Leute, ich finde das wirklich zum Kotzen. Die Beiträge dieses Schwachkopfes zu löschen, anstatt den Thread einfach zu schließen, macht keinen Spass. Trotzdem möchte ich, dass ihr euch hier so gut es geht ungestört unterhalten könnt.

Hört bitte auf, auch noch auf den Troll einzugehen und mit ihm oder über ihn zu reden. Damit schenkt ihr ihm genau die Aufmerksamkeit, die er sucht und als Motivationsfutter braucht. Wenn ihr das Phänomen "Trolle" allgemein besprechen wollt, macht das im Off-Topic Bereich. Beiträge mit Trollfuttergehalt werde ich ab hier komplett trashen.

Thema hier: Southern Islands GPUs (wohl 40 nm, 2010)

S940
2010-10-13, 21:08:24
Wie war das noch mit dem PCGH-Vergleich, dass die Nvidia-Treiber über die Zeit eine höhere Performanceverbesserung hatten als die ATI-Treiber? :uponder:
Is mir neu, ich kann mich nur an Aussagen von y33H erinnern, dass die 4870er Karten tüchtig zugelegt haben.
So oder so ist das für den Civ Fall eh egal, denn da hat nVidia ja sicherlich nen Vorsprung aufgrund der Zusammenarbeit - d.h. Dein Argument - so es denn stimmen sollte - passt nicht.

MadManniMan
2010-10-13, 21:08:25
Die Karte ist doch (stark) overvoltet!
Anders kommt die doch nicht auf diesen Takt.

1,07 vs 1,03 V AFAIR :|

BlackBirdSR
2010-10-13, 21:09:49
So dann haben wir den Exkurs Richtung GTX460 und Civ5 sowie Metro dann genossen? ;)

Ich glaube wir sollten wieder auf das Thema zurück kommen.

Dural
2010-10-13, 21:10:50
Wenn du ein bisschen aufgepasst hättest, wüsstest du das die aktuelle performanceschätzungen davon ausgehen, das die 6870 die 1gb 460 klar schlägt. Wenn die 6870 aber etwas unter der 5870 performed, legt sie sich automatisch mit der 470 an. Daher wird nv hier die preise wieder senken müssen.


wenn du etwas ahnung hättest dann wüstest du das die GTX460 noch lange nicht das mögliche des GF104 ist... :rolleyes:

ich widerhole mich wohl schon zum gefühlten 10x zwischen GF104 und RV870 liegen in sachen Leistung und Verbrauch nicht viel im grunde genommen so gut wie gar nichts, ein GF104 @ 384SP @ 750MHz dürfte kaum mehr verbrauchen (ca. 25Watt mehr) als die standard GTX460 aber bei GTX470 Leistung

die GTX470 wird NV nie gegen die 6870 stellen, die jetztige GTX470 dürfte so wie so bald EOL sein... aber so wie es derzeit scheint behält NV bewusst sachen zurück, entweder weil man noch auf die GF100 448SP verkäufe angewissen ist oder man auf AMD warten will um so die eigene Produkte besser anzupassen, oder natürlich auch beides zusammen. Selbst die GTX460 hätte schon früher im handel erscheinen können...

Bucklew
2010-10-13, 21:18:04
Warten wir die HD6000 Serie ab!
Selbst wenn: Der Vorsprung der 6000er Serie wird (zeitlich) sehr marginal sein ;)

Schlammsau
2010-10-13, 21:18:42
... aber so wie es derzeit scheint behält NV bewusst sachen zurück,....
Oder sie bekommen es momentan einfach nicht besser hin, und sie müssen die GPUs teildeaktivieren. Ist dir das schonmal in den Sinn gekommen?

Dural
2010-10-13, 21:20:30
beim GF100 kann das durch aus stimmen, aber bei den GF104 und co gibt es dazu überhaupt keine anzeichen!

Zudem der GF104 in so grossen mengen für die GTX460 Hergestellt wird das NV sicher sehr gute selektions möglichkeiten hat, schon eben nur durch die pure menge!

Schlammsau
2010-10-13, 21:21:02
Selbst wenn: Der Vorsprung der 6000er Serie wird (zeitlich) sehr marginal sein ;)
Wie kommst du zu dieser Aussage, weisst du etwa wie schnell Hemlock wird oder wann nVidia die nächste Generation released?

Bucklew
2010-10-13, 21:21:28
Wie kommst du zu dieser Aussage, weisst du etwa wie schnell Hemlock wird oder wann nVidia die nächste Generation released?
Letzteres ja ;D

y33H@
2010-10-13, 21:23:03
Dein Fakt oder allgemeiner Fakt?Allgemein. AMD hatte in den letzten Jahren beim Release von AAA-Titeln mehr Probleme als AMD. Aber halt, puntarenas sagte ja, ich solle kein Motivationsfutter für Trolle liefert - sorry, Black-Scorpion :redface:

Is mir neu, ich kann mich nur an Aussagen von y33H erinnern, dass die 4870er Karten tüchtig zugelegt haben.Check: Geforce GTX 280 vs. Radeon HD 4870: Launch-Treiber versus aktuelle Treiber im Test (http://www.pcgameshardware.de/aid,698272/Geforce-GTX-280-vs-Radeon-HD-4870-Launch-Treiber-versus-aktuelle-Treiber-im-Test/Grafikkarte/Test/)Rein rechnerisch über alle sechs Spiele hinweg legt die Geforce GTX 280 satte 33 Prozent an Leistung zu, wenn der Geforce 191.07 statt dem 177.41 zum Einsatz kommt. Ohne den Ausreißer Crysis Warhead sind es allerdings "nur" noch 23 Prozent. AMD steht dem kaum nach und entlockte der Radeon HD 4870/1G bis heute 23 Prozent mehr Fps. Tendenziell nutzen die Treiberentwickler bei Nvidia durch ihre Arbeit mehr brachliegendes Potenzial bei ihren Grafikkarten als die Kollegen von AMD/Ati. Wie unsere Entwicklung der Treiber zeigt, sind die Geforce-Treiber etwas weniger fehleranfällig. AMD wie Nvidia leisten bei ihrer Treiber-Optimierung insgesamt gute Arbeit, allerdings braucht dies Zeit - die Grafikkarte "reift" beim Kunden. Womit wir wieder bei der aktuellen Generation wären: Ihr volles Potenzial zeigt die Radeon-HD-5000-Serie derzeit wohl noch nicht. Aber das wird sich ändern - ein Grund mehr für Nvidia, sich mit der neuen Generation zu beeilen.Wobei das natürlich auch auf die Spiele, Settings usw. ankommt - immer im Hinterkopf halten.

Gestrandet
2010-10-13, 21:33:30
zuerst das ...
Civ 5 ist das erste Spiel welches Tessellation wirklich sinnvoll nutzt [nicht nur NPCs und Objekte aufbläht; CMRD2 mal außen vor] und da ist eine GTX 460 gar vor einer HD 5870.
und dann das:
@ Schlammsau

Nicht zwingend an Tessellation, auch ohne ist eine GTX 460 vor der HD 5870 :ugly: Eventuell wegen Direct Compute oder sonst was, kA.
:rolleyes:
dabei liegt der grund auf der hand, wieder mal ein fall von TWIMTBP-syndrom. wenn man schon keine vernünftige hardware auf die beine bekommt, muss man eben schauen, dass man die software anderer kaputtprogrammiert.

die gründe für die äußerungen mancher pressevertreter würden mich da viel mehr interessieren.

y33H@
2010-10-13, 21:36:51
die gründe für die äußerungen mancher pressevertreter würden mich da viel mehr interessieren. Wenn du "Äußerungen" präzisierst, findet sich vll einer. Ich nicht, ich bin Privatperson.

LieberAal
2010-10-13, 21:39:12
Letzteres ja ;D
Wieder so genau, wie du über das Fermi-Erscheinungsdatum Bescheid gewusst hast?

Gast
2010-10-13, 21:50:32
wenn du etwas ahnung hättest dann wüstest du das die GTX460 noch lange nicht das mögliche des GF104 ist... :rolleyes:

ich widerhole mich wohl schon zum gefühlten 10x zwischen GF104 und RV870 liegen in sachen Leistung und Verbrauch nicht viel im grunde genommen so gut wie gar nichts, ein GF104 @ 384SP @ 750MHz dürfte kaum mehr verbrauchen (ca. 25Watt mehr) als die standard GTX460 aber bei GTX470 Leistung



das ist doch völliger quatsch. muss man denn hier immer unbedingt was behaupten oder schätzen.
Wenn wenigstens richtig geschätzt werden würde.... .
Ein GF104@750Mhz wird sogar 60-70 Watt mehr verbrauchen.

Der GF104 ist immernoch auch was Watt pro Fps betrifft merkbar ineffizienter als der RV870, wenn auch nicht mehr so schlimm wie der GF100.

Vielmehr wird NV da auch nicht mehr optimieren können mit der Fermi Architektur. 64 Shader in einem Cluster verbessern vlt die Effizienz, wobei die Tesselationleistung darunter leicht leiden würde, was aber zu vernachlässigen wäre.

ShadowXX
2010-10-13, 22:05:02
Auch das interessiert nicht, es geht um Leistung/Watt.

Der GF104 ist immernoch auch was Watt pro Fps betrifft merkbar ineffizienter als der RV870, wenn auch nicht mehr so schlimm wie der GF100.

Mal ganz ernsthaft: Leistung/Watt sind ab 150 Euro Karten sowas von egal.
Ob ich nun 20 Euro mehr pro Jahr für Karte X ausgeben muss als für Karte Y kümmert mich ehrlich gesagt einen Dreck.

Einsparungen die wirklich was bringen kann man im Haushalt ganz woanders machen. IMHO ist die ganze Leistung/Watt Diskussion eine reine Alibi-Diskussion.

Wie kommst du zu dieser Aussage, weisst du etwa wie schnell Hemlock wird oder wann nVidia die nächste Generation released?
Die finalen Taktraten für GF110 stehen fest, d.h. dieser Chip befindest sich schon in Produktion (siehe AiL im GF104 Thread)....
Laut Roadmap kommt der Chip in Q1/2011....vorher kommt auch Cayman nicht.

Bucklew
2010-10-13, 22:10:10
Wieder so genau, wie du über das Fermi-Erscheinungsdatum Bescheid gewusst hast?
Ja.

MadManniMan
2010-10-13, 22:20:52
Der GF104 ist immernoch auch was Watt pro Fps betrifft merkbar ineffizienter als der RV870

Nochmal: "FPS" für sich allein ohne feste Definition sind noch nicht sehr viel Wert. Nur, um dem Vorzubeugen: ich bin kein Nvidiot, werde nie einer sein; zu meinen "subjektiven" Zeiten war ich erst 3Dfx, dann ATi-Anhänger.

Es ist aber nunmal so, dass aktuelle Erkenntnisse darauf hin deuten, dass AMD auf Kosten der Qualität - wenn auch nur marginal im sichtbaren Bereich! - den benötigten Aufwand "pro Frame" reduziert. Erhöhe den Aufwand, den Du in die Berechnung eines Bildes steckst und Du benötigst freilich mehr Energie, um diesen zu bewältigen.

Ich weiß, dass dieser Gedankengang vielleicht auf den ersten Blick etwas abenteuerlich erscheint, aber der GF104 läuft weder am Limit, noch dreht er irgendwelche unsichtbaren Extrarunden.

Und nun straft mich bitte Lügen!

Gast
2010-10-13, 22:21:30
Ich nicht, ich bin Privatperson.

Was Du und andere Redis hier diesbezüglich ablassen, grenzt schon an Multiple Persönlichkeitsstörung. Als PCGH_Werauchimmer brav und gesittet, als Privatperson stichelnd und provozierend. Das kommt mir auch jedes Mal in den Sinn, wenn ich die PCGH lese.
Auch wenn Du 10 Accounts hast, Du bleibt die eine und vor allem selbe Person dahinter.

Auch seltsam mutet die Unterscheidung zwischen RL (echtes Leben) und dem Herumtreiben in Foren an. Ist das denn nicht auch echtes Leben?

Man ist nicht jemand anderes, bloß weil man sich anders nennt.
Jedes Posting, egal von wem es stammt, ist eine Visitenkarte der wahren Person, die sich (im Internet) dahinter versteckt/verbirgt.

Fetza
2010-10-13, 22:25:59
wenn du etwas ahnung hättest dann wüstest du das die GTX460 noch lange nicht das mögliche des GF104 ist... :rolleyes:

Oho - na da haben wir ja scheinbar was gemeinsam, nee? ;). Dein fanboygehabe macht es nicht besser und so oft wie du hier mit den augen rollst, könnten sie dir bald noch ausfallen. ;)

ich widerhole mich wohl schon zum gefühlten 10x zwischen GF104 und RV870 liegen in sachen Leistung und Verbrauch nicht viel im grunde genommen so gut wie gar nichts, ein GF104 @ 384SP @ 750MHz dürfte kaum mehr verbrauchen (ca. 25Watt mehr) als die standard GTX460 aber bei GTX470 Leistung

Wenn man wiederholt das falsche sagt, wird es dadurch nicht richtiger. Das performance pro watt verhältnis ist und bleibt schlechter. Es hilft auch nicht phantasieprodukte ins feld zu führen. So lange wie es keine ankündigung für einen vollausbau des gf104 gibt, kannst du behaupten was du willst, das macht es noch nicht als produkt zur realität.

Nachtrag: Es liegt wohl in der natur der sache, das man einen chip der teildeaktiviert ist auch mit weniger kernspannung betreiben kann. Und genau umgekehrt verhält es sich dann auch mit einem chip im vollausbau, ergo wird er mehr kernspannung anlegen, oder weniger takt bieten. Von daher wird ein vollausbau des gf104 auch ne ecke mehr aus der leitung ziehen, als ein teildeaktivierter.

die GTX470 wird NV nie gegen die 6870 stellen, die jetztige GTX470 dürfte so wie so bald EOL sein... aber so wie es derzeit scheint behält NV bewusst sachen zurück, entweder weil man noch auf die GF100 448SP verkäufe angewissen ist oder man auf AMD warten will um so die eigene Produkte besser anzupassen, oder natürlich auch beides zusammen. Selbst die GTX460 hätte schon früher im handel erscheinen können...

Sie scheint aktuell das produkt zu sein, was performancetechnisch mit der hd6870 konkurrieren kann. Preislich betrachtet liegt sie längst in dem rahmen. Du bekommst sie mittlerweile für 240 euro. Ein gf104 im vollausbau könnte kommen und dann wird die gtx 470 wohl auch eol gehen, sicher ist das aber noch längst nicht.

Was nvidia hier eventuell zurückhält kannst du mit sicherheit nicht sagen, es sei denn du arbeitest dort an höherer stelle. Der einzige, der wohl einigermaßen wirklich was dazu sagen kann, ist soweit wie ich weiss in diesem forum der mann aus chania.

Hugo78
2010-10-13, 22:28:29
Was Du und andere Redis hier diesbezüglich ablassen, grenzt schon an Multiple Persönlichkeitsstörung. Als PCGH_Werauchimmer brav und gesittet, als Privatperson stichelnd und provozierend. Das kommt mir auch jedes Mal in den Sinn, wenn ich die PCGH lese.
Auch wenn Du 10 Accounts hast, Du bleibt die eine und vor allem selbe Person dahinter.

Auch seltsam mutet die Unterscheidung zwischen RL (echtes Leben) und dem Herumtreiben in Foren an. Ist das denn nicht auch echtes Leben?

Man ist nicht jemand anderes, bloß weil man sich anders nennt.
Jedes Posting, egal von wem es stammt, ist eine Visitenkarte der wahren Person, die sich (im Internet) dahinter versteckt/verbirgt.
Als NV Fan kann ich versichern, dann PCGH mehr als nötig, positiv über die HD5K berichtet hat.
Grade was SSAA unter DX9 angeht.

ShadowXX
2010-10-13, 22:34:29
. Das performance pro watt verhältnis ist und bleibt schlechter.
Und nochmal: Das Performance pro Watt Verhältnis ist bei solchen Karten vollig schnurz...wichtig ist was hinten als Bild rauskommt und wie viele davon pro Sekunde darstellt werden können.

Da ist es völlig scheißegal ob die eine Karte 10-20 Watt mehr oder weniger verbraucht. An diesen P/W wird sich so extrem aufgehangen das man öfter mal das Gefühl hat nicht im 3DC, sondern bei einer Tagung der Grünen Fundis zu sein.

puntarenas
2010-10-13, 22:38:49
Werter Gast, dein persönlicher Standpunkt zu einzelnen Mitgliedern hier oder irgendwelchen Publikationen ist nicht Gegenstand dieses Threads. Schreib bitte einen Leserbrief oder dem Betreffenden eine PN, wenn dich etwas allzu sehr bedrückt.

Fetza
2010-10-13, 22:43:16
Und nochmal: Das Performance pro Watt Verhältnis ist bei solchen Karten vollig schnurz...wichtig ist was hinten als Bild rauskommt und wie viele davon pro Sekunde darstellt werden können.

Da ist es völlig scheißegal ob die eine Karte 10-20 Watt mehr oder weniger verbraucht. An diesen P/W wird sich so extrem aufgehangen das man öfter mal das Gefühl hat nicht im 3DC, sondern bei einer Tagung der Grünen Fundis zu sein.

Das behaupte ich auch garnicht und ich habe damit auch nie angefangen, es geht nur darum falschen behauptungen entgegenzutreten.

Ich persönlich warte seit einem monat auf einen gf104 im vollausbau, aber wenn der nicht kommt wirds halt eine 470 - ausser amds neuster streich hat vernünftiges af zu bieten. Ich erwarte letztlich einfach nur einen weiteren preisverfall bei der 470 durch das eintreten der hd6870.

Ailuros
2010-10-13, 22:48:55
Man sollte den Mods-Kollegen hier mal eine Medaille verpassen fuer die unendliche Loescherei.

deekey777
2010-10-14, 01:11:19
Some Initial (and mostly unsubstantiated) Thoughts on AMD's upcoming HD 6800 Cards (http://www.pcper.com/comments.php?nid=9351)

Hm, hä?

Leonidas
2010-10-14, 05:09:24
Man sollte den Mods-Kollegen hier mal eine Medaille verpassen fuer die unendliche Loescherei.


Unbedingt. Wir verbeugen uns vor puntarenas.

Gast
2010-10-14, 06:28:23
Und nochmal: Das Performance pro Watt Verhältnis ist bei solchen Karten vollig schnurz...wichtig ist was hinten als Bild rauskommt und wie viele davon pro Sekunde darstellt werden können.

Da ist es völlig scheißegal ob die eine Karte 10-20 Watt mehr oder weniger verbraucht. An diesen P/W wird sich so extrem aufgehangen das man öfter mal das Gefühl hat nicht im 3DC, sondern bei einer Tagung der Grünen Fundis zu sein.

Solange es nur 20 Watt-Unterschied wären, die Kühlung samt Geräuschkulisse entsprechend gut dimensioniert wäre und der Idle-Verbrauch gut wäre, könnte ich ich dir zustimmen. Die GTX 470 verbraucht aber unter Last über 80 Watt mehr (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gts-450-sli/25/#abschnitt_leistungsaufnahme) (andere Quelle: HT4U (http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index4.php)) als eine HD 5850, selbst beim Nichtstun noch über 10 Watt mehr, ist unverschämt laut und unverschämt heiß (90°C) und das Schlimmste: sie leistet dafür im Schnitt kaum mehr, bis auf einige Ausreißer. D. h., hinten kommt nicht mal was Ordentliches bei raus.

SamLombardo
2010-10-14, 07:13:46
...als eine HD 5850, selbst beim Nichtstun noch über 10 Watt mehr, ist unverschämt laut und unverschämt heiß (90°C) und das Schlimmste: sie leistet dafür im Schnitt kaum mehr, bis auf einige Ausreißer. D. h., hinten kommt nicht mal was Ordentliches bei raus.
Also der letzte Teil ist ja wohl absoluter Quatsch Die 470 ist eigentlich IMMER schneller als die 5850, in vielen Spielen (vor allem in den technisch aktuellen) liegt sie sogar eindeutig vor der 5870. Also Dein Strom(totschlags)argument ist zutreffend, alles andere ist ein rot gefärbter Traum, kein bisschen mehr.

Gast
2010-10-14, 07:33:54
nett;

Barts soll laut chiphell nur 230mm² groß sein. Ziemlich winzig. Das macht die 960SPs (und iIMHO auch 5D-VLIW) wieder wahrscheinlicher, da ja die 2RPEs einen größeren Uncore erforderlich machen (IMHO 2x ~40mm²).

Damit also wahrscheinlich: 48 TMUs + 960 SPs (Vec5)

Ailuros
2010-10-14, 09:14:03
nett;

Barts soll laut chiphell nur 230mm² groß sein. Ziemlich winzig. Das macht die 960SPs (und iIMHO auch 5D-VLIW) wieder wahrscheinlicher, da ja die 2RPEs einen größeren Uncore erforderlich machen (IMHO 2x ~40mm²).

Damit also wahrscheinlich: 48 TMUs + 960 SPs (Vec5)

Cayman ist aber nicht in etwa doppelt so gross bevor es jemand sagt. Ein virtuellen Keks fuer jenigen der sich den Grund ausdenken kann.

Triskaine
2010-10-14, 09:24:24
Cayman ist aber nicht in etwa doppelt so gross bevor es jemand sagt. Ein virtuellen Keks fuer jenigen der sich den Grund ausdenken kann.

Cayman hat ebenfalls 2 RPE's die aber mehr Einheiten enthalten als bei Barts, was den Chip in die Länge zieht und ihn wieder zum Quadrat macht.

Dural
2010-10-14, 09:30:11
das ist doch völliger quatsch. muss man denn hier immer unbedingt was behaupten oder schätzen.
Wenn wenigstens richtig geschätzt werden würde.... .
Ein GF104@750Mhz wird sogar 60-70 Watt mehr verbrauchen.

Der GF104 ist immernoch auch was Watt pro Fps betrifft merkbar ineffizienter als der RV870, wenn auch nicht mehr so schlimm wie der GF100.

Vielmehr wird NV da auch nicht mehr optimieren können mit der Fermi Architektur. 64 Shader in einem Cluster verbessern vlt die Effizienz, wobei die Tesselationleistung darunter leicht leiden würde, was aber zu vernachlässigen wäre.

Gemessen verbraucht eine GTX460 von 675MHz auf 750MHz gerade mal ca. 5Watt von 675MHz auf 800MHz sind es nur ca. 10Watt mehr

Eine GTX460 verbraucht ca. 130Watt gemessen, wo soll den der 50% mehr verbrauch her kommen, wegen den 75MHz??? ROLFT

Immer wider erstaunlich was man im www für blödsinn lesen muss von irgend welchen möchte gern die keine anhung haben und warscheinlich von irgend welcher hardware träumen!

Ich habe übrigens vier GTX460 hier, alles selber nachgemessen! du?

Lächerlich was hier manche dummen AMD boy für müll schreiben OHNE jemals eine solche Karte selber in den händen gehalten zu haben, 50% mehr verbrauch wegen 75MHz LOL wenn es nicht so traurig wäre...

nicht mal mit etwas mehr spannung würden deine 70Watt eintreffen...

Wie auch immer Barts konkurent wird der GF104 sein und nichts anderes :)

Dimon
2010-10-14, 09:30:54
Habe ich richtig gelesen?

Der neue AMD chip ist etwa so schnell wie eine GTX470? Wieso wird er so langsam sein?

Mfg
Dimon

Schlammsau
2010-10-14, 09:36:59
Habe ich richtig gelesen?

Der neue AMD chip ist etwa so schnell wie eine GTX470? Wieso wird er so langsam sein?

Mfg
Dimon

Barts (6850/6870 - Midrange) soll irgendwo zwischen der 5850 und 5870 landen.
Von Cayman (6900 - High End) ist hingegen kaum was bekannt.

Fetza
2010-10-14, 09:39:33
Gemessen verbraucht eine GTX460 von 675MHz auf 750MHz gerade mal ca. 5Watt von 675MHz auf 800MHz sind es nur ca. 10Watt mehr

Eine GTX460 verbraucht ca. 130Watt gemessen, wo soll den der 50% mehr verbrauch her kommen, wegen den 75MHz??? ROLFT

Immer wider erstaunlich was man im www für blödsinn lesen muss von irgend welchen möchte gern die keine anhung haben und warscheinlich von irgend welcher hardware träumen!

Ich habe übrigens vier GTX460 hier, alles selber nachgemessen! du?

Lächerlich was hier manche dummen AMD boy für müll schreiben OHNE jemals eine solche Karte selber in den händen gehalten zu haben, 50% mehr verbrauch wegen 75MHz LOL wenn es nicht so traurig wäre...

Wie wäre es mal, wenn du nv-fanboy deinen ton mäßigen würdest?

Es geht hier letztlich um den zusätzlichen sm-block der freigeschaltet nunmal zusätzlich strom zieht. Und wieviel ein sm-block ausmachen kann sieht man auch sehr gut am vergleich 470 vs. 480.

Dural
2010-10-14, 09:42:30
ich frag mich gerade wer der Fanboy ist...

du machst dich lächerlich

ich meine ist ja auch nur logisch das ein SM von 8 plötzlich 50% mehr verbraucht als die 7 zuvor zusammen ;D

da du dich offenlichtlich besser bei AMD karten auskennst schau doch mal 5850 gegen die 5870 an ;)

BlackBirdSR
2010-10-14, 09:42:48
So und jetzt möchte ich nichts mehr hören von sinnlosen Fanboy Anschuldigungen, sonst landen die Posts im Müll.

Dimon
2010-10-14, 09:43:01
Barts (6850/6870 - Midrange) soll irgendwo zwischen der 5850 und 5870 landen.
Von Cayman (6900 - High End) ist hingegen kaum was bekannt.

Danke! Dann hoffe ich das AMD nicht enttäuscht :) (Schnell und hoffentlich bereinigtes AF)

Mfg
Dimon

BlackBirdSR
2010-10-14, 09:47:11
Danke! Dann hoffe ich das AMD nicht enttäuscht :) (Schnell und hoffentlich bereinigtes AF)

Mfg
Dimon

Es ist durchaus möglich, dass AMD die Enthusiasten erstmal enttäuscht.
Dafür aber eher auf die Mainstream-Käufer ansetzt und die Verkaufszahlen ankurbeln will.

Immerhin hat auch der GTX460 den Enthusiasten enttäuscht. Ich würde mir nie eine kaufen, weil meine GTX275 dafür nicht langsam genug ist. Trotzdem hat die Karte einen großen Absatz, und selbst große Nvidia-Leistungs-Käufer sitzen plötzlich mit einer GTX460 vor dem PC. Schon erstaunlich und davon will AMD natürlich was ab haben.

Also auch wenn mich Barts und GTX460 in Sachen Leistung schwer enttäuschen, die Absatzzahlen (werden) sagen etwas anderes. Am ENde zählt genau das!

Bezüglich AF würde ich mir aber keine Hoffnungen machen. ATI hat seit Generationen da Einsparungen getroffen, wo es nur den wenigsten Leuten wirklich auffällt. Das werden die nicht wieder einfach so aufgeben.

AnarchX
2010-10-14, 09:57:52
Barts Die-Shot:

http://img826.imageshack.us/img826/9633/barts.jpg

http://www.chiphell.com/thread-129466-1-1.html

Wie gesagt, wohl näher an 200mm², als an 300mm².

Und hier sind sogar noch Barts und Cayman Slides:
http://vr-zone.com/articles/amd-radeon-hd-6000-slides-leaked/10069.html

Jetzt brechen wohl alle Dämme. ;D

http://resources.vr-zone.com/newvr/image.php?m=540&s=http://resources.vr-zone.com//uploads/10069/124229flgmxtzgfpyc5llb.jpg

Juniper doch als Bestandteil der HD 6000 Serie?

http://resources.vr-zone.com/newvr/image.php?m=540&s=http://resources.vr-zone.com//uploads/10069/124239dqy66e85b5cesyxq.jpg

Also wie vermutet 256-Bit 6Gbps und >225W für Cayman XT.

Dural
2010-10-14, 10:08:54
übrigens 8800GT vs 8800GTS 512MB

Die 8800GTS 512MB verbraucht satte 20Watt mehr als die 8800GT und das trotz mehr takt und mehr einheiten ;D

http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-gts-512/27/#abschnitt_leistungsaufnahme

aber schon OK verbraucht der volle GF104 50% mehr als die GTX460, kommt bestimmt so keine angst :D

Gast
2010-10-14, 10:16:03
.......

Juniper bleibt also. Mal sehen ob die GPUs einen neuen Namen bekommen, oder nicht. Ich hoffe nicht!

wosch666
2010-10-14, 10:26:09
Soryy für die deutlichen Worte, aber das ist hier nur noch zum kotzen.
Der Thread heisst doch " AMD Southern Islands GPUs (wohl 40 nm, 2010) ", oder?
Ich habe echt 3 mal nachgeguckt.

Ich verstehe nicht wieso hier nicht JEDER Post, indem es ausschliesslich oder zu einer überwiegenden Teil um nv geht einfach gelöscht wird.
Auf den letzten 3 Seiten sind 80% der Post ausschleisslich über nv.

Ich bin hier um mich über die neue AMD-Generation zu informieren und oft ist es so, dass man hier eine ganz gute Zusammenfassung bekommt, aber hier findet man NICHTS wieder, weil es den nv-fanboys gestattet wird die Thread mit ihrem Müll zuzuspammen.

Man sollte alle, die wirklich fast AUSSCHLIESSLICH Threadfremde Postings hier reinstellen und davon gibt es hier einige, zumindest verwarnen.

Es gibt doch in diesem Forum nun wirklich für alles nen eigenen Thread und ist es denn so schwer da sein gesülze reinzuschreiben?

zum Thema: Barts ist, denke ich, für alle GTX4xx und HD58xx-Besitzer eh uninteressant.
Das einzige, was man bei erscheinen daraus dann ablesen kann ist, in welche Richtung Cayman gehen wird, aber für AMD ist Barts, vor allem so wie er positioniert wird, deutlich wichtiger als Cayman.

Ailuros
2010-10-14, 10:27:22
Ich hab wohl was verpasst aber die 6xxx Unterteilung macht ueberhaupt Sinn weil Juniper 6700 sein wird. Gab es irgendwelche Zweifel diesbezueglich?

Nochmal:

Budget: Juniper/6700
Mainstream: Barts/6800
Performance: Cayman/6900
Antilles: 6990 (oder was auch immer >6870)

y33H@
2010-10-14, 10:28:53
Plausibel ist es, nur klafft eine fette Lücke zwischen Barts und Juniper. Wobei, wenn Barts Pro nur n bissl über einer HD 5830 liegt, sollte ein Juniper XP mit ein bisschen mehr Takt eine HD 5770 hinter sich lassen und es wäre wie gehabt. Interessant ist, dass AMD die Cayman-Chips nur minimal über der GTX 480/470 sieht.

AnarchX
2010-10-14, 10:30:17
HD 6700 hätte genau so gut von einem 100-150mm² großen Turks gebildet werden können, der mit 640SPs + 128-Bit und den NI-Verbesserungen sich entsprechend positioniert.

Jetzt haben wir (wahrscheinlich) eine HD 6700 der wohl nicht so unwesentliche Features fehlen (Bei G92 als GTS 250 fehlte ja nur für Gamer irrelevantes DP). :|

Gast
2010-10-14, 10:34:58
Soryy für die deutlichen Worte, aber das ist hier nur noch zum kotzen.
Der Thread heisst doch " AMD Southern Islands GPUs (wohl 40 nm, 2010) ", oder?
Ich habe echt 3 mal nachgeguckt.

Ich verstehe nicht wieso hier nicht JEDER Post, indem es ausschliesslich oder zu einer überwiegenden Teil um nv geht einfach gelöscht wird.
Auf den letzten 3 Seiten sind 80% der Post ausschleisslich über nv.

Ich bin hier um mich über die neue AMD-Generation zu informieren und oft ist es so, dass man hier eine ganz gute Zusammenfassung bekommt, aber hier findet man NICHTS wieder, weil es den nv-fanboys gestattet wird die Thread mit ihrem Müll zuzuspammen.

Man sollte alle, die wirklich fast AUSSCHLIESSLICH Threadfremde Postings hier reinstellen und davon gibt es hier einige, zumindest verwarnen.

Es gibt doch in diesem Forum nun wirklich für alles nen eigenen Thread und ist es denn so schwer da sein gesülze reinzuschreiben?

Volle Zustimmung!


zum Thema: Barts ist, denke ich, für alle GTX4xx und HD58xx-Besitzer eh uninteressant.
Das einzige, was man bei erscheinen daraus dann ablesen kann ist, in welche Richtung Cayman gehen wird, aber für AMD ist Barts, vor allem so wie er positioniert wird, deutlich wichtiger als Cayman.

Barts ist IMHO vor allem für neue notebooks interessant. Wenn sich die Verbrauchswerte von Bart-Pro (~120W; Juniper 104W) und die Performance (~X6500; Juniper ~X4500) bestätigen sollten, dann wäre eine m6870 GPU um einiges leistungsfähiger als eine bisherige Juniper-basierte m5870 GPU. +40-50% sollten schon drin sein, bei ca. gleichem Verbrauch.

derguru
2010-10-14, 10:36:24
Interessant ist, dass AMD die Cayman-Chips nur minimal über der GTX 480/470 sieht.
der abstand ist größer als bei den barts zur 460.ach gerade für die xt hätte man gleich als standart 2gb nehmen sollen. 192 GB/s speicherbandbreiten ist dann wohl fix für die xt.

S940
2010-10-14, 10:36:30
Jetzt haben wir (wahrscheinlich) eine HD 6700 der wohl nicht so unwesentliche Features fehlen (Bei G92 als GTS 250 fehlte ja nur für Gamer irrelevantes DP). :|
Welche wichtigen Features wären das denn ?
Wer mehr Performance braucht soll sich eben Barts kaufen, wer die neuen 3D Displayports braucht auch.

Seh ich jetzt mal nicht so schlimm, das Ding ist untere Mittelklasse, da kann man keinen Luxus erwarten ;)

Intel deaktiviert bei den "billigen" CPUs ja auch immer die ein oder andere Sache, wer mehr will, muss eben in die Tasche greifen ... Kapitalismus halt ;-)


ciao

Alex

AnarchX
2010-10-14, 10:39:55
Welche wichtigen Features wären das denn ?
Wer mehr Performance braucht soll sich eben Barts kaufen, wer die neuen 3D Displayports braucht auch.

Seh ich jetzt mal nicht so schlimm, das Ding ist untere Mittelklasse, da kann man keinen Luxus erwarten ;)

Dumm nur dass ein Einsteiger Caicos aka HD 6300/6400 UVD3.0 und wohl auch die 3D-Ausgänge mitbringen wird. Beim rebrandeten Juniper, der bei ~100€ sehr attraktiv sein wird, geht man dann leer aus.

Imo wäre das beste HD 5700 massiv im Preis zu senken und den Namen beizubehalten. Das Markt-Segment erneuert man dann Anfang 2011 mit Turks.

deekey777
2010-10-14, 10:42:53
Welche wichtigen Features wären das denn ?
Wer mehr Performance braucht soll sich eben Barts kaufen, wer die neuen 3D Displayports braucht auch.

Seh ich jetzt mal nicht so schlimm, das Ding ist untere Mittelklasse, da kann man keinen Luxus erwarten ;)

Intel deaktiviert bei den "billigen" CPUs ja auch immer die ein oder andere Sache, wer mehr will, muss eben in die Tasche greifen ... Kapitalismus halt ;-)

ciao

Alex
Wenn Bart S. nur 960 SPs hat und diese noch nach dem alten Schema angeordnet sind, dann holt er die Performance nicht nur aus dem höheren Takt, sondern wohl aus Neuerungen (wohl zwei Dispatcher, zwei Rasterizer, verbesserte Tessellationsleistung). Sprich: Ein Juniper wäre zu Unrecht eine 6770, wenn Barts deutlich schneller ist, auch wenn der Preis stimmt.

S940
2010-10-14, 10:55:18
Dumm nur dass ein Einsteiger Caicos aka HD 6300/6400 UVD3.0 und wohl auch die 3D-Ausgänge mitbringen wird. Tja .. wie Du schon schreibst "wohl" ... sicher ist das nicht, von Caicos ist auf den Folien auch nichts zu sehen .. würde mich nicht wundern, wenn sie die 3D Sachen beim low-cost Chip ebenfalls deaktivieren. UVD3 wohl eher nicht, aber das fällt doch keinem auf ;-)

Imo wäre das beste HD 5700 massiv im Preis zu senken und den Namen beizubehalten. Das Markt-Segment erneuert man dann Anfang 2011 mit Turks.Tja, das ist Deine Meinung, die Bleistiftspitzer bei AMD haben sich aber sicherlich den nVidia Rebranding Erfolg angeschaut und werden da ganz anderer Meinung sein ... gemacht wird das, was Kohle bringt ... und das ist den Kunden für dumm zu verkaufen, ergo Rebranding. Turks kann dann später als 6790 kommen. Oder Juniper kommt nicht als 6770 sondern als 6730/6750. Da gibts noch viele Möglichkeiten für den "feinen" Unterschied :)

@deekey777:
Kann Deiner Argumentation nicht folgen. Juniper ist jetzt schon deutlich langsamer als Cypress, Barts Pro wird am unteren Ende der Cypress Leistung liegen, ergo der "deutliche" Abstand - der im Moment eh schon existiert - wird kleiner, abgesehen von Barts eventuell besserer Tess. Leistung.

Man muss sich von vermeintlicher Logik beim Produktbranding verabschieden, das geht nach potentiellen Gewinnchancen und Margenerhöhung. Das gibt sicherlich Wellen in den diversen Profiforen, aber solange sich das nicht finanziell nachteilig auswirkt, interessiert das nicht.

@y33H@:
Interessant ist, dass AMD die Cayman-Chips nur minimal über der GTX 480/470 sieht.
Solange man das mit nem deutlich kleinerem DIE und nur 256bit Speicheranbindung schafft, wäre das allemal bemerkenswert. Mal schauen ob der Endkunde in Form von günstigeren Preisen und/oder weniger Verbrauch davon auch was hat. Beim Stromverbrauch schaut es, nach den 300W Angaben zu schließen, wohl eher schlecht aus :freak:

ciao

Alex

Fetza
2010-10-14, 11:00:07
du machst dich lächerlich

Ne, ich lese nur deine posts und gewinne entsprechende eindrücke.

Wenn Bart S. nur 960 SPs hat und diese noch nach dem alten Schema angeordnet sind, dann holt er die Performance nicht nur aus dem höheren Takt, sondern wohl aus Neuerungen (wohl zwei Dispatcher, zwei Rasterizer, verbesserte Tessellationsleistung). Sprich: Ein Juniper wäre zu Unrecht eine 6770, wenn Barts deutlich schneller ist, auch wenn der Preis stimmt.

Das scheint amd aber nicht zu stören, denn ein barts ist auch zu unrecht eine hd 6870, da langsamer als eine hd 5870. Warum sollte dann ein juniper nicht auch entsprechend renamed werden?

Die tesselationsleistung soll bei barts doch garnicht groß ansteigen, nach allem was man bisher so lesen konnte. Entscheidender scheinen die rops und das speicherinterface zu sein.

dildo4u
2010-10-14, 11:11:47
AMD will mit der High-End SKU deutlich über 225Watt gehen nix mehr mit Sparksamkeit,blöd das die Folien durchgesickert sind für AMD.Jetzt würde ich ohne zu zögern zu einer billigen GTX 480 greifen.Die AMD wird das selbe brauchen vieleicht 10% schneller sein aber als neue Karte über 400€ kosten.

http://resources.vr-zone.com/newvr/image.php?m=540&s=http://resources.vr-zone.com//uploads/10069/124239dqy66e85b5cesyxq.jpg

Und wieder nur 1GB zum Launch jetzt schon 3 Generationen High-End Karten. :rolleyes:

y33H@
2010-10-14, 11:17:46
@ S940

Cayman XT hat GDDR5 mit 6 Gbps, also satte 3.000 MHz - ich tippe mal auf Samsung K4G20325FC-HC03 oder Hynix H5GQ2H24MFR-R0C. Das sind bei 256 Bit dann 192 GB/s, also +25% auf HD 5870. An Bandbreite mangelt's da wohl kaum.

derguru
2010-10-14, 11:17:57
AMD will mit der High-End deutlich über 225Watt gehen nix mehr mit Sparksamkeit,blöd das die Folien durchgesickert sind für AMD.Jetzt würde ich ohne zu zögern zu einer billigen GTX 480 greifen.Die AMD wird das selbe brauchen vieleicht 10% schneller sein aber als neue Karte über 400€ kosten.
warts doch ab boy,als ob amd nicht die finger im spiel hätte bei den folien,hehe durchgesickert.:freak:

preislich wenn man beim bart vom spekulierten 299€ ausgeht,cayman pro 399€,xt 499€ und antilles(bestehend aus 2 bart) 599€.
ich befürchte der cayman xt wird auch so ein krachmacher wie die 480gtx.

S940
2010-10-14, 11:38:06
Jetzt würde ich ohne zu zögern zu einer billigen GTX 480 greifen.Das wäre ziemlich dämlich, denn zum Cayman Start könnte die 480er dann noch billiger sein. Den einen Monat sollte man auf alle Fälle jetzt noch abwarten.

@y33H@:
3GHz RAM (Das Marketing wird da sicherlich 6 GHz schreiben) ? Na das ist dann doch auch bemerkenswert ;-)

dildo4u
2010-10-14, 11:40:21
Das wäre ziemlich dämlich, denn zum Cayman Start könnte die 480er dann noch billiger sein. Den einen Monat sollte man auf alle Fälle jetzt noch abwarten.

Unwahrescheinlich wenn man sieht wie lange man das alten High-End 5800 im Preis hoch gehalten hat und die neuen Chips werden ja größer.

Gast
2010-10-14, 11:49:13
Unwahrescheinlich wenn man sieht wie lange man das alten High-End 5800 im Preis hoch gehalten hat und die neuen Chips werden ja größer.
das lag aber vorallem daran dass erstens engpässe bestanden und andererseits NV nichts konkurrenzfähiges hatte - für mehr als 6 monate.

deekey777
2010-10-14, 11:52:39
Unwahrescheinlich wenn man sieht wie lange man das alten High-End 5800 im Preis hoch gehalten hat und die neuen Chips werden ja größer.
Angebot und Nachfrage und so.
...
@deekey777:
Kann Deiner Argumentation nicht folgen. Juniper ist jetzt schon deutlich langsamer als Cypress, Barts Pro wird am unteren Ende der Cypress Leistung liegen, ergo der "deutliche" Abstand - der im Moment eh schon existiert - wird kleiner, abgesehen von Barts eventuell besserer Tess. Leistung.

Man muss sich von vermeintlicher Logik beim Produktbranding verabschieden, das geht nach potentiellen Gewinnchancen und Margenerhöhung. Das gibt sicherlich Wellen in den diversen Profiforen, aber solange sich das nicht finanziell nachteilig auswirkt, interessiert das nicht.
...

ciao

Alex
Hm, ja. Wobei: Man kann den Juniper immernoch als HD6730 bringen. X-D