PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17

derguru
2010-10-19, 12:13:07
Oh jetzt werden speziell ausgewählte benchmarks zerpflückt und böser Absicht böse Absicht unterstellt!

Wir sollten vielleicht über interessante Sachen reden.

Wieviel verdient AMD im Vergleich zu Cypress wirklich an den Karten, wenn man den gesunkenen Preis berücksichtigt?

Lohnt sich ein Wechsel für Leute mit 58xx Karten?

Welche Spiele würden überhaupt von MLAA profitieren? Bei Performance wie Edge Detect und zusätzlicher Unschärfe bin ich schon skeptisch.
wozu ist das wichtig wieviel amd nun verdient wenn du nicht daran beteiligt bist?
für leute mit der jetzigen 58xx karten lohnt sich das mMn nicht,erst der cayman lohnt sich aus performancegründen
alle spiele die von grund auf kein aa bieten werden davon profitieren,ich bin nur gespannt wie das gut oder schlecht das aussieht.

AnarchX
2010-10-19, 12:14:03
Welche Spiele würden überhaupt von MLAA profitieren? Bei Performance wie Edge Detect und zusätzlicher Unschärfe bin ich schon skeptisch.
Wenn das soviel kosten soll wie Edge-Detection, also 50-70% Leistung, da verschwinden da mal schnell >1 TFLOPs in dieses Processing. Insofern sollten die Ergebnisse deutlich besser als auf den Konsolen aussehen.
Hier gibt es z.B. einen Vergleich: http://www.iryokufx.com/mlaa/comparison.zip

Downsampler werden zwar darüber müde lachen, aber die Option ist imo mehr als nett.

V2.0
2010-10-19, 12:15:44
Oh man selbst bei den von AMD ausgewählten Benches sind nur 20% im Schnitt also genau auf einer 800mhz GTX 460.Außerdem kommt die 6850 nicht für 130€ und die 6870 nicht für 160€. ;)

Es wird genug CO Versionen der 6870 geben. Einige mit 1GHz+.

Gibt es eigentlich ne Bestätigung für ein besseres AF. Ich meine MLAA sehen sie ja auch als Verbesserung vom AA, was ja eigentlich nur eine weitere Option ist, aber keine echte Verbesserung.

BlackBirdSR
2010-10-19, 12:15:54
wozu ist das wichtig wieviel amd nun verdient wenn du nicht daran beteiligt bist?


Mich persönlich interessiert das. Das muss dir als Begründung reichen.

fondness
2010-10-19, 12:17:09
Mich persönlich interessiert das. Das muss dir als Begründung reichen.

Solange die GTX460 der direkte Konkurrent ist und man diese mit beiden Karten deutlich schlägt kann man nicht so schlecht verdienen, denn man ist schneller und kann billiger fertigen.

LovesuckZ
2010-10-19, 12:18:48
Solange die GTX460 der direkte Konkurrent ist und man diese mit beiden Karten deutlich schlägt kann man nicht so schlecht verdienen, denn man ist schneller und kann billiger fertigen.

WIe hoch ist der Endpreis einer GTX460 und einer 6870 Karte?

Armaq
2010-10-19, 12:18:55
Oh jetzt werden speziell ausgewählte benchmarks zerpflückt und böser Absicht böse Absicht unterstellt!

Wir sollten vielleicht über interessante Sachen reden.

Wieviel verdient AMD im Vergleich zu Cypress wirklich an den Karten, wenn man den gesunkenen Preis berücksichtigt?

Lohnt sich ein Wechsel für Leute mit 58xx Karten?

Welche Spiele würden überhaupt von MLAA profitieren? Bei Performance wie Edge Detect und zusätzlicher Unschärfe bin ich schon skeptisch.
Die Karte lohnt bei der Performance nicht einmal für 4870-User. Man muss sich ja fragen, warum AMD die Performance ggü. 5870 reduziert. Die 6870 hat andere Vorzüge aber wieso sollte ich dafür soviel Geld locker machen? Für Aufrüster die auch auf Mehrwert schielen ist die 460 1 GB von der 4870 1 GB aus, keine 100% Option. Die 6870 verbessert das Verhältnis zu Mehrperformance ein wenig, aber kostet auch gleich mehr. Wenn man vom selten genutzten Featureset absieht, dann frage ich mich warum AMD so eine Karte bringt. Der Kundennutzen erschließt sich mir, aus dem vorhandenen AMD-Portfolio, nicht.

Bioshock
2010-10-19, 12:19:09
Oh jetzt werden speziell ausgewählte benchmarks zerpflückt und böser Absicht böse Absicht unterstellt!

Wir sollten vielleicht über interessante Sachen reden.

Wieviel verdient AMD im Vergleich zu Cypress wirklich an den Karten, wenn man den gesunkenen Preis berücksichtigt?

Lohnt sich ein Wechsel für Leute mit 58xx Karten?
Welche Spiele würden überhaupt von MLAA profitieren? Bei Performance wie Edge Detect und zusätzlicher Unschärfe bin ich schon skeptisch.

Ganz Klares NEIN.
Bzw. erstmal abwarten ob die auch schon in Quali gebencht haben;D

mfg

V2.0
2010-10-19, 12:19:55
Solange die GTX460 der direkte Konkurrent ist und man diese mit beiden Karten deutlich schlägt kann man nicht so schlecht verdienen, denn man ist schneller und kann billiger fertigen.

So einfach ist das nicht. Neben der Die-Größe spielen natürlich auch die Vertragsbedingungen bei der FAB, die Yields, die Komplexität des PCBs und der Kühllösung als auch die Kosten für den Speicher ein Rolle.

AnarchX
2010-10-19, 12:20:29
Solange die GTX460 der direkte Konkurrent ist und man diese mit beiden Karten deutlich schlägt kann man nicht so schlecht verdienen, denn man ist schneller und kann theoretisch billiger fertigen.
So stimmt es eher. 40% Die-Size unterschied kann wohl ein anderer Vertrag für NV fast auffangen. Zumal die GTX 460 kein voller GF104 ist, während es bei Barts XT offensichtlich der Fall ist.

Aber ich denke doch, dass bald uns ein netter Preiskampf bevor steht und Anfang 2011 GTX 460 1G und HD 6870 unter 150€ landen.

Die Karte lohnt bei der Performance nicht einmal für 4870-User.
Die fetten Jahre sind wohl vorbei, wo man beim gleichen Preis jährlich eine >50% Performance-Steigerung bekam. :(

fondness
2010-10-19, 12:20:33
WIe hoch ist der Endpreis einer GTX460 und einer 6870 Karte?

Die Radeon HD 6870 soll 239 US-Dollar kosten, während die HD 6850 für 179 US-Dollar in den Handel kommen wird. Das sind exakt die Preise der GTX460 1GB/768M.

BlackBirdSR
2010-10-19, 12:20:47
Ganz Klares NEIN.
Bzw. erstmal abwarten ob die auch schon in Quali gebencht haben;D

mfg

Dann ist die nächste Frage:
lohnt es sich im Vergleich zu einer GTX275 oder 5770?
Oder noch besser, werden die bisherigen 58xx plötzlich ganz kurz ganz günstig?

deekey777
2010-10-19, 12:22:11
http://www.plaatjesupload.nl/bekijk/2010/10/19/1287465504-920.png

http://gathering.tweakers.net/forum/list_message/34874406#34874406
Da werde ich mir das CCC im Regedit anschaue, wenn ich zu Hause bin. Große Hoffnungen mache ich mir aber nicht, dass das für ältere Hardware freischaltbar ist. Aber vielleicht über DLL-Hacking.

LovesuckZ
2010-10-19, 12:23:11
Die Radeon HD 6870 soll 239 US-Dollar kosten, während die HD 6850 für 179 US-Dollar in den Handel kommen wird. Das sind exakt die Preise der GTX460 1GB/768M.

Bitte die Frage beantworten. Was ist der Endpreis einer GTX460 und einer 68xx bevor sie mit entsprechender Marge weiterverkauft wird.

fondness
2010-10-19, 12:25:01
So stimmt es eher. 40% Die-Size unterschied kann wohl ein anderer Vertrag für NV fast auffangen. Zumal die GTX 460 kein voller GF104 ist, während es bei Barts XT offensichtlich der Fall ist.


Verträge sind ohnehin nur Spekulation, darüber kann niemand urteilen. Allerdings ist es völlig abwegig anzunehmen das TSMC einem Kunden 40% Kostenvorteil schenkt ggü. einem anderen. Die Kosten werden wohl ähnlich sein, vielleicht hat Nv durch höhere Stückzahlen einen leichten Vorteil.

S940
2010-10-19, 12:25:12
Bitte die Frage beantworten. Was ist der Endpreis einer GTX460 und einer 68xx bevor sie mit entsprechender Marge weiterverkauft wird.Das weiss doch noch keiner, der Endpreis wird erst gemacht, wenn die Karte am Distributions Ende beim Kunden landet. Solange das nicht passiert ist, müssen halt die Großhandelspreise als Vergleich herhalten, was anderes hat man ja nicht.
Wenn Angebot & Nachfrage wie bei Nvidia ist, werden die 6000 Endpreise ähnlich sein, wenn nicht, dann nicht.

fondness
2010-10-19, 12:26:17
Bitte die Frage beantworten. Was ist der Endpreis einer GTX460 und einer 68xx bevor sie mit entsprechender Marge weiterverkauft wird.

Entweder du hast was zu sagen oder nicht. Solche Spielchen interessieren mich nicht die Bohne.

Dural
2010-10-19, 12:26:45
Es wird genug CO Versionen der 6870 geben. Einige mit 1GHz+.


1000MHz sind ja auch nur 11% mehr von 900MHz und bitte noch Quelle von einer 1GHz 6870, die OC eigenschaften sind für mich noch der einzige grund der Barts für mich halbwegs brachbar machen könnte.

850MHz sind hingegen 25% von 675MHz mehr :rolleyes:

LovesuckZ
2010-10-19, 12:28:45
Entweder du hast was zu sagen oder nicht. Solche Spielchen interessieren mich nicht die Bohne.

Solange die GTX460 der direkte Konkurrent ist und man diese mit beiden Karten deutlich schlägt kann man nicht so schlecht verdienen, denn man ist schneller und kann billiger fertigen.


Also, wie hoch ist der Herstellungspreis einer GTX460 und Barts.

Armaq
2010-10-19, 12:33:12
Also, wie hoch ist der Herstellungspreis einer GTX460 und Barts.
Willst du dich hier nicht raushalten? Deine Absichten sind offensichtlich und hier gehts nicht um Nvidia, sondern die neue Gen. von AMD.

derguru
2010-10-19, 12:33:18
mal schauen ob die 5er vom besseren af und mlaa profitieren oder ob das nur ein extra-feature der 6er ist.

Dural
2010-10-19, 12:35:30
denk ich nicht, aber wer das will hätte halt kein 5xxx kaufen sollen sondern eine GeForce 4xx oder jetzt halt 6xxx

LovesuckZ
2010-10-19, 12:36:10
Willst du dich hier nicht raushalten? Deine Absichten sind offensichtlich und hier gehts nicht um Nvidia, sondern die neue Gen. von AMD.

Richtig. Und wenn behauptet wird, diese könnte billiger hergestellt werden, dann ist die Frage nach dem Herstellungpreis ein themenbezogener Einwand.

Armaq
2010-10-19, 12:46:31
Richtig. Und wenn behauptet wird, diese könnte billiger hergestellt werden, dann ist die Frage nach dem Herstellungpreis ein themenbezogener Einwand.
Die kann dir keiner nennen, bzw. die darf die niemand nennen. Du weisst es genau und willst nur provozieren.

deekey777
2010-10-19, 12:51:53
Die kann dir keiner nennen, bzw. die darf die niemand nennen. Du weisst es genau und willst nur provozieren.
Ach komm, du weißt doch ganz genau, dass Nvidia für die Herstellung ihrer Chips gar nichts zahlt, sondern TSMC zahlt an Nvidia, weil sie das Privileg haben, Nvidia-Produkte zu fertigen.

LovesuckZ
2010-10-19, 12:55:32
Die kann dir keiner nennen, bzw. die darf die niemand nennen. Du weisst es genau und willst nur provozieren.

Ich weiß keinen Herstellungspreis. jedoch andere, die wissen, dass AMD billiger fertigen würde. Ich denke, dass ein Beleg ein normaler Vorgang in einer niveauvollen Umgebung wäre.

Grumbart
2010-10-19, 12:55:42
Ich verstehe ohnehin nicht was LovesuckZ in diesem Thread verloren hat.
Hier wird über eine neue Kartengeneration von ATI/AMD spekuliert, und Vergleiche zum Mitbewerber und der Vorgängergeneration gezogen - fertig.

LovesuckZ spielt sich hier als Ehrenretter von nVidia einerseits und Madigmacher von ATI/AMD andererseits auf, das hat derzeit kein Produkt der beiden Firmen nötig.

Screemer
2010-10-19, 12:57:28
Also, it's nice to see that Barts retains 6 display controllers, for full Eyefinity. bedeutet das, dass auch passive dp-hdmi/dvi-adapter für eyefinity genutzt werden können?

DrFreaK666
2010-10-19, 12:58:06
Ich weiß keinen Herstellungspreis. jedoch andere, die wissen, dass AMD billiger fertigen würde. Ich denke, dass ein Beleg ein normaler Vorgang in einer niveauvollen Umgebung wäre.

Lass es doch einfach sein. Musst du ewig darauf herumreiten?
Einfach ignorieren und dem Thread gehts besser

AnarchX
2010-10-19, 13:00:02
bedeutet das, dass auch passive dp-hdmi/dvi-adapter für eyefinity genutzt werden können?
Nein.

http://www.chiphell.com/data/attachment/forum/201010/19/173005m8ree283ceo9hthr.jpg

http://www.chiphell.com/data/attachment/forum/201010/19/17301093jfxr8z73rpmwv3.jpg

Pixelmonk
2010-10-19, 13:00:51
Da hat AMD gute Arbeit abgeliefert. Sie haben eine ökonomische Lösung für den gestrichenen 32nm Process gefunden.

Einige haben wohl etwas mehr Performance erwartet, aber die neuen Features und der Preis sind ein starkes Kaufsargument.
Bin gespannt ob man die Karten höher takten kann als die 5800er Serie.

Wenn die AF-qualität jetzt auf Nvidia HQ-Niveau ist, wird meine nächste Karte auf jeden Fall eine AMD werden, da mich die AMD Features mehr ansprechen.

Besonders das neue Eyefinity ist für Multi-Display-Workstations mit drei oder mehr Displays ein nützliches Feature, da es die Produktivität steigert, mehr Komfort bietet und Energie- und Hardwarekosten spart.

Das MLAA könnte, wenn die Bildqualität stimmt, für Spiele die kein MSAA unterstützen, oder in Spielen die stark flimmern und wo die Leistung nicht für SSAA ausreicht, eine nützliche Zusatzfunktion sein.

dildo4u
2010-10-19, 13:04:08
Der Chip ist schon interresant aber der Lüfter wird bestimmt wieder Murks sein. Das ganze kommt 2Monate zu spät für's Weihnachtsgeschäft normal dauert immer so 2-3 Monate bis es gute Karten mit eigenem Design gibt.

AnarchX
2010-10-19, 13:04:56
Der Chip ist schon interresant aber der Lüfter wird bestimmt wieder Murks sein. Das ganze kommt 2Monate zu spät für's Weihnachtsgeschäft normal dauert immer so 2-3 Monate bis es gute Karten mit eigenem Design gibt.
Von ASUS wird doch schon eine DirectCU 6870 gelistet.

fondness
2010-10-19, 13:06:03
Der Chip ist schon interresant aber der Lüfter wird bestimmt wieder Murks sein. Das ganze kommt 2Monate zu spät für's Weihnachtsgeschäft normal dauert immer so 2-3 Monate bis es gute Karten mit eigenem Design gibt.

Ein direkt exhaust Lüfter ist immer lauter, dafür befördert er die warme Luft zuverlässig nach draußen. Ich finde es gut das es auch sowas gibt, bei der GTX460 waren die leider völliger Murks. Und da Barts Pin-kompatibel mit Cypress ist wird es von Beginn an eigenen Designs geben, es gab ja sogar schon Bilder.

Mark3Dfx
2010-10-19, 13:06:05
http://www.abload.de/img/19d58i.jpg

Hmm, irgendwie weiß ich nicht ob die 6870 wirklich die Leistung einer 5850 bringt
- weniger Bandbreite
- weniger Stream Prozessoren
- weniger Texture Units
- weniger SIMD Einheiten...

+ 8 Watt weniger Idle

dildo4u
2010-10-19, 13:06:18
Von ASUS wird doch schon eine DirectCU 6870 gelistet.
War auf der GTX 460 jetzt nix besonders auf den ATI bisher glaub ich auch nicht.

Screemer
2010-10-19, 13:07:23
Nein.ach mist. ich hatte so darauf gehofft.

Ronny145
2010-10-19, 13:15:25
mal schauen ob die 5er vom besseren af und mlaa profitieren oder ob das nur ein extra-feature der 6er ist.


Wäre schön, bezweifle es aber. Vielleicht über regedit. Wenn MLAA nicht zu stark blurrt, wäre das eine Alternative in Spielen wie Arcania wo außer Downsampling nichts geht. Soll ja auch in DX10/11 funktionieren. Interessant klingt es.

derguru
2010-10-19, 13:15:37
http://pics.computerbase.de/3/1/2/7/4/19.jpg

Hmm, irgendwie weiß ich nicht ob die 6870 wirklich die Leistung einer 5850 bringt
- weniger Bandbreite
- weniger Stream Prozessoren
- weniger Texture Units
- weniger SIMD Einheiten...

+ 8 Watt weniger Idle

wurde gut optimiert anscheinend aber unter sgssaa wird sie gnadenlos einbrechen vermute ich mal aber dafür kommt dann der cayman.im grunde genommen ist 68xx die fortführung der 5770 und dann kann man eigentlich nicht viel erwarten.(ok preislich natürlich andere liga):biggrin:

Dural
2010-10-19, 13:18:57
wer eine 5800 oder GTX400 hat kann mit der 6870 nicht wirklich viel anfangen, man hat so gut wie keinen mehr wert!

Die Effizients von Barts ist, wenn ich richtig gerechnet habe und mit den richtigen Zahlen sogar schlechter als RV840.

Aber für GTX200 oder 4800 User sicher eine überlegung wert!


Ich hab einfach immer noch das gefühl das selbst die 6870 kein voller Barts verwendet....

Grumbart
2010-10-19, 13:19:50
War auf der GTX 460 jetzt nix besonders auf den ATI bisher glaub ich auch nicht

Für PCS, Hawk, Cyclone Varianten (wenn sie denn kommen) könnte es 2010 ganz schön eng werden.

dildo4u
2010-10-19, 13:19:51
http://pics.computerbase.de/3/1/2/7/4/19.jpg

Hmm, irgendwie weiß ich nicht ob die 6870 wirklich die Leistung einer 5850 bringt
- weniger Bandbreite
- weniger Stream Prozessoren
- weniger Texture Units
- weniger SIMD Einheiten...

+ 8 Watt weniger Idle
25% mehr Takt da muss gar nich so viel optemiert werden.

Mark3Dfx
2010-10-19, 13:20:49
Hauptsache der Käufer weiß 6>5...
Irgendwie ist 6850 eher eine 6830.

Iruwen
2010-10-19, 13:23:06
Solange man die Teile prozentual so "gut" übertakten kann wie 5850/5870 können die meinetwegen auch mit zehn Gigahertz laufen.

Dural
2010-10-19, 13:27:57
ich würde sagen etwas gleich gut wie RV840, man hat aber halt default schon 900MHz da sind 1000MHz nur 11% mehr... 1100MHz sind + 22%

OC mässig wird die prozentual wohl kaum gegen die GTX460 mithalten können...

Jake Dunn
2010-10-19, 13:28:43
http://www.abload.de/img/19d58i.jpg

Hmm, irgendwie weiß ich nicht ob die 6870 wirklich die Leistung einer 5850 bringt
- weniger Bandbreite
- weniger Stream Prozessoren
- weniger Texture Units
- weniger SIMD Einheiten...

+ 8 Watt weniger Idle

Liegt am deutlich höheren Takt der 6870er 900 vs. 725


Solange man die Teile prozentual so "gut" übertakten kann wie 5850/5870 können die meinetwegen auch mit zehn Gigahertz laufen.

Naja richtig gut zu OCen ist auch nur die 5850er (wo man die Spannung aendern kann)

MadManniMan
2010-10-19, 13:35:11
+ 8 Watt weniger Idle

Dürfte wohl die Spannungsreduktion vom GDDR5 ohne Last sein - siehe GF>100.

Fetza
2010-10-19, 13:41:06
Na endlich... ;D

http://www.chiphell.com/data/attachment/forum/201010/19/1703030avmqbmgpvbvprvg.jpg

http://www.chiphell.com/data/attachment/forum/201010/19/170350omjooue8uvbwbu99.jpg

http://www.chiphell.com/data/attachment/forum/201010/19/170436687h6rke7o96z9h6.jpg

http://www.chiphell.com/data/attachment/forum/201010/19/170517zu2tkge2qggtc6ce.jpg

http://www.chiphell.com/data/attachment/forum/201010/19/170624sjqrdwuqm55rr5ra.jpg

http://www.chiphell.com/data/attachment/forum/201010/19/170700bkofnjpuulboduoy.jpg

http://www.chiphell.com/data/attachment/forum/201010/19/170805bw2q2b1fwstjgbgt.jpg

http://www.chiphell.com/data/attachment/forum/201010/19/170956ajd8ejt7t42tbc8t.jpg

Oh güldene glorie! Endlich hat es amd geschafft seine augen-hardcore-sm-perversion zu überwinden!

Das wird sehr cool, endlich können viele user radeon-karten ernsthaft in erwägung ziehen. Das war ein lange überfälliger schritt, aber wenn ihn amd jetzt wirklich gegangen ist, gibt es quasi kein alleinstellungsmerkmal für nv-karten mehr.

Nachtrag: MLAA macht entgegen vieler befürchtungen hier meiner meinung nach auch einen guten eindruck.

mboeller
2010-10-19, 13:43:57
na, da können wir uns ja auf billige Performance-Karten freuen. Das was bei der HD58x0 ja nicht geklappt hat. Zum Vergleich HD4870:

http://geizhals.at/deutschland/a437030.html

http://geizhals.at/?phistgfx=437030&loc=de&age=2000&width=640&l=de&dc=EUR
http://geizhals.at/deutschland/?phist=437030&age=2000

Da die neuen Bart GPUs nahezu gleich groß sind wie die alten RV770 sollte es jetzt ja passen.

dildo4u
2010-10-19, 13:44:38
Nachtrag: MLAA macht entgegen vieler befürchtungen hier meiner meinung nach auch einen guten eindruck.
Hoffe NV zieht nach wäre perfekt für die GTX 460.

aylano
2010-10-19, 13:45:41
Man muss sich ja fragen, warum AMD die Performance ggü. 5870 reduziert.

Vielleicht mit Blick auf 6690, damit 2xBarts (151W) locker flockig leicht die 300 Watt-TDP einhält oder weil 2xCaymann (225?) mit ordentlichen Spannungsabsenkungen (-0,15 statt -0,10 Volt) & Takt-Absenkungen (700 statt 900 Mhz) mit 304 Watt "gerade noch ausgeht".

Die Karte lohnt bei der Performance nicht einmal für 4870-User. Die 6870 hat andere Vorzüge aber wieso sollte ich dafür soviel Geld locker machen? Für Aufrüster die auch auf Mehrwert schielen ist die 460 1 GB von der 4870 1 GB aus, keine 100% Option. Die 6870 verbessert das Verhältnis zu Mehrperformance ein wenig, aber kostet auch gleich mehr. Wenn man vom selten genutzten Featureset absieht, dann frage ich mich warum AMD so eine Karte bringt. Der Kundennutzen erschließt sich mir, aus dem vorhandenen AMD-Portfolio, nicht.
Das wirst du in Zukunft noch öfters sehen, da heutzutage der Stromverbrauch pro neuer Generation dann nicht mehr um 50% steigen kann.

Wobei das noch in Zukunft schlimmer wird, weil die Spannung nicht ewig massiv gesenkt werden kann.

Mit 28nm-High-K kann man sich noch einen größeren Sprung erwarten.

S940
2010-10-19, 13:49:03
Dann ist die nächste Frage:
lohnt es sich im Vergleich zu einer GTX275
Leute die sich damals ne 275 gekauft haben, werden wohl eher Cayman Pro Kunden

oder 5770?
Würde ich von der Auflösung abhängig machen, je höher desto mehr leidet die 5770 unter dem 128bit Speicher.
Aber das hätte man auch schon vor dem 5770 Kauf wissen müssen. D.h. jemand der ne 5770 hat, spielt eh nur @1280 oder max. 1680, ergo das Upgrade lohnt da auch nicht so unbedingt.
Oder noch besser, werden die bisherigen 58xx plötzlich ganz kurz ganz günstig?Tja, das weiss man dann nächste Woche. Falls die 6000er massenhaft auf den Markt kommen sicherlich, wenn nicht, dann wird noch genügend Nachfrage für die 5000er übrig sein, um nen riesen Preissturz zu verhindern.

Die Club3D 5870 ist seit Ende September schon 60 Euro gefallen, aber das geht bisher auf das Konto des Euro <> Dollar Wechselkurses von 1,2 auf 1,4:
http://geizhals.at/?phistgfx=465489&loc=eu&age=90&width=640&l=de&dc=EUR


ciao

Alex

SamLombardo
2010-10-19, 13:49:34
...aber wenn ihn amd jetzt wirklich gegangen ist, gibt es quasi kein alleinstellungsmerkmal für nv-karten mehr.

Sicher gibt es noch mehrere Alleinstellungsmerkmale von NV.

derguru
2010-10-19, 13:51:51
ja das berühmt berüchtigte physX:freak:

S940
2010-10-19, 13:51:52
Sicher gibt es noch mehrere Alleinstellungsmerkmale von NV.Jo, aber halt eines weniger, und AMD hat dazu ja auch einige Alleinstellungsmerkmale ...

Iruwen
2010-10-19, 13:51:55
Oh güldene glorie! Endlich hat es amd geschafft seine augen-hardcore-sm-perversion zu überwinden!

Ich glaub nichts bevor ich es nicht in Aktion gesehen hab.

/e: wenn MLAA auch unter DX10/11 funktioniert und das auch noch offiziell fällt aber noch ein Argument für NV weg oder? Wenns auch qualitativ vielleicht nicht mithalten kann.

SamLombardo
2010-10-19, 13:54:20
Jo, aber halt eines weniger, und AMD hat ja dazu ja auch einige Alleinstellungsmerkmale ...
So stimmt der Satz.:)

derguru
2010-10-19, 13:55:56
@Iruwen

nach der folie ist mlaa dx unabhängig.

aylano
2010-10-19, 13:56:54
Ich weiß keinen Herstellungspreis. jedoch andere, die wissen, dass AMD billiger fertigen würde. Ich denke, dass ein Beleg ein normaler Vorgang in einer niveauvollen Umgebung wäre.
Bis heute hast du noch kein Beleg gezeigt, der die billigere Herstellungskosten des größeren GF104s sowie generell (deutlich) billligeren Wafer-Kosten für Nvdia bei TSMC zeigte.

AnarchX
2010-10-19, 13:58:12
/e: wenn MLAA auch unter DX10/11 funktioniert und das auch noch offiziell fällt aber noch ein Argument für NV weg oder? Wenns auch qualitativ vielleicht nicht mithalten kann.
SG-SSAA ohne angepassten LOD sorgt ja auch für Unschärfe. PCGH wird hoffentlich hier mal einen Vergleich tätigen.

Ich frage mich nur, ob sich Nvidia MLAA leisten kann. Wenn es sehr viel reine Shaderleistung kostet, könnte da ein Vergleich gegen AMD ein Problem sein.

dildo4u
2010-10-19, 13:59:27
Ich frage mich nur, ob sich Nvidia MLAA leisten kann. Wenn es sehr viel reine Shaderleistung kostet, könnte da ein Vergleich gegen AMD ein Problem sein.
Wenn's auf der PS3 läuft dürfte das kein Problem sein selbst bei Full HD.

AnarchX
2010-10-19, 14:01:24
Wenn's auf der PS3 läuft dürfte das kein Problem sein selbst bei Full HD.
Aber auch auf dem Qualitätsniveau der Radeons? Da könnte es wohl dann FUD von AMD geben, wenn hier Nvida mit weniger Passes/Genauigkeit rechnet.

derguru
2010-10-19, 14:02:02
gibt es spiele die dieses mlaa verfahren nutzen?würde ich mir gerne mal anschauen.wenn damit das aaa wie von z.b. metro gemeint ist finde ich es kaum ansehnlich.

y33H@
2010-10-19, 14:02:57
Call of Juarez Bound in Blood (http://www.pcgameshardware.de/aid,687389/Call-of-Juarez-Bound-in-Blood-Systemanforderungen-und-Grafikkarten-Benchmarks/Action-Spiel/Test/) etwa und Metro 2033 (http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/). Und Two Worlds II offenbar auch.
Wenn's auf der PS3 läuft dürfte das kein Problem sein selbst bei Full HD. Da wird meist eine SPU für abgestellt.

hmx
2010-10-19, 14:04:51
Es wird genug CO Versionen der 6870 geben. Einige mit 1GHz+.



Woher willst du das denn wissen? Glaskugel? :rolleyes:

AnarchX
2010-10-19, 14:06:09
Call of Juarez Bound in Blood (http://www.pcgameshardware.de/aid,687389/Call-of-Juarez-Bound-in-Blood-Systemanforderungen-und-Grafikkarten-Benchmarks/Action-Spiel/Test/) etwa und Metro 2033 (http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/). Und Two Worlds II offenbar auch.
Da wird meist eine SPU für abgestellt.

Ist das so korrekt, dass MLAA in Metro 2033 deutlich schärfer als MSAA aussehen soll oder wurde da etwas vertauscht? :|

dildo4u
2010-10-19, 14:08:08
Da wird meist eine SPU für abgestellt.
Ja aber selbst wenn man die komplette Cell CPU(Was nich der Fall ist vieleicht 30% der SPE's?) dafür nutzen würde wären das nur so 200GF.Denke die GTX 460 hätte bei weitem genug Power,weil dann fällt ja auch das MSAA weg.

Aber auch auf dem Qualitätsniveau der Radeons? Da könnte es wohl dann FUD von AMD geben, wenn hier Nvida mit weniger Passes/Genauigkeit rechnet.
Angeblich erreicht das MLAA auf der PS3 schon Kantenglättung über Jeder MSAA Lösung.Aber es gibt auch Nachteile denke mal die wirds auch bei AMD's Lösung geben.

There is no real competition here. The so-called morphological anti-aliasing (or MLAA) seen in The Saboteur is leaps and bounds ahead of anything we've seen so far when it works in optimum conditions.

Being experimental, it does have its drawbacks. When edges in-game are one pixel or less than one pixel in thickness, the edge-detection technique doesn't really work. Pandemic also subjects the entire, completed framebuffer to analysis - including the HUD elements - so there is often artefacting on the text overlays. This is probably unavoidable in this game: while the GPU starts to draw the next frame, the SPUs are busy with the AA and for that situation to take place the completed frame will need to be analysed.

http://images.eurogamer.net/assets/articles//a/8/6/7/8/5/1/Saboteur_Aliasing_001.jpg.jpg


http://www.eurogamer.net/articles/digitalfoundry-saboteur-aa-blog-entry

deekey777
2010-10-19, 14:08:34
Da wird meist eine SPU für abgestellt.
Das ist eigentlich egal. Die Frage ist, ob MLAA wirklich auf den ganzen RT ausgeführt wird und nicht auf einen herunterskalierten.

LovesuckZ
2010-10-19, 14:20:05
Bis heute hast du noch kein Beleg gezeigt, der die billigere Herstellungskosten des größeren GF104s sowie generell (deutlich) billligeren Wafer-Kosten für Nvdia bei TSMC zeigte.

Tja, warum sollte ich etwas zeigen, was ich nicht behaupte?
:freak:

S940
2010-10-19, 14:28:55
Tja, warum sollte ich etwas zeigen, was ich nicht behaupte?
:freak:
Wenn Du nicht behauptest, dass nV nen billigeren Preis als ATi von TSMC bekommt, ist alles in schönster Ordnung.

Dann gilt schlicht die Gleichung:

DIE Größe = Preis

Und ATi kann damit billiger produzieren, da das DIE kleiner ist.

WENN Du das nicht behauptest ... :freak:

DrFreaK666
2010-10-19, 14:30:31
verschiebt das bitte in einen separaten Thread. Ist ja echt nervig...

LovesuckZ
2010-10-19, 14:33:38
Wenn Du nicht behauptest, dass nV nen billigeren Preis als ATi von TSMC bekommt, ist alles in schönster Ordnung.

Dann gilt schlicht die Gleichung:

DIE Größe = Preis

Und ATi kann damit billiger produzieren, da das DIE kleiner ist.

WENN Du das nicht behauptest ... :freak:

Hä? Ehrlich, für manche scheint wohl nur eins zu gelten: Ich seh die Erde als Scheibe, also muss sie eine Scheibe sein.

Ich behaupte garnichts. Das sollte man doch begriffen haben. Daher erwarte von denen, die behaupten, dass Barts billiger zu fertigen wäre, dass sie auch die Herstellungskosten nennen. Es ist eine einfache Frage nach einem einfachen Beleg für eine einfache Aussage. Das 1x1 einer niveauvollem Diskussion.

Und die Geschichte hat gezeigt, dass das angenommende zum Zeitpunkt X desöfteren falsch war.
Und nun tut etwas für das Niveau des Forums, und teilt euer Wissen über die Herstellungskosten mit.

Gipsel
2010-10-19, 14:35:14
Tja, warum sollte ich etwas zeigen, was ich nicht behaupte?
:freak:
Dann komme ich mit Occams Razor (http://de.wikipedia.org/wiki/Ockhams_Rasiermesser): AMDs Dies sind kleiner, also sehr wahrscheinlich billiger. Alles andere erfordert kompliziertere Annahmen, bedarf also des Nachweises. Du bist dran.

guest_29132
2010-10-19, 14:37:03
6870 kann man ganz einfach für AMD beschreiben: kosten einsparung gegenüber der 5850/70 der User hat von der 6870 so gut wie kein mehrwert gegenüber der 5850 :rolleyes:

wer eine 5800 oder GTX400 hat kann mit der 6870 nicht wirklich viel anfangen, man hat so gut wie keinen mehr wert!


Wär Barts etwas für 5800 und GTX400 User gewesen, wenn er als 6770 auf dem Markt kommen würde?
Oder anders gefragt; hättest du überhaupt erwähnt, das eine 6770 nichts für 5800 und GTX400 User wäre?


Die Karte lohnt bei der Performance nicht einmal für 4870-User. Man muss sich ja fragen, warum AMD die Performance ggü. 5870 reduziert. Die 6870 hat andere Vorzüge aber wieso sollte ich dafür soviel Geld locker machen? Für Aufrüster die auch auf Mehrwert schielen ist die 460 1 GB von der 4870 1 GB aus, keine 100% Option. Die 6870 verbessert das Verhältnis zu Mehrperformance ein wenig, aber kostet auch gleich mehr. Wenn man vom selten genutzten Featureset absieht, dann frage ich mich warum AMD so eine Karte bringt. Der Kundennutzen erschließt sich mir, aus dem vorhandenen AMD-Portfolio, nicht.

Wo ist denn das Problem, den Sinn dahinter zu sehen? Mal abgesehen davon, das die Preise ja niedriger als Cypres Karten sein müssen, um mit der GTX460 konkurrieren zu können, auch hier die Frage;
hättest du den selben Post geschrieben, wenn Barts 6770 und 6750 heißen würde? Du weißt das noch ein Cayman als echte High End GPU oben drauf kommt, in wenigen Wochen?
Und warum sollte gute 45% Mehrpeformance, +Features, +Verbrauch, +DirectX für ~220€ keine gegenüber einer 4870 1GB keine Option sein?

Ist es denn wirklich so schwer über den Tellerrand zu schauen, und das einzige, nicht ins Bild passende - den Namen - hinweg zu sehen?

fondness
2010-10-19, 16:04:23
Asus EAH6850 DirectCU/2DIS/1GD5:

http://img268.imageshack.us/img268/6375/1ud0za78.png (http://img268.imageshack.us/my.php?image=1ud0za78.png)

Mark3Dfx
2010-10-19, 16:08:45
Je länger ich mir die Folien so betrachte beschleicht mich der Verdacht
die 68x0 soll das werden, was die 5830 aus Sicht von AMD im Portfolio nicht leisten konnte.

- billige Herstellung
- kühler, stromsparender
- ex aequo zu 5830/5850/GTX 460

deekey777
2010-10-19, 16:13:21
Dann komme ich mit Occams Razor (http://de.wikipedia.org/wiki/Ockhams_Rasiermesser): AMDs Dies sind kleiner, also sehr wahrscheinlich billiger. Alles andere erfordert kompliziertere Annahmen, bedarf also des Nachweises. Du bist dran.
Man muss schon berücksichtigen, dass Nvidia beim GF104 wohl auf einige Respins verzichtete und gleich das nahm, was sie bekamen. Das heißt: Man hat schon einige Millionen eingespart, die auf die Herstellungskosten anzurechnen sind.
Auch kann man davon ausgehen, dass Nvidia pro Wafer etwas weniger bezahlt als AMD.
Die Herstellungskosten können bis zu diesem Zeitpunkt wirklich niedriger sein.
Aber: Da die BartS-Dice kleiner sind (und eine andere Form haben), kann man davon ausgehen, dass auf dem Wafer deutlich mehr vollständige Dice sind als im Falle des GF104, die dann für 6800 benutzt werden können.

Jake Dunn
2010-10-19, 16:13:47
Je länger ich mir die Folien so betrachte beschleicht mich der Verdacht
die 68x0 soll das werden, was die 5830 aus Sicht von AMD im Portfolio nicht leisten konnte.

- billige Herstellung
- kühler, stromsparender
- ex aequo zu 5830/5850/GTX 460

Die 5830er konnte kaum billliger, kühler, stromsparender werden ;)

Wie auch? Teures PCB+stark beschnittener (nur16ROPs) Ausschußchip ^^

Armaq
2010-10-19, 16:15:18
Wo ist denn das Problem, den Sinn dahinter zu sehen? Mal abgesehen davon, das die Preise ja niedriger als Cypres Karten sein müssen, um mit der GTX460 konkurrieren zu können, auch hier die Frage;
hättest du den selben Post geschrieben, wenn Barts 6770 und 6750 heißen würde? Du weißt das noch ein Cayman als echte High End GPU oben drauf kommt, in wenigen Wochen?
Und warum sollte gute 45% Mehrpeformance, +Features, +Verbrauch, +DirectX für ~220€ keine gegenüber einer 4870 1GB keine Option sein?

Ist es denn wirklich so schwer über den Tellerrand zu schauen, und das einzige, nicht ins Bild passende - den Namen - hinweg zu sehen?
Von welchem Flamekuchen hast du denn gegessen? 220€ für 45% Mehrperformance sind für mich kein 100%-Sache. Zumal die 4870 schon wirklich "alt" ist. Mir ist auch klar, dass der Zyklus nicht mehr zu halten ist. Allerdings muss ich deswegen nicht in helle Begeisterung ausbrechen. Ich schrieb auch, dass es ein sehr rundes Paket ist. Also bitte lass den Tellerrand dort wo er ist.

DrFreaK666
2010-10-19, 16:15:24
Ich finde es traurig, dass du eine Agenda hast AMD Produkte in diesem Forum zu promoten. Genauso wie du mich absichtlich ausserhalb des Kontext zitierst, um eine Sache zu suggerieren, die ich nie geschrieben habe, benutzt du Ockhams Rassiermesser auf eine Art und Weise, die er so nie gemeint hat. Denn er hat ein Prinzip der Sparsamkeit verwendet, indem er nur sowenig Annahmen wie möglich zur Hypothesenbildung heranzieht.
Du wiederum missbrauchst seine Theorie, um mit einer einzigen, vollkommen parteillich gewählten Annahme eine Hypothese aufzustellen.

Man muss sich daher die Frage stellen, wie du zu AMD stehst.

Man sollte sich eher fragen was der ganze Scheiss hier soll

boxleitnerb
2010-10-19, 16:20:22
Wie kann ein Fakt parteilich sein? Barts ist kleiner als GF104. Die Annahme, dass ersterer dann auch billiger herzustellen ist, ist nur logisch, oder etwa nicht?
Gipsel ist ja wohl alles, aber nicht parteilich und er hat 1000x mehr Ahnung und Niveau als diverse andere Member hier...hust.

DrFreaK666
2010-10-19, 16:22:05
Von welchem Flamekuchen hast du denn gegessen? 220€ für 45% Mehrperformance sind für mich kein 100%-Sache. Zumal die 4870 schon wirklich "alt" ist. Mir ist auch klar, dass der Zyklus nicht mehr zu halten ist. Allerdings muss ich deswegen nicht in helle Begeisterung ausbrechen. Ich schrieb auch, dass es ein sehr rundes Paket ist. Also bitte lass den Tellerrand dort wo er ist.

Kaufe dir doch eine Karte und teste sie.
Ich bin auch von einer GTX260 auf eine HD5850 umgestiegen und habe es nciht bereit (leiser, schneller, DX11, SGSSAA waren für mich die Gründe)

deekey777
2010-10-19, 16:23:20
Wie kann ein Fakt parteilich sein? Barts ist kleiner als GF104. Gipsel ist ja wohl alles, aber nicht parteilich und er hat 1000x mehr Ahnung und Niveau als diverse andere Member hier...hust.
Ich ergänze:
Gipsel ist ja wohl alles, aber nicht parteilich und er hat 1000x mehr Ahnung und Niveau als diverse andere Member hier zusammen ... hust

Jake Dunn
2010-10-19, 16:23:21
Von Raff u. y33H@ ließt man garnichts, die haben bestimmt den Barts schon da :D

S940
2010-10-19, 16:25:20
Ich behaupte garnichts. Das sollte man doch begriffen haben. Daher erwarte von denen, die behaupten, dass Barts billiger zu fertigen wäre, dass sie auch die Herstellungskosten nennen. Es ist eine einfache Frage nach einem einfachen Beleg für eine einfache Aussage. Das 1x1 einer niveauvollem Diskussion.
Wenn Du gar nichts behauptest, dann musst Du Dich damit zufrieden geben, dass die Herstellungskosten aufgrund der kleineren DIE Größe kleiner sind.

Ein Auto mit einem Verbrauch von 5L/100km verursacht auch geringere Benzinkosten als eines mit 10L/100km - solange es an der gleichen Taktstelle zum gleichen Preis betankt wird. Wieviel das absolut ist, interessiert nicht. Es hat keiner behauptet, dass Barts genau um den Faktor 1,564332 billiger als GT104 wäre, sondern nur das er billiger ist, wieviel auch immer. Ergo reicht das Rechnen mit Unbekannten.

Die Verbrauchskosten für das 5L Auto aus obigen Beispiel sind für den Benzinpreis P gleich P * 5, und in dem anderem Fall P * 10. Da P jeweils gleich ist, ist das Produkt und somit die Verbrauchskosten das Autos mit dem Faktor 10 logischerweise größer. Ich hoffe Du kannst mir folgen, das ist das kleine 1x1 ;-)

Im Waferfall ist die Rechnung genau die Gleiche.

Zumindest wenn Du nicht behauptest, dass P für AMD & Nvidia unterschiedlich wären :freak:

P.S:

@Gipsel: Das war doch viel zu kompliziert ;-)

Nakai
2010-10-19, 16:27:40
Sieht so aus, als wäre nun extra ein Schalter bei den AI-Settings integriert worden. ;D
Neliz im B3D hat das sogar bestätigt.

Also AI aus, Quality und High Quality und zusätzlich noch Surface Format Optimization zum aktivieren. Mal guckn was es bringt.

Natürlich hat es sich hier bestimmt schon rumgesprochen.



mfg

boxleitnerb
2010-10-19, 16:29:13
Endlich! Hat ja nur ca. 4 Jahre gedauert...bin gespannt, ob die beiden BQ-technisch endlich auf einer Stufe sind beim AF.

Menace
2010-10-19, 16:31:45
Die Bezeichnung halte ich für Käse, aber mal etwas inhaltliches und dabei möchte ich gar nicht auf ein im Glashaus sitzenden LZ eingehen:

...benutzt du Ockhams Rassiermesser auf eine Art und Weise, die er so nie gemeint hat.


Begründung? --

Du wiederum missbrauchst seine Theorie, um mit einer einzigen, vollkommen parteillich gewählten Annahme eine Hypothese aufzustellen.

Die-Größe ist parteilich? Warum das? Weil nvidia größere Dies hat?
Es ist eine Annahme, die plausibler ist, als manche andere Esoterik-Äußerungen bzgl. Kosten. Ist die Logik dahinter so schwer zu verstehen?

Nichts für ungut: Zurück zur Benennung: AMD hätte einfach komplett neue Namensschemata kreieren sollen, also diese User-Unfreundliche Lösung zu nutzen, da helfen auch die relativ ehrlichen Folien nichts.

Nakai
2010-10-19, 16:33:32
Endlich! Hat ja nur ca. 4 Jahre gedauert...bin gespannt, ob die beiden BQ-technisch endlich auf einer Stufe sind beim AF.

Wir werden sehen.

Ich muss meinen Post etwas ändern. Es gibt wohl Performance, Quality und High Quality als Auswahl.


mfg


€: Nichts für ungut: Zurück zur Benennung: AMD hätte einfach komplett neue Namensschemata kreieren sollen, also diese User-Unfreundliche Lösung zu nutzen, da helfen auch die relativ ehrlichen Folien nichts.

Ja lächerlich. Hoffen wir es, dass es kritisiert wird. Als HD67xx hätte mir Barts wesentlich besser gefallen.


€2: Wir können uns hoffentlich auf nen Preiskampf einstellen. Barts gegen GF104 im Verkaufsstarkem unteren Bereich.

mironicus
2010-10-19, 16:42:29
Bestimmt kommen einige Händler auf diese Idee:
6870 suggeriert höhere Performance als eine 5870 = Verkauf für 399 Euro im Laden an "Dumme". :D

deekey777
2010-10-19, 16:42:53
Endlich! Hat ja nur ca. 4 Jahre gedauert...bin gespannt, ob die beiden BQ-technisch endlich auf einer Stufe sind beim AF.
Warum vier Jahre?
Die Sauerei fing mit dem R420 an (und eigentlich schon mit dem RV360), da wurde schon verarscht, indem nicht volltrilinear gefiltert wurde. Mit dem 4.10 (oder war es schon 4.9?) wurde dann AI-Reiter eingeführt, womit man die Trickserei deaktivieren konnte.
Die Trickserei hörte beim R520 ja nicht auf, der Fortschritt war aber, dass die Winkelahängigkeit nahezu eliminiert wurde. Mit dem R600 kam aber der Tiefpunkt, der sich fortstetzt.

LovesuckZ
2010-10-19, 16:43:27
Wie kann ein Fakt parteilich sein? Barts ist kleiner als GF104. Gipsel ist ja wohl alles, aber nicht parteilich und er hat 1000x mehr Ahnung und Niveau als diverse andere Member hier...hust.

Die Annahme, dass zwischen relativer Ausbeute aufgrund unterschiedlicher Architekturen und Vertragsbedingungen zweier unterschiedlicher Interessengruppen mit dem Fertiger keine Unterschiede bestehen würden, geht gegen 0. Die einfachste Hypothese nach Ockhams Rasiermesser ist, dass AMD und nVidia nicht unter selben Bedingungen produzieren.
Ockhams Rasiermesser ist nicht dafür gedacht mathematische, belegbare Formeln zu stützen. Wie mein Zitat hat er hier eine wissentliche Fehlinterpretation herangezogen, um eine pro-AMD-Meinung zu publizieren.

Menace
2010-10-19, 16:46:11
Ja lächerlich. Hoffen wir es, dass es kritisiert wird. Als HD67xx hätte mir Barts wesentlich besser gefallen.


Ich finde immerhin diese Folie sollte man den Leuten zeigen:

http://www.abload.de/img/174824quv1cwhwcszvt7ovkxks.jpg

@ LZ: bzgl. missglückter Versuch sich nachträglich Annahmen zurechtzubiegen. Selbst wenn man Deiner Logik folgen würde und unterschiedliche Verträge annimmt, glaubst Du wirklich dass es eine derartige Differenz gibt. Ganz ehrlich, deine hysterisch-parteiische Versuche der Nichtargumentation sind immer wieder eine Quell von Heiterkeit. Bitte weitermachen. :tongue:

Nakai
2010-10-19, 16:50:18
Ich finde immerhin diese Folie sollte man den Leuten zeigen:

Naja...die Folie sagt indirekt ja aus, dass AMD wieder größere monolithische Chips baut. Barts ist nach der Folie eher eine HD48xx, also ein Performancechip.
Cayman geht schon wieder in Richtung Highend, während Antilles das Ultra-Highend bedient.

Ergo kann man sagen, dass sich AMDs Strategie geändert hat.


mfg

klein
2010-10-19, 16:56:22
Na endlich... ;D

http://www.chiphell.com/data/attachment/forum/201010/19/1703030avmqbmgpvbvprvg.jpg

"Improved image quality features (anisotropic filtering)." Ich kipp vom Stuhl. ;D Die HD 6870 wird dann wohl meine nächste Karte werden.

mironicus
2010-10-19, 17:05:44
Kann man eigentlich davon ausgehen das der Cayman dann praktisch nur ein aufgeblasener Barts mit mehr SP/ROPs ist?

AnarchX
2010-10-19, 17:09:37
Kann man eigentlich davon ausgehen das der Cayman dann praktisch nur ein aufgeblasener Barts mit mehr SP/ROPs ist?
Nein, sollte man nicht.
Momentan spricht einiges für 4D-ALUs in Cayman und auch bei der Tessellation könnte bei Cayman etwas mehr geschehen sein.

klein
2010-10-19, 17:11:02
Überaus interessante Folie. AMD scheint durch die HD 5000-Serie wohl die Marktführerschaft übernommen zu haben. :biggrin:

http://img209.imageshack.us/img209/7409/10004a.jpg

Die Steamzahlen werden übrigens offensichtlich auch bestätigt:

http://img252.imageshack.us/img252/8409/50003.jpg

Izmir Egal
2010-10-19, 17:16:00
Wann gibt es den Cayman denn zu kaufen, meine Lieben? Dieses Jahr noch?

AnarchX
2010-10-19, 17:16:51
Wann gibt es den Cayman denn zu kaufen, meine Lieben? Dieses Jahr noch?
Launch soll im November sein, ob und wie viel man kaufen kann, ist eher schwer abzusehen.

LovesuckZ
2010-10-19, 17:18:17
Naja. Ich hab's schon im Beyond3d.com Forum geschrieben: AMD's "Marktführerschaft" wird sich durch den Niedrigsektor erkauft. Nimm die andere Folie mit dem Marktverhältnis der GPUs.
2% ist der Gesamtanteil des Workstationmarktes. nVidia hat davon 1,8%. nVidia erreicht mit 1,8% des gesamten GPU Marktes im abgelaufenen Quartal die Hälfte und im bald endenden Quartal mehr als die Hälfte des Umsatzes von AMD's kompletter Grafikkartenabteilung (Consumer, Workstation, Lizenzeinnahmen von Konsolen).

mironicus
2010-10-19, 17:20:20
Was macht es denn für einen Sinn, wenn man bei Barts 5D nimmt, wobei man mit 4D einen noch kleineren Die bei gleicher Leistung hätte produzieren können (wenn man von den Annahmen hier im Forum ausgeht) und dann beim Cayman dann doch 4D? Wäre der Leistungsunterschied wiederrum nicht viel zu groß zwischen dem BartsXT und den kleinsten Cayman...?

guest_29132
2010-10-19, 17:20:22
220€ für 45% Mehrperformance sind für mich kein 100%-Sache. Zumal die 4870 schon wirklich "alt" ist. Mir ist auch klar, dass der Zyklus nicht mehr zu halten ist. Allerdings muss ich deswegen nicht in helle Begeisterung ausbrechen. Ich schrieb auch, dass es ein sehr rundes Paket ist.

Eine 100%-Sache wird dir auch kein Hersteller bieten können; selbst 100% Mehrperformance für 80€ könnte ja noch deinen preislichen Rahmen um 40€ sprengen - rein Hypothetisch.
Du hast ja nicht nur von einer 100%-Sache gesprochen, auch das dir der Sinn der Karte für den Kunden nicht erschließt. Das die Performance selbst für einen 4870 Besitzer nicht lohnt. Und das AMD die Leistung ggü. einer 5870 verringert hätte.
Das eigentliche Problem ist doch gar nicht die Karte selbst, sondern der hergestellte Bezug zur 5870.
Nach den Aussagen zu Urteilen könnte man meinen, du erwartest selbst von der kleinsten Karte eine Mehrperformance zur größten Karte der vorherigen Generation, aber ist das realistisch? Das sich ein 5870 Kunde die Karte nicht kauft, ist klar, aber die 5870 hat vor nem Jahr auch keine ~230€ (oder wahrscheinlich weniger) gekostet, sondern 350€ und mehr.
Die 6870 stellt eine andere Leistungs- und Preisklasse dar, welche sich zwischen den 5800 Pro und 5700 XT positioniert, zwischen denen 50% Performance und zeitweise über 100€ Preisdiffernez lagen.
Das wird auch durch diese (http://www.computerbase.de/bildstrecke/31272/20/) und diese (http://www.computerbase.de/bildstrecke/31272/21/) Folie verdeutlicht;
Cypress und Juniper boten eine zu große Lücke, welche die 5830 nicht attraktiv schließen konnte.

Der Sinn dieser Karten für den Kunden ist also genau diese Preis und Leistungs Lücke. Und wenn nach deiner persönlichen Meinung diese Karten für einen 4870 Kunden nicht lohnen, dann tut es eine GTX 460 bei zu erwartend ähnlicher P/L Positionierung auch nicht.

Wer mehr Leistung bedarf, wartet auf den Cayman. Dieser wird an der 5800 XT anknüpfen, und dort an Leistung drauf legen.


Von welchem Flamekuchen hast du denn gegessen? ....
Also bitte lass den Tellerrand dort wo er ist.

Den Flamekuchen, und es tut mir leid, kann ich mir so manches mal in den letzten 2 Wochen nur schwer verkneifen;
Es ist ja nicht so als hätte es mich vor 2 oder 3 Wochen nicht auch gewundert. Ich hatte es Anfangs auch für unwahrscheinlich gehalten, das sie bei den bis dato kursierenden Leistungsrahmen den Barts als 6870 bringen, und so das bekannte Namensschema mit der beliebten X870 durcheinander bringen.
Aber mit jedem Leak, und jeder neuen Info, mit den Betrachtung der spekulierten Preise, und der Betrachtung von Preis und Leistung der aktuellen Karten, mit Betrachtung der Verbrauchswerte, der Positionierung zu Nvidias aktuellem Renner GTX 460, der Bezugnahme von Preis, Leistung und TDP der 4000er und 3000er war mir der nun vollzogene Schritt von mal zu mal Nachvollziehbarer.
Und mittlerweile summierten sich die Gründe für einen Barts als 6870, und gegen 6770, soweit, das es in meinen Augen gar keinen Sinn mehr machen würde ihn eine Klasse tiefer zu benennen.

Die ganze Diskussion dreht sich überhaupt nicht um die Karte selbst, oder ihrer Leistung, sondern allein um den Namen, der unreflektiert als 5870 Nachfolger gesehen, und mit einer Erwartungshaltung bezüglich Leistung geknüpft ist.

Barts soll aber weder ein Nachfolger des Cypress noch des Juniper sein, sondern vielmehr eine Position zwischen diesen beiden Produkten (welche für Leistungsklassen stehen) einnehmen, wärend die Leistungsklasse des Cypress etwas hoch rutscht, und durch den Cayman als 6900 ersetzt wird.

AnarchX
2010-10-19, 17:26:42
Was macht es denn für einen Sinn, wenn man bei Barts 5D nimmt, wobei man mit 4D einen noch kleineren Die bei gleicher Leistung hätte produzieren können (wenn man von den Annahmen hier im Forum ausgeht) und dann beim Cayman dann doch 4D?
Ob 4D wirklich soviel Ersparnis über 5D bringt, kann man wohl kaum sagen, immerhin müssen die 4 ALUs nun die Aufgaben der 5. fetten ALU übernehmen.
Und wenn es ganz verrückt kommt, hat AMD vielleicht doch 106Bit Multiplikatoren verbaut um DP bei halbem Durchsatz zu erlauben. Das würde die ALUs deutlich größer machen.

mironicus
2010-10-19, 17:33:11
Hat die 6870 irgendwelche Flaschenhälse? Wird es wohl Games geben, in der die 5850 immer noch schneller ist? Hohe Auflösungen mit Antialiasing?

Andererseits: Kann man davon ausgehen, dass die 6870 sogar die 5870 in einigen Games schlägt (einige neuere DX11-Titel)?

LovesuckZ
2010-10-19, 17:34:26
Sobald Tessellation in bestimmten Maße eingesetzt wird, wird Barts schneller als Cypress sein.
Aber das war spätesten seit der GF100 Vorstellung klar, dass Cypress für Tessellation ungeeignet ist, da zu langsam.

AnarchX
2010-10-19, 17:37:39
Hat die 6870 irgendwelche Flaschenhälse? Wird es wohl Games geben, in der die 5850 immer noch schneller ist? Hohe Auflösungen mit Antialiasing?

Gerade bei MSAA hat die HD 6870 mehr Bandbreite und 24% mehr ROP-Leistung.
Einzig bei den ALUs und TMUs ist die 5850 3,5% schneller, was aber hier wohl keine Rolle spielt.

aylano
2010-10-19, 17:41:21
Ich behaupte garnichts. Das sollte man doch begriffen haben. Daher erwarte von denen, die behaupten, dass Barts billiger zu fertigen wäre, dass sie auch die Herstellungskosten nennen. Es ist eine einfache Frage nach einem einfachen Beleg für eine einfache Aussage. Das 1x1 einer niveauvollem Diskussion.
Was sollen die anderen Belegen?

Dass ein kleinerer Chip weniger kostet als ein großer?

Juniper (& RV810 & RV830) ist kleiner und kostet weniger.

Wenn du was anderes Behauptest, dann musst du belegen. Eben weil gerade du auf Fakten & Belege stehst.

@Topic
Ob Barts ein sehr guter oder guter oder mäßiger Schritt nach Vorne war, hängt ja von vielen Faktoren ab.

Nicht nur wie die genaue Performance, Stromverbrauch, Tesselation-Leistung bei Spielen, Grafik-Qualität, Preise aussehen, sondern auch wie die ganze North-Island-Familie aussieht, aufgebaut & positioniert ist.

derguru
2010-10-19, 17:44:19
stimmt ja,füllrate ist sogut wie identisch.dann sollte es unter sgssaa auch keine rolle spielen.hoffentlich gibt es überhaupt noch sgssaa,nicht das es durch mlaa ersetzt wird. X-D

mironicus
2010-10-19, 17:45:33
Gerade bei MSAA hat die HD 6870 mehr Bandbreite und 24% mehr ROP-Leistung.
Einzig bei den ALUs und TMUs ist die 5850 3,5% schneller, was aber hier wohl keine Rolle spielt.

Das hört sich doch gut an. Die 6870 wird also ein guter Allrounder, bei denen die signifikantesten Schwächen der 5000er-Reihe beseitigt worden sind.

igg
2010-10-19, 17:49:37
Erstaunlicher finde ich, dass Cayman auf besagter Folie der Radeon 5800 zugeordnet wird.

AnarchX
2010-10-19, 17:49:54
http://img257.imageshack.us/img257/2289/g6000.gif
http://img233.imageshack.us/img233/9096/0capture4.jpg
http://img168.imageshack.us/img168/3834/zumsi.jpg

http://www.overclockzone.com/forums/showthread.php/1053499

pXe
2010-10-19, 17:55:34
Sobald Tessellation in bestimmten Maße eingesetzt wird, wird Barts schneller als Cypress sein.
Aber das war spätesten seit der GF100 Vorstellung klar, dass Cypress für Tessellation ungeeignet ist, da zu langsam.

Das hätte fast mal von Dir ein Posting sein können, welches sogar mal sinnvoll zum Threadthema beiträgt.
Egal in welchen AMD/NVIDIA Thread man schaut, alles übersäht mit lauter Postings von Dir, welche immer nur ein Thema haben: AMD schlecht, NVIDIA gut.


Bin ich der einzige dem das tierisch aufn Sack geht?
(und nein ignore Funktion nützt da gar nix, die 50.000 Antworten auf diese
Postings und die draus entstehenden sinnlos Dikussionen muss man trotzdem mitlesen)


pXe

Gestrandet
2010-10-19, 17:55:52
Erstaunlicher finde ich, dass Cayman auf besagter Folie der Radeon 5800 zugeordnet wird.
Und was genau findest du jetzt daran erstaunlich?

Eggcake
2010-10-19, 18:04:49
Erstaunlicher finde ich, dass Cayman auf besagter Folie der Radeon 5800 zugeordnet wird.

Ich finde es erstaunlich, dass die HD6800 der 4800 zugeordnet wird!

Hä? Es soll ja eher "Nachfolger von..." sein. Das "Performance"-Segment wurde mit der 5800er nicht richtig bedient, deshalb wurde die 5800er-Reihe im Prinzip aufgesplittet. Deshalb musste man die jetzt auch in ein unpassendes Namensschema quetschen - eben weil's dazwischen im Prinzip gar keinen Platz hatte.

LovesuckZ
2010-10-19, 18:06:48
http://img257.imageshack.us/img257/2289/g6000.gif
http://img233.imageshack.us/img233/9096/0capture4.jpg
http://img168.imageshack.us/img168/3834/zumsi.jpg

http://www.overclockzone.com/forums/showthread.php/1053499

So, war dein Testmuster ein Fake? Die Featuretests 4 und 5 entsprechen fast 1:1 Cypress

mik
2010-10-19, 18:08:10
...
Bin ich der einzige dem das tierisch aufn Sack geht?
(und nein ignore Funktion nützt da gar nix, die 50.000 Antworten auf diese
Postings und die draus entstehenden sinnlos Dikussionen muss man trotzdem mitlesen)


pXe

Dann bitte http://www.dontfeedthetroll.de/images/dftt.gif (http://www.dontfeedthetroll.de)

Ich möchte auch mitlesen ohne dauernd mit seinem Geschwätz zwangsbeglückt zu werden!

Ich bin schon gespannt ob Cayman als 4D kommt und wenn ja wie dieser performt!

DeadMeat
2010-10-19, 18:08:29
Das hätte fast mal von Dir ein Posting sein können, welches sogar mal sinnvoll zum Threadthema beiträgt.
Egal in welchen AMD/NVIDIA Thread man schaut, alles übersäht mit lauter Postings von Dir, welche immer nur ein Thema haben: AMD schlecht, NVIDIA gut.


Bin ich der einzige dem das tierisch aufn Sack geht?
(und nein ignore Funktion nützt da gar nix, die 50.000 Antworten auf diese
Postings und die draus entstehenden sinnlos Dikussionen muss man trotzdem mitlesen)


pXe

Seh ich genau so,
seit die Folien ins Spiel kommen läuft die Propaganda Maschine wieder auf 100%.....




Thema:

Scheint als würden die Cayman nochmal eines draufsetzen vom Preis als die Cypress zu release. Gut für den hersteller, nicht so gut für mich :)

Sollten die 68xx wirklich so erscheinen dürften sie die mit abstand "rundeste" Karte werden, besser noch als die 460er.

AnarchX
2010-10-19, 18:09:20
So, war dein Testmuster ein Fake? Die Featuretests 4 und 5 entsprechen fast 1:1 Cypress

Das ist eine andere Version des 3DMV, bei den anderen Screens war die Füllrate in GTex/s angegeben:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8328377#post8328377

LovesuckZ
2010-10-19, 18:11:15
Das ist eine andere Version des 3DMV, bei den anderen Screens war die Füllrate in GTex/s angegeben:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8328377#post8328377

Sind die Featuretest nicht identisch?

Schlammsau
2010-10-19, 18:33:51
Ich lag also mit meinen Vermutungen absolut richtig.....verdoppelte *piep*leistung, weniger Stromverbrauch im Idle und unter Last, und ein Preis der sich sehen lassen kann. :)

Und das bessere AF, Stereo 3D und MLAA sind nette Gimmicks, was die Karten gegenüber der HD5000 Serie, deutlich aufwerten.

Ob ich ein Sidegrade zur 6870 mache, entscheidet letztendlich der Straßenpreis und die Lautstärke.

Fein, AMD hat anscheinend seine Hausaufgaben gemacht.

AwesomeSauce
2010-10-19, 18:40:03
Ich lag also mit meinen Vermutungen absolut richtig.....
Keks?
verdoppelte *piep*leistung
Immer fein die Details auslassen.

http://home.akku.tv/~akku38901/HD6/5.jpg

Nur bei kleinen Subdivision-Graden wurde die Performance verbessert, bei grösseren hat sich so gut wie nichts getan. Ich bin auf den realen Geo-Durchsatz gespannt, natürlich bei aktivierter Tessellation...

Schlammsau
2010-10-19, 18:43:27
Kecks?
Gerne! :smile:

Immer fein die Details auslassen.

Nur bei kleinen Subdivision-Graden wurde die Performance verbessert, bei grösseren hat sich so gut wie nichts getan. Ich bin auf den realen Geo-Durchsatz gespannt, natürlich bei aktivierter Tessellation...

Und was interessiert mich das?
Rischtisch ...... überhaupt nicht! ;)

Bucklew
2010-10-19, 18:44:39
Überaus interessante Folie. AMD scheint durch die HD 5000-Serie wohl die Marktführerschaft übernommen zu haben. :biggrin:
Nicht ohne Grund hat man die Zahlen aus dem Q3 nicht reingemacht ;)

fondness
2010-10-19, 18:51:20
Nicht ohne Grund hat man die Zahlen aus dem Q3 nicht reingemacht ;)

Ja, zB weil es die noch nicht gibt. Weder von Mercury Research, noch von John Peddy Research.

mr
2010-10-19, 19:01:14
Zum Thema der Die Größe als Indikator der Herstellkosten einer SKU:

Auch wenn es so einige nicht hören wollen (nvidia Anhänger zum Zeitpunkt der "kleinen" G71, AMD Anhänger eben jetzt) ist ein kleinerer Die nicht automatisch günstiger in der Herstellung und auch kein eindeutiger Garant für eine günstigere SKU.

1) Für die reinen Herstellkosten des Die ist interessant wieviele funktionstüchtige Dies pro Wafer bei der Fertigung anfallen (Ausbeute = yield)

- eine niedrigere Dichte (Transistoren/mm²) wie sie momentan nvidia hat, kann zu niedrigeren Defektraten führen -> hebt die Ausbeute
- Teildeaktivierte Dies wie sie nvidia gerne herstellt heben die Ausbeute
- nvidia taktet die Chips niedriger -> hebt die Ausbeute

-> auch wenn die Waferkosten für AMD und nvidia gleich wären müsste man im Detail den Anfall der funktionsfüchtigen Dies für die verschiedenen SKUs kennen um die Herstellkosten des reinen Die zu ermitteln


2) Das PCB, der RAM und die Spannungsversorgung bilden einen erheblichen Kostenpunkt einer SKU

- geringere GPU und Speicher Frequenzen wie sie nvidia derzeit verwendet erfordern geringer Ansprüche an das PCB und die Spannungsversorgung
- langsamer getakteter RAM ist wesentlich günstiger zu beziehen, vor allem in den Mengen in denen nvidia bestellt


Ich bin weder pro nvidia noch AMD, habe keine Aktien oder dergleichen aber ich habe genug Erfahrung mit der Produktekalkulation von PC Komponenten um sagen zu können:

Wer von der Die Größe auf die Herstellkosten einer SKU schliesst macht es sich zu leicht.
Es ist beides gut möglich dass eine GTX460 1 GB in der Herstellung günstiger oder teurer ist als eine HD6870 1 GB.

MfG
mr

Nakai
2010-10-19, 19:08:59
Ich finde immerhin diese Folie sollte man den Leuten zeigen:

HD48xx sowie HD38xx war niemals dafür vorgesehen zwischen 150 bis 250$ verkauft zu werden.;)
HD3870 war imo sogar für 299$ angesehn, laut Folie. HD4870 sogar höher. Nur der verdammte Preiskrieg damals hat die Preise so tief sinken lassen. Dass jetzt AMD herkommt und Barts als HD68xx kommen lässt, ist schon sehr dreist.
Naja Namen sind Schall und Rauch. Schlechter als NV wird mans hoffentlich nicht machen.

Fein, AMD hat anscheinend seine Hausaufgaben gemacht.

Naja nur halb, Tesselationsleistung ist im Vergleich zu NV immer noch unterirdisch. Da könnte wohl erst Cayman starke Verbesserungen bringen. Bis dato...Barts ist Cypress-light und Juniper doneright.


mfg

Schlammsau
2010-10-19, 19:10:46
Zum Thema der Die Größe als Indikator der Herstellkosten einer SKU:

Auch wenn es so einige nicht hören wollen (nvidia Anhänger zum Zeitpunkt der "kleinen" G71, AMD Anhänger eben jetzt) ist ein kleinerer Die nicht automatisch günstiger in der Herstellung und auch kein eindeutiger Garant für eine günstigere SKU.

.....

MfG
mr
Ist der auschlaggebende Punkt bei den Kosten der Spannungsversorgung nicht eher der, wieviel Strom eine Grafikkarte im Endeffekt verbraucht!?
Je mehr Strom eine Karte frisst, desto aufwendiger->teurer muss doch die Spannungsversorgung sein, oder!?

Und warum verweilt AMD/ATi Stur auf einem nur 256bitigen SI? Wohl auch nur um kosten zu sparen mMn.

Und warum trimmt AMD/ATi ihre GPUs schon seit Jahren auf eine möglichst kleine Fläche, und versucht bei gleicher Leistung immer deutlich kleiner als die Konkurrenz zu sein?
Wohl doch nur um Kosten zu sparen und nicht weils Spass macht oder?

Ich lasse mich aber gern eines besseren belehren.

S940
2010-10-19, 19:13:42
Naja nur halb, Tesselationsleistung ist im Vergleich zu NV immer noch unterirdisch. Erstmal schauen, wies bei den Benches -abseits von speziellen Tess. Tests ausschaut.
Wenn z.B. bei Civ5 immer noch ein großes Loch klafft, geb ich Dir recht, wenn nicht, dann nicht. Was interessiert mich die theo. "unterirdische" Tess. Leistung, wenn davon in der Praxis nichts zu spüren wäre ?
Da könnte wohl erst Cayman starke Verbesserungen bringen.
Jo eben Barts ist ja nicht das high-end Modell, aber - zumindest bei Tess. - trotzdem schneller als die alten high-end Modelle, das neue high-end Teil kommt erst noch. Bis dahin kann man aber auch schon zufrieden sein, das Preis/Leistungsverhältnis passt auf alle Fälle - zumindest solange jetzt doch nicht wieder Lieferengpässe und Mondpreise auftauchen :freak:

Dural
2010-10-19, 19:17:01
Zum Thema der Die Größe als Indikator der Herstellkosten einer SKU:

Auch wenn es so einige nicht hören wollen (nvidia Anhänger zum Zeitpunkt der "kleinen" G71, AMD Anhänger eben jetzt) ist ein kleinerer Die nicht automatisch günstiger in der Herstellung und auch kein eindeutiger Garant für eine günstigere SKU.

1) Für die reinen Herstellkosten des Die ist interessant wieviele funktionstüchtige Dies pro Wafer bei der Fertigung anfallen (Ausbeute = yield)

- eine niedrigere Dichte (Transistoren/mm²) wie sie momentan nvidia hat, kann zu niedrigeren Defektraten führen -> hebt die Ausbeute
- Teildeaktivierte Dies wie sie nvidia gerne herstellt heben die Ausbeute
- nvidia taktet die Chips niedriger -> hebt die Ausbeute

-> auch wenn die Waferkosten für AMD und nvidia gleich wären müsste man im Detail den Anfall der funktionsfüchtigen Dies für die verschiedenen SKUs kennen um die Herstellkosten des reinen Die zu ermitteln


2) Das PCB, der RAM und die Spannungsversorgung bilden einen erheblichen Kostenpunkt einer SKU

- geringere GPU und Speicher Frequenzen wie sie nvidia derzeit verwendet erfordern geringer Ansprüche an das PCB und die Spannungsversorgung
- langsamer getakteter RAM ist wesentlich günstiger zu beziehen, vor allem in den Mengen in denen nvidia bestellt


Ich bin weder pro nvidia noch AMD, habe keine Aktien oder dergleichen aber ich habe genug Erfahrung mit der Produktekalkulation von PC Komponenten um sagen zu können:

Wer von der Die Größe auf die Herstellkosten einer SKU schliesst macht es sich zu leicht.
Es ist beides gut möglich dass eine GTX460 1 GB in der Herstellung günstiger oder teurer ist als eine HD6870 1 GB.

MfG
mr

genau so ist es :)

zudem hat NV seit der 400 serie variable VID, das erhöht die ausbeute sicher auch noch mal etwas...

die einzelen DIE preise sind eh komplett irevelant! was zählt ist nur was man an Menge X Wafer an Kohle reinbekommt!

Black-Scorpion
2010-10-19, 19:19:06
- eine niedrigere Dichte (Transistoren/mm²) wie sie momentan nvidia hat, kann zu niedrigeren Defektraten führen -> hebt die Ausbeute
- Teildeaktivierte Dies wie sie nvidia gerne herstellt heben die Ausbeute
- nvidia taktet die Chips niedriger -> hebt die Ausbeute

MfG
mr
1. Aktuell sieht es danach ja wohl nicht aus.
2. Mit Sicherheit stellen teil deaktivierte GPUs nicht gerne her.
3. Sagt der Takt der Shaderdomain aber was anderes. Die niedrige Takt ist Augenwischerei und Nvidia hat durch seine Taktdomain mehr Probleme.

S940
2010-10-19, 19:22:34
- eine niedrigere Dichte (Transistoren/mm²) wie sie momentan nvidia hat, kann zu niedrigeren Defektraten führen -> hebt die Ausbeute
Was ist da der Hintergrund ?
Die höhere Wahrscheinlichkeit, dass ein Defekt in nem unbenutztem Part auftaucht, wirds ja wohl kaum sein, oder ?

Aber lassen wir das Argument einmal gelten. Dann hat das nur Auswirkungen, wenn der Prozess generell noch recht schlecht ist. Also vor nem Jahr hätte ich gesagt: Daumen hoch. Aber jetzt ist TSMCs 40nm Prozess eingefahren. Wenns da jetzt immer noch viele Defekte gäbe, könnten sie sich die Kugel geben :freak:
Ergo schätze ich die DIE Fläche (trotz höhere Trans. dichte), aktuell für deutlich wichtiger ein.

Was schätzt Du ?

Zum geringeren Takt und den billigen Spannungswandlern:
Geld bei den Spawas kann man dann sparen, wenn der Chip nicht viel verbraucht. Wieviel verbraucht ein GT104 bzw. ne komplette Karte unter Last ? Ich seh da kein großes Einsparpotential gegenüber nem Bart.

ciao

Alex

Schlammsau
2010-10-19, 19:31:44
Naja nur halb, Tesselationsleistung ist im Vergleich zu NV immer noch unterirdisch. Da könnte wohl erst Cayman starke Verbesserungen bringen. Bis dato...Barts ist Cypress-light und Juniper doneright.


mfg
Zum Gamen ist mMn die Cypress *piep*leistung noch mehr als ausreichend, und auf irgendwelche synthetischen Benchmarks like Heaven oder Stone Giant sch*** ich. Eine Verdoppelung der *peip*leistung ist absolut ausreichend.

Was bringts mir unendlich viele Dreiecke unglaublich schnell darstellen zu können, wenn in der Zwischenzeit alles andere in der Graka limitiert. Von der theoretischen 7 fachen *piep*leistung des GF100 gegenüber Cypress bleibt in der Praxis (zB Heaven), auch nur eine Verdoppelung, max Verdreifachung gegenüber Cypress übrig. Also....who cares?

fondness
2010-10-19, 19:35:02
- eine niedrigere Dichte (Transistoren/mm²) wie sie momentan nvidia hat, kann zu niedrigeren Defektraten führen -> hebt die Ausbeute
- Teildeaktivierte Dies wie sie nvidia gerne herstellt heben die Ausbeute
- nvidia taktet die Chips niedriger -> hebt die Ausbeute


-Den ersten Punkt solltest du genauer ausführen, das macht nämlich so sicher keinen Sinn.
-Teildeaktivierte Dice verkauft AMD auch, nur bekommen sie halt auch noch ein paar voll funktionsfähige im Gegensatz zu NV.
- Auch der letzte Punkt macht wenig Sinn. Man orientiert sich mit den Taktraten an den Yields, wenn AMD die Chips höher takten kann spricht das für sie.

Schlammsau
2010-10-19, 19:40:15
Wenn mr recht haben sollte, stellt sich mir nur die Frage, warum AMD/ATi sich dann seit Jahren genau gegensätzlich verhält.

-Also immer möglichst kleine Dies, mit extrem hoher Packdichte.
-höherer Takt
-kleineres SI, dafür höher getakteten VRAM.

Also absolut konträr zu nVidias Politik.

Was ist im Endeffekt günstiger? Das ist hier die Frage!

Aquaschaf
2010-10-19, 19:41:40
Zur besseren Texturfilterung will ich Tests sehen. Wenn die endlich mal stimmt bin ich zufrieden.

Superheld
2010-10-19, 19:42:56
andere Folien

http://gathering.tweakers.net/forum/list_message/34877928#34877928

guest_29132
2010-10-19, 19:43:55
1. - eine niedrigere Dichte (Transistoren/mm²) wie sie momentan nvidia hat, kann zu niedrigeren Defektraten führen -> hebt die Ausbeute
2. - Teildeaktivierte Dies wie sie nvidia gerne herstellt heben die Ausbeute
3. - nvidia taktet die Chips niedriger -> hebt die Ausbeute

4. -> auch wenn die Waferkosten für AMD und nvidia gleich wären müsste man im Detail den Anfall der funktionsfüchtigen Dies für die verschiedenen SKUs kennen um die Herstellkosten des reinen Die zu ermitteln

1. Kann, stimmt. Warum wird der GF100 dann Teilaktiviert auf den Markt gebracht? Ich kann mir gut vorstellen, unter anderen Voraussetzungen und im anderen Kontext würde eine höhere Dichte zum Vorteil deklariert.

2. Die Teilaktivierten Dies wie sie beim GF100 und GF104 auf die Platinen gelötet werden, lassen beim GF100 vermuten, das für eine Vollaktivierung die Ausbeute zu niedrig ist oder die Verlustleistung den Rahmen sprengen würde, und beim GF104 zusätzlich noch die möglichkeit, das eine Vollaktivierung a) zu schnell für die Preis/Leistungsklasse wäre, für welche die GTX 460 nicht gedacht ist, und / oder eine Vollaktivierung für eine zusätzliche Karte aufgespart bzw. vorerst zurückgehalten wird.

Die Vollaktivierung des RV870 lässt die nahe liegende Vermutung zu, das die Ausbeute hoch genug ist, ihn Vollaktiviert auf den Markt zu bringen und defekte / teildeaktivierte nur für langsamere Varianten zu verwenden.

3. Hmm, die 5870 ist hoch getaktet UND im Vollausbau. Was nun?

4. Alle anzeichen, wie z.B. der zweite bzw. dritte respin, sprechen und sprachen schon vor über einem Jahr für schlechte Yields beim GF100.


2) Das PCB, der RAM und die Spannungsversorgung bilden einen erheblichen Kostenpunkt einer SKU

1. - geringere GPU und Speicher Frequenzen wie sie nvidia derzeit verwendet erfordern geringer Ansprüche an das PCB und die Spannungsversorgung
2. - langsamer getakteter RAM ist wesentlich günstiger zu beziehen, vor allem in den Mengen in denen nvidia bestellt

1. Einseitige Analogie? Für die höhere Taktungen gibt es dutzende, andere Begründungen, auch bezüglich der Unterschiedlichen Architekturen. Zumal es der GF100 ist, der wesentlich mehr Verlustleistung produziert.

2. Das ist gut möglich, aber Nvidia verbaut auch mehr Videospeicher.
Und und eines Wissens nach stehen dem Takt die höheren Bandbreiten des Speicherinterfaces zumindest gegenüber.


Wer von der Die Größe auf die Herstellkosten einer SKU schliesst macht es sich zu leicht.

Ging es nicht explizit um die GPU, statt der gesamten Karte?


aber ich habe genug Erfahrung mit der Produktekalkulation von PC Komponenten um sagen zu können:

Ich nicht, von daher lass es mich bitte wissen, wenn ich falsch liege.

fondness
2010-10-19, 19:45:39
andere Folien

http://gathering.tweakers.net/forum/list_message/34877928#34877928

Wie geil die haben tatsächlich den 3D Center Filter Tester genommen!

http://img217.imageshack.us/img217/7882/355595ds.png (http://img217.imageshack.us/my.php?image=355595ds.png)

Blaire
2010-10-19, 19:45:50
andere Folien

http://gathering.tweakers.net/forum/list_message/34877928#34877928

Wenn die Folien stimmen, ist zumindest mal das Banding verschwunden. Es wurde Codas Filtertester genutzt sehr interessant. :biggrin:

deekey777
2010-10-19, 19:47:41
andere Folien

http://gathering.tweakers.net/forum/list_message/34877928#34877928
Codas Fillrate-Tester wurde für PR-Machenschaftend missbraucht. X-D

Bucklew
2010-10-19, 19:49:45
Ergo schätze ich die DIE Fläche (trotz höhere Trans. dichte), aktuell für deutlich wichtiger ein.
Mit welcher Qualifikation?

-Den ersten Punkt solltest du genauer ausführen, das macht nämlich so sicher keinen Sinn.
Eine erhöhte Transistordichte sorgt logischerweise auch für schlechtere Yields, sollte eigentlich ziemlich logisch sein.

-Teildeaktivierte Dice verkauft AMD auch, nur bekommen sie halt auch noch ein paar voll funktionsfähige im Gegensatz zu NV.
Sagt jetzt was über die Yields aus? Außer gar nicht? Ob voll funktionsfähig oder teildeaktiviert ist am Ende immer noch eine Produktentscheidung, die sich nicht zwangsläufig an den technischen Möglichkeiten, sondern durchaus auch eigenen und dem Konkurrenzportfolio orientiert.

- Auch der letzte Punkt macht wenig Sinn. Man orientiert sich mit den Taktraten an den Yields, wenn AMD die Chips höher takten kann spricht das für sie.
Je höher der Takt, desto schlechter der Yield.

Was ist im Endeffekt günstiger? Das ist hier die Frage!
Wahrscheinlich gleichen sich die Effekte so sehr untereinander aus, dass unterm Strich die Yields viel ähnlicher sind, als uns viele "Insider" dauernd erzählen wollen.

Angesichts dessen, dass die Finanzzahlen von Nvidia schon seit Jahren besser sind als die von ATI, kann die Nvidia-Politik gar nicht so verkehrt sein. Wenn die Chips (G80, GT200, Fermi) so teuer sein sollen, wie uns mancher erzählen will und noch dazu so billig verkauft werden müssen - da würden die Zahlen GANZ anders aussehen.

dllfreak2001
2010-10-19, 19:52:08
Sieht schon besser aus das AF.
Da frage ich mich aber, ob dann auch die Leistung stimmt.

Kann ja sein, dass das die neue Überstufe Ultra High Quality ist und diese dann die FPS halbiert.

Vielleicht haben sie auch den AF-Tester entdeckt und direkt einige Optimierungen dafür in die Treiber eingebaut und sonst sieht das AF genauso
rotzig aus wie vorher.

boxleitnerb
2010-10-19, 19:55:02
Kaum, wenn "maintains full performance" dransteht.

horn 12
2010-10-19, 19:55:20
Mit dem Neuen Treiber kann man bereits die Neuen Freatures der HD6800-er Familie ansehen.
Meine Fresse, das geht aber gewaltig ab !!!!!!!!!

Der Caymna PRO / XT wird ein wahres Monster, besser gesagt Qualitäts-Monster, doch auch Barts ist nicht von schlechten Eltern.

Diese Karten gehn schneller weg wie warme Semmeln.

Aquaschaf
2010-10-19, 19:56:16
andere Folien

http://gathering.tweakers.net/forum/list_message/34877928#34877928

Das bezieht sich leider nur auf bessere trilineare Filterung, nicht auf die generelle Unterfilterung.

mironicus
2010-10-19, 19:57:03
Ha! 3DCenter taucht in den AMD-Folien auf. Was für eine Ehre! :D

Schlammsau
2010-10-19, 19:59:52
Das bandingfreie AF scheint also gesichert....aber ist es auch flimmerfrei?

aylano
2010-10-19, 20:03:10
Zum Thema der Die Größe als Indikator der Herstellkosten einer SKU:

....

1) Für die reinen Herstellkosten des Die ist interessant wieviele funktionstüchtige Dies pro Wafer bei der Fertigung anfallen (Ausbeute = yield)

- eine niedrigere Dichte (Transistoren/mm²) wie sie momentan nvidia hat, kann zu niedrigeren Defektraten führen -> hebt die Ausbeute
- Teildeaktivierte Dies wie sie nvidia gerne herstellt heben die Ausbeute
- nvidia taktet die Chips niedriger -> hebt die Ausbeute

...

MfG
mr
Der RV770 hatte eine Yield die so (über) 90% war.

Dazu.
AMD konnte den RV740 @ 40nm 140 mm² schon im Sept in Massen liefern.
Nvidia konnte den GT215 @ 40nm mit 140 mm² "erst" in Nov in Massen liefern.
Also, ich sehe da keine Andeutungen, wo Nvidia da mit ihrer geringeren Dichte (Transistoren-pro-mm²) besser als AMD sein sollen.

Und es hat eben auch seinen Grund, warum die 400er Serie so spät und teildeaktiviert kommt.
Was mich wundert, dass es bis heute keinen 490GTX mit 2xGF104 (Voll-Chip) gibt.

Langenscheiss
2010-10-19, 20:12:11
@Leonidas:

Eine bessere Antwort sollte es von AMD wohl nicht mehr geben können als diese Folie. Kannst alles mit in den Artikel packen!


Und ich bin gerade ein bisschen stolz darauf, dass unsere Kritik offenbar doch Wirkung gezeigt hat, und dass ich mit meiner Analyse wohl recht hatte! ;)

horn 12
2010-10-19, 20:14:09
Bitte um Bilder Ingame Szenen von dem Neuen überarbeiteten AF Filter:smile:

Einige Tester sollten wohl die neuen Karten schon besitzen, da wird wohl was durchsickern können... Eine Frage der Zeit ?

Mancko
2010-10-19, 20:16:04
Dann komme ich mit Occams Razor (http://de.wikipedia.org/wiki/Ockhams_Rasiermesser): AMDs Dies sind kleiner, also sehr wahrscheinlich billiger. Alles andere erfordert kompliziertere Annahmen, bedarf also des Nachweises. Du bist dran.

Kleiner heisst aber auch untauglich für Business Kunden. Dort wird Geld gemacht. Wenn der Markt weiter wächst kann Nvidia auch noch 100 Jahre lang größere DIEs bauen. Dann wird der Consumerbereich halt mitfinanziert.
Kosten pro DIE sind in dem Geschäft eine viel zu einfache Rechnung, die hinten und vorne keine nachhaltigen Schlüsse zulassen.

S940
2010-10-19, 20:16:17
Zitat von S940 http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8336672#post8336672)
Ergo schätze ich die DIE Fläche (trotz höhere Trans. dichte), aktuell für deutlich wichtiger ein.

Mit welcher Qualifikation?
Die Begründung eines Satzes der mit "Ergo" anfängt, steht immer davor :freak:
Wenn Du daran was auszusetzen hast, dann bitte. Deine aktuelle Frage ist aber wenig sinnvoll.

mboeller
2010-10-19, 20:16:54
- Teildeaktivierte Dies wie sie nvidia gerne herstellt heben die Ausbeute


Barts ist soweit man das sagen kann auch teilaktiviert mit 14 von 16 aktiven Einheiten.


- nvidia taktet die Chips niedriger -> hebt die Ausbeute


Netter Scherz. Schon mal was von Shaderdomain gehört? :freak:

mr
2010-10-19, 20:22:43
Danke für die vielen sachlichen Antworten!
Ich kann leider nicht auf alle Antworten im Detail eingehen daher nur ein paar Ergänzungen um vielleicht ein paar Missverständnisse auszuräumen.

Natürlich macht nvidia die derzeitigen Maßnahmen wie Teildeaktivierung, Senkung der Taktraten beim Speicher und bei der GPU nicht zum Spaß sondern weil sie müssen um einigermaßen die Margen zu halten. (was ihnen immer mehr misslingt)
Den Unternehmen liegt dauerhaft nichts so sehr am Herzen als ihre Marge.

Im Endeffekt ist alles immer nur ein Tradeoff zu den sich jeweils bietenden Möglichkeiten eines jeden Herstellers. AMD hat sich in den letzten Jahren einen erheblichen KnowHow Vorsprung in der Transistorendichte erarbeitet den sie natürlich nutzen und der für IHR Design offenbar mit ausreichender Defektrate für die derzeitigen Marktgegebenheiten funktioniert.
Das Schwierige ist verschiedene Designs, auch wenn sie denselben Prozess nutzen, miteinander zu vergleichen. AMD hat eine wesentlich feinere Granularität in der Teildeaktivierung als nvidia. Dies ist Designbedingt aufgrund der Shaderkonfiguration und kommt der gößeren Dichte des AMD Designs entgegen.
Für nvidia und deren Design funktioniert eine geringere Transistorendichte offensichtlich besser um ihre gewünschten Ziele in Ausbeute und Takt einigermaßen zu erreichen.

Die unterschiedlichen Designs machen den Vergleich eben so schwierig.
Am Ende zählt das Gesamtpaket einer SKU:
Zu welchen Herstellkosten kann ich sie erzeugen und welchen Preis kann ich am Markt dafür lukrieren?


Mein Eindruck beim Lesen dieses Thread war der dass viele Leute die Größe des Die in direkte Relation zu den Herstellkosten der fertigen Karte (SKU) stellen. Mein Posting sollte nur dazu dienen einige der Einflüsse auf die finalen HK einer SKU aufzuzeigen.
Es ist selbst innerhalb eines Unternehmens manchmal schwierig genau festzustellen warum etwas wieviel kostet (Bsp. Querverschiebungen über das Portfolio in der Ausbeute aufgrund mangelnder Prozessstabilität) und ich traue mir nicht zu aufgrund der vorliegenden Informationen sagen zu können welche SKU günstiger herzustellen ist. Eine GTX460 1 GB oder eine HD6870?

MadManniMan
2010-10-19, 20:23:14
Das bezieht sich leider nur auf bessere trilineare Filterung, nicht auf die generelle Unterfilterung.

Das sieht nicht nach Mipmapping aus in dem Screeny - die AF-Sample-Verteilung scheint generell verbessert worden zu sein. ABER: die generelle Unterfilterung muss sich erst in anderen Test nachweisen, da hast Du Recht!


Ha! 3DCenter taucht in den AMD-Folien auf. Was für eine Ehre! :D

3DCenter ist weitaus wichtiger für die gesamte 3D-Szene, als man annehmen würde =)


Eine bessere Antwort sollte es von AMD wohl nicht mehr geben können als diese Folie. Kannst alles mit in den Artikel packen!

Nicht zu voreilig, bitte! Wir haben ja noch nicht einmal unsere Ausgangsbetrachtung (Radeon 5000) zu Ende gebracht ;)


Und ich bin gerade ein bisschen stolz darauf, dass unsere Kritik offenbar doch Wirkung gezeigt hat, und dass ich mit meiner Analyse wohl recht hatte! ;)

Puh, so gern ich Dir da zustimmen möchte: wenn es eine Hardwaresache war, dann waren wir zu spät! War es Software, so werde ich Dir gern ein Zertifikat für Deine Anstrengungen erstellen :D

LovesuckZ
2010-10-19, 20:31:25
Natürlich macht nvidia die derzeitigen Maßnahmen wie Teildeaktivierung, Senkung der Taktraten beim Speicher und bei der GPU nicht zum Spaß sondern weil sie müssen um einigermaßen die Margen zu halten. (was ihnen immer mehr misslingt)
Den Unternehmen liegt dauerhaft nichts so sehr am Herzen als ihre Marge.


nVidia's Marge ist seit dem kompletten Umstieg auf 40nm stetig am steigen. AMD's Gesamtfirmenmarge dagegen stagniert. Interessant ist, dass nVidia trotz angeblich deutlich teurer Fertigung für Consumerkarten eben die selbe Marge aufweisen kann. Und Geforce macht ca. 50-60% des Unternehmensumsatzes aus.

Armaq
2010-10-19, 20:51:42
nVidia's Marge ist seit dem kompletten Umstieg auf 40nm stetig am steigen. AMD's Gesamtfirmenmarge dagegen stagniert. Interessant ist, dass nVidia trotz angeblich deutlich teurer Fertigung für Consumerkarten eben die selbe Marge aufweisen kann. Und Geforce macht ca. 50-60% des Unternehmensumsatzes aus.
Äpfel und Birnen? Du wurdest jetzt bestimmt von zehn verschiedenen Usern gebeten den Mist zu unterlassen. Wie oft willst du die Sau noch durchs Dorf treiben?

Edit: Wann kommen denn Tests? 0 Uhr, Freitag, Anfang November?

V2.0
2010-10-19, 20:56:25
Mit dem Neuen Treiber kann man bereits die Neuen Freatures der HD6800-er Familie ansehen.
Meine Fresse, das geht aber gewaltig ab !!!!!!!!!

Der Caymna PRO / XT wird ein wahres Monster, besser gesagt Qualitäts-Monster, doch auch Barts ist nicht von schlechten Eltern.

Diese Karten gehn schneller weg wie warme Semmeln.

Wenn ATI liefern kann ist NV verloren. Barts killt GF104 und Cayman ist sowieso unangreifbar dominant. Jetzt haben sie gleich gute AF Qualitäten (mindestens) und überlegene AA Fähigkeiten dazu. ich bin gespannt wer von unseren BQ Fetischisten nun zu ATI wechselt oder sich doch nur als Fanboy offenbart.

Wenn ATI liefern kann sind 60-70% Marktanteil locker möglich.

Grumbart
2010-10-19, 20:57:14
@ Armaq
es scheint zwei NDA Daten zu geben
The NDA for pictures and specs expires the 19th (most likely at the same time they are doing the Taipei presentation 9:15AM).
But the NDA for performance tests expires on Friday the 22nd.

@ V2.0
Konjunktiv eben.
nVidia wird sicher auch etwas auf den Markt werfen, AMD wird etwas Zeit benötigen um die Karten in ausreichender Stückzahl anzubieten, und Cayman ist bisher eine große Unbekannte. Zur BQ kann man wohl erst etwas nach unabhängigen Tests sagen.

mironicus
2010-10-19, 20:59:38
Wann tauchen wohl die ersten Karten bei Geizhals auf...? :)

boxleitnerb
2010-10-19, 21:02:16
Wenn ATI liefern kann ist NV verloren. Barts killt GF104 und Cayman ist sowieso unangreifbar dominant. Jetzt haben sie gleich gute AF Qualitäten (mindestens) und überlegene AA Fähigkeiten dazu. ich bin gespannt wer von unseren BQ Fetischisten nun zu ATI wechselt oder sich doch nur als Fanboy offenbart.

Wenn ATI liefern kann sind 60-70% Marktanteil locker möglich.

Nur langsam mit den jungen Pferden. Noch haben wir Downsampling und SSAA unter DX10/11.
Ob das AF endlich gut ist, wissen wir noch nicht mit Sicherheit. Auch was AA angeht, muss man noch abwarten.

Superheld
2010-10-19, 21:03:25
Wenn ATI liefern kann ist NV verloren. Barts killt GF104 und Cayman ist sowieso unangreifbar dominant. Jetzt haben sie gleich gute AF Qualitäten (mindestens) und überlegene AA Fähigkeiten dazu. ich bin gespannt wer von unseren BQ Fetischisten nun zu ATI wechselt oder sich doch nur als Fanboy offenbart.

Wenn ATI liefern kann sind 60-70% Marktanteil locker möglich.


yo :cool:

http://img51.imageshack.us/img51/8369/88761440.png (http://img51.imageshack.us/i/88761440.png/)

Uploaded with ImageShack.us (http://imageshack.us)

DrFreaK666
2010-10-19, 21:04:15
Wenn ATI liefern kann ist NV verloren. Barts killt GF104 und Cayman ist sowieso unangreifbar dominant. Jetzt haben sie gleich gute AF Qualitäten (mindestens) und überlegene AA Fähigkeiten dazu. ich bin gespannt wer von unseren BQ Fetischisten nun zu ATI wechselt oder sich doch nur als Fanboy offenbart.

Wenn ATI liefern kann sind 60-70% Marktanteil locker möglich.

Was AF angeht muss man abwarten, und bei AA muss AMD noch viel nachholen. Da reicht MLAA nicht

Slipknot79
2010-10-19, 21:05:20
yo :cool:

http://img51.imageshack.us/img51/8369/88761440.png (http://img51.imageshack.us/i/88761440.png/)

Uploaded with ImageShack.us (http://imageshack.us)


Wurde von AMD der umgeflogene grüne König mit Physx berechnet? :redface:

y33H@
2010-10-19, 21:08:58
Jetzt haben sie gleich gute AF Qualitäten (mindestens) und überlegene AA Fähigkeiten dazu. Erst urteilen, wenn die Reviews online sind. Gerade bei AA und AF.

Eggcake
2010-10-19, 21:10:37
@V2.0
Ich wollte ja eigentlich nichts sagen, aber das war jetzt ein ziemlicher Schuss ins Bein :ugly:
Andere bereits als Fanboys beschimpfen bevor überhaupt erste unabhängige Tests draussen sind...:>

Abwarten!

Botcruscher
2010-10-19, 21:11:34
Fehlen noch unabhängige Tests. Insgesamt erwartet uns aber eine schöne Karte und ein gute Preiskampf mit der 460. Nach einem Jahr Stillstand eine sehr gute Entwicklung. Fehlt nur noch Cayman. Auf den dürften hier wesentlich mehr warten.

LovesuckZ
2010-10-19, 21:14:23
yo :cool:

http://img51.imageshack.us/img51/8369/88761440.png (http://img51.imageshack.us/i/88761440.png/)

Uploaded with ImageShack.us (http://imageshack.us)

Ist das Bild nicht alt? Gab es doch schon letztes Jahr.

Superheld
2010-10-19, 21:18:20
keine A..


@Slip

nö, mit Cayman..

Kalmar
2010-10-19, 21:19:48
Erst urteilen, wenn die Reviews online sind. Gerade bei AA und AF.

würde mich interessieren ob ihr als antwot auf den amd test mit dem 3d-centertool dies genau überprüfen werdet ?

wah kann man da wieder viel in deine antwort rein interpretieren ^^

wenn nun amd sich hier rumtreibt und das tool nutzt ob sie dann auch hier aktiv im forum mit rumtippen ? oder gar falsche leaks posten ? ;-)

die 6870 weckt wirklich begehrlichkeiten meine alte und doch angestaubte 3870 in rente zu schicken ... ich bin gespannt auf freitag ..

btw. wenn man LS mal bitte an die leine nehmen würde, er schafft es euch alle 3-4 seiten eine nervige diskussion los zu treten -.-

MR2
2010-10-19, 21:24:41
Yo, LS wird wohl dahinter stecken:-)

Ich wollte Cayman auslassen, aber so langsam macht mich ja schon Barts neugierig..

Bucklew
2010-10-19, 21:32:40
Die Begründung eines Satzes der mit "Ergo" anfängt, steht immer davor :freak:
Wenn Du daran was auszusetzen hast, dann bitte. Deine aktuelle Frage ist aber wenig sinnvoll.
Ich will keine Begründung haben, ich möchte wissen was deine Qualifikation ist um zu sagen, dass Faktoren X und Y so sind und so einzuordnen sind, dass daraus Schluß Z folgt.

Keine der betreffenden Firmen gibt entsprechende Zahlen heraus, also würde ich gerne wissen welche Erfahrung du hast, um solche Schlüsse zu ziehen.

Oder jedes du nur das nach, was digitimes & Co schreiben?

Erst urteilen, wenn die Reviews online sind. Gerade bei AA und AF.
Oh oh....

Eggcake
2010-10-19, 21:38:50
Yo, LS wird wohl dahinter stecken:-)

Ich wollte Cayman auslassen, aber so langsam macht mich ja schon Barts neugierig..


Geht mir auch so :usad: Eigentlich würd's mir kaum was bringen, aber..."habenwollen" halt.
Zumindest bin ich nun so richtig gespannt auf Cayman.

fondness
2010-10-19, 21:43:11
Eine erhöhte Transistordichte sorgt logischerweise auch für schlechtere Yields, sollte eigentlich ziemlich logisch sein.

Dann erklär mal damit ich dich auseinander nehmen kann. :)


Sagt jetzt was über die Yields aus? Außer gar nicht? Ob voll funktionsfähig oder teildeaktiviert ist am Ende immer noch eine Produktentscheidung, die sich nicht zwangsläufig an den technischen Möglichkeiten, sondern durchaus auch eigenen und dem Konkurrenzportfolio orientiert.

Natürlich wird das alles gemacht weil mehr nicht nötig ist. Aber warte mal, es ist mehr nötig, es kommt aber trotzdem nicht mehr, seltsam.


Je höher der Takt, desto schlechter der Yield.

Dann muss ja Intel und AMD bei den CPU völlig desaströse Yield haben mit >3Ghz. Sag doch einfach das du keine Ahnung hast. :)
Aber okay, die Diskussion ist hier völlig sinnlos, deshalb lass ich das jetzt besser.

Schlammsau
2010-10-19, 21:51:50
Ich hoffe inständig, dass sich beim Multimonitor Stromverbrauch was getan hat. Das ist mein grösster Kritikpunkt aller Grafikkarten dieser Welt.

Dural
2010-10-19, 21:52:55
Wenn ATI liefern kann ist NV verloren. Barts killt GF104 und Cayman ist sowieso unangreifbar dominant. Jetzt haben sie gleich gute AF Qualitäten (mindestens) und überlegene AA Fähigkeiten dazu. ich bin gespannt wer von unseren BQ Fetischisten nun zu ATI wechselt oder sich doch nur als Fanboy offenbart.

Wenn ATI liefern kann sind 60-70% Marktanteil locker möglich.

lacher des abends ;D


Dann muss ja Intel und AMD bei den CPU völlig desaströse Yield haben mit >3Ghz. Sag doch einfach das du keine Ahnung hast. :)
Aber okay, die Diskussion ist hier völlig sinnlos, deshalb lass ich das jetzt besser.

umso höher der takt umso schlechter die ausbeute für diese eine Chip Version, das ist eine klare und logische tatsache!

fondness
2010-10-19, 22:00:29
umso höher der takt umso schlechter die ausbeute für diese eine Chip Version, das ist eine klare und logische tatsache!

Für einen isoliert betrachteten Chip natürlich. Bucklew vergleicht zwischen AMD und NV, das ist völliger nonsens. Der Takt wird ganz zum Schluss festgelegt und orientiert sich an den Yields und nicht umgekehrt. Wenn ich einen Chip höher takten kann ist das deshalb sicherlich kein Anzeichen für schlechtere Yields, sondern spricht ganz im Gegenteil für gute Yields.

Black-Scorpion
2010-10-19, 22:00:56
Dann muss ja Intel und AMD bei den CPU völlig desaströse Yield haben mit >3Ghz. Sag doch einfach das du keine Ahnung hast. :)
Aber okay, die Diskussion ist hier völlig sinnlos, deshalb lass ich das jetzt besser.
Naja
Der Vergleich hinkt nicht nur, der kriecht. Eine GPU ist deutlich komplexer wie eine CPU.

Schlammsau
2010-10-19, 22:01:25
Egal was AMD macht oder bringt, die grössten Fanboys werden niemals zu AMD wechseln. Umgedreht ists ja genauso.

Und eins kann ich euch versichern.....auch wenn das AF jetzt nVidias HQ Niveau hat, oder SGSSAA unter allen APIs möglich wäre, diverse Leute werden was finden, wo sie sich dran aufhängen können.

Und ich weiss jetzt schon was es ist.....die *Love*leistung wird es sein, wo sich diverse Member aufhängen werden. Von nicht Konkurrenzfähig wird gesprochen werden, und es wird mit diversen theoretischen Benchmarks nur so umsich geworfen, die zeigen wie schlecht Barts eigentlich ist.

Ich freu mich jetzt schon..... :freak:

hmx
2010-10-19, 22:02:40
lacher des abends ;D




Den Müll schreibt er hier schon seit einiger Zeit. Die 6800er sind sicher gute Karten, aber dass man damit den 460er unnötig macht sehe ich nicht. Der Gegner der 6870 ist der 460 mit 800MHz, die anderen 460er sind deutlich günstiger.
Kein Wunder, dass es so schwer ist vernünftige Infos zu bekommen, es gibt immer welche die mit ihren Wunschträumen den Thread zumüllen.

Dural
2010-10-19, 22:04:27
naja ich sehe bis jetzt rein gar nichts wo sich GF104 von barts verstecken muss, von dem her...

der eine chip bietet das der andere halt dies, leistungsmässig dürfte GF104 384SP sogar überlegen sein... was auch logisch ist wenn eine GTX460 (336SP) @ 800MHz für 6870 ausreicht ;)

nur so als erinnerung, es gab eine Zeit wo NV einen 580mm2 DIE gegen eine 260mm2 DIE von AMD gestellt hat, die Zeiten sind definitiv vorbei!

Jetzt sind es gerade mal 340mm2 gegen 250mm2...

Ich frag mich aber immer noch ob die 6870 wirklich alles aktiv hat...

AnarchX
2010-10-19, 22:15:16
Ein paar Performance-Werte gab es in dem Posting mit der AF-Folie auch:

've Just faced a review, hidden under a web site. Got him out there to fish. But do not tell the website. I.v.m. NDA problems that they can get.

The 6870 is about as fast as 5870. Roughly, the 5870, four frames faster than the 6870. In Crysis Warhead, Battlefield 2, Dirt 2 Metro2033. Only in Far Cry 2 is a difference. There is the 6870 faster than the 5870 and 6850 is as fast as the 5870.

Bucklew
2010-10-19, 22:16:59
Dann erklär mal damit ich dich auseinander nehmen kann. :)
Und du glaubst das schaffst du? Denke ich eher nicht bei deinen Äußerungen ;)

Ist doch logisch, dass man mit höhere Packdichte einiges an Problemen bekommt. Ein Defekt auf dem Chip zieht mehr Schaltkreise in Mitleidenschaft, die Schaltkreise beeinflußen sich unter einander mehr usw. Nicht zu vergessen natürlich auch, dass sich die AMD-Konstruktion mit den einfachen 5D-Shadern besser für höhere Packdichten eignet als die 1D-Konstruktion von Nvidia.

Natürlich wird das alles gemacht weil mehr nicht nötig ist. Aber warte mal, es ist mehr nötig, es kommt aber trotzdem nicht mehr, seltsam.
Ja warum sollte man auch die GF10x-Chips nochmal in einer neuen SKU qualifizieren, wenn die Refreshes schon fast da sind?

Dann muss ja Intel und AMD bei den CPU völlig desaströse Yield haben mit >3Ghz. Sag doch einfach das du keine Ahnung hast. :)
Aber okay, die Diskussion ist hier völlig sinnlos, deshalb lass ich das jetzt besser.
Zum Glück verwenden Intel und AMD für ihre CPUs auch dieselben Fertigungsprozeße wie bei GPUs und zum Glück sind diese CPUs auch ähnliche groß wie GPUs und haben ähnliche viele Transistoren.

Und so jemand wirft mir vor ich hätte keine Ahnung ;D

Egal was AMD macht oder bringt, die grössten Fanboys werden niemals zu AMD wechseln. Umgedreht ists ja genauso.
Die größten Fanboys sind doch schon bei AMD?! ;D

Schlammsau
2010-10-19, 22:23:33
nur so als erinnerung, es gab eine Zeit wo NV einen 580mm2 DIE gegen eine 260mm2 DIE von AMD gestellt hat, die Zeiten sind definitiv vorbei!

Jetzt sind es gerade mal 340mm2 gegen 250mm2...



:facepalm:

War der RV770 genauso schnell wie der GT200? Und ausserdem waren es verschiedene Fertigungsprozesse! ......*klick*
Also kein Vergleich oder?

Es sind momentan 360mm² vs 250mm² bei mehr Leistung für den kleineren Die. :smile:

Bucklew
2010-10-19, 22:28:57
Es sind momentan 360mm² vs 250mm² bei mehr Leistung für den kleineren Die. :smile:
"The GF104 die is measured at 13.7x24.2mm, i.e. 331.54mm²."
http://www.brightsideofnews.com/news/2010/8/9/nvidia-fermi-geforce-die-sizes-exposed.aspx

Kalmar
2010-10-19, 22:33:43
Ein paar Performance-Werte gab es in dem Posting mit der AF-Folie auch:

frage nach den settings stellt sich mir, na mal schaun wenn des hier im forum so weiter geht werden des lange 3 tage bis freitag

bitte ein mod die posts löschen.. nv interessiert hier doch keinen und die personen werden wohl immer wieder damit anfangen ...

BlackBirdSR
2010-10-19, 22:42:57
Naja
Der Vergleich hinkt nicht nur, der kriecht. Eine GPU ist deutlich komplexer wie eine CPU.

lässt sich nur sehr schwer vergleichen.
Nicht umsonst, findet man die starke CPUs auch nur bei starken Herstellern.

Beide haben ihre speziellen Problemzonen, die sie unterscheiden, aber auch genug gemeinsam.

Schlammsau
2010-10-19, 22:44:25
Ich zitiere mich mal selbst:
Ich hoffe inständig, dass sich beim Multimonitor Stromverbrauch was getan hat. Das ist mein grösster Kritikpunkt aller Grafikkarten dieser Welt.
Gibt es dahingehend schon Gerüchte?

Black-Scorpion
2010-10-19, 22:46:02
Ach ist die so unabhängige Modschaft wieder damit beschäftigt unangenehme Beiträge zu löschen. Komisch das der ganze Spam von den üblichen Verdächtigen nicht angerührt wird. der bleibt zur Provokation schön stehen.

Screemer
2010-10-19, 22:48:59
Ein paar Performance-Werte gab es in dem Posting mit der AF-Folie auch:
sollten das stimmen (bei mittleren auflösungen und mittleren filtereinstellungen) und dann die spekulierten preise auch noch zutreffen, sollte ich wohl endlich eine ablösung für meine gts8800 512 gefunden haben.

S940
2010-10-19, 22:53:34
Ich will keine Begründung haben, ich möchte wissen was deine Qualifikation ist um zu sagen, dass Faktoren X und Y so sind und so einzuordnen sind, dass daraus Schluß Z folgt.
Wieso so kompliziert ... ?
Schreib einfach, was Du an meinem Satz:
Aber jetzt ist TSMCs 40nm Prozess eingefahren. Wenns da jetzt immer noch viele Defekte gäbe, könnten sie sich die Kugel geben :freak:

auszusetzen hast.
Ich schreib im Konjunktiv, daraus sollte eindeutig ersichtlich sein, dass ich nur spekuliere ... wenn Du jetzt andere Meinung bist, und vermutest, dass TSMCs immer noch so grottig wäre, wie vor einem Jahr, bitte gerne.

Ich halts für sehr unwahrscheinlich, und da werden wir sicherlich sehr viele andere zustimmen. Aber ganz genau, 100%ig weiß man es - abgesehen von der chamber mismatch story - selbstverständlich nicht.

Deswegen weiss ich auch nicht, was Du von mir willst ... ich hab nirgends behauptet, dass das genau so und nicht anders wäre ... :confused:

BlackBirdSR
2010-10-19, 22:59:34
Ach ist die so unabhängige Modschaft wieder damit beschäftigt unangenehme Beiträge zu löschen. Komisch das der ganze Spam von den üblichen Verdächtigen nicht angerührt wird. der bleibt zur Provokation schön stehen.

Ich glaub ich mach Dich mal für ein Monat zum Mod!


@Multimonitor:
Ist mir bisher nix bekannt, aber ich sehe da eher ein konzeptionelles Problem.
Ob die Hersteller das als wichtig genug ansehen um ein paar Cent mehr auszugeben?

AnarchX
2010-10-19, 23:04:53
@Multimonitor:
Ist mir bisher nix bekannt, aber ich sehe da eher ein konzeptionelles Problem.
Ob die Hersteller das als wichtig genug ansehen um ein paar Cent mehr auszugeben?
Um ein paar Cent geht es da wohl kaum.
Es bräuchte eine völlige Neukonzeption des Speicherinterfaces um bei verschiedenen Anzeigen (nicht synchronisierbare VBLANKs) den Speichertakt ohne Darstellungsfehler zu verändern.

Bucklew
2010-10-19, 23:22:47
Wieso so kompliziert ... ?
Schreib einfach, was Du an meinem Satz:

auszusetzen hast.
An dem Satz nicht. An welchem Satz ich was auszusetzen habe, habe ich bereits durch das zitieren deutlich gemacht.

Gipsel
2010-10-20, 00:25:56
Ist doch logisch, dass man mit höhere Packdichte einiges an Problemen bekommt. Ein Defekt auf dem Chip zieht mehr Schaltkreise in Mitleidenschaft, die Schaltkreise beeinflußen sich unter einander mehr usw. Nicht zu vergessen natürlich auch, dass sich die AMD-Konstruktion mit den einfachen 5D-Shadern besser für höhere Packdichten eignet als die 1D-Konstruktion von Nvidia.
Möööp. Diese Sätze führen zur sofortigen Disqualifikation.
Informiere Dich mal über die verschiedenen Arten von Defekten und wie deren Auftreten von der Anzahl der Transistoren, der Diefläche und der Güte (sprich Beherrschbarkeit) des Fertigungsprozesses abhängen! Was Du da schreibst ist so einfach Blödsinn. Bei einem eingefahrenen Prozeß überwiegen üblicherweise deutlich solche Fehler, die überhaupt nicht von der Packdichte abhängig sind sondern rein von der Diegröße.

Überdies hast Du die generellen Schwierigkeiten beim Aufbau der nv und AMD GPUs wohl grundsätzlich mißverstanden. AMD baut traditionell recht komplexe Shadereinheiten mit ziemlichem Feintuning, was das Balancing von Latenzen und Takt angeht (die 5 Slots einer VLIW-Einheit können innerhalb der physischen Latenz von 8 Takten zusammenarbeiten und (Teil-)Ergebnisse austauschen, die nvidia-Einheiten schaffen das üblicherweise innerhalb von 18 bis 24 Takten nicht, zumindest nicht laut offizieller Lesart, evtl. tun sie es aber bei DP auf GF100). Dafür favorisiert nvidia deutlich mehr Pipelinestufen auf Kosten der Latenzen, insgesamt sind die eigentlichen Ausführungseinheiten aber konzeptionell einfacher.
Dies investiert nV in ein deutlich aufwendigeres "Drumherum", sprich die ganze Verwaltung, aber auch die Registerfiles entstammen eher einem brute force Ansatz eines Lehrbuches als die sehr voneinander abhängigen Teile bei AMD (die dadurch Komplexität und Transistoren sparen). Während bei nv das alles (Registerfile, Ausführungseinheiten, Scheduler) eher voneinander unabhängig ist, bedingen sich viele Sachen bei AMD GPUs, die Einzelteile sind sozusagen "aufeinander abgestimmt" (was auch der Grund ist, warum man auch nicht einfach mal so einen Teil ändern kann und die grundlegende Architektur schon recht lange besteht, sie stellt einfach in einigen Beziehungen ein gewisses Optimum dar).

Die unterschiedlichen Packdichten resultieren zum Teil einfach aus nvidias Bestreben, ein besseres Verhältnis von Transistoren in den Shadereinheiten zu Transistoren in der Verwaltung trotz "1D-Einheiten" zu erreichen (GF104 macht da ja auch schon Kompromisse). Ein Mittel dazu sind höhere Takte, die oft eine geringere Packdichte erfordern (AMD geht den Weg einer schlicht einfacheren Verwaltung). Der zweite Grund mag darin liegen, daß nvidia wohl auch weniger low level Prozeß-Ingeneure beschäftigt, die die Adaption auf den jeweils aktuellen Fertigungsprozeß vorantreiben. Das wurde auch schon des öfteren thematisiert.

Coda
2010-10-20, 00:42:04
Der zweite Grund mag darin liegen, daß nvidia wohl auch weniger low level Prozeß-Ingeneure beschäftigt, die die Adaption auf den jeweils aktuellen Fertigungsprozeß vorantreiben. Das wurde auch schon des öfteren thematisiert.
Das ist doch Aufgrund der eingesetzten R&D-Summen eher unwahrscheinlich.

Die Shader mit höheren Frequenzen dürften durch mehr Pipeline-Stufen und die dafür nötigen Buffer etc. einfach mehr Platz verbrauchen. Das wird schon auch primär Custom-Logik sein.

Gestrandet
2010-10-20, 00:56:12
Das ist doch Aufgrund der eingesetzten R&D-Summen eher unwahrscheinlich.
Das ist auf Grund der Geschichte von AMD als Eigenfertiger und ihrer massiven Pesonalaufrüstung im Bereich DFM im Zuge der Probleme mit 65nm alles andere als unwahrscheinlich. Deshalb saßen bei AMD dann auch schon viele Leute, die mit TSMCs 40nm Specs "vernünftig" umgehen konnten - bei nvidia ein paar weniger. Wenn Huang sich schützend vor seine Personalabteilung stellt und den schwarzen Peter nach Hsinchu weitterreicht, mag das einem väterlichen Firmenlenker zur Ehre gereichen - den Tatsachen gerecht wird es nicht.

Gipsel
2010-10-20, 01:00:15
Das ist doch Aufgrund der eingesetzten R&D-Summen eher unwahrscheinlich.Du weißt, wie sich das verteilt? Bedenke auch, daß daraus ebenfalls viele Softwareanstrengungen finanziert werden ;).
Die Shader mit höheren Frequenzen dürften durch mehr Pipeline-Stufen und die dafür nötigen Buffer etc. einfach mehr Platz verbrauchen.Die deutlich mehr Pipelinestufen habe ich explizit erwähnt. Das beeinträchtigt den Rest des Geschriebenen aber nicht.

LovesuckZ
2010-10-20, 01:01:07
Tatsächlich hat nVidia bis heute mehr 40nm Produkt veröffentlicht und verkauft als jeder andere Kunde von TSMC. Das ist sehr erstaunlich für eine Firma, die angeblich mit den "40nm Specs nicht vernünftig" umgehen konnte.

Coda
2010-10-20, 01:01:48
Ich glaube einfach nicht daran, dass NVIDIA wirklich unfähigere Leute hat als AMD. Die Budgets dürften zumindest in ähnlichen Regionen angesiedelt sein.

Du weißt, wie sich das verteilt?
Nein, du aber auch nicht.

Das ist aber auch das letzte was ich zu dem Thema sagen werde. Mir doch zu blöd.

Gipsel
2010-10-20, 01:04:04
Ich glaube einfach nicht daran, dass NVIDIA wirklich unfähigere Leute hat als AMD.Ich auch nicht. Es kommt aber natürlich auch immer darauf an, wie viele was genau tun. Und da liegen die Prioritäten wohl etwas unterschiedlich.

Coda
2010-10-20, 01:04:29
Ich auch nicht. Es kommt aber natürlich auch immer darauf an, wie viele was genau tun. Und da liegen die Prioritäten wohl etwas unterschiedlich.
Reine Spekulation.

Hier wird wie immer viel mit heißer Luft diskutiert, anstatt sich mal auf's Wesentliche zu konzentrieren.

Bucklew
2010-10-20, 01:07:23
Informiere Dich mal über die verschiedenen Arten von Defekten und wie deren Auftreten von der Anzahl der Transistoren, der Diefläche und der Güte (sprich Beherrschbarkeit) des Fertigungsprozesses abhängen! Was Du da schreibst ist so einfach Blödsinn. Bei einem eingefahrenen Prozeß überwiegen üblicherweise deutlich solche Fehler, die überhaupt nicht von der Packdichte abhängig sind sondern rein von der Diegröße.
Weiß jetzt nicht wer dir diesen Bären aufgebunden hat, aber natürlich ist auch die Fehlerrate nicht unabhängig von der Packdichte. Jenachdem wo der Fehler auftritt (und wie hoch die Packdichte ist) liegen die Konsequenzen so eines Fehlers zwischen egal und Chip kaputt. Nur weil auch die Chipfläche eine Rolle spiel (je besser im Griff der Prozeß desto gewichtiger) heißt ja noch lange nicht, dass es egal wäre. Und ich denke auch nicht, dass wir im Falle des aktuellen 40nm-Prozeß von TSMC noch großartig von "überlicherweise" sprechen können ;)

[kann ja jeder nachlesen]
Ich hätte vielleicht besser zwischen Shadern und ALUs trennen sollen (wobei, da ist ja auch AMD schuld, die immer nur ihre ALUs groß in die Powerpoints schreiben, statt die wirklich nutzbaren Shader).

Das Problem ist zum (nicht unwesentlichen Teil) auch der Stromverbrauch, der natürlich einer (noch) höheren Packdichte bie Nvidia absolut gegenüber steht. Da hat ATI mit bisher auf dem Papier stehenden 1600 Shadern (was ja in Wirklichkeit nur 320 5D-Einheiten sind) einen Vorteil, weil es quasi kein Spiel gibt, das auch nur ansatzweise eine 100% Auslastung erreicht. Und mit dem Stromverbrauch natürlich eingehend die Temperatur. Furmark bei der HD4000 sei da mal genannt.

Die unterschiedlichen Packdichten resultieren zum Teil einfach aus nvidias Bestreben, ein besseres Verhältnis von Transistoren in den Shadereinheiten zu Transistoren in der Verwaltung trotz "1D-Einheiten" zu erreichen (GF104 macht da ja auch schon Kompromisse). Ein Mittel dazu sind höhere Takte, die oft eine geringere Packdichte erfordern (AMD geht den Weg einer schlicht einfacheren Verwaltung).
Wir stellen uns mal vor ein GF100 hätte noch höhere Packdichten und daher noch mehr Stromverbrauch und.... Kurz: Wäre quasi gar nicht möglich.

Der zweite Grund mag darin liegen, daß nvidia wohl auch weniger low level Prozeß-Ingeneure beschäftigt, die die Adaption auf den jeweils aktuellen Fertigungsprozeß vorantreiben. Das wurde auch schon des öfteren thematisiert.
Na da bin ich mal auf den Link gespannt ;)

Deshalb saßen bei AMD dann auch schon viele Leute, die mit TSMCs 40nm Specs "vernünftig" umgehen konnten - bei nvidia ein paar weniger.
Die lieferbaren HD5000 zu Beginn sagen irgendwie was anderes aus?!

Gestrandet
2010-10-20, 01:18:07
Ich glaube einfach nicht daran, dass NVIDIA wirklich unfähigere Leute hat als AMD.
Aktuell vlt. nicht mehr, aber zeitweise war das in dem Bereich so. Es gibt da ja auch keinen unendlich großen Pool wo sich jeder nach Belieben bedienen kann. Intel versucht nach Kräften, alle guten Leute "einzusacken".
Es überrascht mich ein bisschen, dass du scheinbar davon nichts mitbekommen hast, im Graphikbereich gab's doch von Intel genau dieselben Bestrebungen. Ich kann für eine deutschen Hochschule (ok, ist nicht repräsentativ, aber warum sollte es an anderen anders aussehen) sagen, dass hier _jeder_ 1er Diplomand am LS Computergraphik von Intel anzuwerben versucht wurde.
Intel sind quasi die Bayern der Halbleiterbranche :D

Gipsel
2010-10-20, 01:18:44
Weiß jetzt nicht wer dir diesen Bären aufgebunden hat, [...]Wie gesagt, informiere Dich mal genauer darüber! Es gibt ganz unterschiedliche Fehlerquellen, die sich natürlich auch unterschiedlich verhalten. Ich glaube kaum, daß das hier der richtige Ort ist, um darüber jetzt eine Vorlesung zu halten ;).
Wir stellen uns mal vor ein GF100 hätte noch höhere Packdichten und daher noch mehr Stromverbrauch [..]Oder bei gleichem bzw. sogar niedrigerem Stromverbrauch einfach eine niedrigere Taktrate ;)
Die Packdichte beeinflußt in erster Nährung eher die Taktbarkeit denn den Verbrauch (es sei denn natürlich, man reißt die Spannung hoch).

Bucklew
2010-10-20, 01:23:28
Wie gesagt, informiere Dich mal genauer darüber! Es gibt ganz unterschiedliche Fehlerquellen, die sich natürlich auch unterschiedlich verhalten. Ich glaube kaum, daß das hier der richtige Ort ist, um darüber jetzt eine Vorlesung zu halten ;).
Natürlich gibt es unterschiedliche Fehlerquellen. Wo ist dann also das Problem mit meiner Aussage? Ich habe nirgends geschrieben, dass das die one and only Fehlerquelle ist.

Oder bei gleichem bzw. sogar niedrigerem Stromverbrauch einfach eine niedrigere Taktrate ;)
Die Packdichte beeinflußt in erster Nährung eher die Taktbarkeit denn den Verbrauch (es sei denn natürlich, man reißt die Spannung hoch).
Da man natürlich ein gewisstes Taktniveau erzielen will, beeinflußt die Packdichte sehr wohl wieder den Verbrauch, denn man möchte ja gerne Taktziel X haben.

LovesuckZ
2010-10-20, 01:27:20
Ich auch nicht. Es kommt aber natürlich auch immer darauf an, wie viele was genau tun. Und da liegen die Prioritäten wohl etwas unterschiedlich.

Die Priorität von 40nm bei nVidia erkannt man daran, dass sie mit Stand heute 9 unterschiedliche 40nm Produkte auf dem Markt haben oder produziert haben.
Es spricht daher Bände, dass du eine erneute einseitige Pro-AMD-Veröffentlichung in diesem Forum postest, die weder auf Fakten basiert, noch die Wirklichkeit berücksichtigt. Genauso wie du mich wissentlich außerhalb des Kontext zitierst, um eine Meinung zu suggerieren, die ich nie ausgedrückt habe, versuchst du hier durch wissentliche Enthaltung von Fakten und der Ignorierung der Wirklichkeit etwas über nVidia zu suggerieren, das falsch ist.

Daher muss hier erneut gefragt werden, in welchen Verhältnis stehst du zu AMD?

deekey777
2010-10-20, 01:28:51
Die Priorität von 40nm bei nVidia erkannt man daran, dass sie mit Stand heute 9 unterschiedliche 40nm Produkte auf dem Markt haben oder produziert haben.
Es spricht daher Bände, dass du eine erneute einseitige Pro-AMD-Veröffentlichung in diesem Forum postest, die weder auf Fakten basiert, noch die Wirklichkeit berücksichtigt. Genauso wie du mich wissentlich außerhalb des Kontext zitierst, um eine Meinung zu suggerieren, die ich nie ausgedrückt habe, versuchst du hier durch wissentliche Enthaltung von Fakten und der Ignorierung der Wirklichkeit etwas über nVidia zu suggerieren, das falsch ist.

Daher muss hier erneut gefragt werden, in welchen Verhältnis stehst du zu AMD?
Meine Frage: Über welche Präferenzen verfügst du eigentlich? Selbstbildung? Einbildung?

Gipsel
2010-10-20, 01:30:59
Natürlich gibt es unterschiedliche Fehlerquellen. Wo ist dann also das Problem mit meiner Aussage? Ich habe nirgends geschrieben, dass das die one and only Fehlerquelle ist.Und ich habe gesagt, welche Skalierung bei einem eingefahrenen Prozeß überwiegt (nämlich die mit der Diegröße, nicht eine mit der Transistoranzahl; Im übrigen ist der Effekt sowieso recht klein bei den recht moderaten Unterschieden der Packdichten, also sowieso größtenteils unerheblich ;)). Also wo ist Dein Problem?
Da man natürlich ein gewisstes Taktniveau erzielen will, beeinflußt die Packdichte sehr wohl wieder den Verbrauch, denn man möchte ja gerne Taktziel X haben.Wenn man das Taktziel nicht mit der avisierten Spannung aufgrund einer zu hohen Packdichte hinbekommt, hat man sich schlicht verplant.
Ansonsten ist die Wahl der Packdichte ein Kompromiß, den man in der Planungsphase trifft. Bei nvidia sieht er so aus, daß man höhere Taktfrequenzen haben will und deswegen (weil der Verbrauch kein freier Parameter ist) bei der Packdichte leichte Abstriche in Kauf nimmt. Fertig.

Gestrandet
2010-10-20, 01:38:26
Wenn ich mir Lovesucks Sig anschaue und was er sonst hier so schreibt, frage ich mich eher:
In welchem Verhältnis steht er zu seiner Mutter?
Er hat ja manchmal schon was von Norman Bates ...

LovesuckZ
2010-10-20, 01:40:00
Meine Frage: Über welche Präferenzen verfügst du eigentlich? Selbstbildung? Einbildung?

nVidia hat sich sehr oft, sehr klar über die Priorität der 40nm Migration geäußert. Das was nVidia gesagt und getan hat, läuft konträr zu dem, was Gipsel geschrieben hat. Da Gipsel jedoch keine Belege für seine Äußerung geliefert hat, muss man hier andere Gründe suchen, wieso er soetwas falsches schreibt. Und wenn man 1+1 zusammenzählt, sind die Gründe ersichtlich.

Gestrandet
2010-10-20, 01:45:36
Dann erklär uns doch mal, wieso nvidia uns nach zig Millionen Mückenschiss-Chips in 40nm immer noch auf den mythical Vollausbau von GF104 warten lässt.
Lass mich raten: Aus reiner Fairness und Nächstenliebe, damit die Konkurrenz nicht _völlig_ chancenlos ist???

Iruwen
2010-10-20, 01:47:49
Und wieder original LS-Qualität ... ich hab sie richtig lieb gewonnen inzwischen :biggrin:
Du hast natürlich recht - "fresst mehr Scheiße! 40 Milliarden Fliegen können nicht irren." ^^
Und wenn du satt bist, kannst du ja mal auf http://www.golem.de/1009/78179.html vorbeischauen. Fernsehen bildet. :smile:

Wenn ich mir Lovesucks Sig anschaue und was er sonst hier so schreibt, frage ich mich eher:
In welchem Verhältnis steht er zu seiner Mutter?
Er hat ja manchmal schon was von Norman Bates ...

LZ nervt, wir habens begriffen. Wie wärs wenn du selbst was zum Thema beiträgst und einfach nicht drauf eingehst, vor allem nicht auf dem Niveau. Ist ja furchtbar.

S940
2010-10-20, 01:55:37
Und ich habe gesagt, welche Skalierung bei einem eingefahrenen Prozeß überwiegt (nämlich die mit der Diegröße, nicht eine mit der Transistoranzahl; Im übrigen ist der Effekt sowieso recht klein bei den recht moderaten Unterschieden der Packdichten, also sowieso größtenteils unerheblich ;)). Also wo ist Dein Problem?
Das frag ich mich auch.. ich hatte ja Ähnliches geschrieben und da gefällt ihm ein Teilsatz nicht:
An dem Satz nicht. An welchem Satz ich was auszusetzen habe, habe ich bereits durch das zitieren deutlich gemacht.Der zitierte Satz macht alleine keinen Sinn. Ich hab da ebenfalls keine Ahnung, was Du von mir willst.
Wenn Du magst kannst Du gerne versuchen es umzuformulieren, bzw. genauer zu sagen, aber wie gesagt - alleine für sich hat der Satz keine Aussage, da der Kontext fehlt.

Zu den low-level Prozessingenieuren bei nvida <> ATi:
Da gabs doch mal irgendwo Gerüchte, die besagten, dass ATi viel enger mit TSMC zusammenarbeiten würde, weiss aber nicht mehr wann und wo das war. Kann schlimmstenfalls auch von Charlie gewesen sein, den wohl viele nicht als zuverlässige Quelle anerkennen werden ;-)
Abseits davon, kann man nur spekulieren, ATi setzte ja länger auf mittelgroße DIEs mit dem neuesten Prozeß, während nvidia früher nur auf bewährte Prozesse setzte. Da wäre es logisch, dass ATi mehr in low-level Personal investiert, da am Prozessanfang sicher mehr Probleme anfallen.
Aber wie gesagt - Spekulation, und vielleicht schaut es mittlerweile anders aus, seit Fermi sollte nV dazugelernt haben ;-)

Gipsel
2010-10-20, 02:03:20
Daher muss hier erneut gefragt werden, in welchen Verhältnis stehst du zu AMD?Erneut? Es muß gefragt werden? Tust Du es denn auch? Und wie kommst Du überhaupt zu so inquisitorischen Fragen?

Aber um das ganz einfach zu beantworten: Ich stehe in gar keinem Verhältnis zu AMD.

Um das mal vollständig transparent zu machen, kann ich Folgendes sagen:
Ich habe vor etwa 18 Monaten mal ein paar emails mit dem ATI Developer Support ausgetauscht und anschließend zwei Karten (eine HD4870 und eine HD4890) erhalten. Die 4870 liegt neben mir in einer Schublade im Schreibtisch und die 4890 werkelt inzwischen bei meinem Bruder im Rechner (habe ich gegen seine HD4850 getauscht, diese liegt jetzt bei mir ebenfalls in der Schreibtischschublade, den kompletten Rechner mit Intel Q6600, 4GB RAM und anfangs HD4850 habe ich ihm übrigens mal zu Weihnachten [oder Geburtstag?] geschenkt). Seitdem besteht allerdings kein Kontakt mehr zu AMD und ich bin (und fühle mich auch) keineswegs irgendwie verpflichtet. Der Geldwert der Geschichte war sowieso minimal (der Versand per Air-Express innerhalb von 30 Stunden aus den Staaten an meine Haustür war genauso teuer wie die Karten) in Anbetracht meines Einkommens. Davor bot man mir (natürlich nicht seitens ATI) übrigens auch GTX2xx Karten an (wenn ich mich richtig erinnere sogar eine GTX295), die ich aber für mein damaliges Projekt nicht gebrauchen konnte und die ich deswegen ablehnte. Ich war einfach ehrlich mit denen und wollte die nicht einfach einsacken und die danach verticken, was wohl auch gegangen wäre. Es war irgendwie schwieriger, an ATI-Karten zu kommen (und ich habe nicht eingesehen, daß ich mir selber welche kaufe, auch wenn ich davon wohl nicht gestorben wäre).

In meinem Privat-PC werkelt übrigens eine nvidia-Karte (falls er denn mal an ist), mein Büro-PC hat einen Intelschen Grafik-Deccelerator, mein Notebook läuft noch mit AMD 690G integrierter Grafik.

So, und jetzt?

Ich denke, wir sollten wirklich mal wieder auf das Thema kommen, das da wäre: SI/NI in 40nm

Wie stehen die Chancen, daß der Codepfad für die 4-Slot-VLIW-Architektur im Treiber (http://forum.beyond3d.com/showthread.php?p=1483729#post1483729) für Cayman gedacht ist? Es scheint ja immerhin 2 Einträge für diese Architektur dort zu geben (http://forum.beyond3d.com/showthread.php?p=1483787#post1483787).

S940
2010-10-20, 02:25:13
Erneut? Und wie kommst Du überhaupt zu so inquisitorischen Fragen?

Er schließt wohl gerne von sich auf andere, mich hat er auch schon mal dahingehgend inquisitiert ^^
Anscheinend kann er nicht verstehen, dass man soviel Energie gegen seine schiere Massen an Postings aufwendet, ohne Geld dafür zu bekommen ^^

Wie stehen die Chancen, daß der Codepfad für die 4-Slot-VLIW-Architektur im Treiber (http://forum.beyond3d.com/showthread.php?p=1483729#post1483729) für Cayman gedacht ist? Es scheint ja immerhin 2 Einträge für diese Architektur dort zu geben (http://forum.beyond3d.com/showthread.php?p=1483787#post1483787).
Einfach Frage, doofe Antwort:
Was solls denn sonst sein ?
Man hat die Analogie zum Evergreen: Auftauchen in den 8.12er Treiber, ca. 1 Jahr vorher, jetzt hat sich NI wg. 32nm verspätet und ist damit jetzt überfällig ... also das wird schon zu ~90% Cayman sein.
Aber ein Restrisiko bleibt, dass Cayman sowas wie Bart ist, und die 4D Chips erst in 28nm kommen. Naja in nem Monat wissen wirs, oder vielleicht ja schon früher, falls irgendwas durchsickert.

BlackBirdSR
2010-10-20, 07:34:40
LZ, Du wurdest von uns und den Leuten hier um Thread angesprochen und gebeten dich zurückzuhalten.
Wird das nicht der Fall sein, landen die Posts in Zukunft im Müll, egal ob zur Tarnung normaler Inhalt eingepflegt wird.
Dann soll bitte jeder auf Zitate verzichten.

Gleichfalls wird jeder seinen Post nicht mehr finden, der jetzt seine Anti-Lovesuckz Kommentare loswerden will.

Gleiches gilt für alle anderen genau so.

Back to Topic or back to trash

Bucklew
2010-10-20, 07:42:39
Und ich habe gesagt, welche Skalierung bei einem eingefahrenen Prozeß überwiegt (nämlich die mit der Diegröße, nicht eine mit der Transistoranzahl; Im übrigen ist der Effekt sowieso recht klein bei den recht moderaten Unterschieden der Packdichten, also sowieso größtenteils unerheblich ;)). Also wo ist Dein Problem?
Das du zuerst behauptest, dass ich Unrecht habe und es jetzt ja offensichtlich (beim nachbohren) doch richtig ist, was ich gesagt habe.

Wenn man das Taktziel nicht mit der avisierten Spannung aufgrund einer zu hohen Packdichte hinbekommt, hat man sich schlicht verplant.
Ansonsten ist die Wahl der Packdichte ein Kompromiß, den man in der Planungsphase trifft. Bei nvidia sieht er so aus, daß man höhere Taktfrequenzen haben will und deswegen (weil der Verbrauch kein freier Parameter ist) bei der Packdichte leichte Abstriche in Kauf nimmt. Fertig.
Sag ich doch. Warum also nochmal der Widerspruch? Spaß an der Freude?

Der zitierte Satz macht alleine keinen Sinn. Ich hab da ebenfalls keine Ahnung, was Du von mir willst.
Wenn Du magst kannst Du gerne versuchen es umzuformulieren, bzw. genauer zu sagen, aber wie gesagt - alleine für sich hat der Satz keine Aussage, da der Kontext fehlt.
Sag doch einfach, dass du nur bei Semiaccurate abschreibst ;)

V2.0
2010-10-20, 08:20:13
Erst urteilen, wenn die Reviews online sind. Gerade bei AA und AF.

Das ist baer ein verdächtiger Kommentar aus Deinem Mund. Ich hoffe einfach mal, dass Papier nicht wieder geduldig sein musste.

fondness
2010-10-20, 08:40:16
Das ist doch Aufgrund der eingesetzten R&D-Summen eher unwahrscheinlich.


NV hat in der Vergangenheit immer erst sehr spät auf neue Prozesse adaptiert, meist erst als die Prozesse schon sehr ausgereift waren. Da braucht man dann auch nicht so viele Ressourcen in lowlevel-Ings zu stecken. Zusätzliche bekam ATi durch den AMD-Kauf hier einiges an knowhow in dem Bereich spendiert. Das kommt im übrigen nicht von mir sondern das schrieb mal AnandTech AFAIK. Bei 40nm konnte man sich das nicht mehr leisten weil auch die Architektur zunehmend immer weniger konkurrenzfähig wurde. Fertig war das Problem.

Armaq
2010-10-20, 09:00:28
Der Thread zu "40nm-Prozess Nvidia suckt, ATI aber auch" ist glaube kein Unterpunkt in dem Thread hier. :)

Gibts schon Custom-Designs? Ich hätte gerne wieder eine Vapor-X, die könnte mich schwach machen.

Dural
2010-10-20, 09:08:08
NV hat in der Vergangenheit immer erst sehr spät auf neue Prozesse adaptiert, meist erst als die Prozesse schon sehr ausgereift waren.


stimmt schlicht nicht, man erinnere sich nur mal an die FX Serie

bei 55nm lag es daran das NV das zuerst überspringen wollte, weil sie es nicht für nötig hilten... das sieht man auch schön das der GT200 für 65nm Entwickelt wurde... NV hat verspätet auf 55nm gesetzt um ihre Margen zu verbessern, das ist alles.


Da braucht man dann auch nicht so viele Ressourcen in lowlevel-Ings zu stecken. Zusätzliche bekam ATi durch den AMD-Kauf hier einiges an knowhow in dem Bereich spendiert. Das kommt im übrigen nicht von mir sondern das schrieb mal AnandTech AFAIK. Bei 40nm konnte man sich das nicht mehr leisten weil auch die Architektur zunehmend immer weniger konkurrenzfähig wurde. Fertig war das Problem.

AMD hatte erfahrung im TSMC 40nm Bulk Prozess?!? Da muss man glaub gar nicht gross drüber weiter diskutieren da es gar nicht sein kann.

Merke: Firmen sagen immer das was sie möglichst positiv dastehen lässt, obs dann aber auch stimmt ist eine andere sache, es ist ja schlisslich keine gute werbung wenn man als firma sagt "wir haben versagt" nur zb. ;)


hier gehts aber um ein anderes thema :)

V2.0
2010-10-20, 09:16:36
Der Thread zu "40nm-Prozess Nvidia suckt, ATI aber auch" ist glaube kein Unterpunkt in dem Thread hier. :)

Gibts schon Custom-Designs? Ich hätte gerne wieder eine Vapor-X, die könnte mich schwach machen.

Bei der 6850 gibt es Custom-Designs ab Launch. Bei der 6870 weniger. Dürften aber schnell kommen. Zu Sapphire kann ich Dir leider im Detail nichts sagen.

Gipsel
2010-10-20, 09:22:17
@Bucklew:
Das du zuerst behauptest, dass ich Unrecht habe und es jetzt ja offensichtlich (beim nachbohren) doch richtig ist, was ich gesagt habe.
Nein. Lies noch mal nach! Du hast viel zu sehr vereinfacht mit dem Ergebnis einer schlicht falschen Schlußfolgerung, nämlich daß die Packdichten bei ATI/nvidia wesentlich für die Ausbeute wären. Dies stimmt per se mit Eintritt in die Massenproduktion (sprich, man beherrscht ihn) für so ziemlich keinen Prozeß mehr in der Form (solange man nicht den Wafer leer läßt natürlich, um einem unsinnigen Einwand vorzubeugen). Ich habe Dir außerdem zu bedenken gegeben, daß sich die Packdichten ja noch nicht mal übermäßig unterscheiden, also selbst ein eventuell vorhandener kleiner Effekt dadurch wirksam minimiert wird.
Und falls man durch zu hohe Packdichten sein Taktziel nicht erreicht, hat das technisch gesehen gar nichts mit der Ausbeute zu tun, denn funktionieren tun sie ja. Das ist dann ein Planungs- oder eben Binningproblem.
Ansonsten ist die Wahl der Packdichte ein Kompromiß, den man in der Planungsphase trifft. Bei nvidia sieht er so aus, daß man höhere Taktfrequenzen haben will und deswegen (weil der Verbrauch kein freier Parameter ist) bei der Packdichte leichte Abstriche in Kauf nimmt. Fertig.
Sag ich doch. Warum also nochmal der Widerspruch?Dann ist ja gut, wenn wir einer Meinung sind. Und ich dachte schon das hier gelesen zu haben:
Nicht zu vergessen natürlich auch, dass sich die AMD-Konstruktion mit den einfachen 5D-Shadern besser für höhere Packdichten eignet als die 1D-Konstruktion von Nvidia.Aber da leide ich wohl an Halluzinationen. :rolleyes:

Aber bevor die Mods nochmal auf den Plan treten, würde ich auch hier empfehlen, uns wieder auf das eigentliche Thema zu konzentrieren. Okay?

Schlammsau
2010-10-20, 09:27:59
Bei der 6850 gibt es Custom-Designs ab Launch. Bei der 6870 weniger. Dürften aber schnell kommen. Zu Sapphire kann ich Dir leider im Deutal nichts sagen.

Mir würde eine 6870 im Referenzdesign reichen, die kann man wahrscheinlich wieder problemlos overvolten. Bei den Customdesigns hab ich zumindest wieder das Problem, dass die Abwärme nicht aus dem Gehäuse geblasen wird. Ist ein ganz grosses Thema bei meinem HTPC.

Ich bin echt gespannt, wie sich die Ref 6870 gegenüber der Ref 5850 schlägt. Gerade beim Stromverbrauch und der Lautstärke gehe ich keine Kompromisse ein.

Dural
2010-10-20, 09:35:54
im HTPC hab ich eine 5770, ist mit 100Watt eine Ideale Karte für so was, alternativ halt auch eine GTS450

150Watt wären mir im HTPC schon zu viel! hatte vorher sogar nur eine 4670 drin!

guest_29132
2010-10-20, 09:55:41
Die Priorität von 40nm bei nVidia erkannt man daran, dass sie mit Stand heute 9 unterschiedliche 40nm Produkte auf dem Markt haben oder produziert haben.

Auf was für 9 kommst du? 9 verschiedene GeForce Karten? Oder 9 verschiedene GPUs/Chips in GF10x, G21x, Tegra und Tesla?

Wenn es ersteres sein soll, zwei davon aus dem eigenen Hause wurden durch nen dritten schon nach 3 1/2 bzw. 1 1/2 Monaten - zumindest aus Sicht des Kunden - überflüssig.


Natürlich gibt es unterschiedliche Fehlerquellen. Wo ist dann also das Problem mit meiner Aussage? Ich habe nirgends geschrieben, dass das die one and only Fehlerquelle ist.


"Eine erhöhte Transistordichte sorgt logischerweise auch für schlechtere Yields, sollte eigentlich ziemlich logisch sein." klingt für mich aber schon eher nach "die unweigerliche Folge von" statt einem "könnte auch zu ... führen".

dllfreak2001
2010-10-20, 10:28:07
Wenn die Bildqualität wirklich durchgängig verbessert wurde könnten die neuen AMD-Karten auch für mich interessant werden. Vorausgesetzt der Preis stimmt.

Da interessiert es wenig, dass sie nicht ganz an die Leistung der Highend-Karten der Vorgängergeneration herankommen.

AnarchX
2010-10-20, 10:39:06
Ein paar sonderbare Zahlen Theo Valich, die es auf einem AMD Investormeeting gegeben haben soll:

Using a Dollar/mm2 metric from Wedbush Morgan, it is visible that AMD commands higher retail $/mm2 ratio than nVidia. Barts commands $0.98/mm2, while GF104 only brings in $0.46/mm2. Same thing re-appeares with Cayman [HD 6900] which brings $1.05/mm2 to AMD, more than nVidia's $0.94/mm2 on GF100. With this architectural refresh, AMD jumps ahead of nVidia in terms of potential profitability even with the mainstream part.
http://www.brightsideofnews.com/news/2010/10/19/amd-northern-islands-vs-nvidia-fermi-die-sizes-compared.aspx

Er meint wohl daraus eine Die-Size von 380mm² für Cayman abzuleiten.
Dazu müsste aber der Preis bei $399 liegen, nach den AMD-Folien könnte die HD 6970 wohl eher noch mehr kosten, sodass man über 400mm² landet, wenn denn diese seltsamen $/mm2 Zahlen überhaupt stimmen.

V2.0
2010-10-20, 10:45:26
Die Rechnung ist so bescheuert, dass die ja nicht einmal mehr als FUD dient.

Dural
2010-10-20, 10:53:40
da wird der karten Preis durch mm2 vom Chip geteilt und einfach so als tatsache hingestellt :freak:

zum glück bestehen Grafikkarten ja nur aus einer DIE ;D

MadManniMan
2010-10-20, 10:57:25
Jawoll, künftig werden wir nur noch Dice kaufen und per PCI-Express-Karte in den Laptop stecken :|

Können wir BITTE die Produktionskostengeschichte entweder a) abhaken oder b) splitten? Neuigkeiten gehen hier völlig unter!

Bucklew
2010-10-20, 11:00:14
Nein. Lies noch mal nach! Du hast viel zu sehr vereinfacht mit dem Ergebnis einer schlicht falschen Schlußfolgerung, nämlich daß die Packdichten bei ATI/nvidia wesentlich für die Ausbeute wären. Dies stimmt per se mit Eintritt in die Massenproduktion (sprich, man beherrscht ihn) für so ziemlich keinen Prozeß mehr in der Form (solange man nicht den Wafer leer läßt natürlich, um einem unsinnigen Einwand vorzubeugen). Ich habe Dir außerdem zu bedenken gegeben, daß sich die Packdichten ja noch nicht mal übermäßig unterscheiden, also selbst ein eventuell vorhandener kleiner Effekt dadurch wirksam minimiert wird.
Nö, das fett gedruckte habe ich nie behauptet. Von daher hat sich der Einspruch wohl erledigt haben.

Und falls man durch zu hohe Packdichten sein Taktziel nicht erreicht, hat das technisch gesehen gar nichts mit der Ausbeute zu tun, denn funktionieren tun sie ja. Das ist dann ein Planungs- oder eben Binningproblem.
Das ist die Frage, ob man die Yield rein als funtionsfähig definiert oder auch vom Takt u.Ä. abhängig. Denn ein, wenn auch 100%ig funktionsfähiger, Chip, der das Taktziel der SKUs nicht schafft, ist ja ebenso nicht nutzbar. Und darum geht es ja aktuell.

Und da es hier um die Frage geht, wieviele Chips nutzbar sind, spielt der Takt natürlich auch eine Rolle.

Dann ist ja gut, wenn wir einer Meinung sind. Und ich dachte schon das hier gelesen zu haben:
Aber da leide ich wohl an Halluzinationen. :rolleyes:
Wie ich bereits schrieb: Hatte im Eifer des Gefechts nicht genug zwischen Shadern und ALUs getrennt.

AnarchX
2010-10-20, 11:00:24
Das einzig interessante an der Meldung ist doch, dass es wohl eine Analyse ist bei der AMD Die-Size und MSRP an diese Analysten weitergegeben hat.
Und da wohl die HD 6970 eher über $400 landen wird, wird es wohl auch die Die-Size.
Da sind wir wieder bei Fudos Behauptung Cayman ist größer als R600 (420mm²).

Das lässt dann schon auf deutlich mehr als auf einen aufgeblasenen Barts hoffen.

Armaq
2010-10-20, 11:04:23
Verkaufen die IHV denn Karten oder Chips? Ich kann mir auch eine Zuliefervereinbarung zu Foxconn vorstellen und eine weitergeleitete Auftragsfertigung. Macht für mich Sinn.

AnarchX
2010-10-20, 11:06:47
Verkaufen die IHV denn Karten oder Chips?
Beides.
In den Partner-Folien zu Northern Islands war die erste Lieferung an HD 6870 als "manufactured by AMD" gekennzeicht, während es bei der HD 6850 nur den ASIC, also die GPU gab. Die HD 6870 GPUs gab es wohl erst etwas später und vielleicht auch nur im Zusammenhang mit dem Kauf der MBA-Karten.

Armaq
2010-10-20, 11:13:57
Beides.
In den Partner-Folien zu Northern Islands war die erste Lieferung an HD 6870 als "manufactured by AMD" gekennzeicht, während es bei der HD 6850 nur den ASIC, also die GPU gab. Die HD 6870 GPUs gab es wohl erst etwas später und vielleicht auch nur im Zusammenhang mit dem Kauf der MBA-Karten.
Bleibt das im Verlauf des Produktlebenszyklus so?

Dural
2010-10-20, 11:23:15
interessant finde ich eher das AMD ihren eigenen Cayman teurer sieht als GF100, wie um alles in der welt soll das gehen?!?

da müsste der DIE (400mm2+) ja rissig sein und die Preise tiefer (unter 400.- US Doller) als bei den GF100 Karten :rolleyes:

V2.0
2010-10-20, 11:23:34
Das lässt dann schon auf deutlich mehr als auf einen aufgeblasenen Barts hoffen.

Naja, im Grundsatz möglich, aber eben im "Worst Case" auch möglich, das Cayman exakt das ist.

1,6x SPs, 2x Tesselation Unit.

AnarchX
2010-10-20, 11:26:47
@Dural
Warum sollte AMD eine schnellere HD 6970 nicht teurer als die GTX 480 anbieten?

Eine GTX 480 kostet momentan noch $449 und mehr. Da wären wohl selbst $499 für eine 6970 als Single-GPU-High-End-Karte vergleichweise harmlos. Man erinnere sich, dass Nvidia mal $649 für ein GTX 280 haben wollte. :D

Naja, im Grundsatz möglich, aber eben im "Worst Case" auch möglich, das Cayman exakt das ist.

1,6x SPs, 2x Tesselation Unit.
Tesselllation vielleicht eher >2x. ;)

Armaq
2010-10-20, 11:27:17
interessant finde ich eher das AMD ihren eigenen Cayman teurer sieht als GF100, wie um alles in der welt soll das gehen?!?

da müsste der DIE (400mm2+) ja rissig sein und die Preise tiefer (unter 400.- US Doller) als bei den GF100 Karten :rolleyes:
Vll. auch nur Mindfuck mit Nvidia. Andeutungen auf einen Monsterchip, damit Nvidia sich in die Kostenhölle begeben muss. Cayman kann auch eine x2 Lösung sein, die bestimmte Anfälligkeiten nicht mehr hat.

Dural
2010-10-20, 11:28:07
bei 499.- ergäbe das eine DIE grösse von 475mm2 :freak:

Chris2CB
2010-10-20, 11:28:40
Build By ATI war zuletzt die 9800Pro....zumindest hatte ich danach keine mehr gesichtet. Nvidia bringt aber auch eigene Beschleuniger......Teuer...der gleiche Müll drauf....aber irgendwie cool :D


@Dural, lese dir das ganze nochmal durch, eventuell übersetzten lassen. Das sind völlig aus der Luft Sinnlos zusammen gefügte Zahlen. Er hätte auch gleich AMD=42 schreiben können.

Bucklew
2010-10-20, 11:28:58
Vll. auch nur Mindfuck mit Nvidia. Andeutungen auf einen Monsterchip, damit Nvidia sich in die Kostenhölle begeben muss.
Dafür wäre es jetzt eh zu spät.

igg
2010-10-20, 11:29:14
Cayman kann auch eine x2 Lösung sein, die bestimmte Anfälligkeiten nicht mehr hat.
Wie jede neue Dualkarte von AMD...

AnarchX
2010-10-20, 11:30:41
bei 499.- ergäbe das eine DIE grösse von 475mm2 :freak:
"Cayman je absolutní masakr, NV bude mít asi problém .. :)" (http://obrovsky.blogspot.com/2010/10/stachuv-pytlik-smichu.html)

Dural
2010-10-20, 11:31:39
plötzlich tanzt AMD mit einer grösseren DIE daher als NV mit dem GF110 ;D ;)

derguru
2010-10-20, 11:33:58
ja und antilles ist dann die triplekarte von amd. X-D

Dural
2010-10-20, 11:35:05
wenn schon eher quad ;)