PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

robbitop
2013-08-22, 12:44:50
Naja zum Launchzeitpunkt war Tahiti auch High End. Da kann man also die üblichen 500-500 € abrufen. Das ist schon ok.
Aber 1.000 € sind einfach irrwitzig.

boxleitnerb
2013-08-22, 12:49:04
Highend, naja. Bei ca. 30% Mehrleistung ggü. der GTX 580 ist das eine fragwürdige Klassifizierung, speziell wegen neuer Architektur und Shrink. 30% sind bei mir eher ein sehr guter Refresh. Ich persönlich fand es dreist, 549 Dollar dafür zu verlangen. Aber genauso fand ich es dreist, dass die 680 auch um die 500 Euro kostete. War für mich beides kein Highend.

fondness
2013-08-22, 12:50:36
Highend, naja. Bei ca. 30% Mehrleistung ggü. der GTX 580 ist das eine fragwürdige Klassifizierung, speziell wegen neuer Architektur und Shrink. 30% sind bei mir eher ein sehr guter Refresh. Ich persönlich fand es dreist, 549 Dollar dafür zu verlangen. Aber genauso fand ich es dreist, dass die 680 auch um die 500 Euro kostete. War für mich beides kein Highend.

Ähm lol? Die Karte war damals billiger als die GTX580 und dieser Karte in jeder Hinsicht überlegen. Es war die mit Abstand schnellste Single-GPU.

Ailuros
2013-08-22, 12:58:27
Und damit wollte man genau was erreichen? GTX 580 + 5%? Man MUSSTE da noch etwas in der Hinterhand gehabt haben, zumindest als Plan. Da du selbst sagst, dass es GK100 nie gab, wollte man tatsächlich GK110 in H1 2012 in den Desktopmarkt bringen??? Nachdem man mit Fermi so auf die Schnauze gefallen ist?

NV hat von Tahiti um einiges mehr erwartet und ja sie haetten keine andere Wahl gehabt als 110 frueher auf's mainstream Laufband zu bringen, was aber dann auch zu um einiges maessigerem Umsatz bzw. Gewinn gefuehrt haette denn man haette den HPC Markt nie so grossguezig bedienen koennen wie es am Ende geschehen ist.

Skysnake
2013-08-22, 12:59:44
Geschichtsstunde:
Es war AMD, die die Preise um locker-flockige 50% ggü. ihrem Vorgängerprodukt erhöht haben (6970 -> 7970). Nvidia hatte bei GTX 680-Launch das bessere Preisleistungsverhältnis. Die Käufer der 7970 sind also auch hirnlose Zombies...AMD hat es versucht mit den hohen Preisen und ist damit auf die Schnauze gefallen.
Merkste was?

Die 7970 war schneller als Titan im Vergleich zu 7970, und dennoch eigentlich nur den "normalen" High-End Preis gekostet. Zumal nVidia eben auch reagieren hätte können und die Preise der 580er hätte runter setzen könne, haben Sie in dem nötigen Maße aber nicht gemacht.

Das Problem kam aber erst so richtig mit GK104. Da hat nVidia nämlich einfach nochmal einen drauf gesattelt, statt den gleichen oder niedrigen Preis an zu setzen, und die Leute haben trotzdem stumpf gekauft, obwohl es absolut keinen rationalen Grund außer PhysX gab, sich ne GTX680 zu kaufen.

Highend, naja. Bei ca. 30% Mehrleistung ggü. der GTX 580 ist das eine fragwürdige Klassifizierung, speziell wegen neuer Architektur und Shrink. 30% sind bei mir eher ein sehr guter Refresh. Ich persönlich fand es dreist, 549 Dollar dafür zu verlangen. Aber genauso fand ich es dreist, dass die 680 auch um die 500 Euro kostete. War für mich beides kein Highend.
Es ist doch SCHEIS egal, woher die Mehrleistung kommt....

Als was bezeichnest du dann bitte die Preisvorstellung bzgl GTX680 oder gar Titan? Wahnsinn?

Ailuros
2013-08-22, 13:00:01
Die Karte hieß eben auch nur GTX 670 Ti. Mit dem Dual-GK104 hätte man dann eben die Enthusiasten bedient und wohl das Mikroruckler-Problem von AMD etwas deutlicher publiziert.
Immernoch eine bessere Lösung als ein GK104-Tapeout erst nach GK110 im H2 2012.

Nein das Ding hiess immer noch GTX680 2GB zumindest so wurde es noch Ende Jahres bei MSI u.a. vendors angegeben.

boxleitnerb
2013-08-22, 13:02:14
Ähm lol? Die Karte war damals billiger als die GTX580 und dieser Karte in jeder Hinsicht überlegen. Es war die mit Abstand schnellste Single-GPU.

Nix lol. Dass eine 28nm-GPU mit brandneuer Architektur einer alten 40nm-GPU überlegen ist, halte ich für selbstverständlich. Und nein, sie war nicht billiger. Die GTX 580 war im Abverkauf, die HD 7970 war brandneu und lag wie gesagt bei 549 Euro.


Die 7970 war schneller als Titan im Vergleich zu 7970, und dennoch eigentlich nur den "normalen" High-End Preis gekostet. Zumal nVidia eben auch reagieren hätte können und die Preise der 580er hätte runter setzen könne, haben Sie in dem nötigen Maße aber nicht gemacht.


Wer war schneller als was? Titan ist genausoviel schneller wie die 7970 GHz wie die 7970 (non-GHz) ggü. der 580 schneller war. Dass die Titan-Preise nicht ok sind, ist selbstverständlich. Die 580er war im Abverkauf - ich wüsste nicht, wo Nvidia beim Abverkauf jemals großartig die Preise gesenkt hätte.


Das Problem kam aber erst so richtig mit GK104. Da hat nVidia nämlich einfach nochmal einen drauf gesattelt, statt den gleichen oder niedrigen Preis an zu setzen, und die Leute haben trotzdem stumpf gekauft, obwohl es absolut keinen rationalen Grund außer PhysX gab, sich ne GTX680 zu kaufen.


Doch, mehr Performance und niedriger Preis (499 vs 549), dazu Framelimiter, adapt. VSync, 3DVision, SLI (Bits + Metering), TXAA, AA-Bits usw. Wen das alles nicht juckt, der konnte gerne nur auf P/L schauen. Das hat sich erst durch AMDs deutliche Preissenkungen und die Treiber+GHz-Ed. zu deren Gunsten geändert.


Es ist doch SCHEIS egal, woher die Mehrleistung kommt....

Als was bezeichnest du dann bitte die Preisvorstellung bzgl GTX680 oder gar Titan? Wahnsinn?

Natürlich ist es egal, aber: Ich erwarte ein deutlich besseres Preisleistungsverhältnis beim Start einer neuen Generation. Das konnten anfangs weder Nvidia noch AMD erfüllen. Ich fand beide überteuert.

Ailuros
2013-08-22, 13:04:27
Merkste was?

Die 7970 war schneller als Titan im Vergleich zu 7970, und dennoch eigentlich nur den "normalen" High-End Preis gekostet. Zumal nVidia eben auch reagieren hätte können und die Preise der 580er hätte runter setzen könne, haben Sie in dem nötigen Maße aber nicht gemacht.

Das Problem kam aber erst so richtig mit GK104. Da hat nVidia nämlich einfach nochmal einen drauf gesattelt, statt den gleichen oder niedrigen Preis an zu setzen, und die Leute haben trotzdem stumpf gekauft, obwohl es absolut keinen rationalen Grund außer PhysX gab, sich ne GTX680 zu kaufen.

NV hat NICHT damit gerechnet dass GK104 Tahiti die Brust zeigen kann. Erst als sie Tahiti live gesehen haben nach dem launch entschieden sie sich den gesamten Plan ueber den Haufen zu schmeissen, reibten sich die Haende und sagten einfach "es ist Zeit NOCH fetter zu kassieren".


Es ist doch SCHEIS egal, woher die Mehrleistung kommt....

Als was bezeichnest du dann bitte die Preisvorstellung bzgl GTX680 oder gar Titan? Wahnsinn?

Der Daemlichkeit zu liebe ist AMD zu einem Anteil an den hoeheren Preisen selber schuld; das noch daemlichere ist aber dass sie am Ende trotz um einiges niedrigeren Preisen ihr Zeug nicht so locker loswerden konnten wie NV. Du weisst was "boomerang" genau beschreibt oder? :D

robbitop
2013-08-22, 13:09:03
Highend, naja. Bei ca. 30% Mehrleistung ggü. der GTX 580 ist das eine fragwürdige Klassifizierung, speziell wegen neuer Architektur und Shrink. 30% sind bei mir eher ein sehr guter Refresh. Ich persönlich fand es dreist, 549 Dollar dafür zu verlangen. Aber genauso fand ich es dreist, dass die 680 auch um die 500 Euro kostete. War für mich beides kein Highend.
Ja eine neue Gen sollte deutlich fixer sein als die alte. Sehe ich auch so. Aber marktwirtschaftlich hat sie halt das bis dato stehemde 500 $ Produkt, die 580 besiegt. Also warum sollte man dafür nur 300 $ verlangen? Es war die schnellste verfügbare Karte.

fondness
2013-08-22, 13:13:50
Nix lol. Dass eine 28nm-GPU mit brandneuer Architektur einer alten 40nm-GPU überlegen ist, halte ich für selbstverständlich.

Aha, also weil die Konkurrenz nichts besseres zu bieten hat soll man ein überlegenes Produkt um 300EUR verscherbeln? Was für eine Logik. :freak:
Tatsache war es war die mit Abstand schnellste Singel-GPU mit der besten Perf/Watt und trotzdem einem mehr als konkurrenzfähigen P/L-Verhältnis.
Die Umstände sind für den Kunden doch völlig belanglos, es zählt was hinten raus kommt.


Und nein, sie war nicht billiger. Die GTX 580 war im Abverkauf, die HD 7970 war brandneu und lag wie gesagt bei 549 Euro.


Selbst zum selben Preis war sie wesentlich attraktiver als das Konkurrenzprodukt. Zumal man wenn dann 3Gb VRAM vs. 3GB VRAM vergleichen sollte.

aufkrawall
2013-08-22, 13:19:21
Ist doch ne völlig hirnrissige Diskussion, hatten wir gefühlt auch schon zig Mal.

boxleitnerb
2013-08-22, 13:22:30
Ja eine neue Gen sollte deutlich fixer sein als die alte. Sehe ich auch so. Aber marktwirtschaftlich hat sie halt das bis dato stehemde 500 $ Produkt, die 580 besiegt. Also warum sollte man dafür nur 300 $ verlangen? Es war die schnellste verfügbare Karte.

Ich hab nur gesagt, dass ich persönlich den Preis frech fand. Bei beiden neuen Karten.

@fondness:
Das ist meine persönliche Meinung, ob es dir nun passt oder nicht. Und ob sie attraktiver war oder nicht stand nie zur Debatte, nur deine falsche Behauptung bzgl. des Preises. Meine 580 mit 3 GB hat 499 Euro gekostet übrigens, war noch übertaktet und hatte einen besseren Kühler...Perf/W ist auf den Kaufpreis gerechnet praktisch irrelevant und der geringere Verbrauch hat die Referenz-7970 auch nicht gerade leise gemacht. Bleibt also kaum ein Vorteil für den Kunden außer für Folder und Miner, die 24/7 Dauerlast zahlen mussten.
So oder so hat sich irgendwie kaum jemand damals darüber aufgeregt, dass AMD ihren Kunden plötzlich 50% mehr Kohle aus der Tasche gezogen hat. Die Ausrede "aber Nvidia macht es ja auch!" war da lieber statt Kritik zu äußern. Davon wird es nicht billiger! Dabei hatten wir damals dasselbe wie heute bei Titan (doppelte Leistung, doppelter Preis ggü. der 580): 35-40% mehr Leistung ggü. der 6970 und 50% mehr Preis. :freak:

Skysnake
2013-08-22, 13:28:34
Ja eine neue Gen sollte deutlich fixer sein als die alte. Sehe ich auch so. Aber marktwirtschaftlich hat sie halt das bis dato stehemde 500 $ Produkt, die 580 besiegt. Also warum sollte man dafür nur 300 $ verlangen? Es war die schnellste verfügbare Karte.
Und sonst wird AMD immer vorgehalten Sie würden ihre Produkte "verramschen" :freak:

Die Leute können sich echt manchmal nicht entscheiden. Ich hab teilweise das Gefühl AMD kann es den Leuten einfach gar nicht Recht machen....

Nutzen Sie mal die Gunst der Stunde, um mal etwas mehr Geld zu verdienen, weil Sie in der Position sind, wird das kritisiert und abgestraft durch Nichtkauf.

Ziehen Sie ihre Konsequenzen daraus, und senken die Preise unter die der Konkurrenz, wird das auch wieder Kritisiert und mit "verramschen" usw tituliert und auch wieder mit Nichtkauf abgestraft :ugly:

Mal ganz im Ernst, wenn ich eh nur verlieren/es falsch machen kann, wie soll ich denn da nen Fuß auf den Boden bekommen? Da muss man sich doch echt nicht über niedrige Marktanteile wundern. Egal was man macht, es ist falsch...

Pirx
2013-08-22, 13:29:21
Highend, naja. Bei ca. 30% Mehrleistung ggü. der GTX 580 ist das eine fragwürdige Klassifizierung, speziell wegen neuer Architektur und Shrink. 30% sind bei mir eher ein sehr guter Refresh. Ich persönlich fand es dreist, 549 Dollar dafür zu verlangen. Aber genauso fand ich es dreist, dass die 680 auch um die 500 Euro kostete. War für mich beides kein Highend.
Eher war die 7970 bei ~500€ ganz am Anfang, der Preis fiel dann aber doch recht schnell.

fondness
2013-08-22, 13:32:39
Und sonst wird AMD immer vorgehalten Sie würden ihre Produkte "verramschen" :freak:

Das hat boxleitnerb übrigens erst vor kurzem in einem anderen Thread behauptet. Ich würde deine Aussage deshalb noch ein bisschen editieren:


Die Gewisse Leute können sich echt manchmal nicht entscheiden. Ich hab teilweise das Gefühl AMD kann es bestimmten Leuten einfach gar nicht Recht machen....

robbitop
2013-08-22, 13:36:55
Ich glaube, es ist aus Imagegründen wichtig, eine sehr gute Enthusiastkarte zu haben. Die Verkaufserlöse dieser bringen vermutlich gar nicht viel hinein. Das Image was dadurch generiert wird, ist aber offensichtlich wirksam für den Umsatz der weiteren Produkte.

NV hat sich halt das Image, welches es hat erarbeitet. Und IMO war es ein Fehler von AMD, nach R600 den Kopf hängen zu lassen und keine großen GPUs mehr zu bauen. R600 war halt einfach ein Design, was ineffizient ausgelegt war.

Skysnake
2013-08-22, 13:37:10
Eher war die 7970 bei ~500€ ganz am Anfang, der Preis fiel dann aber doch recht schnell.
/sign.

Muss man sich nur die beiden Karten anschauen, die es seit Anfang an gibt. Beide binnen 9 Tagen unter 500€ gewesen. Dann zwar wieder kurz hoch, aber immer wieder auch unter 500€. da kannste echt nicht meckern.

http://geizhals.de/?phist=723345&age=9999
http://geizhals.de/?phist=723340&age=9999

Ailuros
2013-08-22, 13:43:40
/sign.

Muss man sich nur die beiden Karten anschauen, die es seit Anfang an gibt. Beide binnen 9 Tagen unter 500€ gewesen. Dann zwar wieder kurz hoch, aber immer wieder auch unter 500€. da kannste echt nicht meckern.

http://geizhals.de/?phist=723345&age=9999
http://geizhals.de/?phist=723340&age=9999

Weiss denn irgend jemand von Euch was heutzutage AMD und NVIDIA jeweils ein Tahiti bzw. GK104 genau in der Herstellung kostet? KEINE der beiden ist heutzutage gerechtfertigt mehr als 300 Euro zu kosten. Ich weiss dass es keiner hier lesen will, aber ich persoenlich hab keinen Bock weder dem einem oder anderem IHV ihre Fehlentscheidungen zu finanzieren.

AnarchX
2013-08-22, 13:49:46
Das sollten wohl die entsprechenden Institutionen wiedermal eine Untersuchung wegen Preisabsprachen einleiten.

Aber vielleicht ist NVs V.I.-Antwort eine ordentliche Preissenkung?

M4xw0lf
2013-08-22, 13:50:23
So oder so hat sich irgendwie kaum jemand damals darüber aufgeregt, dass AMD ihren Kunden plötzlich 50% mehr Kohle aus der Tasche gezogen hat. Die Ausrede "aber Nvidia macht es ja auch!" war da lieber statt Kritik zu äußern. Davon wird es nicht billiger! Dabei hatten wir damals dasselbe wie heute bei Titan (doppelte Leistung, doppelter Preis ggü. der 580): 35-40% mehr Leistung ggü. der 6970 und 50% mehr Preis. :freak:
Gleiches P/L wie die GTX580, besseres als die GTX580 3GB. In Nvidia-Rechnung hätte die 7970 zum Launch 1500€ kosten müssen - 30% Mehrleistung als die bisher schnellste Karte -> 300% Preis.

Skysnake
2013-08-22, 13:51:04
Weiss denn irgend jemand von Euch was heutzutage AMD und NVIDIA jeweils ein Tahiti bzw. GK104 genau in der Herstellung kostet? KEINE der beiden ist heutzutage gerechtfertigt mehr als 300 Euro zu kosten. Ich weiss dass es keiner hier lesen will, aber ich persoenlich hab keinen Bock weder dem einem oder anderem IHV Fehlentscheidungen zu finanzieren.
Das glaub ich dir aufs WORT!

Deswegen kann ich die Aussage bzgl. AMD "verramscht" seine Karten auch Null nachvollziehen. nVidia zockt die Leute einfach nur ab, was man ja auch an der hohen Marge sieht...

Das wollen die Leute blos nicht hören -.-

fondness
2013-08-22, 13:56:25
Ich glaube, es ist aus Imagegründen wichtig, eine sehr gute Enthusiastkarte zu haben. Die Verkaufserlöse dieser bringen vermutlich gar nicht viel hinein. Das Image was dadurch generiert wird, ist aber offensichtlich wirksam für den Umsatz der weiteren Produkte.

NV hat sich halt das Image, welches es hat erarbeitet. Und IMO war es ein Fehler von AMD, nach R600 den Kopf hängen zu lassen und keine großen GPUs mehr zu bauen. R600 war halt einfach ein Design, was ineffizient ausgelegt war.

Damit hast du sicher recht. AMD erkennt das wohl auch schön langsam und entfernt sich eh Scheibchenweise von ihrer kleinen GPU-Strategie. RV670 hatte 192mm², RV770 255mm², Cypress 334mm², Cayman 389mm², Tahiti 365mm² und mit Hawaii wird man wohl R600 Die-Fläche zum ersten mal überbieten und damit den größten Chip überhaupt für ATi/AMD bringen.

horn 12
2013-08-22, 13:58:59
Genau!

HD7970 war Dezember 2011!! als Paperlaunch und gute 2 Wochen später als Hardlaunch die erste 28um Karte und somit auch für einen höheren Preis gerechtfertigt.
Dass der Preis um etwa 100 Euro zu hoch angesetzt wurde, das Resultat der nicht vorhandenen Konkurrenz, bzw. des Umsattelns von NV um den GK104 aufzubohren.
Aber NV setzt dem Ganzen schon die Krone auf, die werden sich wundern falls die HD9970 die Titan-Karte @Stock um 10% "überflügelt" um fast Hälfte Preis!

dargo
2013-08-22, 14:09:11
Und sonst wird AMD immer vorgehalten Sie würden ihre Produkte "verramschen" :freak:

Die Leute können sich echt manchmal nicht entscheiden. Ich hab teilweise das Gefühl AMD kann es den Leuten einfach gar nicht Recht machen....

Nutzen Sie mal die Gunst der Stunde, um mal etwas mehr Geld zu verdienen, weil Sie in der Position sind, wird das kritisiert und abgestraft durch Nichtkauf.

Ziehen Sie ihre Konsequenzen daraus, und senken die Preise unter die der Konkurrenz, wird das auch wieder Kritisiert und mit "verramschen" usw tituliert und auch wieder mit Nichtkauf abgestraft :ugly:

Mal ganz im Ernst, wenn ich eh nur verlieren/es falsch machen kann, wie soll ich denn da nen Fuß auf den Boden bekommen? Da muss man sich doch echt nicht über niedrige Marktanteile wundern. Egal was man macht, es ist falsch...
Da muss ich vollkommen zustimmen! Egal was AMD macht, es wird von den üblichen Verdächtigen immer schlecht geredet. Unglaublich... :freak:

AnarchX
2013-08-22, 14:17:39
Aber so sieht es wohl auch der Gesamtmarkt, wenn man sich die entsprechenden Zahlen anschaut.

dargo
2013-08-22, 14:21:17
Das sind für mich verblendete Fanboys. Ich weiß, ändert an der Situation auch nichts. AMD muss sich einfach zusammen raffen und an ihren Produkten feilen. Damit meine ich weiter an den Treibern feilen um das letzte an Leistung herauszuholen. Gutes Marketing gehört auch dazu. Beides hat man imho erst kürzlich in Angriff genommen. Es dauert halt etwas bis sich ein Image verbessert. Das geht nicht von heute auf morgen.

Ailuros
2013-08-22, 14:54:27
Genau!

HD7970 war Dezember 2011!! als Paperlaunch und gute 2 Wochen später als Hardlaunch die erste 28um Karte und somit auch für einen höheren Preis gerechtfertigt.

Da Du es selber als Paperlaunch eingestehst interessiert es kein Schwein wann AMD vorangekuendigt hat.

Dass der Preis um etwa 100 Euro zu hoch angesetzt wurde, das Resultat der nicht vorhandenen Konkurrenz, bzw. des Umsattelns von NV um den GK104 aufzubohren.

Der klitzekleine Unterschied ist eben dass der Unterschied im MSRP zu AMD's eigenen Vorgaengern schon um einiges groesser war als nur 100 wasauchimmer Kroeten und Cypress kam auch um einiges frueher an als GF100. Aber ich versteh es schon man muss eben alles immer so schoen hinbiegen bis es der rosaroten AMD Vorstellung auch zu 100% passt. :rolleyes:

Aber NV setzt dem Ganzen schon die Krone auf, die werden sich wundern falls die HD9970 die Titan-Karte @Stock um 10% "überflügelt" um fast Hälfte Preis!

Das dumme ist eben dass NV es schafft N% von ueberteurten GPUs zu verkaufen, waehrend AMD bei so verdammt hohen Preisen nur auf den GPUs sitzen bleiben wuerde und heftig auf diesen brueten. Deshalb sagen auch manche hier gerechtfertigt hier dass AMD ein image Problem haben muss sonst laessen sich manche Verkaufstendenzen in letzter Zeit schwer erklaeren.

Gott sei Dank konnte AMD im letzten Quartal einen gesunden Happen an Marktanteil von NV abknabbern was mal eine angenehme positive Wendung war, welches ich auch hoffe dass es sich auch weiterhin so halten wird.

mironicus
2013-08-22, 14:59:45
Aber so sieht es wohl auch der Gesamtmarkt, wenn man sich die entsprechenden Zahlen anschaut.

Dann müsste man mal nachforschen, wo/wie dieser Gedanke ursprünglich entstanden ist und warum jetzt alle so denken. ;D

gedi
2013-08-22, 15:25:55
Hmm - http://www.tt-hardware.com/news/hardware/les-specifications-de-la-radeon-hd-9970-aka-r9-d970

Wird wohl der direkte Kompetitor zur GTX780.

Duplex
2013-08-22, 15:36:17
Diese Specs beziehen sich nur auf 40 CUs, ist nichts besonderes, hatten wir schon.

john carmack
2013-08-22, 15:40:48
Ich hoffe ja nur das uns AMD nicht enttäuscht tatsächlich nur 20%-30% Mehrleistung draufpackt...

Duplex
2013-08-22, 15:42:01
Genau, sonst muss man es wieder über den Preis regeln ;)
Selbst wenn Hawaii XT 499 € kosten würde, kann mir vorstellen das die GTX780 trotzdem vorgezogen wird, war bei GK104 vs. Tahiti XT auch so.
Wenn AMD 30-40% drauflegen kann, dann wird Titan von der Performance Krone abgelöst, erst danach sagen alle wieder das AMD die Nr.1 ist.
Ich kann mir nicht vorstellen das man nur auf 40 CUs setzen wird, dann würde man wieder bei der Chipfläche sparen, was eig. nicht nötig ist (GK110=561mm²).
Eig. muss AMD sogar ein breiten Chip bauen, Nvidia hat noch Maxwell als Joker!

Ailuros
2013-08-22, 15:53:52
GK110 ist 551mm2. So langsam koennen wir uns die Zahl wohl angewoehnen.


Eig. muss AMD sogar ein breiten Chip bauen, Nvidia hat noch Maxwell als Joker!

Ach ja? Wo denn? :P

M4xw0lf
2013-08-22, 15:57:46
Ich hoffe ja nur das uns AMD nicht enttäuscht tatsächlich nur 20%-30% Mehrleistung draufpackt...
Nur? Mit mehr ist unter 28nm doch realistischerweise nicht zu rechnen.

Akkarin
2013-08-22, 16:02:28
7970 GHz +20-30% sind eigentlich =>Titan oder überseh ich hier was ? Die 780 ist doch gerade mal 10-15% schneller ?

edit: das sind eigentlich nur zusammenfassungen von Gerüchten/Spekulationen, steht auch so dabei.

gedi
2013-08-22, 16:10:24
Das Original stammt auch von Videocardz. Passend allerdings dazu folgendes: http://videocardz.com/45368/amd-hawaii-graphics-card-to-cost-less-than-600

Preiskampf ahoi

robbitop
2013-08-22, 16:14:52
Mehr als + 30% beim gleichen Prozess zu erwarten, halte ich für unrealistisch. Das wäre immerhin schon was. Bei 20nm müssen sie die große GPU halt ein wenig eher bringen und nicht erst zum Ende des Lebenszyklusses.

Botcruscher
2013-08-22, 17:07:19
Aber nicht bei größeren Chips. Nach gut 2 Jahren 28nm will ich hier was sehen. Deutlich unter 500mm² brauchen die überhaupt nicht anfangen. PS: Ob AMD begreift, dass man mit zu kleinen Brötchen kein Geld verdienen kann ist eine andere Frage.

AnarchX
2013-08-22, 17:23:20
Big Chips brauchen aber wohl etwas Erfahrung. Immerhin gibt es schon Gerüchte, dass die Hawaii Radeon nur 40 von 44 CUs aktiv hat.

Aber wenn man dies auf dem Niveau von NV unter Kontrolle bekommt, ist für einen ~500mm² Chip 2 Jahre nach Prozesseinfühung, ein Karten-Preis um die 300-350€ mit Gewinn wohl durchaus realisierbar (vgl. GF110 Preise Herbst 2011).

Ailuros
2013-08-22, 17:39:35
Big Chips brauchen aber wohl etwas Erfahrung. Immerhin gibt es schon Gerüchte, dass die Hawaii Radeon nur 40 von 44 CUs aktiv hat.

Ich hab wirklich keine Ahnung wie das echte Tier aussieht, aber ich lese VOR jedem verdammten Radeon launch dass N chip um so und so viel mehr clusters hat die abgestellt wurden, nur damit sich es jedesmal beweisst dass es nur idiotisches Hirngespinst von irgendwelchem Heini war am Ende fuer die manche sogar "Beweise" aufweisen koennen.

Aber wenn man dies auf dem Niveau von NV unter Kontrolle bekommt, ist für einen ~500mm² Chip 2 Jahre nach Prozesseinfühung, ein Karten-Preis um die 300-350€ mit Gewinn wohl durchaus realisierbar (vgl. GF110 Preise Herbst 2011).

Es wuerde mich verdammt ueberraschen wenn der chip wirklich so gross sein wird.

Lass mich raten: wir wuerden alle liebend gerne eine Radeon haben die nur 350 Euros kostet, um =/>40% schneller ist als die GTX780 und dazu soll sie wohl auch nur einen 220W TDP haben. Ich traeume auch Nachts nur sind meine Traeume wohl ein klein bisschen realistischer.

matty2580
2013-08-22, 19:00:56
Träumen an sich ist ja ok, so lange man danach nicht an der Realität verzweifelt. ^^
Zum Glück ist bis Oktober nicht mehr so viel Zeit, und die ersten "echten" Leaks sollten auch bald kommen.
Ich kann AMD auch etwas verstehen. Die Leaks zu Bulldozer aber auch zu Southern Island waren nicht hilfreich.
Genutzt hat das nur den IT-Foren. AMD aber auch Nvidia können bis zum Release ungestört ihre Karten verkaufen.

Blediator16
2013-08-22, 21:34:42
Welcome, Sam.

So, what's your favorite number, 20 or 28?

Hi guys, thank you for the welcome

It's 28

Sam
Community Manager, Enthusiast and Component Channel Communications
Official AMD Representative
http://forums.anandtech.com/showpost.php?p=35407248&postcount=6

:D

Godmode
2013-08-22, 21:39:44
Wird ein geiler Herbst: Hawaii, IB-E, iPhone 5s ;)

M4xw0lf
2013-08-22, 23:03:51
http://forums.anandtech.com/showpost.php?p=35407248&postcount=6

:D
Das war enttäuschend einfach :freak:

w0mbat
2013-08-22, 23:04:58
Das war enttäuschend einfach :freak:

Euch an der Nase rumzuführen?

OBrian
2013-08-22, 23:22:53
aha, also kommt Hawaii nur mit 28 CUs (der Rest ist deaktiviert^^).

Oder was soll man aus solchen dämlich-schwammigen Äußerungen herauskaffeesatzlesen?

dargo
2013-08-22, 23:28:03
28nm, ist doch offensichtlich.

john carmack
2013-08-22, 23:37:29
Nur? Mit mehr ist unter 28nm doch realistischerweise nicht zu rechnen.


Ok, ich habe vergessen zu sagen das wir hoffentlich auch keinen zweiten Thermi zu Gesicht bekommen...

Heiß und Laut sind viel AMD Produkte ja sowieso schon... :(

john carmack
2013-08-22, 23:46:09
Wird ein geiler Herbst: Hawaii, IB-E, iPhone 5s ;)

XCOM:EW
X4 Rebirth...

:D

Ich muss mal Urlaub beantragen...

Ailuros
2013-08-23, 09:48:03
XCOM:EW
X4 Rebirth...

:D

Ich muss mal Urlaub beantragen...

Ein Spam-urlaub hier kann ich Dir gerne bereitstellen wenn's darum geht :D

Hübie
2013-08-23, 10:01:02
aha, also kommt Hawaii nur mit 28 CUs (der Rest ist deaktiviert^^).

Oder was soll man aus solchen dämlich-schwammigen Äußerungen herauskaffeesatzlesen?

;D;D Der war gut!

Weiter unten im Thread gibts noch ne lustige Frage:

Red Hawk
I'm interested to know if the Titanic's 48 waterproof chambers were worthwhile or if 32 would have been more effective for the price. (http://forums.anandtech.com/showpost.php?p=35407573&postcount=23)

Warsam71
LOL - I'm starting to think of the Queen Mary and how it didn't hit anything (iirc)...:wink: (http://forums.anandtech.com/showpost.php?p=35407633&postcount=25)

Ailuros
2013-08-23, 10:12:48
Wow jetzt bin ich weisser geworden da es eine Zahl zwischen 32 und 48 sein wird :rolleyes: :freak:

Hübie
2013-08-23, 10:22:19
;D Das bezog sich aber wohl eher auf die ROPs. Finde die Art und Weise amüsant :smile:

M4xw0lf
2013-08-23, 10:34:54
Es geht fleißig weiter in dem Thread: Slightly OT but if you were to take a holiday before the end of the year would you go on a transatlantic voyage or go to an American island?
^^

Hübie
2013-08-23, 10:39:04
;D Geil. Der arme Kerl wird mit leeren Fragen gebeutelt ;D So kommen die doch nicht weiter.

Aber ich hoffe dass die Erwartungen an einen Uber-Chip@20nm@300$@Titan+x% mal so langsam gedämpft sind. Es nervt nämlich allmälig :rolleyes:

Ailuros
2013-08-23, 11:20:46
An ROPs hab ich nicht gedacht; 64 ROPs deuten eher auf einen 28nm Ueber-Ueber-chip

john carmack
2013-08-23, 11:32:17
Wer sagt denn bitte was von 300$-400$ für Hawaii?

AMD sagte doch bereits ganz klar das Hawaii unter 600$ komment wird!

Wahrscheinlich dann auch so wie Tahiti zum Release (vielleicht sogar ein klein wenig teurer!):
499€ bzw. 549$

Hübie
2013-08-23, 11:53:08
Ich wollte das überspitzt ausdrücken ;)
@Ail: Von 64 ROPs steht da aber auch nix. Ist auch total unrealistisch.

Gaestle
2013-08-23, 13:25:39
Ich wollte das überspitzt ausdrücken ;)
@Ail: Von 64 ROPs steht da aber auch nix. Ist auch total unrealistisch.

Wenn es wirklich um ROPs geht und es weder 48 noch 32 sind, bleibt bei einer 16er-Einteilung nur 16, 64, 80, 96 ... etc.

Ist es ausgeschlossen, dass es Abweichungen von der 16er Struktur gibt?

[Edit:] Vielleicht hat er es als Frage nach den CUs verstanden. Dann dürfte seine Antwort zutreffen.

Ailuros
2013-08-23, 13:33:02
Ich wollte das überspitzt ausdrücken ;)
@Ail: Von 64 ROPs steht da aber auch nix. Ist auch total unrealistisch.

So sicher bin ich mir aber nicht :rolleyes: Es sollte nicht heissen dass ich es glaube, aber relevante Indizien schwirren schon herum, nur hab ich sie als Bloedsinn abgelehnt.

V2.0
2013-08-23, 13:36:19
und mit 64ROPs ist auch der Titan-Killer immer wahrscheinlicher.

Ailuros
2013-08-23, 13:37:51
und mit 16ROPs ist auch der Titan-Killer immer wahrscheinlicher.

Ja mit 16 ROPS muss Titan natuerlich stark zittern :P:D

robbitop
2013-08-23, 13:46:31
@Ail: Von 64 ROPs steht da aber auch nix. Ist auch total unrealistisch.
Kannst du das auch erläutern? Bereits Pitcairn hat 32 ROPs.

und mit 64ROPs ist auch der Titan-Killer immer wahrscheinlicher.
Das machst du von den ROPs abhängig? ROPs machen fast alles in einstelliger Taktanzahl.

Ailuros
2013-08-23, 13:54:46
Er spielt wohl auf die Moeglichkeit eines sehr breiten Buses an und an die dadurch resultierende hoehere Bandbreite als Titan; persoenlich gefaellt mir der 16 ROP typo natuerlich besser :freak:

Hübie
2013-08-23, 14:38:13
Kannst du das auch erläutern? Bereits Pitcairn hat 32 ROPs.

Weil der Chip dann in Dimensionen stößt welche wohl nicht mehr profitabel sein dürften. Nicht durch die ROPs selber, aber das danach (GDS, Memorybandwidth etc). Es bringt ja nix wie bei Fermi viele ROPs zu haben, aber diese zu beschneiden oder mit zu wenig Daten zu füttern. Ebenso wenig bringt es was die Cache-größe so zu belassen wie sie bei Tahiti ist aber die Exportfähigkeit so dramatisch zu erhöhen.
AMD vollbringt keine Wunder sondern designed Chips so nah sie können am sweet spot.

robbitop
2013-08-23, 14:42:00
Er spielt wohl auf die Moeglichkeit eines sehr breiten Buses an und an die dadurch resultierende hoehere Bandbreite als Titan; persoenlich gefaellt mir der 16 ROP typo natuerlich besser :freak:

Wie meinst du das? ROPs und SI sind entkoppelt. Mehr als 384 bit SI wäre schon...überraschend!

robbitop
2013-08-23, 14:45:54
Weil der Chip dann in Dimensionen stößt welche wohl nicht mehr profitabel sein dürften. Nicht durch die ROPs selber, aber das danach (GDS, Memorybandwidth etc). Es bringt ja nix wie bei Fermi viele ROPs zu haben, aber diese zu beschneiden oder mit zu wenig Daten zu füttern. Ebenso wenig bringt es was die Cache-größe so zu belassen wie sie bei Tahiti ist aber die Exportfähigkeit so dramatisch zu erhöhen.

Wer sagt denn, dass Hawaii mit 32 ROPs noch immer (Tahiti wird offensichtlich doppelt so breit wie Pitcairn) im Sweetspot liegt? Der Schluss liegt nahe, die Anzahl ebenfalls zu erhöhen. Vieleicht nicht zu verdoppeln - aber als unrealistisch würde ich eine Erhöhung erstmal nicht sehen.

Ailuros
2013-08-23, 15:05:12
Wie meinst du das? ROPs und SI sind entkoppelt. Mehr als 384 bit SI wäre schon...überraschend!

Ich weiss; selbst wenn sie tatsaechlich auf ein 512bit SI gesetzt haben sehe ich keinen besonderen Grund fuer mehr als 48 ROPs ausser ich verpass etwas. Wo ist Gipsel wenn man ihn braucht? ;)

robbitop
2013-08-23, 15:09:09
Pitcairn hat ein 256 bit SI. Tahiti (und vermutlich auch Hawaii) ein 384 bit SI. Bereits Pitcairn hat 32 ROPs. Warum sollte man, wenn man nicht Kompromisse hinsichtlich Transistorbudgets eingehen muss, diese Stellschraube dann nicht mit nach oben drehen?

Ailuros
2013-08-23, 15:11:56
Pitcairn hat ein 256 bit SI. Tahiti (und vermutlich auch Hawaii) ein 384 bit SI. Bereits Pitcairn hat 32 ROPs. Warum sollte man, wenn man nicht Kompromisse hinsichtlich Transistorbudgets eingehen muss, diese Stellschraube dann nicht mit nach oben drehen?

Du solltest MICH nicht fragen warum absurdes im Hintergrund herumschwirrt.

john carmack
2013-08-23, 15:22:12
Ich wollte das überspitzt ausdrücken ;)
@Ail: Von 64 ROPs steht da aber auch nix. Ist auch total unrealistisch.


20nm@
Stream Processors 4096
Compute Units 16
TMUS 256
ROPS 64
Memory 4 GB or 8GB GDDR5
Memory Bus 512-bit
Memory Clock 8Gbps
Bandwidth 512GB/s

@ GPU Clock 750Mhz


dann geht das schon :D

Hübie
2013-08-23, 15:22:29
Pitcairn hat ein 256 bit SI. Tahiti (und vermutlich auch Hawaii) ein 384 bit SI. Bereits Pitcairn hat 32 ROPs. Warum sollte man, wenn man nicht Kompromisse hinsichtlich Transistorbudgets eingehen muss, diese Stellschraube dann nicht mit nach oben drehen?

Öhm. Ich sagte 64 ROPs sind total unrealistisch ;) 48 sind wahrscheinlich und 32 mindestens. Klar soweit?

Klar wäre es nur logisch wenn man entsprechend mehr ALUs hat, einen größeren GDS und die Speicheranbindung dass man mehr ROPs integriert.

@john carmack: Komm zu 20-nm-Zeiten damit noch mal an. Dann stimme ich partiell zu ;D

john carmack
2013-08-23, 15:28:52
Weil der Chip dann in Dimensionen stößt welche wohl nicht mehr profitabel sein dürften. Nicht durch die ROPs selber, aber das danach (GDS, Memorybandwidth etc). Es bringt ja nix wie bei Fermi viele ROPs zu haben, aber diese zu beschneiden oder mit zu wenig Daten zu füttern. Ebenso wenig bringt es was die Cache-größe so zu belassen wie sie bei Tahiti ist aber die Exportfähigkeit so dramatisch zu erhöhen.
AMD vollbringt keine Wunder sondern designed Chips so nah sie können am sweet spot.


Sehr Richtig!

Vielleicht sollte man aber besser "...designed Chips so Zeitnah sie können..."

Zeit spielt natürlich auch immer eine Rolle... Sicher kann man immer einen Chip bei gleicher Fertigung (zB 28nm) bauen der noch effizienter ist!
Aber keiner will 3 Jahre oder länger warten.

Feintuning kann man bis zum exzess treiben... aber "fass mal ~6.000.000.000 Transistoren einzeln an"

Öhm. Ich sagte 64 ROPs sind total unrealistisch ;) 48 sind wahrscheinlich und 32 mindestens. Klar soweit?

Klar wäre es nur logisch wenn man entsprechend mehr ALUs hat, einen größeren GDS und die Speicheranbindung dass man mehr ROPs integriert.

@john carmack: Komm zu 20-nm-Zeiten damit noch mal an. Dann stimme ich partiell zu ;D


Warum... bei entsprechend niedriegem GPU Takt kann man doch Chips bauen die von mir aus auch 570mm2 oder so sind... oder was meinst du?

Ob die Performance am Ende auch stimmt steht erst mal auf einem ganz anderen Blatt!

Botcruscher
2013-08-23, 15:32:44
Aber keiner will 3 Jahre oder länger warten.

Zum Glück sind es bis jetzt nur fast drei. :freak: Wozu eigentlich die 512Bit? Thaiti hatte bis jetzt genug Bandbreite.

john carmack
2013-08-23, 15:36:04
Zum Glück sind es bis jetzt nur fast drei. :freak: Wozu eigentlich die 512Bit? Thaiti hatte bis jetzt genug Bandbreite.

Weils schön aussieht... 384 ist hässlich :D


und bis jetzt sind es fast 2 Jahre

Ailuros
2013-08-23, 15:54:46
Zum Glück sind es bis jetzt nur fast drei. :freak: Wozu eigentlich die 512Bit? Thaiti hatte bis jetzt genug Bandbreite.

Wenn sie brutal auf das DP Gaspedal getreten haben mit Hawaii kann ich mir schon ein paar SEHR gute Gruende vorstellen wieso man ein gutes Stueck mehr Bandbreite gebrauchen koennte.

horn 12
2013-08-23, 16:30:46
Downsampling übern Treiber!
AMD wird wohl Neue Features bringen um sich mit NV ein und alle mal messen zu können.

Das Image würde sich somit wesentlich bessern und man will wohl über den Preis punkten.
Vielleicht doch 20-er Verfahren mit gemässigten Taktraten um den Ausschuss klein zu halten...

Nakai
2013-08-23, 16:35:39
Wenn es extra ein größeres Event gibt, dann wird Hawaii schon ein paar interessante Features bringen. Evtl ein besseres DP-Verhältnis(1:3 oder gar 1:2? ;D).
AMD muss einen Chip bringen, der im Gaming-Bereich und im HPC-Bereich gegen Titan gegenhalten kann. Je nachdem wo der Focus liegt, wird man eventuell woanders schlechter abschneiden.

aufkrawall
2013-08-23, 16:40:34
Downsampling übern Treiber!
AMD wird wohl Neue Features bringen um sich mit NV ein und alle mal messen zu können.

Das Image würde sich somit wesentlich bessern und man will wohl über den Preis punkten.

Schon wieder Wunschdenken, oder hast du zur Abwechslung mal was Handfestes?

mczak
2013-08-23, 17:07:54
Wenn sie brutal auf das DP Gaspedal getreten haben mit Hawaii kann ich mir schon ein paar SEHR gute Gruende vorstellen wieso man ein gutes Stueck mehr Bandbreite gebrauchen koennte.
Naja also DP braucht ja selbst bei 1:2 SP Verhältnis bloss gleich viel Bandbreite wie SP, von daher ist das eher eine Frage von Compute vs. Gaming als von DP. Wobei natürlich mehr DP macht ja auch bloss Sinn für HPC (persönlich denke ich aber nicht dass sich mehr als 1:4 (für MULs jedenfalls) wirklich lohnt ausser man setzt _nur_ auf HPC - selbst x86 cpus haben da mittlerweile nicht mehr 1:2 sondern bloss noch 1:4, wenn auch nur die low-power Versionen (neue und alte Atoms, Bobcat/Jaguar)).

Skysnake
2013-08-23, 17:31:05
Zum Glück sind es bis jetzt nur fast drei. :freak: Wozu eigentlich die 512Bit? Thaiti hatte bis jetzt genug Bandbreite.
Weil man NIE genug Bandbreite hat?

Wenn Tahiti so 8 TB/s SI Bandbreite hätte, dann wäre das SI wirklich Fett genug :freak:

Bei Bandbreite ist es wie beim Hubraum. Du kannst Sie nur durch eins ersetzen. MEHR DAVON! :biggrin:

Naja also DP braucht ja selbst bei 1:2 SP Verhältnis bloss gleich viel Bandbreite wie SP, von daher ist das eher eine Frage von Compute vs. Gaming als von DP. Wobei natürlich mehr DP macht ja auch bloss Sinn für HPC (persönlich denke ich aber nicht dass sich mehr als 1:4 (für MULs jedenfalls) wirklich lohnt ausser man setzt _nur_ auf HPC - selbst x86 cpus haben da mittlerweile nicht mehr 1:2 sondern bloss noch 1:4, wenn auch nur die low-power Versionen (neue und alte Atoms, Bobcat/Jaguar)).
Ähm... Wenn sind das irgendwelche Low-Power cores, aber keine normale x86 CPU hat 1:4 DP:SP. Zumindest wäre mir das Neu, dass die MULs da reduziert sind, wobei man ja eh meist ADD-MUL oder so Späße hat.

1:2 DP:SP wäre für AMD auf jeden Fall ein richtiges Killerargument. Dazu wieder son Ding wie die S10000 und nVidia muss sich richtig warm anziehen, und selbst Intel muss mit XeonPhi schauen was Sie machen.

boxleitnerb
2013-08-23, 17:57:54
Soweit ich gehört habe, kann Hawaii 1:2. Aber ohne Garantie.

Ailuros
2013-08-23, 17:59:45
Naja also DP braucht ja selbst bei 1:2 SP Verhältnis bloss gleich viel Bandbreite wie SP, von daher ist das eher eine Frage von Compute vs. Gaming als von DP. Wobei natürlich mehr DP macht ja auch bloss Sinn für HPC (persönlich denke ich aber nicht dass sich mehr als 1:4 (für MULs jedenfalls) wirklich lohnt ausser man setzt _nur_ auf HPC - selbst x86 cpus haben da mittlerweile nicht mehr 1:2 sondern bloss noch 1:4, wenn auch nur die low-power Versionen (neue und alte Atoms, Bobcat/Jaguar)).

Du bekommst doch grob ein theoretisches Maximum von 1TFLOP aus Tahiti mit 1:4. Bei mehr Einheiten, gleichem Takt und 1:2 ist die Steigerung um einiges ueber 2x Mal. Und das soll mit der gleichen Bandbreite wie bei Tahiti auskommen? Was verpass ich gerade?

Skysnake
2013-08-23, 18:07:39
Soweit ich gehört habe, kann Hawaii 1:2. Aber ohne Garantie.
Das glaub ich erst, wenn ich es seh :tongue:

Toll wäre es, aber AMD muss das einfach wollen. In der Schublade haben Sie die Sachen wohl. Haben ja gesagt, das GCN auf 1:2 ausgelegt ist. Die Frage ist halt wollen Sie auch?

Ailuros
2013-08-23, 18:50:10
Das glaub ich erst, wenn ich es seh :tongue:

Toll wäre es, aber AMD muss das einfach wollen. In der Schublade haben Sie die Sachen wohl. Haben ja gesagt, das GCN auf 1:2 ausgelegt ist. Die Frage ist halt wollen Sie auch?

Na bleib mal fuer ein paar Sekunden bei meiner hypothetischen Uebung: angenommen Hawaii hat doch 1:2 waeren es irgendwo um die 2.5 TFLOPs; fuer das soll immer noch Tahiti Bandbreite ausreichen?

john carmack
2013-08-23, 18:59:05
Wenn es extra ein größeres Event gibt, dann wird Hawaii schon ein paar interessante Features bringen. Evtl ein besseres DP-Verhältnis(1:3 oder gar 1:2? ;D).
AMD muss einen Chip bringen, der im Gaming-Bereich und im HPC-Bereich gegen Titan gegenhalten kann. Je nachdem wo der Focus liegt, wird man eventuell woanders schlechter abschneiden.


Das stimmt schon. Mindestens das! Weniger Leistung macht echt keinen Sinn - es sei denn man bringt Hawaii mit GTX780 Leistung für max. 449€
OHHH... WOW ... Ich sehe gerade den aktuellen Kurs:

600$ = 447,84€

mczak
2013-08-23, 19:02:26
Du bekommst doch grob ein theoretisches Maximum von 1TFLOP aus Tahiti mit 1:4. Bei mehr Einheiten, gleichem Takt und 1:2 ist die Steigerung um einiges ueber 2x Mal. Und das soll mit der gleichen Bandbreite wie bei Tahiti auskommen? Was verpass ich gerade?
Du hast mich falsch verstanden. Machst du dieselben Berechnungen mit SP statt DP brauchst du genau so viel Bandbreite bei einem DP:SP Verhältnis von 1:2, ansonsten eben sogar noch mehr. DP an sich erhöht den Bandbreitenbedarf also nicht, es sei denn jemand ist so verrückt und implementiert ein DP:SP Verhältnis von 1:1.
Aber klar, mit mehr CUs wäre natürlich auch eine Steigerung der Speicherbandbreite wünschenswert (für Compute).

john carmack
2013-08-23, 19:17:33
Wenn es extra ein größeres Event gibt, dann wird Hawaii schon ein paar interessante Features bringen. Evtl ein besseres DP-Verhältnis(1:3 oder gar 1:2? ;D).
AMD muss einen Chip bringen, der im Gaming-Bereich und im HPC-Bereich gegen Titan gegenhalten kann. Je nachdem wo der Focus liegt, wird man eventuell woanders schlechter abschneiden.


Irgendwo hab ich gelesen das AMD immer größere Events gibt wenn es neue GPU´s vorzustellen gilt...
Dieses mal eben auf Hawaii

Skysnake
2013-08-23, 19:22:28
Na bleib mal fuer ein paar Sekunden bei meiner hypothetischen Uebung: angenommen Hawaii hat doch 1:2 waeren es irgendwo um die 2.5 TFLOPs; fuer das soll immer noch Tahiti Bandbreite ausreichen?
Man kann noch immer schnelleren RAM verbauen, und die Caches etwas aufpumpen. Gerade der L2 würde noch etwas vertragen. Also genug Ansatzpunkte um das Bandbreitenproblem zu lösen gibt es schon.

Ailuros
2013-08-23, 20:29:54
Man kann noch immer schnelleren RAM verbauen, und die Caches etwas aufpumpen. Gerade der L2 würde noch etwas vertragen. Also genug Ansatzpunkte um das Bandbreitenproblem zu lösen gibt es schon.

Es ging mir nicht darum das "Bandbreitenproblem" zu loesen sondern um die Behauptung dass Tahiti "genug" Bandbreite hat. Es hat eigentlich NIE eine GPU genug Bandbreite; lediglich stets eine Kompromiss-Menge um die Mehrzahl der Faelle zu decken.

So wie ich mir Hawaii vorstelle wird das Ding auch um die 30% mehr Bandbreite brauchen werden zumindest sonst wird der Leistungsunterschied zu Tahiti eben am Mangel zusaetzlicher Bandbreite minimalisiert.

X.Perry_Mental
2013-08-23, 20:50:31
So wie ich mir Hawaii vorstelle wird das Ding auch um die 30% mehr Bandbreite brauchen werden zumindest sonst wird der Leistungsunterschied zu Tahiti eben am Mangel zusaetzlicher Bandbreite minimalisiert.
Das wird dann mit einem 384-Bit Speicherinterface relativ eng...

StefanV
2013-08-23, 21:03:41
Hm, meint ihr, AMD wird wieder ein 512bit Speicherinterface nutzen?

Skysnake
2013-08-23, 21:22:26
Es ging mir nicht darum das "Bandbreitenproblem" zu loesen sondern um die Behauptung dass Tahiti "genug" Bandbreite hat. Es hat eigentlich NIE eine GPU genug Bandbreite; lediglich stets eine Kompromiss-Menge um die Mehrzahl der Faelle zu decken.

So wie ich mir Hawaii vorstelle wird das Ding auch um die 30% mehr Bandbreite brauchen werden zumindest sonst wird der Leistungsunterschied zu Tahiti eben am Mangel zusaetzlicher Bandbreite minimalisiert.
Das ist jetzt aber sehr Pauschal.

Gibt auch Anwendungsfälle, bei denen du nicht am SI nippelst. Das waren typischerweise auch die Dinger, bei denen die VLIW Architektur ganz gut ging.

Aber klar, mehr Bandbreite ist immer gut. Die Frage ist halt, wie man es erreichen will. Gibt wie gesagt ja genug Optionen. Allein von 1:4 auf 1:2 zu gehen würde aber wirklich keinen Sinn machen.

Wenn man aber mehr CUs, und dafür niedriger taktet, bringts schon wieder etwas, weil ma mehr Caches in den CUs hat, und damit das SI etwas entlastet wird, wenn auch nicht zu arg.

Den L2 könnte man recht einfach aufbohren, wobei man sich fragen müsste, ob man nicht auf 48 CUs ohne L2 geht, und das SI+L2 in nen extra DIE packt...

Das wäre dann schon ziemlich fett. Vor allem könnte man die Logik in 28nm bauen, und z.B. das SI+L2 in 40nm. Das wäre kein Problem, und dann halt gleich 16MB L2 oder so. Dann wäre selbst ein 384 Bit Interface kein Problem, und in Compute würde das Ding abgehen wie Drecksau, vorallem mit 1:2 DP:SP. Das würde wahrscheinlich alles so derbst verklopfen, das gibts gar nicht....

Und genau das ist halt ein Punkt der dagegen spricht... Es wäre einfach ZU! geil -.-

Botcruscher
2013-08-23, 21:35:14
Genug bedeutet nicht zu viel und ihr seid auch gleich wieder bei wünsch dir was. Für eine Ente mit 40CU braucht es so etwas nicht und auch die 44 sind nicht so viel mehr. Also darf man sich doch auf mehr freuen. Zumindest leg ich das jetzt mal so aus. :rolleyes:

Gipsel
2013-08-23, 22:16:42
Ich weiss; selbst wenn sie tatsaechlich auf ein 512bit SI gesetzt haben sehe ich keinen besonderen Grund fuer mehr als 48 ROPs ausser ich verpass etwas. Wo ist Gipsel wenn man ihn braucht? ;)Grillen und Bier trinken. :D
Aber im Prinzip hast Du recht. AMD hat das Speicherinterface bei Tahiti auf 384Bit aufgebohrt und die Anzahl der ROPs bei 32 belassen, weil die 32 ROPs bei Pitcairn im Normalfall sowieso an der Speicherbandbreite hängen. Die Speicherbandbreite war also der größere Flaschenhals, mehr ROPs hätten viel weniger gebracht. Mit der gleichen Argumentation würde man auch bei 512bit maximal 48 ROPs verbauen. Bleibt man bei 384Bit und hat noch ein bißchen Diefläche übrig, bringen 48 ROPs natürlich in einigen Situationen auch noch etwas Mehrleistung (insbesondere wenn der Takt bei ~1 GHz bleibt und der Speicher z.B mit 7GBps laufen würde).
Mehr ROPs bedeuten auch automatisch mehr ROP-Cache (bisher 16+4 kB pro Backend bestehend aus 4 ROPs). Ich würde beinahe behaupten, daß bei gleichbleibender Breite des Speicherinterfaces, ein Großteil des Performancegewinns von 48 ROPs auf den größeren Cache und der damit verbesserten Fähigkeit Peaks bei den Exports abzufangen zurückzuführen wäre. Man könnte also auch einen ähnlichen Effekt erreichen, in dem man die ROP-Caches vergrößert. Die Dinger sind nur ziemlich aufwendig wegen der sehr hohen internen Bandbreite (2048bit, also 256Byte/Takt pro Backend) und der darüber ablaufenden Framebufferkompression. Es ist also unter Umständen einfacher, die Anzahl der ROPs hochzuschrauben. Eine Alternative wäre, den L2-Cache als zweite Stufe hinter die ROP-Caches zu setzen (mit einem gewissen Limit, wieviel der Framebuffer maximal belegen darf, damit man den L2 nicht ständig komplett trashed; dafür müßte der aber aufgebohrt und optimalerweise auch vergrößert werden).

Und bei der SP : DP Bandbreitenfrage würde ich mczaks Argumentation voll unterstützen. Wenn AMD die 1:4 multi precision Einheiten platzgünstig unterbringt, sehe ich auch keinen zwingenden Grund auf 1:2 zu gehen, solange man nicht einen wirklichen HPC-Chip mit weit überlegener DP-Leistung bringen will. Praktisch liegt ein Tahiti nicht wirklich weit hinter einem K20(X), inbesondere auch, da AMD GPUs DP-ADDs traditionell mit 1:2 Rate ausführen können (da ist Tahiti also sogar schneller als Titan) und auch bei anderen Instruktionen Vorteile hat (wie z.B durch Integer- bzw. Bitmanipulationen dominierte Kryptogeschichten zeigen). Und ~30% im Peak bei DP sind im Großen und Ganzen nicht soo viel. Da gibt es andere Baustellen, an denen man einfacher punkten kann (und teilweise schon tut). Falls Hawaii auf 40-44CUs geht, hat man den K20X auch mit 1:4 Rate beim DP-Peak faktisch eingeholt. Mehr ist also gar nicht wirklich nötig, bis irgendwann Maxwell kommt.

Ailuros
2013-08-24, 08:37:40
Damit es etwas klarer wird: es schwirrt ein Geruecht herum dass es 1:2, 512bit und 64ROPs (wenn ich mich jetzt nicht irrte). Als erste Reaktion hab ich nur gelacht und es als Bloedsinn abgestempelt, denn der Stromverbrauch der dem angeblichem Geist zugesprochen wird ist auch nicht gerade toll.

Ich hab jetzt lediglich Zweifel nach dem 48/32 Zeug dass der Kerl gefragt wurde und weder/noch antwortete. Ich kann mir bei bestem Willen nicht vorstellen fuer was sie genau 64 ROPs brauchen wuerden; ausser die Busbreite stimmt und die ROP Anzahl hat irgend ein Depp erfunden der nicht weiss dass diese vom MC entkoppelt sind.

***edit: uebrigens behauptet der gleiche Herr dass Maxwell/28nm schon fertig ist. Komischerweise bekam ich bei direkter Anfrage bei NV eine "we moved on" Nachricht und jetzt bleibt natuerlich die Frage wer wen bescheisst.

Skysnake
2013-08-24, 09:02:47
Ailuros, es wäre im Prinzip ziemlich "einfach"

Nimm nen Tahiti, pack 1:2 statt 1:4 rein und mach ein 2 Chip-Package. Dann hast du im Prinzip ne S10000 auf einem Package. Das Ding wird weniger Verbrauchen und du kannst die Programme extrem! einfach anpassen, selbst wenn das als Dual-GPU dem System gemeldet würde und nicht als Single-GPU.

Der PLX Chip würde auch weg fallen, was die Kosten reduziert. Designtechnisch wäre das extrem einfach und billig zu realisieren. Nur das Multichip-package bzw wenn man es richtig fett quasi als Single-GPU haben will, dann eben der Interposer sind ein Problem.

Ich hab vor kurzem mal nen PDF von TSMC gepostet bzgl Chipstacking (2,5D glaub wars). Das wäre durchaus nicht unrealistisch. Vor allem hätte man keinen Monster-DIE wie nVidia, sonstn wahrscheinlich würde man unter 450mm² bleiben.

Das Ding ist, die Sache wäre halt einfach zu gut... Die neue Führung bei AMD ist aber schon ganz anders drauf als die Alte. Daher kannste das weder ausschließen noch unterstützen, das so was kommt.

Es wäre aber eine "nette" Erklärung für die lange Zeit wo nichts kam. Eventuell gabs doch mehr Probleme als gedacht.

Auch wäre AMD in ner guten Position bzgl 20nm. Man hätte absolut gar keinen Druck.

Die Sache wird auch früher oder später kommen. Die Frage ist eigentlich nur, wer genug Eier in der Hose hat um als erstes so etwas zu machen...

Ailuros
2013-08-24, 09:08:12
Ailuros, es wäre im Prinzip ziemlich "einfach"

Nimm nen Tahiti, pack 1:2 statt 1:4 rein und mach ein 2 Chip-Package. Dann hast du im Prinzip ne S10000 auf einem Package. Das Ding wird weniger Verbrauchen und du kannst die Programme extrem! einfach anpassen, selbst wenn das als Dual-GPU dem System gemeldet würde und nicht als Single-GPU.

Der PLX Chip würde auch weg fallen, was die Kosten reduziert. Designtechnisch wäre das extrem einfach und billig zu realisieren. Nur das Multichip-package bzw wenn man es richtig fett quasi als Single-GPU haben will, dann eben der Interposer sind ein Problem.

Ich hab vor kurzem mal nen PDF von TSMC gepostet bzgl Chipstacking (2,5D glaub wars). Das wäre durchaus nicht unrealistisch. Vor allem hätte man keinen Monster-DIE wie nVidia, sonstn wahrscheinlich würde man unter 450mm² bleiben.

Das hypothetische Resultat liegt hoeher als bei 450. Vorsicht ich glaube dem Zeug immer noch nicht, aber wir spielen hier eben mit der eher merkwuerdigen These herum.

Sonst ist nach dem was ich gehoert hatte immer noch zu frueh fuer die stacking.

Das Ding ist, die Sache wäre halt einfach zu gut... Die neue Führung bei AMD ist aber schon ganz anders drauf als die Alte. Daher kannste das weder ausschließen noch unterstützen, das so was kommt.

Es wäre aber eine "nette" Erklärung für die lange Zeit wo nichts kam. Eventuell gabs doch mehr Probleme als gedacht.

Auch wäre AMD in ner guten Position bzgl 20nm. Man hätte absolut gar keinen Druck.

Die Sache wird auch früher oder später kommen. Die Frage ist eigentlich nur, wer genug Eier in der Hose hat um als erstes so etwas zu machen...

AMD ist nicht in der Lage irgendwelches Risiko einzugehen IMHO.

Skysnake
2013-08-24, 09:38:54
Naja, wirklich "Risiko" ist es eigentlich nicht. Das Risiko ist Xilinx eingegangen, und etwas auf die Schnauze geflogen, aber das ist schon >1 Jahr her, und inzwischen wohl komplett gelöst.

Es ist in meinen Augen echt nur eine Risikoabwägung. Mach ist so ein Multichip-Design, womit AMD sehr sehr sehr viel Erfahrung hat, oder lass ich es bleiben und bin auf Gedeih und Verderben auf die 20nm Situation angewiesen, und muss unter 28nm eben einen riesen Chip bringen, oder eben mich mit Platz 2 zufrieden geben.

Ich seh ganz ehrlich gesagt in der 20nm Sache mehr Gefahren. So könnte man sich das wirklich komplett entspannt anschauen ohne jedweden Druck.

Die Frage ist halt, will man das Fass aufmachen, und die Konkurrenz direkt zerbersten, und damit diese eben auch dazu zwingen genau das Gleiche zu machen, oder macht man Minitippelschritte, bei denen man Gefahr läuft hinter der Konkurrenz zu bleiben...

Das ist halt die Frage, und ich kann Sie nicht beantworten. Wer hätte sich vor 2 Jahren so was wie die S10000 vorgestellt von AMD?

horn 12
2013-08-24, 09:47:14
Die Vorstellung auf Hawai für Hawai spricht aber für etwas Größeres, und dies könnte dann vielleicht gar hinkommen ?!
Der Neuen Spitze bei AMD würde man dies schon mal zutrauen können,- und dass knappe 2 Jahre Stillstand herrschten wird wohl Seines dazu beitragen.

fondness
2013-08-24, 09:52:48
Wenn AMD eine Chip mit 512bit SI und eine DP-Rate von 1:2 bringt dann haben sie einen Knall. So viele Transistoren investieren für den HPC-Markt halte ich für Irrsinn. Das kann sich vielleicht Intel mit ihren Larabee leisten, aber wirtschaftlich wird das wohl kaum sein. Zumal man dann wohl auch deutliche Abstriche beim gaming wird machen müssen.

Skysnake
2013-08-24, 10:03:34
Gameing erschlägst du einfach.

Du musst ja bedenken, das es kein Problem ist, 600mm²+ an DIE-Size so zu realisieren. Das ist echt gar kein Ding. Die Yields sollten auch nicht zu schlecht sein. Besser als bei nem 500mm²+ Monster auf jeden Fall. Zudem kann man z.B. 40 oder gar 65nm mit 28nm Fertigung kombinieren. Den ganzen Display UVD what ever shit könnte man z.B. mit auf den extra DIE packen. Für HPC lässte den einfach weg, was wieder kosten spart, oder ersetzt ihn durch nen eDRAM oder what ever. Du kannst auch die Sache asymmetrisch machen wie Intel mit Haswell.

Sprich du hast nen Grundchip der alles drin hat, inkl Anbindung zu nem zweiten DIE, und mit dem skalierst du dann die Performance. Sprich pack ich gar keinen dazu, hab ich was in der Größenordnung einer 77x0. Pack ich nochmal das gleiche dazu, hab ich ne 78x0, pack ich das doppelte dazu, hab ich halt was wie ne 79x0.

Das kannste wunderbar skalieren.

Mit MCM bzw Interposer bekommst du sooo viele Variationsmöglichkeiten und Freiheiten dazu, das gibts gar nicht. Was halt kritisch ist, ist wie die Yields sich durch das komplexere Packaging verschelchtern. Eigentlich sollte es aber im Griff sein. Das wird schon seit Jahren gemacht. Wie gesagt selbst Interposer sind inzwischen im "Massenmarkt" angekommen. Die Technologie scheint soweit eigentlich im Griff zu sein.

M4xw0lf
2013-08-24, 10:10:01
***edit: uebrigens behauptet der gleiche Herr dass Maxwell/28nm schon fertig ist. Komischerweise bekam ich bei direkter Anfrage bei NV eine "we moved on" Nachricht und jetzt bleibt natuerlich die Frage wer wen bescheisst.
Nur was genau soll "we moved on" jetzt heißen? Maxwell IST fertig, wir arbeiten an Volta? 28nm ist Geschichte, wir warten auf 20nm?

StefanV
2013-08-24, 10:23:30
AMD ist nicht in der Lage irgendwelches Risiko einzugehen IMHO.
Sicher?

Weil wenn man nix zu verlieren hat, wie es bei AMD wohl der Fall ist, warum sollt man nicht mal (wieder) alles auf eine Karte setzen? Hat ja beim R300 schon geklappt oder beim K7 (und verwandten, die bis zum Bulldozer genutzt wurden)...

john carmack
2013-08-24, 10:48:22
Damit es etwas klarer wird: es schwirrt ein Geruecht herum dass es 1:2, 512bit und 64ROPs (wenn ich mich jetzt nicht irrte). Als erste Reaktion hab ich nur gelacht und es als Bloedsinn abgestempelt, denn der Stromverbrauch der dem angeblichem Geist zugesprochen wird ist auch nicht gerade toll.

Ich hab jetzt lediglich Zweifel nach dem 48/32 Zeug dass der Kerl gefragt wurde und weder/noch antwortete. Ich kann mir bei bestem Willen nicht vorstellen fuer was sie genau 64 ROPs brauchen wuerden; ausser die Busbreite stimmt und die ROP Anzahl hat irgend ein Depp erfunden der nicht weiss dass diese vom MC entkoppelt sind.

***edit: uebrigens behauptet der gleiche Herr dass Maxwell/28nm schon fertig ist. Komischerweise bekam ich bei direkter Anfrage bei NV eine "we moved on" Nachricht und jetzt bleibt natuerlich die Frage wer wen bescheisst.



Es schwirt ja auch das Gerücht rum das nur Hawaii GCN2.0 bekommt...
Von daher ist ganz schön viel möglich ;)

StefanV
2013-08-24, 10:50:20
Was ist GCN2.0? Wo sind die Änderungen zu GCN1.x?
Ist in diese Richtung schon was bekannt?

matty2580
2013-08-24, 11:26:44
Ich verfolge die Träumereien jetzt hier schon seit einiger Zeit.

Bitte, bitte keinen Shitstorm wenn die echten Karten da sind....

Ailuros
2013-08-24, 12:20:00
Naja, wirklich "Risiko" ist es eigentlich nicht. Das Risiko ist Xilinx eingegangen, und etwas auf die Schnauze geflogen, aber das ist schon >1 Jahr her, und inzwischen wohl komplett gelöst.

Es ist in meinen Augen echt nur eine Risikoabwägung. Mach ist so ein Multichip-Design, womit AMD sehr sehr sehr viel Erfahrung hat, oder lass ich es bleiben und bin auf Gedeih und Verderben auf die 20nm Situation angewiesen, und muss unter 28nm eben einen riesen Chip bringen, oder eben mich mit Platz 2 zufrieden geben.

Ich seh ganz ehrlich gesagt in der 20nm Sache mehr Gefahren. So könnte man sich das wirklich komplett entspannt anschauen ohne jedweden Druck.

Die Frage ist halt, will man das Fass aufmachen, und die Konkurrenz direkt zerbersten, und damit diese eben auch dazu zwingen genau das Gleiche zu machen, oder macht man Minitippelschritte, bei denen man Gefahr läuft hinter der Konkurrenz zu bleiben...

Das ist halt die Frage, und ich kann Sie nicht beantworten. Wer hätte sich vor 2 Jahren so was wie die S10000 vorgestellt von AMD?

Was hat Xilinx genau mit hochkomplizierten GPU chips genau gemeinsam? Genau gar nichts.

Nur was genau soll "we moved on" jetzt heißen? Maxwell IST fertig, wir arbeiten an Volta? 28nm ist Geschichte, wir warten auf 20nm?

Maxwell 28nm kaputt -->resources wo anders eingelegt lack of design wins.

boxleitnerb
2013-08-24, 12:38:57
Wie kaputt? Hatte Charlie ausnahmsweise Recht damit, dass da was gestrichen wurde?

Duplex
2013-08-24, 12:47:07
Die GTX7xx Serie wird inkl. GK110 Vollausbau bis mitte 2014 aktuell bleiben.
Man kann jederzeit auch einen GK114 @350mm² nachschieben (GTX760 TI).
Afaik braucht Nvidia für Tegra viele Ressourcen, vielleicht ist Maxwell in 28nm nicht besonders gut.
Vor Q4/2014 erwarte ich keine 20nm Chips bei Nvidia.

boxleitnerb
2013-08-24, 12:51:12
GK114 wurde doch angeblich auch gestrichen. Das wäre auch ein neuer Chip, für dessen Design und Validierung man Ressourcen opfern muss. Und zuletzt soll 20nm doch gar keine so großen Sprünge machen im Vergleich zum Schritt auf 28nm. Ich dachte, die Architektur wird immer wichtiger. Bis Q4/2014 hätte Nvidia bis auf GK208 dann fast 3 Jahre keine neue (Desktop)-GPU herausgebracht. Sowas hätte es noch nie gegeben.

Duplex
2013-08-24, 12:57:12
Warum soll man mit 20nm keine großen Sprünge machen können?
Möglich das die Chips größer ausfallen, in 20nm kann ich mir GM104 bei 400mm² vorstellen, bei 30% mehr Performance als GK110 bei 50W weniger verbrauch.
Wenn die Karten dann für 550 € angeboten werden sehe ich kein Problem.

Langsam wirds offtopic, das hier ist der AMD/ATI Thread.

Botcruscher
2013-08-24, 13:16:08
Warum soll man mit 20nm keine großen Sprünge machen können?

Weil die 20nm keine 20nm sind. Irgendwo hier ging es doch um das Thema.

Ronny145
2013-08-24, 13:22:53
TSMC bleibt bei der planar Fertigung. Die Effizienz nimmt ab, es müssen neue Techniken Einzug halten. Intel ist auf trigate umgestiegen, TSMC folgt dem wohl erst ab 16nm. Es ist nur logisch, dass der Sprung auf TSMC 20nm kleiner wird.

Skysnake
2013-08-24, 14:13:19
Was hat Xilinx genau mit hochkomplizierten GPU chips genau gemeinsam? Genau gar nichts.

Sehr viel?

Es geht ja 0 um die Fertigung der Chips an sich, sondern nur um die Verbindung von Chips miteinander. Da spielt es eigentlich keine Rolle, wie die Chips genau aussehen. Die Verbindung der Chips muss gelöst werden, und das ist es eben.

matty2580
2013-08-24, 14:15:15
Ausnahmsweise muss ich Ronny145 zustimmen. ^^
Zum Thema 20nm gab es hier schon viele Infos:
http://www.3dcenter.org/news/20nm-grafikchips-mit-weit-weniger-performancegewinn-als-erwartet
http://www.3dcenter.org/news/kommt-die-20nm-grafikchip-generation-nicht-vor-ende-2014

Ailuros
2013-08-24, 14:38:52
Sehr viel?

Es geht ja 0 um die Fertigung der Chips an sich, sondern nur um die Verbindung von Chips miteinander. Da spielt es eigentlich keine Rolle, wie die Chips genau aussehen. Die Verbindung der Chips muss gelöst werden, und das ist es eben.

Wenn es so leicht und risikoles waere 2 chips zu nehmen sie vereinfacht zusammenzupappen und gut ist es waeren IHV schoen bloed wenn sie nicht schon seit langem so weit waeren und dazu NV mit ihren Monster-dies. Natuerlich besteht die Moeglichkeit dass es irgendwann benutzt wird aber es wird trotz allem auf sich warten lassen. Dabei entschuldige ist es wohl schon die zweite Generation wo Du es als "einfach" praesentierst und darauf hoffst.

So lange es Meilensteine bei der eigentlichen Realisierung gibt wird sich keiner der beiden IHVs so leicht dazu trauen und schon gar nicht wenn beide heutzutage ihre Laeden so stark wie moeglich hueten muessen.

Skysnake
2013-08-24, 18:21:39
Richti Ailuros, es ist nicht "einfach".

Letztes Jahr habe ich mich von Xilinx aber auch an der Nase herumführen lassen.... Die haben zwar groß rumgetönt Sie hätten es, bekommen, geschweige denn kaufen konntest du aber nen feuchten Scheisdreck anscheinend. Den Hut setze ich mir auch auf. Das hätte man prüfen müssen, aber so was habe ich nicht erwartet, das eine Firma was groß ankündigt und rumprotzt und dann nicht liefern kann...

Die Probleme sollen inzwischen aber gelöst sein, und die Chips selbst im "Endkunden" Bereich angekommen sein. Du kannst sofort welche kaufen: http://avnetexpress.avnet.com/store/em/EMController/FPGA/Xilinx/XC7V2000T-1FLG1925C/_/R-5000658404009/A-5000658404009/An-0?action=part&catalogId=500201&langId=-1&storeId=500201&listIndex=-1&page=1&rank=0

Zwar nicht billig, aber FPGAs sind eh immer schweine teuer... Wichtig ist halt, dass man die Dinger inzwischen kaufen kann. Xilinx kann sich sicherlich niedrigere Yields leisten als AMD für seine Massenmarktchips, aber wenn da noch nen zweiter Partner wie AMD mit rein kommt, kann man auch nochmals die Fertigung optimieren, und man arbeitet eben jetzt schon bald 2 Jahre an der "Massenfertigung" so langsam sollten Sie das wirklich im Griff haben.:freak:

Ailuros
2013-08-24, 21:50:24
Es kann durchaus sein dass ich mal wieder falsch liege aber ich seh davon nichts selbst unter 16nm.

Knuddelbearli
2013-08-24, 22:39:05
naja so langsam müssen sie da aber wohl hin.

kleinere Fertigungen bringen immer weniger die und Strom Ersparnis und sind zugleich immer teurer

denk mal 2*300mm² in 28nm @ 850Mhz zusammengepappt so das man keine CF Nachteile hat dürfte in allen belangen besser sein ( schneller und günstiger zu fertigen ) als 400mm² in 20nm @ 1Ghz ( flächenvorteil war ja glaube ich von ca 30% die rede zuletzt? )

beim refresh gibt es dann halt noch einen 3ten Chip dazu. 3dfx hats vorgemacht ^^
Kühlen würde sich das auch deutlich einfacher lassen ( deutlich geringere Verlustleistung je mm² )
wo liegt eigentlich aktuell der Scheitelpunkt der Frequenz / Spannung bei GPUs? Spart man unter 700Mhz noch deutlich Leistungsaufnahme?

Die Überlegung gibt es ja eigentlich schon lange nur war die Interposertechnik und co bisher noch nicht soweit

OBrian
2013-08-25, 01:56:29
Die werden das aber doch erstmal bei DRAM machen, um Erfahrungen zu sammeln. Da hat man nicht so eine Abwärme. Wie soll man denn drei Dies mit je grob 100 W/cm² übereinander vernünftig kühlen? Der untere wird doch total blockiert in der Wärmeabfuhr durch die Schichtgrenzen. Da muß man sich schon was Supergutes einfallen lassen, was wenigstens auf dem Niveau von ungestörtem Siliziumkristallgitter liegt. Und oben zum Kühler hin tut es normale WLP auch nicht mehr, wenn da auf einmal die dreifache Energiedichte pro Fläche ankommt.

Nee, erstmal kommen stacked dies im Speicherbereich auf den Markt, Logikchips sicher erst ein paar Jahre später.

Was denkbar wäre, sind zwei Chips nebeneinander, aber da muß man sich fragen, was das an Vorteilen brächte ggü. einer 1-Chip-Lösung. Immerhin integriert AMD in allen Bereichen immer stärker. Sinnvoll könnte höchstens ein Hawaii mit 384-bit SI und wenig Cache sein, dem man für den professionellen Markt einen fetten, breit angebundenen Cache dazugibt, so ein bißchen wie der Sideport-RAM bei den integrierten Chipsätzen früher oder wie bei der XBOX. Dann hätte man im Chip auf den Gamerkarten überflüssigerweise nur die ungenutze Cacheanbindung, also wenig Ballast. Aber vielleicht ist es dann auch einfacher, den Chip mit 512-bit-SI auszulegen und auf den Gamerkarten nur 384 bit davon zu bestücken? Andererseits, wenn ich das schon habe, warum nicht den Marktetingvorteil des fetten SI und der größeren RAMs nutzen? Würde dann ja auch nur wenig mehr kosten, die Karte voll zu bestücken.

Nein, ich denke, das ist alles zu abgefahren. Wenn man einen zu "tollen" Chip designt, dann kann man den hinterher nicht oder nicht rechtzeitig bauen und steht dumm da. Leistung auf Titan-Niveau (plus 3% für die Benchmarkkrone) reicht ja, ist mit einem noch in Masse baubaren Chip erreichbar und man kann Geld damit verdienen. Bzgl. HPC-Leistung steht man doch so auch schon gut da, das Problem der Akzeptanz liegt wohl eher im Software-Bereich (Entwicklertools usw.) und im Marketing, aber nicht bei der Hardware.

Daß der Chip jetzt im Oktober in dem Markt kommt, also perfekt zur optimalen Verkaufssaison, bedeutet, es gab keine fiese ungeplante Verzögerung. Was wiederum bedeutet, daß es wohl nicht so schwierig war, ihn hinzukriegen. Und das bedeutet, er ist nicht so auf Kante gebaut.

Knuddelbearli
2013-08-25, 02:29:04
na ich meinte das allgemein nicht auf eine bestimmte art limitiert. Und damit eben auch mit Interposer nebeneinander

Und Vorteil dort wäre.
Keine 570mm² Limitation
2 x 300mm² hat deutlich bessere Yields als 1 mal 570mm²

und von Cache profitiert man auch als Gamer

V2.0
2013-08-25, 09:22:55
Die GTX7xx Serie wird inkl. GK110 Vollausbau bis mitte 2014 aktuell bleiben.
Man kann jederzeit auch einen GK114 @350mm² nachschieben (GTX760 TI).
Afaik braucht Nvidia für Tegra viele Ressourcen, vielleicht ist Maxwell in 28nm nicht besonders gut.
Vor Q4/2014 erwarte ich keine 20nm Chips bei Nvidia.

GK114 ist falsch, GK204....

Skysnake
2013-08-25, 09:43:53
Und du kannst 2 Fertigungstechnologien ohne Problem nutzen wie ich schon gesagt habe.

Es würde insbesondere Sinn machen das SI und den ganzen anderen Analogkram wie Display usw usw in nen extra DIE zu packen. Das Zeug profitiert eh praktisch gar nicht von den kleineren Strukturen. Da könntest auch 90nm wahrscheinlich ohne Einbußen verwenden, und ich muss glaub ich nicht sagen, das man 90nm praktisch hinterhergeschmissen bekommt.

Das ist also auch ein Kostenfaktor, und gerade wenn man >=384Bit SI hat, dann ist das schon einiges an DIE-Size, was da zusammen kommt.

Es kann durchaus sein dass ich mal wieder falsch liege aber ich seh davon nichts selbst unter 16nm.
Ich hab doch den Link gepostet zu dem Produkt. :confused:

Ich versteh dich gerade nicht.

Die werden das aber doch erstmal bei DRAM machen, um Erfahrungen zu sammeln.

Gibts doch. HMC ist stacked DRAM, sogar stacked DRAM on Logik!


Da hat man nicht so eine Abwärme. Wie soll man denn drei Dies mit je grob 100 W/cm² übereinander vernünftig kühlen? Der untere wird doch total blockiert in der Wärmeabfuhr durch die Schichtgrenzen. Da muß man sich schon was Supergutes einfallen lassen, was wenigstens auf dem Niveau von ungestörtem Siliziumkristallgitter liegt. Und oben zum Kühler hin tut es normale WLP auch nicht mehr, wenn da auf einmal die dreifache Energiedichte pro Fläche ankommt.

Das Problem hält sich in Grenzen, so lange man genug TSVs hat. Im Optimalfall packt man aber eh den Logikkram ganz nach oben, dann haste das Problem nicht. Logik on Logik ist durchaus aber so ne Sache, worüber man sich arge Gedanken machen muss. Das wird aber die nächten Jahre nicht kommen. Das ist auch absolut nicht nötig. xRAM on Logik hat mehr als genug Entwicklungspotenzial für >=10 Jahre.


Nee, erstmal kommen stacked dies im Speicherbereich auf den Markt, Logikchips sicher erst ein paar Jahre später.

Du musst aufpassen, von was wir reden. Wir reden nicht von Logik on Logik mittels TSV, sondern von Logik neben! Logik mittels Interposer (fette Anbindung) oder MCM (etwas weniger fette Anbindung).

Schlagwort 2.5D passt da auch ganz gut rein.


Was denkbar wäre, sind zwei Chips nebeneinander, aber da muß man sich fragen, was das an Vorteilen brächte ggü. einer 1-Chip-Lösung. Immerhin integriert AMD in allen Bereichen immer stärker.
Richtig, aber die Vorteile liegen auf der Hand.


kleinere leichter zu fertigende DIEs
keine ~550mm² limitierung der DIE-Size mehr
man kann den ganzen Analog- und I/O-Kram in billigen groben Struckturbreiten fertigen
man kann Caches/eDRAM einfach dazu packen
man kann Masken einsparen, indem man große Karten einfach aus x kleinen Chips zusammensetzt. Das ganze Design wird also Modularer. ->Kostenerstparnis
"gute" Karten lassen sich leichter erstellen, da man eben bei den einzelnen Chips jeweils die Besten raus ziehen kann.



Sinnvoll könnte höchstens ein Hawaii mit 384-bit SI und wenig Cache sein, dem man für den professionellen Markt einen fetten, breit angebundenen Cache dazugibt, so ein bißchen wie der Sideport-RAM bei den integrierten Chipsätzen früher oder wie bei der XBOX.

Siehe oben. Man kann das sinnvoll in allen Bereichen verwenden. Angefangen bei den Midrangekarten, drunter gibts eh nur noch APUs, bis hin zu den HPC super duper Dingern. Du holst dir einfach ne einfache Möglichkeit der Skalierung ins Haus. Das Problem ist halt echt "nur", dass die Yields hinreichend gut sein müssen, und eben das MCM-Package/Interposer nicht zu teuer sein dürfen.


Dann hätte man im Chip auf den Gamerkarten überflüssigerweise nur die ungenutze Cacheanbindung, also wenig Ballast. Aber vielleicht ist es dann auch einfacher, den Chip mit 512-bit-SI auszulegen und auf den Gamerkarten nur 384 bit davon zu bestücken? Andererseits, wenn ich das schon habe, warum nicht den Marktetingvorteil des fetten SI und der größeren RAMs nutzen? Würde dann ja auch nur wenig mehr kosten, die Karte voll zu bestücken.

Der Cache bringt dir auch als Gamer was. Deswegen würde man eben kein 512 Bit Interface verbauen, sondern es bei 384 lassen, oder könnte eventuell sogar auf 256Bit rutner. Kommt halt ganz darauf an, wie groß der Cache wäre. Son 128/256 MB Cache würde sicher ausreichen um auf 256 Bit SI runter gehen zu können.


Nein, ich denke, das ist alles zu abgefahren. Wenn man einen zu "tollen" Chip designt, dann kann man den hinterher nicht oder nicht rechtzeitig bauen und steht dumm da. Leistung auf Titan-Niveau (plus 3% für die Benchmarkkrone) reicht ja, ist mit einem noch in Masse baubaren Chip erreichbar und man kann Geld damit verdienen. Bzgl. HPC-Leistung steht man doch so auch schon gut da, das Problem der Akzeptanz liegt wohl eher im Software-Bereich (Entwicklertools usw.) und im Marketing, aber nicht bei der Hardware.

Der Knackpunkt is das Packaging. Das muss hinreichend hohe Yields liefern und eben nicht höhere Mehrkosten verursachen, als man durch die einfachere DIE-Fertigung einspart.


Daß der Chip jetzt im Oktober in dem Markt kommt, also perfekt zur optimalen Verkaufssaison, bedeutet, es gab keine fiese ungeplante Verzögerung. Was wiederum bedeutet, daß es wohl nicht so schwierig war, ihn hinzukriegen. Und das bedeutet, er ist nicht so auf Kante gebaut.
Also "perfekt" würde ich das nicht nennen. Der Produktzyklus ist VIEL zu lange....

Das spricht eher dafür, das irgendwas nicht rund gelaufen ist.

matty2580
2013-08-25, 13:46:14
Was nicht "rund" gelaufen ist hatte Leo doch schon geschrieben.
Der Sprung wäre bei Sea Island zu klein gewesen.
Und wahrscheinlich von Sea Island auf Volcanic Island auch.

OBrian
2013-08-25, 23:46:25
Du musst aufpassen, von was wir reden. Wir reden nicht von Logik on Logik mittels TSV, sondern von Logik neben! Logik mittels Interposer (fette Anbindung) oder MCM (etwas weniger fette Anbindung). "Interposer" ist aber auch etwas schwammig formuliert, der Begriff bezeichnet ja einfach nur "Verbindungen", auch die altbekannte Verbindung zwischen Die und Package. Through-silicon-via ist klar, und MCM ist auch bekannt, gibt es ja schon ewig (ist aber meist eine Zwischenlösung, bis man alles in ein Die integrieren kann). Gib mal einen Link zu einer Erklärung, was Du genau meinst. Das Stichwort 2.5D finde ich auch nur im Zusammenhang mit übereinandergelegten Dies, die nur eben nicht mit TSV verbunden sind (wo Kontaktverbindungen durch das Die gehen, um unterschiedliche Layers der beiden Dies direkt zu verbinden, also echtes 3D), sondern nur komplette Chips an ihren Kontaktstellen aufeinanderge"klebt" werden. Und wegen der üblichen Strukturen (die feinen sind im Substrat begraben, die gröberen liegen an der Oberfläche und könen mit Kontaktstellen versehen werden) geht das wohl nur mit zwei Dies und nicht mit x-beliebig vielen. Daher eben kein echtes 3D, sondern nur so "zweieinhalbes D".
siehe z.B. http://www.dac.com/back_end+topics.aspx?article=75&topic=2

Skysnake
2013-08-26, 08:38:02
Interposer ist ziemlich klar definiert meiner Meinung nach.

Du hast "einfach" nen DIE, auf den du andere DIEs drauf pappst. Der unterste ist der Interposer, der im Prinzip wie ne Backplane funktioniert.

Ansonsten:
Ich bin zufällig über ein nettes PDF von TSMC zu 3D stacked Chips gestolpert.

Ist von 12/11, also doch schon etwas älter und zeigt, mit was man so rechnen könnte diese oder nächste Gen.

http://www.cadence.com/rl/resources/white_papers/3dic_wp.pdf
Mehr muss man eigentlich nicht dazu sagen. Da steht alles drin. Allen die Bildchen anschauen sollte einiges klar machen.

ndrs
2013-08-26, 09:06:25
Interposer ist ziemlich klar definiert meiner Meinung nach.
Ein Silizium Interposer ist klar definiert. Ein Interposer allgemein kann jede so ziemlich jede Art eines eletrischen Trägers sein. Für das kleine Vorwort sollte zumindest in einem erklärenden Post noch Zeit sein. Auch dein verlinktes PDF erwähnt nie das Wort Interposer ohne Silicon davorzuschreiben.

Skysnake
2013-08-26, 09:15:55
Dann ist es ja wenigstens jetzt klar ;)

OBrian
2013-08-26, 10:27:48
Du willst also zwei Dies mit Logik oder Cache nebeneinander auf einem größeren, aber relativ dummen Die aufbringen, das wiederum erst auf dem normalen Package befestigt ist. Die Verbindungen zwischen den Logik/Cache-Dies laufen dann nicht durch das Package, sondern durch den großen Die (den Du immer meinst, wenn Du Interposer sagst), weil das höhere Geschwindigkeiten, weniger Abwärme, mehr realisierbare Bitbreite verspricht. So richtig verstanden?

Gut, sowas wäre in der Tat denkbar und wohl auch machbar. Nur gemacht hat es bisher wohl keiner, müßte man abwarten, wer damit zuerst um die Ecke kommt. Aber ist schon richtig, die Timing-Probleme, die Crossfire immer den Hals brechen (Mikroruckler), wären damit deutlich zu verkleinern. Und auch einfach nur Cache könnte man so vernünftig anbinden, sprich wesentlich besser als RAM.

Ich weiß aber nicht, ob man so ein Die, das für die Montage auf einem anderen Stück Silizium gedacht ist, einfach auch direkt im Package einbauen kann, wohl eher nicht. Das würde dann bedeuten, man hätte diese (Kosten verursachende) Zwischenschicht auch dann, wenn man sie nicht benötigt (da nur ein Die oben drauf ist) und auf Kosten achten muß, weil man hohe Stückzahlen bolzt, sprich bei Mainstreamkarten.

Also wäre die Variante mit mehreren kleinen Logikchips, so denen man dann im Zweierpack eine Performancekarte und im 4er Pack eine High-End-Karte backt, ökonomisch wohl nicht sinnvoll. Die Variante mit Zusatzcache dagegen durchaus.

Aber das wäre so eine Sensation, daß man bestimmt irgendwas davon schon gehört hätte. Glaube ich nicht dran. Wieviel Cache hat Tahiti? 1,5MB oder so glaube ich. Wenn man den für Hawaii verdoppelt, ist doch schon ein deutlicher Sprung in der Performance damit drin, die 3MB kriegt man aber auch noch locker on-die. Das reicht denen bestimmt erstmal.

HOT
2013-08-26, 10:28:31
Für die die es immer noch nicht gerallt haben:

16"nm" TSMC = 20nm TSMC + FinFETs
14XM GloFo = 20 LPM GloFo + FinFETs
14"nm" FDSOI (GloFo/STM) = offenbar 16"nm" ETSOI (IBM) = 20nm + FDSOI, dürfte der Nachfolger von 28SHP/22nm SOI sein.

FinFETs kommen definitiv, ist ne reine Zeitfrage. Beide Foundries werden da 2015 soweit sein, erste Produkte wahrscheinlich aber eher zum Ende hin.

Und noch was:
28SHP GloFo entspricht sehr wahrscheinlich 22"nm" SOI von AMD und IBM, er ist der letzte selbst bezahlte und entwickelte Prozess von AMD mit Hilfe von IBM. Dieser Prozess hat offenbar wenig mit dem üblichen 28nm Bulk-Prozess von GloFo gemein, ist von der Strukturgröße etwas groß für echte 22nm geraten - dürfte an PDSOI liegen. Meiner Ansicht nach benannten GloFo und AMD diesen AMD-Exklusiven Prozess deshalb in 28SHP um. AMD wollte aus dem Rennen mit Intel aussteigen und braucht deshalb auch andere Prozessbezeichnungen. 16nm SOI bzw. 20 SHP wurden sowohl von AMD als auch von IBM gecancelt.

Hübie
2013-08-26, 10:43:23
Die timing-Probleme im mGPU-Modus haben weniger was mit Signallaufzeiten bzw. Datenpaketlaufzeiten zu tun. Ist eher eine Verwaltungsgeschichte. Oft werden die Bilder ja zu schnell hintereinander gerendert und ausgegeben (runt-frames) :freak:

So einen SIP stelle ich mir schon echt komplex vor wenn es um GPUs dieser Größenordnung geht. Ich glaube nicht dass es (momentan) rentabel zu realisieren wäre. Man bräuchte ja für jede Chipserie ein neues Design (Tahiti, Pitcairn, GK104, GK106 etc...).
Leider habe ich nicht die Zeit mir das pdf-Dokument anzusehen :(

Duplex
2013-08-26, 11:13:21
@HOT
Bitte beim Thema bleiben, was IBM oder GF hat ist irrelevant.

Gaestle
2013-08-26, 11:31:38
Ich hab jetzt lediglich Zweifel nach dem 48/32 Zeug dass der Kerl gefragt wurde und weder/noch antwortete. Ich kann mir bei bestem Willen nicht vorstellen fuer was sie genau 64 ROPs brauchen wuerden; ausser die Busbreite stimmt und die ROP Anzahl hat irgend ein Depp erfunden der nicht weiss dass diese vom MC entkoppelt sind.

Was spricht denn dafür, dass er die Frage "nach dem 48/32 Zeug" wirklich als Frage nach den ROPs verstanden hat?

Und was spricht dagegen, dass er es als Frage nach den CUs verstanden hat?

"Der Kerl" schreibt selbst:

My passion is gaming and hardware, and to be perfectly honest with you I’m not a hardware expert as some of you are.

Quelle: http://forums.anandtech.com/showpost.php?p=35407168&postcount=1

Skysnake
2013-08-26, 11:31:57
Die Dinger sind nicht wirklich komplex. Du kannst da mit ganz simplen Wires, maximal nem differenziellen Leitungspaar arbeiten.

Du brauchst keine SerDes und auch sonst nichts von dem Mist, den du hast, wenn du off-Package gehst. Das ist ziemlich simpel eigentlich.

Auch der Interposer ab sich ist ziemlich simpel. Du wirst den ja auch in nem alten Fertigungsprozess bauen, um kosten zu sparen.

WAS das Problem ist, ist das "bohren" der Löcher für die TSVs, das befüllen der TSVs und dann das Anordnen der Chips übereinander. Wenn du das nämlich nicht gescheit machst, dann sitzen die Kontakte halt nicht, und du kannst den Chip wegschmeisen...

Du willst also zwei Dies mit Logik oder Cache nebeneinander auf einem größeren, aber relativ dummen Die aufbringen, das wiederum erst auf dem normalen Package befestigt ist. Die Verbindungen zwischen den Logik/Cache-Dies laufen dann nicht durch das Package, sondern durch den großen Die (den Du immer meinst, wenn Du Interposer sagst), weil das höhere Geschwindigkeiten, weniger Abwärme, mehr realisierbare Bitbreite verspricht. So richtig verstanden?

Absolut richtig. Vor allem kannst du aber eben Busbreiten erreichen, die dir auf dem Package das Genick brechen würden.

Die Bumps bei Chipstacking sind VIEL kleiner als die fürs Package, und die sind wieder VIEL kleiner als die für den Sockel. SemiAccurate hatte da vor 1-2 Jahren mal sehr gutes Bildmaterial, welches die Größenverhältnisse zeigt. Das kam glaube ich direkt von TSMC. Zumindest habe ich genau die Bilder später auch wieder an anderer Stelle gesehen.

Der große Vorteil ist halt auch, dass du den ganzen nicht skalierenden I/O und Analog-Kram auf nen alten Fertigungsprozess packen kannst, und damit Kosten sparst. Ich glaub ich muss nicht sagen, wie viel Platz das 384 Bit Interface usw kostet bei Tahiti und GK110.

Wenn du das alles wegpackst, kannste locker auf 48 CUs aufbohren. Wobei ich eher drei oder 4 Chips erwarten würde. In der Mitte den Grafikchip und drum rum SI+Cache Chips die deutlich kleiner sind. Damit würde auch das Packaging wieder einfacher werden, weil man weniger Lagen brüchte, weil die Signale weiter auseinander sind, und man weniger Routen müsste durchs eigentlich Package usw usw usw.

Die Frage ist halt, ab wann man billiger weg kommt mit Interposer.

Aktuell ist es aber so, das 20nm nicht wirklich vertrauenserweckend ist, und das sicherlich auch schon länger absehbar ist. Zudem ist AMD schon relativ groß gestartet und wusste auch das nVidia wieder mit nem Monsterchip daher kam.

Die S10000 hat man ja auch nicht zum Spaß gemacht. Das Ding ist schon ziemlich heftig. Interposer sind da eigentlich die "sichere" Alternative zum Hoffen auf 20nm. Der Prozess kann einem dann nämlich erstmal ziemlich egal sein. Sollen sich doch die anderen um die Fertigungskapazitäten schlagen. Macht man halt nochmal nen Chip mit x hundert mm² dazu und taktet niedriger.


Gut, sowas wäre in der Tat denkbar und wohl auch machbar. Nur gemacht hat es bisher wohl keiner, müßte man abwarten, wer damit zuerst um die Ecke kommt.

....
Lest ihr eigentlich auch was ich schreibe?:mad:

Ich hab doch schon ein konkretes Produkt benannt, und zwar die Virtex7 von Xilinx... Die kannst du einfach kaufen und verwenden eben einen (Sí)Interposer.


Aber ist schon richtig, die Timing-Probleme, die Crossfire immer den Hals brechen (Mikroruckler), wären damit deutlich zu verkleinern. Und auch einfach nur Cache könnte man so vernünftig anbinden, sprich wesentlich besser als RAM.

Sinnvollerweise würdest du beim Interposer gar nicht mehr Crossfire benutzen. Das ist einfach unnötig. Die Datenpfade kann man so breit auslegen, das es unnötig wird.

Bei nem MCM könnte man Crossfire noch laufen lassen, aber Timinprobleme gibt es da eigentlich nicht. Man könnte allerdings einen Lowlatency Interconnect machen, der andere Renderverfahren als AFR erlaubt. Müsste man sich mal überlegen, ob andere MEthoden dann wieder machbar sind. Da gehört dann aber auch wieder der Softwarestak dazu... Da glaub ich eher nicht dran.

Wobei man ja eh einige Änderungen gemacht hat, die ganz vernünftig klingen für die Zukunft.


Ich weiß aber nicht, ob man so ein Die, das für die Montage auf einem anderen Stück Silizium gedacht ist, einfach auch direkt im Package einbauen kann, wohl eher nicht. Das würde dann bedeuten, man hätte diese (Kosten verursachende) Zwischenschicht auch dann, wenn man sie nicht benötigt (da nur ein Die oben drauf ist) und auf Kosten achten muß, weil man hohe Stückzahlen bolzt, sprich bei Mainstreamkarten.

Also wäre die Variante mit mehreren kleinen Logikchips, so denen man dann im Zweierpack eine Performancekarte und im 4er Pack eine High-End-Karte backt, ökonomisch wohl nicht sinnvoll. Die Variante mit Zusatzcache dagegen durchaus.

Heute hast du 3-4 Chips, die du jeweils in 2-3 Produkte verwenden kannst.

Dann hättest du 2-3 Chips, die du in 6-12 Produkten verwenden könntest, die auch noch kleiner sind im Schnitt als die anderen ;)

Ich hoffe du siehst den Unterschied und das Kosteneinsparpotenzial. Die Sache steht und fällt halt mit den Kosten des Interposers, die ja aber durchaus im Griff zu haben sein sollten, wenn AMD in den großen Stückzahlen da ran geht, und dann eben noch die Auswirkungen auf die Yields dürch das Stacking.


Aber das wäre so eine Sensation, daß man bestimmt irgendwas davon schon gehört hätte. Glaube ich nicht dran. Wieviel Cache hat Tahiti? 1,5MB oder so glaube ich. Wenn man den für Hawaii verdoppelt, ist doch schon ein deutlicher Sprung in der Performance damit drin, die 3MB kriegt man aber auch noch locker on-die. Das reicht denen bestimmt erstmal.
Vor "Sensationen" ist es eher ruhig denn laut ;)

Irgendwann in den nächsten Jahren wird es auch kommen. Da sind AMD und nVidia einfach dazu verdammt. Die Technik entwickelt sich einfach weiter, und wenn Sie nicht die Kunden weiterhin am langen Arm verhungern lassen wollen, dann werden Sie es machen müssen.

Die Frage ist halt nur wann und wer damit anfängt.

Letztes Jahr habe ich mich durch Xilinx Marketingblabla ins Boxhorn jagen lassen. Die sagen Sie könnten es, dabei war das nicht wirklich der Fall. Heute haben Sie es aber nach allem was man so hört im Griff.

Ailuros
2013-08-26, 11:52:16
Was spricht denn dafür, dass er die Frage "nach dem 48/32 Zeug" wirklich als Frage nach den ROPs verstanden hat?

Und was spricht dagegen, dass er es als Frage nach den CUs verstanden hat?

Zu was dienen die "Kammern" beim Schiffbau nach denen der Herr original fragte?

"Der Kerl" schreibt selbst:

Quelle: http://forums.anandtech.com/showpost.php?p=35407168&postcount=1
Wenn man kein echter insider ist kann man jederzeit auch mal falsch liegen; passiert mir staendig. Es passiert mir aber auch dass ich oefters richtig liege und ich seine Situation aehnelt ziemlich meiner.

@HOT
Bitte beim Thema bleiben, was IBM oder GF hat ist irrelevant.

Ich halte es durchaus fuer relevant wenn man den Sinn dahinter versteht.

Gaestle
2013-08-26, 11:56:21
Zu was dienen die "Kammern" beim Schiffbau nach denen der Herr original fragte?

Sie unterteilen das Schiff und sorgen im Falle von Wassereinbruch dafür, dass das Schiff nicht komplett vollläuft.

... Ich kapier die Frage nicht ... :redface:

Botcruscher
2013-08-26, 12:00:32
Gibt es den Anzeichen für eine anderen Hersteller als TSMC?


Die Ideen zu zusammengebastelten Chips gibt es jetzt seit R600. Ich hätte da gerne erst mal andere Beispiele mit kleineren Chips, ob das denn überhaupt funktioniert.

Skysnake
2013-08-26, 12:33:25
Bei "kleinen" Chips macht das keinen Sinn.

Ailuros
2013-08-26, 13:21:29
Sie unterteilen das Schiff und sorgen im Falle von Wassereinbruch dafür, dass das Schiff nicht komplett vollläuft.

... Ich kapier die Frage nicht ... :redface:

Die Dinger liegen normalerweise am unteren Ende eines Schiffs. ROP render output oder in AMD/ATI parlance RBE render back end.

Gaestle
2013-08-26, 15:37:27
Die Dinger liegen normalerweise am unteren Ende eines Schiffs. ROP render output oder in AMD/ATI parlance RBE render back end.

Ahh.
http://3.bp.blogspot.com/-KR9eQ-H66yY/UHwqoyylN8I/AAAAAAAAAxY/86HRSyXyotQ/s200/gluehbirne.jpg

Zählt es als Ausrede, dass ich (als Süßwassermatrose) nicht aus einer Stadt mit malerischem Hafenbecken und Leuchtturm komme? :biggrin:

AnarchX
2013-08-26, 16:41:10
no new leaks? Ok, i can start ...

Hawaii:
Node: 28nm
GPU size around 470-480 mm2
DP Ratio 1:2
TDP higher then 250W for highest SKU
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5204413&viewfull=1#post5204413

Gipsel
2013-08-26, 16:44:44
Wunschkonzert?

Skysnake
2013-08-26, 16:51:45
Alles im Bereich des Möglichen.

Man kann Wahrheit und Fake mit minimalen Hirnschmalz nicht unterscheiden.

Wer sich den Thread hier aufmerksam durchgelesen hat, könnte mit Mathekenntnissen der Grundschule locker 50 Desingbeispiele rausknallen, die alle vernünftig klingen.

So was kannste doch aber total in der Pfeife rauchen. So lange ich keine Bilder vom Chip oder zumindest vom PCB/Karte sehe, können die viel sagen wenn der Tag lang ist...

fondness
2013-08-26, 17:05:59
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5204413&viewfull=1#post5204413

Damit widerspricht er sich eh selbst, vor ein paar Seiten waren es noch 440mm² Die-Size.

Ailuros
2013-08-26, 17:57:42
Damit widerspricht er sich eh selbst, vor ein paar Seiten waren es noch 440mm² Die-Size.

Also ich glaub dem Kerl zwar (NOCH) nicht, aber zu seiner Verteidigung waren die Infos die ich von ihm von einem dritten bekam auf den Punkt genauso. Er ist uebrigens auch der gleiche Herr der behauptet dass 28nm Maxwell "fertig" ist und Anfang 14' erscheinen wird. Hat er jetzt recht ueber Hawaii besteht die Moeglichkeit dass er auch ueber Maxwell recht hat. Sonst grinst er sich eben nur eines ins Faeustchen.

Wunschkonzert?

Ueber genau das Wunschkonzert reden/spekulieren wir schon seit etlichen Seiten :P Das Ganze uebrigens mit einem 512bit bus.

Wenn Du mir sagen kannst dass schaetzungsweise 2 TFLOPs DP bei 225W TDP fuer HPC gut verkaufbar waeren fuer AMD bis irgendwann NV mit Maxwell topdog 20nm in der Zukunft antanzt koennte ich es noch halbwegs verstehen. Sonst grenzt mir der "Plan" an den Irrsinn und es ist auch ein ziemlich langweiliges Maerchen; einfach Cayman/GF110 reloaded *gaehn*

Hübie
2013-08-26, 18:04:22
Drei der vier Aussagen sind wohl gar nicht so ein Wunschkonzert wie man meint. ;)

Ronny145
2013-08-26, 18:15:44
Damit widerspricht er sich eh selbst, vor ein paar Seiten waren es noch 440mm² Die-Size.


Die 440mm² habe ich im Bezug zur darunter liegenden (40CU) Version verstanden, als er das größte Modell nicht als gaming GPU eingestuft hatte. Jetzt spricht er von der Top SKU. 470-480 mm² für die 44 CU Version wäre nicht widersprüchlich.

Gipsel
2013-08-26, 18:27:55
Ueber genau das Wunschkonzert reden/spekulieren wir schon seit etlichen Seiten :P Das Ganze uebrigens mit einem 512bit bus.

Wenn Du mir sagen kannst dass schaetzungsweise 2 TFLOPs DP bei 225W TDP fuer HPC gut verkaufbar waeren fuer AMD bis irgendwann NV mit Maxwell topdog 20nm in der Zukunft antanzt koennte ich es noch halbwegs verstehen.Sowas in der Art habe ich schon weiter vorne im Thread geschrieben, es aber als unwahrscheinlich eingestuft. Und insbesondere mit 1:2 DP wären 2 TFlop/s eher an der unteren Grenze. Damit hätte das Teil in SP nicht viel mehr als jetzt Tahiti (die haben ~1 TFlop/s DP mit 1:4) und die Steigerungen für Consumer müssen woanders herkommen.
Oder die Taktraten entwickeln sich weiter auseinander zwischen der Radeon und der FirePro-Variante. Letztere mit 1:2 auf z.B. sagen wir mal gemächlichen 800-850MHz (bei 44 CUs wären das dann ~2,4 TFlop/s DP bzw. mit 800MHz immer noch 2,25 DP-TFlop/s und damit deutlich vor K20/K20X und auch KnightsCorner), damit man in ~225W bleibt. Die Consumer-Variante in Form der Radeons wird dann per BIOS/Software auf 1:4 eingebremst, was vermutlich etwas Strom sparen dürfte (weniger aktive Transistoren), was dann in höhere Taktraten von ~1GHz bei sagen wir mal 250-260W investiert wird.
Aber bei AMDs geringem Marktanteil im Profimarkt weiß ich nicht, ob sich das wirklich lohnt. Behält man 1:4 bei, kann man auf die gleichen Fläche vermutlich doch ein paar mehr CUs quetschen, wovon man im Consumerbereich vermutlich mehr hätte. Und zumindest zum Gleichziehen mit GK110 in der DP-Leistung reicht es auch.

Skysnake
2013-08-26, 19:08:02
AMD muss einfach "nur" nen Knallerprodukt raushauen, dann kommt der Verkauf von ganz allein im HPC-Bereich.

M4xw0lf
2013-08-26, 19:32:44
Drei der vier Aussagen sind wohl gar nicht so ein Wunschkonzert wie man meint. ;)
Alles bis auf die DP-Rate, hmm?

fondness
2013-08-26, 20:34:46
Die 440mm² habe ich im Bezug zur darunter liegenden (40CU) Version verstanden, als er das größte Modell nicht als gaming GPU eingestuft hatte. Jetzt spricht er von der Top SKU. 470-480 mm² für die 44 CU Version wäre nicht widersprüchlich.

Du glaubst doch nicht wirklich das es zwei unterschiedliche GPUs gibt.

boxleitnerb
2013-08-26, 20:56:46
Mit 250+W TDP sollte man auch eine Titan@1 GHz einholen bzw. knapp schlagen können. Ansonsten find ich es gut, dass AMD endlich auch in die Vollen geht, das kann ich als Enthusiast nur begrüßen.

fondness
2013-08-26, 21:09:44
Mit 250+W TDP sollte man auch eine Titan@1 GHz einholen bzw. knapp schlagen können. Ansonsten find ich es gut, dass AMD endlich auch in die Vollen geht, das kann ich als Enthusiast nur begrüßen.

Also bestätigt ist aktuell mal noch gar nichts. Und bei einer DP Rate von 1:2 und 470mm² wird sich das bei der Spieleleistung kaum für Titan ausgehen.

boxleitnerb
2013-08-26, 21:21:49
Warum? Die Transistoren für DP fressen Platz, das war es aber auch schon. Bei einer so hohen TDP gehe ich davon aus, dass man auch beim Takt Gas gibt.

Tahiti is still a part of the overall plan, in one form or another (eg. Tahiti XTL is a new possible SKU). This isn't an entire, 100% new GCN2.0 lineup, this is Hawaii (+ a few kickers of GCN1.0 SKU's) and then the rest of GCN2.0 (Tonga, Iceland etc.) will roll in slowly in the future. 7950/7970 still have their own distinct spot in the lineup and I don't know of anything intended to replace them. Their value is awesome, some models on sale are unbeatable.
http://forums.anandtech.com/showpost.php?p=35419653&postcount=155

fondness
2013-08-26, 21:28:36
Warum? Die Transistoren für DP fressen Platz, das war es aber auch schon. Bei einer so hohen TDP gehe ich davon aus, dass man auch beim Takt Gas gibt.


Platz und TDP. Und bei weniger mm², einer deutlich höheren DP-Rate und mehr GPGPU-Features als GK110 müsste AMD schon eine verdammt effizienten Chip designen um GK110 auch bei der Spieleleistung zu schlagen.

boxleitnerb
2013-08-26, 21:31:33
Eben nicht TDP in Gaming-Workloads. Wir sprechen hier über Radeon nicht FirePro. DP ist wurscht dafür, das ist dasselbe bei GK110. Der hat z.B. auch eine deutlich höhere DP-Rate als GK104 und die Leistungsaufnahme explodiert nicht in Spielen - eben weil DP nicht genutzt wird dort. Wenn die entsprechende Logik schlafengelegt wird, braucht sie (fast) keinen Strom, eben nur Platz.

fondness
2013-08-26, 21:33:08
Eben nicht TDP in Gaming-Workloads. Wir sprechen hier über Radeon nicht FirePro. DP ist wurscht dafür, das ist dasselbe bei GK110. Der hat z.B. auch eine deutlich höhere DP-Rate als GK104 und die Leistungsaufnahme explodiert nicht in Spielen - eben weil DP nicht genutzt wird dort. Wenn die entsprechende Logik schlafengelegt wird, braucht sie (fast) keinen Strom, eben nur Platz.

NV hat dezidierte DP-Einheiten, die kann man power-gaten. AMD nicht. Im übrigen taktet GK110 wesentlich niedriger als GK104.

Pick
2013-08-26, 21:36:24
mm2 prozent

RV670 (192mm2) >>> RV770 (256mm2) === 33%
Tahiti (365mm2) >>> Hawaii (470/480mm2) === ~33%

Skysnake
2013-08-26, 21:37:18
Eben nicht TDP in Gaming-Workloads. Wir sprechen hier über Radeon nicht FirePro. DP ist wurscht dafür, das ist dasselbe bei GK110. Der hat z.B. auch eine deutlich höhere DP-Rate als GK104 und die Leistungsaufnahme explodiert nicht in Spielen - eben weil DP nicht genutzt wird dort. Wenn die entsprechende Logik schlafengelegt wird, braucht sie (fast) keinen Strom, eben nur Platz.
Der Chip wird dadurch aber ineffizienter, weil die Signallaufwege länger werden...

boxleitnerb
2013-08-26, 21:38:49
NV hat dezidierte DP-Einheiten, die kann man power-gaten. AMD nicht. Im übrigen taktet GK110 wesentlich niedriger als GK104.

Und trotz des niedrigeren Takts ist die DP-Rate deutlichst höher.
Und wer sagt, dass man die Logik, die die SPs bei AMD zusammenschaltet, nicht auch powergaten kann?

Jetzt sagt man schon mal was Positives über die Roten, und dann ist es auch nicht recht :tongue:

Skysnake
2013-08-26, 22:01:49
weil die "Farbe" mir sowas von scheis egal ist?

Aber du kannst mir sicher sagen, was powergaten von Transistoren mit der mittleren Wirelänge zu tun hat...

Nur so als tip, versuch das Problem einfach mal auf nem Blatt papier zu lösen. Dann wirst du schnell merken, dass das einfach ein geometrisches Problem ist.

fondness
2013-08-26, 22:18:21
Der Xbox SoC kommt in 28nm HPM. Ist damit wohl auch für Hawaii eine Option. Das könnte durchaus Vorteile beim Stromverbrauch bringen, allerdings auch die Taktraten einschränken.

Knuddelbearli
2013-08-26, 22:34:10
Für die die es immer noch nicht gerallt haben:

16"nm" TSMC = 20nm TSMC + FinFETs
14XM GloFo = 20 LPM GloFo + FinFETs
14"nm" FDSOI (GloFo/STM) = offenbar 16"nm" ETSOI (IBM) = 20nm + FDSOI, dürfte der Nachfolger von 28SHP/22nm SOI sein.

FinFETs kommen definitiv, ist ne reine Zeitfrage. Beide Foundries werden da 2015 soweit sein, erste Produkte wahrscheinlich aber eher zum Ende hin.



wenn du schon glofo und tsmc auflistet wie wär es dann auch mit Intel? dort hat die nm Angabe ja auch schon lange ( und nicht nur in Zukunft wie bei tsmc und glofo ) nichts mehr mit der wirklichen Strukturgröße zu tun. Nur merkt man es da nicht so da sie nicht Fremdfertigen

Ronny145
2013-08-26, 22:39:39
wenn du schon glofo und tsmc auflistet wie wär es dann auch mit Intel? dort hat die nm Angabe ja auch schon lange ( und nicht nur in Zukunft wie bei tsmc und glofo ) nichts mehr mit der wirklichen Strukturgröße zu tun. Nur merkt man es da nicht so da sie nicht Fremdfertigen


Ich glaube du verstehst seinen Beitrag nicht. Vergleichbar wäre es wenn Intel Finfet auf 32nm gebracht und das ganze 22nm genannt hätte. Sozusagen eine neue Fertigungstechnologie ohne einen shrink.

Knuddelbearli
2013-08-26, 22:41:35
Und? Wie getrickst wird ist doch egal, tricksen tun aber alle! Also soll man auch auf alle mit dem Finger zeigen. Und nicht nur die die erst jetzt mit dem tricksen anfangen

Hübie
2013-08-26, 22:50:11
Alles bis auf die DP-Rate, hmm?

:whistle: 478 mm² habe ich vor ein paar Wochen erfahren... Kann natürlich nur ein Zufall sein.

mboeller
2013-08-27, 07:40:39
Oder die Taktraten entwickeln sich weiter auseinander zwischen der Radeon und der FirePro-Variante. Letztere mit 1:2 auf z.B. sagen wir mal gemächlichen 800-850MHz (bei 44 CUs wären das dann ~2,4 TFlop/s DP bzw. mit 800MHz immer noch 2,25 DP-TFlop/s und damit deutlich vor K20/K20X und auch KnightsCorner), damit man in ~225W bleibt.

2,25TFlops/225W = ~10GFlops DP pro Watt......und das in 28nm?

Skysnake
2013-08-27, 08:23:23
Ja, damit wäre man deutlich vor nVidia.

Die Frage ist halt nur, wieviel davon bekommt man auch wirklich auf die Straße....

Und genau das kann man eben erst sagen, wenn man das fertige Produkt kurz in den Händen hält, bevor es im Rechner verschwindet und getestet wird ;)

10 DP-GFlops/W klingen für mich aber zu gut. Wobei es halt möglich ist, man muss eben nur die Eier in der Hose haben, und neue Technologien einsetzen... Aber ob das gemacht wird oder nicht kann keiner sagen, es sei denn er hat Infos aus erster Hand. Alles andere ist reines gerate. Da kannste genau so gut ne Münze werfen.

boxleitnerb
2013-08-27, 08:58:22
Takt...wie AnarchX angesprochen hat, wird FirePro bei 1:2 DP wohl niedriger takten als die Radeons. Alles andere ist Träumerei.

Skysnake
2013-08-27, 09:08:55
Aber so viel holst du durch einen niedrigeren Takt auch nicht raus. Die Transistoren brauchen ja auch noch eine gewisse Schwellspannung, damit Sie zuverlässig schalten können.

Ailuros
2013-08-27, 10:24:44
Sowas in der Art habe ich schon weiter vorne im Thread geschrieben, es aber als unwahrscheinlich eingestuft. Und insbesondere mit 1:2 DP wären 2 TFlop/s eher an der unteren Grenze. Damit hätte das Teil in SP nicht viel mehr als jetzt Tahiti (die haben ~1 TFlop/s DP mit 1:4) und die Steigerungen für Consumer müssen woanders herkommen.
Oder die Taktraten entwickeln sich weiter auseinander zwischen der Radeon und der FirePro-Variante. Letztere mit 1:2 auf z.B. sagen wir mal gemächlichen 800-850MHz (bei 44 CUs wären das dann ~2,4 TFlop/s DP bzw. mit 800MHz immer noch 2,25 DP-TFlop/s und damit deutlich vor K20/K20X und auch KnightsCorner), damit man in ~225W bleibt. Die Consumer-Variante in Form der Radeons wird dann per BIOS/Software auf 1:4 eingebremst, was vermutlich etwas Strom sparen dürfte (weniger aktive Transistoren), was dann in höhere Taktraten von ~1GHz bei sagen wir mal 250-260W investiert wird.
Aber bei AMDs geringem Marktanteil im Profimarkt weiß ich nicht, ob sich das wirklich lohnt. Behält man 1:4 bei, kann man auf die gleichen Fläche vermutlich doch ein paar mehr CUs quetschen, wovon man im Consumerbereich vermutlich mehr hätte. Und zumindest zum Gleichziehen mit GK110 in der DP-Leistung reicht es auch.

Ich hab 2 TFLOPs erreichbar im Hinterkopf ;) Ich bleib aber auch selber vorruebergehend im too good to be true mode.

boxleitnerb
2013-08-27, 10:28:50
Aber so viel holst du durch einen niedrigeren Takt auch nicht raus. Die Transistoren brauchen ja auch noch eine gewisse Schwellspannung, damit Sie zuverlässig schalten können.

Doch, tust du. K20(X) taktet deutlich niedriger als Titan, und das nicht zum Spass.

Ailuros
2013-08-27, 10:31:29
Doch, tust du. K20(X) taktet deutlich niedriger als Titan, und das nicht zum Spass.

Und ohne turbo modus bitteschoen.

boxleitnerb
2013-08-27, 10:37:38
705 MHz ist immer noch deutlich niedriger wie 837 MHz ;)
Bei 837 MHz ist GK110 in Spielen auch sehr weit von den 250W TDP entfernt, eher in Richtung 200W. Ich weiß jetzt nicht, ob K20 die 225W bei DP-Workloads voll ausnutzt, kannst du dazu was sagen?

Oder nimm K20X, wenn du dich an der unterschiedlichen Kernzahl störst, immer noch ein deutlicher Unterschied, zumal hier die TDP auch 10W höher ist - nicht ohne Grund schätze ich.

Ailuros
2013-08-27, 10:43:32
Nochmal Du kannst HPC keinen turbo modus zumuten; schau Dir auch die Quadro6000 diesbezueglich an.

boxleitnerb
2013-08-27, 10:45:40
Hä? Du hast doch vom Turbo angefangen. Warum, weiß ich nicht. Ich meine, dass du bei ähnlicher TDP einen HPC-Chip nicht so hoch takten kannst wie einen Gaming-Chip, und dass dieser Unterschied deutlich ist (bis zu 20%). Ich habe bei GK110 extra den Turbo NICHT berücksichtigt, hast du das überlesen?

Skysnake
2013-08-27, 10:46:51
2 DP-TFlop/s, oder auch nur etwas in die Richtung bedeuten eins von beidem:

1. 1:2 DP:SP
2. MCM/Interposer

Ne dritte Möglichkeit gibt es meiner Meinung nach nicht, da man mit 1:4 einfach viel zu groß werden würde, um das noch in einen Chip zu packen, oder eben viel zu hohe Taktraten brüchte, was dann einfach den Verbrauch explodieren lassen würde. Wir werden sicherlich nicht mehr als 1,2 GHz sehen, wobei ich das schon für viel zu viel halte. Das sind Brechstangen-Taktraten....

2 DP-TFlops wären halt schon pornös, vor allem bei 225W! Die S10000 hat ja zwei Tahitis, und kommt nur auf 1,48 DP-TFLOPs und das bei einer Max-Boardpower von 375W! :ugly: Ok, das sind zu viel, mehr als 300 zieht das Ding glaub nicht, wenn ich es richtig im Kopf habe, aber trotzdem, das muss man sich mal geben, was das für ein Sprung wäre, und da vergleicht man ja einen mit zwei Chips die niedrig takten! Ok, in der maximalen SI-Bandbreite wird die S10000 sehr sehr sicher noch immer stärker sein, und daher es leichter haben ihre Leistung auch auf die Straße zu bringen, aber das hilft halt auch nur je nach Problem, und der Effizienzvorteil wäre dann am Ende wohl dennoch da, wenn man einfach ne zweite dazu steckt, um das aus zu gleichen.

Vor allem, wie geht dann erst ne theoretische S20000 ab :eek: Das wäre schon pornös...

Ailuros, dein rumgedruckste ist nicht nett auf den letzten Seiten :tongue:

Wenn du was hast, dann leg die Eier auf den Tisch. Die Optionen haben wir ja alle durch ;) so kommen wir auf jeden Fall nicht weiter, also schmeis uns mal noch nen Krümerl hin :cool:

Ailuros
2013-08-27, 10:50:52
Ailuros, dein rumgedruckste ist nicht nett auf den letzten Seiten :tongue:

Wenn du was hast, dann leg die Eier auf den Tisch. Die Optionen haben wir ja alle durch ;) so kommen wir auf jeden Fall nicht weiter, also schmeis uns mal noch nen Krümerl hin :cool:

Das meiste wurde mir hier privat via PM von jemand zugestossen; jetzt wo das meisste oeffentlich ist plaudere ich natuerlich darueber gerne; sonst ehre ich jegliche Vertraulichkeit egal von wo so stark wie moeglich ;)

Skysnake
2013-08-27, 10:52:26
Doch, tust du. K20(X) taktet deutlich niedriger als Titan, und das nicht zum Spass.
Das macht den Kohl aber nicht fett...

Da holste nen paar Prozent raus, und insbesondere wenn du die Rechenleistung stärker senkst als die SI-Bandbreite, steigt deine Byte/Flops Rate an, was gut für HPC ist, da GPUs, wie CPUs btw auch, immer schlechter werden bei der Byte/Flops Rate, das ist durchaus ein großes Problem, da es die Auslastung schwieriger macht, und Probleme die sehr irreguläre Zugriffsmuster bzw besser gesagt mit großen Workingsets. Da werden nämlich deine Caches nutzlos, und dann geht die Leistung schlagartig in den Keller....

Schau dir mal an, wieviel höher die Effizienz liegt bei den Tesla. Das sind nur einige Prozent, aber kein Wunder.

boxleitnerb
2013-08-27, 10:56:48
13% weniger Takt (K20X vs. Titan Basis-Takt) bei real wahrscheinlich höherem Verbrauch bei Volllast (235W TDP wie gesagt nicht zum Spass statt 225W bei K20 vs. Realverbrauch von Titan bei 837 MHz um die 200W) sind also nicht fett? Na wenn du das so siehst...

Ailuros
2013-08-27, 11:03:25
Wenn dann wuerde ich uebrigens persoenlich eher mit einer QuadroK6000 vergleichen, weil mir das Ding auch nach um einiges reiferen Herstellung riecht.

boxleitnerb
2013-08-27, 11:10:35
Das stimmt - die Frage ist allerdings, wie stark bei welcher SKU (K6000, K20(X), Desktop-GK110) selektiert wird. Ohne die Antwort darauf zu kennen, ist eine vollständige Betrachtung nicht möglich.
Übrigens - Quadro ist doch für den Workstation-Markt, und da sind DP-Berechnungen doch eher irrelevant. Sicher, dass 1:3 DP bei der K6000 nicht nur aktiv ist, sondern auch mit den vollen 900 MHz läuft?

Skysnake
2013-08-27, 11:17:22
Wirf mal nicht K20 und K20x durcheinander, und bedenke, dass Titan im DP-Modus auch fixiert ist.

K20<->K20x ist auch nen böder Vergleich. K20x hat mehr Einheiten, taktet ~30MHz höher, hat ein breiteres SI und auch noch mehr Speicher...

Titan hat auch das volle SI, und auch mehr Speicher... Das frisst schonmal ein paar Watt. Mal ganz davon abgesehen, dass der Speicher auch höher taktet, und Gerade die höhere Speicherbandbreite sollte auch wieder das eine oder andere Watt bringen.

Zudem musst du bedenken, dass die GTX Titan mit 250W TDP angegeben ist...

Und ganz abgesehen davon musst du bedenken, dass die Angaben bzgl LEistungsaufnahme in der Regel konservativer sind bei den Profikarten. Das Ding muss alles uz 100% einhalten, unter allen Bedingungen, wobei die eben auch nicht immer die gleichen sind. Für Teslas werden ganz klare und strengere Umgebungsvariablen angegeben als für die Consumerkarten, niedrigere Temps bedeuten aber auch wieder leicht weniger Verbrauch....

Consumer und HPC-Produkte hier ganz platt 1:1 zu vergleichen ist nicht wirklich gerechtfertigt. Das muss man im Detail anschauen. Dafür gibt es einfach zu viele Variablen.

Auf jeden Fall darf man K20 nicht mit Titan vergleichen, sondern wenn dann mindestens K20x, und da muss man dann auch rein die Werte aus dem realen Einsatz vergleichen, und keine theoretischen Werte, weil die jeweils unterschiedliche Bemessungsgrundlagen haben.

EDIT:
Bitte was? DP ist auch für den Workstationsmarkt wichtig. Also zumindest bin ich mir ziemlich sicher, dass bei dem ganzen Raytracing-Zeug usw im professionellen Umfeld auf DP gesetzt wird.

Ailuros
2013-08-27, 11:27:44
Etwas offizielles kann ich ueber die K6000 nicht finden fuer DP FLOPs; ich glaube aber dass das Ding 1.4 TFLOPs schafft lass mich aber gerne eines besseren belehren; wenn's stimmt ist die GFLOP/W Rate schon etwas hoeher als bei Teslas.

boxleitnerb
2013-08-27, 11:31:57
Skysnake, du bestätigst doch nur was ich die ganze Zeit sage!
Titan@DP geht auf 725 MHz runter bei gleicher TDP!
Ich bleibe dabei, die FirePro Hawaii wird deutlich niedriger Takten (15-20%) als die Desktop-Hawaii. Eben weil die Hardware noch intensiver ausgelastet wird bei DP und wie du sagst weil die TDP dort konservativer gesetzt wird. Mir scheint, du willst dir die Hawaii FirePro schönreden und denkst, die taktet genauso hoch wie ihr Desktop-Pendant. Na wenn das mal nicht nach hinten losgeht.

AffenJack
2013-08-27, 11:32:43
Aber so viel holst du durch einen niedrigeren Takt auch nicht raus. Die Transistoren brauchen ja auch noch eine gewisse Schwellspannung, damit Sie zuverlässig schalten können.

Aber durch niedrigere Spannung, die Notebookchips sind auch nix anderes als die gleichen Chips mit niedrigen Taktraten. Takt ist einfach einer der maßgeblichen Faktoren beim Verbrauch, dadurch, dass man die Spannung senken kann.

Skysnake
2013-08-27, 11:33:13
Um da wirklich was sagen zu können, müsste man auf beiden Karten die gleiche Applikation laufen lassen. Hier über Produktgruppen bei den kleinen Unterschieden vergleichen zu wollen ist einfach unseriös. Dafür unterscheiden sich einfach die Bemessungsgrundlagen usw usw zu stark. Das ergibt Fehler/Unsicherheiten die im Bereich des zu betrachtenden Unterschieds liegen, wenn nicht gar drüber.

Hier wird aber sicherlich keiner ne K6000 und ne K20x haben, um das wirklich testen zu können. Wir reden hier ja nur über ein paar Prozent.

Skysnake
2013-08-27, 11:39:28
AffenJack:
Das Problem ist aber, dass du die Spannung nur bis zu einem gewissen Punkt senken kannst mit dem Takt. Danach kannst du den Takt so weit senken, wie du willst, die Spannung kannst du nicht weiter senken. Zudem willst du ja auch eine gewisse absolute Performance erreichen. Keiner würde ein Produkt kaufen, was merklich langsamer ist als der Vorgänger.

Und da du eben durch die DIE-Size limitiert bist, kannst du den Takt gar nicht so weit senken. Die Effizienz steigern durch senken der Taktraten geht so lala, die Effizienz verkacken durch die Brechstangenmethode indem man die Taktraten hoch jagt geht dagegen sehr leicht. Es gibt halt nen Sweetspot, der recht schmal ist.

Skysnake, du bestätigst doch nur was ich die ganze Zeit sage!
Titan@DP geht auf 725 MHz runter bei gleicher TDP!
Ich bleibe dabei, die FirePro Hawaii wird deutlich niedriger Takten (15-20%) als die Desktop-Hawaii. Eben weil die Hardware noch intensiver ausgelastet wird bei DP und wie du sagst weil die TDP dort konservativer gesetzt wird. Mir scheint, du willst dir die Hawaii FirePro schönreden und denkst, die taktet genauso hoch wie ihr Desktop-Pendant. Na wenn das mal nicht nach hinten losgeht.
Ok, ich glaub wir reden aneinander vorbei gerade...

Was wolltest du jetzt nochmal GENAU mit deiner Aussage ausdrücken?

Dass die FirePros niedriger takten werden ist ja absolut nichts, was irgendjemand in Frage stellt oder? Ich versteh jetzt aber wirklich nicht, was du gerade sagen willst.

StefanV
2013-08-27, 11:41:23
705 MHz ist immer noch deutlich niedriger wie 837 MHz ;)
Bei 837 MHz ist GK110 in Spielen auch sehr weit von den 250W TDP entfernt, eher in Richtung 200W. Ich weiß jetzt nicht, ob K20 die 225W bei DP-Workloads voll ausnutzt, kannst du dazu was sagen?
Naja, was du hier sagst, würd ich hier nicht unterschreiben wollen.

Schau dir mal dieses hier an. (http://www.hardocp.com/article/2013/04/22/nvidia_geforce_gtx_titan_3way_sli_review/9#.UhxyitN2HJo)

Dort liegt ein Tripple SLI System bei 738W - bei der GTX 680. Die 7970 GHz Edition bei 750W. Und die 3 Titanen bei 920W.
ÜBern Daumen gepeilt braucht eine Titan 60W mehr als 'ne GTX 680 und 55W mehr als 'ne 7970 GHz Edition.

Wenn man jetzt annimmt, dass Idle GTX Titan = System Vollast ohne GPU ist, macht das fast 270W Last pro Titan, 208W pro GTX680 und 212W pro 7970 GHz Edition.
Das System ist 'nen i7-3770K @ 4,8GHz, 8GiB RAM; eine HDD.

Also die Titan scheint echt kein Kostverächter zu sein und alles andere als Sparsam...

Skysnake
2013-08-27, 11:48:22
Also die Idle Werte sehen komisch aus. Da scheint zumindest ZeroCore nicht funktioniert zu haben :ugly:

StefanV
2013-08-27, 11:49:50
Takt ist einfach einer der maßgeblichen Faktoren beim Verbrauch, dadurch, dass man die Spannung senken kann.
Nee, andersrum wird ein Schuh draus!

Nicht der Takt ist das entscheidende, die Spannung ist es!
Schau dir mal dieses Seitchen an (http://www.xbitlabs.com/articles/cpu/display/power-consumption-overclocking_11.html#sect0), da siehst du hervorragend, dass die Leistungsaufnahme mit dem Takt nur sehr langsam steigt. Erst als die Spannung angefasst wird, steigt die Kurve sehr stark an.

Das ist auch das, was einige 7970GHz Edition Besitzer gerne machen würden - die Spannung ABSENKEN; da das um Welten mehr bringt als den Takt zu senken. Da kann man fast sagen, dass 25% weniger Takt auch 25% weniger Leistungsaufnahme bedeuten. Aber die Spannung schlägt (unter optimalen Bedingungen) quadratisch durch. Doppelte Spannung = doppelter Strom = vierfache Leistungsaufnahme.

Nakai
2013-08-27, 11:52:37
Also bei DP:SP 1:2 und 40CUs+ wird das Ding sicherlich 450mm²+, eher 480mm².
Ich kann mir ernsthaft vorstellen, dass AMD auf die NVidia-Schiene geht.
Hawaii hat 44CUs, aber wir sehen erst 40CUs. Die Taktraten werden auch etwas konservativer gehalten, jedenfalls bei der HPC-Version.

2560SPs*2Flops*1,0Ghz = 5120GFlops (SP) -> 1280GFlops(DP)
2560SPs*2FLops*0,80 = 4096(SP) -> 2048GFlops(DP)

Sieht doch gut aus.

boxleitnerb
2013-08-27, 11:55:22
Ok, ich glaub wir reden aneinander vorbei gerade...

Was wolltest du jetzt nochmal GENAU mit deiner Aussage ausdrücken?

Dass die FirePros niedriger takten werden ist ja absolut nichts, was irgendjemand in Frage stellt oder? Ich versteh jetzt aber wirklich nicht, was du gerade sagen willst.

Damit will ich ausdrücken, dass ich diese voraussichtliche Taktsenkung nicht für gering halte und man sich daher von 2-2.25 TFLOP/s DP eher verabschieden sollte.

Naja, was du hier sagst, würd ich hier nicht unterschreiben wollen.

Schau dir mal dieses hier an. (http://www.hardocp.com/article/2013/04/22/nvidia_geforce_gtx_titan_3way_sli_review/9#.UhxyitN2HJo)

Dort liegt ein Tripple SLI System bei 738W - bei der GTX 680. Die 7970 GHz Edition bei 750W. Und die 3 Titanen bei 920W.
ÜBern Daumen gepeilt braucht eine Titan 60W mehr als 'ne GTX 680 und 55W mehr als 'ne 7970 GHz Edition.

Wenn man jetzt annimmt, dass Idle GTX Titan = System Vollast ohne GPU ist, macht das fast 270W Last pro Titan, 208W pro GTX680 und 212W pro 7970 GHz Edition.
Das System ist 'nen i7-3770K @ 4,8GHz, 8GiB RAM; eine HDD.

Also die Titan scheint echt kein Kostverächter zu sein und alles andere als Sparsam...

Du hast meinen Beitrag nicht richtig gelesen, denn ich schrieb von Basistakt. Schau dir die Messungen von HT4U und PCGH und hardware.fr hierzu an, die messen in diesen Taktregionen, und auch nur die Karte selbst. Alles andere ist grober Unsinn, dazu noch SLI...in deinem Review takten Titans mit sicher an die 1 GHz wie in den meisten englischen Reviews. Weiterhin misst HardOCP soweit ich mich erinnere Peak und nicht Durchschnittsverbrauch. Da die die Referenz 7970 GE nehmen und wir auch hierfür dedizierte Messwerte haben, sind die Zahlen auch alles andere als realistisch im Schnitt. Siehe die Daten hier im 3DC zum Verbrauch, Leo hat sich da mit einer Übersicht viel Arbeit gemacht. Und zuletzt sind 270W auch gar nicht möglich, Power Limit bei Titan ist ohne Eingriff 250W.

Ailuros
2013-08-27, 11:57:32
Also bei DP:SP 1:2 und 40CUs+ wird das Ding sicherlich 450mm²+, eher 480mm².
Ich kann mir ernsthaft vorstellen, dass AMD auf die NVidia-Schiene geht.
Hawaii hat 44CUs, aber wir sehen erst 40CUs. Die Taktraten werden auch etwas konservativer gehalten, jedenfalls bei der HPC-Version.

2560SPs*2Flops*1,0Ghz = 5120GFlops (SP) -> 1280GFlops(DP)
2560SPs*2FLops*0,80 = 4096(SP) -> 2048GFlops(DP)

Sieht doch gut aus.

Bis auf den Stromverbrauch schon; jetzt mach nochmal die gleiche spekulative Uebung aber diesmal auf perf/W Basis. Fuer DP/HPC sieht es ausgezeichnet aus; fuer alles andere wohl eben nicht unbedingt.

Skysnake
2013-08-27, 12:13:03
/sign

und den Gamer-Markt darf AMD nicht aus den Augen verlieren. Die müssen da einfach das Niveau halten, dass Sie mit der 7970 erreicht haben, ansonsten sind die ganzen Aktionen fürs Image fürn Arsch.

2phil4u
2013-08-27, 17:23:46
Habe jetzt mal 2 Seiten durchgelesen, aber wenns zu fachlich wird, komme ich nicht mehr mit.
Auf welchem Chip beruht denn Hawaii und wo liegen die Unterschiede zur 9790 GHZ ?

Kann das jemand mal auflisten ?

Beruht der Hawaichip auf der neuen Architektur, Bonaire war es glaube ich ind gross ?

Interposer wäre natürlich killer, man könnte quasi 8 kleine niedrig getaktete optimal auf Perf/Watt getunte Chips auf einer Karte benutzen.

Ist natürlich auch wieder eine Kostenfrage, aber statt irgendwelcher übertriebener Dualchips für mehr als 1000 Euro wäre sowas natürlich super.

Werden grosse Chips eigentlich teurer pro mm ?

Akkarin
2013-08-27, 17:50:01
Hawaii ist GCN 2.0 und wird vermutlich die 97xx Serie werden. Bonaire ist vermutlich GCN 1.1, genau weiß dass niemand, größere changes scheint es nicht gegeben zu haben.

Bei größeren chips sinken auch die yields, was die großen chips pro mm^2 teurer macht als kleinere.

Nakai
2013-08-27, 19:58:25
Bis auf den Stromverbrauch schon; jetzt mach nochmal die gleiche spekulative Uebung aber diesmal auf perf/W Basis. Fuer DP/HPC sieht es ausgezeichnet aus; fuer alles andere wohl eben nicht unbedingt.

Mhh, also, dass Hawaii weniger Strom verbraucht, halte ich für unwahrscheinlich, eher mehr. Man hängt miz Tahiti schon ziemlich am Limit. Womöglich wird man es knapp schaffen, ähnliche TDP-Werte zu erreichen.
Ergo irgendwas zwischen 225-250W.

Man wird wohl auf 7970GHzTakt zurückfallen und die besseren Dies für den HPC-Markt vorbehalten, weil bessere Margen. Außerdem könnte man wirklich 44CUs haben, aber mal so 4 Stück abschalten(für jedes Frontend). Sollte die Selektierung vereinfachen und bessere Yields bringen. Würde auch für eine spätere XTX-Gaming-SKU reichen, wenn die Produktion richtig "rund" läuft.

Kurz:
Hawaii-Gaming-SKU: ~925Mhz, 1:4 DP, 40 CUs, ~250W TDP -> 4736TFlops SP :1184 TFlops DP (Tahiti+30%)/(Tahiti+10%) PerfperWatt
Hawaii-HPC-SKU: ~750Mhz, 1:2 DP, 40 CUs, ~250W TDP -> 3840TFlops SP : 1920 TFlops DP ~8,00 DP/Watt

10 DP/Watt sehe ich jedenfalls noch nicht. Außerdem wird die HPC-Variante eher weniger Strom schlucken.

V2.0
2013-08-27, 20:08:38
10% Yield Reserve ist bei einem bekannten Prozess wohl Verschwendung.

HarryHirsch
2013-08-27, 23:22:41
Ich finde es furchtbar wie der neue Chip hier gepusht wird. Am ende kommt eh nur ein 6970 dabei raus.
Also nix was man braucht oder durch OC nicht eh schon hat.

Duplex
2013-08-27, 23:34:48
Ich finde es furchtbar wie der neue Chip hier gepusht wird. Am ende kommt eh nur ein 6970 dabei raus.
Also nix was man braucht oder durch OC nicht eh schon hat.
Man spekuliert lediglich von einem 2560 oder 2816 Shader Chip, sind doch nur max. 37,5% mehr Einheiten als Tahiti XT, bei 33% mehr Fläche ist das kein Problem.
GK110 hat 75% mehr Einheiten und ist 90% größer als GK104, das was AMD vor hat ist im vergleich zu Nvidia nichts besonderes.

HarryHirsch
2013-08-27, 23:43:35
Man spekuliert lediglich von einem 2560 oder 2816 Shader Chip, sind doch nur max. 37,5% mehr Einheiten als Tahiti XT, bei 33% mehr Fläche ist das kein Problem.
GK110 hat 75% mehr Einheiten und ist 90% größer als GK104, das was AMD vor hat ist im vergleich zu Nvidia nichts besonderes.

Was hat ATI denn vor? Einen GK110 in Sachen Spieleleistung zu verhauen ist kein Problem... Diese HPC-Sachen nerven wie sau. Kommen eventuell 2 Chips?

Blediator16
2013-08-27, 23:57:57
Solche Spielchen können sie sich nicht leisten. Zumindest nicht, wenn man im HPC Markt kaum was zu melden hat. Daher ist Tahiti auch so wie er wurde.

horn 12
2013-08-28, 00:04:47
Dennoch sollte dies ausreichen um wohl mit einer Titan Karte welche mit etwa 1 Ghz taktet gleichzuziehen.
Und dies zu einem wohl weitaus besserem Preis,- was NV wohl gar nicht schmecken dürfte.

Skysnake
2013-08-28, 05:49:32
Was hat ATI denn vor? Einen GK110 in Sachen Spieleleistung zu verhauen ist kein Problem... Diese HPC-Sachen nerven wie sau. Kommen eventuell 2 Chips?
Solche Ansichten interessieren die Firmen aber nicht, weil das eben nur Einzelmeinungen sind :tongue:

ShadowXX
2013-08-28, 11:03:15
Dennoch sollte dies ausreichen um wohl mit einer Titan Karte welche mit etwa 1 Ghz taktet gleichzuziehen.
Und dies zu einem wohl weitaus besserem Preis,- was NV wohl gar nicht schmecken dürfte.
Erwarte nicht zu viel, du wirst sonst enttäuscht.
Hawaii wird nicht großartig schneller als eine GTX 780 werden, wenn überhaupt.

Ailuros
2013-08-28, 11:18:53
Erwarte nicht zu viel, du wirst sonst enttäuscht.
Hawaii wird nicht großartig schneller als eine GTX 780 werden, wenn überhaupt.


Er hat sich wohl schon daran gewoehnt enttaeuscht zu werden. :freak:

Mancko
2013-08-28, 11:28:12
Erwarte nicht zu viel, du wirst sonst enttäuscht.
Hawaii wird nicht großartig schneller als eine GTX 780 werden, wenn überhaupt.

Naja wenn nicht wissen wir doch eh was passieren wird. Diejenigen die vorher fest davon überzeugt waren das der satt schnell wird werden dann einfach sagen -> Passt doch so wie er geworden ist. Da wird man dann tagelang wieder auf P/L herumreiten so wie man es bei AMD gewohnt ist. P/L ist halt ein sehr armseliges Argument. Eine Firma die ständig darum bemüht ist das beste P/L Verhältnis zu bieten ist in meinen Augen eine schwache und kränkelnde Firma. So wird das halt nichts mit dem Aufbau einer vernünftigen Marke. Wie es besser geht zeigt ja Apple eindrucksvoll, auch wenn ich selber einen Bogen um Apple Produkte mache finde ich haben die das perfekt umgesetzt.

Mir ist natürlich völlig klar, dass AMD es gegen Intel extrem schwer hat. Hier gibt es eigentlich kaum Optionen für AMD zu glänzen. Gegen Nvidia ist das aber etwas anderes. Die beiden Unternehmen haben annähernd die gleichen Voraussetzungen und sind vergleichbar. Trotzdem war Nvidia hier über die letzten Jahre konstant besser unterwegs mit einzelnen kurzen Schwächephasen.

Ailuros
2013-08-28, 12:00:22
Es geht mir persoenlich weniger um irgendwelche (selbstverstaendliche) Phasen bei beiden IHVs und mehr um das eigentlich "image" fuer AMD in letzter Zeit.

Ja zugegeben haben sie es geschafft im letzten Quartal Marktanteil aus den Haenden NV's zu reissen und ja die Wette ist dann hier ob sich dieses auch in Zukunft halten wird. Unter normalen Umstaenden schon, aber NV ist auch ein IHV der sich nicht so leicht geschlagen gibt in solchen Faellen.

StefanV
2013-08-28, 12:18:01
Naja, bei AMD reichts ja eigentlich, zu sagen, dass sie die Hardware in den Konsolen stellen. Und ich denke, dass es sich so langsam zeigt, dass nV doch nicht so super duper toll ist, was die Treiber betrifft. Wenn es da öfter mal 'nen Problem gibt, werden wohl auch einige unbedarftere Nutzer wieder zu AMD greifen. Das ist auch der Hauptgrund, warum man noch zu nV greift, trotz der höheren Preise.

Der Glaube, dass die Treiber dort besser wären.

JenkinsVanDickstrongIII
2013-08-28, 14:52:45
Naja, bei AMD reichts ja eigentlich, zu sagen, dass sie die Hardware in den Konsolen stellen. Und ich denke, dass es sich so langsam zeigt, dass nV doch nicht so super duper toll ist, was die Treiber betrifft. Wenn es da öfter mal 'nen Problem gibt, werden wohl auch einige unbedarftere Nutzer wieder zu AMD greifen. Das ist auch der Hauptgrund, warum man noch zu nV greift, trotz der höheren Preise.

Der Glaube, dass die Treiber dort besser wären.

Ich will kein Öl ins Feuer kippen, aber AMD hat mit Absicht jahrelang ihre Karten darauf getrimmt, einfach möglichst viele Frames pro Sekunde rauszuspucken, um in Benchmarks gut darzustehen, auf Kosten der Bildqualität und des Frame timing & spacing. Ich möchte betonen, daß das eine bewusste Entscheidung Amd's war.

Erschwerend kommt hinzu, daß Amd sehr wohl die Ursachen für die Microruckler kannte, Jahre bevor eben jene Begriffe wie Frame timing & spacing in der Öffentlichkeit zum Thema wurden und sich trotzdem unwissentlich gestellt und die Bedenken der Kunden ignoriert und diese damit für dumm verkauft haben.

Sie haben nichts zur Aufklärung dieser Problmatik beigetragen und haben sich erst duch öffentlichen Druck dazu bewogen gefühlt, endlich, nach Jahren, einen Beta Treiber rauszubringen. Währendessen hat sich Nvidia bereits vor Jahren mit dedizierter Hardware dem Thema angenommen und es noch nicht einmal an die große Glocke gehängt.

Mir war AMD immer sympathisch und ich greife seit gut 13 Jahren zu Ihren Produkten, mein erste Intel CPU habe ich erst letztes oder vorletztes Jahr gekauft, als das Bulldozer Debakel einfach nicht mehr hinnehmbar war. Aber duch den Umgang mit dem Frame timing Thema ist mein Vetrauen zu AMD auf einem Tiefpunkt und zumindest bei MultiGPU Konfigurationen keine Alternative zu SLI.

ShadowXX
2013-08-28, 14:55:50
Naja, bei AMD reichts ja eigentlich, zu sagen, dass sie die Hardware in den Konsolen stellen.

Das wird AMD wenig vorteile bringen. Weder MS noch Sony hängen groß an die Glocke das da AMD Hardware drinne ist noch werden viele der Optimierungen für diese "Konsolen" auf PC Ebene greifen.
A.) da die Leistung des Grafikteils nicht besonders hoch ist (DICE z.B. sagt jetzt schon das BF4 auf dem PC wesentlich besser als auf den Konsolen aussehen wird und das es für den PC noch mal extra ein hochauflösendes Texturpack geben wird, da die PS4/XBO das nicht packen), d.h. selbst wenn hier und da ein paar % vorteil für AMD da wären, die bei den schnelleren PCs einfach untergehen.
B.) sich die Grafikkarte-Architektur auf dem PC dauernd ändern wird...es kann z.B. sein das Maxwell GCN 2.0 optimierte Shader besser passen als GCN 2.0 Architekturen selbst oder das GCN 3.0 plötzlich 2.0 optimierte Shader gar nicht so mag.


Und ich denke, dass es sich so langsam zeigt, dass nV doch nicht so super duper toll ist, was die Treiber betrifft. Wenn es da öfter mal 'nen Problem gibt, werden wohl auch einige unbedarftere Nutzer wieder zu AMD greifen. Das ist auch der Hauptgrund, warum man noch zu nV greift, trotz der höheren Preise.

Der Glaube, dass die Treiber dort besser wären.
Die "normalen" Anwender greift nicht wegen der Treiber zu nV, der greift wegen des Names Geforce bzw. nVidia zur nV Karte....bis AMD (wieder) an dieser Stelle ist, wird noch viel Wasser die Elbe runterfliessen.
Das ist quasi der "Apple-Effekt".

Gipsel
2013-08-28, 20:12:01
Der Xbox SoC kommt in 28nm HPM. Ist damit wohl auch für Hawaii eine Option. Das könnte durchaus Vorteile beim Stromverbrauch bringen, allerdings auch die Taktraten einschränken.HPM ist auch TSMCs performantester Prozeß. Er bietet die Transistoren mit der geringsten Leakage, wenn man will, aber auch die schnellsten auf der anderen Seite des Spektrums. Man könnte also auch eine erhöhte Taktrate erwarten. ;)
HPM bietet mehr Performance/Watt sowohl als HP als auch HPL (LP ist sowieso grottig, da lohnt kein Vergleich), und das über den kompletten Bereich. Und es ermöglicht im Zweifelsfall eben höhere Performance bei gleichem Verbrauch. Das ist schlicht der beste Prozeß von TSMC. Einziger Nachteil: Er ist teurer (und war deutlich später verfügbar).
2,25TFlops/225W = ~10GFlops DP pro Watt......und das in 28nm?Warum nicht? Soo viel Strom verbrauchen die Recheneinheiten selber gar nicht. Und höhere DP:SP-Rate ergibt auch eine höhere DP-Perf/Watt. Wenn man wirklich mit 28HPM spekuliert, 1:2 DP und noch ein paar Optimierungen mit einrechnet, wäre das eventuell drin (und schau mal drauf, was Maxwell für Verbesserungen bringen soll, nur ~30% davon kommen vom Prozeß). Aber wie schon gesagt halte ich das für eher unwahrscheinlich. Dann eher 48CUs mit weiterhin 1:4.
Aber so viel holst du durch einen niedrigeren Takt auch nicht raus. Die Transistoren brauchen ja auch noch eine gewisse Schwellspannung, damit Sie zuverlässig schalten können.Die ist meist ziemlich niedrig. Betriebsspannungen von 0,7V oder gar weniger laufen meist noch locker. Weitere Senkungen bringen irgendwann bloß nicht mehr so viel Stromersparnis im Vergleich.

M4xw0lf
2013-08-28, 20:33:26
Mir fällt da folgendes Interview ein... http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Interview-mit-Dr-John-Gustafson-von-AMD-Teil-2-1065308/
John Gustafson: Wir haben Mittel und Wege gefunden, um den Wirkungsgrad unserer zukünftigen Chipgenerationen pro Watt zu verdoppeln.

john carmack
2013-08-28, 20:44:33
na na na... wer wird denn hier gleich so gegen AMD hetzen.

Ich persönlich glaube das AMD die nächsten Jahre zumindest ein wenig das Feld von hinten aufräumen wird!
Die 3 Konsolendeals werden schon ein paar $ in die leeren Kassen spülen.

Schaffe89
2013-08-28, 20:52:35
Ich will kein Öl ins Feuer kippen, aber AMD hat mit Absicht jahrelang ihre Karte darauf getrimmt, einfach möglichst viele Frames pro Sekunde rauszuspucken, um in Benchmarks gut darzustehen, auf Kosten der Bildqualität und des Frame timing & spacing. Ich möchte betonen, daß das eine bewusste Entscheidung Amd's war.

Du kippst Öl ins Feuer, weil deine Aussagen falsch sind. Man kann mit ungleichmäßigen Frametimes nicht mehr Fake FPs herausholen, das funtktioniert vielleicht bei Crossfire.
Zudem wüsste ich nicht, wo es Artikel gibt die die Frametimes mit Cypress oder Cayman gemessen wurden. Quelle?

Außerdem wüsste ich nicht, dass nach den Optimierungen für Hitman oder Skyrim bei Single GPU die Frames gesunken sind?!

Erschwerend kommt hinzu, daß Amd sehr wohl die Ursachen für die Microruckler kannte, Jahre bevor eben jene Begriffe wie Frame timing & spacing in der Öffentlichkeit zum Thema wurden und sich trotzdem unwissentlich gestellt und die Bedenken der Kunden ignoriert und diese damit für dumm verkauft haben.

Die deutlich Verbesserung Nvidias kam auch erst rund vor zwei Jahren, soll AMD von heute auf Morgen die Manpower und die Genitalität besitzen einfach sofort nachzuziehen.
Die Überlegungen zu einem Framepacing gabs sicherlich schon viel früher.

Währendessen hat sich Nvidia bereits vor Jahren mit dedizierter Hardware dem Thema angenommen und es noch nicht einmal an die große Glocke gehängt.

Ganz eoinfach weils bei Nvidia auch nicht viel anders war, erst mit Kepler hat man die Verbesserungen soweit vorangetrieben bis die Lücke zu AMD groß genug wurde.
Nvidia hat es erst öffentlich gemacht, nachdem sie eine ordentliche Lösung anboten.

Aber duch den Umgang mit dem Frame timing Thema ist mein Vetrauen zu AMD auf einem Tiefpunkt und zumindest bei MultiGPU Konfigurationen keine Alternative zu SLI.

Das sagst du jetzt, nachdem AMd nachgezogen hat und die Lösung was Directx10 und 11 betrifft durchaus vergleichbar zu Nvidia ist.

AMD hat noch etwas mehr Bugs und directx9 funktioniert noch nicht.

Dein beitrag ist nur pures Schwarzgerede.

Ailuros
2013-08-28, 22:09:57
Tragt die Treiber relative Debatte bitte privat weiter. Danke.

Zergra
2013-08-28, 22:16:18
Ist den überhaupt sicher, das die Karten am 26.9 vorgestellt werden ?

M4xw0lf
2013-08-28, 22:17:52
Ist den überhaupt sicher, das die Karten am 26.9 vorgestellt werden ?
Das Internet sagt es, was zum Donner ist dir da zweifelhaft?! :ulol:

Zergra
2013-08-28, 22:27:01
Das Internet sagt es, was zum Donner ist dir da zweifelhaft?! :ulol:

Weiß nicht, das ist ja schon bald .... ;D

maximus_hertus
2013-08-28, 22:50:00
Na ja, vorgestellt ist gut. Leider keine Reviews / unabhängige Benchmarks. Die gibts dann wohl erst irgendwann im Oktober....

M4xw0lf
2013-08-28, 23:00:18
Na ja, vorgestellt ist gut. Leider keine Reviews / unabhängige Benchmarks. Die gibts dann wohl erst irgendwann im Oktober....
Woher weißt du denn das schon so genau? Testsamples für Redaktionen gibts auch bei einem Paperlaunch meistens.

maximus_hertus
2013-08-28, 23:26:38
Der Event auf Hawaii ist kein Paperlaunch-Event. Beim Tahiti-Launch gab es auch rund 3 Wochen vor Ende der (vorgezogenen) NDA ein Presse-Event (wie bei eigentlich allen großen Launches). Ergo Presse-Event und kurze Zeit später erhalten die Redaktionen ihre Samples für die Reviews.

Und für das Hawaii-Event wurde das doch auch genau so kommuniziert (von den üblichen Verdächtigen).

OBrian
2013-08-29, 06:29:23
Das wird ziemlich sicher nur eine Technik-Vorstellung, sprich ein Haufen Folien und Gelaber dazu. Wohl sicher auch Live-Systeme, die irgendwelche Demos abnudeln, aber die Kisten wird man nicht aufmachen dürfen, schätze ich mal. Bestenfalls gibt es Fotos, aber was sieht man da schon, eine PCIe-x16-Karte mit 2-Slot-Kühlung, ein paar Stromsteckern hinten und ein paar Ausgängen am Slotblech. Fotos vom Die, die eine Messung erlauben, wohl nicht. Es wird wohl nicht mal detaillierte Aussagen zu den Specs geben, die kommen dann zusammen mit dem Testsamples erst ein paar Tage vor dem Launch im Oktober (weil man kein Geheimnis länger als ein paar Tage unterm Deckel halten kann, es hält sich ja keine Sau an NDAs).

2phil4u
2013-08-29, 09:16:17
Bis jetzt hat NDA doch ganz gut funktioniert bei dem hier besprochenen Produkt.
Sonst müssten wir nicht drölf Milionen Seiten spekulieren ;
Und es gibt doch etliche, die die specs ganz genau kennen, auch hier im Forum.

john carmack
2013-08-29, 09:29:44
Ist den überhaupt sicher, das die Karten am 26.9 vorgestellt werden ?


Ende Sept. gibt es von AMD auf Hawaii eine Veranstaltung in der u.a. die Hawaii GPU vorgestellt wird. Was auch immer sich hinter "Hawaii" verbirgt - Das wurde von AMD noch in keinster Weise 100% klargestellt. Könnte sich also auch um die GPU für Profikarten hadeln. Oder gar etwas ganz anderes?!?!

Tatsache ist das an diesem Termin "Hawaii" nur vorgestellt wird. Wie und wo und wann dieses Produkt letztendlich den Handel erreicht, steht auf einem anderen Blatt!

Man vermutet aber den Release zusammen mit Battlefield 4 in der letzten Oktoberwoche :D

Ailuros
2013-08-29, 10:08:29
Bis jetzt hat NDA doch ganz gut funktioniert bei dem hier besprochenen Produkt.
Sonst müssten wir nicht drölf Milionen Seiten spekulieren ;
Und es gibt doch etliche, die die specs ganz genau kennen, auch hier im Forum.

Vorsicht; Dich schreibt gleich AMD PR Deutschland privat an woher Du weisst dass andere es wissen :D

Spass beiseite ich zumindest hab keine Ahnung; wenn ich heutzutage nach etwas herumbohren wuerde dann waeren es die Apple A7x Specs. AMD? Ok... Eine neue GPU? (*drueckt sich zu einem begeisterten Ausdruck*) ....ahaaaa....*gaehn* tschuldigung :rolleyes:

robbitop
2013-08-29, 10:55:58
Als wenn die A7x Specs nicht vorhersehbar wären...
4 Cluster Rogue, Swift 2 + 30 %.

Ailuros
2013-08-29, 10:58:17
Als wenn die A7x Specs nicht vorhersehbar wären...
4 Cluster Rogue, Swift 2 + 30 %.

Gut dann geben wir an dass Hawaii = Tahiti + 30% schliessen den thread und wissen schon alles darueber (weil eben alle Einzelheiten in einem technischen Forum so verdammt nebenwichtig sind...) :D

Duplex
2013-08-29, 11:09:32
Und was ist wenn es nur +20-25% auf die Ghz sind :D

Bei 2816 Shader, 1 Ghz GPU und mehr Frontend sollte mind. Titan Performance möglich sein.

GK110 hat auf dem DIE 87,5% mehr Shader als GK104 bei 90% mehr Fläche,

Bei 550mm² könnte AMD auch über 50 CUs unterbringen, das wären dann 3200 Shader, mit einem 512 Bit SI & 64 Rops @900 GPU wäre die Karte ein Monster.

john carmack
2013-08-29, 11:41:18
Und was ist wenn es nur +20-25% auf die Ghz sind :D

Bei 2816 Shader, 1 Ghz GPU und mehr Frontend sollte mind. Titan Performance möglich sein.

GK110 hat auf dem DIE 87,5% mehr Shader als GK104 bei 90% mehr Fläche,

Bei 550mm² könnte AMD auch über 50 CUs unterbringen, das wären dann 3200 Shader, mit einem 512 Bit SI & 64 Rops @900 GPU wäre die Karte ein Monster.

Deswegen ja auch das 12Layer @ 6+1 Phasen Design :freak::D
Die Karte wird halt auch ~300W verbraten :D

http://www.youtube.com/watch?v=qtuo4Lf2eXo

Duplex
2013-08-29, 12:15:19
Bei der Effizienz ist Nvidia meilenweit vor AMD.

GTX Titan braucht laut CB in "Assasins Creed 3" nur 25W mehr als eine GTX680, Titan hat 75% mehr Einheiten als die GTX680.

7970Ghz braucht in "Assasins Creed 3" ganze 82W mehr als eine 7950 Boost, 7970Ghz hat nur 14,3% mehr Einheiten als die 7950 Boost.

StefanV
2013-08-29, 12:24:40
Bei der Effizienz ist Nvidia meilenweit vor AMD.

GTX Titan braucht laut CB in "Assasins Creed 3" nur 25W mehr als eine GTX680, Titan hat 75% mehr Einheiten als die GTX680.

7970Ghz braucht in "Assasins Creed 3" ganze 82W mehr als eine 7950 Boost, 7970Ghz hat nur 14,3% mehr Einheiten als die 7950 Boost.
Ich würd mich da nicht allzu sehr auf CBase verlassen wollen. Dort scheint der Schreiber einen gewaltigen NV Bias zu haben.

Weil hier schauts ganz anders aus (http://www.hardocp.com/article/2013/04/22/nvidia_geforce_gtx_titan_3way_sli_review/9#.Uh8g3dN2HJo), hängt aber auch stark von der Anwendung ab (http://www.hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review/8#.Uh8hFtN2HJo), die man für einen Vergleich wählt.

Wenn, dann würd ich hier HT4U am meisten trauen. Dort scheint man wenigstens zu versuchen, das ganze wissenschaftlich anzugehen...

john carmack
2013-08-29, 12:37:28
Ich würd mich da nicht allzu sehr auf CBase verlassen wollen. Dort scheint der Schreiber einen gewaltigen NV Bias zu haben.

Weil hier schauts ganz anders aus (http://www.hardocp.com/article/2013/04/22/nvidia_geforce_gtx_titan_3way_sli_review/9#.Uh8g3dN2HJo), hängt aber auch stark von der Anwendung ab (http://www.hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review/8#.Uh8hFtN2HJo), die man für einen Vergleich wählt.

Wenn, dann würd ich hier HT4U am meisten trauen. Dort scheint man wenigstens zu versuchen, das ganze wissenschaftlich anzugehen...



Komisch... Da scheine ich ja nicht der Einzige zu sein der das so sieht! :)
Seltsamerweise kassiere ich auch am laufenden Band Verwarnungen auf CB wenn ich mal meine Meinung äußere :freak:

Badner1972
2013-08-29, 12:44:57
Mir fällt dazu nur ein..traue keiner Statistik,die du nicht selbst "gefälscht" hast..
PCGH gefällt mir da relativ gut in der Auswahl ihrer Benchmarks..sind nun mehr Titel und eine breitere Basis als zuvor(glaub sind jetzt 15 Titel).
Was den Stromverbrauch angeht..ich vermute mal da gefühlte 95% hier High End User sind,ist das nicht der entscheidende Faktor,der über den Kauf oder Nichtkauf entscheidet

Hugo78
2013-08-29, 12:49:00
Weil hier schauts ganz anders aus (http://www.hardocp.com/article/2013/04/22/nvidia_geforce_gtx_titan_3way_sli_review/9#.Uh8g3dN2HJo),

Da scheint aber was mächtig schief gelaufen zu sein, denn ein 3-Way Titan SLI verbaucht im IDLE keine 46W weniger als 3-Way GTX 680 SLI.

Im Idle sind alle aktuellen Gamingkarten bei 10-15W unterwegs.
Im Worstcase hätten wir hier ergo max. 15W Unterschied, keine 46 Watt.

StefanV
2013-08-29, 12:55:57
Komisch... Da scheine ich ja nicht der Einzige zu sein der das so sieht! :)
Seltsamerweise kassiere ich auch am laufenden Band Verwarnungen auf CB wenn ich mal meine Meinung äußere :freak:
Naja, man muss sich da nur den letzten Tripple SLI vs Tripple CF Artikel von denen durchlesen. Dort wird nV sonstwie gelobt und AMD bekommt bei jeder kleinen Gelegenheit einen aufn Deckel...

Mir fällt dazu nur ein..traue keiner Statistik,die du nicht selbst "gefälscht" hast..
PCGH gefällt mir da relativ gut in der Auswahl ihrer Benchmarks..sind nun mehr Titel und eine breitere Basis als zuvor(glaub sind jetzt 15 Titel).
Was den Stromverbrauch angeht..ich vermute mal da gefühlte 95% hier High End User sind,ist das nicht der entscheidende Faktor,der über den Kauf oder Nichtkauf entscheidet
Da kann ich dir nur zustimmen. Den Stromverbrauch sollte man auch nicht überbewerten. Was zählt ist halt 'Bang for Buck/Watt'. Wenn diese neue Karte doppelt so schnell ist, wie 'ne 7970 GHz Edition, darf sie auch 300W (oder so) verbraten.
Nur wenn sie kaum schneller ist, schaut es etwas anders aus...

john carmack
2013-08-29, 12:57:19
Hat Titan nicht auch so eine Art ZeroCore?
Titan ist eine Gen. Weiter als die 680. Ich meine sogar was gelesen zu haben das Titan im Idle jetzt weniger verbraucht.

LSSJBroly
2013-08-29, 13:07:10
Ich meine sogar was gelesen zu haben das Titan im Idle jetzt weniger verbraucht.

Ja, etwa zwei Watt weniger als eine 680 :freak:
Und nein, NVs GPUs beitzen kein Zero-Core oder etwas ähnliches.

Ailuros
2013-08-29, 13:08:31
Und was ist wenn es nur +20-25% auf die Ghz sind :D

Du kannst benchmarks kinderleicht so auswaehlen dass dieses auch zutrifft.


GK110 hat auf dem DIE 87,5% mehr Shader als GK104 bei 90% mehr Fläche,

Bei 550mm² könnte AMD auch über 50 CUs unterbringen, das wären dann 3200 Shader, mit einem 512 Bit SI & 64 Rops @900 GPU wäre die Karte ein Monster.

Nur hat daemlicherweise GK110 neben ein paar wichtigen Aenderungen in den ALUs verglichen zu GK104, insgesamt 15x mal mehr FP64 Einheiten.

Man koennte vieles bei AMD und/oder NV auf hypothetischer Basis; mit was man dann solche Dinger genau kuehlen will und was der Spass kosten wuerde waere dann ein anderes Kapitel.

Badner1972
2013-08-29, 13:09:34
Was die Berichterstattung angeht..manchmal habe ich auch das Gefühl,das bestimmte Seiten gewisse Vorlieben haben..ich vermute mal da stecken handfeste wirtschaftliche Interessen dahinter..sprich die großen Firmen üben "sanften" Druck aus..im dem Sinne das sie natürlich positve Berichte zu ihren Produkten erwarten,andernfalls gehen die geschalteten Anzeigen zurück,oder die Redaktionen nicht mehr in Time mit Testsamples bedacht usw.
Das wird natürlich keine Seite /Zeitschrift zugeben..ist aber in anderen Bereichen der Wirtschaft nicht unüblich

Knuddelbearli
2013-08-29, 13:33:08
wäre peinlich wenn NV mit titan bei P/W nicht vorne wäre

ist ein rießne chip mit geringem takt

StefanV
2013-08-29, 13:37:33
wäre peinlich wenn NV mit titan bei P/W nicht vorne wäre

ist ein rießne chip mit geringem takt
Genau, das vergessen einige hier. Wenn mans könnte, würde man 4k Recheneinheiten auf 'nen Chip packen und den mit 0,85V bei 500MHz laufen lassen.

Das Teil dürfte wesentlich effizienter sein als 'nen Chip mit ~2k Einheiten und 1GHz Takt sein, vom P/W Verhältnis.

maximus_hertus
2013-08-29, 13:56:36
Bei der Effizienz ist Nvidia meilenweit vor AMD.

GTX Titan braucht laut CB in "Assasins Creed 3" nur 25W mehr als eine GTX680, Titan hat 75% mehr Einheiten als die GTX680.

7970Ghz braucht in "Assasins Creed 3" ganze 82W mehr als eine 7950 Boost, 7970Ghz hat nur 14,3% mehr Einheiten als die 7950 Boost.

WTF? Ich hoffe du meinst das nicht Ernst?!

Das geht noch besser. Die GTX 680 hat 33,3% mehr Eineiten als die GTX 760 (Custom Karten, kaut CB) bei gleichem Verbrauch ;) Was sagt uns das jetzt?

Und was hat es mit Effizienz zu tun, ob eine Karte X 25W mehr verbraucht bei 75% mehr Einheiten. Ich dachte nach dem Pentium 4 (Desaster) sollten gerade die User auf Techseiten a la 3DC dann doch etwas mehr Weitsicht haben und die Zusammenhänge besser verstehen.

Knuddelbearli
2013-08-29, 14:00:06
99% der Leistungsmessungen kann man eh vergessen da das reine peakmessungen sind

john carmack
2013-08-29, 14:01:51
Genau, das vergessen einige hier. Wenn mans könnte, würde man 4k Recheneinheiten auf 'nen Chip packen und den mit 0,85V bei 500MHz laufen lassen.

Das Teil dürfte wesentlich effizienter sein als 'nen Chip mit ~2k Einheiten und 1GHz Takt sein, vom P/W Verhältnis.


Die Rechenleistung eines 4k@500Mhz Chip entspräche dann welcher?

Knuddelbearli
2013-08-29, 14:22:44
fast der selben wie der mit 2k@1ghz ( mehr Einheiten skalieren nicht ganz zu 100% deshalb fast )

StefanV
2013-08-29, 14:28:21
Die Rechenleistung eines 4k@500Mhz Chip entspräche dann welcher?
Pi mal Daumen entspräche das einer 7970 GHz Edition, nur dass der Verbrauch wohl deutlich unter 200W wäre.

Sprich man hätte 'nen deutlich höheres Perf/Watt Verhältnis...

robbitop
2013-08-29, 15:46:03
Gut dann geben wir an dass Hawaii = Tahiti + 30% schliessen den thread und wissen schon alles darueber (weil eben alle Einzelheiten in einem technischen Forum so verdammt nebenwichtig sind...) :D

Klingt gut. :D