PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

HOT
2013-07-18, 08:54:13
Nein, ist er nicht. Nur falls du exakt die identische Logik mit unterschiedlichen Taktraten haben möchtest. Für einen Vergleich CPU gegen GPU ist das völliger Quatsch. GPUs sind nicht billiger zu fertigen weil sie einen niedrigeren Takt haben.

Ist echt sinnlos, ich gebs auf. Wird auch oT.

Intels CPUs sind ja auch in Bulk gefertigt, von daher ist SOI keine Vorraussetzung für hohe Taktraten und damit ist die Aussage von "Hot" falsch.

Übrigens glaub ich nach wie vor das die Konsolen Chips von TSMC kommen.

sry für offtopic.

War auch so nicht gemeint. Die beiden SoC liegen sicher bei beiden Foundries.

gedi
2013-07-18, 12:22:37
Wohl keine Konkurrenz zur Titan: http://www.sweclockers.com/nyhet/17302-amd-kontrar-inte-geforce-gtx-titan-siktar-istallet-pa-700-serien

maximus_hertus
2013-07-18, 12:27:51
Macht imo keinen Sinn - wenn man die GTX 780 angreift, ist man doch bei der Titan. Zwischen der 780 und der Titan passt doch quasi nichts mehr dazwischen.

boxleitnerb
2013-07-18, 12:29:37
Richtig. Power Color-Mitarbeiter gaben übrigens an, dass die GPUs doch in 20nm hergestellt sind. Entweder hatten die keine Ahnung, haben gelogen oder es bleibt weiter spannend:
At a recent sponsored LAN event I attended, power color representatives were asked about the new cards being 20nm, which they quickly confirmed. I cannot verify the accuracy of their answer so take it with a grain of salt.
http://www.xtremesystems.org/forums/showthread.php?286671-VC-AMD-Radeon-HD-9000-Series-Launching-in-October&p=5199527&viewfull=1#post5199527

Hübie
2013-07-18, 12:30:52
Doch. Die kommende AMD-Karte ;D

M4xw0lf
2013-07-18, 12:38:29
Für 20nm wäre das wiederum nicht soo berauschend ^^

Spasstiger
2013-07-18, 12:49:06
An 20 nm glaube ich immer noch nicht. Aber wenn Tahiti noch bis nächstes Jahr läuft, denke ich, das Hawaii ein Gamer-Chip wie Pitcairn wird, also mit stark eingeschränkten DP-Fähigkeiten.

mironicus
2013-07-18, 13:08:41
Vielleicht bauen sie erst einen kleinen Chip zum "Testen". Radeon 4770... ^^

Coda
2013-07-18, 13:51:29
Ist echt sinnlos, ich gebs auf. Wird auch oT.
Unterstellst du mir gerade ernsthaft, dass ich was nicht verstehen würde?

disap.ed
2013-07-18, 14:24:08
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9844578#post9844578
Da gibt es auch eine R2-Graphics und Vermutungen, dass es Codenamen in Richtung von Intels GT1-4 sein könnten.

Vielleicht sind die geraden nur für die APUs?

HOT
2013-07-18, 14:50:09
Unterstellst du mir gerade ernsthaft, dass ich was nicht verstehen würde?
Also echt... unglaublich. Ich unterstelle allerhöchstens ein Missverständnis oder ein aneinaner-Vorbeireden aber ich würde mit Sicherheit niemandem Kompetenz absprechen. Ich hatte nur keinen Bock mehr auf diese Diskussion weil OT und nicht zielführend.

Coda
2013-07-18, 14:51:27
"ist echt sinnlos (mit dir zu reden)" find ich trotzdem ziemlich frech.

HOT
2013-07-18, 14:53:18
"ist echt sinnlos (mit dir zu reden)" find ich trotzdem ziemlich frech.
So wars aber nicht gemeint. Ist echt sinnlos darüber zu diskutieren war gemeint.

Duplex
2013-07-18, 15:21:46
An 20 nm glaube ich immer noch nicht. Aber wenn Tahiti noch bis nächstes Jahr läuft, denke ich, das Hawaii ein Gamer-Chip wie Pitcairn wird, also mit stark eingeschränkten DP-Fähigkeiten.
Würde auch vollkommen reichen.
4GB GDDR5, 512 Bit SI, Quad Frontend, 48 Rops, 2560 Shader ist sowieso kein einfacher Refresh, das sind dann mind. 30% auf die 7970 Ghz.
Hoffen wir mal das AMD so ein Chip bastelt, 15% wären nicht interesannt.

maximus_hertus
2013-07-18, 15:32:54
Hawaii wird es wenn, dann nur in sehr sehr kleinen Stückzahlen @ 20nm geben. Ergo macht das nur bei einer absoluten Hochpreis-Grafikkarte Sinn (800+ Euro). Ansonsten wäre die Nachfrage viel zu groß (bzw. um nicht "Nackt" zu sein (Lieferengpässe) gibts weiterhin Tahiti, imo).

Ergo Oktober 2013 Reviews Hawaii
Dezember Kaufbar/Verfügbar, jedoch immer noch in (sehr) kleinen Stückzahlen
Q1 2014 Breitere Verfügbarkeit
Q2 2014 Release der restlichen Chips

Ob das so kommen wird wird man natürlich sehen müssen ^^

Akkarin
2013-07-18, 15:33:55
Würden 384 bit + 6.5 oder 7 Gbps chips nicht vollkommen ausreichen ? Selbst Titan hat ja nur 384b bit + 6 Gbps.

edit@maximus: Ein hypotherischer 2560 Shader chip dürfte unter 20nm doch "nur" ca. 200-250mm^2 groß sein, aber Titan Performance haben. Würde also, wenn technisch möglich, es ist ja noch extrem fraglich ob und wann etwas in 20nm kommt, durchaus sinn machen, weil relativ kleine chips zu sehr hohen Preisen verkauft werden könnten.

fondness
2013-07-18, 15:38:31
Wohl keine Konkurrenz zur Titan: http://www.sweclockers.com/nyhet/17302-amd-kontrar-inte-geforce-gtx-titan-siktar-istallet-pa-700-serien

Sollte das stimmen, hat man wohl tatsächlich nur den Refresh verschoben. Denn zur GTX780 sind es vielleicht 15%.

maximus_hertus
2013-07-18, 15:51:00
Oder es gibt einen neuen 20nm Chip für die Hochpreiskarten und Refreshes für die Karten darunter?

20nm - 700-800 Euro+
Tahiti Refresh @ GTX 780 Performance - 450-500 Euro
Tahiti Refresh @ GTX 770 Performance - 320-370 Euro

Realistisch?

Raff
2013-07-18, 15:56:51
Oder es gibt einen neuen 20nm Chip für die Hochpreiskarten und Refreshes für die Karten darunter?

20nm - 700-800 Euro+
Tahiti Refresh @ GTX 780 Performance - 450-500 Euro
Tahiti Refresh @ GTX 770 Performance - 320-370 Euro

Realistisch?

Tahiti XT"2" ist doch bereits auf/über der GTX 770 angesiedelt. Was AMD nicht kloppt, sind die GTX 780 und Titan.

MfG,
Raff

maximus_hertus
2013-07-18, 16:05:47
Das ist mir klar, dass die XT"2" das packt. Aber sie ist nicht neu und "unsexy".

Gerade mit Battlefield 4 als Zugpferd könnte ein Tahiti-"Refresh" richtig einschlagen, selbst wenn die Karten kaum schneller sind. Es hat schon seinen Grund warum die Radeon 79x0-Karten nicht wirklich gut verkauft werden (hatte nV in den letzten 10 Jahren jemals einen so hohen Marktanteil bei den dedizierten Karten?).

boxleitnerb
2013-07-18, 16:14:36
Neu macht nur Sinn, wenn das Ding kleiner (=billiger), sparsamer und/oder schneller ist.

Duplex
2013-07-18, 16:25:04
Die Transistoren werden in idR bei einem Shrink verdoppelt.

RV770 > 965 Milionen Transistoren (55nm)
RV870 > 2,15 Milliarden Transistoren (40nm)
Tahiti > 4,31 Milliarden Transistoren (28nm)

Wenn 20nm kein großer Schritt werden sollte, dann kann man trotzdem von +50% Transistoren ausgehen, in 20nm wird das garantiert mehr als 3000 Shader umfassen, der ganze Aufwand, anderes Design usw. kostet schließlich viel Geld, das will man mit guten Karten wieder reinholen, geht nur wenn man deutlich mehr Leistung demonstrieren kann.

28nm > 2304-2560 Shader
20nm > 3072-4096 Shader

boxleitnerb
2013-07-18, 16:28:18
Nicht unbedingt, kommt drauf an wie teuer 20nm ist und wie sparsam. Erinnere dich an Cayman vs. Tahiti, nur 33% mehr Shader, dafür ca. 20% mehr Takt und deutlich höherer Verbrauch.

Duplex
2013-07-18, 16:37:57
Cayman war ein Refresh (+15% Games) (+35% Tesselation) und mit 3,65 Milliarden Transistoren rund 17% größere DIE Space als Cypress...

http://abload.de/img/z000032-image11mczt3.png

Und außerdem kannst du die Shader nicht direkt miteinander vergleichen, weil VLIW vs. non-VLIW

Cypress 5D Shader
Cayman 4D Shader
Tahiti 1D Shader

GF110 512 Shader
GK104 1536 Shader

boxleitnerb
2013-07-18, 16:40:05
Cayman vs. Tahiti, nicht Cypress vs. Cayman. Nochmal lesen bitte ;)
Ich sag nicht, dass man es perfekt vergleichen kann, aber ich wäre an deiner Stelle nicht so voreilig optimistisch, zumal wir nicht wissen, wie gut oder schlecht 20nm wirklich ist.

Und Nvidia kannst du erst recht nicht vergleichen, denn wer weiß schon, wie groß die hochtaktenden Shader dort wirklich waren. Du glaubst doch nicht, dass bei 20nm der Takt der Shader bei AMD sinkt, oder?

maximus_hertus
2013-07-18, 16:41:04
Neu macht nur Sinn, wenn das Ding kleiner (=billiger), sparsamer und/oder schneller ist.

GeForce 8800/9800
GeForce 9800 GTX / GTS 250
GTX 260/216 / GTX 275
GTX 460 / GTX 560
Radeon 8500 / 9100
Radeon X800 XT / X850 XT

Gibt genug Beispiele, in denen ein simples umlabeln bzw. nur ein Mini-Update durchgeführt worden ist.

Es ist schlicht so, dass eine neue Karte *immer* sexy ist (klar gibts Ausnahmen, z.B. die Radeon HD 2900 Serie).

Duplex
2013-07-18, 16:41:41
@boxleitnerb

Cayman besteht auf 384-4D Shader, Tahiti aus 2048-1D Shader.

boxleitnerb
2013-07-18, 16:47:56
@boxleitnerb

Cayman besteht auf 384-4D Shader, Tahiti aus 2048-1D Shader.

Und? Wie groß waren/sind die? Ich sehe jedenfalls, dass sich die Rohleistung mit 40nm nicht verdoppelt hat bei AMD. Deshalb bin ich vorsichtig mit solchen Prognosen, zumal 20nm noch schlimmer als 28nm sein soll. Wurde hier mal gesagt.

GeForce 8800/9800
GeForce 9800 GTX / GTS 250
GTX 260/216 / GTX 275
GTX 460 / GTX 560
Radeon 8500 / 9100
Radeon X800 XT / X850 XT

Gibt genug Beispiele, in denen ein simples umlabeln bzw. nur ein Mini-Update durchgeführt worden ist.

Es ist schlicht so, dass eine neue Karte *immer* sexy ist (klar gibts Ausnahmen, z.B. die Radeon HD 2900 Serie).

Das ändert nichts daran, dass kein IHV einen Chip neu auflegt, nur damit er neu ist. Wenn es neues Silizium ist, wie es bei Volcanic Islands der Fall ist, werden sich handfeste Vorteile ergeben, sonst würde man es nicht machen. Eine GPU zu validieren und produzieren kostet einen Haufen Geld, das macht man nicht, wenn es nix bringt. Binning und Renaming ist wieder ein anderes Thema. Dass man den existierenden Tahiti neu vermarktet, das ist durchaus möglich.

dargo
2013-07-18, 17:19:30
Gerade mit Battlefield 4 als Zugpferd könnte ein Tahiti-"Refresh" richtig einschlagen, selbst wenn die Karten kaum schneller sind.
PC specs are similar to the specs of BF3. No official specs list has been released.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9845971&postcount=574

Für BF4 dürfte Tahiti somit reichen.

Gipsel
2013-07-18, 18:11:52
Wie schon früher gesagt, der HP-Prozess hat auch die dichteren SRAM-Zellen. Eventuell ist das der einzige bzw. der wichtigste Grund. Gilt auch für TSMC, hier in der guten, alten giste gibts deren HP und LP28 Maße:

http://www.realworldtech.com/iedm-2008/10/

150 zu 130nm²Dann schau mal ein wenig genauer! Das ist der Vergleich des gecancelten 32nm mit dem 28nm Prozeß. Der 32nm LP-Prozeß hat exakt die identische SRAM-Zellgröße wie der 32nm HP-Prozeß (0,15µm²). Zahlen für 28nm LP stehen da gar nicht drin, 28HP hat 0,13µm² Zellgröße (130000nm²). ;)
Jein, bist Du Dir sicher, dass die HP-Transistoren bei HP und LP unterschiedlich sind?
Dazu gibts das Bildchen von TSMC:

http://www.abload.de/img/standard-offerings-v2qzsz6.jpg

Da sind die VTs alle gleichermaßen aufgeführt, die sollten demnach gleich sein.Ob die Schwellspannung nun tief, mittel, hoch, ultrahoch oder ultraniedrig ist, ist natürlich immer eine relative Angabe (zur Versorgungsspannung). Absolut gesehen sind die bei verschiedenen Prozessen natürlich auch unterschiedlich.
Inwiefern sich die Transistoren untereinander im Aufbau unterscheiden hab ich aber auch noch nicht rausgefunden,Na minimal müsen sich sich ja unterscheiden, irgendwomit muß man das ja tunen können. Früher war es mal die Gateoxid-Schichtdicke, was man jetzt nimmt, keine Ahnung, müßte man suchen. Aber verschiedene Prozesse haben natürlich einen etwas stärker veränderten Transistoren (andere Dotierungen [verschiebt auch die Schwellspannungen], z.T. andere Materialien oder sogar auch deutlich anderen Transistoraufbau).
Hej, AMD hat gerade nen 5 Ghz Chip in 32nm SOI rausgebracht, während Intel das in 22nm Bulk nicht schafft. HOTs Aussage stimmt also ;DIBM hat schon einen 5,0GHz Prozessor (und nicht nur Turbo) in 65nm (SOI!) rausgebracht. ;D

gedi
2013-07-18, 18:49:31
Das ist mir klar, dass die XT"2" das packt. Aber sie ist nicht neu und "unsexy".

Gerade mit Battlefield 4 als Zugpferd könnte ein Tahiti-"Refresh" richtig einschlagen, selbst wenn die Karten kaum schneller sind. Es hat schon seinen Grund warum die Radeon 79x0-Karten nicht wirklich gut verkauft werden (hatte nV in den letzten 10 Jahren jemals einen so hohen Marktanteil bei den dedizierten Karten?).

Tatsächlich? Ich wundere mich noch immer, dass sich die 79xx nicht besser verkauft hat. Die Karte für sich ist ein sehr solides Produkt und die Treiber sind problemlos. Zudem hält sie mit einer 780 noch relativ gut mit und der Preis ist angemessen - nicht nur im Vergleich zu NV. Dazu kommt noch das Spielebundle und dass TahitiXT dazu noch ganz hervorragend mit dem GPU-Takt skaliert.
Das einzige Problem welches manche Karten haben, ist wohl das Spulenpfeifen. Allerdings haben meine 2 480er damals auch lustig vor sich hingepfiffen, was allerdings nicht so schlimm war, da man nach relativ kurzer Zeit vom Pfeifen sowieso nichts mehr mitbekommen hat.

Felixxz2
2013-07-18, 21:02:58
AMD hat(te) halt ein übles Image und Marketing Problem im Vergleich zu nV. Dass überhaupt jemand ne 680 gekauft hat, obwohl diese teurer, langsamer und mit weniger Speicher ausgestattet war als Tahiti, war mMn ein Wunder.
Vor allem nach dem neuen Treiber und dem Spielebundle.

boxleitnerb
2013-07-19, 09:01:38
Doch 2880 SP (oder noch mehr???) für den top dog? Schlagt mich, wenn ich mich zu sehr auf den Typ beziehe, aber ich finds interessant :D

http://forums.anandtech.com/showpost.php?p=35281067&postcount=206

Die zweitschnellste SKU scheint 2560 SP zu haben. Vielleicht muss Nvidia wirklich noch ne Titan Ultra nachschieben...

AnarchX
2013-07-19, 09:07:13
War der User schon einmal durch korrekte Leaks aufgefallen?


Ganz unglaubwürdig scheint es aber wohl nicht, gerade wenn man es mit den 12-Layer-PCB-Gerüchten in Verbindung bringt. Und zusammen mit dem FX-9590 vielleicht ein letztes Aufbäumen bevor man...

fondness
2013-07-19, 09:07:27
Doch 2880 SP (oder noch mehr???) für den top dog? Schlagt mich, wenn ich mich zu sehr auf den Typ beziehe, aber ich finds interessant :D

http://forums.anandtech.com/showpost.php?p=35281067&postcount=206

Die zweitschnellste SKU scheint 2560 SP zu haben.

Naja 2688SPs sind ohnehin relativ unrealistisch, da man 42CUs nicht gleichmäßig aufteilen kann auf 4 Razer-Engines (oder es werden nur drei Raster-Engines?). Entweder 40 oder 44. Also 2560 oder 2816 SPs.

boxleitnerb
2013-07-19, 09:11:21
War der User schon einmal durch korrekte Leaks aufgefallen?

Ganz unglaubwürdig scheint es aber wohl nicht, gerade wenn man es mit den 12-Layer-PCB-Gerüchten in Verbindung bringt. Und zusammen mit dem FX-9590 vielleicht ein letztes Aufbäumen bevor man...

Gute Frage, müsste ich mal schauen. Er sagt über sich selbst, er sei ein Hardware Ingenieur. Kann schon sein, dass er da gewisse Einblicke hat. Er wirkt auf mich jedenfalls nicht unglaubwürdig. Er war es glaube ich auch, der vor ein paar Monaten im XS-Forum gepostet hat, dass die ersten Hawaii-GPUs von TSMC zurück sind. Das würde auch zum aktuellen Zeitplan passen.

V2.0
2013-07-19, 09:13:22
Warum nicht. AMD will die Leistungskrone und sie werden sie auch bekommen.

Iruwen
2013-07-19, 11:20:05
Schön wärs, dann würde die GTX 780 eventuell günstiger :cool:

V2.0
2013-07-19, 11:35:47
Schon von der Logik muss AMDs TopDog schneller als Titan sein, denn auch NV arbeitet ja an ihrer nächsten Generation. Ein 28nm Chip macht nur Sinn wenn er entweder schneller als Titan ist, oder ~7970+X aber kleiner und billiger zu produzieren. Mehr SPs und 384bit sprechen nicht für kleiner. 20nm ändert natürlich alles, aber ein 20nm Chip, der langsamer als Titan ist, macht als TopDog noch weniger Sinn.

boxleitnerb
2013-07-19, 11:48:05
Naja kleiner wird der Chip sowieso. Die Wahrscheinlichkeit, dass AMD ein 500mm2-Monster baut, geht gegen Null mMn.

Knuddelbearli
2013-07-19, 11:48:47
Schon von der Logik muss AMDs TopDog schneller als Titan sein, denn auch NV arbeitet ja an ihrer nächsten Generation. Ein 28nm Chip macht nur Sinn wenn er entweder schneller als Titan ist, oder ~7970+X aber kleiner und billiger zu produzieren. Mehr SPs und 384bit sprechen nicht für kleiner. 20nm ändert natürlich alles, aber ein 20nm Chip, der langsamer als Titan ist, macht als TopDog noch weniger Sinn.

Wann gabs von NV das letzte mal in der selben Fertigung einen echten Refresh?

680 auf 780? dort wurde nur der GK 110 verwurstelt und rest umbeannnt

480 auf 580? einfaches upgrade mit bugbereinigung und vollaktivierte Chips
280 auf 285? war ein shrink
8800 auf 9800? war anfangs ein reines umbennenen und später noch paar Shrinks dazu

boxleitnerb
2013-07-19, 12:05:27
Man müsste sich mal einig werden darüber, was ein "echter" Refresh überhaupt ist. Sowas ist ja eigentlich nur dann nötig, wenn es Schwachstellen gibt, die gefixt werden müssen und/oder das Ding kleiner und billiger wird, sonst lohnt sich das nicht.

Wobei AMD/ATI z.B. den RV790 und den R480 gebracht hatten, die augenscheinlich praktisch identisch zu ihren Vorgängern waren. Vielleicht hab ich da was übersehen, keine Ahnung.

Knuddelbearli
2013-07-19, 12:11:42
und wo siehst du etwas was jetzt einen refresh nötiger macht als bei den anderen damals?

boxleitnerb
2013-07-19, 12:15:07
Zwei Dinge.
Erstens die vergleichsweise schlechte Skalierung von Tahiti mit der Rohleistung (nicht immer, aber auch nicht selten) und dessen Effizienz (frühes Design ganz zu Beginn der 28nm-Massenfertigung).
Zweitens AMDs recht neue Ambitionen, wieder ganz vorne mitzuspielen und Nvidia durchgehend zu schlagen. Da reicht eine GHz GHz Edition nicht, da muss mehr her. Man will sicher auch mehr Marktanteile gewinnen, das geht nicht (nur) über Verschenken von Spielen.

Knuddelbearli
2013-07-19, 12:25:39
nein nein, ich meine bei NV. Dachte du hast dich mit dem ersten Satz auf NV bezogen ( ging ja in den letzten 2 Posts um NV refresh )

Ich sehe da eben nicht wieso NV noch einen echten Refresh bringen sollte, hat NV ja seit jahren keine mehr gebracht. Wenn dann kommt höchstens Maxwell in 28nm da sich 20nm massiv verschiebt. Bzw weill NV vor 1-1,5 Jahre dachte das sich 20nm extrem verschiebt.

Zergra
2013-07-19, 12:36:12
Naja kleiner wird der Chip sowieso. Die Wahrscheinlichkeit, dass AMD ein 500mm2-Monster baut, geht gegen Null mMn.
Ich glaube das kleiner war auf Tahiti bezogen...

boxleitnerb
2013-07-19, 12:37:50
Hm, bei Nvidia weiß man nicht, ob die zu geizig sind und ihre Aufwärmmentalität durchziehen oder ob ein echter Refresh ein schlechtes Kosten/Nutzen-Verhältnis hätte. Glaub das werden wir nie rausfinden.

Akkarin
2013-07-19, 12:50:50
Auf den Anandtech "insider" bezogen: Mehr mem bandwith als 384-bit, 7 Gbps ? 7.5 oder 8 Gbps werden es wohl nicht sein, also breiteres interface ? Ist 512 nicht verdammt groß ? Selbst Titan hat ja wie gesagt nur 384-bit, 6 Gbps. 7 Gbps alleine würden schon +16% geben. Würde auch was krummes wie 448 gehen ?

boxleitnerb
2013-07-19, 12:54:17
Vielleicht meinte er nur mehr Bandbreite für die 9950, also auch 7 Gbps für die. Keine Ahnung. 448 halte ich auch für möglich, aber eher unwahrscheinlich. 3584 MB wären das dann oder 7168 :freak:

Duplex
2013-07-19, 13:00:56
Mal sehen ob dann die BQ & Filter verbessert werden.

Knuddelbearli
2013-07-19, 13:05:44
Krumess interface würde gehen wäre aber für AMD verdammt ungewöhnlich

Nakai
2013-07-19, 13:14:15
384 Bit war doch bereits krumm.

dargo
2013-07-19, 13:14:45
Krummes SI macht imho nur dann Sinn wenn der TopDog kastriert wird. Also das was NV bsw. beim Fermi gemacht hat. Wenn der TopDog 512Bit hat sind 448Bit bei einer "9950" wahrscheinlich.

boxleitnerb
2013-07-19, 13:23:25
512-bit bei einem 28nm-Chip bzw. einem Chip mit "nur" unter 3000 ALUs halte ich für unwahrscheinlich, da unnötig.

Duplex
2013-07-19, 13:55:44
Irgendwann muss man sowieso auf 512 Bit SI setzen weil GDDR5 langsam an die Grenzen kommen sollte.

boxleitnerb
2013-07-19, 13:56:41
Bevor das passiert, gibt es Alternativen wie HMC, GDDR5 oder sowas.

Duplex
2013-07-19, 13:57:18
Was ist mit GDDR6?

512 Bit SI ist nicht unwahrscheinlich, wenn man Bandbreite braucht warum nicht.

GT200 hatte auch 512 Bit SI bei 576mm² DIE.

boxleitnerb
2013-07-19, 14:00:43
GDDR6 soll 2014 kommen. GT200 war auch groß und teuer - für 20nm anfangs unmöglich mMn. Und in 28nm sollten 7 Gbps an 384-bit noch ausreichen.

dargo
2013-07-19, 16:23:40
512-bit bei einem 28nm-Chip bzw. einem Chip mit "nur" unter 3000 ALUs halte ich für unwahrscheinlich, da unnötig.
Es hängt alles davon ab wieviel Prozent "Rohleistung" gegenüber Tahiti XT2 draufkommen. Wenn man sich hier tatsächlich nur im Bereich von +~30-40% bewegt reichen 336GB/s Bandbreite (7 Gbps @384Bit) locker aus. Tahiti hat schon Bandbreite satt, zumindest in Games. Da wird eine GPU mit +30-40% kaum an Bandbreite verhungern wenn diese "nur" um 17% steigt. Ich schätze mal das 384Bit SI würde sogar bis zu +60% Leistung reichen. Erst bei +80-100% wäre ein breiteres SI imho notwendig damit die GPU nicht zu stark durch Bandbreite limitiert wird.

Raff
2013-07-19, 16:35:46
Ordentliche Caches zügeln den Hunger nach roher Transferrate. GK110 sagt man auch immer wieder nach, dass er am GDDR-Durchsatz verhungert, die Praxis zeigt das jedoch selten (während die GK104-Karten definitiv hungern). Erst jenseits von 8x MSAA und/oder bei starker GPU-Übertaktung bringt RAM-OC auf einer Titan/780 mehr als die obligatorischen fünf Prozent.

MfG,
Raff

V2.0
2013-07-19, 16:41:50
Wann gabs von NV das letzte mal in der selben Fertigung einen echten Refresh?

680 auf 780? dort wurde nur der GK 110 verwurstelt und rest umbeannnt

480 auf 580? einfaches upgrade mit bugbereinigung und vollaktivierte Chips
280 auf 285? war ein shrink
8800 auf 9800? war anfangs ein reines umbennenen und später noch paar Shrinks dazu

NV arbeitet an Maxwell. Jetzt gibt es 2 Möglichkeiten.

a) Maxwell erscheint in 28nm
b) Maxwell erscheint in 20nm

Gehen wir davon aus, dass zumindest der Top Dog GK110 in jedem Falle schlagen wird. GM104 (wenn man ihn mal so nennen möchte) sollte ~ GTX780 Niveau erreichen - oder mehr wenn 20nm.

Ebenso für AMD

a) Hawaii in 28nm
b) Hawaii in 20nm

Daraus ergeben sich nun folgende Kombinationen.

a) Maxwell in 20nm Hawaii 28nm
Gehen wir davon aus das Hawaii größer als Tahiti ist, dann lohnt sich der Aufwand nur, wenn man Titan-Nvieau erreicht. Ansonsten dürfte der erziehlbare Verkaufspreis kaum die Kosten recxtfertigen.

b) Maxwell in 20nm Hawaii in 20nm
Hier muss die Vorgabe klar sein GK110 mit Hawaii spürbar zu schlagen.

c) Maxwell in 28nm, Hawaii in 20nm
Halte ich von der Zeitschiene her für praktisch unmöglich. Aber trotzdem muss auch hier Hawaii GK110 schlagen.

d) Maxwell in 28nm, Hawaii in 28nm
Auch hier gilt es GK110 zu schlagen, weil sonst der Maxwell Top Dog wieder zu weit weg wäre.

Ich würde von Szenario ausgehen und erwarte den Launch zum BF4 Launch mit einer Leistung 5-10% über Titan in BF4. (worauf NV ne Titan Ultra zeigen wird...)

Hübie
2013-07-19, 17:03:08
Ich nehme A ;)

aufkrawall
2013-07-19, 17:05:04
Gehen wir davon aus, dass zumindest der Top Dog GK110 in jedem Falle schlagen wird. GM104 (wenn man ihn mal so nennen möchte) sollte ~ GTX780 Niveau erreichen.

Wieso eigentlich?
Die 680 war auch schneller als die 580. Wär sie auch, wenn der Takt nicht so aufgepumpt worden wäre.

LSSJBroly
2013-07-19, 17:07:39
Ordentliche Caches zügeln den Hunger nach roher Transferrate. GK110 sagt man auch immer wieder nach, dass er am GDDR-Durchsatz verhungert, die Praxis zeigt das jedoch selten (während die GK104-Karten definitiv hungern). Erst jenseits von 8x MSAA und/oder bei starker GPU-Übertaktung bringt RAM-OC auf einer Titan/780 mehr als die obligatorischen fünf Prozent.


Wollte ich zwar auch nicht erst glauben, aber stimmt - mein Bandbreitentest (zumindest Far Cry 3: Blood-Dragon sagt das selbe dazu - weitere Games werden folgen):
http://www.hardwareluxx.de/community/f14/geforce-gtx-680-und-gtx-780-speicherbandbreitentest-934679.html

V2.0
2013-07-19, 17:15:17
Wieso eigentlich?
Die 680 war auch schneller als die 580. Wär sie auch, wenn der Takt nicht so aufgepumpt worden wäre.

Es wäre doch sehr eigenartig, wenn GM100/110 (als der Top Maxwell) nicht schneller als GK110 wäre - oder?

boxleitnerb
2013-07-19, 17:21:49
Ich denke er meint, dass GM104 schneller als Titan sein wird. Bei 20nm garantiert, bei 28nm nicht unbedingt. GM100/110 ist noch ewig weg, da können wir wohl bis 2015 warten.

Nakai
2013-07-19, 17:32:37
Also für Hawaii sind 384Bit noch locker in Ordnung, selbst Titan hat nicht mehr.

Hawaii:
2816 SPs für 4 fach Frontend (704SPs/11 CUs pro Frontend)
2880 SPs für 3 fach Frontend (960SPs/15CUs pro Frontend)

Wie kann bei GCN eigentlich skaliert werden? Müssen pro Frontend gleichviele CUs sein? Können die CUs in 1er Schritten skaliert werden(ich hab mal was von 2/4er Schritten gehört)?

Gipsel
2013-07-19, 17:42:51
Wie kann bei GCN eigentlich skaliert werden? Müssen pro Frontend gleichviele CUs sein?Das weiß keiner so genau (außer AMD). Die Beobachtung bisher ist eigentlich, daß AMD bisher nur symmetrische GPUs aufgelegt hat (gleich viele CUs in jeder Shaderengine/pro Rasterizer). Ob das zwingend so sein muß oder ob AMD das nur macht, weil bei unsymmetrischer Bestückung die zusätzlichen CUs nicht sonderlich viel bringen würden (bei Spielen, Compute wäre das vermutlich egal) weiß man nicht.
Können die CUs in 1er Schritten skaliert werden(ich hab mal was von 2/4er Schritten gehört)?Die CUs können (bei einem Rasterizer) in einer-Schritten skaliert werden. Es gibt zwar Gruppen aus (bis zu) vier CUs, aber in diesen Gruppen kann jede CU einzeln ausgeknipst werden und ungleich große Gruppen zusammenarbeiten (HD7770 hat eine Vierer- plus zwei Dreiergruppen schon im Vollausbau, HD7870 pro Rasterizer eine Vierer- plus zwei Dreiergruppen). Bei mehr als einem Rasterizer und der vielleicht immer symmetrischen Bestückung hätte man dann Zweierschritte, bei 4 Rasterizern Viererschritte und so weiter.

Nakai
2013-07-19, 18:01:45
Das weiß keiner so genau (außer AMD). Die Beobachtung bisher ist eigentlich, daß AMD bisher nur symmetrische GPUs aufgelegt hat (gleich viele CUs in jeder Shaderengine/pro Rasterizer). Ob das zwingend so sein muß oder ob AMD das nur macht, weil bei unsymmetrischer Bestückung die zusätzlichen CUs nicht sonderlich viel bringen würden (bei Spielen, Compute wäre das vermutlich egal) weiß man nicht.
Die CUs können (bei einem Rasterizer) in einer-Schritten skaliert werden. Es gibt zwar Gruppen aus (bis zu) vier CUs, aber in diesen Gruppen kann jede CU einzeln ausgeknipst werden und ungleich große Gruppen zusammenarbeiten (HD7770 hat eine Vierer- plus zwei Dreiergruppen schon im Vollausbau, HD7870 pro Rasterizer eine Vierer- plus zwei Dreiergruppen). Bei mehr als einem Rasterizer und der vielleicht immer symmetrischen Bestückung hätte man dann Zweierschritte, bei 4 Rasterizern Viererschritte und so weiter.

Mhh, oke, gibt es Effizienznachteile bei der Konfiguration und Ausknipsen der CU-Gruppen?

V2.0
2013-07-19, 18:14:21
Ich denke er meint, dass GM104 schneller als Titan sein wird. Bei 20nm garantiert, bei 28nm nicht unbedingt. GM100/110 ist noch ewig weg, da können wir wohl bis 2015 warten.

Ich sagte GM104 ~ GTX780 - erschient mir von der 770 ausgehend jetzt nicht unrealistisch.

boxleitnerb
2013-07-19, 18:24:46
Ich sagte GM104 ~ GTX780 - erschient mir von der 770 ausgehend jetzt nicht unrealistisch.

Bei 20nm sicher nicht, außer man ist extrem konservativ, was die Frequenzen angeht wegen der Yields. Die 780 ist ca. 25% flotter als die 680. Es wäre für eine verbesserte Architektur + Shrink ein Armutszeugnis, wenn man nur 25% zulegen könnte. Bei 28nm schon eher wahrscheinlich.

Skysnake
2013-07-19, 20:27:53
Es hängt alles davon ab wieviel Prozent "Rohleistung" gegenüber Tahiti XT2 draufkommen. Wenn man sich hier tatsächlich nur im Bereich von +~30-40% bewegt reichen 336GB/s Bandbreite (7 Gbps @384Bit) locker aus. Tahiti hat schon Bandbreite satt, zumindest in Games. Da wird eine GPU mit +30-40% kaum an Bandbreite verhungern wenn diese "nur" um 17% steigt. Ich schätze mal das 384Bit SI würde sogar bis zu +60% Leistung reichen. Erst bei +80-100% wäre ein breiteres SI imho notwendig damit die GPU nicht zu stark durch Bandbreite limitiert wird.
Bandbreite IST IMMER! ein großes Problem bei GPGPU, und AMD muss/will mit ihren TopDogs auch GPGPU abdecken. Ein 512Bit Interface wäre gegenüber nVidia ein großer Vorteil, auch wenn Sie durch den großen Cache das etwas ausgleichen können.

Zu viel Bandbreite hat man aber NIE!

Ordentliche Caches zügeln den Hunger nach roher Transferrate. GK110 sagt man auch immer wieder nach, dass er am GDDR-Durchsatz verhungert, die Praxis zeigt das jedoch selten (während die GK104-Karten definitiv hungern). Erst jenseits von 8x MSAA und/oder bei starker GPU-Übertaktung bringt RAM-OC auf einer Titan/780 mehr als die obligatorischen fünf Prozent.

MfG,
Raff
Richtig, aber im GPGPU hast du eigentlich immer zu wenig Bandbreite ;)

dargo
2013-07-19, 21:19:50
Bandbreite IST IMMER! ein großes Problem bei GPGPU, und AMD muss/will mit ihren TopDogs auch GPGPU abdecken. Ein 512Bit Interface wäre gegenüber nVidia ein großer Vorteil, auch wenn Sie durch den großen Cache das etwas ausgleichen können.

Zu viel Bandbreite hat man aber NIE!


Richtig, aber im GPGPU hast du eigentlich immer zu wenig Bandbreite ;)
http://ht4u.net/reviews/2013/55_directx11_grafikkarten_im_test/index31.php

Geforce Titan = 288GB/s
HD7970 = 264GB/s

PS: HD7870 = 153GB/s

aufkrawall
2013-07-19, 21:34:14
Ich denke er meint, dass GM104 schneller als Titan sein wird. Bei 20nm garantiert, bei 28nm nicht unbedingt. GM100/110 ist noch ewig weg, da können wir wohl bis 2015 warten.
Ach kacke, hab völlig den Herstellungsprozess vernachlässigt...
Ihr habt natürlich völlig recht.

Hübie
2013-07-19, 23:23:12
http://ht4u.net/reviews/2013/55_directx11_grafikkarten_im_test/index31.php

Geforce Titan = 288GB/s
HD7970 = 264GB/s

PS: HD7870 = 153GB/s

192 GB/s (Tahiti LE - 180€!). Fixed this.

Knuddelbearli
2013-07-19, 23:25:45
ach deaktiviertes 512Bit SI gabs doch schonmal hinunter bis 140€

dargo
2013-07-19, 23:27:28
192 GB/s (Tahiti LE - 180€!). Fixed this.
Blödsinn.

Im Testparcour handelt es sich dabei um Pitcairn und nicht Tahiti LE.
http://ht4u.net/reviews/2013/55_directx11_grafikkarten_im_test/index2.php

Hübie
2013-07-19, 23:27:39
GT200? Da mussten die auch zusehen dass alles verwertet wird ;D

@dargo: Ja im Test. Aber wer kauft sich denn ne Pitcairn XT wenn er Tahiti LE für den Preis bekommt? :|

dargo
2013-07-19, 23:31:39
@dargo: Ja im Test. Aber wer kauft sich denn ne Pitcairn XT wenn er Tahiti LE für den Preis bekommt? :|
Lese nochmal das was ich von Skysnake zitiert habe und verstehe den Zusammenhang. Nur mal so als Tipp... der Preis ist dabei völlig irrelevant.

Skysnake
2013-07-20, 20:43:55
http://ht4u.net/reviews/2013/55_directx11_grafikkarten_im_test/index31.php

Geforce Titan = 288GB/s
HD7970 = 264GB/s

PS: HD7870 = 153GB/s
Und wer redet von Tahiti vs GK110 außer dir?

Lese nochmal das was ich von Skysnake zitiert habe und verstehe den Zusammenhang. Nur mal so als Tipp... der Preis ist dabei völlig irrelevant.
Les du eher nochmal, was ich geschrieben habe


andbreite IST IMMER! ein großes Problem bei GPGPU, und AMD muss/will mit ihren TopDogs auch GPGPU abdecken. Ein 512Bit Interface wäre gegenüber nVidia ein großer Vorteil, auch wenn Sie durch den großen Cache das etwas ausgleichen können.

Zu viel Bandbreite hat man aber NIE!

Wir sind hier im VI Thread, und reden gerade darüber, ob ein 512 Bit Interface Sinn machen würde oder nicht. Wie kommst du da drauf, das ich von Tahiti <-> GK110 rede?

Ich rede von Haiti/VI <-> GK110, und da kann man davon ausgehen, das GK110 eben mehr L2 Cache hat, wenn AMD bei ihrer aktuellen Aufteilung bleibt (zumindest wenn ich es richtig im Kopf habe).

Und genau dieser größere L2 würde GK110 mit seinen 384 Bit eben auch gegen Hawai/VI helfen, selbst wenn dieser den schnelleren RAM an einem 384 Bit Interface hat.

Vor allem sollte man eines bedenken. Die S10000 tritt gegen Titan an, und hat ein 2x384 Bit Interface. Klar, man könnte da auch noch schnelleren RAM verbauen, aber ein 512 Bit Interface an SGPU als NAchfolger wäre durchaus denkbar, wobei man dann auch einen kleinen SChritt zurück gehen würde bei der Gesamtbandbreite, aber ok, durch größere Caches könnte man das ausgleichen, und eben mit SGPU wieder werben. Alternativ muss man halt in den sauren Apfel beisen, und 2x512 Bit bringen. Das wäre aber ein richtiges Monster, was nVidia ziemlich alt aussehen lassen würde...

512Bit sind sicherlich nicht sinnlos, aber eben sehr teuer, und da seh ich eher ein Problem. Will man wirklich den Aufwand betreiben oder nicht? Eventuell sind da Interposerlösungen/MCM (eDRAM-Lösung) schön "günstiger" zu haben.

Duplex
2013-07-22, 23:18:42
http://gpuboss.com/graphics-card/Radeon-HD-9970

http://abload.de/img/unbenanntdkb3w9cuuc.png

Gipsel
2013-07-22, 23:22:45
Schrott. Paßt nicht zusammen.

Duplex
2013-07-22, 23:27:22
4096 Shader sind sowieso Bullshit.

Skysnake
2013-07-22, 23:57:50
Schrott. Paßt nicht zusammen.
/sign

Das sieht absolut an den Haaren herbeigezoen aus.

boxleitnerb
2013-07-23, 00:03:51
Das sind einfach die Specs, die vor ein paar Monaten zusammen mit dem Opteron-APU-Bild auftauchten.

dargo
2013-07-23, 09:02:51
http://gpuboss.com/graphics-card/Radeon-HD-9970

http://abload.de/img/unbenanntdkb3w9cuuc.png
Lustig finde ich vor allem die Bandbreite an einem 512Bit SI wo 384Bit @1600Mhz GDDR5 für den gleichen Durchsatz reichen würden. :tongue:

Leonidas
2013-07-24, 11:25:07
Das ist sowieso eine Rätselrateseite, die nur das optisch hübsch aufbereitet. Aber keine eigenen Infos in der Hinterhand.

Hübie
2013-07-24, 19:15:33
Das sieht aber schon eher nach gewürfelt aus denn so mies kann man ja nicht mal raten... :facepalm:

john carmack
2013-07-24, 19:46:21
Das sieht aber schon eher nach gewürfelt aus denn so mies kann man ja nicht mal raten... :facepalm:

:D


zu den News:
Das VI max. 780 Niveau erreicht glaube ich auch nicht.
Die Leistung einer Titan bzw "Titan Ultra" scheint mir eher richtig.

Und wenn die Gerüchte stimmen, finde ich es gut das AMD ein neues NamesSchema einführen will. :)

Hübie
2013-07-24, 20:02:03
Also ich würde mal sagen dass die Perf/W nicht an Titan rankommt. Performancetechnisch sollte es für die 780 reichen. Je nachdem wieviel ALUs nun drin sind und vor allem welcher Takt dann eben anliegt.
Bei der GTX 770 sieht man ja dass diese an der "Kotzgrenze" (Zitat von Raff) arbeitet während die 780 noch jede Menge Luft hat. Macht man das bei der Radeon wie bei GK110 fällt man ja im schlimmsten Fall sogar unter die 780.
Ich finde Gipsels Idee mit Pitcairn*2 immer noch am ansehnlichsten. Ich habe aber leider niemanden in Richtung AMD den ich ausquetschen könnte ;D

boxleitnerb
2013-07-25, 11:51:11
Dass man die 780 schlägt, halte ich für garantiert. Ausgehend von Pitcairn oder Bonaire ist der Abstand bei der Effizienz nicht groß. Ausgehend von Tahiti hingegen mit 25% deutlich. Ist die Frage, was AMD macht.

Raff
2013-07-25, 12:15:41
Die GTX 780 ist doch Kindergarten, um die zu schlagen würde es reichen, eine "HD 7980" mit 1.250/3.500 MHz herauszubringen. Tahiti "XT3" plus 7-Gbps-GDDR5? Die Sapphire Toxic (1.200/3.200 MHz) schafft es jedenfalls nicht durchgängig. :ugly:

MfG,
Raff

Duplex
2013-07-25, 16:01:43
Doch 2880 SP (oder noch mehr???) für den top dog? Schlagt mich, wenn ich mich zu sehr auf den Typ beziehe, aber ich finds interessant :D

http://forums.anandtech.com/showpost.php?p=35281067&postcount=206

Die zweitschnellste SKU scheint 2560 SP zu haben. Vielleicht muss Nvidia wirklich noch ne Titan Ultra nachschieben...
Schön wärs, dann könnte man schneller als die Konkurrenz werden.

Interessant wäre mal ob AMD eine GPU in SOI bei GF in 28nm fertigt,
dann könnte man durch 30% Flächenvorteil gegenüber TSMC locker 3072 Einheiten erwarten.

Bei TSMC erwarte ich max. 2560 Einheiten, Gispel hatte mal eine tolle Übersicht mit Beispielen, 30% mehr Performance durch Quad Frontend, 512 Bit SI, 2560 SPs, 4GB, das sollte auch reichen.

Wenn man bei GF fertigt, dann natürlich den Vorteil der Fläche ausnutzen und soviele Einheiten wie es geht verbauen.

Bei TSMC wäre ein 3072 Shader Chip mit Frontend Verbesserungen ca. 500mm² groß, von daher glaube ich bei TSMC an max. 2560 Shader.

Wenn die Konsolen Chips bei TSMC produziert werden, dann bekommt AMD von GF nur Kaveri Wafer in 28nm SOI, mal sehen vielleicht wird das noch was...

Raff
2013-07-25, 16:03:01
Woher kommt die Info, dass GloFo so viel kleiner fertigen kann als TSMC?

MfG,
Raff

Duplex
2013-07-25, 16:06:18
Woher kommt die Info, dass GloFo so viel kleiner fertigen kann als TSMC?
Gatelast vs. Gatefirst.
Die Info hab ich von "S940".

Locuza
2013-07-25, 16:06:35
Woher kommt die Info, dass GloFo so viel kleiner fertigen kann als TSMC?

MfG,
Raff
Da gab's glaub mal die Behauptung das GloFo dank Gate-First einiges bei der Fläche einsparen kann.
Was ich am Ende nicht glauben will, Kaveris die-shot wird sicher als brauchbarer Vergleichsmaßstab dienen können.

Duplex
2013-07-25, 16:09:05
Vielleicht werden die Konsolenchips bei TSMC & GF produziert, dann hat man ein Vergleich von GF & GL und kann ausmessen welcher Chip kleiner ist.
TSMC produziert 28nm HP seit 2011, denke nicht das GF den zuschlag für die Konsolenchips bekommt, TSMC hat viel mehr Erfahrung!

Locuza
2013-07-25, 16:32:29
Nun erst einmal könnte AMD auch unabhängig von der Fertigung die Packungsdichte erhöht haben, weswegen man das wohl nie so ganz genau sagen kann ob es am besseren Layout liegt oder nur allein von der Fertigung oder man zieht pauschal paar % ab.
Wenn es wirklich 30% wären, dann müsste das ja sowieso sofort ersichtlich sein.
Und eine Duale-Schiene bei Konsolen-Chips würde ich bezweifeln wollen.

TSMC wäre von der Umsetzung sicher der Favorit, aber da rennt ja praktisch jeder hin, ob TSMC überhaupt die Kapazitäten für alles hätte?

Duplex
2013-07-25, 16:39:42
*.*

john carmack
2013-07-25, 17:40:41
TSMC beginnt ende des Jahres mit der 20nm Massenfertigung für Apple, wer will in 1 Jahr noch 28nm HP Chips fertigen (außer Konsolenchips), ich denke das Nvidia dann für Broadwell Notebooks 20nm Diskrete Karten zur Verfügung stellen wird, so werden die Kapazitäten kleiner.


- auch Konolenchips schrumpfen - auch wenn die Leistung gleich bleibt!
- Intel´s Chipsatz (Auch wenn Intel selbst fertigt) bis zur 7er Serie ist noch in 65nm
- Texas Instruments und konsorten lassen auch noch in 45nm fertigen...

boxleitnerb
2013-07-25, 17:45:32
Die GTX 780 ist doch Kindergarten, um die zu schlagen würde es reichen, eine "HD 7980" mit 1.250/3.500 MHz herauszubringen. Tahiti "XT3" plus 7-Gbps-GDDR5? Die Sapphire Toxic (1.200/3.200 MHz) schafft es jedenfalls nicht durchgängig. :ugly:

MfG,
Raff

Bei 100W mehr Verbrauch sicher :tongue:

Skysnake
2013-07-25, 20:12:27
- auch Konolenchips schrumpfen - auch wenn die Leistung gleich bleibt!
- Intel´s Chipsatz (Auch wenn Intel selbst fertigt) bis zur 7er Serie ist noch in 65nm
- Texas Instruments und konsorten lassen auch noch in 45nm fertigen...
Es wird sogar noch im 100+nm Bereich viel gefertigt :freak:

fondness
2013-07-26, 10:37:14
Offiziell: Battlefield 4 unterstützt DirectX 11.1
http://www.computerbase.de/news/2013-07/offiziell-battlefield-4-unterstuetzt-directx-11.1/

Schön langsam wird auch immer klarer warum man die VI-Generation mit Battlefield 4 bringt.

M4xw0lf
2013-07-26, 10:45:16
Dann sollte es doch eher gleich DX11.2 unterstützen ;)
11.1 kann Southern Islands ja schon.

fondness
2013-07-26, 10:46:25
Dann sollte es doch eher gleich DX11.2 unterstützen ;)
11.1 kann Southern Islands ja schon.

Jede DX11.1-fähige GPU kann DX11.2, also auch SI. ;)

V2.0
2013-07-26, 10:50:49
Offiziell: Battlefield 4 unterstützt DirectX 11.1
http://www.computerbase.de/news/2013-07/offiziell-battlefield-4-unterstuetzt-directx-11.1/

Schön langsam wird auch immer klarer warum man die VI-Generation mit Battlefield 4 bringt.

Es zeigt eher warum man für alle Next Gen Spiele eine aktuelle AMD GPU braucht.

dargo
2013-07-26, 10:54:31
Von "brauchen" kann keine Rede sein. BF4 wird auch auf NV laufen. ;) Wie gut im Vergleich werden wir dann sehen wenn es soweit ist.

M4xw0lf
2013-07-26, 11:17:28
Jede DX11.1-fähige GPU kann DX11.2, also auch SI. ;)

Das unterstützt dann ja erst recht mein Argument, dass man dafür kein VI bräuchte :tongue:

john carmack
2013-07-26, 13:18:37
Was haltet ihr für Volcanic Islands am wahrscheinlichsten was die Bandbreite (SI) im Bezug zur Stromaufnahme angeht?

Zur Auswahl stehen:
28nm GPU / 20nm GPU
384Bit SI / 512Bit SI
6-Gbps-GDDR5 / 7-Gbps-GDDR5

Ich weiß ja nicht wie sich 7-Gbps-GDDR5 Speicher auf einen Mehrverbrauch von Strom auswirkt, aber welche Karte haltet ihr für realistischer:

A) 28nm GPU / 384Bit SI / 7-Gbps-GDDR5 (336GB/s)
B) 28nm GPU / 512Bit SI / 6-Gbps-GDDR5 (384GB/s)


A) Tahiti = 264GB/s --> Hawaii = 336GB/s
Empfinde ich erst mal als eine gute Steigerrung an, aber müsste man das das Perf/Watt Verhältniss der GPU nicht stark verbessern um mit dem Stromhunger nicht zu hoch zu treiben wenn man 7-Gbps-GDDR5 verwendet?


Ich rede jetzt hier erst mal über einen 28nm Chip.
20nm @ 512Bit SI halte ich für übertrieben...

prinz_valium
2013-07-26, 13:36:47
ich stimme für A

dargo
2013-07-26, 22:34:44
Wie groß sind die Chancen, dass Samsung demnächst 8Gbps GDDR5 Chips liefern kann?
http://www.samsung.com/global/business/semiconductor/file/product/graphic_product_guide_nov_12-0.pdf

In der PDF ist der zumindest aufgeführt.

OBrian
2013-07-26, 23:37:45
Wenn man mit 384 bit SI auskommt, wird man definitiv dabei bleiben. Die Platine ist billiger und einfacher. Und wenn man eine schwächere Version auflegen will, muß man nicht z.B. von 512 auf 448 runter mit dann krummer Speichermenge und den üblichen zusätzlichen Problemen bei der Treiberprogrammierung (kann mir keiner sagen, daß es kein zusätzlicher Aufwand wäre), sondern verbaut einfach langsameren RAM und fertig.

Für GPGPU wäre es sicher nett, ein wahnsinnig breites Interface zu haben, aber AMD ist da sowieso bereits vor Nvidia, also unnötig. Cache kann auch einiges abfangen von dem Bandbreitenbedarf.

Wie es in der 20-nm-Generation aussehen wird, ist ein anderes Thema. Möglicherweise strickt Nvidia die Architektur wieder so um, daß deutlich mehr GPGPU-Power dabei rausspringt, Kepler war ja absichtlich (wg. Energieeffizienz) relativ schwachbrüstig in der Hinsicht.

Für die 20-nm-Karten könnte man sich auch vorstellen, daß es dann mit GDDR6 losgeht, das bringt mehr Takt, mehr Bandbreite, und ggf. gibt es auch stacked dies für größere Speicherkapazität, dann kann man mit den aktuellen Bitbreiten noch lange auskommen.

john carmack
2013-07-26, 23:38:16
mit den Chips würde die Karte ja noch mehr strom aus der steckdose ziehen...
Tahiti läuft ja jetzt schon recht heiß.

AMD muss bei (Hawaii) einem 384Bit SI und 28nm Fertigung jedenfalls runter mit dem Stromhunger der GPU wenn man 7 Gbps oder 8 Gbps Chips einsetzen will...

john carmack
2013-07-26, 23:42:34
Wenn man mit 384 bit SI auskommt, wird man definitiv dabei bleiben. Die Platine ist billiger und einfacher. Und wenn man eine schwächere Version auflegen will, muß man nicht z.B. von 512 auf 448 runter mit dann krummer Speichermenge und den üblichen zusätzlichen Problemen bei der Treiberprogrammierung (kann mir keiner sagen, daß es kein zusätzlicher Aufwand wäre), sondern verbaut einfach langsameren RAM und fertig.

Für GPGPU wäre es sicher nett, ein wahnsinnig breites Interface zu haben, aber AMD ist da sowieso bereits vor Nvidia, also unnötig. Cache kann auch einiges abfangen von dem Bandbreitenbedarf.

Wie es in der 20-nm-Generation aussehen wird, ist ein anderes Thema. Möglicherweise strickt Nvidia die Architektur wieder so um, daß deutlich mehr GPGPU-Power dabei rausspringt, Kepler war ja absichtlich (wg. Energieeffizienz) relativ schwachbrüstig in der Hinsicht.

Für die 20-nm-Karten könnte man sich auch vorstellen, daß es dann mit GDDR6 losgeht, das bringt mehr Takt, mehr Bandbreite, und ggf. gibt es auch stacked dies für größere Speicherkapazität, dann kann man mit den aktuellen Bitbreiten noch lange auskommen.


hab gelesen das GDDR6 schon 2014 kommt und etwa das doppelte an Frequenz (in der letzten Ausbaustufe) vertragen soll.
Laufzeit von GDDR6 bis etwa 2020...

Aber 2014/2015 sollen ja auch HybridMemoryCubes kommen. Dagegen ist auch GDDR6 zu schwachbrüstig, also abwarten!

mironicus
2013-08-01, 19:42:06
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/27341-finale-daten-der-amd-hd-9970.html

boxleitnerb
2013-08-01, 19:44:07
Bullshit. Und alt (und schon damals Unsinn):
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/26275-amd-volcanic-island-als-teil-von-sea-island-mit-4096-stream-prozessoren.html

mironicus
2013-08-01, 20:03:19
Wieso Bullshit? AMD war schon immer "Erster" bei der Einführung eines neuen Fertigungsprozesses bei GPUs. Weitere Grafikkarten in 28 nm rauszubringen wäre Unsinn, damit können sie die GTX 780/Titan nicht schlagen.

boxleitnerb
2013-08-01, 20:05:21
Weil 20nm noch nicht bereit ist (Massenfertigung startet erst in einem Jahr ca.) und weil überhaupt keine Quelle angegeben ist und weil die Specs von den monatealten (ebenfalls unbelegten) Spekus 1:1 abgeschrieben sind. Muss man mehr sagen?

S940
2013-08-01, 20:47:12
Häh? Das GPUBoss-Dingends hatte Gipsel doch schon vor ein paar Wochen verrissen, wieso bringt Luxx *jetzt* ne Meldung dazu?

Nakai
2013-08-01, 21:18:33
Häh? Das GPUBoss-Dingends hatte Gipsel doch schon vor ein paar Wochen verrissen, wieso bringt Luxx *jetzt* ne Meldung dazu?

Klicks -> Geld


Bei AMD sehe ich derzeit das letzte Aufbäumen. Ich könnte mir schon vorstellen, dass wir einen ziemlich großen Chip sehen. In einem halben Jahr kommt dann die restliche Serie.

Blediator16
2013-08-01, 21:32:52
Klicks -> Geld


Bei AMD sehe ich derzeit das letzte Aufbäumen. Ich könnte mir schon vorstellen, dass wir einen ziemlich großen Chip sehen. In einem halben Jahr kommt dann die restliche Serie.

Diesesmal gehen sie wirklich pleite?

Nakai
2013-08-01, 21:42:51
Ich denke der neue CEO hat verstanden, dass ohne Investitionen nichts von statten geht. Ich sehe aber derzeit kaum Besserung. Keiner hat Lust AMD-Zeug zu verkaufen. Kabini(welcher verdammt geil ist), wird kaum abgenommen. Richland ist nur eine Zwischenlösung. Kaveri hat Verspätung. AMDs Grafiksegment ist zwar mindestens ebenbürtig zu NV(imo sogar überlegen), aber wird trotzdem nicht gekauft. Ich weiß nicht, was da los ist, aber niemand kauft oder verkauft AMD, nichtmal die Privatkunden, was ich nicht verstehen kann.:freak:

Und Besserung sehe ich so schnell nicht...

john carmack
2013-08-01, 22:07:21
Wieso Bullshit? AMD war schon immer "Erster" bei der Einführung eines neuen Fertigungsprozesses bei GPUs. Weitere Grafikkarten in 28 nm rauszubringen wäre Unsinn, damit können sie die GTX 780/Titan nicht schlagen.

Hab grad an einen (20nm) PaperLaunch ende Oktober gedacht, das passt dann aber nicht zum BF4 release...
Es sei denn, es gibt von AMD so eine Art BF4 Gutschein...
Man kann es natürlich auch so sehen das sich BF4 um 1-2 Monate verspätet, wäre ja nicht das erste mal das ein Spiele-Release-Termin nach hinten verschoben wird.


Weil 20nm noch nicht bereit ist (Massenfertigung startet erst in einem Jahr ca.) und weil überhaupt keine Quelle angegeben ist und weil die Specs von den monatealten (ebenfalls unbelegten) Spekus 1:1 abgeschrieben sind. Muss man mehr sagen?

TSMC fertigt noch dieses Jahr 20nm A8 Chips für Apple!
(Ich weiß ja nicht ob Apple immer so produzieren lässt, würde aber erklären warum neue Apple Produkte in den letzten Jahren zum Release praktisch kaum verfügbar sind.)
TSMC selbst sagt auch das 20nm Massenfertigung anfang 2014 startet und nicht erst im Q3.

http://www.digitimes.com/news/a20130624PD207.html
"TSMC will start to manufacture Apple's A8 chips in small volume in July 2013, and substantially ramp up its 20nm production capacity after December."

Ende 2013 noch einen 28nm Chip zu bringen würde sich wirklich nicht lohnen, sollte TSMC recht behalten.
Gerüchte sagen ja auch das AMD bei GloFo produzieren lässt...

Aber ich glaube das alles hatten wir hier schon ein paar mal besprochen.



http://gpuboss.com/graphics-card/Radeon-HD-9970
memory
Memory clock speed 1,250 MHz
Effective memory clock speed 5,000 MHz
Memory bus 512 bit
Memory 4,096 MB
Memory type GDDR5
Memory bandwidth 307 GB/s

Rechne ich jetzt falsch oder können GPUBOSS nicht rechnen? :freak:

Angiesan
2013-08-01, 22:07:29
Das wurde ja schon oft geschrieben, das AMD pleite geht, eigentlich sind sie das ja schon seit Jahren und hängen am Tropf ;-)

Aber das GPU Segment wird sicherlich nicht aufgelöst selbst wenn der Konzern zerschlagen werden sollte und abgewickelt wird, da stehen so Unternehmen wie Intel und Apple schon in den Startlöchern um das aufzufangen und um sich das einzuverleiben :)

john carmack
2013-08-01, 22:48:50
Auch wenn es ein paar von euch nicht mehr hören wollen...
(Ich selbst glaube ja auch nicht so recht an 20nm dieses Jahr)

TSMC ist schon dieses Jahr in der Lage 20nm zu produzieren.
Massenproduktion startet erst wenn die größere Zweite Fab (Fab14) mit 300mm Wafer - 20nm Technologie steht und welche im Frühjahr 2014 mit der Volumenproduktion beginnen soll.

Fragt sich nur welche Konzerne sich die Kapazitäten der kleineren Ersten Fab (Fab12) teilen?
Einer davon ist dann wohl sicher Apple.

Googlet einfach mal nach Fab14 und 20nm...

boxleitnerb
2013-08-01, 22:50:49
Klar ist man in der Lage, aber die Frage ist doch:
Wieviel kann man produzieren und zu welchen Yields (gerade bei großen GPUs)?
Wenn Apple sich echt fast alles aufgekauft hat an Kapazität zu Beginn, sieht es erst Recht nicht so toll aus.

horn 12
2013-08-01, 23:39:31
Dennoch alles andere wäre Schwachsinn und hätte AMD schon früher gekontert, geringe +20%
sind sicherlich schon früher möglich gewesen.

Rechne auch auf 20nm und AMD war bei den Verfahren schon immer Spitzenreiter und dann auch nicht soo schlecht Performancemässig unterwegs gewesen.

boxleitnerb
2013-08-01, 23:46:44
AMD hat noch nie vor Beginn der Massenfertigung gelauncht, soweit ich mich erinnere. Außerdem können es ja auch 35% sein.

Duplex
2013-08-01, 23:59:52
Ich könnte mir schon vorstellen, dass wir einen ziemlich großen Chip sehen.
Bei 450mm² DIE Space, Quad Frontend mit 48/64 Rops & 40 CUs könnte man bereits etwas schneller als Titan werden oder gleichziehen, dafür braucht es kein ziemlich großen Chip. Wenn das Frontend nicht großartig geändert wird und man trotzdem die Krone will, dann braucht man einen größeren Chip mit 48 CUs.
---
Was spricht gegen Quad Frontend? Das wäre eig. sinnvoll damit die CUs besser skalieren.

Screemer
2013-08-02, 00:01:01
@boxleitnerb naja massenfertigung und verfügbarkeit gehen dann wohl nicht miteinander hand in hand. ich erinnere nur an den desaströsen start der hd5 serie.

Nakai
2013-08-02, 00:05:49
Bei 450mm² DIE Space, Quad Frontend mit 48/64 Rops & 40 CUs könnte man bereits etwas schneller als Titan werden oder gleichziehen, dafür braucht es kein ziemlich großen Chip. Wenn das Frontend nicht großartig geändert wird und man trotzdem die Krone will, dann braucht man einen größeren Chip mit 48 CUs.
---
Was spricht gegen Quad Frontend? Das wäre eig. sinnvoll damit die CUs besser skalieren.

Ich gehe von mindestens Triple-Frontend aus. Eher Quad, weil es wohl etwas leichter zum implementieren sein könnte. Auch wird es irgendwas zwischen 40 und 48CUs sein. Wird es ein reiner Gamingchip, dann mehr SPs, wegen reduziertem DP.

So oder so...es wurde alles eh schon durchgekaut. Man kommt in die Schlagreichweite von Titan, evtl sogar drüber. Mal guckn was NV dagegen bringt.

boxleitnerb
2013-08-02, 00:06:13
Die Massenfertigung von 40nm bei TSMC wurde Ende November 2008 gemeldet, fast ein Jahr vor Start der HD5000-Serie. Die erste 40 nm-Karte, die HD4770, kam Ende April 2009, 5 Monate danach.

Duplex
2013-08-02, 00:11:02
So oder so...es wurde alles eh schon durchgekaut. Man kommt in die Schlagreichweite von Titan, evtl sogar drüber. Mal guckn was NV dagegen bringt.
Titan Performance bei 500 € wäre nicht schlecht, ich denke das Nvidia dann den Vollausbau von GK110 nachschieben wird, eine GTX780+ mit 2688 Shader wäre auch möglich.

boxleitnerb
2013-08-02, 00:14:11
Ist die Frage, ob sich das zeitlich lohnt. Wie lange dauert es, sowas auf die Beine zu stellen? Validierung, Verschicken der GPUs, Verpacken, Ausliefern. Bis das alles durch ist, gibts evtl. 2 Monate später schon Maxwell, in welcher Form auch immer. Und auch müsste man fragen, ob Nvidia überhaupt antworten wollte. Bei der 7970 GE hat man das auch nicht getan bzw. erst ein Jahr später mit der GTX 770. Nvidia müsste das schon frühzeitig entschieden haben eigentlich, wenn es zeitnah zum Volcanic Islands-Launch passieren soll. Es gibt außerdem schon Custom-Karten, die knapp schneller sind als Titan@max PT/TT, z.B. die Palit Super Jetstream. Die ist fast 40% flotter als die 7970 GE, da sehe ich nicht wirklich großartigen Druck bei NV.

Duplex
2013-08-02, 00:23:14
Ich glaube das wäre nicht aufwendig für Nvidia, nimm den Chip der Titan und setze den in der GTX780 ein, dann muss nur noch bei Titan der Vollausbau mit 2880 Shader eingesetzt werden, die Sammeln vermutlich schon seit 6 Monaten solche DIEs. Ich könnte mir auch eine GTX790 mit Single Chip vorstellen.

boxleitnerb
2013-08-02, 00:27:35
Es muss trotzdem einen Prozess durchlaufen, und das kostet alles seine Zeit. Nvidia wird nicht gern die vollen GK110-Dies statt für ein paar Tausender für einen Tausender verscherbeln. Titan war wenigstens noch die schnellste Karte mit gutem Abstand - wenn die 9970 oder wie sie heißt, sehr nah liegen würde an dem 2880-GK110, ist die Frage, ob man überhaupt nochmal 1000 Euro verlangen kann.

Duplex
2013-08-02, 00:29:51
Ich denke AMD wird max. 500 € verlangen, die GTX680 hat man trotz höheren Preises besser als die 7970 verkaufen können, AMD wird nicht teurer als Nvidia sein, Geforce wird fast immer vorgezogen.

boxleitnerb
2013-08-02, 00:38:46
Von teurer als NV war ja nicht die Rede. Ich meine nur, es ist nicht garantiert, dass von NV ein Konter kommt. Die haben es 9 Monate ertragen, nicht den längsten zu haben, warum also nicht auch bis zu Maxwell? :D

Duplex
2013-08-02, 00:41:20
Hast recht, die haben es nicht nötig.
Durchschnittlich erwarte ich auch nur 20% mehr Speed als die 7970 Ghz, es ist ja nur ein 28nm Refresh und AMD/ATI ist nicht bekannt dafür größere DIEs zu bauen, wobei der 28nm HP Prozess sehr gut laufen sollte und die Kosten nicht mehr wie Anfangs sehr hoch ausfallen sollten, naja, lassen wir uns überraschen. g8.

HarryHirsch
2013-08-02, 01:22:58
Klicks -> Geld


Bei AMD sehe ich derzeit das letzte Aufbäumen. Ich könnte mir schon vorstellen, dass wir einen ziemlich großen Chip sehen. In einem halben Jahr kommt dann die restliche Serie.

Wozu? Um NV zu schlagen reicht ein Minichip im Vergleich. Tahiti ist inzwischen 1,5 Jahre alt...

V2.0
2013-08-02, 07:03:10
Ich erwarte 20nm und einen Chip der Titan spürbar schlägt.

Nakai
2013-08-02, 11:52:00
Es muss trotzdem einen Prozess durchlaufen, und das kostet alles seine Zeit. Nvidia wird nicht gern die vollen GK110-Dies statt für ein paar Tausender für einen Tausender verscherbeln. Titan war wenigstens noch die schnellste Karte mit gutem Abstand - wenn die 9970 oder wie sie heißt, sehr nah liegen würde an dem 2880-GK110, ist die Frage, ob man überhaupt nochmal 1000 Euro verlangen kann.

Natürlich, jedoch gehe ich davon aus, dass dieser Prozess bereits durchlaufen ist.

Wozu? Um NV zu schlagen reicht ein Minichip im Vergleich. Tahiti ist inzwischen 1,5 Jahre alt...

Du hast schon nicht unrecht...

Man sollte auch sehen, dass 20nm eigentlich schon vor der Tür steht. Dementsprechend kann ich mir nicht vorstellen, dass ein Übermächtiger Chip daherkommt. Das macht einfach keinen Sinn. AMD hat eh noch Reserven beim 28nm. Mit ~400mm² könnte man schon Titanniveau erreichen, vor allem, weil man mit Tahiti nicht mal die höchste Packdichte und sogar noch DP besitzt. Ist Hawaii ein reiner Gamingchip mit hoher Packdichte, wird man nicht soviel über Tahiti liegen, von der Diesize.

Raff
2013-08-02, 11:56:24
Die ist fast 40% flotter als die 7970 GE, da sehe ich nicht wirklich großartigen Druck bei NV.

Naja, das ist der Bestfall, im Mittel sehe ich bei hoher Pixellast höchstens 30 Prozent.

MfG,
Raff

boxleitnerb
2013-08-02, 12:12:06
Naja, das ist der Bestfall, im Mittel sehe ich bei hoher Pixellast höchstens 30 Prozent.

MfG,
Raff

Schau dir die Tests an. Computerbase hat 47% gemessen, da darfst ca. 10% wegen dem eher einseitigen Parcour abziehen. Und wir wollen ja auch in spielbaren Regionen bleiben, da kannst mit einer Karte 5760x1080 oder 4K vergessen. Daher gilt es immer, die fps-Werte mitzubetrachten. z.B. eure 4K-Tests beim Titan-Artikel fand ich total nutzlos, weil das nicht praxisnah ist. Aber bei den Temperaturen war Praxisnähe dann wichtig...also entweder, oder :tongue:

john carmack
2013-08-02, 19:29:52
Schau dir die Tests an. Computerbase hat 47% gemessen, da darfst ca. 10% wegen dem eher einseitigen Parcour abziehen. Und wir wollen ja auch in spielbaren Regionen bleiben, da kannst mit einer Karte 5760x1080 oder 4K vergessen. Daher gilt es immer, die fps-Werte mitzubetrachten. z.B. eure 4K-Tests beim Titan-Artikel fand ich total nutzlos, weil das nicht praxisnah ist. Aber bei den Temperaturen war Praxisnähe dann wichtig...also entweder, oder :tongue:


Dieser Typ bei Computerbase (nennen wir ihn mal W.A.) ist sowieso eher Nvidia zugeneit als AMD!
Auch wenn er es nicht zugibt, AMD kommt in den Tests bei CB nie wirklich gut weg...

boxleitnerb
2013-08-02, 19:48:15
Das würde ich nicht so sagen. Für so einen kurzen Test einer Partnerkarte kannst du nicht zu viele Spiele nehmen - das macht es natürlich schwieriger, einen "ausgewogenen" Parcour aufzustellen. Lustigerweise sind 3 der 5 Titel im Gaming Evolved Programm. Hier muss man auch fragen dürfen, was ausgewogen überhaupt bedeutet. Geht man nach Aktualität, Popularität oder versucht krampfhaft 50% auf AMD und 50% auf NV gut laufende Titel reinzupacken?

samm
2013-08-02, 22:43:11
Ich erwarte 20nm und einen Chip der Titan spürbar schlägt.Würde mich ja überraschen. Wäre aber schön, dann würde dessen Refresh wieder ein merklicheres Upgrade zur 7970 sein, wodurch ich mit dem Titan-Nachfolger wieder zwischen zwei spanndenden GPUs auswählen kann :)

Geht man nach Aktualität, Popularität oder versucht krampfhaft 50% auf AMD und 50% auf NV gut laufende Titel reinzupacken?Ersteres ist klar sinnvoller. Dazu aber am besten noch auf die DX-Version kucken und mindestens ein OpenGL und ein unbekanntes Indie-Game dazu, um mehr Situationen zu testen. *wunschdenk*

aufkrawall
2013-08-02, 22:48:26
und mindestens ein OpenGL und ein unbekanntes Indie-Game dazu, um mehr Situationen zu testen. *wunschdenk*
Macht das wirklich Sinn?
OpenGL ist für Spiele ziemlich tot und das Indie-Zeug braucht so gut wie überhaupt keine Leistung.

samm
2013-08-02, 23:02:52
OpenGL ist nicht tot, zumindest sehe ich mit Kickstarter- und anderen Crossplatform-Spielen gar nicht so schwarz dafür. Und vielleicht kommt auch id nochmal aus der Versenkung? Immerhin kann OGL mit den aktuellen Specs featuremässig wieder gut mit DX mithalten.

Auch Indiedinge können gut Leistung gebrauchen, gerade wenn sie schlecht optimiert sind - aber mir geht es mehr um Probleme, die abseits von Mainstreamtiteln auftreten könnten und deswegen fände ich sowas in Tests sinvoll :)

aufkrawall
2013-08-02, 23:07:33
OpenGL ist nicht tot, zumindest sehe ich mit Kickstarter- und anderen Crossplatform-Spielen gar nicht so schwarz dafür.

Das können auch gut portierbare Projekte sein, ohne auf Windows dafür OGL zu nutzen.


Und vielleicht kommt auch id nochmal aus der Versenkung?

Ne, Carmack hat gesagt, dass DX auf Windows mittlerweile besser sei.


aber mir geht es mehr um Probleme, die abseits von Mainstreamtiteln auftreten könnten und deswegen fände ich sowas in Tests sinvoll :)
So was zu testen braucht aber Zeit, damit es wirklich aussagekräftig ist.
Einmal zwei Stunden anschmeißen und sagen: "läuft", fände ich uninteressant. Und wenn man da auch nur einen Titel testet, ist die Aussagekraft schon gleich wieder sehr gering.

samm
2013-08-03, 00:43:36
Lieber einer als gar keinen, fände es immer noch aussagekräfter als wenn immer nur Crysis Teil X, Dirt Teil Y und Metro 1234 getestet werden *shrug* Und hm, hat auch eher weniger mit Volcanic Islands zu tun.

MechWOLLIer
2013-08-03, 00:52:41
Dieser Typ bei Computerbase (nennen wir ihn mal W.A.) ist sowieso eher Nvidia zugeneit als AMD!
Auch wenn er es nicht zugibt, AMD kommt in den Tests bei CB nie wirklich gut weg...
Nenn mich ruhig beim vollen Namen ;)
Wenn wer es nicht verdient hat "wirklich gut weg zu kommen", dann schreibe ich da so. Werlcher Hersteller das ist, ist mir völlig egal. Auch wenn du das wohl nie glauben wirst. (ich schreibe hier übrigens von einem Kabini-Notebook aus, cooles Teil!)

Wir haben uns bei den Kurztest dazu entschieden, populäre Spiele zu nehmen, ohne darauf zu achten, wie wer abschneidet. Und das ist eben raus gekommen.

Skysnake
2013-08-03, 07:50:10
Ist auch angemessen ;)

Nightspider
2013-08-04, 11:59:03
Wann ist denn mit den ersten Leaks zu rechnen bzw. Wann gab es die ersten Leaks oder zutreffenden Gerüchte zu den ersten 28nm Karten von AMD?

Irgendwie lohnt es sich zur Zeit keine HighEnd GPUs zu kaufen, wenn es in 3Monaten vllt schon einen Chip der nächsten Generation gibt.

w0mbat
2013-08-04, 12:04:35
Also meine HD9970 schafft Crysis 3 @ 2560x1440 @ Max. @ 4x4SSAA mit ca. 163FPS.

dargo
2013-08-04, 13:29:44
Also meine HD9970 schafft Crysis 3 @ 2560x1440 @ Max. @ 4x4SSAA mit ca. 163FPS.
Zu lange in der Sonne gelegen? :biggrin:

ndrs
2013-08-04, 14:20:23
Zu lange in der Sonne gelegen? :biggrin:
Definitiv, da die schwachen FPS darauf schließen lassen, dass die Karte überhitzte und Powertune die Taktraten auf idle-Niveau runterregelte.

w0mbat
2013-08-04, 15:22:22
Definitiv, da die schwachen FPS darauf schließen lassen, dass die Karte überhitzte und Powertune die Taktraten auf idle-Niveau runterregelte.

Genau so ist es!

john carmack
2013-08-04, 17:42:49
AMD´s Never Settle Forever

evtl. mit Battlefield 4, Total War: Rome 2, Watch Dogs.

http://wccftech.com/amd-never-settle-forever-bundle-arrives-month-include-battlefield-4/

http://www.hardware-infos.com/news/4703/never-settle-reloaded-erhaelt-neue-spiele.html

Blediator16
2013-08-04, 21:57:24
Watch Dogs ist TWIMTBP

w0mbat
2013-08-05, 01:41:20
Und? Es gab schon öfters spiele die TWIMTBP und GE waren.

Knuddelbearli
2013-08-05, 05:51:24
die news ist ja uralt ...

http://www.computerbase.de/news/2013-04/naechstes-never-settle-spielebundle-von-amd-durchgesickert/

APril war das !!!! ...

AnarchX
2013-08-06, 13:19:53
Neue Infos aus der HWiNFO Datenbank:
Added AMD Volcanic Islands/Crystal: Maui, Iceland/Topaz, Tonga/Amethyst.
http://www.hwinfo.com/txt/History3264.txt

Duplex
2013-08-06, 13:24:53
Bezieht sich das auf Desktop oder Mobile Segment?

In 2 Monaten soll ja Launch sein, wird Zeit das seriöse Specs auftauchen...

AnarchX
2013-08-06, 13:26:19
Beides, die Kristalle sind die Mobile-Codenamen für die entsprechenden GPUs.
Hawaii wird wohl ähnlich wie Tahiti nicht als Mobile verwendet.

boxleitnerb
2013-08-06, 13:27:05
Beides. Crystal Systems ist der Nachfolgar von Solar Systems und im Mobilsegment zu Hause. Dazu gehören den Namen nach Topaz und Amethyst.
Maui und Iceland hab ich noch nicht gehört, die sind wohl neu.

john carmack
2013-08-06, 20:46:04
http://wccftech.com/amd-launches-generation-volcanic-islands-vi-gpus-2014-successor-sea-islands/#ixzz2bDRpWdDl

"The new VI GPU’s would be manufactured on a 20nm Gate-Last process through either TSMC or Common Platform Alliance. AMD would have to choice between TSMC GigaFab Hsinchu/Taichung, IBM East Fishkill, GlobalFoundries in New York and Dresden or Samsung in Austin and the chip would bring in Silicon level integration."

Wusste gar nicht das AMD so viele 20nm FAB´s zur Auswahl hat.

ACHTUNG: News sind rund 1 Jahr alt!!!

Skysnake
2013-08-06, 23:01:25
Das liegt nicht an AMD oder sonst wem.

IBM, GF und Samsung haben sich schon vor langem darauf geeinigt, das man zusammen die Ausstattung der FABs bzw die Prozesse entwickelt, so das man zwischen den einzelnen FABs einfach wechseln kann als Auftragsfertiger.

Zum einen sollen/sollten die Kosten für die Prozessentwicklung reduziert werden, und auf der anderen Seite eben auch ermöglicht werden flexibler auf wechselnde Nachfrage zu reagieren.

Ein weiterer wichtiger Punkt ist auch, das man quasi "Redundanz" in der Produktion schafft. Falls es in einer FABs Probleme durch Verunreinigungen oder sonst was gibt, kann/soll die Produktion relativ schnell und einfach auf eine andere FAB ausgelagert werden können.

Man hat da auch an Erdbeeben, Tsunamis, Fluten allgemein, Orkane usw usw usw gedacht. Im Moment sind das halt alles single-points-of-failure, und was da passieren kann hat man ja bei den Festplatten gesehen...

V2.0
2013-08-07, 07:46:49
20nm im Oktober wird Wahnsinn.

AnarchX
2013-08-07, 08:08:10
FirePro Launch schon im September?
http://www.sweclockers.com/nyhet/17382-amd-kan-inleda-nasta-generation-grafikkort-med-firepro-satsar-pa-gpgpu

fondness
2013-08-07, 09:54:16
FirePro Launch schon im September?
http://www.sweclockers.com/nyhet/17382-amd-kan-inleda-nasta-generation-grafikkort-med-firepro-satsar-pa-gpgpu

sweclockers scheint irgend eine verdammt sichere Quelle bei AMD zu haben, bis jetzt ist soweit ich weiß noch alles eingetreten was sie behauptet haben. Sie waren auch die einzigen die zuverlässige Angaben zu den 5Ghz-Centurio-CPUs hatten. Allerdings haben sie auch schon erwähnt, dass Hawaii nur gegen die GTX780 antritt, wird also wohl keine großen Leistungssprünge bringen.

AnarchX
2013-08-07, 10:02:58
7970GHz + 30% bei gesenkter TDP wäre wohl nicht so schlecht. Dem Enthusiasten stehen dann die >1,2GHZ/300W Ausflüge frei. Der Titan braucht auch eine solche Modifikation um sich deutlich abzusetzen. Konkurrenz zur GTX 780 könnte wohl gleicher Preis bei etwas mehr Leistung bedeuten.

Die 7990 wurde wohl auch schon auf $699 reduziert: http://www.techpowerup.com/188552/radeon-hd-7990-malta-prices-slashed-to-699-targets-gtx-780.html

john carmack
2013-08-07, 10:26:48
sweclockers scheint irgend eine verdammt sichere Quelle bei AMD zu haben, bis jetzt ist soweit ich weiß noch alles eingetreten was sie behauptet haben. Sie waren auch die einzigen die zuverlässige Angaben zu den 5Ghz-Centurio-CPUs hatten. Allerdings haben sie auch schon erwähnt, dass Hawaii nur gegen die GTX780 antritt, wird also wohl keine großen Leistungssprünge bringen.


war das nicht eine andere Seite?
Hast du noch den Link dazu?

S940
2013-08-07, 11:17:22
war das nicht eine andere Seite?
Hast du noch den Link dazu?
5 sec google:
http://www.sweclockers.com/nyhet/17302-amd-kontrar-inte-geforce-gtx-titan-siktar-istallet-pa-700-serien

Gipsel
2013-08-07, 13:59:26
Also falls das stimmen sollte und Hawaii soll auch in den professionellen Markt gehen, scheidet die Überlegung mit dem quasi verdoppelten Pitcairn wohl schon mal aus. Wenn man dann trotzdem +30% Performance bei gesenkter TDP in 28nm schaffen sollte, wäre das schon eine gute Leistung. Hängt natürlich auch immer von der Diefläche ab. Ein breiteres Design bei etwas weniger Takt kann ja deutlich stromsparender werden.

ShadowXX
2013-08-07, 14:16:34
Konkurrenz zur GTX 780 könnte wohl gleicher Preis bei etwas mehr Leistung bedeuten.

Ich glaube eher gleiche Leistung bei geringerem Preis....im Gegensatz zu nV kann ATI es sich nicht erlauben sehr teure GPUs anzubieten, dann kauft die nämlich gar keiner mehr.

Duplex
2013-08-07, 16:36:37
Also falls das stimmen sollte und Hawaii soll auch in den professionellen Markt gehen, scheidet die Überlegung mit dem quasi verdoppelten Pitcairn wohl schon mal aus.
Wie groß ist die Wahrscheinlichkeit auf ein 44-48 CU Chip bei 450-500mm² @384 Bit SI?

Zergra
2013-08-07, 16:42:26
Wie groß ist die Wahrscheinlichkeit auf ein 44-48 CU Chip bei 450-500mm² @384 Bit SI?
Ich glaube da sind 20nm wahrscheinlicher :D

Duplex
2013-08-07, 16:44:25
Ich glaube da sind 20nm wahrscheinlicher :D
In 20nm erwarte ich Anfangs mind. +60% auf die 7970.
Ich gehe von 28nm aus, AMD könnte auch breite Chips bauen.

boxleitnerb
2013-08-07, 21:27:45
Charlie schreibt über VI und basht gegen NV. Das Übliche also :D
http://semiaccurate.com/2013/08/07/amd-to-launch-hawaii-in-hawaii/

28nm sollten damit als gesichert gelten.

Raff
2013-08-07, 21:30:48
Ick freu mir. Das wird spannend. Ich bin echt auf die Energieeffizienz und das Front-End gespannt. :)

MfG,
Raff

dargo
2013-08-07, 21:48:15
Ick freu mir. Das wird spannend.

Was soll daran spannend sein wenn das Ding wieder in 28nm kommt? Ich finde das eher gääähn. Spannend wäre das ganze in 20nm und HD7970*2. :cool:

Raff
2013-08-07, 21:49:42
Breitere GPU bei weniger Takt und Spannung -> erinnert an GK110 und ist energieeffizienter. Natürlich wird das Teil keine Bäume rupfen, aber es wird spannend, ob die Kiste eine Titan schlägt.

MfG,
Raff

Locuza
2013-08-07, 21:56:20
Meanwhile AMD is doing the sane thing and keeping one architectural development path. Hawaii is the next step and it will go in to devices top to bottom, APUs included starting with Kaveri in Q4 or early Q1. Please note that unlike what some are saying, there are no delays to Kaveri, the roadmap hasn’t slipped at all since earlier this year when SemiAccurate last looked.
Kaveri mit VI GPU?

john carmack
2013-08-07, 22:12:31
Charlie schreibt über VI und basht gegen NV. Das Übliche also :D
http://semiaccurate.com/2013/08/07/amd-to-launch-hawaii-in-hawaii/

28nm sollten damit als gesichert gelten.


Given the timing, Hawaii is unquestionably a 28nm part so no shrink related performance bump but the architectural changes should more than make up for that.

"Nvidia in the mean time canceled the minor update that was due out last quarter and surprisingly canceled the first big Maxwell set for next spring. This leaves them with nothing to compete against AMD with for the fall “back to school” market and the winter holiday season."


Aha...
Ohne Frage eine 28nm GPU und Nvidia wird nichts Konkurenzfähiges bis über die Winterferien dagegensetzen können...?!?!

Bedeutet also das AMD´s Hawaii @ 28nm Titan schlägt und das zu einem günstigeren Preis.

Für mich auch unglaubwürdig und aus den Fingern gesaugt...

john carmack
2013-08-07, 22:17:26
"Hawaii is the next step and it will go in to devices top to bottom, APUs included starting with Kaveri in Q4 or early Q1"

Kaveri mit VI GPU?

http://www.computerbase.de/news/2013-08/amd-kaveri-weiterhin-auf-dem-weg-fuer-2013/


Noch mehr aus den Fingern gesaugt! Kaveri kommt 2013!

Charlies Bericht ist einfach nur Humbug... Dem war wohl einfach nur Langweilig und wollte ein paar Gerüchte streuen!

boxleitnerb
2013-08-07, 22:23:05
Titan ist 35% flotter als die 7970 GHz (unangeleint versteht sich). Die 780 Customs auch. Also zur Not senkt Nvidia die Preise oder bringt eben doch noch nen vollen GK110. Charlie tut ja gerade so, als hätte bis jetzt Gleichstand geherrscht und AMD würde nun davonziehen und Nvidia nur die Rücklichter sehen.

john carmack
2013-08-07, 22:24:51
Titan ist 35% flotter als die 7970 GHz (unangeleint versteht sich). Die 780 Customs auch. Also zur Not senkt Nvidia die Preise oder bringt eben doch noch nen vollen GK110. Charlie tut ja gerade so, als hätte bis jetzt Gleichstand geherrscht und AMD würde nun davonziehen und Nvidia nur die Rücklichter sehen.


Hab grad ein Déjà-vu

Hatten wir das nicht schon? :D

boxleitnerb
2013-08-07, 22:33:16
Glaub schon :D
Aber nach Charlies Bashing-Orgie musste ich es nochmal sagen ;)

Locuza
2013-08-07, 22:37:26
[..]
Noch mehr aus den Fingern gesaugt! Kaveri kommt 2013!

Charlies Bericht ist einfach nur Humbug... Dem war wohl einfach nur Langweilig und wollte ein paar Gerüchte streuen!
Charlie schreibt nur, dass der Kaveri Zeitraum seit Ewigkeiten Q4 2013 - 1Q 2014 beträgt und direkt keine Verschiebung stattgefunden hat.

Die Frage ist natürlich mehr als berechtigt, warum Roy Taylor sagt, dass Kaveri kurz nach der CES erhältlich sein soll? Das ist nicht mehr 2013.
Das Marketing und Roy Taylor könnten Recht haben, wenn am Ende dann alles wischi waschi hingebogen wird.

Auf Nvidia Seiten bedeutet es praktisch ja auch nur, dass Nvidia keinen direkten Konkurrent im Nachhinein releasen wird, was beim aktuellen Produktfolio auch nicht nötig erscheint, aber mal abwarten was AMD mit VI zu liefern gedenkt.

Ronny145
2013-08-07, 22:42:07
Charlie schreibt nur, dass der Kaveri Zeitraum seit Ewigkeiten Q4 2013 - 1Q 2014 beträgt und direkt keine Verschiebung stattgefunden hat.

Die Frage ist natürlich mehr als berechtigt, warum Roy Taylor sagt, dass Kaveri kurz nach der CES erhältlich sein soll? Das ist nicht mehr 2013.
Das Marketing und Roy Taylor könnten Recht haben, wenn am Ende dann alles wischi waschi hingebogen wird.



Ganz einfach. Weil mit 2013 die Auslieferung in Dezember gemeint ist. AMD hat doch schon im Januar verlautbaren lassen, dass very late in 2013 die Auslieferung geplant ist. Vr-zone sagt nichts anderes und Taylor deutet auf das gleiche hin. Es gibt eben keinen Kaveri dieses Jahr zu kaufen. Vorstellung auf der CES ist denkbar, zu kaufen irgendwann im Frühjahr. Notebook dauert wie üblich länger, vor mitte 2014 wird das eher nichts.

Locuza
2013-08-07, 22:46:48
Eine Roadmap die für Kaveri 2013 einzeichnet und dann in noch versucht ins Ende reinzuquetschen, obwohl man damit dann wohl nur die Auslieferung meint ist halt natürlich nicht so pralle.
Das mit der iGPU = VI würde mich mehr als wundern.

Ich verfolge seine Seite nicht regelmäßig und erinnerungswürdige Momente seit Fermi hatte ich auch nicht mehr, erzählt der immer noch ab und zu totalen Müll oder ist mittlerweile das meiste seriös?
Kann das gar nicht einschätzen.

john carmack
2013-08-07, 22:52:10
Ja, OK :)
Letztenendes ist mir das persönlich aber auch egal wann Kaveri kommt.

Die Frage die ich mir die ganze Zeit stelle ist, warum AMD eine 28nm GPU ende Okt. anfang Nov.releasen sollte obwohl laut TSMC schon ende 2013 20nm in sehr kleinen Mengen und nur 3-4 Minate später, massentauglich (also wenn TSMC´s 2te, größere 20nm Fab14 fertig ist) produziert werden kann...?!?!

Noch dazu wenn es (allem anschein nach) Hawaii in 28nm sehr schwer gegen Titan haben wird.

Locuza
2013-08-07, 22:58:57
Ja, OK :)
Letztenendes ist mir das persönlich aber auch egal wann Kaveri kommt.

Die Frage die ich mir die ganze Zeit stelle ist, warum AMD eine 28nm GPU ende Okt. anfang Nov.releasen sollte obwohl laut TSMC schon ende 2013 20nm in sehr kleinen Mengen und nur 3-4 Minate später, massentauglich (also wenn TSMC´s 2te, größere 20nm Fab14 fertig ist) produziert werden kann...?!?!

Noch dazu wenn es (allem anschein nach) Hawaii in 28nm sehr schwer gegen Titan haben wird.
Und mit einem 20nm Prozess, der wohl wie gewohnt zu Anfang beschissene Yields für größere Chips liefern wird, hätte man eine deutlich bessere Chance?
AMD muss zeit- und kosteneffizient agieren.
Q4 2013 war schon immer illusorisch.
Oder willst du einen schrecklichen Paperlaunch sehen, der ein sich über fast ein halbes Jahr erstreckt?

Felixxz2
2013-08-07, 22:59:34
Titan ist 35% flotter als die 7970 GHz (unangeleint versteht sich). Die 780 Customs auch. Also zur Not senkt Nvidia die Preise oder bringt eben doch noch nen vollen GK110. Charlie tut ja gerade so, als hätte bis jetzt Gleichstand geherrscht und AMD würde nun davonziehen und Nvidia nur die Rücklichter sehen.

Titan bewegt sich eher bi 20-25% Mehrleistung im Standardmodus. Ein voller GK110 könnte mit Taktanpassung schon 40% schneller sein, aber das kann AMD ja auch schaffen. Eine Titan wird man aber auf jeden Fall schlagen. Ich gehe aber natürlich von den Basistaktraten 1050 und 837 MHz aus. Eine Titan kann ja bis zu nem knappen GHz boosten, was für mich aber eindeutig in die Kategorie OC fällt.

boxleitnerb
2013-08-07, 23:02:44
Dann lies doch mal genauer, da steht "unangeleint" und "780 Customs". GPU-Boost ist nicht OC, auch das hatten wir schon. OC ist immer Glückssache - die Taktraten vom Boost sind aber fest definiert und garantiert erreichbar, wenn die Kühlung stimmt, wie bei einigen 780er ab Werk (oder bei Anpassung von PT/TT, was innerhalb der Garantie absolut erlaubt ist und sogar beworben wird). Nochmal angehobener Basistakt ist aber natürlich OC, nur das Ausloten des "normalen" Boosts definitiv nicht.

john carmack
2013-08-07, 23:10:40
Und mit einem 20nm Prozess, der wohl wie gewohnt zu Anfang beschissene Yields für größere Chips liefern wird, hätte man eine deutlich bessere Chance?
AMD muss zeit- und kosteneffizient agieren.
Q4 2013 war schon immer illusorisch.
Oder willst du einen schrecklichen Paperlaunch sehen, der ein sich über fast ein halbes Jahr erstreckt?


Kosten Effizient? JA!
Zeit Effizient?
Ein "Refresh" (oder was VI sein soll) zu Tahiti nach 22 Monaten releasen?
Für mich ist das ganz schön verspätet.

Locuza
2013-08-07, 23:12:15
Kosten Effizient? JA!
Zeit Effizient?
Ein "Refresh" (oder was VI sein soll) zu Tahiti nach 22 Monaten releasen?
Für mich ist das ganz schön verspätet.
Und wäre VI mit 20nm früher auf dem Markt verfügbar, als jetzt mit 28nm? ;)
Hey Nvidia ist auch noch mit 28nm unterwegs und wird das auch noch einige Zeit lang bleiben.

Hübie
2013-08-08, 00:25:46
Kosten Effizient? JA!
Zeit Effizient?
Ein "Refresh" (oder was VI sein soll) zu Tahiti nach 22 Monaten releasen?
Für mich ist das ganz schön verspätet.

Na ja aber wenns der Markt nicht fordert? Warum die Salamischeibe auf den Markt werfen wenns nicht not tut.

Tahiti wird sicher nicht spannend, aber würdig. Die GTX 780 kann sich warm anziehen. Aber nVidia hat ja eh ein paar "Selbstläufer" geschaffen bei denen die nicht mal groß im Preis heruntergehen müssen.

Ich geb mal nen Wink:

http://geizhals.de/?phist=937129
http://geizhals.de/?phist=937109
http://geizhals.de/?phist=939551

w0mbat
2013-08-08, 01:57:33
Die HD7990 fällt nich ohne Grund im Preis. Diesmal scheint alles richtig gelaufen zu sein :)

Schaffe89
2013-08-08, 03:56:11
GPU-Boost ist nicht OC, auch das hatten wir schon. OC ist immer Glückssache - die Taktraten vom Boost sind aber fest definiert und garantiert erreichbar, wenn die Kühlung stimmt, wie bei einigen 780er ab Werk (oder bei Anpassung von PT/TT, was innerhalb der Garantie absolut erlaubt ist und sogar beworben wird). Nochmal angehobener Basistakt ist aber natürlich OC, nur das Ausloten des "normalen" Boosts definitiv nicht.

Klar ist GPU Boost über den garantierten Boost OC, nur dass es eben inerhalb der Garantie liegt, aber wen interessiert das schon.

HarryHirsch
2013-08-08, 06:30:46
Keine Sau, aber ne Sau kauft sowas auch nich.

boxleitnerb
2013-08-08, 07:18:49
Klar ist GPU Boost über den garantierten Boost OC, nur dass es eben inerhalb der Garantie liegt, aber wen interessiert das schon.

Es gibt keinen garantierten Boost. Nvidia gibt den Durchschnittsboost aus ihren eigenen Tests an, nicht mehr und nicht weniger. Und nein, Übertakten ist das nicht. Verabschiede dich mal von einem fixen Takt, den man beim OC überschreitet. OC bei Kepler heißt, den Standardtaktbereich zu verlassen - und der geht nunmal je nach Kühlung/Settings deutlich höher als der Durchschnittsboost. Wenn eine AMD-Karte drosselt, ist es auch nicht Übertakten, dies mit dem Powertune-Regler zu verhindern, so ein Unsinn. Nach deiner Definition wäre es auch Übertakten, wenn man einen Ventilator davorstellt oder einen Alternativkühler benutzt. Was natürlich genauso Unsinn ist.

Btw (habs etwas abgeschnitten unten, damit es nicht so groß ist, Originalbild im Link unten):
http://abload.de/img/hawaiiuijsp.jpg (http://abload.de/image.php?img=hawaiiuijsp.jpg)
http://www.chiphell.com/thread-831155-1-1.html

Als Vergleich mein Ergebnis von eben mit 326.19 (nicht übertaktet :tongue:):
http://abload.de/img/titanolo7b.jpg (http://abload.de/image.php?img=titanolo7b.jpg)

Felixxz2
2013-08-08, 08:55:14
Als Übertakten heißt den Takt über das Standardniveau hinaus anzuheben. Und genau das tut Boost

boxleitnerb
2013-08-08, 09:01:33
Da ist dein Denkfehler, es gibt kein einzelnes Standardniveau mehr, es gibt einen Standardbereich innerhalb dessen der Boost agiert. Ich hab meiner Titan eine Wakü verpasst und sonst gar nichts verändert. Soll das auf einmal auch Übertakten sein? Nein, ich bleibe dabei - das ist Unsinn.

AnarchX
2013-08-08, 09:07:33
Btw (habs etwas abgeschnitten unten, damit es nicht so groß ist, Originalbild im Link unten):
http://abload.de/img/hawaiiuijsp.jpg (http://abload.de/image.php?img=hawaiiuijsp.jpg)
http://www.chiphell.com/thread-831155-1-1.html

Als Vergleich mein Ergebnis von eben mit 326.19 (nicht übertaktet :tongue:):
http://abload.de/img/titanolo7b.jpg (http://abload.de/image.php?img=titanolo7b.jpg)

Das wären gute 40% mehr Leistung gegenüber der 7970GHz: http://www.ocaholic.ch/modules/smartsection/item.php?itemid=1002&page=5

Die GPU hat aber wohl einen Wasserkühler?

boxleitnerb
2013-08-08, 09:22:57
Jap, Wasser. Wäre aber auch mit einem guten Luftkühler (siehe Raff) und/oder Manipulation der Targets erreichbar. Ist also keine Zauberei ;)

40% sind schon sehr gut. Damit dürfte die Situation 680 vs 7970 GHz in etwa wieder hergestellt sein. Verbrauch wird sehr interessant. Ich schätze einen Tick über der 7970 GHz.
Die Werte sind einen Tick zu niedrig angenommen, wobei es wohl auch etwas an der CPU hängt:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/26932-palit-geforce-gtx-780-super-jetstream-im-test.html?start=6

Mit 35+% kann man aber schon rechnen. Ich denke mal, AMD hat die Taktraten so gewählt, dass man so 5% vor Titan@max liegt.

V2.0
2013-08-08, 09:33:34
Die Frage ist halt wie groß der Chip sein wird. Titan Leistung mit einem etwa gleich großen Chip wäre schwach. Liegen sie bei 400-450 mm² wäre es natürlich ein echter Knock-Out gegen NV.

boxleitnerb
2013-08-08, 09:37:29
550 mm2 wird das Ding nie haben. Um die 450 würde ich schätzen. So weit wie bei Fermi vs. Cayman werden die GPUs sicher nicht auseinanderliegen (520/389=1.33) meiner Meinung nach.

fondness
2013-08-08, 10:30:34
Die Frage ist halt wie groß der Chip sein wird. Titan Leistung mit einem etwa gleich großen Chip wäre schwach. Liegen sie bei 400-450 mm² wäre es natürlich ein echter Knock-Out gegen NV.

Warum wäre Titan Leistung mit einem gleich großen Chip schwach? VI wird in punkto GPGPU den Abstand zu NV noch mal vergrößern und auch sonst kann AMD nicht zaubern. Wenn man mit einem 400-450 mm² Chip NV schalgen würde hätte NV was falsch gemacht. IMO ist die Erwartungshaltung einiger hier ein wenig unrealistisch. AMD wird mit hoher Wahrscheinlichkeit keinen >500mm² Chip bauen, deshalb wäre ein GTX780 Konkurrent mit ähnlicher Energieeffizienz trotz kleineren Chip schon eine beachtliche Leistung.

Duplex
2013-08-08, 10:46:34
VI wird in punkto GPGPU den Abstand zu NV noch mal vergrößern und auch sonst kann AMD nicht zaubern. Wenn man mit einem 400-450 mm² Chip NV schalgen würde hätte NV was falsch gemacht.

Nvidia hat nichts falsch gemacht, der Chip verbraucht weniger als die 7970 Ghz bei 25-35% mehr Leistung, den Preis kann Nvidia jederzeit nach unten anpassen wenn es nötig ist.

Außerdem macht Nvidia im gegensatz zu AMD trotz größere Chips immer mehr Gewinn im GPU bereich, GK110 wird im Profi Markt zu sehr hohen Preisen verkauft.

Ich hab nichts gegen große Chips, spielt für uns sowieso keine Rolle, was zählt ist nur Leistung & Preis.

GT200 65nm war 576mm² groß mit 512 Bit SI, es geht also noch größer wenn Nvidia will.

dargo
2013-08-08, 10:53:39
GT200 65nm war 576mm² groß mit 512 Bit SI, es geht also noch größer wenn Nvidia will.
Sorry, aber das ist Unsinn. Wenn das alles so einfach wäre hätte man die Titan nicht kastriert.

Im übrigen ist der Vergleich schon sinnfrei wenn man bedenkt wieviele Transistoren ein GK110 im Vergleich zum GT200 hat.

AnarchX
2013-08-08, 10:59:13
Laut TPU Datenbank liegt GK110 bei 561mm². Das könnte schon die maximale Maskengröße unter 28nm sein.
Aber die Single-GPU-Krone könnte man sich sicherlich mit einem 300W GK110 zurückholen.

fondness
2013-08-08, 11:00:59
Nvidia hat nichts falsch gemacht

Ich habe ja "hätte" geschrieben, nicht "hat".

boxleitnerb
2013-08-08, 11:09:50
Das bringt mich auf eine Frage:
Wo ist GPGPU im Moment überhaupt so richtig relevant? In Spielen kaum bis gar nicht. Im HPC-Bereich hat Nvidia mit Tesla ggü. AMD meines Wissens nach kein Problem. Und im Designbereich zählt Grafik- und Geometrieleistung. Die GPGPU-Benchmarks, die man in den Reviews so sieht, sind meistens eben das...Benchmarks. Wie schaut es mit realen Anwendungen aus? Und damit meine ich weit verbreitete und intensiv genutzte, also solche, wo man sich deshalb explizit für eine Karte mit besserer GPGPU-Performance entscheiden würde.

dargo
2013-08-08, 11:14:14
Das bringt mich auf eine Frage:
Wo ist GPGPU im Moment überhaupt so richtig relevant? In Spielen kaum bis gar nicht.
Kommt noch... mit den neuen Konsolen.

boxleitnerb
2013-08-08, 11:18:20
Ich wage mal zu behaupten, bis das in mehr als einer Handvoll Spielen (am PC) relevant ist, ist Kepler ein alter Hut. Wenn Maxwell allerdings dort genauso schwächelt, dann ist das in der Tat Grund zur Sorge.

john carmack
2013-08-08, 11:19:56
Btw (habs etwas abgeschnitten unten, damit es nicht so groß ist, Originalbild im Link unten):
http://abload.de/img/hawaiiuijsp.jpg (http://abload.de/image.php?img=hawaiiuijsp.jpg)
http://www.chiphell.com/thread-831155-1-1.html


Sind das Hawaii@WaKü Screenshots?

fondness
2013-08-08, 11:21:41
Das bringt mich auf eine Frage:
Wo ist GPGPU im Moment überhaupt so richtig relevant? In Spielen kaum bis gar nicht. Im HPC-Bereich hat Nvidia mit Tesla ggü. AMD meines Wissens nach kein Problem. Und im Designbereich zählt Grafik- und Geometrieleistung. Die GPGPU-Benchmarks, die man in den Reviews so sieht, sind meistens eben das...Benchmarks. Wie schaut es mit realen Anwendungen aus? Und damit meine ich weit verbreitete und intensiv genutzte, also solche, wo man sich deshalb explizit für eine Karte mit besserer GPGPU-Performance entscheiden würde.

Das ist eben die Zukunft, und das Herzstück des Fusion-Konzepts. Wenn ich die teuren OoO-CPU-Kerne nur noch für seriellen Code verwenden muss und alles parallelisierbare auf die billige Streamprozessoren machen kann, bin ich in punkt Energieffizienz und Leistung eben um Häuser überlegen. Natürlich braucht es dazu auch mal entsprechende Hardware, solange der Speicherbereich getrennt ist und es keine einheitlichen Standards gibt ist es noch etwas schwierig. AMD hat die Konsolendeals ja auch nicht ohne Grund bekommen. Auch NV implementiert in Maxwell nicht ohne Grund eine Gegenstück zu AMDs hUMA.

http://img577.imageshack.us/img577/2783/j4ve.jpg (http://imageshack.us/photo/my-images/577/j4ve.jpg/)

V2.0
2013-08-08, 11:25:37
Warum wäre Titan Leistung mit einem gleich großen Chip schwach? VI wird in punkto GPGPU den Abstand zu NV noch mal vergrößern und auch sonst kann AMD nicht zaubern. Wenn man mit einem 400-450 mm² Chip NV schalgen würde hätte NV was falsch gemacht. IMO ist die Erwartungshaltung einiger hier ein wenig unrealistisch. AMD wird mit hoher Wahrscheinlichkeit keinen >500mm² Chip bauen, deshalb wäre ein GTX780 Konkurrent mit ähnlicher Energieeffizienz trotz kleineren Chip schon eine beachtliche Leistung.

Perf/mm² ist GK110 ziemlich schwach. In der Tat. Wenn AMD das nicht mit einem neuen Design, dass alle Eigenheiten des 28nm Prozesses berücksichtigen kann, schlagen kann, fände ich das neue Design den Aufwand kaum wert.

dargo
2013-08-08, 11:27:05
Ich wage mal zu behaupten, bis das in mehr als einer Handvoll Spielen (am PC) relevant ist, ist Kepler ein alter Hut.
Das hilft den Usern die ihre Graka nicht jedes Jahr wechseln aber wenig.

fondness
2013-08-08, 11:28:14
Perf/mm² ist GK110 ziemlich schwach. In der Tat. Wenn AMD das nicht mit einem neuen Design, dass alle Eigenheiten des 28nm Prozesses berücksichtigen kann, schlagen kann, fände ich das neue Design den Aufwand kaum wert.

GK110 ist eben der einzige Chip der nicht nur für Spieler konzipiert wurde, das kostet Die-Fläche. Aber das gilt für Hawaii mindestens im selben Maße. Und auch GK110 war nicht unbedingt der erste 28nm Chip, also großartige Vorteile sehe ich hier nicht.

ShadowXX
2013-08-08, 11:31:11
Kommt noch... mit den neuen Konsolen.
Würd ich nicht darauf wetten. Die werden Ihre GPU-Power zum größtenteil für das Darstellen der Grafik brauchen...

Das ist eben die Zukunft, und das Herzstück des Fusion-Konzepts. Wenn ich die teuren OoO-CPU-Kerne nur noch für seriellen Code verwenden muss und alles parallelisierbare auf die billige Streamprozessoren machen kann, bin ich in punkt Energieffizienz und Leistung eben um Häuser überlegen. Natürlich braucht es dazu auch mal entsprechende Hardware, solange der Speicherbereich getrennt ist und es keine einheitlichen Standards gibt ist es noch etwas schwierig. AMD hat die Konsolendeals ja auch nicht ohne Grund bekommen. Auch NV implementiert in Maxwell nicht ohne Grund eine Gegenstück zu AMDs hUMA.

http://img577.imageshack.us/img577/2783/j4ve.jpg (http://imageshack.us/photo/my-images/577/j4ve.jpg/)
Du hast zwar recht, aber hUMA ist bei den Konsolenchips noch nicht so "perfekt" drinne wie auf dem hübschen Bildchen. Die sind da noch bei Step 1, während das Bild mehr Step 2 (oder sogar 3) ist.

boxleitnerb
2013-08-08, 11:35:45
GK110 ist eben der einzige Chip der nicht nur für Spieler konzipiert wurde, das kostet Die-Fläche. Aber das gilt für Hawaii mindestens im selben Maße. Und auch GK110 war nicht unbedingt der erste 28nm Chip, also großartige Vorteile sehe ich hier nicht.

GK110 ist über ein Jahr älter als Hawaii. Tapeout war März 2012.

Skysnake
2013-08-08, 11:40:35
Das bringt mich auf eine Frage:
Wo ist GPGPU im Moment überhaupt so richtig relevant? In Spielen kaum bis gar nicht. Im HPC-Bereich hat Nvidia mit Tesla ggü. AMD meines Wissens nach kein Problem. Und im Designbereich zählt Grafik- und Geometrieleistung. Die GPGPU-Benchmarks, die man in den Reviews so sieht, sind meistens eben das...Benchmarks. Wie schaut es mit realen Anwendungen aus? Und damit meine ich weit verbreitete und intensiv genutzte, also solche, wo man sich deshalb explizit für eine Karte mit besserer GPGPU-Performance entscheiden würde.
nVidia hat im Moment NOCH! kein großes Problem gegen AMD im HPC, wobei die S10000 schon interessant ist für manche Anwendungsfälle durch die perverse Speichrbandbreite dank Dual-GPU, und OpenCL findet mehr akzeptanz, weil immer mehr Leute keinen bock mehr auf CUDA haben, weil man sich eben auf Gedeih und Verderben an nVidia bindet...

AMD wäre unterm Strich aber wirklich kein Problem. Das Problem heist Intel und XeonPhi. Das Ding bekommste zum "Spotpreis" hinterhergeschmissen und du hast den CUDA-Mist nicht am Hals, sondern nimmst deinen stink normalen Code und portierst den mit wenig Aufwand.

Das ist im Moment ein echtes Problem von nVidia. Das Sie es sich mit den Chinesen verschärzt haben ist da nur noch eine Randbemerkung. nVidia musste massiv Systeme in der Top500 einbüßen. Von 50 nVidia Systemen bei der letzten Top500 auf nur noch 39,5 nVidia Systeme in der aktuellen Liste (http://top500.org/statistics/overtime/).

Und es kommen vor allem weniger Leistungsstarke Systeme hinzu. China setzt auf XeonPhi statt nVidia usw. Und gerade China wird nVidia noch sehr sehr sehr sehr sehr WEH! tun. Da hat Huang richtig richtig fette scheise gebaut. Die Chinesen gehen an HPC mit den fetten BigGoverment-Bugs ran. Sprich Geld spielt keine Rolle.... Und nVidia hat in ihrer Überheblichkeit sich für Jahre ins Abseits geschossen. Wie dumm kann man sein Asiaten vor zu führen, und Sie in ihrer Ehre zu verletzen... Dumm einfach nur DUMM...

Bei AMD und Intel sieht es wie folgt aus:
AMD: 3->3
Intel: 7->11,5
AMD hält sich auf niedrigen Niveau. Das ist für Sie durchaus ein Problem, aber so lange nVidia mit CUDA ihr eigenes Ding macht, hat AMD es richtig schwer. Für XeonPhi nimmt man einfach C statt OpenCL, und mit nVidia ist man ja zu CUDA genötigt... Würde nVidia OpenCL voll supporten, würde AMD davon auch profitieren, weil sich die ganze Branche wohl auf OpenCL aufgrund der Portabilität einigen könnte. Für Intel wäre OpenCL auch kein echter Nachteil, auch wenn Sie natürlich weiterhin auch auf C setzen würden. Es könnten aber alle gut davon leben, und die Cluster MIT Beschleuniger würden noch mehr verbreitung finden. Aktuell geht man ja aber eher davon weg. Intel kann die Einbrüche bei nVidia nicht kompensieren (NOCH!).

Je länger nVidia an CUDA fest hält, desto mehr sägen Sie an dem Ast auf dem Sie sitzen, und desto mehr drängt XeonPhi in den Markt, und das OHNE OpenCL zu favorisieren... nVidia Haltung ist für den kompletten Markt einfach nur SCHEISE, aber Huang ist halt Huang... :mad:

Iruwen
2013-08-08, 11:54:21
Welchen Phi muss man mit welcher Tesla vergleichen? Billig sind die ja offenbar auch nicht gerade ( falls der Laden nicht ultrateuer ist: http://www.deltacomputer.de/produkte/gpu/Intel_Xeon_Phi.shtml).
Ist einer der Vorteile von Phi nicht die einfache Programmierbarkeit?

Skysnake
2013-08-08, 13:00:23
Du kannst die Dinger nicht 100% miteinander vergleichen.

Die kleinste XeonPhi hat ja schon die 6GB Ram. Die größte Version hat 16GB. Da kann keine nVidia mithalten! Und kostet nicht mal 4k€. Ne k20x kostst dich ~5-8k €

Und die 4k€ für das Topmodell sind nur die Einzelhandelspreise. Die Vögelchen zwitschern, das Intel für größere Systeme die XeonPhis "verramscht". Also nochmals deutlich billiger anbietet.

fondness
2013-08-08, 14:36:39
AMD to Announce GPU Codenamed Hawaii in Hawaii Sept 25 (http://www.brightsideofnews.com/news/2013/8/7/amd-to-launch-gpu-codenamed-hawaii-in-hawaii-sept-25.aspx)

We just got confirmation that AMD will be announcing their latest GPU codenamed Hawaii. The event will be scheduled during the week of September 23rd, and there will be a live streamed public event on the 25th that will introduce AMD's new flagship GPU to the world. Some details will be saved for a later date, however, AMD is planning to make an event out of this with some interesting details that include aircraft carriers and some more sneak previews of Battlefield 4.

AMD is clearly gunning to compete with Nvidia's GeForce GTX Titan and we'll see if AMD can deliver us a single GPU solution that can compete with Nvidia's own $1000 GPU.

|MatMan|
2013-08-09, 13:47:35
Das Ding bekommste zum "Spotpreis" hinterhergeschmissen und du hast den CUDA-Mist nicht am Hals, sondern nimmst deinen stink normalen Code und portierst den mit wenig Aufwand.
Erzähl doch bitte nicht immer den selben Quark. Die Aussage der einfachen Portierbarkeit mag zwar grob stimmen, ja der Code läuft, dafür bekommst du aber auch absolut keine Performance aus Xeon Phi - 300W verbrät es natürlich trotzdem. Den Code für Xeon Phi zu optimieren ist genauso aufwendig wie performanten CUDA Code zu schreiben. Die Teslas sind halt am Ende dann in den meisten Fällen trotzdem schneller und verbrauchen weniger Strom. Neue Generationen können die Karten natürlich neu mischen.
Es ist doch kein Zufall, dass Intel die Dinger verramscht. Könnten Sie mehr Geld dafür verlangen, würden sie das tun, wie in allen anderen Marktsegmenten auch.

Je länger nVidia an CUDA fest hält, desto mehr sägen Sie an dem Ast auf dem Sie sitzen, und desto mehr drängt XeonPhi in den Markt, und das OHNE OpenCL zu favorisieren... nVidia Haltung ist für den kompletten Markt einfach nur SCHEISE, aber Huang ist halt Huang... :mad:
Ja für den Markt ist es Mist, aber für nVidia ist CUDA schon wichtig und irgendwie richtig. Neben der Kontrolle können sie halt auch schneller neue Features einer neuen Generation da einbauen. Wenn der Markt wirklich nach OpenCL schreit, können sie sicher recht schnell drauf reagieren.

boxleitnerb
2013-08-09, 14:48:42
Wie groß müsste eine GPU eigentlich mindestens sein, damit man einen 512-bit Bus verwenden kann?

Hübie
2013-08-09, 15:00:18
Kommt doch auch auf die Menge und Komplexität der ALUs etc. an. Die-area des IMC sollte ja beinahe linear zur Bandbreite ansteigen. Das sollten dann im Vergleich zum GK110 etwa 30 mm² sein (GK110 etwa 23 mm²). Dazu kommt ja noch das Interface mit ...öh... ~3,5 mm² je 64 Bit. Oder?
Ohne Gewähr ;D

Edit: In der Summe also 58-60 mm² für IMC+Interface von der die area des Hawaii-Chips abziehen wenn der 512 Bit SI hat (was nicht der Fall sein wird).

john carmack
2013-08-09, 15:00:23
Wie groß müsste eine GPU eigentlich mindestens sein, damit man einen 512-bit Bus verwenden kann?


höchstens. HD2900 größe


bzw.
http://alt.3dcenter.org/artikel/glaze3d_avalanche/

1024Bit SI - Keine Ahnung wie groß der Chip war....

Skysnake
2013-08-09, 15:00:52
Erzähl doch bitte nicht immer den selben Quark. Die Aussage der einfachen Portierbarkeit mag zwar grob stimmen, ja der Code läuft, dafür bekommst du aber auch absolut keine Performance aus Xeon Phi - 300W verbrät es natürlich trotzdem. Den Code für Xeon Phi zu optimieren ist genauso aufwendig wie performanten CUDA Code zu schreiben. Die Teslas sind halt am Ende dann in den meisten Fällen trotzdem schneller und verbrauchen weniger Strom. Neue Generationen können die Karten natürlich neu mischen.
Es ist doch kein Zufall, dass Intel die Dinger verramscht. Könnten Sie mehr Geld dafür verlangen, würden sie das tun, wie in allen anderen Marktsegmenten auch.

Hast du schon für XeonPhi, CUDA und OpenCL programmiert oder ich?


Ja für den Markt ist es Mist, aber für nVidia ist CUDA schon wichtig und irgendwie richtig. Neben der Kontrolle können sie halt auch schneller neue Features einer neuen Generation da einbauen. Wenn der Markt wirklich nach OpenCL schreit, können sie sicher recht schnell drauf reagieren.
Die Frage ist, ob OpenCL den Durchbruch schafft oder auch fallen gelassen wird. Im Moment steht es auf der Kippe, weil nVidia grampfhaft an CUDA fest hält. Das ist wie ein Betonklotz um die Füße. Eventuell schafft man es an Land, und der Partner (OpenCL) säuft ab. Dann hat man gewonnen, aber wahrscheinlicher ist, das beide absaufen...

boxleitnerb
2013-08-09, 15:02:25
Kommt doch auch auf die Menge und Komplexität der ALUs etc. an. Die-area des IMC sollte ja beinahe linear zur Bandbreite ansteigen. Das sollten dann im Vergleich zum GK110 etwa 30 mm² sein (GK110 etwa 23 mm²). Dazu kommt ja noch das Interface mit ...öh... ~3,5 mm² je 64 Bit. Oder?
Ohne Gewähr ;D

Ich dachte es gibt da eben eine Mindestgröße wegen den Pads, der Speichercontroller ist ja um die GPU herum angeordnet, wenn ich das jetzt richtig im Kopf habe.

AnarchX
2013-08-09, 15:08:01
http://alt.3dcenter.org/artikel/glaze3d_avalanche/

1024Bit SI - Keine Ahnung wie groß der Chip war....
Das war kein SDRAM-Interface auf das PCB.

Ich dachte es gibt da eben eine Mindestgröße wegen den Pads, der Speichercontroller ist ja um die GPU herum angeordnet, wenn ich das jetzt richtig im Kopf habe.
Kommt wohl auch etwas darauf an, welche Speichergeschwindigkeiten man untersützen will. Mit nutzbarem 8Gbps Support könnte es wohl schon fast 500mm² benötigen. Wenn man schon einen 28nm Big-Chip baut, dann kann man wohl wirklich bis fast an die Maskengrenze gehen. Erfahrungen bei TSMC sollten da vorhanden sein.

Hübie
2013-08-09, 15:08:01
Nein. Das Interface ist drum herum. Der Controller sitzt eher zentral.

boxleitnerb
2013-08-09, 15:10:23
Äh sorry, natürlich meinte ich das Interface. Mein Fehler.

Hübie
2013-08-09, 15:19:59
512 Bit SI halte ich für Wunschdenken und in der Konfiguration überflüssig. Ist wie mit 20 nm. TSMC haut zwar schon 20-nm-"Produkte" raus, aber die wird man nicht dieses Jahr und schon gar nicht in AMD sehen. Soviel ist sicher. 512 Bit entsprechend auch nicht.
Ich geb dir ein Eis aus wenns anders kommt ;D :freak:

Schau mal: GK110 hat 521 mm². Davon sind etwa ~45 mm² IMC+SI. Bleiben also 477 mm² für Rasterizer, Command-processor, Display Interface und und und... ganz zu schweigen von den 2880 ALUs. Wenn wir jetzt mal von 28-nm-Prozess, 550 mm², einem 512-Bit SI und 3072 ALUs ausgehen dann platzt du mit jeder Kalkulation aus den nähten. Egal welche Ziffer du zur Grundlage nimmst: Es passt solange nicht bis du 20-nm-Prozess nutzt. Und den wird man dieses Jahr sicher nicht im Handel sehen.

boxleitnerb
2013-08-09, 15:27:59
Ich frag nur deshalb, weil woanders wieder 20nm spekuliert wurde. Vorstellung im September (wohl Architektur), Paperlaunch im Oktober/November und breite(re) Verfügbarkeit dann Q1 2014. Das sollte eigentlich möglich sein, oder? 1000-10000 Karten sollte man im November schon verkaufen können.

Ailuros
2013-08-09, 16:01:20
GK110 ist eben der einzige Chip der nicht nur für Spieler konzipiert wurde, das kostet Die-Fläche. Aber das gilt für Hawaii mindestens im selben Maße. Und auch GK110 war nicht unbedingt der erste 28nm Chip, also großartige Vorteile sehe ich hier nicht.

Wenn er FP64 FLOPs/mm2 zwischen GK110 und MIC vergleichen sollte, sieht es schnell anders aus.

Sonst ist die Steigerung der Specs auf Hawaii imposanter auf ersten Blick als die eigentliche durchschnittliche Leistungssteigerung.

Nakai
2013-08-09, 16:06:57
Braucht es überhaupt 20nm? AMD kann die Architektur noch verbessern:
- Generelle Verbesserungen und Effizienzsteigerungen
- Höhere Packdichte(~Pitcairn)

Hier mal Gipsel Aufstellung:
Bezeichnung | Fläche [mm²] | Anteil [%]
vALUs (SIMDs) | 77 | 21,1
TMUs mit L1-vD$ | 55 | 15,1
LDS, sALU, Scheduler | 29 | 7,9
L1-I$, L1-sD$, Logik geteilt von Gruppe aus 4 CUs | 14,5 | 4,0
komplettes Shader-Array aus 32 CUs | 175,5 | 48,1
Pad-Area des Speicherinterface | 62 | 17,0
PCIe, Display, UVD, VCE etc. | 45 | 12,3
L2, ROPs, Speichercontroller | 41,5 | 11,4
Frontend, Raster | 18 | 4,9
Logik zwischen Mem-Pads?!? | 1 | 0,3
leere Flächen (hauptsächlich Rand des Dies) | 22 | 6,0
Summe | 365 | 100,0


Was wird alles verbessert?
Mehr Shader und größeres Frontend.
Frontend, Raster | 18 -> Frontend, Raster | ~40 (Verdopplung)
Shader-Array aus 32 CUs | 175,5 -> Shader-Array aus 44 CUs | ~241,32 (+37,5%; 2816SPs)
L2, ROPs, Speichercontroller | 41,5 -> L2, ROPs, Speichercontroller | ~60 (~+44,6%)

-> ~470mm² -> 5,333 Milliarden Tranistoren

Pitcairn hat ne Packdichte von 13,2mill/mm2.
-> ~420mm²

Wenn weitere Verbesserungen greifen, dann könnte man evtl sogar ziemlich genau auf 400mm² kommen. Jedenfalls würde es dazu passen, dass einige Leute gemeint haben, dass Hawaii in 20nm kommt. Womöglich könnte man den Chip nicht so hoch takten lassen und dadurch die Spannung senken und hier und da besser Optimieren. Wobei ich keine Ahnung von sowas habe.

Nightspider
2013-08-09, 16:10:36
Naja GT200 hatte doch auch 512Bit SI oder?
28nm ist jetzt schon sehr alt, günstig und gut verfügbar sowie gut geeignet für sehr große Chips.
512Bit SI wäre wohl overpowered und überflüssig aber sicherlich nicht unmöglich, falls AMD einen 520-580mm2 Chip herausbringen will.

john carmack
2013-08-09, 16:15:50
Naja GT200 hatte doch auch 512Bit SI oder?
28nm ist jetzt schon sehr alt, günstig und gut verfügbar sowie gut geeignet für sehr große Chips.
512Bit SI wäre wohl overpowered und überflüssig aber sicherlich nicht unmöglich, falls AMD einen 520-580mm2 Chip herausbringen will.


Hoffentlich nur kein Papiertiger wie beim PaperLaunch der 2900 Serie... :)

Skysnake
2013-08-09, 16:17:35
512 Bit ist alles, aber nicht oversized. HPC/Profimarkt würde sich danach die Finger lecken. Die großen MICs stehen nicht ohne Grund bei manchem ganz oben auf der Wunschliste ;)

Vor allem stell die eine S20000 mit 2x512Bit SI vor, bei dem die Chips wieder schön niedrig takten. Das wäre ein killer Teil! Du hättest halt ne verdammt gute Byte/Flops ratio für GPUs. Das ist für ziemlich viele Leute ziemlich interessant.

Nakai
2013-08-09, 16:19:40
512 Bit ist alles, aber nicht oversized. HPC/Profimarkt würde sich danach die Finger lecken. Die großen MICs stehen nicht ohne Grund bei manchem ganz oben auf der Wunschliste ;)

Vor allem stell die eine S20000 mit 2x512Bit SI vor, bei dem die Chips wieder schön niedrig takten. Das wäre ein killer Teil! Du hättest halt ne verdammt gute Byte/Flops ratio für GPUs. Das ist für ziemlich viele Leute ziemlich interessant.

Interessant ja. Wie wärs damit? 512Bit für HPC? und 384Bit für den Gamermarkt?
Pitcairn hat 212mm€ für 256Bit. Ergo müssten etwa mehr als 400mm² für 512Bit reichen.


mfg

john carmack
2013-08-09, 16:22:10
Zur Auswahl stehen:
28nm GPU / 20nm GPU
384Bit SI / 512Bit SI
6-Gbps-GDDR5 / 7-Gbps-GDDR5

Ich weiß ja nicht wie sich 7-Gbps-GDDR5 Speicher auf einen Mehrverbrauch von Strom auswirkt, aber welche Karte haltet ihr für realistischer:

A) 28nm GPU / 384Bit SI / 7-Gbps-GDDR5 (336GB/s)
B) 28nm GPU / 512Bit SI / 6-Gbps-GDDR5 (384GB/s)


A) Tahiti = 264GB/s --> Hawaii = 336GB/s
Empfinde ich erst mal als eine gute Steigerrung an, aber müsste man das das Perf/Watt Verhältniss der GPU nicht stark verbessern um mit dem Stromhunger nicht zu hoch zu treiben wenn man 7-Gbps-GDDR5 verwendet?


Ich rede jetzt hier erst mal über einen 28nm Chip.
20nm @ 512Bit SI halte ich für übertrieben...

Skysnake
2013-08-09, 16:26:53
Interessant ja. Wie wärs damit? 512Bit für HPC? und 384Bit für den Gamermarkt?
Pitcairn hat 212mm€ für 256Bit. Ergo müssten etwa mehr als 400mm² für 512Bit reichen.

Wenn man das Interface schon im Chip hat, dann wird man es auch benutzen. Dann nimmt man lieber billigeren Speicher.

Zergra
2013-08-09, 21:31:54
Zur Auswahl stehen:
28nm GPU / 20nm GPU
384Bit SI / 512Bit SI
6-Gbps-GDDR5 / 7-Gbps-GDDR5

Ich weiß ja nicht wie sich 7-Gbps-GDDR5 Speicher auf einen Mehrverbrauch von Strom auswirkt, aber welche Karte haltet ihr für realistischer:

A) 28nm GPU / 384Bit SI / 7-Gbps-GDDR5 (336GB/s)
B) 28nm GPU / 512Bit SI / 6-Gbps-GDDR5 (384GB/s)


A) Tahiti = 264GB/s --> Hawaii = 336GB/s
Empfinde ich erst mal als eine gute Steigerrung an, aber müsste man das das Perf/Watt Verhältniss der GPU nicht stark verbessern um mit dem Stromhunger nicht zu hoch zu treiben wenn man 7-Gbps-GDDR5 verwendet?


Ich rede jetzt hier erst mal über einen 28nm Chip.
20nm @ 512Bit SI halte ich für übertrieben...

Ich würde A in 20nm wählen, was andere erwarte ich nicht.

fondness
2013-08-09, 21:39:53
Sonst ist die Steigerung der Specs auf Hawaii imposanter auf ersten Blick als die eigentliche durchschnittliche Leistungssteigerung.

Jetzt hast du mich aber schon neugierig gemacht. :)
Hoffentlich nicht noch mehr Front-End-Limitierung, aber wenn sich AMD voll auf GPGPU konzentriert könnte es sein das man das in kauf nimmt.

|MatMan|
2013-08-10, 00:13:52
Hast du schon für XeonPhi, CUDA und OpenCL programmiert oder ich?
Ich hab mich mit Leuten unterhalten die professionell für die 3 aufgelisteten Dinge programmiert haben (und daneben auch C/C++ Code für CPUs im HPC-Bereich). Insbesondere haben die systematisch die Performance für verschiedene use-cases analysiert. Das ist viel mehr Wert als wenn ich damit etwas herumspielen würde. Beruflich habe ich schon etwas Erfahrung mit GPU-Programmierung gesammelt, aber das nur am Rand.
Was soll die Frage überhaut? Willst du wirklich erzählen, dass praktisch beliebiger C-Code nur durch eine Rekomplilierung performant auf Xeon Phi läuft?

Die Frage ist, ob OpenCL den Durchbruch schafft oder auch fallen gelassen wird. Im Moment steht es auf der Kippe, weil nVidia grampfhaft an CUDA fest hält. Das ist wie ein Betonklotz um die Füße. Eventuell schafft man es an Land, und der Partner (OpenCL) säuft ab. Dann hat man gewonnen, aber wahrscheinlicher ist, das beide absaufen...
Aha und wenn beide absaufen kauft alle Welt dann Xeon Phi und bindet sich an Intel? Wo ist das besser als CUDA? Bzw. warum sollte man das tun, wenn die Bindung an einen Hersteller das Argument gegen CUDA ist?