PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

reaperrr
2013-08-29, 22:20:27
Pi mal Daumen entspräche das einer 7970 GHz Edition, nur dass der Verbrauch wohl deutlich unter 200W wäre.

Sprich man hätte 'nen deutlich höheres Perf/Watt Verhältnis...
Und ein katastrophales Perf/mm² Verhältnis.

StefanV
2013-08-29, 22:56:32
Und ein katastrophales Perf/mm² Verhältnis.
Joa, das steht ja auch auf 'nem anderen Blatt ,)

Letztendlich wird man das ganze wohl auch nicht mit 500MHz laufen lassen sondern eher so Richtung 750-850MHz, je nachdem, was die Architektur so hergibt.

Letztendlich ist der Punkt ja, dass man mit einem breiteren Design immer ein höheres Perf/W Verhältnis bekommt, während man mit einem hoch taktenden ein besseres Perf/mm² Verhältnis bekommt. Ist halt die Frage, was man will, wo man gerade Kompromisse eingeht, auf welche Specs man gerade scheißt (was durchaus vorgekommen ist, in der Vergangenheit!)

Letztendlich ist die Frage nur:
Lohnt sich der Aufwand?
Lohnt sich die Verlustleistung, die Takt Y mit sich bringen würde oder reicht nicht auch Takt X?

Mit 'ner 300W Single GPU Grafikkarte hat eigentlich niemand 'nen Problem, wenn die dann auch so flott ist, wie 'ne aktuelle 7990, dann geht das auch in Ordnung. Nur wenn die Verlustleistung abartig hoch ist, ohne dabei nennenswert schneller zu sein als 'der andere', dann geht das nicht in Ordnung (Thermi war solch ein Fall z.B.)...

OBrian
2013-08-30, 07:20:53
Die Frage ist wohl, wo will man hin? Ist die Zielvorgabe, bei einer bestimmten Verbrauchsgrenze (z.B. durch PCIe-Stecker vorgegeben) möglichst viel Leistung rauszuquetschen, will man eine bestimmte Leistung (Konkurrenzmodell) möglichst sparsam erreichen, soll bei einem bestimmten Herstellungspreis möglichst viel Leistung erreicht werden, damit man einen Preiskrieg anfangen kann? Letztlich wird es wahrscheinlich eine Mischung aus allem sein mit zusätzlichen Abweichungen, die produktionsbedingt sind.

Wenn wir also davon ausgehen, daß von Nvidia kein größerer Chip kommt, maximal eine komplett freigeschaltete Titan ohne großartig höheren Takt, dann könnte man das (plus 3% zum Benchmarks gewinnen) als Ziel ansetzen. Je höher man das Ziel setzt, desto schwerer wird es erreichbar, also wird man sich damit wohl zufrieden geben. Wenn man die Karte dann mit halbwegs ähnlichem Stromverbrauch hinbekäme, aber billiger in den Markt geben kann, wäre das ja durchaus was.

Jetzt könnte man ausrechnen, wieviele CUs usw. mehr man für Titan "Ultra" Leistung bräuchte, aber die Unbekannte in dieser Rechnung ist die veränderte Architektur. Irgendwas werden sie gemacht haben, worüber man sprechen kann, sonst gäbe es keinen Techday als Vorbereitung, oder?

Skysnake
2013-08-30, 08:18:35
Naja, irgendwelche Änderungen wird es sicherlich geben, aber wie groß das jetzt alles ist? Keine Ahnung.

Wenn ich mich recht erinnere müsste aber cohärenz mit dem CPU-Speicher auf der Tagesordnung stehen. Das allein wäre halt schon ein Grund, würde Gamer aber nichts bringen. Zumindest noch nicht.

ShadowXX
2013-08-30, 08:24:52
Jetzt könnte man ausrechnen, wieviele CUs usw. mehr man für Titan "Ultra" Leistung bräuchte, aber die Unbekannte in dieser Rechnung ist die veränderte Architektur. Irgendwas werden sie gemacht haben, worüber man sprechen kann, sonst gäbe es keinen Techday als Vorbereitung, oder?
Ich würde von GCN 2.0 nicht zu viel erwarten. IMHO definitiv weniger als 10% mehr Speed bei gleichen Takt gegenüber 1.0/1.1. Das werden Detailverbesserungen sein, quasi GCN 1.0 done right.

Ich glaube auch nicht das ATI sich gegen eine hypothetische Titan "Ultra" stellen will....zumindest nicht unter 28nm.
Ebenfalls glaube ich nicht das ATI wesentlich mehr machen wird als Sie wirklich müssen (sie sind ja kein Wohltätigkeitsverein), der Chip wird irgendwo bei der GTX 780 landen, ATI wird dann den Takt so anpassen das eine Stock GTX 780 in 7-8 von 10 Fällen in Benchmarks knapp geschlagen wird, in ausgewählten Szenarien vielleicht sogar eine Stock Titan (auf denen dann die PR rumreitet).

MR2
2013-08-30, 09:10:26
Mit Wohltätigkeit hat das nix zu tun. Wenn sie mehr Karten verkaufen wollen, müssen sie auch mehr tun als das Notwendigste.

maximus_hertus
2013-08-30, 09:19:10
Wenn sie "nur" die GTX 780 gerade so eben schlagen, sind 549-599 $/€ schlicht der Todesstoß. Du unterschätzt nVs Marketing bzw. die Konditionierung der User.

Geh mal in PC-Läden und schau dir an was die Kunden wollen. Bei Spiele-PCs ist die Rede von Mainboards, Prozessoren und GeForce Karten. Richtig, nicht von Grafikkarten, sondern von GeForce. AMD steht bei CPUs besser da als bei den Grafikkarten (Image). Ergo kann AMD nur dann was erreichen, wenn sie deutlicher vorne liegen oder einen deutlich besseren Preis haben.

Skysnake
2013-08-30, 09:34:10
Absolut /sign

AMD muss vorne liegen, und die niedrigen Preise sind auch keine Wohltätigkeit, Sie verkaufen damit einfach mehr, und da die Fixkosten nich unerheblich sind, rentiert es sich schnell, wenn man einen niedrigeren Preis nimmt, dafür aber eben entsprechend mehr Karten absetzt.

Das ist eigentlich ziemlich einfach. Die Frage ist halt, die sensitiv ist die Nachfragekurbe der Kunden...

Badner1972
2013-08-30, 09:45:48
Absolut /sign

AMD muss vorne liegen, und die niedrigen Preise sind auch keine Wohltätigkeit, Sie verkaufen damit einfach mehr, und da die Fixkosten nich unerheblich sind, rentiert es sich schnell, wenn man einen niedrigeren Preis nimmt, dafür aber eben entsprechend mehr Karten absetzt.

Das ist eigentlich ziemlich einfach. Die Frage ist halt, die sensitiv ist die Nachfragekurbe der Kunden...

Richtig..das nennt sich Preiselastizität..Klugscheißmodus aus :-)
:biggrin:

Skysnake
2013-08-30, 09:47:03
Ist mir bekannt, aber wir wollen doch nicht gleich wieder mit Fachvokabular um uns schmeisen ;)

OBrian
2013-08-30, 10:06:44
zu nah über der 7970GHz wird man auch nicht liegen wollen, immerhin kann man aus Hawaii mit Teildeaktivierung zwei Karten machen, die beide einen gewissen Abstand haben müssen und die untere auch wiederum von Tahiti. Ich denke, der Abstand zwischen OC-Versionen der 7870 und der normalen 7950 war denen schon viel zu gering, auch die geboostete 7950 stellt den gerade so her.

Wenn man sich diese Rangliste anschaut: http://ht4u.net/reviews/2013/xfx_r7970_double_dissipation_ghz-edition_im_test/index18.php
dann sieht man, daß da immer ungefähr ein Abstand von grob +15-20% vorhanden sein sollte, um eine nächstgrößere Karte zu rechtfertigen, die Lücken werden dann entweder mit OC-Modellen oder in diesem Falle mit den alten Modellen gefüllt (sprich GTX 670 und 680 bei NV und normale 7950 und 7970 bei AMD).

Die 780 und Titan sind also eigentlich genau diese beiden Schritte über der 7970GHz, d.h. es wäre irgendwo sinnlos, eine Hawaii zu bringen, die nicht wenigstens diese beiden Karten kontern kann. Wie gesagt mit der Überlegung, daß NV die restlichen 7% bei der Titan noch drauflegt, wäre es dann auch gut, ein paar Prozent vor Titan zu liegen.

Also man sollte ja nie zuviel vorher hoffen, aber wenn Hawaii XT gerade auf GTX-780-Niveau käme, wäre das nicht nur eine Enttäuschung für die Fanboys, sondern es wäre vor allem auch ökonomisch ein recht sinnloser Schritt. Soviel könnte man nämlich wohl auch durch eine noch stärkere Tahiti-Übertaktung fast erreichen, ein paar selektierte Karten sollten dafür reichen, praktisch null Aufwand, dafür baut man keinen neuen Chip. D.h. die reine Existenz Hawaiis spricht für mehr Leistung.

john carmack
2013-08-30, 10:19:12
Wenn sie "nur" die GTX 780 gerade so eben schlagen, sind 549-599 $/€ schlicht der Todesstoß. Du unterschätzt nVs Marketing bzw. die Konditionierung der User.

Geh mal in PC-Läden und schau dir an was die Kunden wollen. Bei Spiele-PCs ist die Rede von Mainboards, Prozessoren und GeForce Karten. Richtig, nicht von Grafikkarten, sondern von GeForce. AMD steht bei CPUs besser da als bei den Grafikkarten (Image). Ergo kann AMD nur dann was erreichen, wenn sie deutlicher vorne liegen oder einen deutlich besseren Preis haben.



hehe :D übel!!

jaja... Immer wieder das Gleiche. Ein Freund von mir hat keine Ahnung von PC´s und zockt eigentlich nur. Er will aber auf jeden Fall eine "GeForce" kaufen!
Aufklären (bzw. er will sich nicht aufklären lassen) konnt ich ihn bis jetzt nicht wie es wirklich um die Leistung zwischen NV und AMD einher geht.
Er gibt lieber 100€ mehr aus...

Dural
2013-08-30, 10:20:53
Die niedrigen Preise seitens AMD fördern ihr bekanntes Image ja auch immer, verstehe ich schon lange nicht mehr wie so AMD jedes mal das Gefühl haben muss, billiger als die Konkurrenz zu sein.

Bitte nicht falsch verstehen, Preis / Leistungs Kracher sollte jeder Hersteller im Programm haben, aber auch mal was besonderes auf den Markt hauen wie es eben Intel und NV machen.

Wenn man schon nur die AMD Karte anschaut, die sehen einfach immer nur billig aus... AMD ist heute noch nicht mal so weit wie es NV mit der 7800GTX 512 vor rund 8 Jahren (?) war!

Skysnake
2013-08-30, 10:32:53
Weil sonst gar keiner kauft?

Du musst ja bedenken, dass das Image da ist BEVOR die Preise da sind. Sprich, wenn der Preis nicht attraktiv ist, sieht der entsprechende Kunde schon 10mal keinen Grund ne AMD zu kaufen.

Es ist halt schon oft so wie Carmack es sagt. "Ich will ne GeForce !!!111einself" und dann gibt es eventuell das verdammt attraktive Angebot, und derjenige übelegt sich, ob er nicht doch eventuell ne AMD nehmen wird.

AMD steht bei vielen aber gar nicht als Option auf dem Plan, sondern muss sich die Position erst erkämpfen. Mit hohen Preisen wirst du das nie, denn wenn der Preis ähnlich ist, oder gar höher, wird sich mit dem Produkt gar nicht erst auseinander gesetzt.

john carmack
2013-08-30, 10:37:52
Eins steht für mich jedenfalls fest!

Wenn Hawaii XT Performance liefert und kein zweiter Thermi wird - ist diese Karte gekauft.
Dann wandert die 460AMP! in meinen Arbeitsrechner oder in den HTPC :)

V2.0
2013-08-30, 10:54:27
Weil sonst gar keiner kauft?

Du musst ja bedenken, dass das Image da ist BEVOR die Preise da sind. Sprich, wenn der Preis nicht attraktiv ist, sieht der entsprechende Kunde schon 10mal keinen Grund ne AMD zu kaufen.

Es ist halt schon oft so wie Carmack es sagt. "Ich will ne GeForce !!!111einself" und dann gibt es eventuell das verdammt attraktive Angebot, und derjenige übelegt sich, ob er nicht doch eventuell ne AMD nehmen wird.

AMD steht bei vielen aber gar nicht als Option auf dem Plan, sondern muss sich die Position erst erkämpfen. Mit hohen Preisen wirst du das nie, denn wenn der Preis ähnlich ist, oder gar höher, wird sich mit dem Produkt gar nicht erst auseinander gesetzt.

Das haben sie aber selber mit verbockt. Laute fiepende Referenzboards, teilweise Partnerkarten mit einer langen Problemliste. Und vor allem keine wirklichen Premiumpartner. Bei NV habe ich neben den großen (ASUS, Gigabyte, MSI) noch EVGA, Zotac und nun inno im Angebot. Alle bauen meist ordentliche Karten. (und selbst Gainward und Pallit sind nicht so schlimm) Bei AMD Club3D, Sapphire und XFX. Sapphire hatte einige Probleme XFX gerade wieder mit einigen 7970GE Karten und dem BIOS / Boost.

john carmack
2013-08-30, 10:56:39
Das haben sie aber selber mit verbockt. Laute fiepende Referenzboards, teilweise Partnerkarten mit einer langen Problemliste. Und vor allem keine wirklichen Premiumpartner. Bei NV habe ich neben den großen (ASUS, Gigabyte, MSI) noch EVGA, Zotac und nun inno im Angebot. Alle bauen meist ordentliche Karten. (und selbst Gainward und Pallit sind nicht so schlimm) Bei AMD Club3D, Sapphire und XFX. Sapphire hatte einige Probleme XFX gerade wieder mit einigen 7970GE Karten und dem BIOS / Boost.


Stimmt... Wobei es auch Gigabyte AMD Karten gibt.

Warum aber kein ASUS?

Doch gibt es!

Skysnake
2013-08-30, 10:59:40
Ich wollte es grad sagen :ugly:

V2.0
2013-08-30, 11:20:16
Ich sage doch, neben den 3 großen fehlt es AMD an guten Exklusivpartnern.

john carmack
2013-08-30, 11:29:31
Club 3D sieht halt schon wirklich billig aus...
Aber Sapphire geht doch vor allem mit der Toxic und der Vapor-X Reihe...

Skysnake
2013-08-30, 11:40:28
Also die 7990 von denen sah alles andere als "billig" aus :biggrin:

Und die XFX sehen finde ich am "wertigsten" aus. Allein dieser Look von aus dem vollen gefrästen Lüfter Umrandungen ist einfach geilo :biggrin:

Ailuros
2013-08-30, 11:56:42
Wie waere es wenn wir den spam/OT Grad etwas begrenzen wuerden?

Tressa
2013-08-31, 09:17:34
Hallo!

Mein erster Beitrag und gleich mal eine dumme Frage...

Ist VI jetzt eine Refresh oder eine neue Architektur? So ganz klar ist mir das noch immer nicht.

dildo4u
2013-08-31, 09:21:20
GCN ist erst grad neu das wird jetzt upgedatet,bisher ist nur HSA Fähigkeit bekannt.

http://www.3dcenter.org/news/amds-volcanic-islands-bringt-angeblich-einen-mix-aus-gcn-11-und-20-grafikchips

Hübie
2013-08-31, 09:27:51
Heißt es nicht geupdated? ;D

Hab ich diese Woche irgendwas verpasst? =)

Tressa
2013-08-31, 09:33:52
Danke. Also eher sowas Refresh+? GCN 1.1 und 2.0 sind mir ein Begriff, aber im Prinzip sind das ja auch nur Namen.

Mir ist nicht ganz klar wie die Unterscheidung überhaupt getroffen wird. Ein neues Fertigungsverfahren (28nm > 20nm) zählt ja nicht als Architekturänderung, oder? Mehr Transistoren ebenfalls nicht? Wie sieht’s bei einem breiteren SI aus?

Vielleicht ein bißchen akademisch, da für den Käufer ja eigentlich nur wichtig welche Leistung am Ende raus kommt, aber finds trotzdem interessant.

maximus_hertus
2013-08-31, 09:34:08
Nein, nix verpasst. Hier gibt es nichts zu sehen, weiter gehen ;)

GCN 2.0 ist ein optimierter GCN 1.0/1.1. Ergo keine neue Architektur, die gibt es alle 4-5 Jahre.

Skysnake
2013-08-31, 09:41:34
Wobei Fermi und Kepler an sich auch "neue" Architekturen waren. Ist halt immer Definitionssache.

Was jetzt GCN 2.0 genau kann wissen wir nach dem Techday Ende September.

Hübie
2013-08-31, 10:51:12
Na ja wobei Kepler ja aus Fermi gewachsen ist. Gibt viele Parallelen. Glaube bei GCN 2.0 wird es auch nicht allzu dramatische Änderungen geben. Liegt unter anderem daran das GCN 1.0/1.1 ja schon sehr umfangreiche Features hat.

Skysnake
2013-08-31, 10:52:22
Klar, aber manchmal können schon kleine Details sehr sehr große Veränderungen bedeuten, bzw Sachen eben verbessern.

Einfach mal den shared Memory zu verdoppeln wäre kein großes Ding, aber ziemlich geil :biggrin:

S940
2013-08-31, 11:02:39
Warum aber kein ASUS?

Doch gibt es!
Jupp hab ne 7770 von denen, bessere Bauteile (Wandler/Kondensatoren) und ein topp CU-Kühler, war das bisschen Aufpreis absolut wert.

@VI:
Bin mir nicht sicher, ob da jetzt schon GCN2 kommt, oder aber nur GCN1.1 aka 7790/KonsolenGPUs in groß. Würde da jetzt auf alle Fälle nicht zu viel erwarten.
Das andere Extrem wären "langweilige" HPC-Features. Darüber würde sich Skysnake und Gipsel freuen, dann vielleicht noch ein paar DCler, aber das wars dann an Begeisterung glaub ich *G*

Hübie
2013-08-31, 11:08:40
Klar, aber manchmal können schon kleine Details sehr sehr große Veränderungen bedeuten, bzw Sachen eben verbessern.

Einfach mal den shared Memory zu verdoppeln wäre kein großes Ding, aber ziemlich geil :biggrin:

GDS oder LDS? Oder beide? GDS wäre ja nur sinnvoll wenn du auch den command-proc erweiterst bzw. das frontend mit aces etc... oder?

Skysnake
2013-08-31, 11:28:13
Ich mein den LDS, also CUDA Sprech halt sharedMemory bzw OpenCL Sprech local Memory.

Der GDS ist ja soweit ich das jetzt im Kopf habe per OpenCL noch gar nicht nutzbar, also nicht durch Standardfunktionenen. Das muss man wohl Assembler für nutzen....

Ich hoffe ja auch, das in der nächsten OpenCL Version endlich die ganzen GCN-Features leicht! nutzbar werden. Dann würde AMD mit OpenCL von den Funktionen her nämlich in nichts mehr nachstehen, wenn denn endlich alles auch nutzbar wäre....

Das ist ja mal wieder das mega harte... AMD hat mit GCN ne geile Architektur hingestellt, aber gerade so Sachen wie das erzeugen von neuen Threads usw kann man nicht vernünftig nutzen -.- Und wie toll das ist, hat ja nVidia gezeigt, die das gehypet haben beim GK110 launch wie noch was...

AMD bekommts mit der Software einfach nicht so richtig gebacken, wobei man sagen muss, wenn so ne grundlegend neue Architektur kommt, kann man das eine oder andere Auge mal zudrücken, aber wenn jetzt die zweite Gen kommt, dann muss das mit dem einfachen API-Support funktionieren, sonst gibt es eine auf den Sack!:mad:

EDIT:
So ich muss mir echt grad nochmal Luft machen, habs nämlich grad nochmal nachgelesen:

The SI-GPU contains a 64 kB global da
ta share memory that can be used by
wavefronts of running a kernel on all compute units. This memory enables
sharing of data across multiple workgr
oups. The GDS is configured with 32
banks, each with 512 entries of 4 bytes. It provides full access to any location
for use by any wavefront. The GDS also supports 32-bit integer atomic
operations to enable fast, unordered atomics. Data can be preloaded from
memory prior to kernel launch and written to memory after kernel completion.
The GDS block contains support logi
c for unordered append/consume and
domain-launch-ordered append/consume
operations through the global wave
sync (GWS). These dedicated circuits enable fast compaction of data or the
creation of complex data
structures in memory.
Weist du WIE GEIL! GWS in OpenCL allein wäre?

Wenn du globale Synchronisation brauchst für deinen Algorithmus, dann musst du den kompletten Kernel beenden, und einen neuen launchen... Weist du was das an Overhead produziert? Zu viel...
Wenn man da effizient syncen könnte, das wäre SOOOOOO geil. Kann meines wissens nach nVidia selbst mit GK110 noch nicht, wobei ich mir da nicht wirklich sicher bin. Gipsel?

Weist du was der einzig gangbare weg heute ist, um so was zu machen? Man lässt maximal so viele Threads laufen wie man ALUs hat, so das man bussywaiting machen kann, ohne das etwas blockiert...

Hier mal ein Beispiel, welchen Pferdefuß man sich aufhalst, wenn man es aktuell machen will.. http://industrybestpractice.blogspot.de/2012/07/global-synchronisation-in-opencl.html

Naja, ich hoffe ja das mit der nächsten OpenCL-Version global_barrier kommt. Die barrier wurde ja in 2.0 in work_group_barrier umbenannt :biggrin:

Nakai
2013-08-31, 11:39:43
Der GDS ist ja soweit ich das jetzt im Kopf habe per OpenCL noch gar nicht nutzbar, also nicht durch Standardfunktionenen.

Hu, was meinst du damit? GDS für globale Synchronisation?

Dickerer LDS wäre echt nicht schlecht.

Ich hoffe ja auch, das in der nächsten OpenCL Version endlich die ganzen GCN-Features leicht! nutzbar werden. Dann würde AMD mit OpenCL von den Funktionen her nämlich in nichts mehr nachstehen, wenn denn endlich alles auch nutzbar wäre....

Naja es gibt viele Sachen, die bei OpenCL noch kommen müssten, dass es richtig abgeht.

https://www.khronos.org/news/press/khronos-releases-opencl-2.0

Sieht schonmal gut aus.

Skysnake
2013-08-31, 11:55:41
GlobalDataShare

Also sowas wie der LDS (=sharedMemory in CUDA bzw. localMemory in OpenCL), der also nur innerhalb einer Workgroup Daten austauschen kann, nur eben dass der GDS es ermöglicht Daten über ALLE! CUs aus zu tauschen, zumindest habe ich das so im Kopf.

Man könnte also, wenn man es vernünftig einbaut, sehr sehr latenzarm Daten zwischen allen Workgroups austauschen. Der GDS soll ja, soweit ich das vertanden habe, ja auch für GWS verwendet werden, und halt, sobald man GWS nutzt, nicht mehr voll nutzbar sein.

EDIT:
Die Sache mit Dynamic Parallelism ist ja interessant, hatte das bei 2.0 gar nicht mit bekommen. -.- Gibts dafür Beispiele? Ohne GlobalSync ist das aber halt auch wieder so ne Sache. Sortieralgos können das sicherlich ganz gut gebrauchen, aber sonst wirds halt ohne Sync sehr speziell.

del_4901
2013-08-31, 12:10:56
Weist du was der einzig gangbare weg heute ist, um so was zu machen? Man lässt maximal so viele Threads laufen wie man ALUs hat, so das man bussywaiting machen kann, ohne das etwas blockiert...:
Spinlocks, als den einzig gangbaren Weg hinzustellen ist schon einen :facepalm: wert. Alles was nicht linear skalliert ist ein fail.

Nakai
2013-08-31, 12:12:35
Also solange es keine globale Synchronisation gibt, ist der GDS sowieso kaum effektiv nutzbar. Schnelle globale Speicherzugriffe sind sicherlich sehr nett, wichtiger wäre es globale Synchronisation hinzukriegen. Zwischen den einzelnen WGs zu synchronisieren wäre echt geil, dann könnte man endlich sehr viele Algorithmen sehr gut umsetzen und müsste nicht mehr die letzten Schritte auf der CPU machen.

...weil ich es grad les:

Wenn du globale Synchronisation brauchst für deinen Algorithmus, dann musst du den kompletten Kernel beenden, und einen neuen launchen... Weist du was das an Overhead produziert? Zu viel...
Wenn man da effizient syncen könnte, das wäre SOOOOOO geil. Kann meines wissens nach nVidia selbst mit GK110 noch nicht, wobei ich mir da nicht wirklich sicher bin. Gipsel?

Globale Synchronisation bei GCN? WTF, wäre das geil.

Naja, ich hoffe ja das mit der nächsten OpenCL-Version global_barrier kommt. Die barrier wurde ja in 2.0 in work_group_barrier umbenannt

Interessant ;).
Damit würde die Einsatzbereiche für GPGPUs extrem werden. Jegliche parallele Sortier-, Reduktions, Such-, etc-Algorithmen, welche eigentlich globale Synchronisation bräuchten, würden damit erschlagen werden.

Mal OT:
Dumme Frage, gibt es für OpenCL irgendwelche Libraries für riesige Zahlen(1024bit Int).

€:
@Skysnake:
Die Sache mit Dynamic Parallelism ist ja interessant, hatte das bei 2.0 gar nicht mit bekommen. -.- Gibts dafür Beispiele? Ohne GlobalSync ist das aber halt auch wieder so ne Sache. Sortieralgos können das sicherlich ganz gut gebrauchen, aber sonst wirds halt ohne Sync sehr speziell.

Laut OpenCL 2.0 Specs:
Ending a command: Child kernels may be enqueued such that they wait for the parent
kernel to reach the end state before they can be launched. In this case, the ending of the
parent command defines a synchronization point.

Ende des Parentkernels kann als Synchronisationspunkt dienen.

Hübie
2013-08-31, 12:15:17
Ich bin zwar nicht so bewandert wie du, skysnake, aber bin mir ziemlich sicher dass du mit Kepler Warps über CUDA syncen kannst.
Allerdings weiß ich nicht wofür man das braucht - das ist dein Spezialgebiet ;) Nach zwei Jahren könnte man sowas aber auch in OpenCL erwarten. GCN ist ja nun wirklich nicht mehr neu... :rolleyes: Das ist halt der Nachteil bei diesem offenen Krimskrams es dauert alles oder es wird mittels flicken gelöst / umgangen. Von OpenCL habe ich jedoch nur soviel Ahnung wie eine Kuh vom Fahrrad fahren - das gebe ich offen zu.

Skysnake
2013-08-31, 12:34:45
Du kannst die Warps innerhalb eines Blocks nur syncen.

Ein Block entspricht einer Workgroupe in OpenCL.

Ein Warp sind immer 32 (ist das noch so?) Threads. Das entspricht also etwa einer Wavefront in OpenCL.

In CUDA müsste ein Sync also über mehrere Blocks hinweg möglich sein, das ist es aber meines Wissens nach nicht.

Spinlocks, als den einzig gangbaren Weg hinzustellen ist schon einen :facepalm: wert. Alles was nicht linear skalliert ist ein fail.
Dann erleuchte uns doch bitte, wie man es sonst gelöst bekommt mit Hardware, die keine globalen Syncs kennt, nur auf den RAM alle Einheiten gemeinsam zugreifen können, und die Hardware auch kein preemption kennt.... Ich bin echt gespannt. Wenn du was sinnvolles kennst, dann immer her damit, darüber haben sich nämlich schon einige Leute ihr Hirn zermartert, weil es eben ein echtes Problem darstellt.

Also solange es keine globale Synchronisation gibt, ist der GDS sowieso kaum effektiv nutzbar. Schnelle globale Speicherzugriffe sind sicherlich sehr nett,

Naja, es gibt schon Sachen, wo es sicherlich ganz nett ist. Irgendwelche Scoreboards z.B. mit denen man z.B. entscheiden kann, ob man den Durchlauf eines Kernels abbrechen soll, um dann die Daten neu zu mappen und wieder einen Kernel neu zu starten. n-Bodysimulationen usw könnte ich mir da z.B. ganz gut vorstellen.

wichtiger wäre es globale Synchronisation hinzukriegen. Zwischen den einzelnen WGs zu synchronisieren wäre echt geil, dann könnte man endlich sehr viele Algorithmen sehr gut umsetzen und müsste nicht mehr die letzten Schritte auf der CPU machen.

...weil ich es grad les:

Absolut richtig. Man könnte komplette Klassen von Algorithmen endlich auf die GPU bringen, die bisher einfach nicht performant portierbar waren, weil einem der globale Sync gefehlt hat. Das wäre echt nen riesen Schritt.


Globale Synchronisation bei GCN? WTF, wäre das geil.

Ja, steht genau an einer Stelle in der Doku.... :ubash3:

Deswegen ist das auch kaum jemandem bekannt, wie mit so vielen Dingen bei GCN. Da steckt echt viel drin an Hardwarefunktionen. AMD hat da was richtig richtig geiles an sich gebaut. Man kann davon nur vieles einfach noch nicht vernünftig nutzen. Wer setzt sich denn hin und schreibt das Zeug in Assembler? Das ist der Weg in den Wahnsinn...


Interessant ;).
Damit würde die Einsatzbereiche für GPGPUs extrem werden. Jegliche parallele Sortier-, Reduktions, Such-, etc-Algorithmen, welche eigentlich globale Synchronisation bräuchten, würden damit erschlagen werden.

/sign


Mal OT:
Dumme Frage, gibt es für OpenCL irgendwelche Libraries für riesige Zahlen(1024bit Int).
Keine Ahnung, gibt es sicherlich irgendwo, aber mir selbst ist keine bekannt. Wenn du aber eine findest, dann schick mir den Link ich hab sowas auch schon öfters gesucht.:wink:

EDIT:
@Nakai:
ah, das ist natürlich gut.

Dann könnte ich das eventuell auch nutzen. Einfach nen Kernel starten, und dann in dem selbst wiederum den eigentlichen Kernel für meine Berechnungen starten. Ich hab da nämlich doublebuffering, und tausch nur die Buffer aus. Müsste dann ja eigentlich gehen, fragt sich nur welche Einschränkungen es da gibt. Ich will dann ja vollwertige Kernel starten. Du weißt nicht zufällig welche Stolperfallen/Einschränkungen es gibt?

Wobei man dann halt nicht mehr so einfach das Profiling auswerten kann :( Das ist auch wieder doof, aber in realen Anwendungen verschmerzbar.

Nakai
2013-08-31, 14:26:06
EDIT:
@Nakai:
ah, das ist natürlich gut.

Dann könnte ich das eventuell auch nutzen. Einfach nen Kernel starten, und dann in dem selbst wiederum den eigentlichen Kernel für meine Berechnungen starten. Ich hab da nämlich doublebuffering, und tausch nur die Buffer aus. Müsste dann ja eigentlich gehen, fragt sich nur welche Einschränkungen es da gibt. Ich will dann ja vollwertige Kernel starten. Du weißt nicht zufällig welche Stolperfallen/Einschränkungen es gibt?

Wobei man dann halt nicht mehr so einfach das Profiling auswerten kann :( Das ist auch wieder doof, aber in realen Anwendungen verschmerzbar.

Also mit OpenCL 2.0 hab ich noch nicht gearbeitet. Jedoch gibts da wirklich viele Neuerungen, wie es scheint. Es gibt nun noch SubWorkGroup und viele andere WorkGroup-Funktionalitäten(zB.: Broadcasts), SharedVirtualMemory, etc. Die Spezifikationen sind noch sehr roh, werden noch als provisorisch marktiert. Man sollte wirklich noch warten, dass dann alles möglich ist.

Wäre toll für Reduktionsalgorithmen oder für statische Berechnungen anhand eines Datensatzes(Variance, Abweichung, Clustering). Jede Workgroup berechnet für sich selber die Werte, am Ende wird eine Kernel gespawnt, der dann die berechneten Werte weiter reduziert. Man müsste nix mehr auf der CPU machen.^^

Skysnake
2013-08-31, 14:45:15
Jup.

Ich könnte das eventuell auch gut für nen connectedComponents Algorithmus gebrauchen. Das Ding lässt sich nämlich fast gar nicht auf ne GPU mappen, einfach weil die Synchronisation so beschissen ist...

Iruwen
2013-08-31, 16:43:16
Heißt es nicht geupdated?

Mit d am Ende schonmal gar nicht ;)
http://www.duden.de/rechtschreibung/updaten

Hübie
2013-08-31, 17:03:16
Mit d am Ende schonmal gar nicht ;)
http://www.duden.de/rechtschreibung/updaten

Öhm. Das war n blöder Scherz. Aktualisiert würde ich sagen ;D

Nakai
2013-08-31, 17:39:24
Jup.

Ich könnte das eventuell auch gut für nen connectedComponents Algorithmus gebrauchen. Das Ding lässt sich nämlich fast gar nicht auf ne GPU mappen, einfach weil die Synchronisation so beschissen ist...

Es ist einfache extrem aufwendig, alle Work-Items zu synchronisieren, vor allem, weil eh nicht alle gleichzeitig arbyten können. Falls da endlich mal Globale Synchronisation eingeführt wird, wäre das ziemlich heftig. Jedes WorkItem wäre dann wie eine richtiger "Kern" "ansprechbar" und man könnte fast alle parallele Algorithmen drauf implementieren. Von VI erwarte ich solche Features leider noch nicht, bzw. von AMD gar nicht, da die kaum Finanzen haben, um eigene Features durchzudrücken.


mfg

Skysnake
2013-08-31, 17:46:07
Ich glaub du verstehst das Falsch.

Bereits GCN1.0 KANN! es, man kann es nur nicht gescheit durch eine API nutzen...

matty2580
2013-08-31, 19:27:28
Ich glaube aber nicht daran, dass sich das bei AMD schnell ändern wird.
Du hast es ja schon oft betont. AMD hat tolle Hardware und Features, aber vergeigt es immer am Ende mit dem entsprechenden Support.
Nach dem heftigen Personalabbau vor kurzem wird sich das auch nicht ändern.
Laut den Gerüchten wurde genau hier auch deutlich eingespart.

Nakai
2013-08-31, 19:32:03
Ich glaub du verstehst das Falsch.

Bereits GCN1.0 KANN! es, man kann es nur nicht gescheit durch eine API nutzen...

Ne, das hab ich schon gerafft, nur wird es eben durch OpenCL nicht genutzt.

Ich meinte eher, dass AMD eine eigene API zur internen Programmierung entwickeln sollte, ähnlich wie CUDA, bzw. eigene zusätzliche OpenCL-Libraries bereitstellen. ;)

€:
Ich glaube aber nicht daran, dass sich das bei AMD schnell ändern wird.
Du hast es ja schon oft betont. AMD hat tolle Hardware und Features, aber vergeigt es immer am Ende mit dem entsprechenden Support.
Nach dem heftigen Personalabbau vor kurzem wird sich das auch nicht ändern.
Laut den Gerüchten wurde genau hier auch deutlich eingespart.

Um ehrlich zu sein, sehe ich das eher andersrum. Sicherlich hast du recht, dass AMD beim Support vergeigt, bei OpenCL hatte ich eher den umgekehrten Eindruck. Als ich mit OpenCL angefangen hab(also richtig bei 0) und noch viele Fragezeichen aufm Kopf gehabt habe, hat mich der AMD Developer Support am Besten geholfen. Da haben sich einige Leute tatsächlich viel Zeit genommen und mir sehr viele wichtige Fragen geklärt. Auch die Toolchain finde ich bei AMD deutlich besser/einfacher. Also GCN hat AMD im HPC-Bereich schon ziemlich beflügelt und wurde lange Zeit als die fortschrittlichste Architektur gesehen. Wenn das stimmt, das da globale Synchronisation theoretisch möglich ist, würde ich auch GCN >> Kepler sehen. Ahja, mir ist Spieleleistung wirklich egal. Bei meinen Algorithmen, die ich entwickelt habe, ist eine HD7750 in etwa so schnell, wie eine Tesla C2075, natürlich nur in SP.

matty2580
2013-08-31, 19:50:53
Ich kann das nur oberflächlich beurteilen.
Nvidia ist aber im professionellen Segment eine Größe.
Schön wäre es natürlich, wenn AMD da endlich auch einige Marktanteile dazu gewinnt.

Das hört sich gut an, wenn AMD dich kompetent beraten hat, ein Schritt in die richtige Richtung. Trotzdem bin ich skeptisch.

Skysnake
2013-08-31, 20:39:02
Ne, das hab ich schon gerafft, nur wird es eben durch OpenCL nicht genutzt.

Ich meinte eher, dass AMD eine eigene API zur internen Programmierung entwickeln sollte, ähnlich wie CUDA,

UM GOTTES WILLEN NEIN!:motz::nono:

Das drecks propritäre Geraffel sollen Sie sich lieber sparen! Das braucht echt keine Sau....


bzw. eigene zusätzliche OpenCL-Libraries bereitstellen. ;)

Ja bitte, oder halt OpenCL extensions. Ich habe keine Ahnung, warum AMD da nicht mehr macht, aber ich hab den Eindruck, dass Sie die Sachen lieber allgemein drin haben, so dass die Programmierer auch auf unterschiedlicher Hardware die Sachen nutzen können.

Da spielen sicherlich auch die APUs rein, für die so eine allgemeine Variante natürlich toll ist. Dennoch müssen Sie damit mal in die Pushen kommen. Vor allem Doku fehlt hierzu noch! Zur Not könnte ja jemand selbst entsprechende Sachen bauen, und das dann verteilen, aber wenn die Doku fehlt, dann haste halt ein Problem -_-


Um ehrlich zu sein, sehe ich das eher andersrum. Sicherlich hast du recht, dass AMD beim Support vergeigt, bei OpenCL hatte ich eher den umgekehrten Eindruck. Als ich mit OpenCL angefangen hab(also richtig bei 0) und noch viele Fragezeichen aufm Kopf gehabt habe, hat mich der AMD Developer Support am Besten geholfen. Da haben sich einige Leute tatsächlich viel Zeit genommen und mir sehr viele wichtige Fragen geklärt. Auch die Toolchain finde ich bei AMD deutlich besser/einfacher. Also GCN hat AMD im HPC-Bereich schon ziemlich beflügelt und wurde lange Zeit als die fortschrittlichste Architektur gesehen. Wenn das stimmt, das da globale Synchronisation theoretisch möglich ist, würde ich auch GCN >> Kepler sehen. Ahja, mir ist Spieleleistung wirklich egal. Bei meinen Algorithmen, die ich entwickelt habe, ist eine HD7750 in etwa so schnell, wie eine Tesla C2075, natürlich nur in SP.
Ja, die Sachen die da sind, sind wirklich gut. Nur leider sind noch zu viele Baustellen offen...

Bei AMD hat man manchmal den Eindruck, dass das was Sie machen 110% gut sein muss... Dabei sind auch 80% Lösungen besser als halt gar keine... Das wird da habe ich den Eindruck manchmal vergessen.

Ansonsten seh ich die Umstruktirierungen durchaus positiv. Gehackt hat es ja eh, also wenn ich X Leute raus werfe, aber Y neue einstelle, und mit denen was neues Aufbaue, wo eh niemand wirklich viel Erfahrung hat, dann muss das nicht negativ sein.

Man sieht ja, das die Sachen durchaus ihre Zeit brauchen, aber wirklich endlich mal kontinuierlicher Fortschritt sichtbar ist.

Und ich hoffe immer noch auf 1:2 DP:SP, denn wenn das kommt ist die Marschrichtung klar, und dann gibt es begründete Hoffnung, das sich auch bei der Software einiges tut.

Gipsel
2013-08-31, 21:43:40
Bereits GCN1.0 KANN! es, man kann es nur nicht gescheit durch eine API nutzen...Ich erinnere an einen Post von gestern vor einem Jahr (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9444313#post9444313). :rolleyes:

Hübie
2013-08-31, 22:50:25
Da schweigt sich die Dokumentation aber verdächtig drüber aus. auch wenn es nicht viel Erklärungsbedarf gibt. Dennoch merkwürdig.

Skysnake
2013-08-31, 23:00:09
Ich erinnere an einen Post von gestern vor einem Jahr (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9444313#post9444313). :rolleyes:
Das ist aber was anderes, als ne echte Barrier Gipsel, und das weist du auch :P

Ich hab jetzt nichts bezüglich irgendwelchen Einschränkungen gefunden, aber du weist ja wie das "Spielchen" läuft. Hört sich super dupi an, aber am Ende kommen dann irgendwelche Pferdefüße bei raus....

Ich rede expliziet von ner Barrier zum syncen, und nicht von irgendwelchen Hilfskonstrukten.

LOL ok, kommando retour, das hat sich fast identisch mit nem anderem Post von heute gelesen, und ich hab irgendwie nicht gerafft, dass da 2012 steht ;D

Ist ja lustig, wie sich die Sachen wiederholen, aber andererseits auch echt bitter, dass sich da so wenig getan hat....

Daran, dass das bereits die HD5k Serie hat, konnte ich mich schon gar nicht mehr erinnern. Ist halt nicht mehr aktuell, und in VLIW halt auch völliger Wahnsinn den Code in der ISA direkt zu schreiben :ugly:

Da bewunder ich dich echt, dass du dir sogar solche Sachen merken kannst.

PS: Ich bin gestern über dich bei Collatz Conjecture gestolpert :biggrin:
Tolle Sache, hat mir immerhin 3,5 Mio Punkte eingebracht :up:

Ich muss glaub ich mal hier usw weniger schreiben und wieder mehr GPU-Programmieren. Aber es ist echt schwer, mal auch was zu finden, was nicht gleich total over the top ist, aber dennoch auf ner GPU sinn macht. :(

Gipsel
2013-08-31, 23:27:13
das hat sich fast identisch mit nem anderem Post von heute gelesen, und ich hab irgendwie nicht gerafft, dass da 2012 steht ;DDeswegen habe ich mich ja auch dran erinnert. ;)

Und zu Collatz, der aktuelle OpenCL-Code ist nicht von mir, ich habe nur die ursprünglichen Versionen implementiert (CPU und GPU). Der Algorithmus ist aber immer noch der gleiche. Ist eigentlich vom Code her super einfach (zu verstehen, warum der genau so funktioniert vielleicht etwas schwieriger), auch wenn es nicht der naive Ansatz ist. Es gibt eine 16MB Lookup-Table, die Multiplikatoren und Summanden enthält, um immer gleich 20 bis 40 Schritte in einer Iteration auszuführen. Als Index werden einfach die letzten 20 bits der Zahl benutzt (die Tabelle hat also genau 2^20 uint4-Einträge, das ist der Sweetspot, weil schon ein Schritt mehr pro Iteration die 32Bit-Einträge sprengen würde [3^21 > 2^32] und man nicht mehr die nativen 32Bit-Operationen benutzen könnte, bzw. nicht mehr mit sechs 32x32=64Bit-Multiplikationen pro Iteration auskommen würde), die Tabelle wird am Anfang auf der CPU vorberechnet (wo mehr Gehirnschmalz und auch bald mehr Code für draufgeht, als für den Rest, auch wenn es nur < eine Sekunde läuft). Und weil das ja gerade schon mal aufkam, da wird mit 192Bit-Integern gerechnet (kann aber nur Addition und Multiplikation von 192Bit-Werten mit 32Bit-Werten, ist halt absolut streamlined, 256Bit oder längere Zahlen sind trivial aber momentan unnötig, es wird nur der overflow gecheckt und dann ein entsprechendes Signal im Ergebnisfile ausgegeben [falls das vorkommen sollte, wäre es mit einer gewissen Wahrscheinlichkeit die Widerlegung der Vermutung, deswegen sollte man das besser checken ;)]).
War der gute alte Bruteforce-Ansatz, die alte AMD-Version lief übrigens als Pixelshader ohne jegliche fancy features wie LDS oder sowas (hat aber bit_align für shifts von 64bit Werten benutzt, wenn unterstützt; wenn ich darüber nachdenke, es gab eigentlich noch mehr Unterschiede: wenn unterstützt, wurde auch add_carry benutzt; es gab insgesamt drei (benutzte) GPU-Codepfade, iirc), auch für die Reduktion. Alles unnötig und bremst nur (zumindest auf Radeons, die CUDA-Version nutzte das schon, hat aber auch nichts geholfen :D). Das ist auch mit ein Grund, warum die OpenCL-Version typischerweise langsamer ist als die in IL geschriebene Stream-Version (auf Karten, wo beide liefen). Aber den OpenCL-Compiler dahin zu bekommen, wirklich guten Code auszuspucken, ist wohl offenbar nicht so einfach. Ich wäre ja dafür, daß AMD zumindest für GCN mit einer Erweiterung inline assembler oder umfassende, direkt auf die ISA mappende Intrinsics erlaubt. Mit Präprozessor-Direktiven kann man das ja trotzdem portabel und für alles kompatibel halten (die CPU-Version nutzt auch inline assembler/intrinsics, die per Präprozessor für die jeweilige Target-Architektur ausgewählt werden und als Backup gibt es eine reine C-Version).
Auf schnellen Karten ist das schon ein harter Test für die Speicherhierarchie und ich war ehrlich verwundert, wieviel Bandbreite die Karten doch mit praktisch zufälligem Zugriffsmuster mit 16 Byte pro Zugriff auf einen 16MB-Buffer realisieren können. Das ist an der Grenze, bandbreitenlimitiert zu sein (ein latenzoptimiertes Speichersystem wie das einer CPU wäre es, selbst wenn es bei sequentiellem Zugriff die gleiche Bandbreite hätte, aber CPUs sind Größenordnungen langsamer).

Skysnake
2013-09-01, 00:25:32
Egal, ob dass die aktuell ist oder nicht, du kannst dir dafür selbst ziemlich auf die Schultern klopfen, und ich ziehe meinen Hut vor der Leistung :up:

@Topic:
Irgendwie werde ich richtiggehend stinkig, je länger ich über diese "lustige" Parallele nachdenke...

AMD soll da echt mal den Arsch hoch bekommen... Wenn man sich das mal vorstellt, seit der 5k Serie die Mittel in der Hand, was zu bringen, wonach sich die Leute die Finger lecken, und nVidia noch immer nicht hat, und die verkacken es... BOAH ich könnt ausrasten...

Ich glaub ich muss da echt mal jemanden wegen anhauen, kanns ja echt nicht sein...

S940
2013-09-01, 15:46:17
Das ist das alte AMD Problem ... Hardware hui, Software ...
FMA4 beim Bulldozer interessiert z.B. auch keinen. Das fing schon damals mit 3Dnow! an. Mit unter 20% Marktanteil kann man nicht viel machen.
Klar, bei GPU schauts anders aus, aber da war wiederum ATI nicht so toll. Aber langsam sollten sies nun wirklich gebacken bekommen ...

Skysnake
2013-09-01, 15:58:20
Naja, FMA4 kannste aber ziemlich einfach nutzen, das passt schon. Da ist halt das allgemeine Problem von Befehlssatzerweiterungen bei CPUs da, aber an sich haben Sie mit FMA4 alles richtig gemacht, das passt schon.

Bei den GPUs müssen Sie aber mal in die Pötte kommen. Vieles läuft schon viel besser, aber manche Fails ziehen sich halt hin und das völlig unnötig.

dargo
2013-09-02, 10:02:39
Wann genau kommen jetzt die neuen GPUs endlich? Mir gehts dabei mehr um die alten. Ich spekuliere darauf, dass die HD7950 Boost auf unter 200€ rutscht sobald die neuen GPUs da sind. Meint ihr das ist realistisch?

OBrian
2013-09-02, 10:22:14
Eher nicht, wenn nur Hawaii als Obendrüber-Chip kommt (mit 600$ als Titan-Gegner und 450-500$ als GTX780-Gegner) und Tahiti einfach so bleibt. Evtl. gibt es eine kleine Preiserosion, aber je weiter man von der Spitze wegkommt, desto weniger wird das sein. Die 7970GHz ist ja eigentlich schon preislich unterhalb der GTX770, also ist da kein Bedarf für Preisanpassungen, entsprechend passiert darunter aller Wahrscheinlichkeit nach auch nichts. Die Attraktivität erhöhen wollen sie ja mit den Spielebundles und nicht direkt über den Preis.

Nur wenn für die kleinere Chips auch Ersatz kommt, kann da Bewegung reinkommen.

Botcruscher
2013-09-02, 10:48:18
Wenn 780/Titan im Preis fallen müssen auch die anderen Karten angepasst werden.

boxleitnerb
2013-09-02, 10:55:56
Nicht unbedingt, denn nicht alle Karten sitzen vom Preis her da, wo sie sollten. Warum sollte man eine vernünftig bepreiste Karte um denselben Prozentsatz verbilligen, nur weil man das bei einer unvernünftig bepreisten Karte tut?

M4xw0lf
2013-09-02, 11:06:05
Sehr richtig. Selbst wenn eine Titan auf 500$ stürzen sollte wären die Preise der restlichen Karten ab GTX770 und abwärts im Vergleich dazu noch angemessen.

Botcruscher
2013-09-02, 11:08:43
Was ist bitte eine vernünftig eingepreiste Karte?! Die 28nm Generation ist einfach sehr teuer. Wir kommen ja gerade erst in sonst übliche Bereiche. Da sind durchweg problemlos noch 15-30% drin. Die 7950 wird bald Richtung 200 und die 7970 Richtung 280€ gehen. Das wirkt sich auch massiv auf die kleineren Karten aus. Die sind ja relativ weit zusammen. VI wird da spekulativ mit 380 und 480 einpendeln. Je nach dem was nun kommt und wie NV reagiert.

boxleitnerb
2013-09-02, 11:12:04
Eine GTX 770 für ca. 330 Euro ist durchaus vernünftig. Die 570 ist bei 350 gestartet und lag nach einem Jahr bei 275. Seit dem Launch der 770 sind gerade mal gute 3 Monate vergangen...Geduld.
Fängt dieses "geiz ist geil" schon wieder an? Volcanic Islands wird bei 549-599 starten, da hast du mein Wort drauf.

Botcruscher
2013-09-02, 11:20:16
Die Vollversion wird da einsteigen.

An GK104 und 330€ ist überhaupt nichts vernünftig. Etwas mehr Chipgröße als G92b oder GF104! 9800GTX oder 460er Größe. Damals ab 150 130€ für die OC. Heute für (mehr als) das Doppelte was geizig sein soll. NV verdient sich dabei dumm und dämlich.

PS: Das Gegenstück zur 570 ist die 780!!! Abgespeckter G110 vs abgespeckter GK110. Die 770 ist ein Mainstreamchip.

M4xw0lf
2013-09-02, 11:24:25
Die Vollversion wird da einsteigen.

An GK104 und 330€ ist überhaupt nichts vernünftig. Etwas mehr Chipgröße als G92b oder GF104! 9800GTX oder 460er Größe. Damals ab 150€. Heute für das Doppelte was geizig sein soll. NV verdient sich dabei dumm und dämlich.

PS: Das Gegenstück zur 570 ist die 780!!! Titan. Abgespeckter G110 vs abgespeckter GK110. Die 770 ist ein Mainstreamchip.
Fixed.

Botcruscher
2013-09-02, 11:26:56
Und die 580 ist die Titanultra.:freak: Ed: Für einen Preiskampf auf jeden Fall richtig viel Luft.

boxleitnerb
2013-09-02, 11:29:22
Die Vollversion wird da einsteigen.

An GK104 und 330€ ist überhaupt nichts vernünftig. Etwas mehr Chipgröße als G92b oder GF104! 9800GTX oder 460er Größe. Damals ab 150 130€ für die OC. Heute für (mehr als) das Doppelte was geizig sein soll. NV verdient sich dabei dumm und dämlich.

PS: Das Gegenstück zur 570 ist die 780!!! Abgespeckter G110 vs abgespeckter GK110. Die 770 ist ein Mainstreamchip.

Ein Mainstreamchip, der ordentlich hoch getaktet und mit dem besten Speicher daherkommt und auf seinen namentlichen Vorgänger aus der Fermi-Familie (GTX 570) fast 70% Performance drauflegt. Der Chip ist klein, das ist richtig, aber er ist so aufgepumpt, dass der Vergleich mit GF104/114 inzwischen hinkt. Das Ding ist ca. 3x so schnell wie die GTX460 und 2,5x so schnell wie die GTX 560 Ti - das ist definitiv nicht die Norm und eben dem hohen Takt geschuldet. Und das gibts nunmal nicht umsonst.

Botcruscher
2013-09-02, 11:34:54
Das dürfte auf den Vorgänger, vom Vorgänger, vom Vorgänger und davor auch zutreffen. Was zählt sind allein die Herstellungskosten der Fertigungsgröße.

AffenJack
2013-09-02, 11:38:18
Was zählt sind allein die Herstellungskosten der Fertigungsgröße.

Und die dürften selbst trotz langer Fertigungszeit bei 28 nm nen gutes Stück über den von 40 nm am Ende bei gleicher Chipgröße liegen.

aufkrawall
2013-09-02, 11:39:22
Und die dürften selbst trotz langer Fertigungszeit bei 28 nm nen gutes Stück über den von 40 nm am Ende bei gleicher Chipgröße liegen.
Das ändert laut Ail aber auch herzlich wenig am Abzocken.

boxleitnerb
2013-09-02, 11:40:44
Das dürfte auf den Vorgänger, vom Vorgänger, vom Vorgänger und davor auch zutreffen. Was zählt sind allein die Herstellungskosten der Fertigungsgröße.

Nein, was bei Preis/Leistung zählt sind Preis und Leistung. Es heißt nicht Preis/Kosten.

Gaestle
2013-09-02, 11:41:09
Die Diskussion ist ja nun nicht mehr ganz taufrisch.

Was zählt ist, was der Markt dafür zahlt. Wenn jemandem ein GK104 zu teuer ist, kann er sich immer noch bei AMD umsehen. Oder warten, bis GK104 billiger wird.

Wir sind aber im AMD-Thread.

Duplex
2013-09-02, 11:46:12
Zum Glück gibt es diesmal keine Fake Folien von "Donanimhaber" wie damals bei Cayman.

aufkrawall
2013-09-02, 11:47:10
Was zählt ist, was der Markt dafür zahlt. Wenn jemandem ein GK104 zu teuer ist, kann er sich immer noch bei AMD umsehen. Oder warten, bis GK104 billiger wird.

GK104 ist im Vergleich zu Tahiti gar nicht so teuer, sofern die eigene Psyche einem erlaubt, nicht den vollaktivierten Chip zu haben.
Heute ist die 670 wegen Auslaufens sogar noch günstiger, die hat schon fast wieder ein richtig gutes P/L-Verhältnis.

Botcruscher
2013-09-02, 11:49:39
Zum Glück gibt es diesmal keine Fake Folien von "Donanimhaber" wie damals bei Cayman.
Das kommt noch. Wäre ja sonst auch langweilig.

Nein, was bei Preis/Leistung zählt sind Preis und Leistung. Es heißt nicht Preis/Kosten.
Kunde-Hersteller. Und jetzt ist gut. Huldigt dem Marketing, dass euch erfolgreich auf die Preise konditioniert hat und erfreut euch an euren Karten.

Nakai
2013-09-02, 11:56:22
Zum Glück gibt es diesmal keine Fake Folien von "Donanimhaber" wie damals bei Cayman.

:freak:

Die kamen nicht vom Donanimhaber, sondern vom 3DC.;)

...
Für mich sind eh Maui, Iceland und Tonga sehr interessant. Für mich steht eh fest, dass ich erstmal bei AMD bleibe. Vor allem Kaveri ist doch sehr interessant, wegen HSA. Damit will ich auf jeden Fall etwas rumspielen.;)

Ahja, mich würde es nicht wundern, wenn Hawaii doch ziemlich groß wird.

Duplex
2013-09-02, 12:01:11
:freak:

Die kamen nicht vom Donanimhaber, sondern vom 3DC.;)
Sicher? Kennst du noch die Folie mit 1920 Shader "480-4D", später waren es nur noch 1536 "384-4D".

boxleitnerb
2013-09-02, 12:05:09
Kunde-Hersteller. Und jetzt ist gut. Huldigt dem Marketing, dass euch erfolgreich auf die Preise konditioniert hat und erfreut euch an euren Karten.

Ich huldige eher meinem Verstand, weil ich in der Lage bin, Begriffe zu verstehen ;)

Nakai
2013-09-02, 12:23:52
Sicher? Kennst du noch die Folie mit 1920 Shader "480-4D", später waren es nur noch 1536 "384-4D".

War das die geblurrte?
Natürlich kenn ich die, genauso wie die Fake-Folie zur HD6990.
Es gibt mindestens zwei Folien die vom 3DC gefälscht waren. Zusätzlich gabs noch viele gefälschte GPU-Z-Shots.

dargo
2013-09-02, 12:32:07
Fängt dieses "geiz ist geil" schon wieder an?
Du kannst ja gerne deinem Lieblings-IHV was spenden wenns dich glücklich macht. Ich muss einem Kumpel einen Rechner für 500€ zusammen stellen und bin momentan bei 530€ mit der HD7950. Also muss die vom Preis her runter. :P Hab leider die 199€ Aktion von Caseking verpasst. War ja nur ein Tag. :freak:

boxleitnerb
2013-09-02, 12:46:34
Das "Lieblings-IHV"-Gequatsche ist hier irrelevant, das kannst du für dich behalten. Warum muss man immer Leute in eine rote oder grüne Schublade stecken? Ganz schlechter Diskussionsstil.

Um mal wieder die Diskussion zurückzulenken auf das Thema:
http://videocardz.com/45523/retail-amd-radeon-r9-9000-series-arrive-mid-october

Mitte Oktober scheint bestätigt. Es soll 4 GB-Varianten geben (vermutlich von Hawaii), was mMn wieder für 512-bit spricht.

M4xw0lf
2013-09-02, 13:15:31
Um mal wieder die Diskussion zurückzulenken auf das Thema:
http://videocardz.com/45523/retail-amd-radeon-r9-9000-series-arrive-mid-october

Mitte Oktober scheint bestätigt. Es soll 4 GB-Varianten geben (vermutlich von Hawaii), was mMn wieder für 512-bit spricht.
Hmm. Oder aber für "krumme" VRAM-Experimente wie bei NV - falls was dran sein sollte.

boxleitnerb
2013-09-02, 13:21:49
Glaube ich eher nicht. Ich bin inzwischen bzgl. 512-bit zu 90% sicher.

M4xw0lf
2013-09-02, 13:26:03
Glaube ich eher nicht. Ich bin inzwischen bzgl. 512-bit zu 90% sicher.
Gut... denn DAS hier:

http://cdn.videocardz.com/images/2013/09/AMD-9000-series-leak-850x508.jpg

ist irgendwie insgesamt wenig überzeugend :D

boxleitnerb
2013-09-02, 13:31:02
Naja siehst du da irgendwo eine Konfiguration, die für ein 384-bit Interface sprechen würde? Ich nicht :)
Klar, sieht wild aus, aber das muss kein Argument dagegen sein. Ich tippe auf 512-bit bei 5-5.5 Gbps Speicher, um den Verbrauch nicht zu hoch zu treiben. Ca. 300 GB/s sollte locker reichen. Bei FirePro kann man ja immer noch höher gehen.

Edit:
Was allerdings komisch anmutet, ist die Anzahl der Speicherchips. Man würde doch normalerweise davon ausgehen, dass bei 4 GB doppelt soviele Chips zum Einsatz kommen wie bei 2 GB. Auf dem "Diagramm" sieht es aber ganz anders aus, da werden einfach Chips mit unterschiedlicher Kapazität erwähnt.

Insgesamt 20 Modelle sind auch etwas viel.

john carmack
2013-09-02, 13:32:36
Gut... denn DAS hier:

http://cdn.videocardz.com/images/2013/09/AMD-9000-series-leak-850x508.jpg

ist irgendwie insgesamt wenig überzeugend :D


Das hab ich im ersten Moment auch gedacht...
Mein WhiteBoard im Büro sieht nicht anders aus :D

OBrian
2013-09-02, 13:37:54
Also die Preise der Karten kann man ja durchaus für zu hoch halten, die GTX680 wäre auch für 100€ bestimmt noch mit Gewinn für NV verkaufbar. Aber die Preise sind nun mal so hoch, und keiner der beiden Konkurrenten fängt einen Preiskampf an, also passiert da nichts. Solange die Umsätze gut genug sind, sehen die ja auch keinen Bedarf, den Absatz mit Preissenkungen anzukurbeln. Da bleibt nur ärgern, einziges Druckmittel des Käufers wäre, nichts zu kaufen.

Es soll 4 GB-Varianten geben (vermutlich von Hawaii), was mMn wieder für 512-bit spricht. Nein, 4GB wäre zu wenig, um mit Titan (und auch mit einigen 7970GHz, die 6GB haben) mithalten zu können. Das spricht meiner Meinnung nach für eine kleinere Karte mit 256bit-Interface. Da steht ja auch "GDDR5 x 8 pcs", übliche Abkürzung für "pieces", also 8 Bausteine.

Im mittleren Feld steht "GDDR5 x 4 pcs", das wird wohl eine abgespeckte Version mit halber Bestückung (128bit SI), die entsprechend der Tabelle darüber im Oktober noch nicht kommt, sondern später oder gar nicht, je nach Bedarf, aber als AIB muß man sich auf so eine Eventualität ja vorbereiten.

Rechts ist dann die kleine Karte mit DDR3 x 8pcs, die aber nur x16er Bausteine sind, das ergibt dann auch 128bit.

Die Tabelle geht ja oberhalb und links bestimmt noch weiter, wo dann Hawaii auftauchen müßte, aber ausgerechnet den Teil sehen wir nicht. Honi soit qui mal y pense...

Jedenfalls könnten die Nummern unten Hardwarecodes sein, 1307** mit Buchstaben KL, RG und HJ hinten dran, möglicherweise Abkürzungen für Codenamen (nicht unbedingt Chips, können auch Codenamen der Boards sein).

Ailuros
2013-09-02, 13:52:13
Das "Lieblings-IHV"-Gequatsche ist hier irrelevant, das kannst du für dich behalten. Warum muss man immer Leute in eine rote oder grüne Schublade stecken? Ganz schlechter Diskussionsstil.

Um mal wieder die Diskussion zurückzulenken auf das Thema:
http://videocardz.com/45523/retail-amd-radeon-r9-9000-series-arrive-mid-october

Mitte Oktober scheint bestätigt. Es soll 4 GB-Varianten geben (vermutlich von Hawaii), was mMn wieder für 512-bit spricht.

Videocardz? :rolleyes: :eek: :freak:

boxleitnerb
2013-09-02, 13:53:01
Nein, 4GB wäre zu wenig, um mit Titan (und auch mit einigen 7970GHz, die 6GB haben) mithalten zu können. Das spricht meiner Meinnung nach für eine kleinere Karte mit 256bit-Interface. Da steht ja auch "GDDR5 x 8 pcs", übliche Abkürzung für "pieces", also 8 Bausteine.

Im mittleren Feld steht "GDDR5 x 4 pcs", das wird wohl eine abgespeckte Version mit halber Bestückung (128bit SI), die entsprechend der Tabelle darüber im Oktober noch nicht kommt, sondern später oder gar nicht, je nach Bedarf, aber als AIB muß man sich auf so eine Eventualität ja vorbereiten.

Rechts ist dann die kleine Karte mit DDR3 x 8pcs, die aber nur x16er Bausteine sind, das ergibt dann auch 128bit.

Die Tabelle geht ja oberhalb und links bestimmt noch weiter, wo dann Hawaii auftauchen müßte, aber ausgerechnet den Teil sehen wir nicht. Honi soit qui mal y pense...

Jedenfalls könnten die Nummern unten Hardwarecodes sein, 1307** mit Buchstaben KL, RG und HJ hinten dran, möglicherweise Abkürzungen für Codenamen (nicht unbedingt Chips, können auch Codenamen der Boards sein).

Warum steht dann überall 16x oder 32x bei den Konfigurationen? Das bezieht sich doch viel eher auf die Anzahl der Chips, z.B. 16x256MB (2 Gigabit-Chips) = 4GB. Und genau das macht keinen Sinn, weil es wahnsinnig teuer wäre, 32 Chips zu verbauen.

Es sei denn...AMD nimmt einfach das FirePro-PCB, wo 16 GB (8x 4Gb) drauf sein können und nimmt Chips mit kleineren Kapazitäten statt weniger Chips mit größeren Kapazitäten. Wer weiß, was billiger wäre, vielleicht gibt es Mengenrabatt oder die Chips mit 4 Gb Kapazität sind überproportional teuer.

@Ailuros:
Magst du uns ein paar eigene Infos mitteilen? :D

HOT
2013-09-02, 13:57:02
Die Speichermenge gibts bei FireGL dann halt mit 8GB, egal 256 oder 512Bit. auch die Menge der Chips ist variirbar, je nach Anbindung des Speicherchips. Zum Schluss kommt noch die Möglichkeit der asynchronen Anbindung hinzu, wie NV das bei vielen 192Bit-Modellen betrieb. Gut, für High-End wär das reichlich blöde. Spricht schon was für 512Bit. Auch die vielen PCB-Layer die vorher irgendwann schon mal erwähnt wurden. Für so ein Speicherinterface muss der Chip aber schon ein echt dickes Upgrade sein zu Tahiti, nicht nur ein paar Shader mehr...
Gut, mit AMDs alias 22nm (28nm SHP) könnte man einiges am Takt schrauben (1,5GHz?). Bleibt aber alles graue Theorie. Meiner Ansicht nach macht es Sinn die Prozessoren alle auf einem Prozess zusammenzubringen, viel von der Infrastruktur auf den Chips braucht man dann nur 1x entwickeln (Speichercontroller z.B.).

XB1-Chip (GCN 1.1), dediziert GCN 1.x, Kabini (GCN 1.1) -> 28nm HPM TSMC
PS4-Chip (GCN 2.0), dediziert GCN 2.x, Kaveri (GCN 2.0), Beema (GCN 2.x), Carizo (GCN 2/3.x) -> 28nm SHP GloFo (NY)?

boxleitnerb
2013-09-02, 13:58:42
Gab es schon jemals eine Karte mit 32 Speicherchips? Außer die Übermonster-Pro-Modelle...
Dafür gibts doch gar keinen Platz auf dem PCB. Selbst die K6000 hat wohl 2x12=24 Chips, also 12 vorne und 12 hinten, was dann 12 GB ergibt.

Okay, 16 Chips auf einer Seite gabs schonmal, bei GT200(b):
http://abload.de/img/pointofview-gtx285-2gkbsrp.jpg (http://abload.de/image.php?img=pointofview-gtx285-2gkbsrp.jpg)

M4xw0lf
2013-09-02, 14:00:08
Der nächste paper dragon, R600 reloaded? ^^
Naja gut, kann schonmal kein totales Desaster wie der R600 werden, die technische Grundlage GCN ist ja in Ordnung.

Duplex
2013-09-02, 14:05:40
Ein doppelter Pitcairn mit 512 Bit SI wäre auch nicht schlecht, laut Gipsel sind damit 30-40% auf die Ghz möglich, aber bei GPGPU braucht man wieder was anderes.

Hübie
2013-09-02, 14:11:27
Das is doch reine Kopfsache. Und nach Zahlen sollte man eh nicht gehen. In welcher Generation konnte der topdog gleich zweifache Geschwindigkeit ggü des Vorgängers hinlegen?

Hat hier jemand die PCGH-Kolumne bzgl AMDs Hawaii gelesen?

M4xw0lf
2013-09-02, 14:12:44
Das is doch reine Kopfsache. Und nach Zahlen sollte man eh nicht gehen. In welcher Generation konnte der topdog gleich zweifache Geschwindigkeit ggü des Vorgängers hinlegen?

Hat hier jemand die PCGH-Kolumne bzgl AMDs Hawaii gelesen?
Wer redet denn von doppelter Geschwindigkeit? :confused:

HOT
2013-09-02, 14:24:58
Das is doch reine Kopfsache. Und nach Zahlen sollte man eh nicht gehen. In welcher Generation konnte der topdog gleich zweifache Geschwindigkeit ggü des Vorgängers hinlegen?

Hat hier jemand die PCGH-Kolumne bzgl AMDs Hawaii gelesen?
Ja die ist echt grottig weil die Aussagen auch nicht stimmen. Mehr als 30% erwartet doch hier niemand ernsthaft davon und 20nm sind auch vom Tisch. Ich glaub der Autor konzentriert sich auf ein ganz paar, die echt verblendet sind, diese Meinungen gibts aber immer und sind keine Kolumne wert. Es geht doch jetzt eigentlich nur noch darum wo er herkommt, wie groß und wie effizient Hawaii ist.

Hübie
2013-09-02, 14:25:07
Wer redet denn von doppelter Geschwindigkeit? :confused:

Huch. Ich hatte nicht aktualisiert. Es ging noch um die Geldfrage ;D Scheiß smartphone...

@box: Bist du dir wirklich zu 90% sicher wegen 512 Bit memoryinterface??? Da halte ich mal gegen. Denk mal an die Kosten etc. 4GB würde man auch mit 256 Bit ansteuern können ohne krumme Anbindung (wie war doch gleich der Fachbegriff dafür? ). Wer sagt denn dass der topdog 4 GB bekommen soll??

HOT
2013-09-02, 14:32:08
Wie siehts eigentlich mit 256Bit + 4GB GDDR6-Speicher aus?

Ailuros
2013-09-02, 14:43:45
@Ailuros:
Magst du uns ein paar eigene Infos mitteilen? :D

Ich hab keine und will auch keine haben; aendert aber auch nichts an der vorerwaehnten Seite. Ich hab versucht vor kurzem ein angebliches "editorial" von denen durchzulesen und es wurde mir von all den Fehlern schon beim zweiten Paragraphen uebel.

Wie siehts eigentlich mit 256Bit + 4GB GDDR6-Speicher aus?

Sehr schlecht; Bumsseiten hin und her die Chancen sind gering dass box nicht recht hat.

Leonidas
2013-09-02, 15:16:28
Ich sehe ganz generell nicht, wieso irgendwas mit Launchtermin "Mitte Oktober" bereits DDR3-Speicher haben soll. AMD wird doch nicht gleich die komplette neue Generation mit einem Mal über uns ausschütten, das wäre marketing-technisch Quatsch und außerdem gäbe es dann schon diverse Anzeichen.

Die ganze Auflistung sieht nach viele aus, aber weniger nach einer Auflistung zu Hawaii.

HOT
2013-09-02, 15:28:57
Also 4GB 512Bit GDDR5 Speicher (8 und 16GB dann für FireGL).
- offenbar dickes PCB gesichtet
- offenbar tatsächlich 4GB und asynchrone Bestückung der Speicherkanäle bei High-End unwahrscheinlich.
- 256Bit wäre ein nicht unerheblicher Rückschritt ggü. Tahiti, für High-End ebenfalls unwahrscheinlich

OBrian
2013-09-02, 15:36:22
Ich sag ja gar nicht, daß Hawaii 256bit haben soll, das wär in der Tat elendig wenig. Aber für die Karte darunter kann es durchaus reichen. Könnte durchaus auf Tahiti-Niveau landen (außer in einigen besonders bandbreitenlimitierten Szenarien), wäre aber billiger zu produzieren. Ich schätze, Hawaii wird 384bit bekommen, ist aber auf diesem Foto nicht zu sehen.

Vielleicht kommen die kleineren Karten ja auch gleich mit dabei im Oktober, stören würde mich das nicht ;D

w0mbat
2013-09-02, 15:42:17
20nm, 512bit, HD7970GHz+60%

robbitop
2013-09-02, 15:51:42
20nm, 512bit, HD7970GHz+60%
14nm, 1024bit,HD7970+3000% ;D

Naitsabes
2013-09-02, 15:54:23
Ach quatsch,
it´s over 9.000%!

OBrian
2013-09-02, 15:56:14
Ja oder ein schwarzer Holzkasten mit Hamsterradantrieb und einem Schlitz an der Seite, wo die Pixel rauspurzeln. Momentan ist noch alles denkbar.

HOT
2013-09-02, 15:58:07
Wo wir schon dabei sind:
40CUs - 1050-1250MHz - 4GB 512Bit GDDR5 - 28nm SHP GloFo NY - ca. 400mm²

Mein Hawaii-Insel-Traum :D. Hawaii Pro wäre dann auf 32CUs und 384Bit+3GB gekürzt

w0mbat
2013-09-02, 16:05:06
14nm, 1024bit,HD7970+3000% ;D

Also ich hab schon nen Ticket in die USA ;)

Duplex
2013-09-02, 16:08:33
R9-950 = 2560 Shader - 384 Bit SI - 900 Mhz GPU - 3GB GDDR5 > 10% faster to Tahiti XT2 (200W) - 399$
R9-970 = 2816 Shader - 384 Bit SI - 1050 MHz GPU - 6GB GDDR5 > 25% faster to Tahiti XT2 (250W) - 549$

M4xw0lf
2013-09-02, 16:09:36
Ach quatsch,
it´s over 9,000%!
Komma, und schon stimmts! ^^

Naitsabes
2013-09-02, 16:15:30
Das war Denglish in seiner Perfektion und du ruinierst es einfach :/

Godmode
2013-09-02, 17:47:58
20nm, 512bit, HD7970GHz+60%

Und dazu gibts dann noch den Horn-Treiber, der beim Launch nochmal um 20% mehr Leistung bringt. Sry, aber diese Steilvorlage muss man einfach nutzen.

Ich denke 30% auf die GHE sind wohl drinnen, womit wir dann irgendwo +/- 10% über oder unter Titan je nach Spiel liegen werden. 512bit glaube ich erst wenn ich es sehe, wäre aber natürlich nett.

Hübie
2013-09-02, 17:51:15
Ich schließe mich mal Duplex an.

Hey wie wäre es wenn wir so ein Wett-Topf einführen würden? ;D So wie man mit Kumpels in der Bundesliga wettet kann man das auch hier machen :naughty:

2phil4u
2013-09-02, 17:57:51
5nm, Hyper Memory Cube 4 TB mit 100 TB/s, Nanoröhren, Takt 25 ghz, Shader 100.000,
7970 + 1.000.000

Hübie
2013-09-02, 17:59:10
Ach komm. Langsam is gut. Eins, zwei mal ist das witzig. Dann wirds anstrengend. Das hier ist nicht die lounge sondern immer noch ein (Tech-)Speku-Bereich.

M4xw0lf
2013-09-02, 18:03:50
Das war Denglish in seiner Perfektion und du ruinierst es einfach :/
Oh, du gebrauchtest den englischen Punkt im Sinne eines deutschen Kommas - ich entschuldige mich für das Ruinieren deines Hintersinns ^^

matty2580
2013-09-02, 19:08:54
Das Gekritzel auf der Tafel überzeugt mich nicht.
Da fand ich den Leak bei Extreme Systems deutlich realistischer.
Unser Raff hat eine eigene Einschätzung dazu auf PCGH geschrieben.
Die klingt auch deutlich realistischer......
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Der-Hawaii-Hype-und-warum-AMD-auch-nur-mit-Wasser-kocht-1085977/

Ich finde es nicht gut, dass AMD und Nvidia keine Leaks mehr ermöglichen.
Gut, dass stört den Verkauf der aktuellen Gen nicht.
Aber wer heute eine Graka kauft, ärgert sich vielleicht in 3 Wochen darüber.....

john carmack
2013-09-02, 20:02:35
5nm, Hyper Memory Cube 4 TB mit 100 TB/s, Nanoröhren, Takt 25 ghz, Shader 100.000,
7970 + 1.000.000

Gehen wir doch gleich den einzig wahren und richtigen Schritt - Weg von der Transistotechnik - und hin zur Quantenmechanik :D :D

john carmack
2013-09-02, 20:08:49
Ich schließe mich mal Duplex an.

Hey wie wäre es wenn wir so ein Wett-Topf einführen würden? ;D So wie man mit Kumpels in der Bundesliga wettet kann man das auch hier machen :naughty:


So ein Wett-Topf hört sich gut an. :)
Wobei ich sagen muss das sich Duplex´s "Vorahnung" sehr vernünftig anhört.

Aber wie ich es schon öffters hier gesagt habe. Für mich ist das wichtigste das AMD mich bzw. uns nicht enntäuscht und einen zweiten Thermi released oder tatsächlich nur max. +20% Leistung rauskommen. 25% sind mir eigentlich auch noch etwas zu wenig. ab 30% können wir anfangen zu reden ;)

matty2580
2013-09-02, 20:43:55
Ach John, +30%, noch mehr Wünsche an den Weihnachtsmann (AMD)? ^^

Akkarin
2013-09-02, 21:18:15
Was ist denn an 30% unrealistisch ? Es werden +25% Shader spekuliert, wenn die Bottlenecks beseitigt werden und die ein oder andre Architekturverbesserung greift sind 30% doch durchaus glaubwürdig.

matty2580
2013-09-02, 21:31:06
Ich wünsche mir auch viel mehr, dazu gute Effizienz, toller Preis (so um die 400€), und 20nm. ^^

Ailuros
2013-09-03, 09:44:29
Ach John, +30%, noch mehr Wünsche an den Weihnachtsmann (AMD)? ^^

Lass unseren Spam-Maskott in Ruhe :P :biggrin:

john carmack
2013-09-03, 10:46:12
Was soll das denn jetzt heißen?

Ailuros
2013-09-03, 10:52:46
Was soll das denn jetzt heißen?

Dass ein sehr hohes Prozentual Deiner Beitraege spam sind; Du kannst entweder den vorigen Humor schmunzelnd annehmen oder ich kann locker jeden zweiten Post von Dir aus verstaendlichen Gruenden loeschen.

robbitop
2013-09-03, 11:31:17
Also ich hab schon nen Ticket in die USA ;)
Huiuiui ;) Jetzt darfst du aber auch damit rechnen, dass man es dir unter die Nase reibt, wenn deine 20 nm nicht stimmen sollten und deine Glaubwürdigkeit in Zukunft ein Stück absackt.

Botcruscher
2013-09-03, 11:33:15
Was ist eigentlich an den Gerüchten von den Auslastungsproblemen bei TSMC dran? Soll ja angeblich noch immer zu teuer(yield gering) sein und damit wenig Kunden haben.

w0mbat
2013-09-03, 11:42:53
Huiuiui ;) Jetzt darfst du aber auch damit rechnen, dass man es dir unter die Nase reibt, wenn deine 20 nm nicht stimmen sollten und deine Glaubwürdigkeit in Zukunft ein Stück absackt.

Meine Glaubwürdigkeit? Ich wüsste nicht, dass ich sowas jemals hatte :freak:

20nm sind ganz sicher!!!

StefanV
2013-09-03, 11:47:43
Naja, mal abwarten und Tee rauchen. Ist ja nicht so, dass uns AMD nicht schon mal mit einem echt fetten Chip überrascht hat, den so niemand erwartet ha.
Ist natürlich auch schon 10 Jahre her. Und da halte ich es für möglich, dass sie mal diesen 'Small Chip Shit' über Board geworfen haben und (mal wieder) zeigen, wozu sie in der Lage sind.
20nm sind durchaus unwahrscheinlich, aber gesichert, dass Hawaii bei TMSC vom Band läuft, ists auch nicht. Es besteht immer noch die (kleine) Möglichkeit, dass GF mal 'ne GPU fertigen darf...

Genau wissen wir es aber erst in einigen Tagen/Wochen/Monaten...

OBrian
2013-09-03, 12:02:48
Mich interessiert sowieso eher der etwas kleinere Chip als Ersatz für Tahiti (falls da überhaupt was kommt). Weniger Stromverbrauch und möglichst ein geringerer Preis bei ähnlicher Leistung wäre schon gut. Außerdem will ich wissen, was an der Architektur geändert wurde. Daß man mit ausreichendem Einsatz roher Gewalt (sprich Einheitenzahl erhöhen, bis Diegröße und Leistungsaufnahme explodieren) so ziemlich jedes Leistungsniveau erreichen kann, ist ja langweilig, so eine Karte will ich eh nicht kaufen.

gedi
2013-09-03, 12:13:57
R9-d970 doch mit 512-Bit (http://www.hardware-infos.com/news/4852/amd-hawaii-interne-fotografie-verraet-details.html) SI?

fondness
2013-09-03, 12:16:21
20nm ist vollkommener Blödsinn. Mit sehr hoher Wahrscheinlichkeit kommt Hawaii in 28nm HPM, wie der Xbox-SoC auch. Dieser neue Prozess bringt noch immer einige Vorteile gegenüber dem älteren HP Prozess.

Ailuros
2013-09-03, 12:59:31
20nm sind ganz sicher!!!

Dann wird es halt ganz spaet und ganz wenig!!! :P

john carmack
2013-09-04, 15:26:50
Nichts neues... Aber wollte es euch trotzdem zeigen:

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Der-Hawaii-Hype-und-warum-AMD-auch-nur-mit-Wasser-kocht-1085977/

M4xw0lf
2013-09-04, 17:08:52
Gibts nicht mal wieder was neues? Ist etwas langweilig geworden hier ;)

Nakai
2013-09-04, 21:42:54
Wieviel Diesize wird ungefähr für 512Bit SI benötigt(Summe der Kantenlängen...ich weiß)?
Pitcairn: 212mm2 -> 256bit SI
===> Mindestens 430mm² für 512bit SI

Ergo, wenn Hawaii etwa ~450mm² sollte man einfach ein 512bit SI nehmen? Könnte zwar den Verbrauch etwas in die Höhe treiben, aber das kann mit Takt und Spannung ausgeglichen werden. Für mich sieht Hawaii immer mehr nach einem GPGPU-Monster aus. DP 1:2, 512Bit SI und überlegene(aber ungenutzte) GCN-Features. Eigentlich bräuchte man auch einen größeren GDS. Die 768KB von Tahiti waren zu wenig. LDS und Registergröße ist sowieso schon überlegen genug. Mehr GDS wäre ziemlich geil.

Botcruscher
2013-09-04, 23:21:14
===> Mindestens 430mm² für 512bit SI

R600 hatte schon nur 408mm² unter 80nm.
PS: Sagt Wikipedia (http://de.wikipedia.org/wiki/ATI-Radeon-HD-2000-Serie).

Nakai
2013-09-04, 23:25:53
R600 hatte schon nur 408mm² unter 80nm.

R600 hatte nur GDDR4, afaik.

GDDR5 braucht mehr Pinout/Platz, afaik.

Duplex
2013-09-04, 23:27:53
R600 war 420mm² groß http://www.beyond3d.com/content/reviews/16/2
Das Layout hatte DDR3 oder DDR4 Support.

gedi
2013-09-05, 00:02:06
Hawaii Pro: 40CU 384-Bit 3GB GDDR5
Hawaii XT: 44CU 512-Bit 4GB GDDR5

horn 12
2013-09-05, 00:46:46
Ne, glaube ich weniger :-)
XT und PRO werden die selbe Speicheranbindung, also endweder 512 oder 384 bit erhalten.
zudem wird man wohl von ca. guten 10 bis 15% Performance Abstand ausgehen können, rechne etwas weniger als HD7970 zu HD7950.
Dafür wird die HD9950 wohl gegen die Titan Karte gestellt.

Ailuros
2013-09-05, 08:46:31
Wieviel Diesize wird ungefähr für 512Bit SI benötigt(Summe der Kantenlängen...ich weiß)?
Pitcairn: 212mm2 -> 256bit SI
===> Mindestens 430mm² für 512bit SI

Ergo, wenn Hawaii etwa ~450mm² sollte man einfach ein 512bit SI nehmen? Könnte zwar den Verbrauch etwas in die Höhe treiben, aber das kann mit Takt und Spannung ausgeglichen werden. Für mich sieht Hawaii immer mehr nach einem GPGPU-Monster aus. DP 1:2, 512Bit SI und überlegene(aber ungenutzte) GCN-Features. Eigentlich bräuchte man auch einen größeren GDS. Die 768KB von Tahiti waren zu wenig. LDS und Registergröße ist sowieso schon überlegen genug. Mehr GDS wäre ziemlich geil.

Wenn all die bisherigen Infofetzen stimmen sollten dann ja wird es ein GPGPU Monster mit relativ hohem Stromverbrauch und wohl doch >450mm2 sein.

john carmack
2013-09-05, 08:49:06
Wenn all die bisherigen Infofetzen stimmen sollten dann ja wird es ein GPGPU Monster mit relativ hohem Stromverbrauch und wohl doch >450mm2 sein.


Solange Hawaii nicht wirkich so heiß wie ein Vulkan wird bzw. wenn man die Karte vernüftig kühlen kann, ist es ja OK...

HOT
2013-09-05, 08:54:10
Wieviel Diesize wird ungefähr für 512Bit SI benötigt(Summe der Kantenlängen...ich weiß)?
Pitcairn: 212mm2 -> 256bit SI
===> Mindestens 430mm² für 512bit SI

Ergo, wenn Hawaii etwa ~450mm² sollte man einfach ein 512bit SI nehmen? Könnte zwar den Verbrauch etwas in die Höhe treiben, aber das kann mit Takt und Spannung ausgeglichen werden. Für mich sieht Hawaii immer mehr nach einem GPGPU-Monster aus. DP 1:2, 512Bit SI und überlegene(aber ungenutzte) GCN-Features. Eigentlich bräuchte man auch einen größeren GDS. Die 768KB von Tahiti waren zu wenig. LDS und Registergröße ist sowieso schon überlegen genug. Mehr GDS wäre ziemlich geil.

Das stimmt nur für TSMC.

Ailuros
2013-09-05, 10:51:09
Solange Hawaii nicht wirkich so heiß wie ein Vulkan wird bzw. wenn man die Karte vernüftig kühlen kann, ist es ja OK...

Das einzig wirklich interessante an der ganzen Affaire ist wie der Pitcairn Nachfolger aussehen wird; ich hab zwar keine Ahnung wie der aussehen wuerde aber falls es sich um einen 26-28 CU chip handeln sollte kann ich mir locker vorstellen welches der wirkliche naechste perf/W/$ Schlager von AMD sein wird.

Skysnake
2013-09-05, 11:18:11
Für Gamer sicherlich nicht Hawaii. Oder maximal bis eben der nächst kleinere Chip kommt.

john carmack
2013-09-05, 11:24:43
Ist schon ein paar tage alt:

Dieser "PedantOne" scheint sehr überzeugt von sich zu sein... Angeblich ist er ein Insinder. Das haben aber schon ein paar hier im 3DC Forum gesagt.

Was ich mich halt frage ist:
Wenn er wirklich ein Insider sein sollte und sowieso anonym im XtremSystems Forum auftritt könnte er auch gleich alles sagen was er weiß und nicht so geheimnissvoll tun... :freak::rolleyes:


no new leaks? Ok, i can start ...

Hawaii:
Node: 28nm
GPU size around 470-480 mm2
DP Ratio 1:2
TDP higher then 250W for highest SKU
.
.. to be continued

robbitop
2013-09-05, 11:35:30
Kann gar nicht sein - schließlich ist w0mbat überzeugt davon, dass es 20 nm sein werden. Und der hat schließlich ein Ticket in die USA. :freak: :D

-/\-CruNcher-/\-
2013-09-05, 11:44:04
Meint ihr es macht sinn zu warten auf die unter 200W TDP GPU versionen so wie es aussieht werden ja wieder einmal erst die Early Adopter bedient mit den teuren Watt Dampfern jenseits der 200W bei AMD und Nvidia

Meine Persönliche vorgabe womit ich glücklich währe würde sein doppelt so effizient wie 460 GTX bei der gleichen Max TDP von 160W, so einen 250 Watt Dampfer brauch ich nicht wirklich, allerdings könnte ich mir auch vorstellen diesen runterzutackten das er auf den max 160W output kommt, allerdings ist das im Gesamtkarten Design sicherlich nicht sehr effektiv :)

w0mbat
2013-09-05, 11:49:08
Kann gar nicht sein - schließlich ist w0mbat überzeugt davon, dass es 20 nm sein werden. Und der hat schließlich ein Ticket in die USA. :freak: :D

Ganz sicher 20nm!!

Pick
2013-09-05, 11:51:00
AMD Radeon R9 285 -- Hawaii XT
AMD Radeon R9 280 -- Hawaii Pro
http://wccftech.com/amd-volcanic-islands-possibly-called-radeon-r200-series-radeon-hd-7970s-successor-r92/

Knuddelbearli
2013-09-05, 11:54:56
280 285? ähm ja, das hatten wir doch schonmal ^^

ich glaub ich warte auf 480 und verkauf dann meine 480 auf ebay ^^

Duplex
2013-09-05, 11:55:43
20nm gibt es nicht als Massenfertigung, die Wafer Kosten sind viel zu hoch, AMD braucht keine 20nm Chips, Tahiti ist nur 365mm² groß, es gibt noch viele Reserven in 28nm, selbst ein 550mm² 28nm DIE sollte günstiger als ein 300mm² 20nm DIE sein, Hawaii in 28nm ist günstiger als eine 20nm Lösung mit großen Liefer Engpässen.
Man wird mit einem 28nm Chip ohne Probleme GTX780 > Titan Performance erreichen können, also hört bitte auf mit den 20nm unsinn, es nervt gewaltig!

-/\-CruNcher-/\-
2013-09-05, 11:57:41
Ganz sicher 20nm!!

Währe interessant wenn alle wieder einmal nur stupide von einander abschreiben und du recht behälst ;)
Aber wie die anderen schon sagen wo bleibt da die Wirtschaftlichkeit und das schnelle releasen vor Nvidia immerhin peilt man Mitte Oktober als Massen vorhanden sein an das ist mit 20nm sicherlich nicht einfach machbar bei den Yields AMD muss auf jedenfall die Nachfrage diesmal Optimal bedienden können (nach ihrer Mega Show) um den früheren Release Vorteil effizient zu halten. Vor allem wenn Nvidia dann langsam mehr Maxwell Details leakt nach der Show ;)

nicht Elvis Presley sagt Aloha From Hawaii sondern diesmal AMD ;)

Nakai
2013-09-05, 12:00:17
Wenn all die bisherigen Infofetzen stimmen sollten dann ja wird es ein GPGPU Monster mit relativ hohem Stromverbrauch und wohl doch >450mm2 sein.

Da will man sich wohl wirklich Titan an die Brust nehmen. ;)

Kann gar nicht sein - schließlich ist w0mbat überzeugt davon, dass es 20 nm sein werden. Und der hat schließlich ein Ticket in die USA

Seine Aussage ist doch wirklich vollkommen überspitzt formuliert. 20nm ist kein bisschen reif für 512bit-Chip. Dem Speicherinterface ist es eh meistens egal, welcher Prozess der Chip hat. Wenn er ein Ticket hat, dann darf er bestimmt nicht irgendwelche Infos posten.

Ailuros
2013-09-05, 12:02:49
Ist schon ein paar tage alt:


Weisst Du wie oft es schon hier im thread erwaehnt wurde? :rolleyes:

Da will man sich wohl wirklich Titan an die Brust nehmen. ;)


Das daemliche ist dass wenn PedantOne recht hat, es auch einen 28nm Maxwell Anfang 2014 geben wird LOL :D

Duplex
2013-09-05, 12:03:40
Wombat der Spacko, man sollte seine Kommentare nicht ernst nehmen, man errinere sich an seine hohen BD Prognosen. :rolleyes:

robbitop
2013-09-05, 12:07:58
IPC Increases...!! :D

StefanV
2013-09-05, 12:12:00
IPC Increases...!! :D
...if nothing went wrong...

Ailuros
2013-09-05, 12:13:41
...if nothing went wrong...

....back to the topic.... :biggrin:

Duplex
2013-09-05, 12:17:11
IPC Increases...!! :D
BD hat 20% mehr Takt als Shanghai und trotzdem nicht schneller :eek:
IPC: Netburst > Core2 +30% > Nehalem > +30% > Sandy +15% > Haswell +10%
Solche Steigerungen sind bei AMD unmöglich.
Langsam wirds offtopic, zurück zum Thema!

Nakai
2013-09-05, 12:26:02
Also, falls Hawaii ein 512bit SI hat und mehr als 450mm² hat, dann sind selbst die spekulierten 44CUs zu wenig...außer DP 1:2 frisst sehr viele Transistoren oder gar Die-Size. Hatte auch Tahiti! Die Transistor/mm² war ja viel schlechter als Pitcairn und Co. Vll war das höhere DP-Verhältnis schuld.

Duplex
2013-09-05, 12:36:27
Wenn der 20nm Prozess erst Anfang 2015 hohe Yields liefert, dann sollte AMD am besten gleich auf einem großen 28nm DIE setzen, egal ob 384 oder 512 Bit SI, das ist das kleinste Problem überhaupt, damit man noch Reserven übrig hat wenn Nvidia kontern sollte.

Nakai
2013-09-05, 12:42:48
Wenn der 20nm Prozess erst Anfang 2015 hohe Yields liefert, dann sollte AMD am besten gleich auf einem großen 28nm DIE setzen, egal ob 384 oder 512 Bit SI, das ist das kleinste Problem überhaupt, damit man noch Reserven übrig hat wenn Nvidia kontern sollte.

Jap.

Hawaii ist doch eh für die meisten vollkommen uninteressant. Alles was unterhalb kommt, wird interessant. Maui, Iceland, Tonga.^^;)

-/\-CruNcher-/\-
2013-09-05, 12:44:12
Full ACK :) aber es gibt schonmal einen kleinen Ausblick auf was da kommen mag vor allem im Zusammenspiel mit AMDs GPGPU Game Strategie :)

Badner1972
2013-09-05, 12:44:19
NV wird kontern..mit Maxwell,nur sieht es wohl gerüchteweise danach aus,das sie dazu mehr aufbieten müssen um AMD´s Topdog zu schlagen bzw. dem paroli zu bieten. In der aktuellen Gen. hat dafür ein in der Frequenz hochgezogener Mainstreamchip gereicht. Sollte VI wirklich bei der kolportieren Die-Size +- 480mm liegen,bin ich gespannt.
Davon abgesehen,bin ich eher auf den 7870 Nachfolger gespannt :-)

Duplex
2013-09-05, 12:51:49
Maxwell wird meiner Meinung nach erst ende 2014 oder Anfang 2015 erscheinen,
Nvidia kann mit dem Vollausbau von GK110 kontern, den Boost können Sie gleichzeitig auch noch erhöhen damit man sich 15% von Titan absetzen kann, mehr wird nicht nötig sein.
Eine Dual GPU Karte aka GTX790 mit 2x2688 Shader @900GPU wird auch noch drin sein, bei 375W geht sogar mehr Boost!

Badner1972
2013-09-05, 13:01:21
@ Duplex klar da hast du sicher nicht unrecht! Ein ausgefahrener GK110 mit angehobenen Taktraten kan nda mit Sicherheit paroli bieten! Nur so "bequem" wie in der letzten Gen Thaiti mit nem GK 104 kontern,das geht dann halt nimmer!
Wäre also für alle gut,wenn sich AMD auch für einen ähnlichen Weg wie nV entscheiden würde.
Aufgrund der immer längeren Zeitspanne bis zum nächsten Node werden wir das vermutlich auch bei den nächsten Generationen so sehen. Glaskugel aus

Nakai
2013-09-05, 13:18:27
Maxwell wird meiner Meinung nach erst ende 2014 oder Anfang 2015 erscheinen,
Nvidia kann mit dem Vollausbau von GK110 kontern, den Boost können Sie gleichzeitig auch noch erhöhen damit man sich 15% von Titan absetzen kann, mehr wird nicht nötig sein.
Eine Dual GPU Karte aka GTX790 mit 2x2688 Shader @900GPU wird auch noch drin sein, bei 375W geht sogar mehr Boost!

Titan ist keine reine Gaming-SKU. NV hat schon seine Gründe, wieso kein Vollausbau im Gaming-Bereich kommt. Da kommt nur der Abfall an. Zum anderen wäre eine Titan-Ultra wohl in einem Bereich, den GM104 erreichen würde. Man darf nicht vergessen, dass eine reine Gaming-SKU Titan-Niveau erreicht bei etwas zwischen 300 und 400mm².

Wie wärs, wenn Hawaii gar nicht als Gaming-SKU kommt? Immerhin könnte ein faktischer Pitcairn-Nachfolger locker Tahiti-Niveau+ erreichen.

Duplex
2013-09-05, 13:23:11
Ihr könnt Maxwell @28nm aus eurem Gehirn löschen, egal ob GM104 oder GM110, Maxwell ist 20nm!
Bei Nvidia läuft momentan einiges Schief im anderen Bereich, mit Kepler hat man sowieso hohe Margen,
da wird nicht mehr viel kommen, Vollausbau & Dual Karte auf GK110 Basis, die Preise kann man jederzeit auch anpassen,
so oder so hat Nvdia mehr Erfolg als AMD bei den Diskreten Karten!

john carmack
2013-09-05, 13:28:18
irgendwo hab ich die Woche gelesen das Apple schon in 20nm den A7 Chip fürs neue IPhone 5s fertigen lässt...

Wenn Apple das immer so macht, muss sich keiner wundern warum alles Apple Produkte zum Start ausverkauft sind und selbst wenn man sich etwas reservieren lässt muss man 8 Wochen warten... ;)

zugegeben... der Chip ist klein... und lässt sich wohl einfacher produzieren. Ensprechend wenig "Abfall" gibt es!

OBrian
2013-09-05, 13:34:01
Wie wärs, wenn Hawaii gar nicht als Gaming-SKU kommt? Immerhin könnte ein faktischer Pitcairn-Nachfolger locker Tahiti-Niveau+ erreichen. Denkbar, würde meiner Meinung nach aber wenig Sinn machen. Hawaii wird sicher für spielferne Berechnungen besonders geeignet sein, aber ihn dem Spielemarkt absichtlich vorzuenthalten, ist nicht sinnvoll. Angenommen, ein Ersatzchip für 7870 bis 7970 mit 256-bit-SI erlaubt AMD, in dem Segment ordentlich Kasse zu machen, dann fehlt aber trotzdem etwas, um Titan zu schlagen und die Benchmarkkrone zu bekommen. Ein Chip, der etwas über einer Tahiti-GHz liegt, würde dafür nicht reichen. Die Stückzahlen in diesem High-End-Segment sind eh gering, das würde das Angebot für den professionellen Markt sicher nicht austrocknen.

Eine Markttrennung könnte man dann eher durch was anderes herbeiführen, z.B. andere Treiber oder Hardwareeingriffe im Package, die bei der Gamerversion irgendwas deaktivieren (SP-zu-DP-Verhältnis runtersetzen o.ä.), allerdings wäre das untypisch für AMD, immerhin müssen die auch mal Marktanteil aufbauen im Serverbereich.

john carmack
2013-09-05, 13:43:22
Wie wärs, wenn Hawaii gar nicht als Gaming-SKU kommt? Immerhin könnte ein faktischer Pitcairn-Nachfolger locker Tahiti-Niveau+ erreichen.


wurde ja auch schon vermutet das es als erstes die HAWAII GPU nur auf Profikarten zu kaufen gibt.

So wie NV´s K20 und dann erst als Titan...

robbitop
2013-09-05, 15:01:42
Wer weiß schon, wie schnell Hawaii wird? Ich denke nicht, dass das Ding schneller als GK110 ist. Zur Not bringt NV den Vollausbau. Da muss niemand groß gegenhalten. AMD zieht IMO einfach nur gleich.

BD hat 20% mehr Takt als Shanghai und trotzdem nicht schneller :eek:
IPC: Netburst > Core2 +30%
Das reicht gar nicht. Core 2 war 30 % schneller als Core 1 oder K8. Und die waren schon locker gute 30-40 % schneller als Netburst. Also gute 70 % mehr IPC.

Full ACK :) aber es gibt schonmal einen kleinen Ausblick auf was da kommen mag vor allem im Zusammenspiel mit AMDs GPGPU Game Strategie :)
Wenn nur die SW Seite da nicht hapern würde. NV hat ja Jahrelang Lobbyarbeit geleistet, in Tools investiert und in DevRel investiert. Viele sind zu CUDA gegangen, weil NV viel reingesteckt hat.

irgendwo hab ich die Woche gelesen das Apple schon in 20nm den A7 Chip fürs neue IPhone 5s fertigen lässt...


A7 ist sehr wahrscheinlich 28 nm.

reaperrr
2013-09-05, 18:44:43
Wie wärs, wenn Hawaii gar nicht als Gaming-SKU kommt? Immerhin könnte ein faktischer Pitcairn-Nachfolger locker Tahiti-Niveau+ erreichen.
Würde für meine Begriffe wenig Sinn machen. Bei Nvidia hatte das andere Gründe, GK110 ist nochmal ne Ecke größer als es Hawaii wohl wird, hatte vor einem Jahr sicher noch recht schlechte Yields und GK104 war so konkurrenzfähig, dass man GK110 in dem Segment nicht zwingend brauchte.

AMD dagegen braucht IMO ein neues, schnelleres Flaggschiff, allein schon für den Halo-Effekt.

Das reicht gar nicht. Core 2 war 30 % schneller als Core 1 oder K8. Und die waren schon locker gute 30-40 % schneller als Netburst. Also gute 70 % mehr IPC.
Der C2D E4300 (1,8 GHz) ist in manchen Spielen schneller als ein Pentium D @ 3,6 GHz. Damit ist eigentlich alles gesagt.

Nehalem ist in Sachen Kern-IPC garnicht so viel schneller als Conroe. Was die Core2-CPUs inzwischen mörderisch ausbremst (auch gegenüber AMD) ist allein der antike, schlicht nicht mehr konkurrenzfähige FSB, es bräuchte mindestens FSB-2666 um halbwegs mit modernen Architekturen mitzuhalten. Die Kern-IPC ist noch immer besser als alles, was AMD je hatte.

-/\-CruNcher-/\-
2013-09-06, 00:02:48
Wer weiß schon, wie schnell Hawaii wird? Ich denke nicht, dass das Ding schneller als GK110 ist. Zur Not bringt NV den Vollausbau. Da muss niemand groß gegenhalten. AMD zieht IMO einfach nur gleich.


Das reicht gar nicht. Core 2 war 30 % schneller als Core 1 oder K8. Und die waren schon locker gute 30-40 % schneller als Netburst. Also gute 70 % mehr IPC.


Wenn nur die SW Seite da nicht hapern würde. NV hat ja Jahrelang Lobbyarbeit geleistet, in Tools investiert und in DevRel investiert. Viele sind zu CUDA gegangen, weil NV viel reingesteckt hat.



A7 ist sehr wahrscheinlich 28 nm.

Konsolen Convergence da happert nix im Gegenteil wenn man sich natürlich als Entwickler abhängig von einer Properitären API eines IHVs macht dann hat man seinen Untergang ehrlich verdient :)
Wie gesagt ATI APIs waren immer rückständiger aber seit dem AMD kauf und nach den APUs hat sich das auch massiv verbessert nur Intel ist noch besser wie Nvidia und AMD :)
Intel hat auch massivst verbessert was ihren Grafiktreiber angeht der ist überhaupt nicht wieder zu erkennen im Vergleich zu damals vor Sandy Bridge und die ganzen SDK tools und Apis die sie released haben ist schon beachtlich

Hugo78
2013-09-06, 09:03:43
Meine Persönliche vorgabe womit ich glücklich währe würde sein doppelt so effizient wie 460 GTX bei der gleichen Max TDP von 160W,

Die 660Ti ist das @ 165W TDP.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660-ti/7/
HD 7770 ~ = GTX 460 Speed
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7770-und-hd-7750/6/

Iruwen
2013-09-06, 12:55:01
Ihr könnt Maxwell @28nm aus eurem Gehirn löschen, egal ob GM104 oder GM110, Maxwell ist 20nm!
Bei Nvidia läuft momentan einiges Schief im anderen Bereich, mit Kepler hat man sowieso hohe Margen,
da wird nicht mehr viel kommen, Vollausbau & Dual Karte auf GK110 Basis, die Preise kann man jederzeit auch anpassen,
so oder so hat Nvdia mehr Erfolg als AMD bei den Diskreten Karten!

Was läuft schief? Oder meinst du Tegra? Das hat ja mit Maxwell nix zu tun.

Ailuros
2013-09-06, 13:13:23
Was läuft schief? Oder meinst du Tegra? Das hat ja mit Maxwell nix zu tun.

Direkt nicht aber indirekt schon wenn es zu resources kommt; ist aber so oder so ziemlich OT hier.

-/\-CruNcher-/\-
2013-09-07, 00:24:50
Die 660Ti ist das @ 165W TDP.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660-ti/7/
HD 7770 ~ = GTX 460 Speed
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7770-und-hd-7750/6/

jep das würde mir reichen btw hat jemand eine Erklärung für diese extremen Abweichungen von Crystal Dynamics Engine :)

Das ist ja mal krass mit der Titan beläuft sich die differenz sogar auf über 800 %

ich denke mal in diese Ergbenisse spielte TressFX und Compute hinein, anders ist das schwer zu erklären von den Zahlen her und von dem Output im Vergleich mit anderen Engines wie z.b Frostbite ;)

http://ht4u.net/reviews/2013/55_directx11_grafikkarten_im_test/index32.php?dummy=&advancedFilter=false&prod[]=AMD+Radeon+HD+7770&prod[]=NVIDIA+GeForce+GTX+460+[1024+MByte]&filter[0][]=1680&filter[0][]=1920&filter[0][]=2560&filter[2][]=1&filter[2][]=2&filter[2][]=2+x+2+SSAA&filter[2][]=2x2+SSAA&filter[2][]=4&filter[2][]=8&filter[2][]=SSAA&filter[3][]=16&aa=all

Der Vergleich ohne TressFX und im Vergleich mit Nvidias optimierten Treiber würde mich brennend interessieren (scheinen aber schon die optimierten genutzt worden zu sein) :)

Wenn mehr und mehr Exclusiv titel Compute einsetzen dann werden viele ältere Nvidia karten nichtmal mehr Spielbare Frames darstellen können wenn wundert es dann das EA Ignite nicht für PC in dieser form released die meisten Nvidia user hätten ohne Cuda nichts zu lachen ?

StefanV
2013-09-07, 01:02:16
Wenn mehr und mehr Exclusiv titel Compute einsetzen dann werden viele ältere Nvidia karten nichtmal mehr Spielbare Frames darstellen können wenn wundert es dann das EA Ignite nicht für PC in dieser form released die meisten Nvidia user hätten ohne Cuda nichts zu lachen ?
WANN war es jemals anders?? Also dass die AMD Karten im Laufe der Zeit die nVidia Karten NICHT platt gemacht haben?

Seit es Shader gibt, ist das eigentlich eher die Regel denn Ausnahme...
Bisher war es eigentlich immer so, dass die AMD Karten so halbwegs gut mithalten konnten, als sie aktuell waren, 2-3 Jahre später aber haben sie meistens dien nV Karten die Hosen sowas von ausgezogen...

Mal schauen, ob dieser Zustand auch mit der aktuellen Generation erreicht werden kann. Ich hab mal zum Spass mir mal 'ne 7970 GHz Edition und 'ne 780 in dem HT4U Vergleich zusammengeclickt. Es ist schon erstaunlich, dass in einigen Benches die 7970 es schafft, leicht vor der 780 zu sein. Das ist durchaus bemerkenswert.

Zu erwähnen wäre: Risen 2, Bioshock Infinite, Sleeping Dogs, Dirt: Showdown. Aber auch bei vielen anderen Spielen ist der Unterschied zwischen 780 und 7970GHz relativ gering (z.B. Anno 2070, Witcher 2, Tomb Raider (2013))...

-/\-CruNcher-/\-
2013-09-07, 01:17:46
WANN war es jemals anders?? Also dass die AMD Karten im Laufe der Zeit die nVidia Karten NICHT platt gemacht haben?

Seit es Shader gibt, ist das eigentlich eher die Regel denn Ausnahme...
Bisher war es eigentlich immer so, dass die AMD Karten so halbwegs gut mithalten konnten, als sie aktuell waren, 2-3 Jahre später aber haben sie meistens dien nV Karten die Hosen sowas von ausgezogen...

Mal schauen, ob dieser Zustand auch mit der aktuellen Generation erreicht werden kann. Ich hab mal zum Spass mir mal 'ne 7970 GHz Edition und 'ne 780 in dem HT4U Vergleich zusammengeclickt. Es ist schon erstaunlich, dass in einigen Benches die 7970 es schafft, leicht vor der 780 zu sein. Das ist durchaus bemerkenswert.

Zu erwähnen wäre: Risen 2, Bioshock Infinite, Sleeping Dogs, Dirt: Showdown. Aber auch bei vielen anderen Spielen ist der Unterschied zwischen 780 und 7970GHz relativ gering (z.B. Anno 2070, Witcher 2, Tomb Raider (2013))...

Jep finde diese Ergebnisse sehr interessant diese ganze Datenbank ist gold wert ;)

Eine Steigerung von +83,9% :) würde ich mit der 660 GTX erreichen bei TombRaider 2013 das ist schon beachtlich bei der gleichen TDP, und würde sich für mich absolut lohnen, mal schauen wo AMD mit der gleichen TDP steht und dann mal Preis Korrelieren :)

Laut diesen Daten schaft es die 7870 (175W (TDP)) (160€) die 660 GTX (160€) (140W (TDP) zu schlagen, exakte Engine Watt Messungen währen allerdings besser als nur die TDP Angabe des Herstellers, vielleicht könnte man HT4U dazu bewegen demnächst die Leistungsaufnahme jedes Games in die Datenbank hinzuzufügen :)

Die 7870 schlägt allerding nicht mehr die 760er (206€) (170W (TDP)) hält sich aber noch verdammt gut mit nur -3,6% verlust (volles DX11 featureset, -40€) (könnte man durchaus vielleicht als Fehlerberreich in der Messung sehen) :)

Die Daten in der Datenbank sind aber ziemlich ungenau mann muss immer mal wider in den test Text schauen um zu sehen was da nun exakt getestet wurde.

Die Entwicklung das man jetzt schon bis zum Chiptakt aber sowas von exakt Preisunterschiede sieht ist schon krass, man sieht hier Euro unterschiede bei 20 Mhz mehr pro boardpartner (+6€) das gab es früher definitiv nicht jedenfalls nicht so exakte angaben die anscheinend nun auch den Preis mitbestimmen (higher resolution).

Also die 760er macht einen sehr guten Eindruck auf mich von der Balance vs AMD gesetz dem fall die Daten stimmen alle aber die Watt daten sind mir noch etwas zu ungenau die 660 GTX ist natürlich preislich sowie im Verbrauch nochmal ein stück Attraktiver ob man die bis zu +20% an Performance für die +40€ und +30W nicht dann doch lieber für die 760er investieren sollte muss wohl jeder für sich selbst beantworten :)


Auf jedenfall ist das hier ein verdammt interessantes Duell zwischen Nvidia und AMD (-44/-65) :)

http://ht4u.net/reviews/2013/55_directx11_grafikkarten_im_test/index32.php?dummy=&advancedFilter=false&prod[]=AMD+Radeon+HD+7870&prod[]=NVIDIA+GeForce+GTX+760+[1033+MHz]&filter[0][]=1680&filter[0][]=1920&filter[0][]=2560&filter[2][]=1&filter[2][]=2&filter[2][]=2+x+2+SSAA&filter[2][]=2x2+SSAA&filter[2][]=4&filter[2][]=8&filter[2][]=SSAA&filter[3][]=16&aa=all

boxleitnerb
2013-09-07, 07:30:19
Das hält sich doch eher die Waage. Bei R520 und R580 war AMD zukunftssicherer, dann Nvidia mit G80. Bei GT200(b) ist Nvidia eher davongezogen, wenn ich mir den Launchartikel bei CB und den Grafikkartenevolutionsartikel zwei Jahre später anschaue. Bei Fermi hat sich auch nicht großartig was geändert bis jetzt. Wie es vor R520 aussah, liegt so weit zurück, dass man da schwer Daten zu findet. NV's 6000er Serie dürfte inzwischen besser dastehen als die X800er wegen SM 3.0. CineFX davor war natürlich ein Reinfall, hier ist R300 und Ableger Sieger. Vergleiche zwischen R200 und NV30 kann man in die Tonne treten, jedenfalls mit dem bilinearen winkelabhängigen AF der R200.

Da wieder nur eine Seite zu nehmen und Pauschalaussagen zu treffen, ist doch Mumpitz. z.B. bei Risen sieht Fermi bei ht4u kein Land ggü. Cayman, bei Computerbase liegen die beiden dann nah zusammen mit Fermi sogar vorne. Und da kann man sich nicht auf irgendwelche Boostgeschichten herausreden. Entweder lief da bei einem der beiden was falsch oder es ist eben von der Testszene sehr stark abhängig. Dasselbe bei Bioshock Infinite, auch hier gibts 20+% Differenz zwischen den beiden Seiten/Tests (bei den neueren Karten). Man kann sich jetzt natürlich das Ergebnis hernehmen, was einem besser gefällt und den Rest ignorieren. Das ist dann aber natürlich grober Unsinn.

maximus_hertus
2013-09-07, 09:02:17
Das hält sich doch eher die Waage. Bei R520 und R580 war AMD zukunftssicherer, dann Nvidia mit G80. Bei GT200(b) ist Nvidia eher davongezogen, wenn ich mir den Launchartikel bei CB und den Grafikkartenevolutionsartikel zwei Jahre später anschaue. Bei Fermi hat sich auch nicht großartig was geändert bis jetzt. Wie es vor R520 aussah, liegt so weit zurück, dass man da schwer Daten zu findet. NV's 6000er Serie dürfte inzwischen besser dastehen als die X800er wegen SM 3.0. CineFX davor war natürlich ein Reinfall, hier ist R300 und Ableger Sieger. Vergleiche zwischen R200 und NV30 kann man in die Tonne treten, jedenfalls mit dem bilinearen winkelabhängigen AF der R200.

Da wieder nur eine Seite zu nehmen und Pauschalaussagen zu treffen, ist doch Mumpitz. z.B. bei Risen sieht Fermi bei ht4u kein Land ggü. Cayman, bei Computerbase liegen die beiden dann nah zusammen mit Fermi sogar vorne. Und da kann man sich nicht auf irgendwelche Boostgeschichten herausreden. Entweder lief da bei einem der beiden was falsch oder es ist eben von der Testszene sehr stark abhängig. Dasselbe bei Bioshock Infinite, auch hier gibts 20+% Differenz zwischen den beiden Seiten/Tests (bei den neueren Karten). Man kann sich jetzt natürlich das Ergebnis hernehmen, was einem besser gefällt und den Rest ignorieren. Das ist dann aber natürlich grober Unsinn.

GT200(b) musste im Laufe der Jahre immer mehr dem RV770 Tribut zollen, da auf den meisten Karten mit deutlich zu wenig VRAM ausgestattet + den VRAM Bug. Der G80 hatte ja keine "echte" Mitbewerber, R600 war ja ein ziemlicher Fail.

Bei Fermi vs RV870 sieht die Sache ein wenig anders aus, die 1 GiB VRAM der Radeons ist 2013 zu knapp und der Chip kann seine Leistung immer öfter nicht auf die Strasse bzw. Bildschirm bringen (siehe Bioshock Infinite).

Ergo ist häufig nicht der Chip, sondern die Gesamtkonstruktion (VRAM) mitverantwirtlich, ob eine Karte viele Jahre lang "spielbare" fps zaubern kann.

boxleitnerb
2013-09-07, 10:00:26
Ich hab das schon berücksichtigt und bei GT200 und RV770/790 jeweils 1GB und bei Fermi und Co 2GB betrachtet (für die 5870).

Ailuros
2013-09-07, 10:29:05
Wenn dem so waere dass alles auf AMD's Seite so perfekt waere wie es manche vorgaukeln wollen oder am anderen Ufer genau gleiches fuer NVIDIA, haetten wir auch kein Material zum diskuttieren.

Sowohl ATI als auch NV engineering haben stellenweise Mist gebaut und wer mir jetzt vorgaukeln will dass es bei der einen oder anderen Seite nur Vorteile gibt sollte sich mal gewaltig den Kopf schuetteln.

Da NV zunehemend resources in Tegra schuetten muss und ihr DevRel etwas nachlassen koennte fuer PC ist es eine einmalige Chance fuer AMD - auch die Konsolen-deals mitberechnet - endlich mal und ausnahmsweise mit besserer developer Unterstuetzung zu punkten. Ich will zwar hoffen dass es so sein wird, aber mit einer Pistole am Kopf wuerde ich momentan eher auf "nein" wetten.

Und nein es war nicht "schon immer so"; beide IHVs haben dort stets nachgeruestet wo die Konkurrenz einen sinnvollen Vorsprung hatte und der flip-flop modus gilt seit einer Ewigkeit. Was schon immer so war sind die die hard fanboys die jegliche Realitaet ihren eigenen Bevorzugungen anpassen.

Dural
2013-09-07, 10:30:26
WANN war es jemals anders?? Also dass die AMD Karten im Laufe der Zeit die nVidia Karten NICHT platt gemacht haben?


hmm eigentlich nie? ja beim R300 / R500 war es so, aber nicht beim G80, GT200, GF110, und wahrscheinlich GK100. falls wie hier schon richtig erwähnt der speicher nicht ausgeht.
bei den R300 / R500 wahr das wahrscheinlich auch nur so, weil NV in dieser zeit einfach schwache GPUs hatten.

und nein, ich denke das es nicht mal was mit der hardware zu tun hat (aber sicher auch etwas) sondern schlicht NV hier besseren treiber support liefert und generell bis vor kurzem noch die "einfachere" hardware hatte.

Ailuros
2013-09-07, 10:37:21
Die Diskussion ist mir zu OT und wir werden irgendwann auf die Bremse treten aber wenn es zu shading kommt sind beide IHVs eben nicht "konsistent" wenn es zu ALUs kommt. AMD hat einsehen muessen dass ihre VLiW ALUs wohl doch nicht das gelbste vom Ei waren und NV wurde gezwungen einen Rueckzieher fuer ALU hotclocks zu machen.

Skysnake
2013-09-07, 10:45:02
AMD hat wohl eher einsehen müssen, dass Sie die Compiler nicht gut genug angepasst bekommen haben, und es einfach zu viele Ressourcen gefressen hat, die Treiber für X Games zu tweaken.

An sich ist VLIW ja ne tolle Sache, es ist nur ne schwierige Sache, je irregulärer der Programmfluss wird... :(

Ailuros
2013-09-07, 10:51:59
AMD hat wohl eher einsehen müssen, dass Sie die Compiler nicht gut genug angepasst bekommen haben, und es einfach zu viele Ressourcen gefressen hat, die Treiber für X Games zu tweaken.

An sich ist VLIW ja ne tolle Sache, es ist nur ne schwierige Sache, je irregulärer der Programmfluss wird... :(

Wenn dem so waere wuerde die Mehrzahl der IHVs egal wo VLiW bzw. Vector ALUs benutzen. Der Luxus bei "skalaren" ALUs ist eben dass es um einiges an compiler-Anpassungen rettet und es wohl auch das Leben des sw Entwicklers leichter macht.

Skysnake
2013-09-07, 11:07:35
Genau das sag ich doch....

VLIW ist schön und toll, scheitert aber an vielen realen Einsatzszenarien, einfach weil der Programmfluss zu komplex wird. VLIW ist ja diametral zum Datenflussrechner, der zur Laufzeit die Datenunabhängigkeiten erkennt und die Instruktionen auf die ALUs aufteilt. VLIW macht das eben schon zur Compilezeit und nicht erst zur Laufzeit in Hardware.

Das erlaubt natürlich eine viel einfache Hardware, da viel Logik eben in den Compiler gesteckt wird. Es skaliert nur eben nicht wirklich. Die Datenabhängigkeiten fliegen einem einfach irgendwann um die Ohren bei vielen Problemen.

StefanV
2013-09-08, 15:51:19
Bei der neuen Karte kann man doch davon ausgehen, dass es eine HD8900 sein wird, oder?

Weil auf der aktuellen Never Settle Seite (http://www.amd4u.com/radeonrewards/) wird (auch) von einer HD8900, HD8800 und HD 8700 gesprochen.

AnarchX
2013-09-08, 15:53:40
"desktop PC with" ~ OEM-Systeme, mit den bekannten Rebrands.

horn 12
2013-09-09, 23:38:29
http://www.techpowerup.com/190428/next-generation-amd-radeon-series-nomenclature-detailed.html

Loeschzwerg
2013-09-10, 07:32:52
Schön wie mit der neuen Namensgebung mal wieder alles übersichtlicher wird :freak:

Eine Meisterleistung des Marketing, wie bei den APUs halt auch ;D

Edit: In den Embedded Folien ist von HD8000/HD9000 die Rede... http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Embedded-Steamroller-Radeon-9000-SoC-1087573/

Was denn jetzt?

Duplex
2013-09-10, 11:24:01
Ist doch völlig irrelevant wie die Namensgebung ausfallen wird, interessant ist nur, wie schnell wird Hawaii XT/Pro und was werden die Karten kosten.

dargo
2013-09-10, 11:26:32
Ist doch völlig irrelevant wie die Namensgebung ausfallen wird, interessant ist nur, wie schnell wird Hawaii XT/Pro und was werden die Karten kosten.
Jepp... wen interessieren irgendwelche Namen?

Loeschzwerg
2013-09-10, 11:50:38
Ist doch völlig irrelevant wie die Namensgebung ausfallen wird, interessant ist nur, wie schnell wird Hawaii XT/Pro und was werden die Karten kosten.

Hier gehts ums Prinzip ;) Und zudem wünschen wir uns ja alle gute Verkaufszahlen für AMD. Mit beschissenen und undurchsichtigen Namen verschreckt man Käufer. Sollte doch eigentlich einleuchten, oder?

Pick
2013-09-10, 11:52:51
List of PCI ID's
# Version: 2013.09.10
# Date: 2013-09-10 03:15:02
#
#
# 67b0 Hawaii XT [Radeon HD 8970]
# 6811 Pitcairn [Radeon R9 200 Series]
# 6835 Cape Verde PRX [Radeon R7 200 Series]
...

http://pci-ids.ucw.cz/pci.ids

MadManniMan
2013-09-10, 11:54:28
Jepp... wen interessieren irgendwelche Namen?

So leicht ist das leider nicht.

Künftige Wahrnehmung und Planung von Grafikkarten und -Familien wird dann doch ziemlich davon beeinflusst, wie Dinge heißen.

maximus_hertus
2013-09-10, 12:14:09
Das neue Namensschema ist doch gut?

R = Radeon
3,5,7,9 = Leistungsklasse (ähnlich BMW)
2,3,etc = Generation
dann zwei Ziffern zur Leistung innerhalb der Klasse

ein R9-270 ist eine diskrete Radeon der höchsten Leistungsklasse, zweite Generation. Falls oberhalb der 70 nix mehr kommt, die Top-Dog Karte.

Streng genommen tauschen nur die Ziffern der Generationsangabe und Leistungsklasse ("früher" wäre es 2970, heute R9-270).

M4xw0lf
2013-09-10, 12:14:43
List of PCI ID's
# Version: 2013.09.10
# Date: 2013-09-10 03:15:02
#
#
# 67b0 Hawaii XT [Radeon HD 8970]
# 6811 Pitcairn [Radeon R9 200 Series]
# 6835 Cape Verde PRX [Radeon R7 200 Series]
...

http://pci-ids.ucw.cz/pci.ids
Was? Das kann ja wohl nicht stimmen. Neuer Chip - altes Namensschema fortgeführt / alter Chip - neues Namensschema drübergestülpt? Das muss bitte Käse sein.

fondness
2013-09-10, 12:16:38
Das neue Namensschema ist doch gut?

R = Radeon
3,5,7,9 = Leistungsklasse (ähnlich BMW)
2,3,etc = Generation
dann zwei Ziffern zur Leistung innerhalb der Klasse

ein R9-270 ist eine diskrete Radeon der höchsten Leistungsklasse, zweite Generation. Falls oberhalb der 70 nix mehr kommt, die Top-Dog Karte.

Streng genommen tauschen nur die Ziffern der Generationsangabe und Leistungsklasse ("früher" wäre es 2970, heute R9-270).

Sehe ich auch so. Das ist eindeutig und klar verständlich. Aber manche Leute sind prinzipiell gegen alles neue.

Loeschzwerg
2013-09-10, 12:22:26
Ich sehe keinen Grund darin es zu verändern. Das neue Schema hat den gleichen Inhalt nur anders dargestellt. Wozu braucht man es also?

Das verwirrt Käufer und schreckt diese damit ab. Wozu ein unnötiges Risiko eingehen?

Wenn mir das jemand erklären kann, gerne ;)

Edit: Denkt auch an die Leute die nicht ständig sämtliche PC Infos in sich aufsaugen, aber eben aus der Vergangenheit ein gängigen Namen gewohnt sind ;) So ein Paradigmenwechsel hat schon so manches Unternehmen schwere Einbusen gebracht...

maximus_hertus
2013-09-10, 12:26:48
Weil eine Radeon HD 10970 sich blöd anhört. Man möchte unbedingt bei maximal 4 Ziffern bleiben. Ausserdem kann es sein, dass AMD ihr Namensschema an den APUs anpasen will (A4,A6,Rx etc).

Ergo:

A = APU
R = diskrete Radeon

danach eine Ziffer für die Leistungsklasse und zwei Ziffern für die Leistung innerhalb dessen.


Intel macht es auch so: i3/5/7 Leistungsklasse, danach eine Ziffer für die Generation und weitere drei für die Leistung innerhalb der Gen...

boxleitnerb
2013-09-10, 12:35:25
Bloß braucht es die Leistungsklasse eigentlich gar nicht, solange die Bezeichnungen, die darauf folgen, nicht doppelt sind. Im Grunde kann man das ignorieren, denn jeder denkt wohl bei Intel eher an 3770K als an i7 und bei Nvidia an 680 statt an GTX.

Was ich bei AMDs Schema unglücklich finde ist, dass das z.B. 9 von R9 zusammen mit den restlichen Ziffern wieder eine vierstellige Zahl ergibt, was dem alten Schema sehr ähnelt. Bei Nvidia gibt es das Problem nicht, da deren Präfix aus Buchstaben besteht. So ist das nix Halbes und nix Ganzes.

fondness
2013-09-10, 12:38:41
Bloß braucht es die Leistungsklasse eigentlich gar nicht, solange die Bezeichnungen, die darauf folgen, nicht doppelt sind. Im Grunde kann man das ignorieren, denn jeder denkt wohl bei Intel eher an 3770K als an i7 und bei Nvidia an 680 statt an GTX.

Was ich bei AMDs Schema unglücklich finde ist, dass das z.B. 9 von R9 zusammen mit den restlichen Ziffern wieder eine vierstellige Zahl ergibt, was dem alten Schema sehr ähnelt. Bei Nvidia gibt es das Problem nicht, da deren Präfix aus Buchstaben besteht. So ist das nix Halbes und nix Ganzes.

Und wer genau, der sich nicht ausgiebig damit beschäftigt weiß, was eine GTX oder GT oder GTS genau sein soll und was davon schneller ist? Nene, da ist das Schema von AMD mit R9, R7, oder Intel mit i7, i5 deutlich sinnvoller IMO. Und doppelt ist da gar nichts, denn diese Ziffer gibt Auskunft über die Leistungsklassen, die drauf folgenden Ziffern können bei unterschiedlichen Karten identisch sein. Und das es weiterhin vier Ziffern sind und dem alten Schema dadurch in gewisser weise ähnelt ist sicher kein Nachteil.

Loeschzwerg
2013-09-10, 12:39:36
@boxleitnerb: So sieht es aus und man läuft eh wieder in das "10er"-Problem.

@fondness: Denk einfach an Golf GTI usw. Die Namen sind einfach griffiger und bleiben damit schneller in den Köpfen der Leute hängen.

fondness
2013-09-10, 12:43:34
@fondness: Denk einfach an Golf GTI usw. Die Namen sind einfach griffiger und bleiben damit schneller in den Köpfen der Leute hängen.

Da könnte ich genau so sagen denke an den 3er, 5er, 7er BMW. Ich würde mal abwarten wie das Schema dann letztlich überhaupt aussieht.

maximus_hertus
2013-09-10, 12:47:06
Bloß braucht es die Leistungsklasse eigentlich gar nicht, solange die Bezeichnungen, die darauf folgen, nicht doppelt sind. Im Grunde kann man das ignorieren, denn jeder denkt wohl bei Intel eher an 3770K als an i7 und bei Nvidia an 680 statt an GTX.

Was ich bei AMDs Schema unglücklich finde ist, dass das z.B. 9 von R9 zusammen mit den restlichen Ziffern wieder eine vierstellige Zahl ergibt, was dem alten Schema sehr ähnelt. Bei Nvidia gibt es das Problem nicht, da deren Präfix aus Buchstaben besteht. So ist das nix Halbes und nix Ganzes.

Jein, nur ein 3770 vs 3570 vs 3220 ist zwar nett, aber welche CPUs wieviel Kerne / HTT etc hat wird nur beindgt ersichtlich. Da ist ein i3/i5/i7 einfacher / klarer und(!) das wichtigste: i7 = High End, i5 = Performance, i3 = Mittelklasse. Der einfache Kunde kann dann sofort erkennen, welche grobe Leistung er erhält.

Nur die 4 Ziffern würden eher nicht reichen: 2500,3570,4670 sind dann doch etwas zu kryptisch.

Noch klarer wird meine Argumentation bei den i3/i5:

3330 = i5 der 3. Gen, 4 Kerne, 4 Threads
4330 = i3 der 4. Gen, 2 Kerne, 2 Threads

EDIT: Autsch, ich sehe gerade, dass ein 4430 (teils deutlich) langsamer(!) ist als ein 3330 (logischerweise). Ergo gehen 4 Ziffern alleine gar nicht.

Das will man nicht wirklich auswendig lernen, also die vierstelligen Bezeichnungen und welche jetzt für welche Leistungsklasse steht.

Es hat sich doch bewährt, dass man einfache, klare, kurze Bezeichnungen zu Beginn anführt, um eine grobe Leistungklasse anzuzeigen.

boxleitnerb
2013-09-10, 12:49:11
Und wer genau, der sich nicht ausgiebig damit beschäftigt weiß, was eine GTX oder GT oder GTS genau sein soll und was davon schneller ist? Nene, da ist das Schema von AMD mit R9, R7, oder Intel mit i7, i5 deutlich sinnvoller IMO. Und doppelt ist da gar nichts, denn diese Ziffer gibt Auskunft über die Leistungsklassen.

Du hast nicht kapiert, was ich gesagt habe. Mit doppelt war gemeint, dass das Präfix nur nötig ist, wenn es z.B. eine R9 270 und eine R7 270 geben würde. Eben als Differenzierung. Das wird allerdings höchstwahrscheinlich nicht so sein, doppelte Bezeichnungen (ohne Präfix) gibt es sonst auch nicht bzw. höchst selten.

Ich sag doch, das Präfix ist eigentlich irrelevant, weil die Zahl dahinter einzigartig ist und hochzählt. Das Problem ist, dass dieses System bei AMD ganz neu ist und da natürlich mit dem alten System verglichen wird. Jemand, der sich nicht auskennt, würde womöglich denken, eine Radeon R9 270 ist nur eine Lowendkarte, weil seine vorherige Karte 7970 hieß. Das Schema an sich ist nicht verkehrt, nur hätte man es deutlicher abgrenzen müssen. z.B., indem man die Zahl nach dem Präfix vierstellig macht. Es macht keinen Sinn, das Schema mit den APUs zu vereinheitlichen, dann aber bei den GPUs eine Stelle wegzulassen. Hätte die GPU-Bezeichnung insgesamt hinter dem R 5 Stellen wie bei den APUs, wäre die Verwechslungsgefahr zum alten System deutlich geringer und man könnte einfach wieder von vorne anfangen mit den bekannten Charakteristika (x9xx für Highend usw.).

Bei Nvidia war z.B. klar, dass hier ein deutlicher Bruch in der Namensgebung stattfand von 9800 GTX auf GTX 280. 4 Stellen auf 3, da sieht jeder, dass man hier umdenken muss. Bei AMD ist das nicht gegeben.
Bei Intel dasselbe, von 3 Stellen (i7-920) auf 4 (i7-3770K). Verwechslungsgefahr gebannt.

@Maximus:
Bei Intel gibt es einige unglückliche Fälle, das ist richtig. Das ist bei den GPUs aber irrelevant, denn dort ist es eigentlich immer so, dass eine höhere Zahl auch bedeutet, dass die Karte schneller ist innerhalb derselben Generation.

StefanV
2013-09-10, 12:50:18
Ich sehe keinen Grund darin es zu verändern. Das neue Schema hat den gleichen Inhalt nur anders dargestellt. Wozu braucht man es also?
Weil eine Radeon HD 10970 sich blöd anhört. Man möchte unbedingt bei maximal 4 Ziffern bleiben. Ausserdem kann es sein, dass AMD ihr Namensschema an den APUs anpasen will (A4,A6,Rx etc).
Genau.

Ist ja nicht so, dass es solch eine Umbenennung nicht schon früher gab. So nach der Radeon 9000 Serie. Gut, da kam dann die Xx00er Serie, gefolgt von X1000 Serie und die HD Serie, das hat man noch einigermaßen geschickt hinbekommen. Nur brauchts jetzt auch wieder 'nen neues Namenschema...

Loeschzwerg
2013-09-10, 12:56:09
Aber das macht wenigstens halbwegs Sinn bei BMW.

Bei AMD habe ich R9 (Highend), R7 (Performance), R3 (Lowend) und danach 2x0. Das X hat hier wieder 9, 7, 5 und 3... womit man wieder die Leistungsklasse angibt. Macht das Sinn? Im grunde reichen hier doch die letzten beiden Ziffern zur Klassifizierung.

@box: Sign.

boxleitnerb
2013-09-10, 13:06:55
Noch eine Anmerkung, weil ich etwas übersehen habe:

Es ist zwar natürlich auch bei AMD so, dass aus vierstellig dreistellig wird...jedoch halte ich es nach wie vor mit diesen Präfixen für ungeschickt, weil sie eben Zahlen enthalten, die ein uninformierter Käufer dazuzählen könnte. R9 270 ist einfach zu ähnlich zu Radeon 9270 mMn. Hätte AMD ein nur aus Buchstaben bestehendes Präfix gewählt wie eben GTX hätte man diese Gefahr gebannt.

fondness
2013-09-10, 13:10:21
Noch eine Anmerkung, weil ich etwas übersehen habe:

Es ist zwar natürlich auch bei AMD so, dass aus vierstellig dreistellig wird...jedoch halte ich es nach wie vor mit diesen Präfixen für ungeschickt, weil sie eben Zahlen enthalten, die ein uninformierter Käufer dazuzählen könnte. R9 270 ist einfach zu ähnlich zu Radeon 9270 mMn. Hätte AMD ein nur aus Buchstaben bestehendes Präfix gewählt wie eben GTX hätte man diese Gefahr gebannt.

Und warum genau sollte man das dazuzählen? Zu einem i7 3770K sagt ja auch niemand 73770, ich finde die Argumentation seltsam. Zumal eh auch noch ein Buchstabe am Schluss folgt, also zB R9-270X.

Loeschzwerg
2013-09-10, 13:46:55
Das Intel Schema ist auch nicht der Hit ^^

Radeon R9 290
Radeon R9 280

Radeon R7 270
Radeon R7 260

Radeon R5 250
Radeon R5 240

Radeon R3 230
Radeon R3 220

So in der Art könnte ich damit leben. Das wäre eine klare Abgrenzung und die Leistung schön durch die aufsteigenden Nummern ersichtlich.

Aber jetzt warten wir mal ab. AMD muss es zumindest entsprechend an die Welt kommunizieren. Ich hoffe das Marketing baut hier keinen Mist.

HOT
2013-09-10, 13:52:00
@boxleitnerb: So sieht es aus und man läuft eh wieder in das "10er"-Problem.

@fondness: Denk einfach an Golf GTI usw. Die Namen sind einfach griffiger und bleiben damit schneller in den Köpfen der Leute hängen.

Äh nein. R9 heißt High-End, da ist nix mit 10.
Ein R9 270 ist was anderes als ein R3 270. Man packt eigentlich nur Poduktklassenziffer vor die Generationsziffer und packt ein R statt HD davor, sonst ändert sich nix.

R9 170 = HD 7970
R9 150 = HD 7950
R7 170 = HD 7870
R5 170 = HD 7770
R5 130 = HD 7730
R3 170 = HD 7670

Kürzer als die alte Bezeichnung ist die neue also auch.

Das Intel-Schema ist total unübersichtlich, da die 2. Ziffer im Block (4x00) noch mal eine Klassenbezeichnung ist, außer bei den Stromsparern, da wiederum nicht - nein ich find die eindeutige Bezeichnung wirklich besser. Außerdem ist bei Intel teilweise i3 sehr ähnlich zu i5-Produkten. Man hat bei Intel ein totales Chaos angerichtet. Verständlich wäre es, wenn im Desktop alle 2 Kerner mit Turbo I3 hießen, alles darunter Pentium + Celeron, I5 alle 4-Kerner ohne SMT und I7 alle 4-Kerner mit SMT sowie einen I9 alle 6-Kerner. Dann hätte man in den 4 Folgeziffern alles hervorragend codieren können. Das ist aber nicht der Fall.

Loeschzwerg
2013-09-10, 14:22:18
Äh nein. R9 heißt High-End, da ist nix mit 10.


Damit meinte ich eigentlich nur man wird wieder irgendwann die "10" Grenze wie z.B. HD 10970 sprengen.

Man könnte sich ein komplett anderes Schema überlegen welches hier etwas unabhängiger und damit langlebiger ist.

Radeon GCN 190, GCN 170... usw. Dann fährt man die erste Ziffer für die Architektur-Updates nach oben (GCN 290, GCN 270) bis wieder ein großer Umbruch ansteht. Dann nennt man das ganze Radeon XYZ 190 und der Stiefel fängt von vorne an.

Die VLIW Architektur hatte 5 Serien bis GCN.

Aber das führt jetzt auch zu weit. AMD wird schon wissen was sie da machen ^^

HOT
2013-09-10, 15:15:34
Na jo, wenn die jetzt mit 200 anfangen hält das erst mal wieder viele Jahre. Man kann ATI eigentlich auch keine große Inkonsequenz bei den Nummersystemen vorwerfen außer so Ausrutscher wie das HD8000 OEM-System oder Einzelumbennenungen (wobei das bei GCN und Kepler/Fermi ja nicht mehr so wichtig ist dank gleichem Featueset).

Radeons fingen mit 7200 an dann ging es Generationsweise bis X800 (10800), daraus wurde X1800, daraus dann HD2900. Bei der 3000er kam die Codierung dazu, 3870. Das System hält sich seit November 2007 bis heute, also 6 Jahre. Da darf man aus Marketinggründen auch ruhig mal ein neues System bringen ;).

john carmack
2013-09-10, 15:26:38
Ist doch völlig irrelevant wie die Namensgebung ausfallen wird, interessant ist nur, wie schnell wird Hawaii XT/Pro und was werden die Karten kosten.
Jepp... wen interessieren irgendwelche Namen?


Ich will nicht das meine Karte "Hildegard XT" heißt :D

Wobei ich mich mit R9-XXX auch nicht wirklich anfreunden kann.
Mal schauen was uns das AMD Marketing andrehen wird.

Zu BMW... Hinter 3er 5er 7er... stehen ja eigentlich auch "Entwiklungs Nummern" so wie E30, E36, E42, E92...

maximus_hertus
2013-09-10, 15:37:38
AMD könnte ja vom Vettel lernen - statt Radeon R9 usw einfach:

Hungry Heidi, Kate's Dirty little Sister, Randy Mandy, Luscious Liz, Kinky Kylie... ;)

Sex sells und so :D

ShadowXX
2013-09-10, 15:44:55
AMD könnte ja vom Vettel lernen - statt Radeon R9 usw einfach:

Hungry Heidi, Kate's Dirty little Sister, Randy Mandy, Luscious Liz, Kinky Kylie... ;)

Sex sells und so :D
Endlich mal nen guter Vorschlag für die Benamung:biggrin:

Akkarin
2013-09-10, 16:57:44
Auch wenn es in der übergangsphase teilweise unübersichtlich ist, ist es vom Markteting her wohl die deutlich bessere Möglichkeit. So kann AMD, ähnlich wie Intel mit i7/i5/i3, auch starke Markennamen aufbauen.

robbitop
2013-09-10, 17:07:16
Intels Bezeichnung empfinde ich ebenfalls sehr gut. AMD tat ja bei den APUs nun ähnliches (A4, A6, A8, A10).

Wobei die vierstellige Zahl, die danach kommt, auch irgendwann gegen die "10" rennt.

Botcruscher
2013-09-10, 17:58:47
Intels Bezeichnung ist einfach für den Arsch. An der Nummer kann man nicht mal die Kernzahl festlegen. Ohne Tabelle geht nichts.

PS: Kein Schwein im Blödmarkt kennt Core, I3, I5, I7. Die wollen Pentium.

dargo
2013-09-10, 18:33:03
Ich will nicht das meine Karte "Hildegard XT" heißt :D

Von mir aus kann die Pillermann XTX heißen, Hauptsache P/L stimmt.

ndrs
2013-09-10, 19:25:19
Intels Bezeichnung ist einfach für den Arsch. An der Nummer kann man nicht mal die Kernzahl festlegen. Ohne Tabelle geht nichts.
Darum geht es auch nicht. Ein Name soll lediglich ein Produktimage aufbauen. Der Rest ist (aus Herstellersicht) sekundär. Und dass Intels iX nicht viel wert wäre möchte ich mal stark anzweifeln. Ich höre oft genug: "Kauf dir nen i7." "Ein i3 reicht." usw. Selbst die Generation ist dabei vielen Daus egal. Intels Leistungsklassen sind mMn im Nichtenthusiastenbereich sehr stark. Und genau diesen weg geht AMD mit dem neuen Schema auch. Aus Sicht von AMD finde ich das absolut nachvollziehbar und richtig.

Loeschzwerg
2013-09-10, 21:34:53
Da hängt im Hinterkopf allerdings noch "Core" welches in direkter Verbindung zum iX steht. Das kommt überall in der Werbung und es klebt auf jedem Notebook/Rechner.

Wie AMD hier den gleichen Effekt mit R9 oder A10 erreichen will... nja warten wir mal ab. Radeon ist immerhin noch ein halbwegs ziehender Brandname, bei den APUs gibt es dagegen nix. Was verbindet man hier mit A10? Hört sich im ersten Moment eher nach Vitaminen an :D

http://de.wikipedia.org/wiki/AMD_Fusion

Ehrlich gesagt ist das immer noch ein Chaos bei der Nummerierung und jetzt will man es bei den Radeon auch so machen? Ich bin gespannt.

HOT
2013-09-10, 22:18:34
Da fehlt ein zündender Name. Intel hat ja Core, aber einfach nur Ax ist einfach zu wenig. Die Grafikchips und der Speicher heißen ja Radeon, aber Phenom darf ja nicht mehr sein. Warum eigentlich? Spricht doch nichts gegen einen Phenom A8 oder?

Gaestle
2013-09-11, 08:46:57
Vielleicht sehen sie den Namen "Phenom" als "verbrannt" an, nachdem er in der allgemeinen Wahrnehmung bei den Gamer-Benchmarks im Vergleich zum Konkurrenten nicht so gut abgeschnitten hat.

M4xw0lf
2013-09-11, 14:09:41
Die Phenom IIs hatten schon noch ein recht gutes Ansehen, erst mit der Ankunft von Sandy Bitch wurden die auch so richtig abgehängt.

Ragor
2013-09-13, 10:53:35
GPU-Z hat im neusten Update den Support für die neuen Karten angekündigt:

Added preliminary support for AMD Radeon R7 240, R7 250, R7 260X, R9 270, R9 270X, R9 290, R9 290X

http://www.techpowerup.com/190682/techpowerup-announces-gpu-z-0-7-3.html

Scheint ernst zu werden mit dem neuen Namensschema...

Rancor
2013-09-13, 11:28:31
Mich nervt das es noch keine konkreteren Angaben gibt. Ich möchte mir eine neue VGA kaufen, da meine GTX 570 mir nicht mehr reicht. Jetzt aber noch eine der alten AMD Karten zu kaufen, macht wenig Sinn, vor allem wenn man Titan Leistung für vermutlich 500€ erwarten kann ^^ und im dem Zuge auch die Preise für die Titan und GTX 780 fallen dürften !

john carmack
2013-09-13, 12:27:50
Neue Namendgebung wohl bestätigt.

http://www.computerbase.de/news/2013-09/neue-namen-fuer-volcanic-island-bestaetigt/

AnarchX
2013-09-13, 12:29:28
GPU-Z hat im neusten Update den Support für die neuen Karten angekündigt:



http://www.techpowerup.com/190682/techpowerup-announces-gpu-z-0-7-3.html

Scheint ernst zu werden mit dem neuen Namensschema...
HIS bestätigt es auch: http://wccftech.com/digital-leak-confirms-amd-r-200-series-graphic-cards-r9290-cards-based-hawaii-gpu/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29
http://www.hisdigital.com/un/download.shtml

"HIS R9 280X iPower IceQ X² Boost Clock 3GB GDDR5 PCI-E DLDVI-I/HDMI/2xMini DP"
http://www.hisdigital.com/un/download1-769.shtml
... wenn das mal keine Produktbezeichnung ist. :freak:

john carmack
2013-09-13, 12:39:06
HIS bestätigt es auch: http://wccftech.com/digital-leak-confirms-amd-r-200-series-graphic-cards-r9290-cards-based-hawaii-gpu/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29
http://www.hisdigital.com/un/download.shtml

"HIS R9 280X iPower IceQ X² Boost Clock 3GB GDDR5 PCI-E DLDVI-I/HDMI/2xMini DP"
http://www.hisdigital.com/un/download1-769.shtml
... wenn das mal keine Produktbezeichnung ist. :freak:





= 384Bit SI ("=28nm")

boxleitnerb
2013-09-13, 12:48:38
Die 290(X) könnte 512-bit haben ;)

john carmack
2013-09-13, 12:51:05
Die 290(X) könnte 512-bit haben ;)


"HIS R9 280X iPower IceQ X² Boost Clock 3GB GDDR5 PCI-E DLDVI-I/HDMI/2xMini DP"

X = 384Bit SI


/Edit:
Sorry mein Fehler... es gibt ja noch eine 290 / 290X

Duplex
2013-09-13, 12:54:07
Wäre auch eine Möglichkeit

R9 280 3GB > Tahiti Pro
R9 280X 3GB > Tahiti XT
R9 290 4GB > Hawaii Pro
R9 290X 8GB > Hawaii XT

Botcruscher
2013-09-13, 12:54:22
X² bedeutet was? PS: OK wird heute schon so lustig bezeichnet.

boxleitnerb
2013-09-13, 12:56:24
So heißt bloß der Kühler, das gabs früher schon. 8 GB kannste vergessen Duplex, das macht auch gar keinen Sinn. 4 GB reicht vollkommen.

john carmack
2013-09-13, 12:58:01
X² bedeutet was? PS: OK wird heute schon so lustig bezeichnet.


X² bezieht sich wohl nur auf den Kühler...

boxleitnerb
2013-09-13, 12:59:41
Gibts den Link zu der Beschreibung auch für andere Karten?

Edit:
Ein paar Zahlen ersetzt:


HIS R7 240 iCooler 2GB DDR3 PCI-E HDMI/SLDVI-D/VGA
HIS R7 240 IceQ 2GB DDR3 PCI-E HDMI/SLDVI-D/VGA
HIS R7 240 iCooler 1GB GDDR5 PCI-E HDMI/SLDVI-D/VGA
HIS R7 250 iCooler 2GB DDR3 PCI-E HDMI/SLDVI-D/VGA
HIS R7 250 iCooler 1GB GDDR5 PCI-E HDMI/SLDVI-D/VGA
HIS R7 250 IceQ 1GB GDDR5 PCI-E HDMI/SLDVI-D/VGA
HIS R9 280X iPower IceQ X² Boost Clock 3GB GDDR5 PCI-E DLDVI-I/HDMI/2xMini DP

Duplex
2013-09-13, 13:00:01
8 GB kannste vergessen Duplex, das macht auch gar keinen Sinn. 4 GB reicht vollkommen.
Ich weiß, war ja nur ein Beispiel ;)
8GB erwarte ich erst bei 16nm in 3 Jahren.

john carmack
2013-09-13, 13:03:57
So heißt bloß der Kühler, das gabs früher schon. 8 GB kannste vergessen Duplex, das macht auch gar keinen Sinn. 4 GB reicht vollkommen.

7970 = 288GB/s

384Bit@7Gbps = 336GB/s (wäre ein Plus von 48 Gb/s)
512Bit@6Gbps = 384GB/s (wäre ein Plus von 96 Gb/s)

wenn man bei 28nm bleibt (und so wird es wohl kommen!) halte ich 384Bit@7Gbps = 336GB/s für am wahrscheinlichsten.

Botcruscher
2013-09-13, 13:04:47
hm

HIS R7 250 IceQ 1GB GDDR5 PCI-E HDMI/SLDVI-D/VGA
HIS R7 250 iCooler 1GB GDDR5 PCI-E HDMI/SLDVI-D/VGA
HIS R7 250 iCooler 2GB DDR3 PCI-E HDMI/SLDVI-D/VGA
HIS R7 240 iCooler 1GB GDDR5 PCI-E HDMI/SLDVI-D/VGA
HIS R7 240 IceQ 2GB DDR3 PCI-E HDMI/SLDVI-D/VGA
HIS R7 240 iCooler 2GB DDR3 PCI-E HDMI/SLDVI-D/VGA
HIS R9 280X iPower IceQ X² Boost Clock 3GB GDDR5 PCI-E DLDVI-I/HDMI/2xMini D


His soll mal die 770 in die DB packen.^^

AnarchX
2013-09-13, 13:09:02
Das werden wohl Cape Verde/Oland/Bonaire-Rebrands sein. Mit 128-Bit DDR3 wäre das wohl auch ein R5 nicht verkehrt gewesen.

Duplex
2013-09-13, 13:15:27
Wahrscheinlich sind nur die Top Modelle V.I.
384 Bit SI mit schnelleren Speicher, 20-30% mehr Lestung als die 7970 Ghz Edition.
Pirate Islands wird dann 20nm mit 512 Bit SI und gegen Maxwell 20nm antreten.

M4xw0lf
2013-09-13, 13:16:13
Ich will mehr über die R9 290-Teile wissen, jetzt! :popcorn:

john carmack
2013-09-13, 13:23:28
man sollte nicht vergessen das viele davon ausgehen das nur die TopModelle (R9 290) VI sein werden... Vielleicht ändert sich doch noch was am SI